PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

Nightspider
2012-11-04, 23:48:18
Mensch Dargo...mit mehr RAM könnte man mehr Daten im Hintergrund behalten, die seltener benutzt werden und müsste weniger Streamen. Dadurch wird Leistung frei weil das Echtzeit-Streaming Leistung frisst.
Man muss einfach seltener Daten überschreiben und neu laden.
Dadurch muss man auch weniger Daten von der BluRay Disk laden. -> Laufwerk wird auch entlastet -> leiser oder mehr Leistung

Tesseract
2012-11-04, 23:48:18
Ach ja... für was denn? Riesige Spielewelten erfordern auch extreme CPU- und GPU-Leistung.

in erster linie texturen, heightmaps, normalmaps etc.
für große welten muss man sich sowieso sinnvolle level-of-detail-mechaniken ausdenken anstatt immer alles zu berechnen und rendern.
nimm ein spiel wie z.B. skyrim, verdopple die achsenauflösung jeder textur im spiel gegenüber dem offiziellen texturpack (und nicht nur von 10 "vorzeigetexturen" an irgendwelchen schlüsselpositionen wie das "ultra-textur-mods" gerne machen) und schon wird es mit 6GB vram eher eng werden.

dazu brauchst du auch nur unwesentlich mehr GPU-power. ob du 1000 mal die selben textursamples ausliest oder 1000 verschiedene ist der GPU relativ egal.

Es gilt aber immer noch der Grundsatz - passende Ramgröße zur vorhandenen Rohleistung und kein Overkill.

es gibt bereiche wo das tendenziell der fall ist, z.B. die anzahl der CPU-cores oder der systemram wenn dieser nicht von der GPU genutzt werden kann.
für andere bereiche gilt das eigentlich kaum. vram, polygondurchsatz oder computeshader-durchsatz sind z.B. dinge, die du quasi unabhängig voneinander beliebig steigern kannst so lange es das budget zulässt.

zumindest solange sich die spiele in sachen gameplay und aufbau nicht grundlegend ändern.

Coda
2012-11-04, 23:56:11
Mensch Dargo...mit mehr RAM könnte man mehr Daten im Hintergrund behalten, die seltener benutzt werden und müsste weniger Streamen. Dadurch wird Leistung frei weil das Echtzeit-Streaming Leistung frisst.
Man muss einfach seltener Daten überschreiben und neu laden.
Dadurch muss man auch weniger Daten von der BluRay Disk laden. -> Laufwerk wird auch entlastet -> leiser oder mehr Leistung
Und wie bekommst du diese Datenmengen geladen ohne ne halbe Stunde zu warten?

Felixxz2
2012-11-05, 00:35:59
Im Hintergrund? Das Laden was momentan gebraucht wird, losspielen, im Hintergrund später benötigte Daten weiterladen -> weniger streamen, weniger Ladezeiten

Ronny145
2012-11-05, 00:36:10
in erster linie texturen, heightmaps, normalmaps etc.
für große welten muss man sich sowieso sinnvolle level-of-detail-mechaniken ausdenken anstatt immer alles zu berechnen und rendern.
nimm ein spiel wie z.B. skyrim, verdopple die achsenauflösung jeder textur im spiel gegenüber dem offiziellen texturpack (und nicht nur von 10 "vorzeigetexturen" an irgendwelchen schlüsselpositionen wie das "ultra-textur-mods" gerne machen) und schon wird es mit 6GB vram eher eng werden.

dazu brauchst du auch nur unwesentlich mehr GPU-power. ob du 1000 mal die selben textursamples ausliest oder 1000 verschiedene ist der GPU relativ egal.



In 720p mit 4xMSAA (wenn überhaupt)? Ich glaube nicht, dass 3GB zu wenig wären. Ich denke mal dargo ging von Full HD 8xMSAA aus. Das wird sicher nicht das typische Konsolensetting mit einer A10 APU werden, davor macht die GPU schlapp. Im Normalfall reichen 2GB VRAM für 3840x2160 bis 4xMSAA in heutigen PC Spielen aus. Mit 3GB VRAM hätte man in einem 720p 1x-4xMSAA Konsolensetting extrem viel Luft für hochauflösende Texturen nach oben. Um realistisch zu sein wäre ich mit insgesamt 4GB RAM zufrieden. Mehr wäre immer besser, nur daran glauben kann ich nicht.

Tesseract
2012-11-05, 00:45:17
In 720p mit 4xMSAA (wenn überhaupt)? Ich glaube nicht, dass 3GB zu wenig wären. Ich denke mal dargo ging von Full HD 8xMSAA aus. Das wird sicher nicht das typische Konsolensetting mit einer A10 APU werden, davor macht die GPU schlapp. Im Normalfall reichen 2GB VRAM für 3840x2160 bis 4xMSAA in heutigen PC Spielen aus. Mit 3GB VRAM hätte man in einem 720p 1x-4xMSAA Konsolensetting extrem viel Luft für hochauflösende Texturen nach oben. Um realistisch zu sein wäre ich mit insgesamt 4GB RAM zufrieden. Mehr wäre immer besser, nur daran glauben kann ich nicht.

mit der auflösung ändert sich nur der framebuffer und der ist ein bruchteil des genutzten vrams. das meiste sind texturen, vertices und ähnliches und das skaliert nicht mit der auflösung nach oben oder unten.

Coda
2012-11-05, 00:51:56
Im Hintergrund? Das Laden was momentan gebraucht wird, losspielen, im Hintergrund später benötigte Daten weiterladen -> weniger streamen, weniger Ladezeiten
Gratulation, du hast Streaming beschrieben.

Ronny145
2012-11-05, 00:55:26
mit der auflösung ändert sich nur der framebuffer und der ist ein bruchteil des genutzten vrams. das meiste sind texturen, vertices und ähnliches und das skaliert nicht mit der auflösung nach oben oder unten.


So wenig kann das gar nicht sein. Es reicht aus um vom problemlosen 1920x1200 4x-8x MSAA auf 2560x1600 4x-8x MSAA einen extremen Einbruch zu erzwingen. Getestet auf meiner 1GB Karte.

Tesseract
2012-11-05, 01:03:22
So wenig kann das gar nicht sein. Es reicht aus um vom problemlosen 1920x1200 4x-8x MSAA auf 2560x1600 4x-8x MSAA einen extremen Einbruch zu erzwingen. Getestet auf meiner 1GB Karte.

selbst in den fällen ist der framebuffer nur ~100MB groß.

Ronny145
2012-11-05, 01:12:46
selbst in den fällen ist der framebuffer noch <100MB groß.


Wie kommst du auf <100MB? Mit <20MB wäre es der Realität gerecht. Zwischen 1200p und 1600p liegen nur 6-7 MB framebuffer. Ob das gleich einen 3x fps Einbruch durch VRAM Mangel verursachen kann?

Tesseract
2012-11-05, 01:18:36
Wie kommst du auf <100MB? Mit <20MB wäre es der Realität gerecht. Zwischen 1200p und 1600p liegen nur 6-7 MB framebuffer. Ob das gleich einen 3x fps Einbruch durch VRAM Mangel verursachen kann?

((farbtiefe/8)*x_auflösung*y_auflösung*multibufferfaktor*anzahl_der_buffer)/(1024*1024)

und sobald der vram voll ist muss der treiber auslagern und dann bricht natürlich alles ins bodenlose ein.

Gipsel
2012-11-05, 01:20:33
selbst in den fällen ist der framebuffer nur ~100MB groß.
Bei einer Engine mit deferred Shading kann der G-Buffer ziemlich groß werden. Es ist nicht immer nur der Framebuffer an sich, der mit der Auflösung skaliert.

Hayab
2012-11-05, 01:38:53
Mit mehr RAM kann man die LOD distanzen steigern genauso mipmaplevel, bessere Texturen, mehr polygone fuer die nahen LODs, groessere Texturvielfalt. Somit waeren 16GB ram sinnvoll fuer leute die sich mit Spieldesign beschaeftigen, fuer BWL Fuzies ist das reine Resourcenverschwendung. Mehr RAM mehr Hardwarekosten, mit mehr RAM wird besserer Content benoetigt, (bessere Texturen, bessere LODs).
Das kostet Geld und genau das ihr Job, alles tot zu sparen, damit die Dividende am ende des Quartals stimmt.

Ronny145
2012-11-05, 01:39:51
((farbtiefe/8)*x_auflösung*y_auflösung*multibufferfaktor*anzahl_der_buffer)/(1024*1024)

und sobald der vram voll ist muss der treiber auslagern und dann bricht natürlich alles ins bodenlose ein.

Nö ein sofortiger Einbruch muss nicht sein, wofür gibt es ein VRAM Management? Einbrechen wird das nicht sofort, aber es hat irgendwann seine Grenzen erreicht wo nichts mehr geht. Was sind Buffer?

Bei einer Engine mit deferred Shading kann der G-Buffer ziemlich groß werden. Es ist nicht immer nur der Framebuffer an sich, der mit der Auflösung skaliert.


Aha, das erscheint mir logischer. Die Auflösung kann dabei nicht so eine kleine Rolle spielen. Waren wohl deferred Spiele wo ich das beobachtet habe (pCARS definitiv). Wie groß kann das werden, lässt sich das beziffern?

HarryHirsch
2012-11-05, 01:43:01
Nö ein sofortiger Einbruch muss nicht sein, wofür gibt es ein VRAM Management? Einbrechen wird das nicht sofort, aber es hat irgendwann seine Grenzen erreicht wo nichts mehr geht. Was sind Buffer?




Aha, das erscheint mir logischer. Die Auflösung kann dabei nicht so eine kleine Rolle spielen. Waren wohl deferred Spiele wo ich das beobachtet habe (pCARS definitiv). Wie groß kann das werden, lässt sich das beziffern?

bei nv tut es genau das, bei ati übrigens auch.

Ronny145
2012-11-05, 01:46:30
bei nv tut es genau das, bei ati übrigens auch.


Was tut es genau? Vor ein paar Jahren gab es oft Diskussionen über das bessere VRAM Management von AMD/Ati bei vollem VRAM (oder andersrum). Keine Ahnung wie das heute aussieht.

HarryHirsch
2012-11-05, 01:47:59
bei ati ist es nicht so extrem, das war es auch schon.

Tesseract
2012-11-05, 01:50:07
Nö ein sofortiger Einbruch muss nicht sein, wofür gibt es ein VRAM Management? Einbrechen wird das nicht sofort, aber es hat irgendwann seine Grenzen erreicht wo nichts mehr geht. Was sind Buffer?

was meinst du mit "muss nicht sein"? wenn im vram kein platz mehr ist müssen die daten über den bus und das ist halt langsam. voller als voll kann man den physischen vram nicht machen.

@buffer: wenn du pro pixel mehrere subpixel speichern musst vervielfacht das den framebuffer und im normalfall hat man mehrere davon für den bufferswap. z.B. 2 bei doublebuffering oder 3 bei triplebuffer.

Was tut es genau? Vor ein paar Jahren gab es oft Diskussionen über das bessere VRAM Management von AMD/Ati bei vollem VRAM (oder andersrum). Keine Ahnung wie das heute aussieht.
das vram-management bestimmt halt was ausgelagert wird wenn der vram voll ist. wenn du eine textur auslagerst die zwar im vram liegt aber aus der die nächsten frames garnicht gelesen wird ist das auslagern nicht so problematisch als wenn du ständig wieder etwas zurückkopieren musst.

Ronny145
2012-11-05, 02:08:25
was meinst du mit "muss nicht sein"? wenn im vram kein platz mehr ist müssen die daten über den bus und das ist halt langsam. voller als voll kann den physische vram nicht machen.


Weil das VRAM Managament nicht benötige Daten ausspucken kann und somit kurzzeitig neuen Platz schafft? Die VRAM Anzeigen, falls sie denn stimmen, können längst Vollbelegung anzeigen und trotzdem kann es ruckelfrei laufen. Irgendwann ist natürlich Feierabend. Das war früher noch ein größeres Thema. Ati ist bei vollem VRAM früher besser umgegangen als Nvidia. Also so schnell erfolgt der Einbruch nicht wegen geringfügig mehr VRAM Bedarf. Aber Gipsel hat es ja schon mehr oder weniger aufgelöst, der G-Buffer erhöht den Bedarf mehr als du gedacht hast. Hätte mich sonst echt gewundert.

dargo
2012-11-05, 07:44:23
Mit mehr RAM kann man die LOD distanzen steigern genauso mipmaplevel, bessere Texturen, mehr polygone fuer die nahen LODs, groessere Texturvielfalt. Somit waeren 16GB ram sinnvoll fuer leute die sich mit Spieldesign beschaeftigen, fuer BWL Fuzies ist das reine Resourcenverschwendung.
Aha... und LOD ist außerhalb der Ram-Größe natürlich kostenlos. Sieht man besonders gut bei GTA IV. :rolleyes:

Ailuros
2012-11-05, 07:56:16
Fuer G-buffer/tiling/virtual texturing etc. hier ist ein thread bei B3D wo Intel's Andrew Lauritzen aktiv mitschreibt:

http://forum.beyond3d.com/showthread.php?t=62552

Fuer das AF Zeug mit der Bandbreite, koennt Ihr es teilweise ueberfliegen da Andrew wohl anhand seinem EVFS Algorithmus fuer Schatten (wo man AF ueber unkomprimierte Texturen buegelt) wohl etwas extrem voreingenommen.

Sonst gibt es schon ein paar nutzvolle hints zum Thema.

Gaestle
2012-11-05, 09:09:28
Sind denn bei einem PC die Inhalte von V-RAM und SystemRam gleich?

Ich meine, bringen beim PC 4GB SystemRAM beim Zocken(!) Vorteile gegenüber z.B. 2GB-SystemRAM, wenn alles andere identisch ist und z.B. jeweils eine 680GTX mit 4GB drin hängt?

Wenn (!) in einer solchen Konstellation der SystemRam Vorteile bringt, müssten dann nicht auch Konsolen von viel RAM profitieren, der über den notwendigen VRAM hinaus geht?

Ailuros
2012-11-05, 09:36:57
Sind denn bei einem PC die Inhalte von V-RAM und SystemRam gleich?

Ich meine, bringen beim PC 4GB SystemRAM beim Zocken(!) Vorteile gegenüber z.B. 2GB-SystemRAM, wenn alles andere identisch ist und z.B. jeweils eine 680GTX mit 4GB drin hängt?

Wenn (!) in einer solchen Konstellation der SystemRam Vorteile bringt, müssten dann nicht auch Konsolen von viel RAM profitieren, der über den notwendigen VRAM hinaus geht?

Es hat keinen besonderen Sinn die obrige Fragen zu beantworten da die kommenden Sony/Microsoft Konsolen SoCs haben werden.

Sonst fuer PCs braucht man je nach OS jeweils ein bestimmtes Minimum an System Speicher fuer high end 3D, fuer =/>win7 waeren 4GB schon IMO das absolute Minimum. Generell aber bei standalone GPUs in PCs ist es stets besser dass die GPU so wenig wie moeglich Daten in den System-Speicher ausladet, eben weil die Bandbreite des onboard GPU Speichers diametrisch groesser ist.

Bei SoCs handelt es sich dann schon um andere Tiere.

Skysnake
2012-11-05, 09:57:23
Und wie bekommst du diese Datenmengen geladen ohne ne halbe Stunde zu warten?
Ähm, dein Ernst?

Wir lesen mit ~100 MB/s von der Festplatte, und über PCI-E jagen wir mit ~8GB/s drüber. Ergo ist eigentlich nur die Festplatte der Flaschenhals.

Bei 6 GB RAM brauchen wir also gewaltige ~60 Sekunden um den voll zu knallen. Das ist durchaus vertretbar, zumal wir ja dabei auch noch davon ausgehen, das wir unkomprimierte Daten lesen, den RAM komplett ausfüllen und die Daten auf der Disk fertig daliegen.

Also ich seh da dein Problem wirklich nicht.

Es hat keinen besonderen Sinn die obrige Fragen zu beantworten da die kommenden Sony/Microsoft Konsolen SoCs haben werden.

Sonst fuer PCs braucht man je nach OS jeweils ein bestimmtes Minimum an System Speicher fuer high end 3D, fuer =/>win7 waeren 4GB schon IMO das absolute Minimum. Generell aber bei standalone GPUs in PCs ist es stets besser dass die GPU so wenig wie moeglich Daten in den System-Speicher ausladet, eben weil die Bandbreite des onboard GPU Speichers diametrisch groesser ist.

Bei SoCs handelt es sich dann schon um andere Tiere.
Haut da nicht eher die Latenz rein?

Ich müsste mal die Daten raus suchen, wie lange ein Transfer braucht, aber es ist LAAAAAAAAAAAAAANGE

Locuza
2012-11-05, 10:11:28
Es hat keinen besonderen Sinn die obrige Fragen zu beantworten da die kommenden Sony/Microsoft Konsolen SoCs haben werden.

Wie sieht es dann aus? CPU und GPU auf einem die, welche dann mit256 Bit (?) an die Speicherchips angeschlossen wird?
Sollte nicht ebenso wohl wieder edram in das Design wandern, welches sich dann zu der CPU und GPU dazu gesellt?
Dann müsste das SoC ja in einem Bereich von rund 400mm² gefertigt werden.

Ich will nur mein Gewissen beruhigt bekommen, falls es abwegig ist, dass eine "APU" und eine dedizierte GPU als MCM realisiert werden.

Ailuros
2012-11-05, 10:30:15
Wie sieht es dann aus? CPU und GPU auf einem die, welche dann mit256 Bit (?) an die Speicherchips angeschlossen wird?
Sollte nicht ebenso wohl wieder edram in das Design wandern, welches sich dann zu der CPU und GPU dazu gesellt?
Dann müsste das SoC ja in einem Bereich von rund 400mm² gefertigt werden.

Wieso 400mm2? Was eDRAM betrifft ich lass mich gerne eines besseren belehren aber wo immer es benutzt werden wird, hab ich eher das Gefuehl eher als "Teil-framebuffer" wie bei Xenos.

Ich will nur mein Gewissen beruhigt bekommen, falls es abwegig ist, dass eine "APU" und eine dedizierte GPU als MCM realisiert werden.

Es sind afaik SoCs.

AnarchX
2012-11-05, 10:34:24
Bei der PS4 spekuliert man ja auf eine 512-Bit Interposer-Lösung: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9501768#post9501768

Damit sich der Aufwand lohnt, muss da wohl schon mindestens 2Gbps Speicher verbaut sein: 128GB/s. Besser natürlich in Richtung 4Gbps. 128-Bit GDDR5 liefern auch schon gute 80GB/s.

Locuza
2012-11-05, 10:41:38
Wieso 400mm2?
Wie groß soll dann das SoC denn ungefähr sonst sein?
Man wird ja kaum bei der Next-Gen Konsole mit 2 Modulen und um die 400-ALUs antreten.
Irgendetwas muss ja aufgebohrt werden und Trinity bewegt sich gerade bei 246mm².

robbitop
2012-11-05, 10:41:58
Der eDRAM wird bestimmt ein separater ASIC. Die Fertigung von eDRAM hat andere Prämissen. Das Ding wird breit auf dem gleichen Package angebunden. Ob nun über Interposer oder sonst wie. Das ging ja auch schon auf der X-Box360.

Wie groß soll denn das SoC denn ungefähr sonst sein?
Man wird ja kaum bei der Next-Gen Konsole mit 2 Modulen und um die 400-ALUs antreten.
Irgendwas muss ja aufgebohrt werden und Trinity bewegt sich gerade bei 246mm².
Vieleicht ist es ja kein Bulldozerabkömmling sondern ein Bobcatabkömmling.

Wenn man bei Bulldozer(abkömmling) bleibt, und nicht unbedingt eine Highendkonsole bauen will, wird es bei 2-3M bleiben. GPU Leistung irgendwas bei Pitcairn.

Locuza
2012-11-05, 10:52:09
Also die 2 "komischen" Jungs beim Gaf haben für beide Jaguar gesehen.

Alright, I'm in Toronto and was talking to my buddy who works at the AMD headquarters here.

As of what he tells me, they both are using same chip with different specifications from Sony and Microsoft, something like the market's 7700-7800, not really sure. He did mention the word "Jaguar processor".

As for the PS4, the first chip has already been sent out two months ago, it is back after a month or so, for the second revision. He says there should be a third and if they don't see any problems, should be ready for mass production. Apparently, AMD did delay the work, he says it is around 6 months behind schedule.

The Xbox 720/loop or whatever it is called, they are about to ship the chip tomorrow, they are expecting it back within a month or so for the second revision. Xbox is right on time, no delays so far. A feature for the Xbox that the PS4 doesn't have is something related to "ARM security". I did not get that part. However the internal talk at AMD is that, the Xbox is like a super computer(not sure if it is the chip or the console). Him and the team at AMD feels the Xbox is going to be more 'powerful'.
Das hat er Mitte Oktober erzählt.

Der andere meinte Power (Xbox) und Piledriver (PS) wurden durch 4 Jaguar-Cores ersetzt und noch eine menge Quatsch stand mit dabei.

Und dann natürlich unsere angeblichen Devkit mit einem 8-Core Sandy und einer 570 GTX im Falle von der Xbox und dem ersten PS4 Devkit mit Llano und noch einer dedizierter GPU und jetzt soll das Dev-Kit mit Trinity ersetzt geworden sein.

Gipsel
2012-11-05, 12:01:33
Aha, das erscheint mir logischer. Die Auflösung kann dabei nicht so eine kleine Rolle spielen. Waren wohl deferred Spiele wo ich das beobachtet habe (pCARS definitiv). Wie groß kann das werden, lässt sich das beziffern?
@buffer: wenn du pro pixel mehrere subpixel speichern musst vervielfacht das den framebuffer und im normalfall hat man mehrere davon für den bufferswap. z.B. 2 bei doublebuffering oder 3 bei triplebuffer.
Fuer G-buffer/tiling/virtual texturing etc. hier ist ein thread bei B3D wo Intel's Andrew Lauritzen aktiv mitschreibt:

http://forum.beyond3d.com/showthread.php?t=62552
[..]
Sonst gibt es schon ein paar nutzvolle hints zum Thema.
Ja, in dem Thread fallen ein paar Zahlen, die ich auch so im Hinterkopf hatte. BF3 auf der PS3 nutzt angeblich 16 bzw. 20 Byte (mit Z-Werten) pro Pixel und für modernere Anforderungen benötigt man wohl eher in die Richtung von 32 bis 48 Byte pro Pixel für den G-Buffer. Für Antialiasing (also richtiges, nicht nur die Postprocessing Filter wie MLAA/FXAA) muß man dann mindestens einen Teil davon auch noch mit mehreren Subsamples vorhalten, wodurch die noch größer werden. Das wird sehr schnell größer als der eigentliche Framebuffer (den es dann normalerweise doppelt/dreifach gibt wegen der Framequeue [früher mal double/triple buffering]).

y33H@
2012-11-05, 13:03:34
Die ARM-Security-Nummer spricht allerdings für Jaguar, denn Kabini hat vier Jaguar-Kerne sowie einen Cortex A5 für Trustzone. Also vielleicht breiterer Kabini samt GCN-iGPU und passend dazu eine Pitcairn-GPU, welche ja auch auf GCN basiert. Klingt nicht abwegig ...

Coda
2012-11-05, 13:04:34
Einen A15 für die Trustzone? Nie im Leben. Woher kommt das?

y33H@
2012-11-05, 13:06:43
Sorry, A5 nicht A15.

EDIT
http://www.amd.com/us/press-releases/Pages/amd-strengthens-security-2012jun13.aspx

Steckt in Kabini mit drin ...

Coda
2012-11-05, 13:09:30
Ist ja fast das gleiche :ulol: Nur so ungefähr drei bis vier Magnituden Größenunterschied.

y33H@
2012-11-05, 13:12:14
Sorry, hatte gerade was mit dem Samsung Nexus 10 am laufen :usad: daher A15 statt A5 ^^

Ailuros
2012-11-05, 13:32:22
Ist ja fast das gleiche :ulol: Nur so ungefähr drei bis vier Magnituden Größenunterschied.

Wehe wenn Du Dich mal mit einer einzelnen Ziffer vertippen solltest :freak:

Nightspider
2012-11-05, 18:01:01
Gratulation, du hast Streaming beschrieben.

Was soll die blöde sinnfreie Frage?

Du weißt doch selbst das man mit mehr RAM weniger Laden muss, weil weniger zwischendurch gelöscht werden muss.
Das ist so logisch das man es schon gar nicht erklären braucht.

Klar läd man Anfangs mehr in den RAM weil man diesen ja auch füllen will aber danach löscht man, gegenbenfalls deutlich, weniger Daten und muss nicht die gleichen Daten immer und immer wieder Laden/Löschen.

Somit steigt das Volumen an Daten, die man oft benötigt und die dauerhaft im RAM verbleiben können.

To easy to discribe.

Edit:

Übrigens ist stupides Daten in den RAM laden nicht gleich Streaming bzw. nicht mit dem Streaming wie zB. bei Rollenspielen gleichzusetzen bei denen ununterbrochen geprüft wird, welche Daten aktuell benötigt werden und welche in Kürze benötigt werden um gegebenfalls Datenpakete zu löschen um Platz frei zu machen.
Denn das Programm weiß nicht von selbst, welche Daten nicht mehr benötigt werden. Das muss man dem Spiel erst beibringen. Das heutige Streaming gab es, soweit ich weiß, bei der letzten Konsolengeneration auch noch gar nicht weil die CPU Leistung gefehlt hätte.

Wenn du also dank doppeltem RAM schon im Hintergrund ein Video lädst, weil Leistung frei wurde (durch selteneres Löschen und Laden von RAM-Inhalten) würde ich das Laden des Videos im Hintergrund nicht als Streaming bezeichnen.

Streaming != Streaming

Das weiß selbst ich als Laie.

oids
2012-11-05, 19:25:54
Chris Roberts über Konsolen- und PC-Spiele (http://www.4players.de/4players.php/spielinfonews/PC-CDROM/33117/2118137/Star_Citizen%7CChris_Roberts_High-End-PCs_und_aufgewaermte_Konsolen-Umsetzungen.html):
Chris Roberts, der momentan an Star Citizen arbeitet, hat in einem Interview mit ArsTechnica u.a. darüber gesprochen, dass sowohl die aktuelle Konsolen-Generation als auch die nächste Generation zu wenig Leistung (Hardware) hat bzw. haben wird, um das Weltraum-Spiel ansprechend darstellen zu können - schließlich soll Star Citizen die Grafik-Messlatte weit nach oben legen.
[..]
Last but not least sagte Chris Roberts, dass ein High-End-PC viel mehr verdiene als aufgewärmte Umsetzungen von Spielen, die eigentlich für Konsolen produziert wurden: "Ich habe einen High-End-Gaming-PC, aber ich habe auch alle Konsolen und wenn jemand ein Spiel zuerst für die Konsolen entwickelt und es auch für PC umsetzt, dann kaufe ich immer die Konsolenversion. Ich möchte keine unfertige Portierung eines Konsolenspiels auf meinem PC - dessen Leistungspotenzial nicht genutzt wird.
Hochinteressant ist dabei die Aussage, wonach laut Chris Roberts ein heutiger HighEnd-PC schon schneller sein soll als eine der NextGen-Konsolen Xbox 720 und Playstation 4 – immerhin dürften Chris Roberts als bekannter Spielentwickler schon genauere Hardware-Daten seitens Microsoft und Sony vorliegen haben. Diese Aussage untermauert unsere früheren Einschätzungen auf Basis der bislang zu Xbox 720 und Playstation 4 vorliegenden (natürlich unsicheren) Spezifikationen: Da beide NextGen-Konsolen scheinbar nur mit der aktuell zweitschnellsten AMD-Grafiklösung (Pitcairn-Chip der Radeon HD 7800 Serie) ausgerüstet sein werden, sind jene bereits vor Erscheinen vom PC bezüglich der reinen Rohperformance überholt.

Trotz daß Xbox 720 & Playstation 4 keine nominelle HighEnd-Grafiklösungen aufweisen können, dürfte deren reale Grafikperformance zumindest anfänglich auf dem Niveau des PCs liegen. Der PC entwickelt sich allerdings im Gegensatz zu den Spielekonsolen technisch weiter und schon im Jahr 2014 werden dann 20nm-Grafikchips erscheinen, von denen schnell die drei- bis vierfache Rohpower gegenüber Xbox 720 und Playstation 4 zu erwarten ist.

Gipsel
2012-11-05, 19:35:06
Zitat:"Chris Roberts, der momentan an Star Citizen arbeitet, hat in einem Interview mit ArsTechnica u.a. darüber gesprochen, dass sowohl die aktuelle Konsolen-Generation als auch die nächste Generation zu wenig Leistung (Hardware) hat bzw. haben wird, um das Weltraum-Spiel ansprechend darstellen zu können - schließlich soll Star Citizen die Grafik-Messlatte weit nach oben legen.
Das ist vielleicht auch ein Thema für diesen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9532851#post9532851). Denn Chris Roberts will dort eine Lanze für den PC brechen. Das dort verlinkte Video fängt ja vor den Spielsequenzen so an:
They said I was dead,
they said console was the future,
now they say mobile and tablets are the future.
I say to you, the reports of my death have been greatly exaggerated.
I AM A PC GAME!
And I am a space sim.:D

oids
2012-11-05, 20:20:32
Sorry Gipsel für den ähh Full Quote :rolleyes:

Ich mußte erst mal nachschlagen was das genau bedeutet :redface:

Aber das gepostete ist doch wohl geil :biggrin:

tobor
2012-11-06, 20:34:41
Marketinggesuelze, um mehr Geld beim Crowdfounding zu bekommen.

oids
2012-11-06, 20:45:47
Bist Du wirklich der Meinung ein Chris Roberts hat es nötig irgendwie rumzusülzen,oder traust Du ihm das Projekt nicht zu?

Immerhin hat er einen (guten) Namen zu verlieren :wink:

tobor
2012-11-07, 00:41:01
Das letze Mal an einem Spiel beteiligt war er 2004 als Berater und mit dem ueblichen Budget von Crowdfundingprojekten ist ein Titel,der neue optische
Massstaebe setzt. vollkommen undenkbar. Contenterstellung wird mit zunehmender Grafikqualitaet teurer. nicht billiger...

del_4901
2012-11-07, 01:40:41
Der Content ist vllt. gar nicht das Problem. Eher das er das ganze als MMO ansetzen möchte. Ich kann mir nicht vorstellen, daß die Cryengine das einfach so mitmacht. Allerdings war ich ja schon positiv überrascht das der Prototyp nicht in Unity gemacht wurde. ;-)

N0Thing
2012-11-07, 02:10:58
Naja, wirklich als MMO ist es ja nicht geplant. Maximal 64 Spieler sind, soweit ich mich recht erinnere, in einer Instanz geplant.

oids
2012-11-07, 02:30:14
Das letze Mal an einem Spiel beteiligt war er 2004 als Berater und mit dem ueblichen Budget von Crowdfundingprojekten ist ein Titel,der neue optische
Massstaebe setzt. vollkommen undenkbar. Contenterstellung wird mit zunehmender Grafikqualitaet teurer. nicht billiger...


"Das Finanzierungsmodell sieht eine Kombination des Crowdfunding mit Eigenkapital und dem Engagement industrieller Sponsoren vor."

Quelle:http://www.heise.de/newsticker/meldung/Chris-Roberts-will-mit-Star-Citizen-zurueck-auf-Spieler-PCs-1733046.html


Die Erfolgsformel ist auch gar nicht so komliziert:

Chris Roberts+Crytek= Megagame ;D

Werewolf
2012-11-07, 03:05:08
http://assets.sbnation.com/assets/1191927/xboxsurface.jpg

"Stationary Computing Device" ;)

Ist natürlich etwas alt die Folie.

Palpatin
2012-11-07, 08:28:02
Ist natürlich etwas alt die Folie.
Vermutlich vom ersten April, aber erst vor ein paar Tagen durchgesickert. Würd ja Sinn machen das MS sowas in die Richtung plant aber die Specs auf der Folie sind völlig :crazy:.

AnarchX
2012-11-07, 08:58:33
12 Power 7 Cores. ;D

Pennywise
2012-11-07, 09:03:34
Da wurden wohl ein paar Specs durcheinander gewürfelt :)

dargo
2012-11-07, 09:44:52
12 Power 7 Cores. ;D
Die 10K SCSI HDD hat auch was. :uup:

tobor
2012-11-07, 10:04:13
Der Content ist vllt. gar nicht das Problem. Eher das er das ganze als MMO ansetzen möchte. Ich kann mir nicht vorstellen, daß die Cryengine das einfach so mitmacht. Allerdings war ich ja schon positiv überrascht das der Prototyp nicht in Unity gemacht wurde. ;-)
Wenn der meiste Content generisch ist und oft wiederverwendet wird...
So setzt man aber keine neuen optischen Massstaebe.
Zum Vergleich:Witcher 2 hat 15 Millionen gekostet und Roberts steht nur ein Bruchteil dessen zur Verfuegung.
Und mit diesem Mitteln soll 2014 ein Spiel erscheinen, dass optisch beeindruck?

Fragman
2012-11-07, 10:34:56
roberts wird auch diese summe zur verfuegung haben da investoren ordentlich was drauflegen zu dem crowdfundinggeld.

Felixxz2
2012-11-07, 10:58:10
Und natürlich 1,2 GB VRAM :D

Werewolf
2012-11-07, 15:38:16
Vermutlich vom ersten April, aber erst vor ein paar Tagen durchgesickert. Würd ja Sinn machen das MS sowas in die Richtung plant aber die Specs auf der Folie sind völlig :crazy:.

Nur weil du kein 22.2 dahoam hast. ;D

Coda
2012-11-08, 10:26:09
Warum geht eigentlich jeder von Pitcairn aus?

dargo
2012-11-08, 10:27:24
Weil einer das Gerücht in die Welt gesetzt hat. :D

Aber ist es so abwegig? Ich meine Pitcairn ist 212mm² @28nm groß. Ich gehe jetzt davon aus, dass die SoCs in den nächsten Konsolen ebenfalls in 28nm gefertigt werden. Mit knapp 100mm² für die CPU sollte auch eine ordentliche CPU bei rumkommen. Oder meinst du ~300mm² sind zu hoch gepokert?

AnarchX
2012-11-08, 10:29:38
Weil er mit dem Dual-Setup eine relativ vernünftige Front-End-Leistung hat und auf die HPC-Funktionen von Tahiti verzichtet? Vielleicht sind es auch nur 2x 384SPs?

dargo
2012-11-08, 10:38:15
Wenn Pitcairn, dann denke ich sicherlich nicht voll ausgefahren. Dafür ist wohl die TDP schon etwas zu hoch. Aber irgendwas in Richtung Pitcairn Pro Abklatsch und man dürfte inkl. der CPU bei ~200W TDP bleiben. Denkbar ist natürlich auch Cape Verde.

AnarchX
2012-11-08, 10:46:24
Ein 768SPs Pitcairn @ 860MHz bietet da schon eine ziemlich ordentliche Leistung: http://www.tomshardware.com/reviews/768-shader-pitcairn-review,3196.html

Fragt sich natürlich ob man mit eDRAM und 128-Bit GDDR5 eine ähnliche effektive Bandbreite erzielen kann. Aber mit ein paar Optimierungen und Auflösungstrick, sollte das subjektive visuelle Ergebnis nicht so weit von einem PC mit HD 7870 oder 7950 weg liegen.

dargo
2012-11-08, 10:55:05
Huch... wie kommen die an einen 768SP Pitcairn ran? :tongue:

Hmm... einerseits ist die HD7770 in bsw. Metro gar nicht soo weit von dem Pitcairn 768 entfernt. Anderseits ist es bei Crysis 2 schon extrem. Liegts jetzt an der Rohleistung oder limitieren die 1GB schon etwas? Ich frage mich gerade was sinnvoller ist... einen Pitcairn stark kastrieren oder einen Cape Verde voll ausfahren. Ersteres verbraucht nämlich immer noch einiges mehr an Strom und ist deutlich größer.

Edit:
Ups... verguckt. Die HD7770 ist nur in DX9 bei C2 sehr schlecht (bzw. der Abstand zum Pitcairn 768 deutlich größer), warum auch immer.

Deinorius
2012-11-08, 11:02:33
Wenn es wirklich Pitcairn ist, dann natürlich mit etwas niedrigerem Takt. Die werden das richtige Gleichgewicht zwischen DIE-Size und Taktfrequenz wählen. Kleiner DIE mit hoher Taktfrequenz würde wieder einen hohen Stromverbrauch und eine hohe Temperatur provozieren.

Wenn ich jetzt an 8 Jaguar Kerne als CPU denke, die wieviel brauchen? 40-50 mm2? MC, I/O dazu werden jetzt nicht viel mehr brauchen. Rund 300 mm2 kann man an sich noch erwarten, aber vielleicht habe ich auch etwas übersehen, ist ja nur eine Milchmädchenrechnung. Ich gehe auch von einem ähnlich dichten Aufbau wie bei Bobcat aus.

dargo
2012-11-08, 11:09:05
Wenn es wirklich Pitcairn ist, dann natürlich mit etwas niedrigerem Takt. Die werden das richtige Gleichgewicht zwischen DIE-Size und Taktfrequenz wählen. Kleiner DIE mit hoher Taktfrequenz würde wieder einen hohen Stromverbrauch und eine hohe Temperatur provozieren.

Ich glaube nicht. Ein voll ausgefahrener Cape Verde hat eine TDP von 80W, ein 768SPs Pitcairn 120W. Ob du den Pitcairn jetzt mit weniger Takt und Spannung laufen lässt oder die SPs kastrierst kommt beim entgültigen Stromverbrauch nahezu das selbe raus. Das wichtigste an der Sache sind allerdings die Kosten:

Pitcairn = 212mm²
Cape Verde = schon beinah lächerliche 123mm²

Deinorius
2012-11-08, 11:30:55
Ich denke Multiplattformspiele werden uns wohl weiterhin plagen.


Das geht mittlerweile auch nur noch schwer anders. Bei den stark gestiegenen Content-Kosten muss man schauen, dass das Geld wieder reinkommt.

/e: läuft das hier gerade nicht irgendwie parallel zum diesem (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=491661) Thread?


Jo jo. :D Wir sind grad a bisserl offtopic hier. Aber nur a bisserl.

Ich glaube nicht. Ein voll ausgefahrener Cape Verde hat eine TDP von 80W, ein 768SPs Pitcairn 120W. Ob du den Pitcairn jetzt mit weniger Takt und Spannung laufen lässt oder die SPs kastrierst kommt beim entgültigen Stromverbrauch nahezu das selbe raus. Das wichtigste an der Sache sind allerdings die Kosten:

Pitcairn = 212mm²
Cape Verde = schon beinah lächerliche 123mm²


Den Vergleich finde ich sehr kurzsichtig. Eine 7850 ist knapp 50 % schneller als eine 7770, verbraucht aber NUR 19 % mehr, in absoluten Zahlen sind das rund 14 W.
Du kannst natürlich sagen, und z.T. hättest du damit auch recht, für einen rund 65-70 % größeren DIE (ich rechne jetzt wegen dem teildeaktiviertem DIE der 7850 mit weniger) nur knapp 50 % Leistung zu bekommen, aber das relativiert sich mit der Zeit durch neuere Fertigungsverfahren oder man liegt nach ein paar Jahren wieder schneller zurück.

Ich möchte natürlich hinzufügen, dass diese Vergleich mit den PC-GPUs so oder so Schwachsinn ist. IMHO hauen die genug Rohleistung drauf, ohne den Takt hoch zu jagen und das wird die zufrieden stellen. Sieht man beim Vergleich zwischen 7850 und 7770 eh sehr gut.

dargo
2012-11-08, 13:17:28
Den Vergleich finde ich sehr kurzsichtig. Eine 7850 ist knapp 50 % schneller als eine 7770, verbraucht aber NUR 19 % mehr, in absoluten Zahlen sind das rund 14 W.

Also 80W vs. 135W sind schon etwas mehr als nur 14W Unterschied. Oder habe ich falsche Zahlen in Erinnerung?


Du kannst natürlich sagen, und z.T. hättest du damit auch recht, für einen rund 65-70 % größeren DIE (ich rechne jetzt wegen dem teildeaktiviertem DIE der 7850 mit weniger) nur knapp 50 % Leistung zu bekommen, aber das relativiert sich mit der Zeit durch neuere Fertigungsverfahren oder man liegt nach ein paar Jahren wieder schneller zurück.

Ich möchte natürlich hinzufügen, dass diese Vergleich mit den PC-GPUs so oder so Schwachsinn ist. IMHO hauen die genug Rohleistung drauf, ohne den Takt hoch zu jagen und das wird die zufrieden stellen. Sieht man beim Vergleich zwischen 7850 und 7770 eh sehr gut.
Hier komme ich nicht ganz mit. Du meinst also die GPU die bei den Konsolen zum Einsatz kommt wird nochmal völlig umgekrempelt? Ähnlich also wie damals R400 (Konsole) vs. R420/480 PC? Was spricht dann dagegen den Cape Verde etwas aufzubohren indem man ihm mehr SPs verpasst? Wobei ich mich auch frage ob solche Änderungen wirtschaftlich Sinn ergeben, im Vergleich zu schon vorhandenen Designs. SPs streichen ist ja kein Thema, SPs dazupacken wohl schon eher.


Und wie gesagt, aus Performancesicht macht es wenig Sinn. Weder wirst du damit von 30 auf 60fps kommen noch unglaublich viel bessere Grafik darstellen können (die dann wie gesagt von der Low Res wieder geschluckt wird).
Hä?

Wie schon Lightning gesagt hat... 1080p bedeutet Faktor 2,25 bei den Pixeln. Solange die CPU die 60fps bei 720p halten kann schafft die GPU das auch.

Und Marketingtechnisch lockst du mit 720 auch niemandem hinterm Ofen hervor.

Wenn die neue GPU sagen wir mal Faktor 8-10 der alten liefert da kann ich dir garantieren, dass viele große Augen machen werden, trotz nur 720p. ;) Dafür reichen ein paar Techdemos oder von mir aus Gameplayvideos aus. Es geht auch nicht darum, dass man sich ausschließlich auf 720p fixiert. Es wird sicherlich den einen oder anderen weniger anspruchsvollen Titel geben wo man auf 1080p oder irgendwas dazwischen gehen kann. Schade wäre es nur wenn die Minimalanforderung 1080p wäre. Dann wäre der grafische Sprung nämlich etwas geringer.

Außerdem ist Crysis 2 bei maximalen Details auf einem 4,5GHz i7 in 720 wohl nicht CPU limitiert.

Wo ist der Zusammenhang jetzt? Und was macht dich so sicher, dass dem nicht so ist? Außerdem warum gerade ein i7@4,5Ghz? Du glaubst doch nicht ernsthaft, dass die nächsten Konsolen diese CPU-Power abbekommen oder? :tongue:


Man kann alternativ auch Benches zwischen 1050p und 1600p anschaun. Hier kommt die bessere Auslastung der Radeon nicht mehr so zum tragen trotzdem bist du in 1050p immer weit vom 2,4x Speed entfernt.
Ich habe das Gefühl du schaust dir zu viele Benchmarks im Netz an ohne Infos zu den jeweiligen Limits zu haben.

Das mit dem Faktor 2,4 verstehe ich eh nicht ganz. 1600p bsw. bedeutet 97% mehr Pixel als 1080p. Wenn du dir diesen Test hier mal anschaust:
http://www.pcgameshardware.de/Medal-of-Honor-Warfighter-PC-239190/Tests/Medal-of-Honor-Warfighter-Test-Battlefield-3-Engine-1032463/

ist die HD790GE in 1080p 72% schneller als in 1600p. Warum da jetzt keine >90% rausgekommen sind kann an einem kleinen CPU-Limit in der kleineren Auflösung liegen.

Deinorius
2012-11-08, 13:50:21
Also 80W vs. 135W sind schon etwas mehr als nur 14W Unterschied. Oder habe ich falsche Zahlen in Erinnerung?


Ich vergleiche 7770 vs. 7850 nicht 7870. Da wären es auch 127 W (je nach Messung). Zur 7770 80 % Mehrleistung bei etwas über 70 % mehr Stromverbrauch, aber der Stromverbrauch dürfte dann doch zu hoch sein.


Hier komme ich nicht ganz mit. Du meinst also die GPU die bei den Konsolen zum Einsatz kommt wird nochmal völlig umgekrempelt?


Ich würde es nicht völlig umkrempeln nennen. Die GPUs werden aber den Wünschen von M$/Sony angepasst.

Ähnlich also wie damals R400 (Konsole) vs. R420/480 PC?


Du meinst wohl R500. oO Und der basiert doch eher auf R600. Das wurde erst irgendwo wieder erwähnt. (War das in diesem oder im Next-Gen Thread?)

Gipsel
2012-11-08, 13:55:50
Ich glaube nicht. Ein voll ausgefahrener Cape Verde hat eine TDP von 80W, ein 768SPs Pitcairn 120W. Ob du den Pitcairn jetzt mit weniger Takt und Spannung laufen lässt oder die SPs kastrierst kommt beim entgültigen Stromverbrauch nahezu das selbe raus.Nö. Weniger Takt und Spannung führt zu weniger Verbrauch als nur deaktivierte CUs (wie man am fast identischen Verbrauch zwischen der 1024SP HD7850 und dem 768SP-Pitcairn sieht; eine HD7870 auf HD7850-Takt und -Spannung verbraucht auch nur sehr wenig mehr, die Leistung/W steigt). Aber Du kannst auch den gemessenen Verbrauch eines 768SP-Samples (bei dem aber 1280 SPs physisch vorhanden waren) nicht mit einer hypothetischen Version vergleichen, bei dem von vornherein nur 768 SPs da wären.

Gipsel
2012-11-08, 14:00:30
ist die HD790GE in 1080p 72% schneller als in 1600p. Warum da jetzt keine >90% rausgekommen sind kann an einem kleinen CPU-Limit in der kleineren Auflösung liegen.
Oder daran, daß nicht der komplette Workload mit der Pixelzahl skaliert. Alles vor den Rasterizern (also die Rechnungen an der Geometrie) bleibt ja konstant (solange man keine auflösungsangepaßte Tesselation betreibt).

dargo
2012-11-08, 14:02:15
Ich vergleiche 7770 vs. 7850 nicht 7870. Da wären es auch 127 W (je nach Messung). Zur 7770 80 % Mehrleistung bei etwas über 70 % mehr Stromverbrauch, aber der Stromverbrauch dürfte dann doch zu hoch sein.

Ähm... die HD7870 hat afaik 175W TDP.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=522807

Nö. Weniger Takt und Spannung führt zu weniger Verbrauch als nur deaktivierte CUs (wie man am fast identischen Verbrauch zwischen der 1024SP HD7850 und dem 768SP-Pitcairn sieht; eine HD7870 auf HD7850-Takt und -Spannung verbraucht auch nur sehr wenig mehr, die Leistung/W steigt).
Man kann u.U bei einem sp-kastrierten Chip die Spannung auch senken. ;)


Aber Du kannst auch den gemessenen Verbrauch eines 768SP-Samples (bei dem aber 1280 SPs physisch vorhanden waren) nicht mit einer hypothetischen Version vergleichen, bei dem von vornherein nur 768 SPs da wären.

Ah ok... ist das eigentlich ein großer Aufwand? Wobei... wenn man davon später zig Millionen Einheiten verkauft spielt das wohl keine große Rolle mehr. Ok... so einen "nativen" 768SPs Pitcairn könnte man u.U mit etwas gesenkter Spannung auf 100W TDP drücken.

Oder daran, daß nicht der komplette Workload mit der Pixelzahl skaliert. Alles vor den Rasterizern (also die Rechnungen an der Geometrie) bleibt ja konstant (solange man keine auflösungsangepaßte Tesselation betreibt).
Ok... eine exakte 1:1 Skalierung wird man sicherlich nicht erreichen. Aber soo groß ist der Unterschied jetzt auch nicht. Zudem wissen wir nicht ob in dem Link von mir die GPU bei 1080p 100% limitiert hat und 1600p hat auch noch ein anderes FOV als 1080p. Etwas schwierig vergleichbar.


Du meinst wohl R500. oO
Autsch. Stimmt... natürlich R500 @Konsole. Wie komme ich jetzt auf den R400? :anonym:

robbitop
2012-11-08, 14:25:36
Wenn Coda schon so fragt, ist es vermutlich kein Pitcairn. ;)
Das kann aber wohl vieles bedeuten. Vieleicht ist es ja auch schon ein Sea Islands oder ein angepasster GCN mit entfernten Features, die die Konsole nicht braucht.
Pitcairn hätte gut gepasst - aber vieleicht war das zu optimistisch.

Deinorius
2012-11-08, 14:29:30
Ähm... die HD7870 hat afaik 175W TDP.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=522807


Entschuldige, da war ich nicht deutlich genug. Ich habe den realen Spieleverbrauch heran gezogen. Da die GPUs in einem SoC ohne extra Platine vorhanden sein werden, wollte ich damit etwas näher heran gehen.
Eigentlich liegt die TDP von 7850 auf 150 W und die der 7870 bei 190 W, während die TDP der 7770 bei 100 W liegt. Macht also beim Spieleverbrauch deutliche Unterschiede.

dargo
2012-11-08, 14:29:39
Wenn Coda schon so fragt, ist es vermutlich kein Pitcairn. ;)

Soviel kann ich mir auch zusammenreimen. ;)


Das kann aber wohl vieles bedeuten. Vieleicht ist es ja auch schon ein Sea Islands oder ein angepasster GCN mit entfernten Features, die die Konsole nicht braucht.
Pitcairn hätte gut gepasst - aber vieleicht war das zu optimistisch.
Öhm... das wäre im großen und ganzen wieder ein Pitcairn. :D

Entschuldige, da war ich nicht deutlich genug. Ich habe den realen Spieleverbrauch heran gezogen. Da die GPUs in einem SoC ohne extra Platine vorhanden sein werden, wollte ich damit etwas näher heran gehen.

Naja... der "reale" Spieleverbrauch kann auch täuschen. Spiel A belastet durchaus stärker die GPU als Spiel B. Dadurch steigt auch der Verbrauch. Zudem muss man bei diversen Reviewern sich immer die Frage stellen ob die GPU bei der Messung wirklich zu 100% limitiert hat. Und für die Konsolenhersteller ist afaik eh nur die TDP maßgebend.


Eigentlich liegt die TDP von 7850 auf 150 W und die der 7870 bei 190 W, während die TDP der 7770 bei 100 W liegt. Macht also beim Spieleverbrauch deutliche Unterschiede.
Ich habe auch nichts anderes behauptet. Deshalb haben mich deine 14W etwas irritiert.

PS: wie groß waren eigentlich 2005 der Xenon und Xenos?

Major
2012-11-08, 15:09:45
Was mich etwas an den bisherigen Spekulationen verwundert ist das Verhältnis von CPU zu GPU Leistung.
Bereits bei der PS3 und evtl. beider Xbox 360 habe ich im Nachhinein das Gefühl, dass die CPU Leistung im Vergleich zur GPU zu stark ausgelegt war und dadurch etwa der Cell oft garnicht richtig ausgelastet werden kann.

Auch am PC hat sich in den letzten Jahren mM(natürlich nicht bei großen Multiplayer Spielen wie BF3) die Last eher auf die GPU verlegt, auch wenn natürlich für 60fps eine starke CPU nett ist (aber bei den Konsolen lebt man ja eh oft nur mit 30fps)

Die Idee 8 Jaguarkerne (die zwar nicht die schnellsten sind aber insgesamt doch eine nicht unbeachtliche Rechenleistunge bereitstellen dürften) mit eine relativ kleinen Grafiklösung zu verbinden (im Bereich von 700SPs bei AMD?) wundert mich. Würde es nicht mehr bringen, die CPU schwächer auszulegen und dafür mehr DIE auf die GPU zu verteilen, gerade wenn die nächste Generation evtl. auch mal FullHD oder MSAA bieten soll?

Locuza
2012-11-08, 15:14:35
PS: wie groß waren eigentlich 2005 der Xenon und Xenos?
176 (CPU) + 182 (GPU) + 80 (eDRAM+Back-End) mm² (Alles bei 90nm)

So eine Frage in die Runde, wie wahrscheinlich ist es eigentlich, dass TSMC der Auftragsfertiger ist?
Immerhin wäre es im Falle der Xbox Next doch das Beste, schon ein fertiges GCN Design und ein Jaguar-Design zu verschmelzen anstatt ein uport auf 32nm + last gate mit unterschiedlichen cell libraries zu machen. (Falls Jaguar natürlich Verwendung findet)

Gipsel
2012-11-08, 15:20:58
wie groß waren eigentlich 2005 der Xenon und Xenos?
Xenon: 168mm/176mm² (gibt wohl 2 Messungen, offizielle Zahl kenne ich nicht)
Xenos: 182 mm²
eDRAM Die: 80 mm²

dargo
2012-11-08, 15:24:38
Auch am PC hat sich in den letzten Jahren mM(natürlich nicht bei großen Multiplayer Spielen wie BF3) die Last eher auf die GPU verlegt, auch wenn natürlich für 60fps eine starke CPU nett ist (aber bei den Konsolen lebt man ja eh oft nur mit 30fps)

Dem ist nicht so. Es gibt auch Spiele wo die CPU-Last sehr hoch ist. Nimm als Beispiel Rennspiele. Aber kein Arcadegedöns wo zusätzlich noch 8 Fahrer unterwegs sind. Schau dir bsw. pCars an.

@Locuza und Gipsel

Danke.

Wenn man das alles in ein SoC packt... wieviel wäre das? Ich glaube kaum, dass man das alles addieren kann oder? Naja... beim Addieren komme ich auf 438mm². Ich frage deshalb weil ich davon ausgehe, dass die nächsten Konsolen nicht mehr bzw. nicht mehr so stark subventioniert werden (ich denke in dem Punkt sind wir uns alle einig oder nicht? :D) und man deshalb auch eher ~300mm² anvisieren wird. Oder wie seht ihr das?

Gipsel
2012-11-08, 15:31:59
Was mich etwas an den bisherigen Spekulationen verwundert ist das Verhältnis von CPU zu GPU Leistung.
Bereits bei der PS3 und evtl. beider Xbox 360 habe ich im Nachhinein das Gefühl, dass die CPU Leistung im Vergleich zur GPU zu stark ausgelegt war und dadurch etwa der Cell oft garnicht richtig ausgelastet werden kann.Die CPU bei der PS3 ist ein riesiges Hindernis. Die ist grottenlahm. DasDie ist im Prinzip ziemlich ähnlich zum Xenon bei der XBox360 (hat auch den gleichen Takt), nur das man nur einen einzigen Kern (mit etwas beschnittenen SIMD-Einheiten) hat statt 3 davon. Die CPU der PS3 ist im Normalfall vollkommen überlastet (die muß ja nicht nur die Cell-SPUs steuern, sondern auch noch den eigentlichen Kernpart der Engine stemmen). Bei einem einzelnen in-order Kern ist das aber auch nicht anders zu erwarten.
Die Idee 8 Jaguarkerne (die zwar nicht die schnellsten sind aber insgesamt doch eine nicht unbeachtliche Rechenleistunge bereitstellen dürften) mit eine relativ kleinen Grafiklösung zu verbinden (im Bereich von 700SPs bei AMD?) wundert mich. Würde es nicht mehr bringen, die CPU schwächer auszulegen und dafür mehr DIE auf die GPU zu verteilen, gerade wenn die nächste Generation evtl. auch mal FullHD oder MSAA bieten soll?8 Jaguarkerne messen unter 50mm² (edit: also inklusive 2 x 2 MB L2, ein einzelner Kern mißt nur 2,9mm², 4 Kerne teilen sich 2MB L2, das wäre also eine Art "Modul" zum zusammenstöpseln, die Trinity-Northbridge unterstützt ja z.B. auch 2 Module :rolleyes:). Ich sehe nicht, daß man damit mehr Gewicht auf die CPU verlagern würde.

Locuza
2012-11-08, 15:35:06
Danke.

Wenn man das alles in ein SoC packt... wieviel wäre das? Ich glaube kaum, dass man das alles addieren kann oder? Naja... beim Addieren komme ich auf 438mm². Ich frage deshalb weil ich davon ausgehe, dass die nächsten Konsolen nicht mehr bzw. nicht mehr so stark subventioniert werden (ich denke in dem Punkt sind wir uns alle einig oder nicht? :D) und man deshalb auch eher ~300mm² anvisieren wird. Oder wie seht ihr das?
Ich denke/dachte oder male mir aus, dass man einen 300-400mm² SoC anstrebt, wo man eine Custom-Lösung verbaut, die irgendwo zwischen 7770 und 7850 liegen wird + 8 Jaguar-Cores im Falle der Xbox Next.

Neben der reinen die-größe ist es ja noch einfacher und billiger, dass alles auf einem die zu produzieren, anstatt 3 getrennte Masken laufen zu lassen und dann zu verbinden.

Gipsel
2012-11-08, 15:40:42
Wenn man das alles in ein SoC packt... wieviel wäre das? Ich glaube kaum, dass man das alles addieren kann oder? Naja... beim Addieren komme ich auf 438mm². Ich frage deshalb weil ich davon ausgehe, dass die nächsten Konsolen nicht mehr bzw. nicht mehr so stark subventioniert werden (ich denke in dem Punkt sind wir uns alle einig oder nicht? :D) und man deshalb auch eher ~300mm² anvisieren wird. Oder wie seht ihr das?Alles zusammen wäre weniger als die Summe, weil man dann z.B. die externe Verbindung zwischen CPU und GPU und auch zum eDRAM spart (wobei eDRAM in einem normalen Logikprozeß immer noch schwieriger ist, aber IBM/GF wollen das halbwegs gelöst haben).

Das Limit von ~300mm² wurde mal in den Raum gestellt, da man bei einem Konsolenchip natürlich auf eine hohe Ausbeute angewiesen ist. Salvage-Versionen gibt es ja nicht. Deswegen laufen die häufig nicht mit den allerhöchsten Taktraten (ist auch aus Verbrauchsgründen nicht zu empfehlen) und verfügen traditionell auch öfter mal über redundante Einheiten (siehe z.B. PS3: Cell hat nicht alle SPUs aktiv und der RSX hat auch 7 Pixelpipelines in Hardware, aktiv sind aber immer nur 6). Es ist also z.B. vorstellbar, daß man einen 16 CU-Chip einbaut, aber es wären immer nur 14 CUs aktiv oder sowas (Zahlen sind völlig aus der Luft gegriffen und sollen nur das Prinzip verdeutlichen).
Ich denke/dachte oder male mir aus, dass man einen 300-400mm² SoC anstrebt, wo man eine Custom-Lösung verbaut, die irgendwo zwischen 7770 und 7850 liegen wird + 8 Jaguar-Cores im Falle der Xbox Next.Die Kombination würde unter 300mm² messen (edit: solange man nicht noch ordentlich eDRAM mit auf das gleiche Die packt).

dargo
2012-11-08, 15:43:35
Ich denke/dachte oder male mir aus, dass man einen 300-400mm² SoC anstrebt, wo man eine Custom-Lösung verbaut, die irgendwo zwischen 7770 und 7850 liegen wird + 8 Jaguar-Cores im Falle der Xbox Next.

Neben der reinen die-größe ist es ja noch einfacher und billiger, dass alles auf einem die zu produzieren, anstatt 3 getrennte Masken laufen zu lassen und dann zu verbinden.
Bis 400mm²?

Was soll man da alles reinpacken? Wenn ich die 50mm² für die CPU nehme, ~200mm² @Pitcairn für die GPU und Xmm² für den eDRAM (keine Ahnung wieviel der beansprucht, vorallem welche Größe angebracht wäre) dann landen wir dann bei ca. 300mm². Ich meine 400mm² würde wieder starke Subvention oder teure Konsole bedeuten.


Das Limit von ~300mm² wurde mal in den Raum gestellt, da man bei einem Konsolenchip natürlich auf eine hohe Ausbeute angewiesen ist. Salvage-Versionen gibt es ja nicht. Deswegen laufen die häufig nicht mit den allerhöchsten Taktraten (ist auch aus Verbrauchsgründen nicht zu empfehlen) und verfügen traditionell auch öfter mal über redundante Einheiten (siehe z.B. PS3: Cell hat nicht alle SPUs aktiv und der RSX hat auch 7 Pixelpipelines in Hardware, aktiv sind aber immer nur 6). Es ist also z.B. vorstellbar, daß man einen 16 CU-Chip einbaut, aber es wären immer nur 14 CUs aktiv oder sowas (Zahlen sind völlig aus der Luft gegriffen und sollen nur das Prinzip verdeutlichen).

Stimmt... das hatte ich völlig vergessen.

Locuza
2012-11-08, 15:47:35
Die CPU bei der PS3 ist ein riesiges Hindernis. Die ist grottenlahm. Das ist im Prinzip ziemlich ähnlich zum Xenon bei der XBox360 (hat auch den gleichen Takt), nur das man nur einen einzigen Kern (mit etwas beschnittenen SIMD-Einheiten) hat statt 3 davon. Die CPU der PS3 ist im Normalfall vollkommen überlastet (die muß ja nicht nur die Cell-SPUs steuern, sondern auch noch den eigentlichen Kernpart der Engine stemmen). Bei einem single core in-order Kern ist das aber auch nicht anders zu erwarten.
8 Jaguarkerne messen unter 50mm². Ich sehe nicht, daß man damit mehr Gewicht auf die CPU verlagern würde.
Der FP-Durchsatz ist aber bei beiden Lösungen doch "gigantisch" gewesen, im Vergleich zu Desktop-CPUs? Die AltiVec-Einheit wurde doch speziell angepasst/aufgebohrt, soweit ich weiß.
Bei Integer-Operationen sind sie aber meilenweit entfernt oder?

Wie ist das eig. mit der SIMD-Einheit, kann man dort das meiste auf eine GPU auslagern und in wie fern ist eine FPU z.B. der GPU bei speziellen Szenen überlegen?


Die Kombination würde unter 300mm² messen (edit: solange man nicht noch ordentlich eDRAM mit auf das gleiche Die packt).
So meinte ich das auch eigentlich, ohne es geschrieben zu haben. :D
Ich weiß halt nicht, was dort als Extra noch verbaut wird.

Bis 400mm²?

Was soll man da alles reinpacken? Wenn ich die 50mm² für die CPU nehme, ~200mm² @Pitcairn für die GPU und Xmm² für den eDRAM (keine Ahnung wieviel der beansprucht, vorallem welche Größe angebracht wäre) dann landen wir dann bei ca. 300mm². Ich meine 400mm² würde wieder starke Subvention oder teure Konsole bedeuten.
Sorry, dass verwurste ich gerade noch mit der PS Next. Trinity ist in 32nm SOI mit 2 Modulen und seiner VLIW4-Einheit auch schon bei 246mm².
Mir fällt da eine konkrete Bewertung schwer, vor allem wer als Auftragsfertiger fungieren soll. GloFo oder TSMC? Wer hat überhaupt noch genug Kapazitäten für so etwas und reicht die Aufstockung der Kapazitäten?

Deinorius
2012-11-08, 15:50:59
[...] und Xmm² für den eDRAM (keine Ahnung wieviel der beansprucht, vorallem welche Größe angebracht wäre) [...]


Würde man den eDRAM überhaupt direkt im SoC einbauen? Wenn man diesen seperat, aber auf das selbe Package packen würde, würde das den SoC vertretbar kleiner halten.

robbitop
2012-11-08, 15:52:36
Ich denke eDRAM wird ein extra ASIC. Der hat andere Prozessanforderungen als die CPU oder die GPU. (allein GPU und CPU haben ja schon sehr verschiedene Anforderungen an einen Fertigungsprozess - daran haben auch AMD und Intel bis heute noch zu knabbern)

Deinorius
2012-11-08, 16:07:18
Das Back-End dürfte diesmal aber dennoch in den SoC wandern.

dargo
2012-11-08, 16:08:51
Würde man den eDRAM überhaupt direkt im SoC einbauen? Wenn man diesen seperat, aber auf das selbe Package packen würde, würde das den SoC vertretbar kleiner halten.
Nein, nein... ich meine schon auf dem Package. Umsonst ist er aber dadurch auch nicht. :D

AnarchX
2012-11-08, 16:11:00
Ich denke eDRAM wird ein extra ASIC. Der hat andere Prozessanforderungen als die CPU oder die GPU. (allein GPU und CPU haben ja schon sehr verschiedene Anforderungen an einen Fertigungsprozess - daran haben auch AMD und Intel bis heute noch zu knabbern)

Power 7 hat eDRAM als L3-Cache.

Deinorius
2012-11-08, 16:17:35
Nein, nein... ich meine schon auf dem Package. Umsonst ist er aber dadurch auch nicht. :D


Umsonst wäre aber schöner. :freak:

Skysnake
2012-11-08, 16:25:43
Alles zusammen wäre weniger als die Summe, weil man dann z.B. die externe Verbindung zwischen CPU und GPU und auch zum eDRAM spart (wobei eDRAM in einem normalen Logikprozeß immer noch schwieriger ist, aber IBM/GF wollen das halbwegs gelöst haben).

Das Limit von ~300mm² wurde mal in den Raum gestellt, da man bei einem Konsolenchip natürlich auf eine hohe Ausbeute angewiesen ist. Salvage-Versionen gibt es ja nicht. Deswegen laufen die häufig nicht mit den allerhöchsten Taktraten (ist auch aus Verbrauchsgründen nicht zu empfehlen) und verfügen traditionell auch öfter mal über redundante Einheiten (siehe z.B. PS3: Cell hat nicht alle SPUs aktiv und der RSX hat auch 7 Pixelpipelines in Hardware, aktiv sind aber immer nur 6). Es ist also z.B. vorstellbar, daß man einen 16 CU-Chip einbaut, aber es wären immer nur 14 CUs aktiv oder sowas (Zahlen sind völlig aus der Luft gegriffen und sollen nur das Prinzip verdeutlichen).
Die Kombination würde unter 300mm² messen (edit: solange man nicht noch ordentlich eDRAM mit auf das gleiche Die packt).
Ich denke auch, das man wieder davon ausgehen kann, das relativ "viel" Redundanz vorhanden sein wird.

Btw. Auf CB gibts gerade einen Artikel, laut dem GloFo um 30% Beim Umsatz zugelegt hat :eek: http://www.computerbase.de/news/2012-11/top-20-liste-der-halbleiterhersteller-aktualisiert/
Woher kommt denn der Anstieg? Ich wüsste jetzt nicht, woher das kommen soll, zumal AMD um 17% abgestürzt ist.

Spricht das eventuell für PS4 und/oder Xbox720/8 bei GloFo???

Ansonsten noch ja, man spart sich halt die Interfaces, wenn man alles auf einen DIE packt. Und das halt doppelt! man braucht ja auf beiden Chips interfaces... Und das sind normal auch noch ziemliche Stromfresser...

Die Ersparnis an DIE-Space sollte man wirklich nicht unterschätzen.

Würde man den eDRAM überhaupt direkt im SoC einbauen? Wenn man diesen seperat, aber auf das selbe Package packen würde, würde das den SoC vertretbar kleiner halten.
Allgemein würde ich auch eher dazu tendieren, das man den RAM auf einen extra DIE packt und dann per Interposer/MCM oder what ever anbindet.

Es gibt aber halt auch GloFo, die das wohl auch relativ "gut" auf einem DIE fertigen könnten. Wird wohl am Ende ne reine Kostenfrage sein, und eben davon abhängen, bei wem man überhaupt fertigt.

Gipsel
2012-11-08, 16:27:59
Was soll man da alles reinpacken? Wenn ich die 50mm² für die CPU nehme, ~200mm² @Pitcairn für die GPU und Xmm² für den eDRAM (keine Ahnung wieviel der beansprucht, vorallem welche Größe angebracht wäre)
Angebracht fände ich 64MB :D. Die Dichte ist grob über den Daumen gepeilt etwa 3 mal so hoch wie die von SRAM (keine Ahnung, welche Kompromisse bzw. Abstriche man hier bei den verschiedenen Prozessen der Fabs machen muß), sagen wir mal so etwa 1,2 mm² pro Megabyte. Da kommt man dann bei etwa 80mm² raus (die Größe des 10 MB eDRAM Dies + ROPs von Xenos in 90nm). Aber das ist ziemlich grob.
Der FP-Durchsatz ist aber bei beiden Lösungen doch "gigantisch" gewesen, im Vergleich zu Desktop-CPUs? Die AltiVec-Einheit wurde doch speziell angepasst/aufgebohrt, soweit ich weiß.
Bei Integer-Operationen sind sie aber meilenweit entfernt oder?In der PS3 ist gar nichts aufgebohrt (dort soll ja Cell für Durchsatz sorgen), bei Xenon wurde die Registerzahl erhöht (weniger loads, weniger Stalls, ist ja in order!), ein paar Integerbefehle rausgeschmissen und ein paar neue dafür eingeführt. Aber der Peak-Durchsatz an sich hat sich meiner Meinung aber nicht geändert. Es gibt halt eine einzelne 128 Bit Vektorpipeline, die FMA beherrscht (und halbwegs flexibel ist), das war's. Das war damals vielleicht ganz gut, aber heute hat den Durchsatz auch jede moderne x86er-CPU (Jaguar mit zwei 128Bit Pipelines getrennt nach MUL und ADD übrigens auch).
Wie ist das eig. mit der SIMD-Einheit, kann man dort das meiste auf eine GPU auslagern und in wie fern ist eine FPU z.B. der GPU bei speziellen Szenen überlegen?Meinst Du jetzt die Cell SPEs? Das Portieren von SPE-Code auf eine GPU könnte mit ein wenig Aufwand (insbesondere bezüglich der DMA-Speichertransfers in den lokalen Speicher jeder SPE, die SPEs können auf den Speicher ja gar nicht selber zugreifen) durchaus passabel funktionieren. Einige Sachen könnte man vermutlich sogar einfacher lösen (weil man direkten Zugriff auf den globalen Speicher hat).
Normalen FPU-Code zu portieren ist dagegen arg begrenzt. Da benötigt man Probleme mit sehr hoher Datenparallelität, wo man nicht wirklich latenzsensitiv ist (gilt für SPE-Code ebenso, deswegen sind die Anforderungen für eine Auslagerung auf die SPEs ähnlich wie für die GPU).
Sorry, dass verwurste ich gerade noch mit der PS Next. Trinity ist in 32nm SOI mit 2 Modulen und seiner VLIW4-Einheit auch schon bei 246mm².
Mir fällt da eine konkrete Bewertung schwer, vor allem wer als Auftragsfertiger fungieren soll. GloFo oder TSMC? Wer hat überhaupt noch genug Kapazitäten für so etwas und reicht die Aufstockung der Kapazitäten?Der GPU-Part in Trinity nimmt im Vergleich extrem viel Platz ein. Vermutlicher Grund ist der 32nm SOI-Prozeß bei GF, der dafür nicht wirklich ausgelegt ist (CPUs nutzen normalerweise nie die maximalen Transistordichten wie GPUs) und wo vermutlich auch schlicht die Erfahrung mit GPUs in diesem Prozeß fehlte (Llano kam ja auch nur mit Verzögerung und erstaunlich niedrigem Takt des GPU-Teils, bei Trinity haben sie ja zumindest das mit dem Takt hingebogen).
Wo gefertigt wird, entscheidet in letzter Konsequenz MS. Aber es kann durchaus sein, das GFs/IBMs 28nm Bulk-Prozeß besser für GPUs gegeignet ist (und IBM kann sein eDRAM Knowhow einbringen, bei dem aber unklar ist, was das außerhalb von SOI wert ist). Alternative ist auch hier TSMC, wobei nicht ganz klar ist, ob die so viel eDRAM integrieren könnten (bei irgendeiner stacked-Lösung [bzw. separatem Die] spielt das natürlich keine Rolle, da kann der [e]DRAM aus einer anderen Fab kommen).

robbitop
2012-11-08, 16:29:02
Power 7 hat eDRAM als L3-Cache.
Ist aber ein völlig anderer und noch dazu spezialisierter an das Design angepasster Herstellungsprozess mit SOI. Gehen tut das - aber es ist ein Erschwernis. Ein Standardherstellungsprozess mit synthetisierbaren SoC Teilen macht vieles einfacher. Dort müsste eDRAM aber vermutlich in einen eigenen ASIC. Wäre IMO aber nicht schlimm. War bisher bei Konsolen eigentlich immer so.

Locuza
2012-11-08, 16:53:10
Wo gefertigt wird, entscheidet in letzter Konsequenz MS. Aber es kann durchaus sein, das GFs/IBMs 28nm Bulk-Prozeß besser für GPUs gegeignet ist (und IBM kann sein eDRAM Knowhow einbringen, bei dem aber unklar ist, was das außerhalb von SOI wert ist). Alternative ist auch hier TSMC, wobei nicht ganz klar ist, ob die so viel eDRAM integrieren könnten (bei irgendeiner stacked-Lösung [bzw. separatem Die] spielt das natürlich keine Rolle, da kann der [e]DRAM aus einer anderen Fab kommen).
Wäre 28nm Bulk bei der Allianz nicht kritisch zu begutachten?
Läuft dort überhaupt lange genug etwas an, sodass man sich darauf hätte schon konzentrieren können? Ich habe in dem Bezug eher negativ gehört, vor allem im Zusammenhang mit AMD und Kaveri.

robbitop
2012-11-08, 17:42:53
Kaveri hat eher andere Probleme - sonst hätten sie ihn nicht durch Richland in 28 nm ersetzt. Außerdem ist Kaveri ein handgelegtes Hochtaktdesign und kein synthetisiertes.
Allerdings wurde ja auch Witchia(??) bei GF gecancelt und Brazos 2.0 musste herhalten.
Offenbar ist TSMC weiter als GF in 28 nm.
Der Prozess scheint mittlerweile recht brauchbar zu sein nur die Kapazitäten fehlen noch ein wenig.

S940
2012-11-08, 18:10:02
Hmm GF und Co. haben bei 28nm doch noch gate first. Darüber hieß es doch mal, dass das gegenüber gate last ca. 30% Fläche einspart. Für einen dicken Konsolen-SoC sollte es dann damit GF werden. Für die 30% kann man ja ne größere GPU o.ä. einplanen.

Crazy_Bon
2012-11-08, 18:12:17
Btw. Auf CB gibts gerade einen Artikel, laut dem GloFo um 30% Beim Umsatz zugelegt hat :eek: http://www.computerbase.de/news/2012-11/top-20-liste-der-halbleiterhersteller-aktualisiert/
Woher kommt denn der Anstieg? Ich wüsste jetzt nicht, woher das kommen soll, zumal AMD um 17% abgestürzt ist.
Da Global Foundries (+31%) auch für Qualcomm (+30%) fertigt, könnte man da einen Zusammenhang sehen.

Skysnake
2012-11-08, 20:48:20
AH ok :D

Ich kannte, wie gesagt, jetzt außer AMD keinen Großen, der bei GloFo fertigen lässt.

robbitop
2012-11-09, 08:19:52
Hmm GF und Co. haben bei 28nm doch noch gate first. Darüber hieß es doch mal, dass das gegenüber gate last ca. 30% Fläche einspart. Für einen dicken Konsolen-SoC sollte es dann damit GF werden. Für die 30% kann man ja ne größere GPU o.ä. einplanen.
Das hat aber sicher auch Nachteile sonst würde TSMC das natürlich auch machen.

AH ok :D

Ich kannte, wie gesagt, jetzt außer AMD keinen Großen, der bei GloFo fertigen lässt.
GloFo hat doch neben AMDs Fabs auch noch Chartered Semiconductor gekauft, die auch Stammkunden hatten.

Skysnake
2012-11-09, 09:55:14
Hab ich nichts von mitbekommen. Wer ist denn das?

robbitop
2012-11-09, 10:21:01
Schau mal hier rein:
http://de.wikipedia.org/wiki/Globalfoundries

S940
2012-11-09, 12:45:09
Das hat aber sicher auch Nachteile sonst würde TSMC das natürlich auch machen.Wahrscheinlich Yields, TSMC und Intel meinten ja mal, dass GateFirst unproduzierbar wären. Beim Llano wars anfangs wohl auch so :freak:

GloFo hat doch neben AMDs Fabs auch noch Chartered Semiconductor gekauft, die auch Stammkunden hatten.
Hab ich nichts von mitbekommen. Wer ist denn das?Bei denen hatte AMD in den goldenen Zeiten mal 90nm Athlon X2 fertigen lassen, dafür bekamen die auch die Prozesstechnik aus dem Dresdner Werk, die Arbeitsabläufe sollten also schon vor der Übernahme gleich gewesen sein.

Skysnake
2012-11-09, 13:17:38
Die Übernahme war aber schon Anfang 2010. Da spielt das doch wohl kaum noch mit rein in die Steigerung. Zumal die ja nur alte Prozesse haben, die AMD so gar nicht mehr nutzt. Also das Neuste ist 40n, bei denen. Ok Chipstätze noch, aber sonst nichts.

Da frägt man sich schon, woher der Umsatzzuwachs kommen soll.

Akkarin
2012-11-09, 18:48:40
Wie hoch schätzt ihr die chance ein das auch GPGPU Sachen verbaut werden ? Wäre für Physikberechnungen wohl ein enormer Sprung wenn es dafür eigene Einheiten gäbe. Engines wie die UE4 werden da ja auch ein wenig den fokus drauf legen, afaik wurde einmal gesagt das ein großteil der Rechnenleistung in zukunft eher in die Physikberechnung gehen wird.

Den größten Nachteil den ich sehe ist, dass dafür ein extra Chip designt werden müsste und man nicht einfach einen angepasste Pitcairn nehmen könnte.

Gipsel
2012-11-09, 18:54:12
Wozu eigene Einheiten? GPGPU kann doch genau sogut (oder sogar besser da flexibler in der Leistung) auf den gleichen laufen.

Akkarin
2012-11-09, 19:23:58
Eigene einheiten war schlecht formuliert. Ich meine eine optimierung auf GPGPU, das ganze Zeug was Chips wie Tahiti größer macht.

Knuddelbearli
2012-11-09, 19:30:01
naja das ist vor allem DP was den größer macht

Gipsel
2012-11-09, 20:10:53
Eigene einheiten war schlecht formuliert. Ich meine eine optimierung auf GPGPU, das ganze Zeug was Chips wie Tahiti größer macht.
naja das ist vor allem DP was den größer macht
Genau. Ein Pitcairn ist immer noch ziemlich gut (für Konsolenverhältnisse, da brauch man eher selten DP) für GPGPU geeignet und recht kompakt. Die einzigen Sachen die abgespeckt wurden, ist die Double Precision Performance und ECC, ansonsten gibt es keine Abstriche im Vergleich zu Tahiti.
So hat auch ein Pitcairn (und sogar ein CapeVerde) diese 2 ACEs (Asynchronous Compute Engines), die praktisch ein Äquivalent zu nVs "HyperQ" darstellen (unterstützen halt nur weniger gleichzeitig laufende ComputeKernels, das Feature an sich ist aber sonst ähnlich). So kann die GPU fröhlich vor sich hinrendern und gleichzeitig kann über die ACEs GPGPU betrieben werden, ohne daß das mit der normalen Renderpipeline kollidiert. Es können auch eine bestimmte Menge an CUs für GPGPU abgestellt werden (um eine garantierte Performance zu erhalten), also daß z.B. ein Viertel (das ist flexibel einstellbar) der GPU exklusiv für GPGPU zur Verfügung steht oder Prioritäten vergeben werden (so daß z.B ein ComputeKernel bevorzugt abgearbeitet wird). Ob davon was genutzt wird, steht ein wenig in den Sternen. Die Hardware könnte es aber (wie gesagt sogar ein CapeVerde hat hier die gleichen Fähigkeiten wie Tahiti).

Skysnake
2012-11-09, 20:17:29
DP ist für Konsolen usw erstmal witzlos. Die Spielehersteller werden sich erst mal mit SP begnügen. Damit sollten Sie eigentlich recht weit kommen, bevor man wirklich ernsthafte Auswirkungen in GAMES sieht, wo es ja immer mehr SCHEIN als SEIN ist.

Knuddelbearli
2012-11-09, 22:37:29
DP ist in spielen immer sinnlos ^^ das hat nichts mit begnügen zu tun

Skysnake
2012-11-09, 22:48:11
Ähm not?

Es kommt immer drauf an, was man macht. Es gibt Dinge, da können sich auch kleine Fehler recht schnell hoch schauckeln, wenn man etwas "ungeschickt" implementiert.

Das ist selten der Fall, aber "immer sinnlos" würde ich da sicherlich nicht sagen.

Knuddelbearli
2012-11-09, 23:13:01
selbst im bestenfall ( RvX70 oder GX1X0 ) hat man nur mehr 1/3 der leistung unter DP, wüsste wirklich nicht wo das im Spielebereich von belangen sein sollte

Coda
2012-11-10, 00:41:02
Ähm not?

Es kommt immer drauf an, was man macht. Es gibt Dinge, da können sich auch kleine Fehler recht schnell hoch schauckeln, wenn man etwas "ungeschickt" implementiert.

Das ist selten der Fall, aber "immer sinnlos" würde ich da sicherlich nicht sagen.
Float reicht für Spiele immer - erst recht auf der GPU. Man stellt sogar den Compiler auf Fast Math. Wenn nicht hat man die Numerik verkackt.

Und auf GPUs bekommt man sogar noch FMA geschenkt, was double noch unnötiger macht. Nicht das irgendjemand dort auch nur auf die Idee kommen würde double zu benutzen wenn du um jedes Prozent Performance kämpfst.

Btw. hat z.B. NVIDIA einen Raytracer der alles mit float rechnet und trotzdem Production-Quality erreicht mit ein paar Tricks.

Skysnake
2012-11-10, 09:35:59
Hab ich doch gesagt Coda, das man normal da drum rum kommt. Ich würde nur nicht "NIE sinnvoll" sagen.

Du weißt doch aber auch, dass das auch daran liegt, das man eben keine vernünftige DP-Leistung hat auf den Consumerkarte.

Wenn DP quasi kostenlos bekommen würde, dann würde man es sicherlich auch irgendwo einsetzen, einfach fürs Featureset, oder weil man sich dann eben ein paar Tricks sparen muss.

Ist doch immer so, es fehlt einem Leistung und dann fängt man an hier und da zu tricksen.

Coda
2012-11-10, 13:38:15
DP wird auf GPUs nie umsonst sein, deshalb erübrigt sich diese Diskussion vollständig.

Ailuros
2012-11-10, 13:53:42
"Umsonst" waere unter einer ziemlich verdrehten Logik eine 1:1 DP/SP Relation in den ALUs. Fuer die heutigen Verhaeltnisse waere es eine verdammt unbalancierte pipeline IMHO unter der unter dem brutalem hw Anspruch fuer 1:1 die SP und generelle 3D Leistung so stark leiden wuerde dass "umsonst" unter einer breiteren Perspektive einfach laecherlich wird.

fizzo
2012-11-16, 10:17:05
Prognose: Details zur PS4 aus dem PSM3 Magazin

16.11.12 - Das britische PSM3 Magazin hat in seiner aktuellen Ausgabe einen Bericht über die PS4 veröffentlicht. Darin hat das Magazin alle relevanten Meldungen zur Next Generation Konsole von Sony zusammengefasst und mit Entwicklern und weiteren Quellen gesprochen.
[...]

www.gamefront.de

Silentbob
2012-11-16, 10:55:49
4. Gebrauchtspiele sollen ohne weiteres nicht auf der PS4 laufen.

* Sony soll bestimmte Schutzvorrichtungen in der PS4 planen, darunter vielleicht einen Online Pass oder ähnliches.

8. Spiele müssen im PlayStation Network Konto registriert werden.




Das könnte Spassig werden, wenn die "Infos" stimmen :popcorn:

Lightning
2012-11-16, 11:30:07
Vorstellbar ist es leider, andererseits würde ich diese zusammengetragenen "Infos" mit höchster Vorsicht genießen.
Aktivierungszwang wäre für mich ein starkes Gegenargument gegen die Konsole. Auf dem PC kann ich das noch akzeptieren, da man sich notfalls auch anderweitig behelfen kann, wenn der Service mal endet.

Crazy_Bon
2012-11-16, 11:32:33
Das könnte Spassig werden, wenn die "Infos" stimmen :popcorn:
Hat man das nicht zum Teil schon zu der PS3 gesagt?

Skysnake
2012-11-16, 11:47:35
Vorstellbar ist es leider, andererseits würde ich diese zusammengetragenen "Infos" mit höchster Vorsicht genießen.
Aktivierungszwang wäre für mich ein starkes Gegenargument gegen die Konsole. Auf dem PC kann ich das noch akzeptieren, da man sich notfalls auch anderweitig behelfen kann, wenn der Service mal endet.
Wird aber ziemlich sicher so kommen. Die Publisher verlangen so was einfach.

Gebrauchtspielekäufer sind ja nur unwesentlich besser als die Raubmordkopierer :facepalm:

Shink
2012-11-16, 12:00:29
Man hält an physikalischen Speichermedien fest, da man keinen Breitbandzugang vorraussetzen kann und dann ein Netzwerk-Konto/Spiel-Registrier-Zwang? Hmm...

Deinorius
2012-11-16, 12:03:07
Ich bin zwar vorsichtig mit diesen ganzen Infos, aber...

PS4 Spiele werden wohl nicht in 4K 'Ultra HD' Auflösung laufen.
Sollte 4K unterstützt werden, dann wohl nur für Videos.


Ach wirklich. :rolleyes:

Die Standard-Auflösung der PS4 soll bei 1080p und 60 fps liegen.


Das glaube ich erst, wenn ich es sehe, also nicht wirklich.

Gebrauchtspiele sollen ohne weiteres nicht auf der PS4 laufen.
Sony soll bestimmte Schutzvorrichtungen in der PS4 planen, darunter vielleicht einen Online Pass oder ähnliches.
Spiele müssen im PlayStation Network Konto registriert werden.
In-Game"-Werbung soll auf der PS4 Einzug halten.


Na toll. Wehe wenn! :P
Zumindest letzteren Punkt könnte ich soweit verschmerzen, dass z.B. in einem Fantasy Spiel keine Smartphone oder TV Werbungen aufkreuzen. :ugly:

Jede PS4 soll mit einem PS Move kompatiblen Controller und Kamera ausgeliefert werden.


Also wenn das wirklich wahr werden würde, dann... :eek:

robbitop
2012-11-16, 12:03:13
Abwarten. Man könnte heutzutage problemlos eine Aktivierung verlangen. Internet und WLAN sind bei 99 % der Leute vorhanden. Der eine Prozent könnte telefonisch aktivieren.
Gehen würde das.

1080p mit 60 fps würde schon gehen. Aber dann muss man das Grafikdetail dementsprechend runterziehen. Ich glaube auch nicht dran. Das wird so sein wie immer.

N0Thing
2012-11-16, 12:15:06
1080p mit 60 fps konnten der Marketing-Standard werden, aber keine verpflichtende Untergrenze für die Entwickler. Spiele in 720p mit 30fps wären dann weiterhin möglich, falls die Leistung mal nicht ausreichen sollte. Ein kleines "up to" vor dem großen "1080p 60fps !!!" reicht ja schon.
Das wäre für mich zumindest die wahrscheinlichste Variante.

Kontobindung kann ich mir auch gut vorstellen, vermutlich haben die meisten Publisher gute Erfahrungen mit Steam und den Exlusivinhalten für Erstkäufer gemacht.

Lightning
2012-11-16, 12:20:10
Wird aber ziemlich sicher so kommen. Die Publisher verlangen so was einfach.

Wir werden sehen. Nintendo macht zumindest schonmal nicht mit.

dargo
2012-11-16, 12:47:41
Nintendo hats auch nicht nötig.

Deinorius
2012-11-16, 12:54:33
Weil sie sowieso ihr eigener erfolgreichster Publisher sind?

dargo
2012-11-16, 13:10:50
Auch... und die Produktionskosten sind bestimmt deutlich tiefer als bei den AAA-Titeln. Ich meine ein Mario&Co wird wohl keine hohen zweistelligen Millionen Beträge verschlingen. :freak: Zudem subventioniert Nintendo die Hardware nicht. Bei den neuen Konsolen muss man es erstmal abwarten ob es tatsächlich ohne Subvention klappt.

Deinorius
2012-11-16, 13:12:42
Seit wann brauchen Publisher eine Ausrede, um uns zu gängeln? :ugly:

robbitop
2012-11-16, 13:47:49
Wie sagt Daniel Pachter immer so schön? "It's a profit deal!" :D

Iterator
2012-11-16, 15:59:11
Es sind mal wieder Gerüchte über die Spezifikationen der kommenden nächsten Xbox Generation
aufgetaucht. Das bekannte Xbox World Magazin will erfahren haben, das Durango Dev Kits
mit einer 4 Kern CPU (pro Core, 4 logische Core`s) und 8 GB Ram Arbeitsspeicher verfügen
soll. Zudem soll Blu Ray & Kinect 2 und ein TV In und Output mit an Board sein.

According to the mag's final 'exposé', the next-gen Xbox - which it speculates is likely to be called simply "Xbox" - will introduce Kinect 2.0, use Blu-ray discs and feature directional audio, a TV output AND input, 'innovative controller' and - at a later stage of the console's life - AR glasses.

Current codename 'Durango' dev kits boast a CPU with "four hardware cores, each divided into four logical cores" and an impressive 8GB of RAM, XBW reports.



Quelle:computerandvideogames.com (http://www.computerandvideogames.com/379069/xbox-720-xbw-uses-penultimate-issue-to-tell-you-everything-we-know/)

john carmack
2012-11-16, 16:26:53
ich denke schon das die nächste KonsolenGen. grafisch und techisch was reißen wird.

Man muss ja immer bedenken das ein Playstation OS oder ein XBOX OS nicht soviel mist mit rumschleppen muss wie ein PC OS

Virenscanner, tausende von Treibern und Diensten und Programme die alle min einen Task mitbringen.
Da kann man schon sehr viel Leistung einsparen.
Mein alter F-Secure Virenscanner hat ganze 10 Tasks auf einmal am laufen gehbat :freak:

Es ist schon erstaunlich wie schnell so ein frisch installiertes Windows sein kann wenn man nix installiert hat und alle Dienste und Hardware deaktiviert die man nicht braucht :D


Jetzt mal im Ernst. Aus heutiger sicht kann eine XBOX mit deren super veralteten Technik vergleichsweise noch Top Graik auf den Schirm zaubern! :)

Coda
2012-11-16, 16:41:57
Virenscanner, tausende von Treibern und Diensten und Programme die alle min einen Task mitbringen.
Da kann man schon sehr viel Leistung einsparen.
Mein alter F-Secure Virenscanner hat ganze 10 Tasks auf einmal am laufen gehbat :freak:
Tasks sind egal, solange sie keine CPU-Zeit brauchen.

john carmack
2012-11-16, 16:45:28
alles was im taskmanager aufgelistet ist, braucht zeit!
Mal mehr, mal weniger...

Skysnake
2012-11-16, 16:48:42
kommt drauf an. Setzt mal was, was busy waiting macht auf die höchste Prioritätsstufe ;D

Viel Spaß beim Systemfrees :biggrin:

Tesseract
2012-11-16, 16:49:48
Virenscanner, tausende von Treibern und Diensten und Programme die alle min einen Task mitbringen.
das meiste davon ist sowieso blocked und braucht keine CPU-cycles, höchstens etwas ram. und wenn wir von einem rohleistungsunterschied von durchaus faktor 10 sprechen ist das "schlankere system" erst kein argument. einen deutlichen vorteil könnte man höchstens dann rausholen wenn wirklich hardwarenäher programmiert werden kann. aber auch das geht auf die ganze engine gesehen nur bis zu einem gewissen grad.

Jetzt mal im Ernst. Aus heutiger sicht kann eine XBOX mit deren super veralteten Technik vergleichsweise noch Top Graik auf den Schirm zaubern! :)
sry, aber nein. in mancher hinsicht sind die konsolen heute schlechter als spiele, die ich 2002 am PC gespielt habe. das ist keine top grafik, das ist peinlich.

kommt drauf an. Setzt mal was, was busy waiting macht auf die höchste Prioritätsstufe ;D
wenn etwas busy waiting implementiert gehört es sowieso deinstalliert. :freak:

alles was im taskmanager aufgelistet ist, braucht zeit!

die performance, die blocked prozesse verbrauchen kannst du auf einem untertakteten 486er laufen lassen.

dargo
2012-11-16, 17:06:07
Virenscanner, tausende von Treibern und Diensten und Programme die alle min einen Task mitbringen.
Da kann man schon sehr viel Leistung einsparen.
Mein alter F-Secure Virenscanner hat ganze 10 Tasks auf einmal am laufen gehbat :freak:

Es ist schon erstaunlich wie schnell so ein frisch installiertes Windows sein kann wenn man nix installiert hat und alle Dienste und Hardware deaktiviert die man nicht braucht :D

Schaff dir eine SSD an dann weißt du was Speed in Windows ist. ;) Zudem... was spielt das alles für eine Rolle beim Zocken?


Jetzt mal im Ernst. Aus heutiger sicht kann eine XBOX mit deren super veralteten Technik vergleichsweise noch Top Graik auf den Schirm zaubern! :)
Ansichtssache... ich sehe daran keine Top Grafik, ganz im Gegenteil.

Gipsel
2012-11-16, 18:40:59
Es sind mal wieder Gerüchte über die Spezifikationen der kommenden nächsten Xbox Generation
aufgetaucht. Das bekannte Xbox World Magazin will erfahren haben, das Durango Dev Kits mit einer 4 Kern CPU (pro Core, 4 logische Core`s) und 8 GB Ram Arbeitsspeicher verfügen soll.Da es von AMD vermutlich kein SMT gibt, werden wohl vier 4-Kern-"Module" gemeint sein, also insgesamt 16 Kerne (Jaguar faßt 4 Kerne mit einem gemeinsamen L2 zu einer Art "building block" zusammen, an einer Northbridge können dann mehrere solcher "Module" hängen [wie bei Trinity zwei BD-Module] ;)). Hmm, und ich dachte, es werden nur 8 Kerne/2 "Module". Na mal sehen, ob das stimmt. :rolleyes:

Knuddelbearli
2012-11-16, 19:04:09
zu hoffen wärs ^^

dargo
2012-11-16, 19:07:43
Da es von AMD vermutlich kein SMT gibt, werden wohl vier 4-Kern-"Module" gemeint sein, also insgesamt 16 Kerne (Jaguar faßt 4 Kerne mit einem gemeinsamen L2 zu einer Art "building block" zusammen, an einer Northbridge können dann mehrere solcher "Module" hängen [wie bei Trinity zwei BD-Module] ;)). Hmm, und ich dachte, es werden nur 8 Kerne/2 "Module". Na mal sehen, ob das stimmt. :rolleyes:
Letzteres kann doch stimmen, immerhin sind das Gerüchte von Dev Kits.

Gipsel
2012-11-16, 19:16:53
Letzteres kann doch stimmen, immerhin sind das Gerüchte von Dev Kits.
Und in den ersten DevKits waren angeblich zwei Xeons von Intel (2 x 4 Kerne) mit nV Grafik drin. Hmm. Na wenn die das Hyperthreading nicht im BIOS deaktiviert hatten, wären das ja auch 16 Threads. :freak:

Coda
2012-11-16, 19:46:03
alles was im taskmanager aufgelistet ist, braucht zeit!
Das ist schlichtweg falsch.

S940
2012-11-17, 18:41:30
Da es von AMD vermutlich kein SMT gibt, werden wohl vier 4-Kern-"Module" gemeint sein, also insgesamt 16 Kerne (Jaguar faßt 4 Kerne mit einem gemeinsamen L2 zu einer Art "building block" zusammen, an einer Northbridge können dann mehrere solcher "Module" hängen [wie bei Trinity zwei BD-Module] ;)). Hmm, und ich dachte, es werden nur 8 Kerne/2 "Module". Na mal sehen, ob das stimmt. :rolleyes:
Ach wenn ichs nach dem Motto "mehr ist immer besser" erst einmal toll fände, kann man 16 Kerne überhaupt sinnvoll mit Spielen beschäftigen?

Das Einzige was mir da einfiele wäre Richtung Echtzeitraytracing, da hatte Intel doch mal ein Quake-Demos für Larrabee und Co.

Aber "normale" Sachen wie aktuelle Spiele mit 16 Kernen?

Gäbs sonst noch was, was ich übersehen habe?

Mr.Magic
2012-11-17, 18:44:13
Aber "normale" Sachen wie aktuelle Spiele mit 16 Kernen?

Aktuelle Spiele nicht, aber bessere. Vernünftige Physik, KI, Ton, und schon hat man 8-10 Kerne alleine dafür belegt.

dargo
2012-11-17, 19:18:35
16 Kerne ist doch Quatsch. Der nächste sinnvoller Schritt ist erstmal Engines zu schreiben die vernünftig 6-8 Kerne füttern können.

aufkrawall
2012-11-17, 20:05:09
Ansichtssache... ich sehe daran keine Top Grafik, ganz im Gegenteil.
Das ist keine Ansichtssache. :freak:
Objektiv gibts nur eine Realität und in der sehen die derzeitigen Konsolen einfach mittlerweile mega kacke aus, keine Diskussion erlaubt.

Lightning
2012-11-17, 20:21:02
16 Kerne ist doch Quatsch. Der nächste sinnvoller Schritt ist erstmal Engines zu schreiben die vernünftig 6-8 Kerne füttern können.

Denke auch, dass 16 Kerne recht ineffizient sein könnten. Wenns so einfach wäre, würden auch heutige Spiele schon besser skalieren.
Mir stellt sich die Frage, ob es teils nicht effizienter wäre, die rechenintensiven Aufgaben, die sich gut parallelisieren lassen, öfter von der GPU übernehmen zu lassen.

Das ist keine Ansichtssache. :freak:
Objektiv gibts nur eine Realität und in der sehen die derzeitigen Konsolen einfach mittlerweile mega kacke aus, keine Diskussion erlaubt.

Egal, wie du das siehst: Doch, eine Diskussion diesbezüglich ist natürlich erlaubt. Hat hier aber nicht so viel mit dem Thema zu tun.

dargo
2012-11-17, 20:49:24
Mir stellt sich die Frage, ob es teils nicht effizienter wäre, die rechenintensiven Aufgaben, die sich gut parallelisieren lassen, öfter von der GPU übernehmen zu lassen.

Die wären?

Iterator
2012-11-17, 20:53:16
Wenn die CPU so kommen sollte wie vermutet (ich denke trotzdem das ein PowerPC Devirat
drin stecken wird), dann wird man sich keine Gedanken um entsprechende Engines machen
müssen, die im laufe der Zeit auch das Hardware Potential nutzen werden. Das liegt schon
alleine im Interesse der Game Entwickler das sich die Konsolen möglichst gut verkaufen.

HarryHirsch
2012-11-17, 21:29:49
passt zwar gerade nicht zur aktuellen diskussion, aber:
was für ein os sollen die denn bekommen?
xbox - windows?
ps - linux?

bloub
2012-11-17, 23:08:45
ich spekuliere mal auf ein windows 8 derivat für die xbox ;).

HarryHirsch
2012-11-17, 23:18:15
würde das gleichzeitig eine dx11.1 kompatibilität bedeuten?

john carmack
2012-11-18, 00:17:01
Jetzt mal im Ernst. Aus heutiger sicht kann eine XBOX mit deren super veralteten Technik vergleichsweise noch Top Graik auf den Schirm zaubern! :)

!!

Iterator
2012-11-18, 00:31:29
würde das gleichzeitig eine dx11.1 kompatibilität bedeuten?

Mann kann davon ausgehen das die zukünftige MS Konsole, im Grafik Bereich
eine API verwenden wird, die an DirectX (welche Version auch immer) angelehnt
sein wird, also Konsolen spezifisch wie der der 360 auch.

Kira
2012-11-18, 00:49:53
sry, aber nein. in mancher hinsicht sind die konsolen heute schlechter als spiele, die ich 2002 am PC gespielt habe. das ist keine top grafik, das ist peinlich.



z.B.?

tobor
2012-11-18, 00:56:18
Auch... und die Produktionskosten sind bestimmt deutlich tiefer als bei den AAA-Titeln. Ich meine ein Mario&Co wird wohl keine hohen zweistelligen Millionen Beträge verschlingen. :freak: Zudem subventioniert Nintendo die Hardware nicht.

Falsch,Nintendo wird subventionieren:

http://www.nintendo-power.de/news/wii-u-wird-subventioniert-121025

Haben sie übrigens auch beim 3ds gemacht.

Felixxz2
2012-11-18, 01:10:23
Vielleicht eine art Windows Phone 8 für Xbox? Weil normales Windows 8 würde denke ich zuviele ressourcen und speicherplatz fressen.

Ailuros
2012-11-22, 23:37:56
http://www.xbitlabs.com/news/multimedia/display/20121121225316_Microsoft_Game_Studios_We_No_Longer_Compete_Only_with_Console_Com panies.html

Besser spaet als nie...

aufkrawall
2012-11-22, 23:42:46
"dedicated games for Windows 8" - was soll man sich darunter vorstellen?
QTEs über Touch für den extra Adrenalinkick? :D

The Nemesis
2012-11-22, 23:52:10
Vielleicht scheißt sich Microsoft ja doch langsam in die Hosen vor Valves Linux-Ports.
Ansonsten nichts als heiße Luft, Microsoft wird sich auf sein erklärtes Ziel Smartphones versteifen, kann mir nur schwerlich vorstellen, dass sie den Desktop-Markt in Gefahr sehen.
Ein schlechter Port hier, ein mieser Port dort, business as usual.

Ailuros
2012-11-22, 23:53:19
"dedicated games for Windows 8" - was soll man sich darunter vorstellen?
QTEs über Touch für den extra Adrenalinkick? :D

...we are building dedicated games for Windows Phone 8 and for Windows 8...

Windows phone 8 smartphones, windows8 und windowsRT tablets und Konsolen.

Tesseract
2012-11-23, 00:00:19
z.B.?

z.B. auflösung, AA, flimmerneigung, framerate wenn es nur um die grafik geht.

PrefoX
2012-11-23, 07:15:49
z.B. auflösung, AA, flimmerneigung, framerate wenn es nur um die grafik geht.
jo klar, dafür war der rest auf dem bildschirm dagegen dann aber auch Müll... wie schlecht ist bitte dieser Vergleich?;D

Tesseract
2012-11-23, 12:27:19
jo klar, dafür war der rest auf dem bildschirm dagegen dann aber auch Müll...
ich habe auch geschrieben in mancher hinsicht und nicht in jeder hinsicht.

aufkrawall
2012-11-23, 12:32:05
Spätestens, wenn eine Auflösung interpoliert wird, ist das Bild bei Konsolen einfach nur noch extrem schlecht.
Das kann mit 2006er PC-Grafik (Oblivion, Gothic 3...) nicht mithalten.

Coda
2012-11-23, 14:49:29
Ich glaube du solltest dringend nochmal Oblivion spielen. Schau dir mal Screenshots davon an.

Mr.Magic
2012-11-23, 15:18:13
Ich habe ein fast unmodifiziertes Oblivion installiert. Welches Spiel (Open World versteht sich) sieht denn auf PS360 besser aus?

Crazy_Bon
2012-11-23, 15:26:29
Ich habe ein fast unmodifiziertes Oblivion installiert. Welches Spiel (Open World versteht sich) sieht denn auf PS360 besser aus?
Die Frage ist, welches nicht?

robbitop
2012-11-23, 15:31:21
Oblivion auf dem PC sah @maxed schon recht gut aus - selbst Vanilla. Auf der PS360 hingegen sah Oblivion stark begrenzt aus.

Ich würde mal vorsichtig Sleeping Dogs vorschlagen.

aufkrawall
2012-11-23, 16:29:58
Ich glaube du solltest dringend nochmal Oblivion spielen. Schau dir mal Screenshots davon an.
Ich weiß noch, wie das aussah. Texturen nicht so pralle, aber dafür z.B. massenhaft Alphatests und ein recht flimmerfreies Bild. Die Wälder konnten auch ohne Mods recht hübsch aussehen.
Das geht auf keiner Konsole.

Coda
2012-11-23, 17:39:39
http://img100.imageshack.us/img100/1613/oblivion2006090600222262zm2.jpg

Srsly? :ugly:

aufkrawall
2012-11-23, 17:55:34
Ich hab jetzt keinen Bock, das nur wegen eines Shots zu installieren...
Dein Bild ist natürlich schlecht. ;)

Mr.Magic
2012-11-23, 18:09:00
Die Frage ist, welches nicht?

Hier haste Liste an Spielen, die schlechter aussehen als die Vanilla PC-Fassung von Oblivion.

http://en.wikipedia.org/wiki/List_of_Xbox_360_games
http://en.wikipedia.org/wiki/List_of_PlayStation_3_games

Dinge die mir wichtig sind:
- Sichtweite
- Antialiasing
- 3D
- Anisotroper Filter
- Auflösung
- 120FPS
- vSync

AnarchX
2012-11-23, 18:16:58
Aber bei Konsolen-Spielen steht aber wohl häufiger der optische Gesamteindruck im Mittelpunkt, sodass entsprechend viel Leistung in Beleuchtung und sonstige Post-Effekte investiert wird. Die Limitierung durch die 512MiB (V)RAM kommen dann noch dazu.

dildo4u
2012-11-23, 18:17:52
Ich habe ein fast unmodifiziertes Oblivion installiert. Welches Spiel (Open World versteht sich) sieht denn auf PS360 besser aus?
http://youtu.be/dK5JECL0Mnw?hd=1&t=2m19s

Mr.Magic
2012-11-23, 18:30:56
Hast du das nochmal ohne Vaselinefilter?

aufkrawall
2012-11-23, 20:14:39
Ist das Video von einer Konsole?

Crazy_Bon
2012-11-23, 20:45:01
Ist das Video von einer Konsole?
Laut der Webseite von CVG und anhand der Buttons von der Xbox360, nur komisch, daß die eingeblendeten Buttons nicht farbig waren, ach egal.

http://www.computerandvideogames.com/379734/reviews/far-cry-3-review-stunning-shooter-could-be-the-years-best-game-review/?page=2#top_banner

Tesseract
2012-11-23, 23:48:29
http://youtu.be/dK5JECL0Mnw?hd=1&t=2m19s
ernsthaft? :freak:

http://img163.imageshack.us/img163/1184/fc3w.jpg
http://img715.imageshack.us/img715/4015/oblivionf.jpg

dildo4u
2012-11-23, 23:50:54
Youtube Kompression gegen direkten Screenhot lol.Ich hab ein Video gepostet weil man erst dort Effekte wie dynamische Beleuchtung bewerten kann,Games bestehen nicht nur aus Polys und Texturen.

Tesseract
2012-11-23, 23:52:46
Youtube Kompression gegen direkten Screenhot lol.
es steht dir frei einen hochzuladen oder zu verlinken. das problem ist, dass ein großteil des matsches nicht die kompression sondern das postprocessing ist.

aufkrawall
2012-11-23, 23:53:48
Das emuliert doch das Interpolieren. :D
Jedenfalls zeigt der Oblivion-Screen gut was ich meinte: DETAILS.

dildo4u
2012-11-23, 23:59:23
Farcry 3 scheint massig Details zu haben,da scheints kein Unterschied zwischen PC und Konsole zu geben.

http://www.pcgameshardware.de/Far-Cry-3-PC-217540/Tests/Far-Cry-3-Test-Grafikkarten-CPU-Benchmarks-1036726/galerie/2015799/

Tesseract
2012-11-24, 00:05:30
Ich hab ein Video gepostet weil man erst dort Effekte wie dynamische Beleuchtung bewerten kann

jo, die ist auch richtig toll.
am besten gefällt mir die stelle hier (http://www.youtube.com/watch?v=dK5JECL0Mnw&feature=youtu.be&hd=1&t=2m41s) wo die häuser innerhalb von 10 metern 4 mal die schattierung ändern.

dildo4u
2012-11-24, 00:11:03
Tja in dem Fall bewegt man sich halt sehr schnell und das Streaming wird gestresst,kein Plan glaub Oblivion muss sich nich mit Abseilen und Hang Gliding beschäftigen.Aber stimmt der Punkt wurde auf Konsole auch schon besser gemacht in einer wesentlich größeren Welt.(Just Cause 2)

Tesseract
2012-11-24, 00:18:12
Tja in dem Fall bewegt man sich halt sehr schnell und das Streaming wird gestresst
das kannst du aber nicht vom rest trennen. dynamische beleuchtung funktioniert eben nur in solchen umgebungen mit brutalem objekt-LoD wenn man so stark von der rohleistung limitiert wird.

dildo4u
2012-11-24, 00:26:06
Sicher aber so lange es beim Fahren nicht so stark auffällt ist es imo ein guter Kompromiss,da man eh die meiste Zeit mit laufen und Fahren verbringt.Power und Speicher scheinen auch am PC lange nich alle LOD Probleme zu lösen(Laut PCGH) vieleicht muss man dort Größere Änderungen an der Engine vornehmen.

oids
2012-11-24, 05:52:58
“......Am Ende dürfte die höhere Leistungsfähigkeit der NextGen-Konsolen (im Vergleich zu den aktuellen Spielekonsolen) wohl recht schnell wieder aufgezehrt sein.

– und im Gegensatz zur aktuellen Konsolengeneration verfügen die NextGen-Konsolen nicht über wirklich gute CPU-Konstruktionen, die dann noch viel herausretten können.

Daß die NextGen-Konsolen den PC wieder ausbremsen wie aktuell zu sehen, sollte zwar in absehbarer Zeit nicht passieren – aber es dürfte sich schnell wieder die Situation entwickeln, wo die beste Grafikqualität nur unter dem PC verfügbar ist, nicht aber den Konsolen (auch nicht den NextGen-Konsolen).

Dafür ist der Hardware-Ansatz der NextGen-Konsolen einfach zu mittelprächtig, um den PC effektiv von seiner Führungsrolle abzuhalten.”


Quelle:3DCenter

Matrix316
2012-11-26, 15:11:33
Ubisoft Chef: Wir brauchen neue Konsolen
http://www.gamersglobal.de/news/61751/ubisoft-chef-wir-brauchen-neue-konsolen#comment-689568

Finde ich auch. ;)

Man muss sich leider damit abfinden, dass die Qualität der meisten PC Games eben von der Leistungsfähigkeit der aktuellen Konsolengeneration abhängt. Und wenn die besser ist, werden die PC Games auch wieder so aussehen, wie sie vor 5 Jahren schon aussahen, bei reinen PC Games. ;)

Sontax
2012-11-26, 17:58:40
wenigstens einer von denen die das mal ansprechen.
ich bin nicht so optimistisch dass sich da was tut.
crysis war ein ansatz dessen was machbar war und was machbar wäre in zukunft. war ja auf konsolen und auf pcs gleichermassen kaum lauffähig. c2 und wie auch c3 sind konsolenports die den pc halt nicht wirklich auslasten und die pc games werden durch die limitierung der konsolen behindert. 512mb ddr ram in konsolen. lol wenn die mal 4gb einbauen würden und ein anehmbarer grafikchip dann würden die auch länger durchhalten als in den aktuellen ps3 und xb360.
wii & wii u ausgenommen.
das einzige was ist. konsolen sind wenige verschiedene hardwarekonfigs. pc dagegen millionen wo sie optimierungen einplanen müssen. aber die technik bleibt dieselbe wie noch von damals. geld fürn highendrechner auszugeben mit mehr als 1500 euro lohnt sich nicht. da reicht n mittelklasse pc (aber kein komplettset) mit max 700 euro um alles auf max zu spielen

Felixxz2
2012-11-26, 18:14:16
512mb ddr ram in konsolen. lol wenn die mal 4gb einbauen würden und ein anehmbarer grafikchip dann würden die auch länger durchhalten als in den aktuellen ps3 und xb360.


Jaja 4GB und bestimmt noch ne 7970 im Jahr 2005 :rolleyes:

Tesseract
2012-11-26, 19:17:14
Jaja 4GB und bestimmt noch ne 7970 im Jahr 2005 :rolleyes:

wer redet von 2005? eine neue generation ist spätestens seit 2010 absolut überfällig.
alternativ kann man auch mal eine echt abwärtskompatible konsole bauen wo spiele auf mehr als einer generation mit unterschiedlichen settings laufen können. so müsste man auch nicht jede generation die komplette alte installierte userbase aus dem fenster schmeißen und komplett neu aufbauen.

aber so lange sich die masse der user mit steinzeithardware zufrieden gibt haben die hersteller halt null druck irgendwas weiterzuentwickeln.

Sontax
2012-11-26, 19:31:44
Jaja 4GB und bestimmt noch ne 7970 im Jahr 2005 :rolleyes:

sprech auch nich von ner 7970 im 2005. unabhängig da von wie amd und nvidia die gpus entwickeln. die technik z.b. grafik engine wäre heute deutlich weiter wenn die limitierung nicht da wär. gutes beispiel ist cryengine 2 zu 3. die hätten locker wieder was machen können dass die aktuelle hardware von heute wieder in die knie gezwungen hätte und würd mit sicherheit ohne die limitierung auf die konsole viel besser aussehen. weis noch wie die demo von crysis 1 meine alte mittelklasse grafikkarte durchbraten lies :D

edit: wenn die gerüchte zur ps4 sich bewahrheiten, dann würde ne 76xx oder max 77xx gpu eingebaut was ja eig lachhaft wäre. low gpu in ner neuen konsole was ja bei den alten (heutigen) nicht anders ist.
edit2: auch ne 78xx wäre gut. das ist das minimum. highendchip wäre besser nur da wäre dan nwieder mal die abwärme

Finch
2012-11-26, 22:17:02
Naja ein Pitcairn wäre wohl schon eine klasse Grundlage für eine neue Generation. Die 7979m zeigt ja was an Leistung Pro Watt möglich ist. Dazu 4 -8 GB RAM und ein Trinity und die neue Konsole nimmt gestallt an :)

Matrix316
2012-11-26, 22:17:31
In eine neue NG Konsole sollte IMO mindestens das rein, was zur Zeit aktuell kurz vor High End ist. Und das wäre sowas auf dem Niveau von:

Core i5-3570 ca. 180 Euro
8 GB RAM ca. 26 Euro
3 GB Radeon 7950 ca. 250 Euro

Und das sind die Preise die wir brutto dafür bezahlen müssen und nicht das was die Chips netto im Einkauf kosten.

Und da Konsolen meistens eh subventioniert sind und man vor allem durch die massiv überteuerten Spiele Geld macht, dann ist eine solche Hardware durchaus realistisch machbar für 400 Euro.

Deinorius
2012-11-26, 22:26:59
Die ganzen Argumente, wieso es kein Intel werden kann, wieso Sony/M$ nicht zuviel subventionieren wollen und dass eine Konsole aus mehr als CPU/GPU/RAM besteht, sind doch schon durch. Bitte keine erneute Wiederholung von dem selben Schmarrn!

grobi
2012-11-26, 22:27:36
In eine neue NG Konsole sollte IMO mindestens das rein, was zur Zeit aktuell kurz vor High End ist. Und das wäre sowas auf dem Niveau von:

Core i5-3570 ca. 180 Euro
8 GB RAM ca. 26 Euro
3 GB Radeon 7950 ca. 250 Euro

Und das sind die Preise die wir brutto dafür bezahlen müssen und nicht das was die Chips netto im Einkauf kosten.

Und da Konsolen meistens eh subventioniert sind und man vor allem durch die massiv überteuerten Spiele Geld macht, dann ist eine solche Hardware durchaus realistisch machbar für 400 Euro.


Das würde ja bedeuten das die Wii u überteuert ist. :freak:

Matrix316
2012-11-26, 22:29:17
Das würde ja bedeuten das die Wii u überteuert ist. :freak:
Nintendo Hardware ist immer überteuert. :) Naja, oft zumindest. Jedenfalls kann sie meistens weniger als die Konkurrenz.

oids
2012-11-26, 22:43:04
Man darf hier bei aller Diskussion um die Hardwarepower ja nicht vergessen,
das die Wii ihren weltweiten Siegeszug nicht wegen der in ihr schlummernden potenten Hardware gemeistert hat,sondern einzig und allein wegen dem innovativen Steuerungskonzept,was wohl ausreichte um XBox und Plesi bei den weltweiten Verkäufen zu verblasen (jedenfalls in Wii's bester Zeit) :wink:

Demirug
2012-11-26, 23:09:26
Ubisoft Chef: Wir brauchen neue Konsolen
http://www.gamersglobal.de/news/61751/ubisoft-chef-wir-brauchen-neue-konsolen#comment-689568

Sind die UbiSoft Geschäftszahlen so schlecht das der Chef schon mal einen Grund vorschieben muss?

Die Chefs der großen Publisher wissen recht genau wann und wie Next-Gen kommt. Nur dürfen sie nichts öffentlich sagen und selbst innerhalb der Studios dürfen entsprechenden Informationen nur an Leute weitergegeben werden die es unbedingt wissen müssen um ihren Job zu machen.

Sontax
2012-11-27, 07:45:56
konsolen sind beim relase eh überteuert. hat man ja bei ps3 und xb360 gesehen.
wird bei den neuen nicht anders sein. und die werden nur mittelklasse einbauen damit sie mehr gewinn machen können aber die leistung verbessert sich nur wenig.
vermutlich werden dann konsolen mit highend oder vor highend um die 800-1000 euro kosten. dafür kauf ich mir lieber nen pc da sind die games im gegensatz billiger als auf den konsolen.

robbitop
2012-11-27, 09:22:18
Ich bin für Sandy-Bridge E mit 8 Kernen und 4 GHz, ner Geforce 690 Quad-SLI, 32 GiB RAM und 512 GB Samsung 840pro SSD. X-D

tobor
2012-11-27, 09:54:55
Man darf hier bei aller Diskussion um die Hardwarepower ja nicht vergessen,
das die Wii ihren weltweiten Siegeszug nicht wegen der in ihr schlummernden potenten Hardware gemeistert hat,sondern einzig und allein wegen dem innovativen Steuerungskonzept,was wohl ausreichte um XBox und Plesi bei den weltweiten Verkäufen zu verblasen

Was leider vergessen wird,ist ein Vergleich zu vorhergehenden Generation:

Microsoft etwa hat beispielsweise hatte nur 25 Millionen Spielkonsolen verkauft aber mit der zweiten Konsole werden es wohl 70-80 Millionen Einheiten sein.(Ende 2014)

Das ist kein Misserfolg,sondern ein riesiger Erfolg(letztendlich auch finanziell). Und es wäre dumm, das Wii Erfolgrezept kopieren zu wollen. Ich glaube kaum,daß es Platz für mehr als eine Casualkonsole gibt.

Microsoft könnte also durchaus wieder eine Highendkonsole als Nachfolger der 360 anbieten.

Ein eigenes Konzept ist eh besser als der Versuch, den Erfolg anderer kopieren zu wollen.

Deinorius
2012-11-27, 12:40:27
Ich bin für Sandy-Bridge E mit 8 Kernen und 4 GHz, ner Geforce 690 Quad-SLI, 32 GiB RAM und 512 GB Samsung 840pro SSD. X-D


:uup:

dargo
2012-11-27, 12:54:25
Was leider vergessen wird,ist ein Vergleich zu vorhergehenden Generation:

Microsoft etwa hat beispielsweise hatte nur 25 Millionen Spielkonsolen verkauft aber mit der zweiten Konsole werden es wohl 70-80 Millionen Einheiten sein.(Ende 2014)

Das ist kein Misserfolg,sondern ein riesiger Erfolg(letztendlich auch finanziell).
Und wieviele davon hat man mit Verlust verkauft + die eine Milliarde $ wegen ROD? :D

Ich bin für Sandy-Bridge E mit 8 Kernen und 4 GHz, ner Geforce 690 Quad-SLI, 32 GiB RAM und 512 GB Samsung 840pro SSD. X-D
Yeah... und einen 55" OLED Bildschirm bitte gleich als Bundle anbieten. :uup:

starfish
2012-11-27, 12:58:22
Sind die UbiSoft Geschäftszahlen so schlecht das der Chef schon mal einen Grund vorschieben muss?

Die Chefs der großen Publisher wissen recht genau wann und wie Next-Gen kommt. Nur dürfen sie nichts öffentlich sagen und selbst innerhalb der Studios dürfen entsprechenden Informationen nur an Leute weitergegeben werden die es unbedingt wissen müssen um ihren Job zu machen.

Hat nicht Rockstar letzte Woche erst verlauten lassen, dass sie GTA V genau deswegen jetzt machen, weil die Konsolen so unglaublich weit verbreitet sind und sie damit genau jetzt ein so großes Publikum erreichen?


Edit:

Why isn't GTA V a next-gen launch title?



Some other people talk about the limitations of the [current] hardware. We don't feel there are that many limitations. We feel we can do some very impressive stuff and do it for a large audience. This felt like the way... There'll be a much larger audience on PS3 than there will be on PS4. At a creative level, which is the most important for us, we could say everything we wanted to say and do everything we wanted to do on these machines. We didn't sit there saying, "We'd like to do this in the game, but we can't." There's plenty of power in these machines.

http://www.ign.com/articles/2012/11/17/gta-v-burning-questions-answered

N0Thing
2012-11-27, 13:02:08
Und wieviele davon hat man mit Verlust verkauft + die eine Milliarde $ wegen ROD? :D

Spielt doch keine Rolle, wenn sie durch ihren Online-Dienst und Anteile an den Spieleverkäufen mit diesem Modell mehr Geld verdient haben, als wenn sie ihre Konsole zum Herstellungspreis verkauft hätten.

dargo
2012-11-27, 13:18:32
Spielt doch keine Rolle, wenn sie durch ihren Online-Dienst und Anteile an den Spieleverkäufen mit diesem Modell mehr Geld verdient haben, als wenn sie ihre Konsole zum Herstellungspreis verkauft hätten.
Haben sie das? Dazu hätte ich gerne eine Quelle.

Demirug
2012-11-27, 13:29:09
Hat nicht Rockstar letzte Woche erst verlauten lassen, dass sie GTA V genau deswegen jetzt machen, weil die Konsolen so unglaublich weit verbreitet sind und sie damit genau jetzt ein so großes Publikum erreichen?

Das mag ein Grund sein. Es gibt noch Theorien das Rockstar nicht bis zum erscheinen der neuen Konsolen warten will weil sie die Umsätze brauchen. Eine andere Theorie ist das man bei Rockstar schon zu weit in der Entwicklung ist und ein Wechsel auf die neuen Konsolen die Kosten zu stark erhöhen würde. Da man sehr vieles neu machen müsste um den Standards für einen Launchtitle zu genügen.

Haben sie das? Dazu hätte ich gerne eine Quelle.

Da niemand sagen kann wie gut sich die Konsolen ohne die Zuschüsse verkauft hätten wirst du da keine Zahlen finden.

HOT
2012-11-27, 14:23:04
Na ja, die Technik sollte doch ähnlich wie bei Max Payne 3 sein, von daher ist GTA5 nicht wirklich nächste Generation. Erst die neuen Konsolen werden wohl auch eine neue Engineversion von RAGE erfordern. Rockstar ist technisch gesehen aber spät dran, deswegen ist diese Begründung zwingend. "Wir wollen ein möglichst großes Publikum erreichen" heißt im Wirtschaftssprech eher soviel wie "wir sind noch nicht soweit, die neue Konsolengeneration aber auch nicht". Da sich Rockstar aber eh stark auf die Konsolen fixiert und der PC nur ein Nieschendasein bei denen fristet ist das auch ok für die. Ich find nur den Namen GTA "V" etwas daneben, denn eigentlich ist es ein San-Andreas-Teil von Teil 4 und hat nix mit der nächsten Generation zu tun.

Coda
2012-11-27, 14:42:02
Genau, denn Engine- und Konsolen-Generation haben schon immer direkt was mit der Zahl am Ende des Spielenames zu tun.

Matrix316
2012-11-27, 14:44:44
Hat nicht Rockstar letzte Woche erst verlauten lassen, dass sie GTA V genau deswegen jetzt machen, weil die Konsolen so unglaublich weit verbreitet sind und sie damit genau jetzt ein so großes Publikum erreichen?


Edit:

Why isn't GTA V a next-gen launch title?



Some other people talk about the limitations of the [current] hardware. We don't feel there are that many limitations. We feel we can do some very impressive stuff and do it for a large audience. This felt like the way... There'll be a much larger audience on PS3 than there will be on PS4. At a creative level, which is the most important for us, we could say everything we wanted to say and do everything we wanted to do on these machines. We didn't sit there saying, "We'd like to do this in the game, but we can't." There's plenty of power in these machines.

http://www.ign.com/articles/2012/11/17/gta-v-burning-questions-answered
Das lustige ist ja, dass GTA IV schon auf der PS3 arg arg an die Limitierungen der Konsole gestoßen ist, von wegen Auflösung, Aliasing und Co.

Matrix316
2012-11-27, 14:49:12
Ich bin für Sandy-Bridge E mit 8 Kernen und 4 GHz, ner Geforce 690 Quad-SLI, 32 GiB RAM und 512 GB Samsung 840pro SSD. X-D
Man muss ja jetzt auch nicht übertreiben. Die Hardware die ich vorgeschlagen habe, wäre eigentlich sehr im Rahmen. Man braucht ja auch nur ein PCB wo halt ein Chipsatz, die CPU, die GPU und die RAM Bausteine draufgepappt werden. Eine SSD als Speichermedium würde sich aber anbieten. Eine normale HD würde aber auch reichen. :)

Die Konsole müssen ja auch nicht winzig klein sein. Schaut euch mal die alten PS3s oder XBOXen an. Sowas hier kommt dem doch schon ziemlich nahe: http://geizhals.at/de/836621

Coda
2012-11-27, 14:52:26
Das lustige ist ja, dass GTA IV schon auf der PS3 arg arg an die Limitierungen der Konsole gestoßen ist, von wegen Auflösung, Aliasing und Co.
Die Engine war auch crap.

Deinorius
2012-11-27, 14:56:22
Die Konsole müssen ja auch nicht winzig klein sein. Schaut euch mal die alten PS3s oder XBOXen an. Sowas hier kommt dem doch schon ziemlich nahe: http://geizhals.at/de/836621


Das ist jetzt aber nicht dein Ernst. :facepalm:

Matrix316
2012-11-27, 15:08:45
Das ist jetzt aber nicht dein Ernst. :facepalm:
Warum? Das Asrock ding haut jede XBOX360 und PS3 gegen die Wand. Würde man es nur ca. doppelt so breit machen, wäre es ungefähr so groß wie eine PS3 und könnte noch bessere Hardware haben.

Vom Preis her würde dank massenproduktion und Spielesubventionierung sicher noch was gehen, so dass man mit 500-600 Euro Einstiegspreis anfangen kann.

Man könnte z.B. auch zwei Platten einbauen. Eine kleine SSD für das Betriebsystem und eine größere für Spieledaten.

robbitop
2012-11-27, 15:26:48
Wenn die nächste Xbox wirklich einen SoC mit >= 8x Jaguar + 4 GiB RAM + etwas Pitcairnartiges für 399 $ bekommt, ist das schon ziemlich ok.

Man darf nicht vergessen, dass ein großer Teil des Performancevorteils des PCs seit G80 und später bei GT200 durch nicht nur durch Shrinks sondern auch durch eine Vergrößerung des Grafikkerns bis kurz vor 500 sqmm und durch eine TDP Verdopplung kam.
2005 waren High End GPUs 200 (G71) ... 350 sqmm (R580) groß. Die SIs waren maximal 256 bit breit.
Die Xbox 360 hat das allerfeinste vom allerfeinsten bekommen. Das war vermutlich ein one-time-only Ding.
Pitcairn würde heute diesem Fenster entsprechen. Man muss in Preis- und Leistungsaufnahmeregionen bleiben, die sinnvoll sind.
Sollte die Xbox 3 wirklich wie oben aussehen, können wir uns schon freuen.
IMO wird 399 $ der maximale Verkaufspreis sein.

Hoffen können wir auf kürzere Zyklen. Aber wesentlich kürzer werden sie bestimmt nicht. Man sah ja, dass das Konzept mit den langen Zyklen wirklich aufging. Außerdem steigen durch bessere HW die Details, was widerum die Kontentkosten explodieren lässt.

aufkrawall
2012-11-27, 15:40:59
was widerum die Kontentkosten explodieren lässt.
Wer sagt eigentlich, dass jeder Kunde eine x Millionen teure Hollywood-Produktion will?
Ich will einfach nur mit netter Grafik & ohne Geflimmer was zocken, so ein abartig teures MP3 mit fragwürdiger Spielmechanik kann mir gestohlen bleiben.

Felixxz2
2012-11-27, 15:45:46
Die größte Frage für mich wär halt der RAM. Weil da gibts viele Kombis.

DDR3, GDDR5, 128/256 Bit (oder 64 *räusper* Wii U *räusper* :freak:), mit eDRAM oder ohne. Vor allem kann man da aufgrund von Kosteneinsparungen einiges an Leistung kaputt machen (-> siehe current Gen RAM-Größe). Beim Rest mach ich mir zumindest bei MS keine Sorgen, die 360 war sehr ordentlich.

There's plenty of power in these machines.


3x:freak:

Matrix316
2012-11-27, 15:51:25
Bei der Hardwareauswahl sollte man sich überlegen, was die Zielgruppe ist.

Bei der WiiU ist es nicht so schlimm, dass diese nicht die über Next Generation HW bietet, wiel man mit Sachen wie Mario und der neuen Steuerung eh mehr Wert auf Spielspaß als auf Präsentation legt.

Bei Microsoft und Sony ist das was anderes, weil beide im Prinzip die PC Gamer als Zielgrupe haben. Wobei dank den aktuellen Konsolen, das eh beides zusammenwächst, oder was ist der Unterschied zwischen Call of Duty oder Skyrim oder Fifa?

Also wäre es nur folgerichtig, wenn die nächste XBOX und PS HW mäßig auf dem Niveau der aktuellen PCs sind, weil sie a) die gleiche Zielgruppe und b) die gleichen Spiele anbieten.

Felixxz2
2012-11-27, 15:54:27
Ändert nichts daran, dass die Wii U Hardwarezusammenstellung ein wenig kurios ist. Ein moderner SoC hätte es auch getan und wäre wohl schneller.

robbitop
2012-11-27, 15:56:08
Wer sagt eigentlich, dass jeder Kunde eine x Millionen teure Hollywood-Produktion will?
Ich will einfach nur mit netter Grafik & ohne Geflimmer was zocken, so ein abartig teures MP3 mit fragwürdiger Spielmechanik kann mir gestohlen bleiben.
Ich fand Max Payne 3 ziemlich gut. (auf dem PC)

Mehr Leistung führt immer zu mehr Details. Die Leistung wird sicher nicht in Auflösung und AA investiert. Das nimmt die Masse nicht doll genug wahr.
Als PC Spieler sollte uns das aber freuen. Auflösung und AA können wir selbst hochdrehen. ;)

Die größte Frage für mich wär halt der RAM. Weil da gibts viele Kombis.

DDR3, GDDR5, 128/256 Bit (oder 64 *räusper* Wii U *räusper* :freak:), mit eDRAM oder ohne. Vor allem kann man da aufgrund von Kosteneinsparungen einiges an Leistung kaputt machen (-> siehe current Gen RAM-Größe). Beim Rest mach ich mir zumindest bei MS keine Sorgen, die 360 war sehr ordentlich.


Ich sehe 4 GiB GDDR5 @128 bit + eDRAM als realistisch an. Die Menge eDRAM sollte irgendwo zwischen 32 .... 128 MiB liegen.

][immy
2012-11-27, 16:08:51
Hoffen können wir auf kürzere Zyklen. Aber wesentlich kürzer werden sie bestimmt nicht. Man sah ja, dass das Konzept mit den langen Zyklen wirklich aufging. Außerdem steigen durch bessere HW die Details, was widerum die Kontentkosten explodieren lässt.
naja, ob die Kontentkosten wirklich so explodieren werden mag ich mal zu bezweifeln. Aktuell hinken die Konsolen dem PC schon dermaßen hinterher, das wird wohl froh sein können wenn wir die PC-Einstellung "high Details" bekommen würden (zumindest die erste zeit bis es wieder zu knapp wird). das sind ja bisher auch detail-Levels die aktuell schon produziert werden, die gibt es ja schließlich nicht nur weil es noch auf dem PC released wurde.

robbitop
2012-11-27, 16:12:12
[immy;9560880']naja, ob die Kontentkosten wirklich so explodieren werden mag ich mal zu bezweifeln. Aktuell hinken die Konsolen dem PC schon dermaßen hinterher, das wird wohl froh sein können wenn wir die PC-Einstellung "high Details" bekommen würden (zumindest die erste zeit bis es wieder zu knapp wird). das sind ja bisher auch detail-Levels die aktuell schon produziert werden, nicht nur extra für den pc erstellt worden.
Naja High Details auf dem PC sind aber idR nur mehr Effekte und mehr Sichtweite. SSAO, bessere Beleuchtung, aufwändigere Shader.
Wirklich deutlich höheres Geometriedetail oder Texturdetail ist selten zu sehen. Die Studios lassen sich mit 2048x2048 "HD-Texturpacks" feiern. Das sollte längst Standard sein.

Gerade Dinge, die zu modellieren oder zu animieren sind, kosten richtig Geld. Und all das will besser werden.
Das gibt es auch in zig Interviews von Developern zu lesen.

Felixxz2
2012-11-27, 16:14:11
Hört sich vernünftig und relativ perfomant an. Den eDRAM sollten sie dieses mal aber voll auf 1080p auslegen.

Liege ich richtig, wenn ich davon ausgehe, dass man BF3 MP mit maximalen Details @1080p auf ner Xbox 3/PS4 in 2GB Uniefied RAM kriegt?

robbitop
2012-11-27, 16:44:54
Naja das Problem ist, dass bei defered Rendering Engines noch deutlich mehr Buffer mit fragmentiertem Verkehr auftreten als nur Z- und Colorbuffer. 1080p wird langfristig IMO sowieso nicht drin sein.

aufkrawall
2012-11-27, 16:53:44
Ich fand Max Payne 3 ziemlich gut. (auf dem PC)

Es gibt ja durchaus Projekte, die ziemlich oldschoolig sind (Painkiller, Jack Keane, Orcs must die...). Nicht furchtbar teuer in der Produktion, da keine Bombast-Inszenierung, sondern einfach nur Spielen.
Das mit deutlich besserer Grafik und ich wär zufrieden. :D


Mehr Leistung führt immer zu mehr Details. Die Leistung wird sicher nicht in Auflösung und AA investiert. Das nimmt die Masse nicht doll genug wahr.
Als PC Spieler sollte uns das aber freuen. Auflösung und AA können wir selbst hochdrehen. ;)

Oder auch nicht, außer Krüppel-OGSSAA.
Perfektes AA ala bei Nvidia forciertes SGSSAA ist leider nur die extreme Ausnahme. Ich kenne kein einziges DX11 Spiel mit gutem MSAA.

robbitop
2012-11-27, 17:18:26
Ich mag gut inszenierte (und dadurch teure) Produktionen extrem. IMO steigt der Unterhaltungswert dadurch sehr.

Windi
2012-11-27, 18:09:29
Bei der Hardwareauswahl sollte man sich überlegen, was die Zielgruppe ist.

Bei Microsoft und Sony ist das was anderes, weil beide im Prinzip die PC Gamer als Zielgrupe haben. Wobei dank den aktuellen Konsolen, das eh beides zusammenwächst, oder was ist der Unterschied zwischen Call of Duty oder Skyrim oder Fifa?
Die Zielgruppe von Microsoft wird "Alle" sein.

Die Leute sind durch Smartphones und Tablets mittlerer Weile daran gewöhnt, nicht mehr alles mit dem PC machen zu müssen. Blöd für MS. Das wird jetzt die große Chance für verschiedene Anbieter sein das Wohnzimmer zu erobern und damit den Medienkonsum zu kontrollieren. Bald werden Smart-TVs und Settop-Boxen mit Android, iOS oder Metro kommen, mit denen man problemlos surfen und all die anderen Dinge machen kann.

Bei Microsoft geht es hierbei um das Überleben von Windows im privaten Bereich. MS wird alles tun, damit sich Windows im Wohnzimmer durchsetzt und da wird die Xbox keine Ausnahme sein. Da wird man sich sicher nicht nur auf "Gamer" konzentrieren. Die nächste Xbox muss alle ansprechen.

Die nächste Xbox wird eine mit Kinect zu bedienende Metro-Oberfläche nutzen und man wird mit ihr kinderleicht Musik kaufen und Videos leihen können.

Hayab
2012-11-27, 18:48:31
Contentqualitaet muss gleich nicht viel mehr kosten.
- Wenn ein in Zbrush oder Mudbox bemaltes 3D Model exportiere, gibt es keine Mehrkosten wenn ich eine 2048x2048 DDS erstelle anstatt einer 512x512. Das Qualitaetsunterschied ist enorm.
- Mache ich eine Strasse, Landebahnt, was auch immer und verschiebe die Mipmaping Umschaltung der Texturen weiter von Spieler weg. Sehe ich keine Texturbugwellen und brauche kein 128 AF um diesen Effekt zu reduzieren.
- Das gleiche gilt fuer Level of Detail bei 3D Modellen. Wenn ich sehe wie bei manchen Spielen die Modelle 10 Meter vor mir, von Minecraftmeannchen zum Cerebrusagenten Transformieren, koennte ich kotzen.

Ich behaupte sogar, dass bessere Hardware die Contentkosten senkt, weil nicht mehr so viel getrickst werden muss.
Das sieht man bei Granturismo 5, bei dem es 5 oder mehr LODs fuer jedes Fahrzeug gibt. Autotools zur dreieckreduktion bei 3D Software funktionieren nicht immer wie gewuenscht, somit muss man viel Arbeit hineinstecken um aus 20k Tris 3D Model ein 5k Tris Modell zu erstellen.

Hier ein Beispiel meiner An-24 Models fuer BMS.

http://www.abload.de/image.php?img=lod1oupz6.png
LOD0 21k Tris

http://www.abload.de/image.php?img=lod23korz.png
LOD1 4k Tris nach 4-5 Stunden von Hand optimieren.

Wenn jemand glaubt, das kann man mit ProOptimizer oder sonst was automatisch machen, des soll das selbst probieren.;D

HOT
2012-11-27, 18:55:07
Genau, denn Engine- und Konsolen-Generation haben schon immer direkt was mit der Zahl am Ende des Spielenames zu tun.

Das ist mein persönlicher Eindruck, jeder andere kann das gerne anders empfinden.

Matrix316
2012-11-27, 19:37:29
Die Zielgruppe von Microsoft wird "Alle" sein.

Die Leute sind durch Smartphones und Tablets mittlerer Weile daran gewöhnt, nicht mehr alles mit dem PC machen zu müssen. Blöd für MS. Das wird jetzt die große Chance für verschiedene Anbieter sein das Wohnzimmer zu erobern und damit den Medienkonsum zu kontrollieren. Bald werden Smart-TVs und Settop-Boxen mit Android, iOS oder Metro kommen, mit denen man problemlos surfen und all die anderen Dinge machen kann.

Bei Microsoft geht es hierbei um das Überleben von Windows im privaten Bereich. MS wird alles tun, damit sich Windows im Wohnzimmer durchsetzt und da wird die Xbox keine Ausnahme sein. Da wird man sich sicher nicht nur auf "Gamer" konzentrieren. Die nächste Xbox muss alle ansprechen.

Die nächste Xbox wird eine mit Kinect zu bedienende Metro-Oberfläche nutzen und man wird mit ihr kinderleicht Musik kaufen und Videos leihen können.

Ja aber das kannst du doch alles jetzt schon mit der XBOX360 und PS3.

Du kannst Videos streamen, im Web surfen...hast "Appstores"...

Der einzige Grund um eine Next Generation Konsole zu kaufen ist IMO die Grafik. Und zwar nicht wieder nur 720p, weil man nicht genug Power und RAM hat, sondern wenn dann alles FullHD und alles was geht.

HOT
2012-11-27, 19:40:55
Ja aber das kannst du doch alles jetzt schon mit der XBOX360 und PS3.

Du kannst Videos streamen, im Web surfen...hast "Appstores"...

Der einzige Grund um eine Next Generation Konsole zu kaufen ist IMO die Grafik. Und zwar nicht wieder nur 720p, weil man nicht genug Power und RAM hat, sondern wenn dann alles FullHD und alles was geht.
Nein, der hauptsächliche Grund für die neue Konsole ist mehr RAM - mehr RAM mehr Möglichkeiten, ganz einfach.

kunibätt
2012-11-27, 20:12:17
Wetten, dass auch NextGen 720P (und drunter) eher die Regel als Ausnahme sein wird ? Grund: Konsolero sieht nichts. Neulich erlebt: Crysis in 5120x 2880 "gezockt", Kollege kommt, zockt kurz und meinte auf der Box siehts genauso aus XD

Windi
2012-11-27, 20:35:17
Ja aber das kannst du doch alles jetzt schon mit der XBOX360 und PS3.

Du kannst Videos streamen, im Web surfen...hast "Appstores"...
Der erste Versuch war lächerlich!

-Die erste Version der Xbox360 hatte keinen integrierten Speicher.
Erst später wurde etwas Flashspeicher integriert. Das heißt man kann sich nicht darauf verlassen das Speicher vorhanden ist. Die jetzige Situation bei den neu verkauften Xboxen halte ich für die Optimalste. Etwas Flaschspeicher ist integriert und durch eine externe Festplatte lässt sich der Speicherplatz noch einmal deutlich vergrößern. So etwas in der Art erwarte ich auch bei den Nachfolgern der PS3 und Xbox360. Ein paar Gigabyte integrierter Flashspeicher und dazu eine externe Festplatte.

-Das Eingabegerät war lächerlich.
Mit einem Gamepad soll man einen Onlineshop oder Medienbibliothek durchstöbern? Erst später kamen Move, Kinect und die Anbindung der PSVita. Wenn die sich wirklich anstrengen, dann kann man damit eine Multimediakonsole sehr gut steuern.
Kinect-Steuerung mit Metro-Oberfläche sollte gut zu benutzen sein.
Außerdem soll laut Gerüchten Kinect bei der Xbox720 standardmäßig integriert sein. (ein großer Vorteil)

-Die gesamte Benutzeroberfläche war für eine Multimediakonsole nur schlecht zu gebrauchen. Android, iOS und Metro sollten sich dafür deutlich besser eignen.

-Durch den Erfolg von Smartphones und Tablets ist der PC-Markt regelrecht aufgebrochen. Heutzutage sind Anbieter und Verbraucher viel aufgeschlossener gegenüber "Zusatzfunktionen" bei Unterhaltungselektronik.

Der einzige Grund um eine Next Generation Konsole zu kaufen ist IMO die Grafik. Und zwar nicht wieder nur 720p, weil man nicht genug Power und RAM hat, sondern wenn dann alles FullHD und alles was geht.
Man wird mit FullHD werben und 720p liefern ;p
Keiner wird eine Konsole vorstellen, die 900€ in der Produktion kostet und dann mit 300€ Verlust für 600€ verkauft werden muss. (wie bei der PS3)
Viel zu hohe Subventionen und die Zeit bis die realen Produktionskosten unter 200-300€ fallen wäre viel zu lang. (Massenmarkt)

Matrix316
2012-11-27, 20:46:11
Nur bringts auch niemandem was wenn dann eine 400 Euro Konsole rauskommt, die nur 300 in der Herstellung kostet und auch nicht mehr kann wie die Vorgängerkonsole...

Wenn man mit dem PC konkurrieren will, muss man auch gleichwertige Leistung bieten. Oder was ganz anderes. Zum Beispiel wieder mit Spezialchips für die 3D Beschleunigung und irgendwas, was mit aktueller PC Hardware garnichts zu tun hat.

Felixxz2
2012-11-27, 20:46:15
Ich finds halt geil, wie alle an einen Pitcairn glauben, aber 720p prophezeien. Spielt ihr an eurem (ineffizienten) PC-Pitcairn denn auch in 720p? Oder gar in 480p und nur durch hardwarenäheres Progarmmieren kann man an der Konsole noch 720 rausquetschen? :freak:

Und kommt mir jetzt nicht mit RAM Problemen....

Werewolf
2012-11-27, 20:49:05
Nur bringts auch niemandem was wenn dann eine 400 Euro Konsole rauskommt, die nur 300 in der Herstellung kostet und auch nicht mehr kann wie die Vorgängerkonsole...

Wenn man mit dem PC konkurrieren will, muss man auch gleichwertige Leistung bieten. Oder was ganz anderes. Zum Beispiel wieder mit Spezialchips für die 3D Beschleunigung und irgendwas, was mit aktueller PC Hardware garnichts zu tun hat.

Warum muss man mit dem PC konkurrieren?

Tesseract
2012-11-27, 20:52:50
Kinect-Steuerung mit Metro-Oberfläche sollte gut zu benutzen sein.
das glaube ich erst wenn ich ein vollständiges konzept dazu sehe. kinect hat im gegensatz zu einem touchscreen keine inheränte hand-augen-analogie und wenn die nicht zu 100% sitzt kannst du das ding schmeißen.

Matrix316
2012-11-27, 20:54:21
Warum muss man mit dem PC konkurrieren?
Weil XBOX und PS für die Core Gamer sind und damit automatisch auch mit dem PC konkurrieren.

Nintendo hat da eine etwas andere Zielgruppe, wo die Hardware nicht so im Vordergrund steht.

Werewolf
2012-11-27, 20:57:58
Die Verkaufszahlen besagen aber dass eher Xbox und PS3 miteinander konkurrieren. Das ändern auch Starcraft oder Diablo erstmal nicht.

Matrix316
2012-11-27, 21:01:53
Die Verkaufszahlen besagen aber dass eher Xbox und PS3 miteinander konkurrieren. Das ändern auch Starcraft oder Diablo erstmal nicht.
Trotzdem kommen die meisten XBox und PS3 Spiele auch für den PC und wenn der Qualitätsunterschied immer größer wird, kommen sicher auch viele Konsoleros wieder zum PC zurück.

dargo
2012-11-27, 21:06:10
Ich finds halt geil, wie alle an einen Pitcairn glauben, aber 720p prophezeien. Spielt ihr an eurem (ineffizienten) PC-Pitcairn denn auch in 720p?
Die Spiele für die neue Generation sollen auch deutlich besser aussehen als das was wir heute am PC schon kennen. Und dazu bedarf es deutlich mehr Details pro Frame was selbstverständlich auch deutlich höhere GPU- und CPU-Last bedeutet. Die höhere Auflösung erhöht nur noch weiter die GPU-Last. Was soll also der unsinnige Vergleich zum PC? Am PC-Bildschirm spielt kaum einer noch in 720p weil es schlicht entsprechende Bildschirme nicht mehr gibt und der Abstand zum Bildschirm auch zu klein ist. An einem Fernseher stört die Masse bei entsprechendem Abstand 720p nicht.

Windi
2012-11-27, 21:08:13
Warum muss man mit dem PC konkurrieren?
Richtig!

Und welcher Entwickler optimiert schon für High-End Maschinen?
Die Spiele werden eher so dimensioniert, das sie auf jedem Rechner einigermaßen laufen. Und da sich heutzutage Notebooks immer weiter durchsetzen .... :frown:


Von Oben wird die Leistung durch die Erkenntnis beschnitten, das man keine "Über-"Hardware haben muss, um ein gutes Geschäft zu machen. (siehe PS2 mit Singstar oder Wii mit Wiimote)
Von Unten kommen hingegen immer mehr ARM-Geräte die Casual-Game tauglich sind. Smartphones, Tablets, zukünftige Smart-TVs.

Die Konsolen werden schon ihren Mittelweg finden.
Bei zu viel Leistung wird es zu teuer, bei zu wenig lächerlich.

Felixxz2
2012-11-27, 21:15:30
Die Spiele für die neue Generation sollen auch deutlich besser aussehen als das was wir heute am PC schon kennen. Und dazu bedarf es deutlich mehr Details pro Frame was selbstverständlich auch deutlich höhere GPU- und CPU-Last bedeutet. Die höhere Auflösung erhöht nur noch weiter die GPU-Last. Was soll also der unsinnige Vergleich zum PC? Am PC-Bildschirm spielt kaum einer noch in 720p weil es schlicht entsprechende Bildschirme nicht mehr gibt und der Abstand zum Bildschirm auch zu klein ist. An einem Fernseher stört die Masse bei entsprechendem Abstand 720p nicht.

Der Vergleich ist mitnichten unsinnig. Denn du zockst am PC mit einer deutlich höheren Qualität/Frame als auf einer Konsole mit einer 7800 ebenfalls in 1080p und das flüssig und das obwohl der PC viel verschwenderischer mit der Leistung umgeht.

Warum sollte das an der Konsole also nicht funktionieren? Wie gesagt ist da ein Pitcairn sogar noch schneller, da hardwarenäher programmiert wird.
Und warum sollte man bei fast 10x Rohleistung die Auflösung nicht verdoppeln können? :freak: Hat doch bei der 360 auch geklappt.

Außerdem bringt das Runterdrehen auf 720p nicht so viel Leistung wie gedacht und gebraucht und kostet durch die geringe Auflösung die Mehrdetails eh wieder. Aber die Diskussion hatten wir glaub ich schon.

EDIT: Um mich noch aus dem Fenster zu lehnen: Gib ner 360 mehr GPU Takt und eDRAM und schalt AA ab, dann würden wschl. viele 360 Games auch in 1080p laufen. Tun manche sowieso schon (Sportgames oder Sacred 2 angeblich auch).

dargo
2012-11-27, 21:53:48
Warum sollte das an der Konsole also nicht funktionieren?
Ich sag doch nicht, dass es nicht funktionieren würde. Ich fände es nur sehr schade wenn die Konsoleros 2014 die Grafik hätten die die PC-ler schon seit dann 4+ Jahren kennen. Wo ist da der Fortschritt?

Undertaker
2012-11-27, 21:54:40
Der Vergleich ist mitnichten unsinnig. Denn du zockst am PC mit einer deutlich höheren Qualität/Frame als auf einer Konsole mit einer 7800 ebenfalls in 1080p und das flüssig und das obwohl der PC viel verschwenderischer mit der Leistung umgeht.

Warum sollte das an der Konsole also nicht funktionieren? Wie gesagt ist da ein Pitcairn sogar noch schneller, da hardwarenäher programmiert wird.
Und warum sollte man bei fast 10x Rohleistung die Auflösung nicht verdoppeln können?

Möglich wäre das sicherlich. Wenn man die mit WXGA eigesparten Leistungsreserven aber in bessere Beleuchtung, zusätzliche Effekte usw. investiert und so èine bessere Optik erzielt, warum sollte man dann auf FullHD gehen?

Felixxz2
2012-11-27, 22:07:47
Ich sag doch nicht, dass es nicht funktionieren würde. Ich fände es nur sehr schade wenn die Konsoleros 2014 die Grafik hätten die die PC-ler schon seit dann 4+ Jahren kennen. Wo ist da der Fortschritt?

Ähm eine Pitcairn Konsole wird auch in 1080p bessere Grafik als PCs von 2010 liefern.

Möglich wäre das sicherlich. Wenn man die mit WXGA eigesparten Leistungsreserven aber in bessere Beleuchtung, zusätzliche Effekte usw. investiert und so èine bessere Optik erzielt, warum sollte man dann auf FullHD gehen?

1. Du gewinnst durch 720p nicht soviel dass du eine sichtbar bessere Optik erzielst
2. Verspielst du Mehrdetails durch die niedrige Auflösung (einfach mal am PC ausprobiern)
3. Gehst du in Spielen auf 720p runter nur um auf Max anstatt High zu zocken? Wohl eher nicht, siehe Punkt 2.

Aber egal, die Diskussion wird sich beim Start der Konsolen eh erübrigen.

dargo
2012-11-27, 22:37:20
Ähm eine Pitcairn Konsole wird auch in 1080p bessere Grafik als PCs von 2010 liefern.

Nö... 2010 heißt beim PC GTX480, also nichts anderes als ~Pitcairn. Und selbst wenn bei Konsole durch direkte Programmierung Faktor 2 erreicht wird wirst du den Unterschied nicht bemerken. Bissel bessere Schatten hier, bissel weniger agressives LOD dort und schon ist Faktor 2 aufgebraucht.

Felixxz2
2012-11-27, 22:49:17
Ich würde es halt nicht mit nem PC, sondern der 360 vergleichen. Und da ist es Faktor 10. Und mit dem sollte man was besseres hinkriegen als bisl aufgemöbelte 360 Games (was wohl die meisten PC Games von 2010 sind).

Man siehe die Techdemos (UE4, Luminous). Letztere soll laut Square ja auch auf NExtGen Konsolen laufen.

robbitop
2012-11-28, 09:05:41
Ich finds halt geil, wie alle an einen Pitcairn glauben, aber 720p prophezeien. Spielt ihr an eurem (ineffizienten) PC-Pitcairn denn auch in 720p? Oder gar in 480p und nur durch hardwarenäheres Progarmmieren kann man an der Konsole noch 720 rausquetschen? :freak:

Und kommt mir jetzt nicht mit RAM Problemen....
Am PC spielen doch alle nur mit hohen Auflösungen und RAM, weil das Detaillevel von den langsamen Konsolen vorgegeben wird. Kommt eine neue Konsolengeneration bspw mit etwas Pitcairnartigem, wird der Detailgrad natürlich hochgeschraubt und dann sind dort weniger Reserven drin.
Der PC wird zum Xbox 3 Launch aber schon Geforce 780/HD 8970 haben mit > 2x Performance und kann dann FullHD fahren usw.
Die Geschichte wird sich immer und immer wiederholen. ;)

Die PC Spiele bis heute sehen ja nur wegen der Konsolen so aus, wie sie aussehen. Die Nextgen Konsolen werden das Detail für alle hochziehen. Davon kannst du ausgehen. Aber die Auflösung wird wohl mittelfristig nicht steigen. Faktor 10x kann man gut und gern in Geometrie und Beleuchtung stecken, so dass es deutlich besser aussieht. (siehe Samaritain etc).

Der PC wird schön davon profitieren, da es erstmalig seit 2005/06 wieder einen deutlichen Detailsprung geben wird und man kann die extra Leistung dann in Auflösung/AA stecken.