Archiv verlassen und diese Seite im Standarddesign anzeigen : Xbox One/Playstation 4: technische Spekulation und Vergleich
Wenn 1xAA in MP3 80% schneller als 4xMSAA ist, was glaubst du was dann zusätzlich SGSSAA kostet? Von der miserablen MSAA-Glättung sprechen wir lieber nicht. Und was soll bitte an SGSSAA in MP3 besser sein wenn eine Kante glatt ist und die Nachbarkante fröhlich vor sich hin weiter flimmert weil sie gar nicht erfasst ist?
Dargo, mit Verlaub, du verstehst nicht wovon du redest. SGSSAA ist nicht grundsätzlich teurer als OGSSAA nur weil MP3 die MSAA-Implementierung verkübelt hat.
Oder anders, es gibt keinen praktischen Grund warum SGSSAA nicht exakt gleich schnell wie OGSSAA sein sollte.
dargo
2013-07-24, 17:28:21
Dargo, mit Verlaub, du verstehst nicht wovon du redest. SGSSAA ist nicht grundsätzlich teurer als OGSSAA nur weil MP3 die MSAA-Implementierung verkübelt hat.
Oder anders, es gibt keinen praktischen Grund warum SGSSAA nicht exakt gleich schnell wie OGSSAA sein sollte.
Wo rede ich davon, dass SGSSAA grundsätzlich teurer wäre als OGSSAA?
Was mich stört ist, dass einige immer darauf pochen SGSSAA wäre das Allheilmittel. Das ist es eben nicht! Es gibt genug Spiele wo SGSSAA blurrt und es gibt Spiele wo MSAA und dementsprechend auch SGSSAA an einigen Stellen versagt. Nicht nur was die Glättung angeht sondern auch im Hinblick auf die Performance. Dazu zählt übrigens auch Crysis 3. Die MSAA-Implementierung ist ebenfalls völlig misslungen. Sowohl Performance als auch Glättung.
aufkrawall
2013-07-24, 17:41:16
Was mich stört ist, dass einige immer darauf pochen SGSSAA wäre das Allheilmittel. Das ist es eben nicht!
Doch, ist es. Es wird nur nicht gut von den Spieleentwicklern unterstützt.
Es gibt genug Spiele wo SGSSAA blurrt und es gibt Spiele wo MSAA und dementsprechend auch SGSSAA an einigen Stellen versagt.
Ja, das ist derzeit die Praxis. Nur bestreitet das niemand.
Trotzdem darf OGSSAA + Blur nicht langfristig die beste Methode bleiben. Davon hat keiner was.
Nicht nur was die Glättung angeht sondern auch im Hinblick auf die Performance. Dazu zählt übrigens auch Crysis 3.
Du wirfst da schon wieder was durcheinander. Diese drittklassigen in-game MSAA-Lösungen zu SGSSAA aufzuwerten sagt nichts drüber aus, wie gut SGSSAA funktionieren könnte, wenn die Anwendung es vernünftig anfordern würde.
Die MSAA-Implementierung ist ebenfalls völlig misslungen. Sowohl Performance als auch Glättung.
Die Glättung ist doch meist sehr gut, so lange man nicht zoomt. Hab den Eindruck, da wurde vielleicht was nicht so gut wie es mal werden sollte.
-> zu kurze Entwicklungszeit.
/Speku
Trotzdem wäre in Crysis 3 sowas wie der 4xSMAA-Modus auch auf Basis von perfekt greifendem SGSSAA möglich, ohne dass es teurer wäre als OGSSAA.
dargo
2013-07-24, 17:58:43
Doch, ist es. Es wird nur nicht gut von den Spieleentwicklern unterstützt.
Für den Spieler ist es völlig latte wer daran schuld ist. Es zählt nur das Ergebnis am Bildschirm.
aufkrawall
2013-07-24, 18:02:00
Für den Spieler ist es völlig latte wer daran schuld ist. Es zählt nur das Ergebnis am Bildschirm.
Das war aber nicht unbedingt das Thema:
Optimal wäre eine Kombination aus SSAA bzw. Downsampling und SMAA T2x.
Ich sehe nicht, was daran für NextGen-Spiele optimal sein soll.
boxleitnerb
2013-07-24, 18:12:13
Sehe ich auch so. OGSSAA is zu ineffizient, das ist nutzlose Ressourcenverbrennung. In einer idealen Welt jedenfalls. In einer, in der jeder sein eigenes Süppchen kocht, keiner drauf achtet, dass es blurren könnte oder das unterliegende MSAA schlecht glättet, ist es besser als nichts.
Es gab doch mal im AMD SDK was zu einem SGSSAA, das nicht blurrt. Nennt sich "Per Sample 4xSSAA". Ab Folie 51:
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Downloads/AMD-Demo-DX11-Download-1045674/
aufkrawall
2013-07-24, 18:16:19
Sehe ich auch so. OGSSAA is zu ineffizient, das ist nutzlose Ressourcenverbrennung. In einer idealen Welt jedenfalls. In einer, in der jeder sein eigenes Süppchen kocht, keiner drauf achtet, dass es blurren könnte oder das unterliegende MSAA schlecht glättet, ist es besser als nichts.
+1
Es gab doch mal im AMD SDK was zu einem SGSSAA, das nicht blurrt. Ist schon ne Weile her. Ab Folie 51:
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Downloads/AMD-Demo-DX11-Download-1045674/
Ich will ja nicht trollen, aber davon erwarte ich mir rein gar nichts, wenn AMD AA im Treiber, bei der LEO-Demo und bei Dirt: SD & Grid 2 vergeigt.
vergeigt = sieht mitunter längst nicht optimal aus
Wichtiger ist sicherlich, dass mit NextGen die Devs der wichtigen Engines einen größeren Wert auf AA legen.
dargo
2013-07-24, 23:02:09
Die Glättung ist doch meist sehr gut, so lange man nicht zoomt. Hab den Eindruck, da wurde vielleicht was nicht so gut wie es mal werden sollte.
Was soll bitte daran gut sein (hab zwei Stellen markiert)? Du hast sonst doch Adleraugen. ;)
SMAA T2x
http://s7.directupload.net/images/130724/temp/ao4cl28f.png (http://s7.directupload.net/file/d/3326/ao4cl28f_png.htm)
4xMSAA
http://s1.directupload.net/images/130724/temp/ytlxh72b.png (http://s1.directupload.net/file/d/3326/ytlxh72b_png.htm)
Sehe ich auch so. OGSSAA is zu ineffizient, das ist nutzlose Ressourcenverbrennung. In einer idealen Welt jedenfalls. In einer, in der jeder sein eigenes Süppchen kocht, keiner drauf achtet, dass es blurren könnte oder das unterliegende MSAA schlecht glättet, ist es besser als nichts.
Ich erinnere dich nochmal an diesen Satz in wenigen Jahren wenn du dir den ersten 4k Monitor holst.
boxleitnerb
2013-07-24, 23:11:38
Ich erinnere dich nochmal an diesen Satz in wenigen Jahren wenn du dir den ersten 4k Monitor holst.
Ob ich 4K für Kantenglättung missbrauche oder für die feine Darstellung von komplexem Content benutze ist ein himmelweiter Unterschied.
Das Performance/Bildruhe-Verhältnis von OGSSAA ist einfach Mist im Vergleich zu anderen Methoden, da gibts nichts dran zu rütteln. 4K zu 1080p drittelt deine fps, das Bild ist aber mitnichten perfekt ruhig. Als Standard daher völlig unbrauchbar. Als Notlösung wie gesagt gehts. Abgesehen davon fände ich es 100x sinnvoller, die Grafik selbst erstmal deutlichst zu verbessern statt 4K voranzutreiben. Der Content, die Partikeleffekte, Tessellation, Texturen werden nicht besser, nur weil der Bildschirm höher auflöst. Frag mich in 7+ Jahren nochmal nach 4K.
dargo
2013-07-24, 23:16:12
Ob ich 4K für Kantenglättung missbrauche oder für die feine Darstellung von komplexem Content benutze ist ein himmelweiter Unterschied.
Im Hinblick auf den Performancedrop gibts da gar keinen Unterschied. Und darum gings in deinem Zitat.
boxleitnerb
2013-07-24, 23:21:44
Falsch, wenn ich 4K nativ nutze ist es kein OGSSAA mehr. Und um OGSSAA ging es.
dargo
2013-07-24, 23:24:51
Falsch, wenn ich 4K nativ nutze ist es kein OGSSAA mehr. Und um OGSSAA ging es.
Wo ist der Unterschied zwischen 3840x2160@1920x1080 per Treiber vs. 3840x2160 nativ beim 4K Bildschirm in Bezug auf den Leistungsbedarf der Grafikkarte? Es gibt keinen.
boxleitnerb
2013-07-24, 23:29:16
Wo ist der Unterschied zwischen 3840x2160@1920x1080 per Treiber vs. 3840x2160 nativ beim 4K Bildschirm in Bezug auf den Leistungsbedarf der Grafikkarte? Es gibt keinen.
Du verstehst immer noch nicht. Ich habe nicht von dem Leistungsbedarf per se gesprochen, sondern wofür die Leistung eingesetzt wird. Ich hab nicht umsonst "OGSSAA" geschrieben und nicht "4K" oder "hohe Auflösungen". Das macht einen enormen Unterschied. Zu OGSSAA gibt es deutlich bessere Alternativen. Zu höherer Pixeldichte (wenn man drauf steht) gibt es hingegen keine.
aufkrawall
2013-07-24, 23:31:49
Was soll bitte daran gut sein (hab zwei Stellen markiert)? Du hast sonst doch Adleraugen. ;)
SMAA T2x
http://s7.directupload.net/images/130724/temp/ao4cl28f.png (http://s7.directupload.net/file/d/3326/ao4cl28f_png.htm)
4xMSAA
http://s1.directupload.net/images/130724/temp/ytlxh72b.png (http://s1.directupload.net/file/d/3326/ytlxh72b_png.htm)
Ist natürlich nicht perfekt. Habe 4xMSAA aber auch nie ausprobiert, sondern nur 8x.
Ist immerhin deutlich besser als z.B. Hitman Absolution, wo du häufig gar keine Zwischenstufen hast.
Du kannst uns ja hier mal unterstützen:
https://forums.geforce.com/default/topic/544701/geforce-drivers/petition-for-directx-11-anti-aliasing-driver-profiles/
Bei Cryengine DX9 klappt SGSSAA erzwingen ja perfekt. Ich kann Codas Äußerungen auch keinen Hinweis entnehmen, dass das mit DX11 nicht genau so gehen kann.
dargo
2013-07-24, 23:50:12
Ist natürlich nicht perfekt. Habe 4xMSAA aber auch nie ausprobiert, sondern nur 8x.
Ist immerhin deutlich besser als z.B. Hitman Absolution, wo du häufig gar keine Zwischenstufen hast.
Soll das ein Scherz sein? Schon mal den Performancedrop überprüft?
SMAA T2x
http://s14.directupload.net/images/130724/temp/b7l3v8s4.png (http://s14.directupload.net/file/d/3326/b7l3v8s4_png.htm)
4xMSAA
http://s14.directupload.net/images/130724/temp/dd4v8bo7.png (http://s14.directupload.net/file/d/3326/dd4v8bo7_png.htm)
8xMSAA
http://s14.directupload.net/images/130724/temp/smukm464.png (http://s14.directupload.net/file/d/3326/smukm464_png.htm)
SMAA T2x ist sagenhafte 111% schneller als 8xMSAA. Ersteres glättet sogar besser. :crazy: Es könnten u.U. sogar mehr als 111% sein da ich nicht die schnellste CPU habe und nicht sicher sagen kann ob ich in dieser Szene vollkommen gpu-limitiert bin.
Edit:
SMAA T2x
http://s7.directupload.net/images/130725/temp/gfo578hv.png (http://s7.directupload.net/file/d/3327/gfo578hv_png.htm)
8xMSAA
http://s1.directupload.net/images/130725/temp/ncn3gppm.png (http://s1.directupload.net/file/d/3327/ncn3gppm_png.htm)
Gipsel
2013-07-24, 23:59:26
Ist die Diskussion etwa gerade etwas vom Thema abgekommen? Über die Güte der AA-Verfahren im Allgemeinen oder in verschiedenen Spielen könnt Ihr Euch auch woanders unterhalten.
Was soll bitte daran gut sein (hab zwei Stellen markiert)? Du hast sonst doch Adleraugen. ;)
SMAA T2x
http://s7.directupload.net/images/130724/temp/ao4cl28f.png (http://s7.directupload.net/file/d/3326/ao4cl28f_png.htm)
4xMSAA
http://s1.directupload.net/images/130724/temp/ytlxh72b.png (http://s1.directupload.net/file/d/3326/ytlxh72b_png.htm)
Ich schau mal. Es gab teilweise Treiberprobleme, deshalb auch die weißen Kanten.
aufkrawall
2013-07-25, 00:04:01
Soll das ein Scherz sein? Schon mal den Performancedrop überprüft?
Das soll kein Scherz sein, mit SLI bei 1280x1024 blieb genug Leistung über.
Du solltest dir vielleicht auch mal zu Gemüte führen, was MSAA genau macht bzw. was es nicht macht, was es bei Deferred Rendering macht etc. ;)
/OT & eod für mich
dargo
2013-07-25, 00:07:28
Ich schau mal. Es gab teilweise Treiberprobleme, deshalb auch die weißen Kanten.
Nix MP-Beta, das sind aktuelle Screens meiner Full-Version.
Ich schau mal. Es gab teilweise Treiberprobleme, deshalb auch die weißen Kanten.
Um die teilweise weißen Pünktchen gehts mir gar nicht. Es geht um das schlechte Glätten diverser Kanten bei MSAA (siehe rote Pfeile). MSAA greift in C3 einfach miserabel und die Performance (besonders 8xMSAA) ist die reinste Katastrophe.
@Gibsel
Sorry für OT.
Nachdem ich genau hingeschaut hab weiß jetzt nicht was du hast, ich seh da genau 4 Abstufungen, was erwartest du denn von 4xMSAA? Die Kante wird jedenfalls korrekt erfasst.
T2x ist halt temporales Supersampling + besserer Filter + Edge Detection Magic.
Und natürlich ist die Performance scheiße, du machst nichts anderes als Supersampling an allen Kanten (welche es jede Menge gibt in C3) bei MSAA mit einem deferred Renderer. Es geht halt nicht besser.
dargo
2013-07-25, 00:24:34
Nachdem ich genau hingeschaut hab weiß jetzt nicht was du hast, ich seh da genau 4 Abstufungen, was erwartest du denn von 4xMSAA? Die Kante wird jedenfalls korrekt erfasst.
Schau dir mal das Dach der Waggons bzw. von diesem Zug an. Da gibt es teilweise überhaupt keine Abstufungen. Oder das zweite Beispiel mit dem Gerüst. 8xMSAA sieht niemals so schlecht aus wenns richtig greift.
T2x ist halt temporales Supersampling + besserer Filter + Edge Detection Magic.
Das Ding finde ich auch super... kostet kaum was und liefert dabei ein sehr gutes Ergebnis. Zumindest in C3.
Und natürlich ist die Performance scheiße, du machst nichts anderes als Supersampling an allen Kanten (welche es jede Menge gibt in C3) bei MSAA mit einem deferred Renderer. Es geht halt nicht besser.
Ist halt die Frage ob es überhaupt sinnvoll ist MSAA zu intergrieren wenn es so teuer ist und das Ergebnis auch nicht wirklich überzeugt? Naja... ihr wolltet wahrscheinlich alle möglichen AA-Modis anbieten. Ansonsten wäre das Geschrei wieder groß. ;(
robbitop
2013-07-25, 09:26:17
Ich hab mal Black Ops 2 mit TXAA und Supersampling gespielt. Das hat mich echt umgehauen. Das sah aus wie ein Video-Feed von der Bildruhe.
Müsste SGSSAA nicht auch enorme Bildruhe erzeugen? Was mich an TXAA stört, ist die Unschärfe.
@dargo
ich meinte natürlich SGSSAA, wenn es korrekt greift. Das mit den DX9 Defered Engines habe ich ja bereits geschrieben. Da funktioniert MSAA/SGSSAA kaum. Selbst bei einer echten DX11 DR Engine mit korrekter MSAA Implementation ist es teuer. Das liegt an den DR Engines. Bei einer moderenen Forward Engine ist SGSSAA wieder "normal teuer". Unter der Voraussetzung liefert es mehr BQ zu weniger Kosten als OGSSAA.
Hallo
2013-07-25, 09:37:26
Da wir grad bei AA sind, was ist eigentlich genau Sub Pixel AA? Wurde in den 90ern bei Sega Arcade Boards verwendet. Ich weiss soviel das die einzelnen RGB Sub Pixel manipuliert werden. Aber wie gut und vor allem wie rechenaufwändig ist diese Methode?
Und weiterhin, wenn ich meinen 1366x768er Plasma mit 1080p füttere hab ich dann Downsampling? Ich habe die Vermutung das auch hier auf Sub Pixelbasis manipuliert/extrapoliert wird. 1080p sieht einfach schärfer aus und ist nicht auf die leicht höhere Res meines TVs zum realen 1280x720 Modus/Input zurück zu führen. Leider soll Lag enstehen bei 1080p Input.
dargo
2013-07-25, 10:10:37
Müsste SGSSAA nicht auch enorme Bildruhe erzeugen? Was mich an TXAA stört, ist die Unschärfe.
Hast du schon mal mit SweetFX 1.4 probiert nur die Bildschärfe mit Lumasharpen auf ein normales Niveau zu erhöhen? Da ich keine NV-Karte habe kann ich das nicht testen.
@dargo
ich meinte natürlich SGSSAA, wenn es korrekt greift. Das mit den DX9 Defered Engines habe ich ja bereits geschrieben. Da funktioniert MSAA/SGSSAA kaum. Selbst bei einer echten DX11 DR Engine mit korrekter MSAA Implementation ist es teuer. Das liegt an den DR Engines. Bei einer moderenen Forward Engine ist SGSSAA wieder "normal teuer". Unter der Voraussetzung liefert es mehr BQ zu weniger Kosten als OGSSAA.
Ganz meine Meinung!
Deshalb weg von DR-Engines hin zu Forward+. Zumindest aus AA-Sicht verspreche ich mir davon viel. Wie es in anderen Bereichen bei Forward+ aussieht kann ich nicht beurteilen.
Müsste SGSSAA nicht auch enorme Bildruhe erzeugen? Was mich an TXAA stört, ist die Unschärfe.
Die Unschärfe ist aber leider unvermeidlich wenn du wirklich ein glattes Bild willst.
ich meinte natürlich SGSSAA, wenn es korrekt greift. Das mit den DX9 Defered Engines habe ich ja bereits geschrieben. Da funktioniert MSAA/SGSSAA kaum. Selbst bei einer echten DX11 DR Engine mit korrekter MSAA Implementation ist es teuer. Das liegt an den DR Engines. Bei einer moderenen Forward Engine ist SGSSAA wieder "normal teuer". Unter der Voraussetzung liefert es mehr BQ zu weniger Kosten als OGSSAA.
Forward+ ist meiner Erfahrung nach leider teurer als Deferred. Kommt natürlich aber auf die Szene an.
robbitop
2013-07-25, 10:44:27
Wo ist eigentlich der Vorteil von Forward+ ggü normalem Forward? (hinsichtlich Geschwindigkeit bei der Beleuchtung)
Felixxz2
2013-07-25, 10:48:18
AFAIK das tiling des Bildes.
robbitop
2013-07-25, 11:01:05
AFAIK das tiling des Bildes.
Was soll es bringen, das Bild in Kacheln aufzuteilen?
Die beiden Folien erklären die Grundidee recht gut:
http://abload.de/img/forwardduuoh.jpg
http://abload.de/img/forwardplusjbu6c.jpg
*Quelle* ("https://e8040b55-a-62cb3a1a-s-sites.googlegroups.com/site/takahiroharada/storage/2012SA_2.5DCulling.pdf)
Die beiden Links könnten noch von Interesse sein, wenn du dich etwas einlesen willst:
http://www.cse.chalmers.se/~olaolss/main_frame.php?contents=publication&id=tiled_shading
http://www.cse.chalmers.se/~olaolss/main_frame.php?contents=publication&id=clustered_shading
Felixxz2
2013-07-25, 11:26:12
Das ;)
Was soll es bringen, das Bild in Kacheln aufzuteilen?
Du rechnest zuerst aus in welchem Tile welche Lichter sind, dann renderst du normal forward und weißt dadurch per Pixel grob welche Lichter aktiv sind.
][immy
2013-07-25, 12:41:39
was hat die AA-Diskussion mit dem Thema hier zu tun?
@topic
Jede xbox one lässt sich zum Dev-Kit freischalten:
http://www.golem.de/news/microsoft-jede-xbox-one-laesst-sich-als-dev-kit-nutzen-1307-100606.html
haben die Dev-Kits bei der One nicht mehr Speicher als die normalen Konsolen, wegen des Debuggens und eventueller Tools? Oder bezieht sich MS hier jetzt nur auf Arcade-Spiele die wie vorher z.b. mittels XNA entwickelt werden.
Gut man hat 3 GB für das OS reserviert und es könnte daher zum debuggen völlig ausreichen, aber wenn man testet sollte man ja auch testen können wenn nebenbei noch etwas anderes läuft. Könnte dann ja immerhin bezüglich speicherbandbreite & co eng werden.
DrMabuse1963
2013-07-25, 15:41:53
Sollte damit nicht auch Modding möglich sein ? MfG
Sollte damit nicht auch Modding möglich sein ? MfG
Nein.
TheCounter
2013-07-25, 22:16:04
Nein.
Anscheinend doch:
Auf Reddit erklärte Larry Hryb (Major Nelson) auf Frage eines Nutzers nach Mod-Unterstützung, dass diese „von den Entwicklern abhängt“. Demnach sind die Fan-Projekte zumindest grundsätzlich eine Option für die Xbox One, was die Grenzen zwischen PC und der Microsoft-Konsole noch ein wenig mehr verwischt.
http://www.computerbase.de/news/2013-07/xbox-one-mit-indie-unterstuetzung-jede-konsole-ein-dev-kit/
Dafür brauch ich aber kein Devkit.
=Floi=
2013-07-26, 01:10:38
kann mir nicht vorstellen, wie die das mit dem devkit umsetzen wollen. das ist ja der erste ansatz bei RKs.
DinosaurusRex
2013-07-26, 07:34:25
Eurogamer wird im Laufe des Tages einen Artikel zur Speicherarchitektur der PS4 veröffentlichen. Angekündigt wurde das von einem spanischen Redakteur via Twitter mit den Worten:
http://i.imgur.com/5cM6MZS.png
"PS4 Memory Drama. More Info Soon."
Das war offenbar zu viel für NeoGAF:
FRIDAYTON: God abandons PS4 as The Great Flood wipes out Sony HQ (http://www.neogaf.com/forum/showthread.php?t=634711)
Über 2000 Posts voller Irrsinn und Wahnwitz. Nur für den Fall das einer von euch heute Vormittag ein wenig Langeweile hat...
Locuza
2013-07-26, 08:14:19
Eine Einleitung mit Memory Drama schreiben und dann im Anschluss den Kommentar rauslassen:
"Calm down! It's just some info about how memory works and nothing more. Nothing serious! "
Looks like an attention whore.
Hunter93
2013-07-26, 17:03:20
Ist nun online:
http://www.eurogamer.net/articles/digitalfoundry-ps3-system-software-memory
00-Schneider
2013-07-26, 17:12:47
Kann mal jemand einem Laien erklären wozu das OS einer Konsole 3,5GB RAM benötigt?
Das OS der PS3 benötigte am Schluss nur noch 50MB(!) RAM. Siehe: http://www.dailytech.com/Sony+Shrinks+PS3+OS+Gives+Devs+70MB+of+Extra+Memory/article17775.htm
Das OS der PS4 braucht nun ~ 70x soviel, wie das OS der PS3. Das ist doch total sinnlos.
edit: Klar, 3,5 GB nur für das OS. Vorher hätten Entwickler auf nur 500MB zurückgreifen müssen, bevor die Aufstockung kam. Klingt logisch. :facepalm:
Locuza
2013-07-26, 17:13:47
Doch Drama Baby ;D
Wie viele rages das nach sich zieht.
Klingt aber doch etwas übertrieben.
just4FunTA
2013-07-26, 17:15:23
Na jetzt bin ich mal gespannt was das für features/apps sein werden womit sie es rechtfertigen wollen das man auf 3.5 Gigabyte verzichtet. Also im Endeffekt hat die xbox one jetzt also 5 Gigabyte zu Verfügung und PS4 4.5 Gigabyte damit sind die Konsolen jetzt wieder in dem Bereich wie damals auch die ps3/x360 mit den 512mb.. Ein großer Teil des Hypes ist schon weg.
THEaaron
2013-07-26, 17:21:51
Hat die Xbone nicht 5GB zur Verfügung und die PS4 dann 5.5GB? Oder wo kommen die 4.5 her?
Ich finde den Schritt auch bedenklich. Wenn ich die Konsole einschalte will ich einfach spielen und mir nicht eine Aufmerksamkeitsstörung antrainieren weil ich alles mögliche noch im Hintergrund laufen lassen kann. Auch wenn es praktisch ist nahezu instant in andere Bereiche zu switchen, so würde ich die Ressourcen doch lieber für knackige Texturen und co. verwenden. :(
dargo
2013-07-26, 17:22:19
Kann mal jemand einem Laien erklären wozu das OS einer Konsole 3,5GB RAM benötigt?
Mehr Features? Videoaufnahmen?
Erdbeermayonnaise
2013-07-26, 17:23:50
Warum setzen sie nicht auf ein schlankes Multitasking OS mit Swap?
Wo ist der Vorteil darin einfach einen so großen Teil der Hardware pauschal in Beschlag zu nehmen?
THEaaron
2013-07-26, 17:24:03
@mein vorheriger Post
Ah, oh man. Es gibt zwei Speichermodi aber garantiert sind stets die 4.5GB. Jetzt hab ich es. ;)
Lightning
2013-07-26, 17:26:49
Hat die Xbone nicht 5GB zur Verfügung und die PS4 dann 5.5GB? Oder wo kommen die 4.5 her?
Steht doch hier: http://www.eurogamer.net/articles/digitalfoundry-ps3-system-software-memory
Angeblich ist 1 GB "flexible memory", der zum Teil vom OS mitbenutzt wird.
Jedenfalls wäre das sehr enttäuschend. Ich klammere mich mal noch an die Hoffnung, dass es da irgendwo ein Missverständnis gibt. 8 GB teuren GDDR5 verbauen und dann nur 4.5 GB garantiert für Spiele zur Verfügung stellen klingt enorm verschwenderisch.
mironicus
2013-07-26, 17:29:14
Bestimmt läuft auf der Sony-Konsole auch Windows im Hintergrund... :D
just4FunTA
2013-07-26, 17:31:53
3.5 Gigabyte für irgendwelchen scheiss? Das erinnert mich glatt an xbox one und TV TV TV TV..
just4FunTA
2013-07-26, 17:32:28
Bestimmt läuft auf der Sony-Konsole auch Windows im Hintergrund... :D
Ne das glaube ich nicht, das hätte weniger Speicher gebraucht. :freak:
DinosaurusRex
2013-07-26, 17:42:10
Das muss man sich mal auf der Zunge zergehen lassen: 3,5GB GDDR5 RAM nur fürs OS. Ich glaube es nicht.
Hier übrigens mal ein etwas älterer Tweet von Jonathan Blow, der gerade The Witness für die PS4 entwickelt:
http://i.minus.com/jZU6occCS3EQV.png
Widerspricht der ganzen Sache ja ein wenig.
dildo4u
2013-07-26, 17:46:53
Das war das Selbe mit der PS3 im laufe der Zeit wird Sony mehr freischalten.
http://www.dailytech.com/Sony+Shrinks+PS3+OS+Gives+Devs+70MB+of+Extra+Memory/article17775.htm
The latest firmware update reportedly adds an extra 70MB of RAM for the developers to use. The extra RAM comes as a result of reducing the footprint of the PS3 OS from 120MB to 50MB.
Das ist Anteilig an den 256MB Speicher gar nicht so wenig was freigeschaltet wurde,hochgerechnet auf die PS4 kommt dort locker noch über 1GB dazu.
Lightning
2013-07-26, 17:57:07
Das war das Selbe mit der PS3 im laufe der Zeit wird Sony mehr freischalten.
http://www.dailytech.com/Sony+Shrinks+PS3+OS+Gives+Devs+70MB+of+Extra+Memory/article17775.htm
Das ist Anteilig an den 256MB Speicher gar nicht so wenig was freigeschaltet wurde,hochgerechnet auf die PS4 kommt dort locker noch über 1GB dazu.
Das stimmt zwar, wäre aber trotzdem keine gute Entschuldigung für eine derartige Verschwendung. Zumindest nicht, wenn man die PS4 groß damit bewirbt, dass sie in erster Linie eine Spielekonsole sei. Mit 1 GB könnte man den Funktionsumfang und die Reaktionsgeschwindigkeit des PS3-OS bereits auf ein ganz anderes Niveau bringen. Dass es jetzt so viel mehr sein sollen, könnte nur bedeuten, dass sie noch mehr vorhaben (z.B. PS Home permanent im Hintergrund laufen zu lassen o.ä.).
DinosaurusRex
2013-07-26, 17:57:39
Das ist Anteilig an den 256MB Speicher gar nicht so wenig was freigeschaltet wurde,hochgerechnet auf die PS4 kommt dort locker noch über 1GB dazu.
Geht man von den 120MB aus, komme ich bei der Hochrechnung aber nur auf 2GB fürs PS4 OS. Laut Leadbetter würde die Konsole jedoch 75% mehr reservieren, die Reservierung wäre sogar mehr als 50% größer als das was jeweils für CPU oder GPU übrig bleiben würde (ausgehen von einer 50:50 Aufteilung). Das ist doch Wahnsinn!
Können sie später ja noch senken. Später erhöhen geht halt nicht.
Lightning
2013-07-26, 18:09:29
Können sie später ja noch senken. Später erhöhen geht halt nicht.
Darf man diese Aussage jetzt als Bestätigung des Artikels werten? ;)
Botcruscher
2013-07-26, 18:23:32
Bestimmt läuft auf der Sony-Konsole auch Windows im Hintergrund... :D
Ein 7 würde da gleich zwei mal reinpassen. :ulove:
DinosaurusRex
2013-07-26, 18:24:54
Fürs OS werden ja "nur" 2,5GB reserviert. Wie kann man denn diese 1GB an "flexible memory" verstehen?
mironicus
2013-07-26, 18:26:00
Vielleicht Cache?
dildo4u
2013-07-26, 18:28:39
Vielleicht Cache?
Jup für Videoaufnahme des Gameplays.
Botcruscher
2013-07-26, 18:33:40
1GB für ein Nonsens den der NSA mehr nutzt als der Spieler?!
DinosaurusRex
2013-07-26, 18:35:43
Kann man die Videoaufnahmen nicht direkt auf die HDD schreiben?
LordDeath
2013-07-26, 18:36:26
Ist es für diese Replayfunktion eigentlich der einfachere (und günstigere) Weg, immer im Hintergrund das fertige Bild abzugreifen und es in das passende Format zu encodieren?
Was spräche dagegen, eine gewisse Zeit lang alle relevanten Gameplaydaten (Positionen, Blickwinkel etc.) zu puffern und diese Informationen nur dann aufwändig in ein Video zu bearbeiten, wenn der Spieler die Replayfunktion benutzt hat und das Endergebnis hochladen will.
edit: Das ständige Encodieren im Hintergrund würde man sicherlich einer Implementierung in Hardware überlassen, so dass die CPU hierzu nicht unnötig belastet wird, aber die Größe der Videodaten würde trotzdem eine konstante Mehrbelastung fürs RAM und I/O bedeuten.
dildo4u
2013-07-26, 18:38:48
Kann man die Videoaufnahmen nicht direkt auf die HDD schreiben?
Games von der Platte zocken + aufnehmen könnte zu viel für die Platte sein,man will ja vermutlich eine möglichst billige notebook Platte verbauen.
THEaaron
2013-07-26, 18:39:14
@LordDeath
Weil man dann jedes Spiel für diese Funktion entsprechend gestalten müsste. So ist es unabhängig vom Spiel bzw der Engine dadrunter.
dargo
2013-07-26, 18:43:21
Games von der Platte zocken + aufnehmen könnte zu viel für die Platte sein,man will ja vermutlich die billigst mögliche notebook Platte verbauen.
:confused:
Mit einem 1GB Zwischenspeicher hast du trotzdem die gleiche Last auf der Platte vom Streaming und Aufnahme. Man wird für Full-HD sicherlich die Bitrate stark beschränken oder gleich Aufnahmen nur in 720p mit entsprechend niedrigeren Bitrate erlauben. Oder will man die Zeit bei den Videos nur auf dieses 1GB beschränken? Dann wäre der Speed der Platte recht egal.
LordDeath
2013-07-26, 18:47:19
@LordDeath
Weil man dann jedes Spiel für diese Funktion entsprechend gestalten müsste. So ist es unabhängig vom Spiel bzw der Engine dadrunter.
Wäre das wirklich so aufwändig? Rennspiele tun das ja schon seit Ewigkeiten und auch in Actionspielen wie Prince of Persia (Zeit zurück spulen) hat man das sehen können. Da dieses Feature alle Entwickler unterstützen müssen, wäre es natürlich auch in Sonys Interesse, eine einfache und effiziente API hierfür mitzuliefern.
Watson007
2013-07-26, 18:49:47
irgendwie kann ich mir nicht vorstellen dass demnach anfangs nur 512 MB für Entwickler vorgesehen waren ;) also bevor auf 8 GB insgesamt erhöht wurde...
aber selbst wenn wird der Speicherverbrauch garantiert noch optimiert werden. Ein weiterer Grund mit dem Kauf zu warten ;)
dildo4u
2013-07-26, 18:50:29
:confused:
Mit einem 1GB Zwischenspeicher hast du trotzdem die gleiche Last auf der Platte vom Streaming und Aufnahme. Man wird für Full-HD sicherlich die Bitrate stark beschränken oder gleich Aufnahmen nur in 720p mit entsprechend niedrigeren Bitrate erlauben. Oder will man die Zeit bei den Videos nur auf dieses 1GB beschränken? Dann wäre der Speed der Platte recht egal.
Hä der Videostream(Letzten 15Minuten) wird konstant den dem Ram geschrieben bist du nicht mehr zockst und anfängst das Video zu schneiden,dann wird das Video auf die Platte geschrieben,daher hast so lange du zockst Null last auf der Platte was die Videofunktion angeht.
dargo
2013-07-26, 18:51:49
Hä das Video liegt so lange im Ram bis du nicht mehr zockst und anfängst das Video zu schneiden,daher hast so lange du zockst Null last auf der Platte.
Dann gibts ein Zeitlimit, je nach Bitrate und Auflösung sind 1GB recht schnell voll.
DinosaurusRex
2013-07-26, 18:54:40
1GB für ein Nonsens den der NSA mehr nutzt als der Spieler?!
Wenn man vom Teufel spricht...
http://i.imgur.com/0NPb77f.jpg
:wink:
dildo4u
2013-07-26, 18:56:50
Dann gibts ein Zeitlimit, je nach Bitrate und Auflösung sind 1GB recht schnell voll.
Ja 15 Minuten wurden schon bestätigt vermutlich auf 720p beschränkt.
http://www.gamestar.de/hardware/konsolen/sony-playstation-4/nextgen,481,3025924.html
Watson007
2013-07-26, 19:00:57
ich weiß schon warum ich mindestens 1 Jahr mit dem Kauf warte ;)
Darf man diese Aussage jetzt als Bestätigung des Artikels werten? ;)
Von der PS4 weiß ich nicht mehr als du.
Es ergibt einfach Sinn. Gab schon andere Platformen (war's nicht die Vita?) wo man am Anfang auch wenig Speicher hatte und spätere OS dann mehr zur Verfügung gestellt haben.
dargo
2013-07-26, 19:08:10
Ja 15 Minuten wurden schon bestätigt vermutlich auf 720p beschränkt.
http://www.gamestar.de/hardware/konsolen/sony-playstation-4/nextgen,481,3025924.html
Achso... die Aufnahme geschieht sogar automatisch. Das ist krass. Ich dachte es wird nur aufgenommen wenn der Spieler es aktiviert. Dann ist das aber nach meinem Verständnis nicht nur Speicher-"Verschwendung" sondern auch Leistung. Bei der CPU mache ich mir da weniger Sorgen wenn schon zwei Cores reserviert sind. Aber bei der GPU? Das ist doch nicht kostenlos?
DinosaurusRex
2013-07-26, 19:12:09
Es ergibt einfach Sinn. Gab schon andere Platformen (war's nicht die Vita?) wo man am Anfang auch wenig Speicher hatte und spätere OS dann mehr zur Verfügung gestellt haben.
Die Vita garantiert den Entwicklern unabhängig vom OS immer 256MB Main RAM und 128MB CDRAM laut dieser Folie:
http://research.scee.net/files/presentations/jordan2011/2011JordanGamingSummit.pdf
THEaaron
2013-07-26, 19:12:15
@dargo
AFAIK hat die PS4 dafür einen dedizierten Chip.
dildo4u
2013-07-26, 19:16:57
Achso... die Aufnahme geschieht sogar automatisch. Das ist krass. Ich dachte es wird nur aufgenommen wenn der Spieler es aktiviert. Dann ist das aber nach meinem Verständnis nicht nur Speicher-"Verschwendung" sondern auch Leistung. Bei der CPU mache ich mir da weniger Sorgen wenn schon zwei Cores reserviert sind. Aber bei der GPU? Das ist doch nicht kostenlos?
Die haben extra Chip's für's mitschneiden verbaut.
Extra:
Audio Processor (ACP)
Video encode and decode (VCE/UVD) units
http://www.vgleaks.com/world-exclusive-orbis-unveiled-2/
dargo
2013-07-26, 19:20:45
@dargo
AFAIK hat die PS4 dafür einen dedizierten Chip.
Ah...das ist gut. :)
DinosaurusRex
2013-07-26, 19:33:53
Aus dem NeoGAF:
So here is a theory that I have heard. Note, this is not insider information. A friend who is a developer, not on consoles or PlayStation mind, thinks that the new devkits probably ship with 8GB GDDR5 but the developer tools probably take up 2-3GB on there, leaving addressable RAM at just 5GB. He said the problem is that the APU bus is 256bit which won't allow for more than 8GB RAM until 8Gbit chips are available.
He thinks that the current SDK probably does have 3.5GB reserved for for the OS functions and development tools, but when the next set of kits ship they will have 12GB of RAM and the full 7GB will be addressable.
http://www.neogaf.com/forum/showpost.php?p=73006691&postcount=2073
Lightning
2013-07-26, 19:45:06
Von der PS4 weiß ich nicht mehr als du.
Es ergibt einfach Sinn. Gab schon andere Platformen (war's nicht die Vita?) wo man am Anfang auch wenig Speicher hatte und spätere OS dann mehr zur Verfügung gestellt haben.
Das ist ja auch verständlich. Der Grund, warum das hier so viel Aufsehen erregt ist ja eher die relative Menge des reservierten Speichers, die größer ist als man erwartete (auch im Hinblick darauf, dass es später noch reduziert werden könnte). Als die PS4 noch mit 4 GB angegeben wurde, war von 512 MB fürs OS die Rede. Dass das jetzt in diesem Ausmaß vergrößert wurde ist halt etwas seltsam.
Aus dem NeoGAF:
http://www.neogaf.com/forum/showpost.php?p=73006691&postcount=2073
Das klingt (für mich als Laien) erstmal plausibel, wenn die Devkits tatsächlich noch 8 GB haben.
just4FunTA
2013-07-26, 19:59:58
Das klingt (für mich als Laien) erstmal plausibel, wenn die Devkits tatsächlich noch 8 GB haben.
Das die devkits nur 8gb haben ist ja eine sache aber im Artikel wird davon gesprochen die Spiele hätten dann auf der finalen Konsole nur 4.5 GB zu Verfügung und das eine hat dann mit dem anderen nichts mehr zu tun..
Hunter93
2013-07-26, 20:05:25
Wäre ja möglich, dass die beschränkte Leistung im DevKit auch das finale Spiel limitiert?
just4FunTA
2013-07-26, 20:07:49
ne das halte ich nicht für möglich.
StefanV
2013-07-26, 20:10:23
Naja, ist halt die Frage, wie viel von diesem Speicher momentan wirklich genutzt wird und wieviel einfach reserviert wurde.
Ich denke, dass es sinnvoll ist, hier am Anfang etwas mehr Speicher zu reservieren und dann zu schauen, was man damit macht und wie viel man denn nun wirklich braucht. Freigeben kann man ja immer noch. Wenn man aber feststellt, dass man für irgendwelche Dinge einfach zu wenig Speicher hat, ist man einfach am Arsch. Daher denke ich, dass wir das (momentan) nicht überbewerten sollten und einfach mal abwarten, wie es denn nun am Ende wirklich ausschaut...
Es ist ja auch nicht unmöglich, dass Sony im Laufe der Entwicklung des Betriebssystem feststellt, dass man mit etwas mehr als der Hälfte auskommen könnte...
prinz_valium
2013-07-26, 20:22:26
ich weiß schon warum ich mindestens 1 Jahr mit dem Kauf warte ;)
und das bringt dir was im bezug auf diese sache? nichts. jedenfalls keinen vorteil. höchstens den preisvorteil später, der aber dann auch wieder völlig unabhängig vom reserved ram thema ist
Watson007
2013-07-26, 20:50:23
und das bringt dir was im bezug auf diese sache? nichts. jedenfalls keinen vorteil. höchstens den preisvorteil später, der aber dann auch wieder völlig unabhängig vom reserved ram thema ist
es gibt dann mehr spiele die die Konsole bereits ausreizen ;) und vielleicht wurde bereits das BS optimiert.
Erstkäufer sind immer etwas gearscht, Betatester und so. Preissenkungen wird es durch den günstigen Einstiegspreis aber erst in 2-3 Jahren geben schätze ich.
][immy
2013-07-26, 21:00:20
mhh.. erstaunlich das sony jetzt doch so viel für das OS braucht.
damit ist zumindest der speichergrößenvorteil beim launch weg, aber da hätte dieser eh keine rolle gespielt und hinterher können beide hersteller noch mehr speicher freigeben.
ms und sony sind sich wohl einfach nicht so sicher was noch kommt und wollen einfach auf nummer sicher gehen. wobei ich mir bei ms zielich sicher bin das der speicher aktuell schon so gut wie verplant ist.
Watson007
2013-07-26, 21:05:56
ist damit eigentlich schon absehbar dass RAM teurer wird? Wird doch bestimmt wieder Knappheit bei Konsolenstart geben....
also Arbeitsspeicher-RAM und Grafikkarten für den PC, bedingt durch die Konsolenstarts...
DinosaurusRex
2013-07-26, 21:16:31
Here's the deal...somewhat. From a dev at one of the biggest in the industry. Just a messenger here.
Dev still a little cagey to give out 100% concrete numbers unfortunately like I was previously told, so I apologize ahead of time that they're not as detailed, but these are supposed to be the closest to detailed info I get on the OS footprint:
-At most, the OS uses 1.5GB, with a good amount of that helping the HD recording feature and on the fly switching/ multi tasking
-4.5GB is indeed about what's available for devs at present.
-1GB is set aside for futureproofing OS operations down the line.
-1GB for developer reserve, should they need it
And finally as an important point, I'm being told the faster RAM in the PS4 does in fact make a huge difference. Quelle (http://www.neogaf.com/forum/showpost.php?p=73024816&postcount=2911)
Aber ich verstehe diese "developer reserve" immer noch nicht. :confused:
prinz_valium
2013-07-26, 21:17:16
es gibt dann mehr spiele die die Konsole bereits ausreizen ;) und vielleicht wurde bereits das BS optimiert.
Erstkäufer sind immer etwas gearscht, Betatester und so. Preissenkungen wird es durch den günstigen Einstiegspreis aber erst in 2-3 Jahren geben schätze ich.
klar aber es wird ja nur fireware seitig angepasst. die konsole ist die gleiche, egal ob sofort oder erst später gekauft. und wenn man nach einem jahr noch keinen preisvorteil erwartet, hat man ja eigenlich nur den nachteil, dass man die neue konsole ein jahr später als release hat :)
Watson007
2013-07-26, 21:20:19
klar aber es wird ja nur fireware seitig angepasst. die konsole ist die gleiche, egal ob sofort oder erst später gekauft. und wenn man nach einem jahr noch keinen preisvorteil erwartet, hat man ja eigenlich nur den nachteil, dass man die neue konsole ein jahr später als release hat :)
falsch, die ersten Spiele gibt es dann schon gepacht (stabiler) und günstiger ;) 60 Euro-Spiele kann ich mir eh nicht leisten....
naja technisch ausreizende Spiele kommen wahrscheinlich erst 2 Jahre nach Konsolenstart...
Knuddelbearli
2013-07-26, 21:26:33
nicht wirklich
komtm ja auch bald gddr6 und ddr4
würde sich also maximal auf 2014 auswirken
dargo
2013-07-26, 21:46:12
ist damit eigentlich schon absehbar dass RAM teurer wird? Wird doch bestimmt wieder Knappheit bei Konsolenstart geben....
also Arbeitsspeicher-RAM und Grafikkarten für den PC, bedingt durch die Konsolenstarts...
Wieso erst bei Konsolenstart? Die Produktion läuft doch schon, also müsste jetzt schon der Speicher teurer werden. Merkst du was davon? Ich nicht. Warum auch? Die Pläne standen schon fest wann es mit größeren Stückzahlen losgeht und entsprechend wurde die Produktion angehoben. Zudem braucht nur Sony GDDR5 und nicht MS. Und es ist nur eine Taktrate, nämlich 1375Mhz. Was sind das eigentlich für Chips? 6Gbps auf 1375Mhz untertaktet?
Hunter93
2013-07-26, 22:04:53
Ich hätte gedacht es sind 5,5 Gbps mit 2,75 GHz (WCK) und 1,375 (CK).
dargo
2013-07-26, 22:19:57
Dann halt die. Ich war mir jetzt nicht sicher ob es 5,5Gbps Chips gibt. Dachte nur 5 und 6Gbps.
Edit:
Von wem ist der Speicher eigentlich? Ich finde weder bei Hynix noch Samsung 5,5Gbps Chips.
http://www.skhynix.com/products/graphics/view.jsp?info.ramKind=26&info.serialNo=H5GQ2H24MFR&posMap=graphicsGDDR5
http://www.samsung.com/global/business/semiconductor/product/graphic-dram/catalogue
][immy
2013-07-26, 23:23:51
Die Frage wäre wie viel Speicherbandbreite ist nun eigentlich für das OS reserviert? Immerhin steigt durch die Größe von 3,5 GB Reservierung auch die potentiell benötigte Speicherbandbreite an. Immerhin scheint auch Sony einiges im Hintergrund vor zu haben.
Knuddelbearli
2013-07-27, 00:04:26
sind sogut wie sicher 6Gbps
in kosnolen wir fast immer untertaktet speicher verbaut da das einfach sicherer ist
Crazy_Bon
2013-07-27, 01:04:21
3.5 Gigabyte für irgendwelchen scheiss? Das erinnert mich glatt an xbox one und TV TV TV TV..Ehrlich gesagt, dann ist mir Microsoft doch lieber, die einem die unbequeme Wahrheit ins Gesicht sagen, als der verlogene Scheiss, was Sony abzieht. Was kommt noch? Doch nicht ach so tolle Supadupamegahardware?
DinosaurusRex
2013-07-27, 07:20:34
Ehrlich gesagt, dann ist mir Microsoft doch lieber, die einem die unbequeme Wahrheit ins Gesicht sagen, als der verlogene Scheiss, was Sony abzieht. Was kommt noch? Doch nicht ach so tolle Supadupamegahardware?
Ist das jetzt schon der berühmte Bestätigungsfehler? ;)
Hunter93
2013-07-27, 12:29:23
"UPDATE: A new source familiar with the matter has provided additional information to Digital Foundry that confirms only 4.5GB of the PS4's 8GB GDDR5 memory pool is guaranteed to game developers right now, while also clarifying how the PS4's "flexible memory" works in practice.
In real terms, an additional 512MB of physical RAM may be available in addition to the 4.5GB mentioned in the SDK. Flexible memory consists of physical and virtual spaces, and the latter introduces paging issues which impact performance. In our original story we combined them together.
For practical game applications, the correct figures for this story, as we understand it now, are a guaranteed 4.5GB for development and a further 512MB from the flexible pool. We have updated the headline accordingly."
http://www.eurogamer.net/articles/digitalfoundry-ps3-system-software-memory
Hallo
2013-07-27, 12:39:21
Das ist ja auch verständlich. Der Grund, warum das hier so viel Aufsehen erregt ist ja eher die relative Menge des reservierten Speichers, die größer ist als man erwartete (auch im Hinblick darauf, dass es später noch reduziert werden könnte). Als die PS4 noch mit 4 GB angegeben wurde, war von 512 MB fürs OS die Rede. Dass das jetzt in diesem Ausmaß vergrößert wurde ist halt etwas seltsam.
Ich denke das ist eine Strategie um bei der 2nd oder 3rd Gen von Games einfach mehr frei zu schalten vom Ram für Gaming und damit ein Qualitätssprung passieren könnte.
Was ich sehr schade finde das Sony sich nicht die Option freigehalten hat den Ram zu erweitern. Ein paar Killer Titles gebundelt mit dem Ram würde funktionieren. Beim N64 gings ja auch. Die PC-Engine ist ein noch besseres Beispiel wie der Ram für CD Games erfolgreich erweitert wurde. Denn Software sells Expansion HW too.
Mann könnte auch alle Spiele mit 8GB laufen lassen und die mit 16 haben dann höhere Res oder Framerates. Himmel wie uninspiriert solch grosse Hersteller sein können...
Watson007
2013-07-27, 12:49:14
wieviel RAM war denn vor dem Sprung von 4 auf 8 GB für die Entwickler vorgesehen?
dildo4u
2013-07-27, 12:57:57
Coda hat schon mal was dazu geschrieben jede moderne Engine setzt massiv auf Streaming,daher hat man Theoretisch über 4GB für ein nur sehr kleinen Sichtbaren Teil eines Levels.Da wird man nich mal in die Nähe kommen,das zu nutzen wenn Games auf 50GB beschränkt sind bzw Online vertrieben werden sollen.Diese Demo nutzt z.b 4GB es wird nur ganz wenige Entwickler geben die auf dem Detail-level komplette Games bauen werden,dort wird immer das Budget das Limit setzten.
http://www.gamersyde.com/download_the_dark_sorcerer_full_demo-30445_en.html
Es gibt nur ganz wenige Serien(GTA,Call of Duty z,b) die es überhaupt erlauben würden Budget's im Bereich von Hollywood Blockbustern zu haben und da geht's hin wenn man Dieses Detaillevel sieht.
00-Schneider
2013-07-27, 13:18:08
Bei aller Verärgerung: Wie sprechen hier immernoch von Faktor 8-11(je nach dem wieviel Sony/MS noch freigeben) gegenüber den Vorgängerkonsolen beim Ram.
Und Sachen wie Skyrim waren z.b. auf Xbox 360 mit nur 512mb (minus 32mb OS) astrein spielbar. Ich mache mir da überhaupt keine Sorgen für die Zukunft.
Was ich trotzdem nicht verstehe: Vorher hatte die PS4 4GB Ram abzüglich 512mb für´s OS, also 3,5GB für die Spiele. Jetzt bei 8GB sind es 4,5GB für Spiele, 3,5 für das OS. Also ein Zuwachs von ~28% für Spiele, aber ein Zuwachs von 600(!)% für das OS. Was hat Sony damit alles geplant, was vorher nicht eingeplant war?
MSABK
2013-07-27, 13:32:35
Bei aller Verärgerung: Wie sprechen hier immernoch von Faktor 8-11(je nach dem wieviel Sony/MS noch freigeben) gegenüber den Vorgängerkonsolen beim Ram.
Und Sachen wie Skyrim waren z.b. auf Xbox 360 mit nur 512mb (minus 32mb OS) astrein spielbar. Ich mache mir da überhaupt keine Sorgen für die Zukunft.
Was ich trotzdem nicht verstehe: Vorher hatte die PS4 4GB Ram abzüglich 512mb für´s OS, also 3,5GB für die Spiele. Jetzt bei 8GB sind es 4,5GB für Spiele, 3,5 für das OS. Also ein Zuwachs von ~28% für Spiele, aber ein Zuwachs von 600(!)% für das OS. Was hat Sony damit alles geplant, was vorher nicht eingeplant war?
Sony bietet doch auch so streaming der games im Hintergrund, Aufzeichnung usw an. Denke mal das braucht auch ordentlich Ram.
00-Schneider
2013-07-27, 13:46:39
Sony bietet doch auch so streaming der games im Hintergrund, Aufzeichnung usw an. Denke mal das braucht auch ordentlich Ram.
Und das war vorher nicht eingeplant? Kann ich nicht so recht glauben...
dildo4u
2013-07-27, 13:49:06
Klar nur hat man erst im Mai gesehen,das die Xbox 2 Apps parallel anzeigen(z.b Game und Skype) kann,will man das anbieten muss man entsprechend ram reservieren.
00-Schneider
2013-07-27, 13:52:05
Aus 4,5GB werden 5GB für Spiele:
http://www.eurogamer.net/articles/digitalfoundry-ps3-system-software-memory (unter UPDATE)
------------------
Zumindest aktuell die gleiche Menge wie bei der One.
Gebrechlichkeit
2013-07-27, 14:24:49
Ach... 400€ fuer ein Teil bezahlen, das staendig auf die Platte schreibt (720p/1080p) dank Share-Feature welches kein Depp interessiert, darf ich wohl spaetestens alle 6 Wochen oder so, eine neue Festplatte zulegen ;)
Die Frage ist, ob ich mir diesen "Muell" auch via Settings irgendwo deaktivieren kann, ich brauch den Kaes nicht, wozu sollte ich was uploaden ? Mein Channel hat gerademal 5 Views pro Monat... glaube kaum, das ich dank der PS4 an "Prominenz" gewinnen werde.
Die Box hat 3x VM, soviel ich wei/ss laufen sogar die Spiele auf der Box in einer VM, das kann schon schnell an die 2Gb an Ram verbrauchen, dann noch der TV-Kram DVR Dingens und man ist schnell bei 3GB. Die PS4 kann nix ausser Spiele abspielen, das soll nun auf einmal 3.5GB benoetigen ? (bis zu).... ich versteh dat net... :freak:
Lightning
2013-07-27, 14:25:13
Ich denke das ist eine Strategie um bei der 2nd oder 3rd Gen von Games einfach mehr frei zu schalten vom Ram für Gaming und damit ein Qualitätssprung passieren könnte.
Du meinst, man hält das Potential der Konsole absichtlich zurück? Kontraproduktiv und weit hergeholt, erinnert mich an das Gerücht mit der Übertaktung der Wii U.
Was ich sehr schade finde das Sony sich nicht die Option freigehalten hat den Ram zu erweitern. Ein paar Killer Titles gebundelt mit dem Ram würde funktionieren. Beim N64 gings ja auch. Die PC-Engine ist ein noch besseres Beispiel wie der Ram für CD Games erfolgreich erweitert wurde. Denn Software sells Expansion HW too.
Mann könnte auch alle Spiele mit 8GB laufen lassen und die mit 16 haben dann höhere Res oder Framerates. Himmel wie uninspiriert solch grosse Hersteller sein können...
Beim N64 war das Konzept eben kein Erfolg, deswegen hat man es auch nicht fortgesetzt oder findet es sonst nirgendwo. Es hat gute Gründe, warum man das nicht (mehr) macht, und ich finde es auch gut, wenn es genau eine fixe Hardwarespezifikation gibt. Das ist ja gerade ein Vorteil der Konsolen.
wieviel RAM war denn vor dem Sprung von 4 auf 8 GB für die Entwickler vorgesehen?
Es waren mal von 512 MB die Rede, aber bestätigt war das natürlich auch nicht wirklich.
Coda hat schon mal was dazu geschrieben jede moderne Engine setzt massiv auf Streaming,daher hat man Theoretisch über 4GB für ein nur sehr kleinen Sichtbaren Teil eines Levels.Da wird man nich mal in die Nähe kommen,das zu nutzen wenn Games auf 50GB beschränkt sind bzw Online vertrieben werden sollen.Diese Demo nutzt z.b 4GB es wird nur ganz wenige Entwickler geben die auf dem Detail-level komplette Games bauen werden,dort wird immer das Budget das Limit setzten.
http://www.gamersyde.com/download_the_dark_sorcerer_full_demo-30445_en.html
Es gibt nur ganz wenige Serien(GTA,Call of Duty z,b) die es überhaupt erlauben würden Budget's im Bereich von Hollywood Blockbustern zu haben und da geht's hin wenn man Dieses Detaillevel sieht.
Und dennoch weiß man vom Entwickler des Indie-Spiels The Witness, dass es 5 GB belegt. Natürlich müsste das nicht unbedingt nötig sein, aber es erleichtert die Entwicklung eben deutlich, wenn man sich um Speicherplatz keine Sorgen machen muss. Vielleicht gerade für Projekte für die keine teure Engine mit ausgefuchsten Streamingmöglichkeiten zur Verfügung steht.
Watson007
2013-07-27, 15:10:00
5 GB sind immer noch ne Menge :)
mehr als mein Laptop insgesamt besitzt (4 GB)
][immy
2013-07-27, 15:11:22
Aus 4,5GB werden 5GB für Spiele:
http://www.eurogamer.net/articles/digitalfoundry-ps3-system-software-memory (unter UPDATE)
------------------
Zumindest aktuell die gleiche Menge wie bei der One.
naja, wobei der flexible Speicher etwas unzuverlässig ist. Man weiß ja nie ob der jetzt schnell oder langsam ist so wie ich es jetzt verstanden habe.
Ist dann doch einfach ein zusätzlicher virtuellermemory Pool, oder.
Mich verwundert das ganze schon ein wenig, weil Sony vorher so großspurig über die menge des zur Verfügung stehenden Speichers berichtet hat.
Btw, ich glaube nicht das die Videos ständig auf die platte geschrieben werden. Magnetplatten machen die schreibzyklen zwar nicht viel aus, aber es temporär im Speicher zu halten klingt viel plausiebler.
Watson007
2013-07-27, 15:20:04
bei den neuen Share- und Videoaufzeichnungsfeatures und dem Instant-Switching war es doch klar, dass das Memory kostet.
Ach... 400€ fuer ein Teil bezahlen, das staendig auf die Platte schreibt (720p/1080p) dank Share-Feature welches kein Depp interessiert, darf ich wohl spaetestens alle 6 Wochen oder so, eine neue Festplatte zulegen ;)
Natürlich :facepalm:
Rolsch
2013-07-27, 16:20:37
Könnten doch beide Hersteller dann eine NextGen-Pure bringen, mit 6Kernen und 5GB Ram wo nur Spiele laufen und sonst nix.
Locuza
2013-07-27, 16:22:14
Könnten doch beide Hersteller dann eine NextGen-Pure bringen, mit 6Kernen und 5GB Ram wo nur Spiele laufen und sonst nix.
Nein.
MSABK
2013-07-27, 16:29:30
Man könnte glatt meine, die Leute draußen kaufen ne Konsole nur nach den Specs...
Rolsch
2013-07-27, 16:30:40
Nein.
Warum soll ich dann für ungewollte Features sündhaft teuren DDR5 Ram bezahlen. Hätte man das nicht irgendwie PC-ähnlich machen können, 4 GB DDR5 für Grafik + 4 GB DDR3 für Firlefanz?
Watson007
2013-07-27, 16:38:05
Warum soll ich dann für ungewollte Features sündhaft teuren DDR5 Ram bezahlen.
tust du doch nicht. Ich nehme an die Konsolen werden wieder subventioniert, nur nicht mehr so stark wie früher.
Also bitte, als ob 399 Euro so viel wären...
wer meckert soll sich mal die WiiU-Preise bei amazon anschauen:
http://www.amazon.de/Nintendo-Wii-Konsole-Premium-schwarz/dp/B0090LFL0E/ref=sr_1_1?ie=UTF8&qid=1374936372&sr=8-1&keywords=wiiu
http://t0.gstatic.com/images?q=tbn:ANd9GcTiGYGFCwGPGeMvWyLwdWQO5D9D0JdgoPuxxbY3A_TYIeZsW5APwCB_P08
dieses Geiz-ist-geil-Drama kann man sich ja nicht mit ansehen...
dein Argument kann ich bei Kinect eher verstehen.
dildo4u
2013-07-27, 16:43:28
Sony erklärt das wohl 5GB für Games genutzt werden können,keine Einschränkung bei den letzten 500mb.
http://www.eurogamer.net/articles/digitalfoundry-ps3-system-software-memory
Locuza
2013-07-27, 17:14:05
Warum soll ich dann für ungewollte Features sündhaft teuren DDR5 Ram bezahlen. Hätte man das nicht irgendwie PC-ähnlich machen können, 4 GB DDR5 für Grafik + 4 GB DDR3 für Firlefanz?
Du bräuchtest ein neues Platinen-Layout, 5 GB sind krumm, so eine Frickel-Lösung willst du nicht haben, also nimmst du praktisch brauchbare Steps und die wären 2 GB, 4 GB und 8 GB.
Und was willst du mit 6 Kernen machen?
Soll Sony einen extra Chip auflegen, für Leute die auf eine reine Gamer-Lösung Lust haben?
Kostet Millionen und ist dämlich, dass splittet an vielen Stellen das Produktionsvolumen und erhöht an einigen stellen einfach die Produktionskosten.
4 GB GDDR5 + 4 GB DDR3 sind dann wieder aus meiner Sicht eine komplexere Sache.
Das ganze Memory-System bräuchte dann eine Dual-Konfiguration für die Ansteuerung.
Dazu wäre das Platinen-Layout sicher wieder komplexer ausgefallen.
Zusätzlich frage ich mich, ob so etwas auf Software-Ebene das ganze nicht auch komplexer gestaltet, wenn man ständig zwei physikalische Pools einzeln adressieren muss, kann das überhaupt vollkommen transparent gelöst werden ohne gewisse Nachteile?
Watson007
2013-07-27, 17:20:59
ich verstehe nicht warum die Leute die Facebook-Integration so madig machen. Ich brauche das zwar auch nicht, aber ich sehe beim Ausgehen die Leute STÄNDIG Facebook-Nachrichten in ihr Smartphone eingeben. Nicht von sich selbst auf andere schließen, ich denke eine moderne Konsole braucht das Feature schon. Und sowas braucht halt RAM. Die ständigen Wartezeiten bei der PS3 beim switchen der Anwendungen waren schon Mist muss ich zugeben.
Mal abwarten, auf die Games kommt es an. Und Sony hat auch sehr gute Studios.
Rolsch
2013-07-27, 17:22:44
Du bräuchtest ein neues Platinen-Layout, 5 GB sind krumm, so eine Frickel-Lösung willst du nicht haben, also nimmst du praktisch brauchbare Steps und die wären 2 GB, 4 GB und 8 GB.
Und was willst du mit 6 Kernen machen?
Soll Sony einen extra Chip auflegen, für Leute die auf eine reine Gamer-Lösung Lust haben?
Kostet Millionen und ist dämlich, dass splittet an vielen Stellen das Produktionsvolumen und erhöht an einigen stellen einfach die Produktionskosten.
4 GB GDDR5 + 4 GB DDR3 sind dann wieder aus meiner Sicht eine komplexere Sache.
Das ganze Memory-System bräuchte dann eine Dual-Konfiguration für die Ansteuerung.
Dazu wäre das Platinen-Layout sicher wieder komplexer ausgefallen.
Zusätzlich frage ich mich, ob so etwas auf Software-Ebene das ganze nicht auch komplexer gestaltet, wenn man ständig zwei physikalische Pools einzeln adressieren muss, kann das überhaupt vollkommen transparent gelöst werden ohne gewisse Nachteile?
Sony hätte mit 4 GB ausliefern sollen und den Rest weglassen. Mir scheint so als hätten sie einfach Panik bekommen dass sie den Featurekrieg im Wohnzimmer verlieren. Das tun sie ohne Kinect aber sowieso. Die PS4 wäre mit 4GB wohl nicht schlechter aber billiger geworden.
Watson007
2013-07-27, 17:24:27
die One braucht doch in etwa dasselbe an RAM für ihre 3 Betriebssysteme.
Lets Plays sind schon beliebt, muss man schon zugeben.
dildo4u
2013-07-27, 17:25:22
Bei 4GB musst du trotzdem noch ein OS laufen haben,man hätte also bis zu 2GB weniger für Games als die Xbox geht absolut nicht.Das passt alles man ist eh schon wesentlich billiger als die Konkurrenz und wird Probleme haben genug zu produzieren.
Akkarin
2013-07-27, 17:25:31
Dann hätte man 3.5 anstatt 4.5+1 GB flexibel+möglichkeit auf mehr. Super, dadurch wäre die PS4 wie viel billiger in der herstellung ? 30$ ?
Locuza
2013-07-27, 17:29:12
Sony hätte mit 4 GB ausliefern sollen und den Rest weglassen. Mir scheint so als hätten sie einfach Panik bekommen dass sie den Featurekrieg im Wohnzimmer verlieren. Das tun sie ohne Kinect aber sowieso. Die PS4 wäre mit 4GB wohl nicht schlechter aber billiger geworden.
Also so paar Basis-Funktionen hätte die PS4 einfach schon gebraucht.
Ein OS, eine grafisch schöne Oberfläche, einen Browser zum Surfen und Videos gucken, einen Sprachchat etc.
Am Ende wirkt es doch nicht so berauschend, wenn dein Konkurrent für Spiele 5 GB hat, Tons of Multi-Media Zeug und man selber mit 3,5-3,8 GB für Games ankommt und noch gerade so einen Browser schafft.
8GB positionieren einen einfach deutlich flexibler.
dildo4u
2013-07-27, 17:34:12
Nach dem ganzen Skyrim Drama auf der PS3 werden sie nie wieder am Ram sparen oder unflexibel getrennte Speichermengen(V-Ram und Arbeitsspeicher) nutzen.
Tesseract
2013-07-27, 19:40:29
für was zum teufel braucht die PS4 so viel systemram? einen schlanken BSD-kernel, ein paar libs und ein paar laufende dienste müssen sich doch mit ein paar hundert MB begnügen können...
Vermutlich ähnlich wie bei der Xbox One laufen da einige Sachen im Hintergrund. Zudem braucht man für 15 Minuten H.264 Video Ringbuffer geschätzt ~1GB RAM.
Und wie gesagt, später mehr freimachen kann man später immer.
Tesseract
2013-07-27, 19:43:59
die 15 minuten video muss man doch nicht komplett im ram halten oder?
Neosix
2013-07-27, 19:46:52
Muss man sicherlich nicht, wird wahrscheinlich dennoch gemacht. Weil die alternative wäre konstant auf die HDD schreiben. Und wie hier schon erwähnt wurde, wenn ein Spiel grade viel lädt und streamt, und gleichzeitig noch die 15m Aufzeichnung speichern muss. Kann das schnell eng werden für die eher langsamen 2,5 Notebook HDDs da. Auserdem soll man diese 15Minuten auch sofort editieren können. Und das geht im Ram schneller als wenn die HDDs da wieder puffern muss.
][immy
2013-07-27, 20:35:03
für was zum teufel braucht die PS4 so viel systemram? einen schlanken BSD-kernel, ein paar libs und ein paar laufende dienste müssen sich doch mit ein paar hundert MB begnügen können...
aber recht hast schon. selbst wenn man für das 15min Video 1gb einrechnet, dafür das sie eine pure spielekonsole angekündigt haben ist das heftig. MS hat hier zumindest die karten schon offen gelegt (wobei ich hier auch noch nicht sehe warum es gleicht 3gb sind), aber von sony .... die haben doch sogut wie nichts gezeigt was irgendwie viel speicher verschlingen würde.
und 1 gb ram nur für die bildschirmaufzeichnen klingt irgendwie schon nach speicherverschwendung. aber ich vermute mal das, wenn der speicher mal knapp wird, die spiele entscheiden können die Aufzeichnung abzuschalten und den speicher für das spiel nutzbar wird.
aber später kann man halt lieber speicher freigeben als hinterher Features nicht integrieren zu können weil der speicher dann futsch ist.
aber trotzdem.. sowohl MS als auch sony 3GB für das os... also wenn ich mir da mal mein win8 anschaue mit allen möglichen Hintergrund Prozessen, ich habe keine Ahnung was die mit dem speicher wollen ^^.
mironicus
2013-07-27, 20:47:07
Sony braucht halt mehr Speicher für die ganzen Features, die sie von Microsoft kopieren... :D
Bisher hatte ich den Eindruck, dass Sony immer auf Microsoft wartet. Sony kann dann natürlich leicht auf das eingehen, wofür viele Fans Microsoft kritisieren.
Aber egal, ich freue mich schon auf den Tag, an dem beide Konsolen erhältlich sein werden.
00-Schneider
2013-07-27, 21:22:52
[immy;9857893']und 1 gb ram nur für die bildschirmaufzeichnen klingt irgendwie schon nach speicherverschwendung. aber ich vermute mal das, wenn der speicher mal knapp wird, die spiele entscheiden können die Aufzeichnung abzuschalten und den speicher für das spiel nutzbar wird.
Vielleicht will man auch mehrere Sachen gleichzeitig ermöglichen. Also Remoteplay per Vita, gleichzeitig aufzeichnen, und PS2/3 Spiele per Gaikai streamen auf die PS4 streamen. Quasi alle drei Aktionen gleichzeitig. Nebenbei noch Voicechat und den Browser offen haben. Da geht schon viel RAM für drauf.
Tesseract
2013-07-27, 22:00:14
Vielleicht will man auch mehrere Sachen gleichzeitig ermöglichen. Also Remoteplay per Vita, gleichzeitig aufzeichnen, und PS2/3 Spiele per Gaikai streamen auf die PS4 streamen. Quasi alle drei Aktionen gleichzeitig. Nebenbei noch Voicechat und den Browser offen haben. Da geht schon viel RAM für drauf.
außer einem browser mit massenweise offenen tabs und der schon angesprochenen aufzeichnung der letzten 15 minuten (das sind mehrere zehntausend frames) braucht nichts davon mehr als ein paar MB - oder sollte es zumindest nicht.
00-Schneider
2013-07-27, 22:48:32
Tja, bei 3GB kann man jetzt vielleicht auch mehr wie 15 Minuten aufzeichnen! ;)
Gleichzeit noch per Headset die gespielten Aktionen kommentieren, und sofort das Video auf Youtube in 720p einbinden. Herrlich!
Da freue ich mich schon richtig drauf!
Armaq
2013-07-27, 23:17:16
Vermutlich ähnlich wie bei der Xbox One laufen da einige Sachen im Hintergrund. Zudem braucht man für 15 Minuten H.264 Video Ringbuffer geschätzt ~1GB RAM.
Und wie gesagt, später mehr freimachen kann man später immer.
Darum wird es wohl gehen. Am Anfang hat man einfach die sicherste von allen Möglichkeiten genommen, 4 GB sind für Devs eine saubere Sache (wer programmiert denn auf mehr Arbeitsspeicher? Chris Roberts?) und wenn man in 2 Jahren dann 6 GB freigibt, können die Spiele nochmal ein bisschen besser aussehen.
Hunter93
2013-07-27, 23:46:41
https://twitter.com/BriProv/status/361200597300543488
Eurogamers Darstellung ist gemäß Brian Provinciano so nicht richtig.
Aufklärung soll folgen.
Im Neogaf ist bisher mehrfach von "6 GB verfügbar" die Rede:
http://m.neogaf.com/showpost.php?p=73213046
http://www.neogaf.com/forum/showpost.php?p=73218491&postcount=1931
][immy
2013-07-28, 01:16:10
Darum wird es wohl gehen. Am Anfang hat man einfach die sicherste von allen Möglichkeiten genommen, 4 GB sind für Devs eine saubere Sache (wer programmiert denn auf mehr Arbeitsspeicher? Chris Roberts?) und wenn man in 2 Jahren dann 6 GB freigibt, können die Spiele nochmal ein bisschen besser aussehen.
nunja, im Grunde genommen entwickelt man schon seit einer Weile in hohen Einstellungen mit mehr als 4 GB. man hat ja beim pc nicht nur den Hauptspeicher sondern auch den Grafikspeicher. mit 32-bit war man zwar meist auf 2GB Hauptspeicher + Grafikspeicher angewiesen, aber seitdem endlich 64-bit breitflächig eingesetzt wird, und in jedem heutigen pc mindestens 8 gb Speicher verbaut werden, steht rein theoretisch ~8GB + Grafikspeicher zur Verfügung.
Gut hier (PC) werden dann wegen der getrennten Speicherpools garantiert so einige Sachen doppelt aufbewahrt, das OS genehmigt sich auch ein paar hundert MB (inkl Hintergrundprozesse wie Chat und Browser), aber letztlich sind 4GB speicher insgesamt für den PC inzwischen nichts neues mehr. Den Konsolen kommt natürlich noch zu Gute das hier viel besser optimiert wird und der Speicher schon allein deswegen effizienter genutzt werden kann.
Allerdings frage ich ich schon ein wenig, wie viel Speicher kann z.B. die GPU der PS4 überhaupt effizient nutzen? Man kann zwar immer mit Streaming & co arbeiten, aber irgendwann ist der Puffer ja schon so groß das die GPU nicht mehr hinterher kommt die Daten sinnvoll zu verarbeiten.
Hallo
2013-07-28, 04:25:15
Beim N64 war das Konzept eben kein Erfolg, deswegen hat man es auch nicht fortgesetzt oder findet es sonst nirgendwo. Es hat gute Gründe, warum man das nicht (mehr) macht, und ich finde es auch gut, wenn es genau eine fixe Hardwarespezifikation gibt. Das ist ja gerade ein Vorteil der Konsolen.
Du meinst Zelda Majoras Mask, Perfect Dark, Donkey Kong 64, Conkers Bad Fur Day waren erfolglos? Es gab einige AAA Titel die den Ram bei hatten.
Pod Racer war ein gutes Beispiel wie man mit und ohne Erweiterung zocken konnte. Mit Expansion hatte man dann eine höhere Auflösung.
Oder die zig Saturn Titel welche die 4MB Erweiterung zwingend oder optional unterstützten.
Und davon ab, schau mal welch Müll MS durchsetzen will und wird da sollte sone Ram Geschichte das kleinste Problem sein. Uninspiriert halt...
00-Schneider
2013-07-28, 10:47:27
https://twitter.com/BriProv/status/361200597300543488
Eurogamers Darstellung ist gemäß Brian Provinciano so nicht richtig.
Aufklärung soll folgen.
Im Neogaf ist bisher mehrfach von "6 GB verfügbar" die Rede:
http://m.neogaf.com/showpost.php?p=73213046
http://www.neogaf.com/forum/showpost.php?p=73218491&postcount=1931
Ein weiterer Insider spricht von 6GB für Games:
http://www.neogaf.com/forum/showpost.php?p=73268051&postcount=2748
"There are games in development that are using 6 GB of RAM."
------------------
And another one:
http://m.neogaf.com/showpost.php?p=73254796&postcount=2517
dildo4u
2013-07-28, 11:19:37
In Theory: Can Xbox One multi-platform games compete with PlayStation 4?
http://www.eurogamer.net/articles/digitalfoundry-can-xbox-one-multi-platform-games-compete-with-ps4
mironicus
2013-07-28, 12:06:09
Ein besserer Test wäre es gewesen, wenn sie:
Einen AMD 8-Kerner verwenden den sie auf 1,6 GHz gedrosselt hätten und dann Spiele ausprobieren, die auch dafür bekannt sind mehr als 4 Kerne zu nutzen. :)
DinosaurusRex
2013-07-28, 12:07:50
In Theory: Can Xbox One multi-platform games compete with PlayStation 4?
http://www.eurogamer.net/articles/digitalfoundry-can-xbox-one-multi-platform-games-compete-with-ps4
Das ist ein Scherz, oder? :confused:
prinz_valium
2013-07-28, 12:13:01
Das ist ein Scherz, oder? :confused:
wieso? das ist doch genau das, wie die ganzen leute in den foren die specs vergleichen und meinen so wird der leistungsunterschied dann auch wirklich aussehen ;D
aber ja der test ist schon super
w0mbat
2013-07-28, 12:25:13
Der Test hat ja mal gar nichts mit dem echten GPU Unterschued zu tun. WTF? Die haben einfach den Unterschied zwischen zwei random GPUs aufgezeigt.
mironicus
2013-07-28, 12:25:17
Die Spiele werden am Ende ohnehin auf beiden Konsolen (Multi) völlig gleich aussehen.
00-Schneider
2013-07-28, 12:35:22
Der Test hat ja mal gar nichts mit dem echten GPU Unterschued zu tun. WTF? Die haben einfach den Unterschied zwischen zwei random GPUs aufgezeigt.
Naja, ist halt eher als Spielerei anzusehen. Immerhin haben sie den Takt angepasst, um ungefähr auf die TF der Konsolen zu kommen.
Trotzdem nichts neues: Es gibt keinen Grund, warum Multiplattformer auf der One besser als auf der PS4 aussehen sollten.
Die Spiele werden am Ende ohnehin auf beiden Konsolen (Multi) völlig gleich aussehen.
Völlig gleich mit Sicherheit nicht. Aber die Mehrpower(GPU) der PS4 wird wohl in stablileren FPS und/oder höhere Auflösung/AA fließen. Dass die PS4-Versionen bessere Effekte oder bessere Texturen genenüber den One-Versionen bekommen, glaube ich nicht. Das wäre wohl zu viel Aufwand...
THEaaron
2013-07-28, 12:38:12
Es wird wie in dieser Gen sein. ;)
00-Schneider
2013-07-28, 12:42:20
Es wird wie in dieser Gen sein. ;)
Nein. Dann hätte ja mal die One die bessere Version, mal die PS4. Halte ich für ausgeschlossen.
Das einige Entwickler faul sind, und die Spiele auf beiden Konsolen gleich gut aussehen, halte ich natürlich für möglich. Aber der technische Vorteil der PS4 ist diesmal eindeutig. Höhere Bandbreite, 50% mehr GPU Power, gleiche CPU Leistung, bessere Programmierbarkeit usw.
THEaaron
2013-07-28, 12:45:26
Ich meine die Unterschiede die wir erwarten können.
00-Schneider
2013-07-28, 12:50:51
Ich meine die Unterschiede die wir erwarten können.
PS3/360 lagen allerdings leistungstechnisch näher beisammen als PS4/One, das sollte man nicht vergessen!
mironicus
2013-07-28, 12:51:48
Ich bin schon gespannt, was die neuen Konsolen für eine Auswirkung auf die PC-Konvertierungen haben.
Immerhin: Optimierung auf viele (schwache) CPU-Kerne, deutlich höhere Nutzung der GPU für Routinen wofür früher die CPU herhalten musste.
Im PC-Bereich würde dies bedeuten: Der teilweise deutliche Unterschied zwischen Intel und AMD-CPUs bei Spielen schmilzt dahin.
Core i7-Besitzer und FX-8xxx Besitzer sind auf der sicheren Seite. Intel bleibt nach wie vor erste Wahl, wenn man auch ältere Spiele besonders schnell und flüssig spielen möchte.
Hugo78
2013-07-28, 14:36:39
Im PC-Bereich würde dies bedeuten: Der teilweise deutliche Unterschied zwischen Intel und AMD-CPUs bei Spielen schmilzt dahin.
Das halte ich für Wunschdenken.
Intels IPC Vorsprung wird nicht relativiert, nur weil Konsolenports mit max. sechs vergleichsweise lahmen Kernen zurecht kommen müssen auf den Konsolen.
dargo
2013-07-28, 15:20:46
Intels IPC Vorsprung wird nicht relativiert, nur weil Konsolenports mit max. sechs vergleichsweise lahmen Kernen zurecht kommen müssen auf den Konsolen.
Doch wird er. Das sieht man heute schon an Crysis 3.
46276
Vorsicht bei Haswell! Die Werte sind aufgrund von zu hoher Timer Resolution zu niedrig. Wie man sieht kann sogar ein Phenom II mit 6 Cores sehr gut mithalten. Und das ist nicht mal die forderndste Stelle was Multithreading und CPU-Last angeht.
Wenn die Software sehr gutes Multithreading betreibt kann ein 8 Core FX locker mit einem 4C/4T Ivy Bridge mithalten. Nur die aktuellen 4+ Cores/Threads Intel sind dann schneller.
Ronny145
2013-07-28, 16:18:39
Doch wird er. Das sieht man heute schon an Crysis 3.
46276
Da sieht man gar nichts. Ein i5-4670 erreicht dort 79 fps. Die PCGH Ergebnisse sind für die Tonne, solltest du besser wissen. Das Beispiel ist völlig ungeeignet.
Das halte ich für Wunschdenken.
Intels IPC Vorsprung wird nicht relativiert, nur weil Konsolenports mit max. sechs vergleichsweise lahmen Kernen zurecht kommen müssen auf den Konsolen.
Bin ich mir nicht so sicher. Das zwingt einen schon zu parallelerem Code, was AMD definitiv hilft. C3 ist dafür tatsächlich kein so schlechtes Beispiel. Und die Engine ist seither nicht stehen geblieben, soviel sei verraten.
Ich komm schon gar nicht mehr auf die Idee seriellen Code zu schreiben der signifikant Rechenzeit brauchen würde ;)
dargo
2013-07-28, 16:44:29
Da sieht man gar nichts. Ein i5-4670 erreicht dort 79 fps. Die PCGH Ergebnisse sind für die Tonne, solltest du besser wissen. Das Beispiel ist völlig ungeeignet.
Es steht jedem frei mein Savegame zu nehmen, auch einem FX-CPU Besitzer.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9854482&postcount=42
Die Stelle ist auch deutlich cpu-lastiger. Dein Wert wird fast halbiert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9856889&postcount=119
Ich bin mir ziemlich sicher, dass eine FX-CPU in dieser Szene noch sehr gut mit einem 4C/4T Intel mithält. ;)
Iruwen
2013-07-28, 16:51:51
Imo "relativiert" das IPC nicht. IPC und Kernskalierung (bzw. Thread) sind zwei paar Schuhe.
dargo
2013-07-28, 16:54:08
Imo "relativiert" das IPC nicht.
Natürlich relativiert es das. Am Ende zählen nur die fps oder in Anwendungen halt die Zeit.
Iruwen
2013-07-28, 16:57:03
Und deshalb vergleicht man CPUs mit 4 Hardwarethreads gegen welche mit 8. Ist so sinnvoll wie festzustellen dass eine CPU mit 4 GHz schneller ist als eine mit 2 GHz.
Doch wird er. Das sieht man heute schon an Crysis 3.
Sollte die Core-Anzahl zu einem wichtigen Faktor werden, wird Intel das schnell ändern. Es ist ja nicht so, dass sie da keinen Spielraum mehr hätten.
Ronny145
2013-07-28, 17:15:06
Es steht jedem frei mein Savegame zu nehmen, auch einem FX-CPU Besitzer.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9854482&postcount=42
Die Stelle ist auch deutlich cpu-lastiger. Dein Wert wird fast halbiert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9856889&postcount=119
Ich bin mir ziemlich sicher, dass eine FX-CPU in dieser Szene noch sehr gut mit einem 4C/4T Intel mithält. ;)
Dann verlinke einen entsprechenden Test, der deine These untermauert. Du kannst niemanden mit einem so derartig vermüllten Test widersprechen und als Fakt hinstellen.
dargo
2013-07-28, 17:21:32
Und deshalb vergleicht man CPUs mit 4 Hardwarethreads gegen welche mit 8. Ist so sinnvoll wie festzustellen dass eine CPU mit 4 GHz schneller ist als eine mit 2 GHz.
Unsinn, ich vergleiche nach dem Preis. Ein AMD FX-8350 kostet 170€. Der schnellste 4C/4T Ivy liegt im ähnlichen Bereich.
Dann verlinke einen entsprechenden Test, der deine These untermauert. Du kannst niemanden mit einem so derartig vermüllten Test widersprechen und als Fakt hinstellen.
Witzbold. Weil es so viele Tests davon gibt. :rolleyes: Hätte ich die Möglichkeiten das zu testen würde es schon lange Ergebnisse geben. Du kannst mir gerne das Gegenteil beweisen. :rolleyes:
Ich habe hier schon eine Anfrage gestellt. Eventuell kann Raff da was machen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9858044&postcount=133
Afaik hat der einen FX-8350.
Skysnake
2013-07-28, 17:43:00
Ich komm schon gar nicht mehr auf die Idee seriellen Code zu schreiben der signifikant Rechenzeit brauchen würde ;)
Daran sollten sich mehr Leute ein Beispiel nehmen :tongue:
Ich kann auch nicht verstehen, wie man heutzutage überhaupt noch groß seriellen Code schreibt.
Knuddelbearli
2013-07-28, 17:49:15
Und deshalb vergleicht man CPUs mit 4 Hardwarethreads gegen welche mit 8. Ist so sinnvoll wie festzustellen dass eine CPU mit 4 GHz schneller ist als eine mit 2 GHz.
spätestens seitdem Intel bei Haswell die Kerne massiv aufgepusht hat ist dieses Argument mehr als Hinfällig.
4 fette Kerne mit 8 kleinen Kernen Vergleichen ist nunmal ebenso quatsch
4+4 Intel mit 4=8 AMD Vergleichen ist inzwischen mehr als Legitim!
Botcruscher
2013-07-28, 17:54:31
Afaik hat der einen FX-8350.
Ich kann dir auch Aussagen von ihm Quoten ala AMD sieht kein Land. Auf das C3 braucht man auch nix geben. Da kann auch wieder die Intelbremse an sein.
Sollte die Core-Anzahl zu einem wichtigen Faktor werden, wird Intel das schnell ändern. Es ist ja nicht so, dass sie da keinen Spielraum mehr hätten.
Die Frage ist halt ob man sich herablässt und dem niederen Pöbel ein paar Abfälle hinwirft. Oder man baut die IGP weiter auf Kosten der Nutzer aus... Entwickelte Märkte sind was tolles.
dargo
2013-07-28, 19:02:52
Ich kann dir auch Aussagen von ihm Quoten ala AMD sieht kein Land.
Das ist Quatsch.
Hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9755286&postcount=11
erreicht er 70fps mit seinem FX-8350 wo Ronny145 79fps mit seinem Haswell schafft. Zugegeben... FX-8350 @Standard liefert nur ~59fps.
Und die Szene ist alles andere als optimal gewählt da schon bei 720p kein vollständiges CPU-Limit herrscht. Hier gehts zum ganzen Thread.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=541586
Auf das C3 braucht man auch nix geben. Da kann auch wieder die Intelbremse an sein.
Genau... da liefert endlich ein Entwickler wunderbares Multithreading in Games und die Intels werden ausgebremst. Wie ich diese Verschwörungstheorien liebe. ;D
C3 hat keine "Intelbremse". So ein Dummfug.
die 15 minuten video muss man doch nicht komplett im ram halten oder?
Natürlich, sonst schreibst du ja wie gesagt andauernd auf der HDD rum. Und die hat genug zu tun mit dem Streaming für das Spiel selber. Und das mit der Lebenszeit ist sicher auch ein Problem.
Ich weiß es ehrlich gesagt aber auch nicht genau, gehe aber sehr stark davon aus, dass man einen Ring-Buffer im RAM benutzt und nur auf die HDD schreibt wenn es der User will.
Botcruscher
2013-07-28, 19:08:51
ach deswegen gibt es für den Blödsinn auch schon eigene Tools (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9837308&postcount=100) :freak: Auf verbugte Ergebnisse hab ich keinen bock.
Hat auch total was mit Intel zu tun. Das Problem ist der Windows-Scheduler. Der kommt mit manchen Patterns nicht klar und legt die Threads ewig schlafen. Windows 8 könnte auch helfen, das hat einige Verbesserungen was das angeht.
Ich kann dir jedenfalls garantieren, dass das Abschneiden der AMD-CPUs in C3 kein "Bug" ist.
mironicus
2013-07-28, 19:10:52
Das ist Quatsch.
Hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9755286&postcount=11
erreicht er 70fps mit seinem FX-8350 wo Ronny145 79fps mit seinem Haswell schafft. Zugegeben... FX-8350 @Standard liefert nur ~59fps.
Er hat bei der CPU aber den FSB stark erhöht (243x16,5 = 4.006 MHz), wodurch die AMD-CPU 19% schneller ist gegenüber dem Standard-FSB (200).
Mit FSB-Übertaktung kann man die FX-CPUs schon messbar in ihrer Spiele-Performance verbessern - und verbraucht in diesem Fall sogar nicht mehr Strom. :)
Botcruscher
2013-07-28, 19:16:13
Hat auch total was mit Intel zu tun. Das Problem ist der Windows-Scheduler. Der kommt mit manchen Patterns nicht klar und legt die Threads ewig schlafen.
Bei AMD fällt es halt nicht so auf und deswegen nennt sich das im Volksmund Intelbremse. Wer da Scheiße baut ist mir auch egal. Die Glaubwürdig eines jeden Tests ist damit einfach dahin. Mal sehen wie BF und CO laufen werden.
Okay, da du jeden Tag auf den Code schaust und ich nicht, hast du recht und ich jetzt meine Ruhe.
Weiterhin ist meine Meinung was Parallelität von zukünftigen Engines angeht vollkommen aus der Luft gegriffen und daher auch meine Prognosen absurd.
(Das kann man sich gar nicht ausdenken mal wieder)
dargo
2013-07-28, 19:29:26
Er hat bei der CPU aber den FSB stark erhöht (243x16,5 = 4.006 MHz), wodurch die AMD-CPU 19% schneller ist gegenüber dem Standard-FSB (200).
Mit FSB-Übertaktung kann man die FX-CPUs schon messbar in ihrer Spiele-Performance verbessern - und verbraucht in diesem Fall sogar nicht mehr Strom. :)
Ja... deshalb mein Edit mit den "nur" 59fps @FX-8350 Standard.
Dennoch würde mich mein Savegame mit der FX-CPU interessieren. In meiner Szene wird anscheinend (zumindest steigt die CPU-Last erheblich) viel stärker parallelisiert wodurch die AMD-CPU deutlich näher an Intel liegen sollte.
Ronny145
2013-07-28, 19:40:10
Hat auch total was mit Intel zu tun. Das Problem ist der Windows-Scheduler. Der kommt mit manchen Patterns nicht klar und legt die Threads ewig schlafen. Windows 8 könnte auch helfen, das hat einige Verbesserungen was das angeht.
Ich lach mich kaputt. Laut Demirug hat das nichts mit Windows 7 zu tun. Crytek hat einfach großen Mist gebaut indem sie den Timer nicht auf 1ms festgelegt haben. Jedes andere Spiel bekommt es hin.
Armaq
2013-07-28, 20:17:04
Ich lach mich kaputt. Laut Demirug hat das nichts mit Windows 7 zu tun. Crytek hat einfach großen Mist gebaut indem sie den Timer nicht auf 1ms festgelegt haben. Jedes andere Spiel bekommt es hin.
Dein Ton ist btw. ätzend.
Hunter93
2013-07-28, 20:51:28
die 15 minuten video muss man doch nicht komplett im ram halten oder?
Natürlich, sonst schreibst du ja wie gesagt andauernd auf der HDD rum. Und die hat genug zu tun mit dem Streaming für das Spiel selber. Und das mit der Lebenszeit ist sicher auch ein Problem.
In Anbetracht der 512 MB Swap File auf der HDD, macht das eigentlich keinen wirklichen Sinn mehr, oder?
Ronny145
2013-07-28, 21:31:24
Dein Ton ist btw. ätzend.
Weil die Wahrheit manchmal weh tut. Da muss man nicht noch in den versteckten Verteidigungsmodus übergehen was btw. kein Beispiel von gutem Ton ist. Crytek hat Mist gebaut. Ob dir das nun gefällt oder nicht juckt keinen.
Felixxz2
2013-07-28, 22:22:25
Macht das wirklich so viel wenn ich 10 Mbps permanent auf die Platte schreibe? Man hat doch sowieso den HDD Cache und schreibt den halt dann einmal auf die Platte. Können die Devs ihr Streaming nicht anpassen bzw die 1GB die dann frei werden benutzen um das Streaming weniger aggressiv zu gestalen?
Iruwen
2013-07-28, 23:13:11
Weil die Wahrheit manchmal weh tut. Da muss man nicht noch in den versteckten Verteidigungsmodus übergehen was btw. kein Beispiel von gutem Ton ist. Crytek hat Mist gebaut. Ob dir das nun gefällt oder nicht juckt keinen.
Mich schon, weils außerdem nervt und dich so keiner ernstnimmt.
Ronny145
2013-07-28, 23:17:19
Mich schon, weils außerdem nervt und dich so keiner ernstnimmt.
Es steht jedem frei mich auf die Ignore Liste zu setzen. Es wäre dir zu empfehlen, wenn du mich eh nicht ernst nimmst. :rolleyes:
Jedes andere Spiel bekommt es hin.Nope, siehe Skyrim, und ich vermute mal, auch andere Gamebryo-Krüppel wie FO3.
Ronny145
2013-07-29, 00:33:13
Nope, siehe Skyrim, und ich vermute mal, auch andere Gamebryo-Krüppel wie FO3.
Quelle? In Oblivion konnte ich keine Vorteile messen.
robbitop
2013-07-29, 10:52:13
Ronny, du könntest dich wirklich etwas diplomatischer ausdrücken. Der Ton macht die Musik. IMO ist es eine wirklich gute Sache, dass wir hier überhaupt ein paar Entwickler von kommerziellen Gameengines im Forum haben, die auch noch etwas dazu sagen können. Die wenigen, die hier sind, sollte man nicht vertreiben sondern so viel wie möglich aufsaugen, was sie hier beitragen. Zumal Coda die Engine mit hoher Wahrscheinlichkeit besser kennt als Demirug und vermutlich um Größenordnungen mehr spezifisches Wissen haben als alle anderen hier im Thread zusammen.
Gipsel
2013-07-29, 15:34:59
Macht das wirklich so viel wenn ich 10 Mbps permanent auf die Platte schreibe? Man hat doch sowieso den HDD Cache und schreibt den halt dann einmal auf die Platte.Ich würde sagen, das macht nicht viel aus. Denn man schreibt ja gerade nicht wirklich permanent auf die Platte, also in dem Sinn, daß man den Zugriff ja nicht für das Spiel blockiert. Eine Handvoll MB Puffer im RAM sollten vollkomen genug sein, um das dann zu einem Zeitpunkt, wenn gerade keine Lesezugriffe seitens des Spiels anstehen, dazwischen zu quetschen. Im Prinzip dauert das die Seek Time + sequentielles Schreiben von ein paar MB (mit >100MB/s, selbst bei normalen 2,5" Platten), in der Summe also vielleicht 20ms einmal alle paar Sekunden. Und wie Du ja richtig sagst, landet das ja sowieso erstmal im Cache der Festplatte.
Da das Streaming des Spiels sich ja sowieso nicht auf eine bestimmte Mindestantwortzeit der Platte verlassen kann, dürfte das praktisch keine Rolle spielen. Und für die Lebensdauer ist es ebenfalls ziemlich egal, da die Platte beim Spielen ja sowieso ständig läuft und es auch praktisch ständig Zugriffe gibt (Streaming).
Wenn man das absolut vermeiden wollte, hätte man vielleicht noch einen kleinen DRAM-Puffer an die Southbridge hängen können (den langsamsten und billigsten 16Bit breiten DDR3-1333 Chip mit 8GBit=1GB, Bandbreite wäre dann ~2,6GB/s), der als Cache dafür funktioniert bzw. als RAM für irgendeinen kleinen ARM-Chip für die Download- und Update-Funktionen im Standby oder irgend so etwas. In der Luxus-Version vielleicht noch gepaart mit Flash-Speicher, damit man die Festplatte im Standby seltener starten muß (oder auch zur Nutzung als Flash-Cache für die Platte).
=====================
Aber um noch mal auf die Timer-Auflösung zurück zu kommen, ich selbst habe auch immer die Auffassung vertreten, daß man in Spielen das immer runtersetzen kann, da dort ja wohl kaum Stromsparüberlegungen eine Rolle spielen, die dagegen gerne angeführt werden (mit der 1ms Timer-Auflösung geht die CPU eventuell nicht in tiefere Stromsparmodi, deswegen schlecht als Standard, insbesondere auf Notebooks bzw. Tablets). Die geringere Effizienz und das Sinken der Rechenleistung (es müssen häufiger Timer-Interrupts abgearbeitet werden und der OS-Scheduler wird häufiger ausgeführt) dürften bei heutigen CPUs wohl kaum meßbar sein (außerhalb von Spezialfällen schätzungsweise <0,1% Leistungsverlust oder so). Ich habe sogar argumentiert, daß die Grafiktreiber das per Profil erzwingen sollten (das ist eine systemweite Einstellung, es reicht also, wenn irgendein gerade laufendes Programm/Treiber/Plugin/whatever das anfordert), wenn sie ein Spiel erkennen, was das nicht tut.
Das kam ja auch in der Diskussion über die Mikroruckler (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9674746#post9674746) insbesondere bei Einzel-GPUs auf, wo es beobachtbar war, daß das Thread-Scheduling einen erheblichen Einfluß haben kann (und längst nicht nur bei Crysis3, das sind deutlich mehr Spiele). Und es betrifft beileibe nicht nur Intel (die "Intel-Bremse" ist also in meinen Augen schlicht Blödsinn), man hat häufig deutlich unterschiedliches und kaum vorhersagbares Verhalten abhängig von den genauen Synchronisationsmustern zwischen den Threads im Spiel, der Kernanzahl und was noch so auf dem Rechner läuft, was es auch schwer reproduzierbar macht. Dazu kommt, daß MS praktisch ausdrücklich davon abrät, die Timerauflösung längerfristig runter zu setzen.
Nun kann man sagen, Windows ist halt kein Realtime-Betriebssystem und man müsse damit leben. Alternative wäre die Feststellung, daß das Thread-Scheduling von Windows, insbesondere beim Warten auf Synchronisationsereignisse irgendwie ein Designproblem hat, wofür das Verändern der Timer-Granularität nur ein mittelprächtiger Fix ist. Fakt bleibt, daß das Scheduling von Win nur mäßig gut funktioniert und öfter mal praktisch zufällige Delays irgendwo zwischen 0 und 15,6ms produziert (je nach OS-Version und Hardware auch zwischen 0 und 10ms). Meiner Meinung nach sollten zwar alle Devs einfach so "mutig" sein und das über die Timerauflösung auf maximal 1ms Extraverzögerung limitieren, auch wenn man dann nicht ganz den MS-Empfehlungen folgt. Aber wenn sie es nicht machen, würde ich ihnen nicht ausschließlich den schwarzen Peter zuschieben (sondern letztendlich MS für das Design des Schedulers und die entsprechenden Anmerkungen zur Timergranularität).
Felixxz2
2013-07-29, 16:07:44
Sowas dacht ich mir auch, wenn man RAM dafür nutzt dann doch nicht teuren GDDR5. Aber wie du schon sagst braucht man den eh nicht, einfach nen kleinen Puffer rein und in passenden Momenten schreiben.
Schätze aber auch, dass die 5 GB erweitert werden. Kommt sicher iwann ein Update mit einem "finalen" OS bzw. der finalen Mindestspeichermenge und ab da können die Devs aus dem Vollen (6-7GB) schöpfen. Wird vermutlich auch bei der One so sein.
Skysnake
2013-07-29, 17:00:10
@1.:
Wenn man das aber durchgehend auf die Platte schreibt, dann ist das dennoch nicht toll. Zumindest würde ich mir das nicht wünschen als Hardwaredesigner, der am Ende auch für RMA geradestehen muss.
Wir gehen ja davon aus, dass der Buffer von 1GB für 15 min ausreicht. Das beudetet, ich schreib pro Stunde 4 GB an Daten. Wenn ich jetzt von einem "Hardcore"gamer ausgehe, der im Schnitt wirklich jeden Tag 5h zockt, und das 365 Tage im Jahr, dann macht das bei 2 Jahre Garantie insgesamt 14.600 GB, die man auf die Platte schreibt. Das klingt jetzt nicht soooo viel, aber man schreibt ja immer und immer und immer wieder wahrscheinlich auf die gleichen Bereicht der Platte. Da kann das dann schon eine ziemliche Abnutzung ergeben. Der Arm muss sich ja immer wieder über die gleichen Bereiche bewegen. Das alles im RAM zu buffern macht da schon Sinn. Vor allem kann man später ja immer noch einführen, dass das Zeug z.B. auf nen USB-Stick gespeichert wird, und man dann eben auch >>15 min aufnehmen kann.
@2.:
Ich versteh aber noch immer nicht, warum es davon abhängt, ob eine CPU OC'ed wurde, oder nicht. Das macht in meinen Augen absolut keinen Sinn. Echt traurig, das MS mit dem Sheduler noch solche Probleme hat... Eigentlich sollte das doch seit zich Jahren durch sein. Ich mein Linux hat das doch auch in den Griff bekommen für die unterschiedlichen Einsatzzwecke.
Felixxz2
2013-07-29, 17:12:36
Wo soll dann da ne Abnutzung sein? Bei 15 TB pro zwei Jahre könnte man ja sogar ne SSD nehmen, deren Zellen sich schneller abnutzen als bei HDDs. Von der Abnutzung her seh ich da wirklich 0 Problem. mMn gibts keinen Grund nicht mit nem kleinen Buffer permanent auf die Platte zu schreiben. 10 Mbps mit nem Buffer im RAM und dem eigenen HDD Buffer sollten wie gesagt auch leistungsmäßig nix ausmachen.
War das eigentlich bestätigt, dass es diesen Aufnahmebuffer gibt? Schon wieder vergessen :D
Skysnake
2013-07-29, 17:25:26
Das Problem an sich ist ja nicht die Menge, sondern das man immer und immer und immer wieder auf genau den gleichen Plattenbereich rumhampelt, und die Mechanik zwar sehr verträglich ist, ich mir aber bei den Platten die in ner Konsole verwendet werden schon vom billigstem vom billigem ausgehe, und da dann die xk Schreibzyklen schon anfangen weh zu tun.
Also nur bzgl der Mechanik des Lese-/Schreibarms. Die Platte wird man ja eh durchlaufen lassen. Das starten/stoppen ist viel schädlicher.
gnahr
2013-07-29, 17:30:52
skysnake erklärt dir auf verlangen auch, warum defragmentierte festplatten sich stärker abnutzen, wo alles immer und immer wieder in die selben areale kommt und dann geackert werden muss.
mit "dann springt der arm vielleicht hin und her zwischen den aufträgen" hätt er mich vielleicht auch bekommen, aber "abnutzung"... definitiv übers knie gebrochenes scharadenspiel.
Gipsel
2013-07-29, 17:58:55
Magnetische Speicher vertragen es locker, wenn man die gleichen Stellen mehrere Millionen Mal ummagnetisiert. Es gibt in dem Sinne keine Abnutzung. Das ist völlig unkritisch im Vergleich zu Flash-Speicher.
Abnutzung gibt es nur bei der Mechanik. Und wenn man da spielt, gibt es vermutlich sowieso jede Sekunde mehrere Positioniervorgänge, da ja das Spiel seine Assets auch in den RAM streamen muß. Da spielt ein zusätzlicher Zugriff alle paar Sekunden doch überhaupt keine Rolle (macht ein Windows-PC auch ständig, achtet mal drauf; da stört sich auch kaum einer dran). Das verringert die Lebensdauer (bei Festplatten im Schnitt mehrere hunderttausend Stunden Betrieb) vielleicht um 5%.
=> Das geht gegenüber anderen Fehlerquellen vollkommen unter.
prinz_valium
2013-07-29, 18:07:38
und ist der esram der xbox jetzt doch toll, wenn man jetzt doch nurnoch 4,5 oder 5gb ram zur verfügung hat?
Gipsel
2013-07-29, 18:19:33
und ist der esram der xbox jetzt doch toll, wenn man jetzt doch nurnoch 4,5 oder 5gb ram zur verfügung hat?
Das ändert an der Unterteilung in zwei Speicherpools, die nur in der Summe in etwa die Bandbreite wie bei der PS4 haben, doch überhaupt nichts. ;)
Im Endeffekt ergibt sich wohl immer ein gewisser Mehraufwand für die Devs, aber wohl selten bis nie Performancevorteile (und potentiell Performancenachteile, wenn die Aufteilung nicht 100% perfekt klappen will) gegenüber dem 176GB/s GDDR5 der PS4. Aber mal sehen, wie viele bisher unentdeckte Datenleitungen zum eSRAM Microsoft in der Zeit bis zum Launch noch findet. ;D
][immy
2013-07-29, 21:16:00
Gigbt es eigentlich rechenbeispiele was alles durch den gemeinsamen Speicherpool nun alles nicht mehr hin und her geladen werden muss? Einfach nur zum Verständnis was man darüber alles einsparen kann?
Btw, zwei Speicherpools haben auch durchaus auch Vorteile (wenn richtig implementiert). Immerhin stören sich so, bei den meisten Zugriffen CPU, GPU und alles andere nicht ständig gegenseitig.
Die Festplatte der PS4 darf man nun offziell wohl austauschen
http://www.golem.de/news/playstation-4-nicht-mehr-als-2-000-freunde-1307-100673.html
Ich vermute mal das die Garantie dann mit dem Wechsel erlischt :) aber immerhin. Wäre es vom Design her so schlimm gewesen auf der Rückseite eine Bucht zum austauschen zu machen?
dildo4u
2013-07-29, 21:58:51
[immy;9860196']
Die Festplatte der PS4 darf man nun offziell wohl austauschen
http://www.golem.de/news/playstation-4-nicht-mehr-als-2-000-freunde-1307-100673.html
Ich vermute mal das die Garantie dann mit dem Wechsel erlischt :) aber immerhin. Wäre es vom Design her so schlimm gewesen auf der Rückseite eine Bucht zum austauschen zu machen?
Garantie erlischt bei der PS3 nicht warum sollte es jetzt anderes sein?
http://www.ps3-talk.de/probleme-loesungen-und-hilfestellungen-rund-um-die-ps3/40254-faq-festplattenwechsel-mehr.html
Gipsel
2013-07-29, 22:00:13
[immy;9860196']Btw, zwei Speicherpools haben auch durchaus auch Vorteile (wenn richtig implementiert). Immerhin stören sich so, bei den meisten Zugriffen CPU, GPU und alles andere nicht ständig gegenseitig.Dafür hast Du einen festen Split der Bandbreite (und Stören tut sich da wenig, solange man der GPU genügend Arbeit anbietet, damit die die Latenzen anständig verstecken kann). Wenn die Summe der Bandbreiten der beiden Speicherpools deutlich höher wäre als die vom gemeinsamen, dann kann man sicher Performancevorteile herausholen (auch wenn man Flexibilität verliert). Aber hier haben wir ja offenbar den Fall, daß nur wenn es praktisch optimal läuft, die XB1 mit der PS4 gleichziehen kann.
Mal ein stark vereinfachtes Beispiel, um das prinzipielle Problem zu verdeutlichen:
Irgendein Renderabschnitt benötigt deutlich mehr Texturfetches aus sehr hochauflösenden Texturen, benutzt aber kaum die ROPs, beim nächsten ist es genau andersrum, kaum Texturfetches aber die ROPs arbeiten am Bandbreitenlimit. Wie willst Du da die Resourcen gut auf zwei Speicherpools verteilen?
Angenommen man legt bei der XB1 das Rendertarget in den eSRAM und die Texturen in den DDR3. Beim ersten Abschnitt limitiert der DDR3 und der eSRAM dreht Däumchen, beim zweiten Abschnitt ist das DDR3-Interface unausgelastet aber dafür der eSRAM am Anschlag. Bei der PS4 alles kein Problem, man hat immer 176GB/s. Das ist gar nicht so einfach, das wirklich perfekt aufzuteilen, da man immer Höhen und Tiefen bei den Anforderungen hat.
Wenn die XB1 jetzt natürlich z.B. ein 192Bit GDDR5 Interface (5,5Gbps => 132GB/s) + 32MB eSRAM mit 204GB/s hätte, ja dann hätte es die PS4 doch schon mal gleich erheblich schwerer von der Performance-Seite (wobei so eine XB1 dann locker auch gleich noch ein paar mehr CUs und mehr ROPs vertragen könnte und dann davonziehen könnte, aber soviel wollte MS dann doch nicht in die Hardware investieren ;)).
Skysnake
2013-07-30, 00:45:34
skysnake erklärt dir auf verlangen auch, warum defragmentierte festplatten sich stärker abnutzen, wo alles immer und immer wieder in die selben areale kommt und dann geackert werden muss.
mit "dann springt der arm vielleicht hin und her zwischen den aufträgen" hätt er mich vielleicht auch bekommen, aber "abnutzung"... definitiv übers knie gebrochenes scharadenspiel.
Lern lieber lesen. Ich hab nur von der Mechanik des Lese-/Schreibarmes geredet...
Magnetische Speicher vertragen es locker, wenn man die gleichen Stellen mehrere Millionen Mal ummagnetisiert. Es gibt in dem Sinne keine Abnutzung. Das ist völlig unkritisch im Vergleich zu Flash-Speicher.
Das weiss ich auch, deswegen rede ich ja nur vom Lese-/Schreibarm.
Abnutzung gibt es nur bei der Mechanik. Und wenn man da spielt, gibt es vermutlich sowieso jede Sekunde mehrere Positioniervorgänge, da ja das Spiel seine Assets auch in den RAM streamen muß. Da spielt ein zusätzlicher Zugriff alle paar Sekunden doch überhaupt keine Rolle (macht ein Windows-PC auch ständig, achtet mal drauf; da stört sich auch kaum einer dran). Das verringert die Lebensdauer (bei Festplatten im Schnitt mehrere hunderttausend Stunden Betrieb) vielleicht um 5%.
=> Das geht gegenüber anderen Fehlerquellen vollkommen unter.
Also meine HDD unter Windows haben eigentlich nicht sooo viel geroedelt, aber man merkt schon einen Unterschied zwischen der Windows Platte und den Datengraebern. Wenn mir mal ne Platte Probleme gemacht hat wegen Headcrash, oder sonstigem, dann war es immer die Windowsplatte, wobei ich auch sagen muss, die Platten streuen teils sehr stark. Hab hier Platten mit >3 Jahren reiner Betriebsdauer, aber hatte auch schon Platten die nach ~1 Jahr uebern Jordan sind.
Und ja, die Mechanik ist Robust, aber wuerde man immer nur ~32MB oder so schreiben, wuerde man staendig rum roedeln. Ueber die Garantiedauer von 2 Jahren kommt da schon einiges zusammen, was eben die Mechanik belastet. Lass es nur 1-4% mehr Ausfallrate sein, dann kostet dich das richtig viel Geld.
Gipsel
2013-07-30, 04:40:29
Und ja, die Mechanik ist Robust, aber wuerde man immer nur ~32MB oder so schreiben, wuerde man staendig rum roedeln.Immer 32MB schreiben (also warten, bis ein 32MB Puffer voll ist und den dann komplett schreiben) würde nur einen Seek alle 30 Sekunden bedeuten (bei den 8-9MBit Datenrate, damit man 15 Minuten in 1 GB bekommt). Also unter "rödeln" verstehe ich da was anderes. Wie gesagt wird das Streaming der Spielassets normalerweise viel mehr Zugriffe erfordern (mehrere pro Sekunde).
Da aber 32MB schreiben schon merklich dauert (~0,2s+Seektime), wenn man das mit den Framelatenzen vergleicht, würde ich sogar eher immer nur möglichst <5MB am Stück schreiben wollen, also wirklich alle paar (wenige) Sekunden.
gnahr
2013-07-30, 07:14:14
Lern lieber lesen. Ich hab nur von der Mechanik des Lese-/Schreibarmes geredet...
das ist aber ne blöde ausrede, denn das gibts inklusive oder seit wann schreibt man auf festplatten ohne den lese-schreibarm zu benutzen?
][immy
2013-07-30, 10:04:07
Dafür hast Du einen festen Split der Bandbreite (und Stören tut sich da wenig, solange man der GPU genügend Arbeit anbietet, damit die die Latenzen anständig verstecken kann). Wenn die Summe der Bandbreiten der beiden Speicherpools deutlich höher wäre als die vom gemeinsamen, dann kann man sicher Performancevorteile herausholen (auch wenn man Flexibilität verliert). Aber hier haben wir ja offenbar den Fall, daß nur wenn es praktisch optimal läuft, die XB1 mit der PS4 gleichziehen kann.
Mal ein stark vereinfachtes Beispiel, um das prinzipielle Problem zu verdeutlichen:
Irgendein Renderabschnitt benötigt deutlich mehr Texturfetches aus sehr hochauflösenden Texturen, benutzt aber kaum die ROPs, beim nächsten ist es genau andersrum, kaum Texturfetches aber die ROPs arbeiten am Bandbreitenlimit. Wie willst Du da die Resourcen gut auf zwei Speicherpools verteilen?
Angenommen man legt bei der XB1 das Rendertarget in den eSRAM und die Texturen in den DDR3. Beim ersten Abschnitt limitiert der DDR3 und der eSRAM dreht Däumchen, beim zweiten Abschnitt ist das DDR3-Interface unausgelastet aber dafür der eSRAM am Anschlag. Bei der PS4 alles kein Problem, man hat immer 176GB/s. Das ist gar nicht so einfach, das wirklich perfekt aufzuteilen, da man immer Höhen und Tiefen bei den Anforderungen hat.
Wenn die XB1 jetzt natürlich z.B. ein 192Bit GDDR5 Interface (5,5Gbps => 132GB/s) + 32MB eSRAM mit 204GB/s hätte, ja dann hätte es die PS4 doch schon mal gleich erheblich schwerer von der Performance-Seite (wobei so eine XB1 dann locker auch gleich noch ein paar mehr CUs und mehr ROPs vertragen könnte und dann davonziehen könnte, aber soviel wollte MS dann doch nicht in die Hardware investieren ;)).
es ging mir jetzt nicht um den vergleich zu PS4, sondern nur um den allgemeinen Umstand das 2 Speicherpools nicht nur Nachteile haben. Nur muss man dann zusehen die speicherpools nach Möglichkeit nicht zu wechseln bzw. so selten wie möglich.
Dram hat ja den Nachteil nicht gleichzeitig lesen und schreiben zu können (trifft natürlich auch auf den ddr3 speicher der xbone zu). Wenn dieser nun von mehreren stellen gleichzeitig aufgefordert wird dazu zu lesen/schreiben, muss immer einer warten. man verliert ja dadurch nicht nur die tatsächlich genutzte Bandbreite, sondern auch die theoretische die durch die Bursts zur Verfügung stehen würde. Sprich jeder Zugriff auf den ddr3 Speicher bremst potentiell andere zugriffe aus. solange man also im esram bleiben kann, dürfte man sehr effizient arbeiten können. natürlich wäre es dabei schon schöner, wenn der esram ein wenig größer ausfallen würde, damit da auch mal die ein oder andere Textur reinpassen würde.
Skysnake
2013-07-30, 11:15:16
das ist aber ne blöde ausrede, denn das gibts inklusive oder seit wann schreibt man auf festplatten ohne den lese-schreibarm zu benutzen?
Meine Fresse, stellst du dich grad doof, oder kannst du es nicht verstehen?
Ich habs EXTRA dazu geschrieben, das es sich nur auf die Mechanik des Lese-/Schreibarmes bezieht, weil nur! dort eine zusätzliche Abnutzung entsteht.... Damit wollte ich genau so dummen Kommentaren wie dem von dir vorbeugen, dass doch ne Platte gar nicht verschleißt, also die Magnetscheiben, was ja auch stimmt...
Aber der Antrieb sollte eben auch nicht mehr verschleißen, da man die HDD eh nicht abschalten wird bei einer Konsole. Die Start/Stop Cyclen wären viel schädlicher, als Sie einfach durch laufen zu lassen... Daher bleibt als einziges Teil eben der Lese-/Schreibkopf, übrig, der sich eben mehr bewegen muss, und damit auch schneller verschleißt, und ich würde das nicht zwingend vernachlässigen, denn der Antrieb der Platter ist seltenst ein Problem, wenn etwas an einer HDD kaputt geht, dann eigentlich der Lese-/Schreibarm.
Lord_X
2013-07-30, 11:35:26
Weiss nicht ob der Artikel schon verlinkt wurde:
Rein theoretisch: Können Multi-Plattform-Spiele auf der Xbox One mit der PlayStation 4 mithalten?
http://www.eurogamer.de/articles/2013-07-29-rein-theoretisch-koennen-multi-plattform-spiele-auf-der-xbox-one-mit-der-playstation-4-mithalten
http://www.eurogamer.net/articles/digitalfoundry-can-xbox-one-multi-platform-games-compete-with-ps4
Botcruscher
2013-07-30, 12:10:29
Bei solchen Artikeln fragt man sich immer ob da Sommerloch ist und Klicks nötig sind. Die Frage kann man schon in einem Satz beantworten. Ja, weil für dem kleinsten gemeinsamen Nenner entwickelt wird. Der Rest bekommt dann mehr Auflösung oder mit viel Glück nicht die Sparversion eines Effektes.
Dazu die Hardware einer Konsole simulieren.:upicard: He Leute, wir haben da mal nach der Rechenleistung passende PC-Hardware zusammengebaut und lassen das unter Windows laufen. Da läuft C3 echt flüssig!!!!11111 Ist ja nicht so als würde der Softwareunterbau irgendwelche Unterschiede machen. Können die bitte mal die PS3 und Skyrim simulieren. Bitttteeee.
Iruwen
2013-07-30, 12:27:21
Meine Fresse, stellst du dich grad doof, oder kannst du es nicht verstehen?
Ich habs EXTRA dazu geschrieben, das es sich nur auf die Mechanik des Lese-/Schreibarmes bezieht, weil nur! dort eine zusätzliche Abnutzung entsteht.... Damit wollte ich genau so dummen Kommentaren wie dem von dir vorbeugen, dass doch ne Platte gar nicht verschleißt, also die Magnetscheiben, was ja auch stimmt...
Aber der Antrieb sollte eben auch nicht mehr verschleißen, da man die HDD eh nicht abschalten wird bei einer Konsole. Die Start/Stop Cyclen wären viel schädlicher, als Sie einfach durch laufen zu lassen... Daher bleibt als einziges Teil eben der Lese-/Schreibkopf, übrig, der sich eben mehr bewegen muss, und damit auch schneller verschleißt, und ich würde das nicht zwingend vernachlässigen, denn der Antrieb der Platter ist seltenst ein Problem, wenn etwas an einer HDD kaputt geht, dann eigentlich der Lese-/Schreibarm.
Das ist etwa so relevant wie eine geringfügige Spannungserhöhung bei CPUs. Hat theoretisch einen Effekt, in der Praxis aber keinerlei Bedeutung. Ich benutz hier diverse billige WD Greens im RAID aus einer Charge als man noch TLER aktivieren konnte, die haben 29548 Power_On_Hours, also über 3,5 Jahre und tun eigentlich immer was, Start_Stop_Count bzw. Power_Cycle_Count ist 48 also sind die praktisch durchgelaufen, das ist denen total latte. Und mit knapp 40°C sind die dabei sogar noch ziemlich warm. Bei der Lebensdauer moderner Platten spielt das keine Rolle, wenn die Platte abranzt hätte sie das auch ohne die zusätzlichen Zugriffe getan.
gnahr
2013-07-30, 13:33:10
Ich habs EXTRA dazu geschrieben, das es sich nur auf die Mechanik des Lese-/Schreibarmes bezieht
jetzt lass dir bitte mal die heiße luft aus der birne und versuch es nachzuvollziehen. ob nun vom hauptspeicher kommend etwas geschrieben wird in bestimmte areale (wozu der kopf von seiner normalen arbeit auf nen bestimmten bereich springen soll, wie du es konstantiert hast um es zu überspinnen) oder wie beim defrag von gebiet x genommen und auf ein bestimmtes areal sortiert positioniert wird ist genau das gleiche. beides bedingt zum schreiben die häufige positionierung des arms was die ausrichtung über den hebel nötig macht.
und nun komm bitte mal mit zahlenwerk um die ecke. vor den ssds gab es lange genug hdds auch in großen raids zum cachen und mir fällt keine werbung mehr für besondere io-platten ein die darauf getrimmt wären abseits des normalen dauereinsatzes. der alltag einer hdd setzte und setzt nun bereits schon mehr als genug sprünge vorraus (spätestens seit es mehr-platter gibt), dass dieses bisschen wohl kaum mehr ins gewicht fällt. da vor allem die zeit beim spurwechsel zählt war schon immer die beschleunigung der arm-bewegung ein entscheidender faktor und bis aufs äußerste ausgereizt. es ist pure bauernfängerei wenn dann jemand die floskel in den raum stellt "schon 2-3% ausfall resultieren in gewaltigen kosten." ach. nach knapp 60jahren einsatz von rotierenden festplatten hat man mehr als genug erfahrung um hier keinen spekulativen betrieb fahren zu müssen.
Gipsel
2013-07-30, 14:34:56
[immy;9860581']es ging mir jetzt nicht um den vergleich zu PS4, sondern nur um den allgemeinen Umstand das 2 Speicherpools nicht nur Nachteile haben. Nur muss man dann zusehen die speicherpools nach Möglichkeit nicht zu wechseln bzw. so selten wie möglich.Ein gemeinsamer Speicherpool, der so schnell ist wie die Summe der beiden einzelnen, ist prinzipiell immer besser (bei Vernachlässigung von anderen Faktoren wie unterschiedlichen Latenzen).
[immy;9860581']Dram hat ja den Nachteil nicht gleichzeitig lesen und schreiben zu können (trifft natürlich auch auf den ddr3 speicher der xbone zu).Solange man keinen echten multiported SRAM verbaut (was bei den 32MB kein vernünftiger Ingenieur vorschlagen wird), trifft das auch da zu. Und es hängt auch immer von der internen Organisation in Bänke/Tiles ab. Die Bandbreite des eSRAM in der XB1 beträgt 128Byte/Takt (wenn man mal nur die 102,4GB/s annimt, angeblich können es ja unter bestimmten Umständen auch noch etwas mehr werden). Das funktioniert nur vernünftig bei Zugriffen mit 64Byte-Cacheline-Granularität, wenn mehrere Zugriffe parallel erfolgen. Das SRAM-Interface kann also vermutlich mindestens zwei 512Bit-Zugriffe parallel abarbeiten (also in einem Takt, in flight sind wegen Pipelining natürlich typischerweise noch erheblich mehr, wenn man die Bandbreite ausnutzen will) und solange es keine Bankkonflikte gibt (es ist nur maximal ein Zugriff auf eine SRAM-Bank möglich, die Zugriffe müssen also in unterschiedlichen Bänken landen), können auch diese zwei Zugriffe parallel ausgeführt werden (egal ob es 2 Reads, 2 Writes oder 1 Read und 1 Write sind), da eine Bank von der benachbarten nichts mitbekommt und im Prinzip unabhängig arbeitet. Nur die Ansteuerlogik gibt vor, wie viele Bänke man maximal gleichzeitig ansteuern kann (und wenn man einfach halten will, faßt man größere Bereiche zusammen, limitiert also ein wenig die Anzahl der einzeln ansteuerbaren Bänke zum Preis von mehr möglichen Bankkonflikten). Ich würde aber bald vermuten, das ist entsprechend den Interfaces zum DDR3-Speichercontroller auf vier 256Bit-Transaktionen pro Takt beschränkt (2 Takte Transfer pro Cacheline)
[immy;9860581']Wenn dieser nun von mehreren stellen gleichzeitig aufgefordert wird dazu zu lesen/schreiben, muss immer einer warten. man verliert ja dadurch nicht nur die tatsächlich genutzte Bandbreite, sondern auch die theoretische die durch die Bursts zur Verfügung stehen würde. Sprich jeder Zugriff auf den ddr3 Speicher bremst potentiell andere zugriffe aus.Also ganz prinzipiell funktionieren beim DDR3/GDDR5 auch unabhängige parallel Zugriffe, ganz einfach weil die einzelnen Speichercontroller unabhängig voneinander arbeiten können. Die XB1 besitzt offenbar vier 64Bit breite DDR3-Kanäle (die übertragen in einem Burst jeweils 64Byte, also genau eine Cacheline, zumindest hat MS das so in den bei vgleaks aufgetauchten Unterlagen aufgemalt). Man kann ohne Probleme an eine Speicherstelle, die an einem bestimmten Kanal hängt, mit voller Geschwindigkeit schreiben, während man von einer anderen Speicherstelle an einem anderen Kanal mit voller Geschwindigkeit lesen kann. Auch hier sind wegen der vier Controller mindestens vier Operationen gleichzeitig in flight. Und auch SDRAM (was DDR3 und GDDR5 immer noch sind) unterstützen Pipelining, im Prinzip (d.h. unter bestimmten Umständen) kann man Bursts von unterschiedlichen Speicherstellen nahtlos aneinanderhängen. Allerdings ist das Managing von DRAM erheblich komplizierter als von SRAM. Jeder DRAM-Chip hat intern ebenfalls mehrere Bänke, wo dann zusätzlich über Spalten- und Zeilenadresse eine bestimmte Speicherstelle angesprochen wird. Also GDDR5 habe ich mir gerade mal angesehen (DDR3 wird ähnlich funktionieren), GDDR5-Chips besitzen intern z.B. 16 Bänke. In jeder Bank kann nur eine Zeile offen sein (in jeder Bank eine andere), also insgesamt 16 Zeilen pro Chip. Es können jetzt Zugriffe eines Typs (also entweder alles Lesen oder alles Schreiben) auf alle offenen Zeilen von beliebiger Spaltenadresse beliebig gemixt werden und die Burst passen nahtlos aneinander (also man erreicht Peak-Transferrate). Was extra Zeit kostet, sind Zeilenwechsel (die aktuelle muß geschlossen werden und eine andere aktiviert werden, das kostet Latenz, die man ein wenig verstecken kann, wenn man noch Zugriffe auf andere offene Zeilen (in anderen Bänken) hat [so daß nicht alle Command-Takte genutzt werden, die sonst leeren Slots können dann für das Schließen und Öffnen von anderen Bänken quasi im Hintergrund genutzt werden]) oder Read-Write-Turnarounds. Paralleles Lesen und Schreiben geht nur auf unterschiedlichen Kanälen (unterschiedlichen DRAM-Chips, bei GDDR5 ist ein Kanal äqivalent mit einem Chip und 32bit breit). Auch kann man nicht einen Lese-Burst direkt auf einen Write-Burst folgen lassen (oder andersrum) wie das bei zwei Lese- oder zwei Schreib-Bursts möglich ist. Das ist also im Prinzip der Worstcase beim Vergleich von DRAM und SRAM, wahlfreies gemixten Lesen und Schreiben. Hier möglichst clevere Controller zu bauen, die die Bandbreite maximal ausnutzen, erfordert viel Aufwand und kostet im Prinzip auch Latenz (man kann z.B. mehr Speicherzugriffe sammeln, bevor man sie ausführt, um sie dann optimal anzuordnen). Das Problem ist jetzt der gemeinsame Controller und die unterschiedlichen Anforderungen für CPU und GPU. Bei der GPU kann sich der Controller üblicherweise erlauben, etwas länger zu warten um möglichst effizient die Bandbreite zu nutzen, da die zusätzliche Latenz meist gut toleriert wird. Bei einer CPU ist das eher nicht so, hier würde man präferieren, möglichst schnell die Transaktionen auszuführen (also die Latenz zu minimieren), auch wenn das theoretisch verfügbare Bandbreite kostet (die die CPU aber in der Situation sowieso nicht nutzen könnte). Was macht man also, wenn die CPU und GPU gleichzeitig zugreifen wollen und der CPU-optimierte Zugriff der GPU Bandbreite kosten würde? Das ist ein ziemlich verzwicktes Optimierungsproblem, da gibt es vermutlich keinen wirklichen Königsweg.
Aber das gleiche Problem hat die XB1 beim DDR3 ja auch.
Da kann man hoffen, daß die Devs nicht versuchen, ständig wild kreuz und quer zu lesen und zu schreiben sondern sich vernünftige Zugriffsmuster überlegen (die sind ja nicht blöd und das hilft genauso auch bei traditionellen CPUs) und natürlich auch auf die Caches bauen (sowohl CPU als auch GPU). Für ROP-Zugriffe auf den Speicher erhöhen ja z.B. die dort verbauten spezialisierten Caches die Burstlängen deutlich (weil immer nur 64 Pixel auf einmal gelesen oder geschrieben werden), wodurch diese read-write-turnaround Problematik deutlich minimiert wird (man erreicht trotz gemischter Lese-/Schreib-Vorgänge bis deutlich über 90% der theoretischen Transferrate).
[immy;9860581']solange man also im esram bleiben kann, dürfte man sehr effizient arbeiten können. natürlich wäre es dabei schon schöner, wenn der esram ein wenig größer ausfallen würde, damit da auch mal die ein oder andere Textur reinpassen würde.Tja, leider ist der eSRAM aber nur so groß, daß da oft nicht viel mehr als das Rendertarget reinpassen wird. Und gerade für die ROP-Zugriffe kann er seinen Vorteil der nicht existenten Read-Write-Turnaround-Latenz oft nicht wirklich ausspielen.
Als noch eDRAM im Spiel war, hatte ich ja auf 64MB gehofft. Nun ja.
Felixxz2
2013-07-30, 14:41:43
Wieso hat man eigentlich keinen größeren on package eDRAM genommen?
Gipsel
2013-07-30, 15:06:29
Wieso hat man eigentlich keinen größeren on package eDRAM genommen?
MS denkt, das wäre langfristig deutlich teurer und selbst kurzfristig keine große Ersparnis. Man benötigt ein zusätzliches Die, ein zusätzliches Interface auf dem SoC sowie auch noch ein teureres Package. Beim Shrink hat man dann einen Kostennachteil gegenüber der eSRAM-Lösung, die eben als Vorteil auch noch on-Die ist und damit niedrigere Latenzen ermöglicht (es schadet nicht, auch wenn es nicht immer so viel hilft, manchmal aber eben schon).
][immy
2013-07-30, 15:13:54
@Gipsel
danke für die Ausführliche Erklärung :)
Wieso hat man eigentlich keinen größeren on package eDRAM genommen?
die frage kann wohl wirklich nur MS beantworten.
hier kursieren ja gerüchte, weil sich der esram leicht herstellen lässt, aber wenn man bedenkt was mit mit den ganzen Transistoren alles hätte anstellen können ^^
ein 64mb/128mb 256GB/s schneller edram wäre sicher nicht verkehrt gewesen, aber MS wird sich wohl irgendwas dabei gedacht haben. die werden sicherlich einige Möglichkeiten durchprobiert haben und der esram muss wohl die beste Option gewesen sein. man verbaut den ja nicht aus jux. immerhin reichte ja bei der xbox 360 schon ein 10 mb edram aus um einiges an Bandbreite zum hauptspeicher einzusparen. Jetzt sind es 32mb, mit etwas weniger Bandbreite dafür aber niedrigeren latenzen. nunja, immernoch besser als nur DDR3 Speicher :)
Von der Größe her, scheint ja DX11.2 genau für die xbone gemacht zu sein (die demo mit den 16mb grafikspeicher kommt mir da in den sinn), aber irgendwie ist der Speicher trotzdem klein.
ich finde aber was man noch sehr schlecht einschätzen kann ist wie sich eine CPU mit GDDR Speicher verhält. die xbox 360 wo die CPU ja zwangsweise am GDDR3 speicher hängt ist einfach nur lahm. Mag jetzt auch nur an der CPU liegen, aber sonst ist mir jetzt kein System bekannt wo wirklich eine CPU mit dem speicher gepaart wurde.
M4xw0lf
2013-07-30, 15:59:27
[immy;9860966']@Gipsel
danke für die Ausführliche Erklärung :)
Gipsel ist der einzige, von dem ich so ein Wall of Text-Monster lese :biggrin:
Skysnake
2013-07-30, 16:56:51
Das ist etwa so relevant wie eine geringfügige Spannungserhöhung bei CPUs. Hat theoretisch einen Effekt, in der Praxis aber keinerlei Bedeutung. Ich benutz hier diverse billige WD Greens im RAID aus einer Charge als man noch TLER aktivieren konnte, die haben 29548 Power_On_Hours, also über 3,5 Jahre und tun eigentlich immer was, Start_Stop_Count bzw. Power_Cycle_Count ist 48 also sind die praktisch durchgelaufen, das ist denen total latte. Und mit knapp 40°C sind die dabei sogar noch ziemlich warm. Bei der Lebensdauer moderner Platten spielt das keine Rolle, wenn die Platte abranzt hätte sie das auch ohne die zusätzlichen Zugriffe getan.
Von Einzelergebnissen kannst du keinerlei Rückschlüsse auf die Allgemeinheit ziehen.
Von google gabs mal eine gute Arbeit dazu, wie sich Temps auf die Haltbarkeit von Platten auswirken usw. MS und Sony verbauen halt nicht nur 10/100/1000 Platten, sondern ein paar Millionen, und dabei auch keine Serverplatten, die etwas robuster gebaut sind, sondern ziemlich sicher mit das billigste was Sie finden können.
Für die ersten 1-2 Jahre ist die Entscheidung daher für mich nachvollziehbar. Im Moment tuts nicht weh, den Speicher dafür zu "verballern" und in 1-2 Jahren, wenn man auch mer Performance hat, und auch mehr Erfahrung bzgl Ausfallraten usw kann man es noch immer ändern.
Iruwen
2013-07-30, 17:54:46
Deshalb erwähnte ich die Temperatur auch nur als Zusatzinfo, ich kenne die Zahlen. Hab auch schon lange genug in Rechenzentren gearbeitet und Platten über den Jordan gehen sehen, auch wenn die um Größenordnungen kleiner waren als die von Google oder MS (oder Facebook oder Amazon usw.), das was du meintest fällt schlicht nicht ins Gewicht. Bestätigen die Ergebnisse von Google auch:
Overall, we expected to notice a very strong and consistent correlation between high utilization and higher failure rates. However our results appear to paint a more complex picture. First, only very young and very old age groups appear to show the expected behavior. After the first year, the AFR of high utilization drives is at most moderately higher than that of low utilization drives. The three-year group in fact appears to have the opposite of the expected behavior, with low utilization drives having slightly higher failure rates than high utilization ones.
Das ist das was ich meinte, wenn die Platte früh stirbt hätte sie das früher oder später auch bei geringer Belastung getan. Wirklich auseinander driften die Ergebnisse erst bei hoher Last nach fünf Jahren. Aber wir reden hier eben gar nicht über hohe Last (im Sinne der Google Untersuchung) sondern über einen gelegentlichen zusätzlichen Zugriff während des Spielens, insofern ist der Effekt unerheblich.
Skysnake
2013-07-30, 18:01:29
Ah, du hast nen Link dazu. Kannst du nochmal raus suchen, was Sie unter "high utilization" gemeint haben? Soweit ich mich erinnere war das nämlich verdammt wenig.
Vor allem muss man es aber in Relation zum sonstigen Zugriff setzen. Das Speichern auf Platte hätte eine konstante Schreibrate von ~1,13MB/s zur Folge, wenn man von 1GB/15min ausgeht.
Wieviel "streamt" denn ein modernes Game so im Schnitt! in der Sekunde? Also jetzt wirklich auf den PC bzw NextGen übertragen. Coda weiß das doch sicherlich ;)
Iruwen
2013-07-30, 18:07:35
Wird nicht genau angegeben:
It is difficult for us to arrive at a meaningful numerical utilization metric given that our measurements do not provide enough detail to derive what 100% utilization might be for any given disk model. We choose instead to measure utilization in terms of weekly averages of read/write bandwidth per drive. We categorize utilization in three levels: low, medium and high, corresponding respectively to the lowest 25th percentile, 50-75th percentiles and top 75th percentile. This categorization is performed for each drive model, since the maximum bandwidths have significant variability across drive families. We note that using number of I/O operations and bytes transferred as utilization metrics provide very similar results.
Skysnake
2013-07-30, 18:57:06
hmm kannste mal den Link posten?
EDIT:
Ok hier ist der Link: findet sich leider wirklich nichts vernünftiges dazu... http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/de//archive/disk_failures.pdf
Ich hab mir aber mal die Enterprise SSDs angegeben, und die sind bei MLC im Bereich von 6-240 MB/s write im 24/7/365 Betrieb angesetzt als Maximum. Die "Werbung" ist da ziemlich irreführend...
hier der Link http://www.hgst.com/enterprise-ssd/mlc-solid-state-drives/ultrastar-ssd800mh
Wenn man sich da write anschaut, kommt man sich random write anschaut, kommt man nur noch auf 1/4. Wenn wir das in Betracht ziehen, sind wir irgendwo bei 1-75MB/s, die man wohl mit einer Server HDD als konstante Schreibrate erwarten kann.
Interessant hierzu ist auch das hier: http://www.cloudiquity.com/2009/03/is-average-utilisation-of-servers-in-data-centers-really-between-10-and-15/
Der größte Teil vom Storage ist halt Cold-Storage.
Zieht man das mit in die Betrachtung, werden selbst die Top25% nur wenige 10MB/s schreiben, und das bei ServerHardware, die ja nochmal deutlich standfester ist, als das, was wir in Consumerelektronik sehen. Da kllingen einfach mal so >1MB/s zusätzliche 24/7 Schreibrate für mich alles andere als erstrebenswert.
Gipsel
2013-07-30, 20:04:02
Zieht man das mit in die Betrachtung, werden selbst die Top25% nur wenige 10MB/s schreiben, und das bei ServerHardware, die ja nochmal deutlich standfester ist, als das, was wir in Consumerelektronik sehen. Da kllingen einfach mal so >1MB/s zusätzliche 24/7 Schreibrate für mich alles andere als erstrebenswert.
Ich denke, es ging Dir um die Mechanik? Für die sind die Schreibraten vollkommen irrelevant, die PS4/XB1 verbauen doch magnetische Fetsplatten, keine SSDs (da ist die Schreibrate wichtig wegen der arg begrenzten Anzahl der Schreibzyklen). Hier zählen also nur die Stunden, die die Festplatte dreht, die Stunden "heads flying" (also nicht geparkt), die Anzahl der Start/Stop-Zyklen und noch die akkumulierte Anzahl sowie Distanz der Seeks. Sequentielles Lesen/Schreiben belastet die Elektronik der Platte, nicht die Mechanik.
Und wie schon mal geschrieben macht ein zusätzlicher Seek-Vorgang alle paar Sekunden wirklich gar nichts aus. Jeder Windows-PC im Idle macht das ständig. Ein einziges Mal Office starten (oder jedes andere etwas größere Programm) produziert vermutlich etliche hundert Seeks oder so, Windows booten viele tausend. Wenn das die Platten wesentlich kümmern würde, müßte man die alle paar Monate austauschen, wenn man mit dem Rechner auch überhaupt nur irgendwas etwas Datenintensiveres macht.
=Floi=
2013-07-31, 00:08:20
Ronny, du könntest dich wirklich etwas diplomatischer ausdrücken. Der Ton macht die Musik. IMO ist es eine wirklich gute Sache, dass wir hier überhaupt ein paar Entwickler von kommerziellen Gameengines im Forum haben, die auch noch etwas dazu sagen können. Die wenigen, die hier sind, sollte man nicht vertreiben sondern so viel wie möglich aufsaugen, was sie hier beitragen. Zumal Coda die Engine mit hoher Wahrscheinlichkeit besser kennt als Demirug und vermutlich um Größenordnungen mehr spezifisches Wissen haben als alle anderen hier im Thread zusammen.
was kann man denn an seinen teils einsilbigen antworten groß aufsaugen?
auch coda hat nicht immer recht! das ist keine kritik, sondern nur eine feststellung.
wirklich ins eingemachte gehen leider nur die "normalen" experten. Die entwickler könnten ja auch eigene tech pdfs und andere sachen hier posten. Wäre sicherlich mehr werbung und bestätigung ihres könnens. das C3 gras ist zwar zu tode optimiert, aber kaum jemand weis das (weil er es nur einmal erwähnte) und weil es sonst nirgends steht. Die engine macht da wohl dynamisch neue threads auf. Solche sachen gehen einfach total unter und gerade softwareseiting gibt es fast garkeine diskussionen.
robbitop
2013-07-31, 08:16:00
Also von Coda und Alphatier habe ich schon eine Größenordnung mehr gelernt als von allen anderen. Man kann Dinge auch in einem angemessenen Ton äußern. Aber das ist hier OT.
][immy
2013-08-01, 00:20:28
Was ist eigentlich aus der xbox mini geworden?
Also das ding, was eine kleiner xbox 360 sein sollte ohne Laufwerk, das man dann auch mit der xbox one hätte verbinden können um auch Disc-spiele zu spielen und ansonsten nur games on demand + apps für die 360.
Hat sich hier irgendetwas bestätigt?
Besonders da bei der xbox one ein HDMI-in vorhanden ist, wäre eine Steuerung über eine gemeinsame Oberfläche dann kaum noch ein Problem. Ein zusätzliches USB-Kabel dann noch für die Laufwerksverbindung und schon könnte es gehen (theoretisch).
Interessant fände ich das Konzept schon, nur leider hat sich's bisher ja nicht bestätigt.
Crazy_Bon
2013-08-01, 12:03:13
[immy;9862995']Was ist eigentlich aus der xbox mini geworden?
Also das ding, was eine kleiner xbox 360 sein sollte ohne Laufwerk, das man dann auch mit der xbox one hätte verbinden können um auch Disc-spiele zu spielen und ansonsten nur games on demand + apps für die 360.
Hat sich hier irgendetwas bestätigt?
Besonders da bei der xbox one ein HDMI-in vorhanden ist, wäre eine Steuerung über eine gemeinsame Oberfläche dann kaum noch ein Problem. Ein zusätzliches USB-Kabel dann noch für die Laufwerksverbindung und schon könnte es gehen (theoretisch).
Interessant fände ich das Konzept schon, nur leider hat sich's bisher ja nicht bestätigt.
Daraus ist nicht geworden, ausser die Xbox360 im neuen Design.
http://www.amazon.de/Xbox-360-E-Konsole-neuen-Design/dp/B00DDMC7US/ref=sr_1_13?ie=UTF8&qid=1375351031&sr=8-13&keywords=xbox+360
Vielleicht hat sie schon jemand von hier gekauft und kann berichten, was sich in Sachen Lautstärke noch weiter getan hat.
Da die XBO einen HDMI-Eingang hat, kann man jedes beliebiges Gerät mit HDMI-Ausgang durchschleifen lassen, ohne einen HDMI-Eingang am TV/Beamer ect. zu opfern.
Hunter93
2013-08-02, 15:02:55
Xbox One GPU speed has been increased since E3, says Microsoft. (Up 53MHz = 853MHz / which means 1.3TFlop GPU) (http://webcache.googleusercontent.com/search?q=cache:www.gamespot.com%2Fnews%2Fxbox-one-gpu-speed-has-been-increased-since-e3-says-microsoft-6412435&ei=gpj7UfntKfao4AOxn4HoCw&usg=AFQjCNHS-VGDI1Nu-PJql91aVKWduVajdQ&sig2=vsIneqyWZrhhOm9i7tkzew&bvm=bv.50165853,d.dmg)
Drill
2013-08-02, 15:18:42
Xbox One GPU speed has been increased since E3, says Microsoft. (Up 53MHz = 853MHz / which means 1.3TFlop GPU) (http://webcache.googleusercontent.com/search?q=cache:www.gamespot.com%2Fnews%2Fxbox-one-gpu-speed-has-been-increased-since-e3-says-microsoft-6412435&ei=gpj7UfntKfao4AOxn4HoCw&usg=AFQjCNHS-VGDI1Nu-PJql91aVKWduVajdQ&sig2=vsIneqyWZrhhOm9i7tkzew&bvm=bv.50165853,d.dmg)
bester kommentar aus dem Eurogamer artikel (http://www.eurogamer.net/articles/digitalfoundry-xbox-one-gpu-receives-speed-boost) dazu:
53Mhz!!
http://i.imgur.com/bVVkjal.gif
das ist imho nichtmal nen newsartikel wert....
prinz_valium
2013-08-02, 15:39:40
naja immerhin 6,6%
wenn man die reine t flops zahl vergleicht, sogar 8,3 :D
ich glaub 100 wären einfach zu viel gewesen um im tdp budget zu bleiben
mironicus
2013-08-02, 15:57:28
Der gefällt mir auch gut. :D
http://media.heavy.com/media/2013/06/xbox-one-true-lies.gif
00-Schneider
2013-08-02, 16:05:51
Die GPU der One ist höher getaktet als die der PS4.
Sony is doomed! :eek:
----------------------
Erst die Gerüchte, dass die GPU wegen der schlechten Ausbeute runtergetaktet werden musste, jetzt eine Erhöhung!?
][immy
2013-08-02, 16:12:03
bester kommentar aus dem Eurogamer artikel (http://www.eurogamer.net/articles/digitalfoundry-xbox-one-gpu-receives-speed-boost) dazu:
53Mhz!!
http://i.imgur.com/bVVkjal.gif
das ist imho nichtmal nen newsartikel wert....
erinnert mich an die GTX680 :)
nunja 53 Mhz sind nicht all zu viel, aber zumindest etwas. Interessant, das die das tatsächlich jetzt noch optimieren. Da hat Balmer wohl tatsächlich ein wenig druck ausgeübt.
interessant wäre jetzt auch ob der esram dann auch im Takt gesteigert wird. Bisher ging ich ja davon aus das dieser synchron zur GPU läuft. Wären dann auch je Richtung ~6,6 GB/s mehr. aber ich vermute mal das die höhere bandbreite beim esram eher vernachlässigbar ist (im verlgeich zur leistung der GPU).
Eine richtige Überraschung wäre es wenn sie nun 2400er Speicher verbauen würden. Aber bisher bereits verbauten Speicher werden sie wohl kaum übertakten.
Da ein Teil der GPU für das System reserviert sind ist es aber definitiv nicht verkehrt die Taktrate zu erhöhen. Aber grad da der Chip eigentlich recht klein ist und das Gehäuse so gigantisch, hätte ich da einen etwas höheren Takt erwartet. Die kleinen AMDs schaffen doch locker 1GHz ohne das die Verlustleistung explodiert.
Erst die Gerüchte, dass die GPU wegen der schlechten Ausbeute runtergetaktet werden musste, jetzt eine Erhöhung!?
Nunja, man weiß ja bei dem alten Gerücht nicht so recht wie
a) hoch der Druck vorher der chefetage war
b) wie hoch der ursprünglich geplante takt zu dem zeitpunkt war
Also eventuell nimmt MS jetzt einfach ein wenig weniger Ausbeute in kauf.
Gipsel
2013-08-02, 16:32:59
[immy;9864807']interessant wäre jetzt auch ob der esram dann auch im Takt gesteigert wird. Bisher ging ich ja davon aus das dieser synchron zur GPU läuft.Da spart man dann zumindest ein paar kleine Buffer beim Kreuzen der Taktdomänen (und ein paar Takte Latenz). Außerdem paßt die (Original-)Bandbreite von 128 Byte/Takt recht gut zu den 16 ROPs (8 Byte/Takt und ROP), aber das sind eher "ästhetische" Gründe.
Mich würde interessieren, ob die CPU bei 1,6GHz bleibt oder ob sie der jetzt auch ~1,7 GHz spendiert haben, also einfach den kompletten Chip (bis auf den RAM) gleichmäßig hochgezogen haben. Soo viel macht das zwar auch nicht aus, aber über Mehrleistung wird sich keiner beschweren, egal ob es 20% oder nur 6,6% sind.
Hallo
2013-08-02, 16:44:51
Mal ne noob Frage: Wird heute eigentlich noch in (teilweise/komplett) Assembler programmiert? War in 8/16 Bit Zeiten nicht unüblich bei den guten (japanischen) Softwarehäusern.
Und wie sieht der Aufwand/Nutzen Faktor aus?
Gipsel
2013-08-02, 16:48:49
Eher C mit Intrinsics für die Vektorerweiterungen. Weniger Aufwand und meist vergleichbarer Nutzen, solange es nicht zu esotherisch wird.
Iterator
2013-08-02, 16:54:59
Eine komplette Programmierung in Assembler würde wohl bei der heutigen Komplexität der Spiele, die Projekte vom Zeitaufwand und Umfang komplett sprengen. Man wird wohl in Performance kritischen Bereichen darauf zurückgreifen (wenn es nötig sein sollte), aber auf keinen Fall durchgängig (wäre der absolute Horror).
][immy
2013-08-02, 16:57:23
Da spart man dann zumindest ein paar kleine Buffer beim Kreuzen der Taktdomänen (und ein paar Takte Latenz). Außerdem paßt die (Original-)Bandbreite von 128 Byte/Takt recht gut zu den 16 ROPs (8 Byte/Takt und ROP), aber das sind eher "ästhetische" Gründe.
daran hab ich jetzt gar nicht gedacht :) von daher müsste ja eigentlich der Takt im gleichen Maße steigen, weil die an der hardware selbst wohl nichts mehr ändern können. Und die Taktraten waren vorher bestimmt nicht zufällig synchron. ansonsten würde man jetzt zwar die taktrate der gpu leicht erhöhen, aber die effiziens verringern. das würde sich bei der leichten steigerung bestimmt nicht gut machen.
Mich würde interessieren, ob die CPU bei 1,6GHz bleibt oder ob sie der jetzt auch ~1,7 GHz spendiert haben, also einfach den kompletten Chip (bis auf den RAM) gleichmäßig hochgezogen haben. Soo viel macht das zwar auch nicht aus, aber über Mehrleistung wird sich keiner beschweren, egal ob es 20% oder nur 6,6% sind.
da an einer kühllösung ja noch bis kurz vor auslierferung relativ problemlos gearbeitet werden kann (noch etwas im gehäuse unterbringen zu können sollte wohl kein probelm darstellen), wäre das nicht mal all zu unwahrscheinlich das sie versuchen die leistung noch raus zu holen. aber ich denke mal das jedes kleine Watt, was sie noch irgendwie verwenden können eher in die GPU stecken werden.
LordDeath
2013-08-02, 17:01:10
Es ist schon interessant, wie die Berichterstattung zu dieser Änderung variiert. Meist gibt es eine kurze Erläuterung der Änderungen und einen Hinweis darauf, wie groß die Lücke zur PS4 weiterhin noch ist.
Aber als absolutes Negativbeispiel finde ich das hier: http://www.ign.com/articles/2013/08/02/microsoft-confirms-xbox-one-gpu-boost
Das wird mit Marketing-Zitaten geschmückt und in keinster Weise wird ein Vergleich zur Konkurrenz gezogen.
THEaaron
2013-08-02, 17:13:47
Hach IGN... das waren auch die mit der Vergleichstabelle in der alle Xbone Felder grün und die PS4 Felder rot waren. ;D ;D
Hunter93
2013-08-02, 18:00:08
Ein GPU-Leistungsvergleich nach dem Upclock der Xbox
http://s14.directupload.net/images/130802/ebzgv8hk.png (http://www.directupload.net)
http://i1072.photobucket.com/albums/w364/changp4f/Trollface-1.gif
Crazy_Bon
2013-08-02, 18:00:22
Ich würde mich auch nicht wundern, wenn plötzlich Sony auch eine Taktsteigerung meldet.
Eigentlich wie vor 8 Jahren, da hatte doch Sony bei der GPU auch den Takt von 500Mhz auf 550MHz erhöht, oder?
Hunter93
2013-08-02, 18:05:43
Eigentlich wie vor 8 Jahren, da hatte doch Sony bei der GPU auch den Takt von 500Mhz auf 550MHz erhöht, oder?
Die Geschichte war genau umgekehrt. Angeblich wurde der Takt von 550/700 auf 500/650 MHz gesenkt (GPU/VRAM).
Crazy_Bon
2013-08-02, 18:08:29
Die Geschichte war genau umgekehrt. Angeblich wurde der Takt von 550/700 auf 500/650 MHz gesenkt (GPU/VRAM).
Really?
http://de.wikipedia.org/wiki/PlayStation_3#Grafikprozessor
Hunter93
2013-08-02, 18:48:24
Really?
http://de.wikipedia.org/wiki/PlayStation_3#Grafikprozessor
Wirklich.
Ursprünglich angekündigt: RSX @ 550 MHz (http://images.anandtech.com/reviews/video/Playstation3/E3PressConference/RSXspecs.jpg).
Spätere Gerüchte: RSX + Memory Downgrade (http://www.theinquirer.net/inquirer/news/1042732/ps3-downgraded).
Watson007
2013-08-02, 18:51:50
Mal ne noob Frage: Wird heute eigentlich noch in (teilweise/komplett) Assembler programmiert? War in 8/16 Bit Zeiten nicht unüblich bei den guten (japanischen) Softwarehäusern.
Und wie sieht der Aufwand/Nutzen Faktor aus?
würde mich auch interessieren. Persönlich würde ich vermuten dass sich Assembler-Optimierung nicht mehr lohnt - zu zeitaufwendig und wenns kompliziert im Code wird steigt auch die Fehlerwahrscheinlichkeit.
Skysnake
2013-08-02, 19:22:52
Einfache Faustregel:90% der zeit wird in 5-10% des Codes verbracht. Deswegen macht man auch Laufzeitanalysen ;) man optimiert halt nur die paar Prozent des Codes. Und ja, da wird dann auch relativ viel Assembler verwendet.
mironicus
2013-08-02, 19:59:21
Ich bin schon mal gespannt, wie nach dem Konsolen-Release der "Alltag" bei den Multi-Titeln sein wird.
Also z.B. Game X
Xbox One: 1080P mit 2xAA, 30 FPS
PS 4: 1080P mit 4xAA, 30 FPS
PC: 2560P mit 8xAA, 60 FPS :D
00-Schneider
2013-08-02, 20:16:59
Also z.B. Game X
Xbox One: 900p mit postAA, 30 FPS
PS 4: 1080P mit postAA, 30 FPS
PC: >1080P mit postAA + 4xAA, 60 FPS :D
fixed. ;)
Lost Boy
2013-08-02, 20:36:19
Mal ne noob Frage: Wird heute eigentlich noch in (teilweise/komplett) Assembler programmiert? War in 8/16 Bit Zeiten nicht unüblich bei den guten (japanischen) Softwarehäusern.
Zu PS2 Zeiten war das teilweise auch noch sehr vebreitet.
Und wie sieht der Aufwand/Nutzen Faktor aus?
Miserabel.
][immy
2013-08-03, 00:09:15
wo kommt denn nun wieder das gerücht her, das der speicher auf der xbox one gedrittelt würde und damit weniger als 4,5 gb zur verfügung stehen sollten? (siehe aktuelle 3dcenter news).
bitte, nur weil der speicher (wie bei der ps4) in 3 bereiche aufgeteilt ist, heißt das doch nicht das der gedrittelt wird. 5gb für spiele. eine gewisse größe für das os und der rest für anderes. so wie bei der ps4 mit 4,5 gb für spiele, 0,5 - 1gb variabel und der rest für das os.
da wird man das gefühl nicht los, das einige seiten (ich meine jetzt nicht 3d-center die die nachricht nur aufgeschnappt haben) unbedingt wollen das die xbox one ein mieses image bekommt (wofür ms aber eigentlich schon allein gut genug gesorgt hat).
Ich würde mich auch nicht wundern, wenn plötzlich Sony auch eine Taktsteigerung meldet.
Eigentlich wie vor 8 Jahren, da hatte doch Sony bei der GPU auch den Takt von 500Mhz auf 550MHz erhöht, oder?
also abgesehen, davon das es wohl genau umgekehrt war, glaube ich kaum das Sony es diesmal schaffen wir die Taktraten noch zu erhöhen. zum einen, brauchen sie sich wohl keine Umstände machen (die ps4 Hardware hat aktuell schon einen guten Ruf) und zum anderen würde die Ausfallrate dabei eventuell massig steigen. immerhin, die ps4 hat kein all zu großes Gehäuse und damit auch keine Möglichkeit eine größere Kühllösung zu verbauen. das Netzteil der ps4 ist direkt im Gehäuse und dieses dürfte aktuell schon mehr oder minder ausgereizt sein. würde man den takt erhöhen könnte die TDP die Leistung des Netzteils und der entsprechenden Kühllösung übersteigen. Hier dürfte bei dem kleinen Gehäuse einfach kein Spielraum sein, einen der Punkte zu erweitern ohne das Probleme auftreten.
Zwar sind die AMD Chips in vergleichbaren Größen allesamt in der Lage 1GHz zu erreichen, aber die TDP spricht dagegen. Vergleichbare GPUs sind da bei über 130W. Das dürfte für eine solche Kompakte Konsole einfach zu viel sein. Bei den kleineren Chips (7700er) sieht es da schon besser aus.
hier hat ms aktuell die "vorteile"
a) das Netzteil ist extern und damit nicht abhängig von der Größe und Hitzeentwicklung im Gehäuse
b) das Gehäuse ist gigantisch (warum das Netzteil da nicht drin ist frag ich mich echt :) ) und damit kann die Kühllösung problemlos überarbeitet/erweitert werden
c) der Grafikchip ist kleiner und lässt sich dadurch (theoretisch) einfacher höher takten. Die theoretische Leistung der PS4 GPU wird er aber auch damit nicht erreichen können (erst ab 1,2 GHz wäre man auf Augenhöhe, was aber wohl völlig überzogen wäre)
Was ich aktuell nicht verstehen kann, ist das bei der Xbox one eine TDP von 100W angepeilt wird. Da verstehe ich einfach nicht, warum man ein so großes Gehäuse nutzt. Ich weiß, eventuell hatte ms das Gehäuse schon fertig bevor etwas von der Hardware fertig war, aber trotzdem finde ich es halt merkwürdig.
Crazy_Bon
2013-08-03, 00:30:52
[immy;9865304']wo kommt denn nun wieder das gerücht her, das der speicher auf der xbox one gedrittelt würde und damit weniger als 4,5 gb zur verfügung stehen sollten? (siehe aktuelle 3dcenter news).3DC erreicht Yellow Press-Niveau! (y)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.