PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Xbox One/Playstation 4: technische Spekulation und Vergleich


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47

Lightning
2013-08-25, 10:23:53
Wie willst du sonst die ganzen Features anbieten? 1-2 Cores sind sicherlich weg. Man könnte auch den anderen Weg nehmen und für Spiele alle 8 Cores zu Verfügung stellen. Das ändert aber nichts. Dann hättest du immer noch weniger CPU-Leistung zur Verfügung weil diverse Features bedient werden wollen. Und eigentlich wäre es auch kontraproduktiv. 6-7 Cores in Games perfekt auszulasten ist einfacher als 8. Außer bei Coda vielleicht. ;)

Natürlich kostet das Leistung. Es war aber explizit von genau zwei Kernen die Rede. Die Killzone-Slides vom März deuten auf zwei hin, aber wenn es mittlerweile nur noch einer wäre, wäre das aus meiner Sicht mehr als nur erwähnenswert. Daher hoffe ich, dass wir das irgendwann noch mal bestätigt kriegen. Auch die RAM-Geschichte erscheint mir nicht zu 100% aufgeklärt, da es da einige widersprüchliche Meldungen gab.

fondness
2013-08-25, 11:11:14
Mal als Beispiel, die Geometry-Caches für Ryse erzeugen buchstäblich hunderte Jobs die über die Cores verteilt werden. Der Haupt-Thread macht da nur noch bisschen Verwaltungsarbeit. Und es ist lockless. Das würde ohne Probleme auf 16 Cores und mehr skalieren.


Sollte für solche Aufgaben nicht die GPU da sein?

del_4901
2013-08-25, 11:20:26
Sollte für solche Aufgaben nicht die GPU da sein?
CPU basiertes (Occlusion) Culling ist einer GPU Lösung immernoch überlegen.

Gipsel
2013-08-25, 11:47:30
Wie willst du sonst die ganzen Features anbieten?Welche ganzen Features denn? Was verbrauchen die denn an CPU-Last? Videomitschnitt? Macht die VCE-Einheit vollkommen in Hardware, das kostet minimal Bandbreite, die CPU muß da ganz genau gar nichts machen (außer Kommando zum Starten und Stoppen senden). Backgrounddownloads/-updates? Die funktionieren sogar, wenn der Main-SoC aus ist im Standby. Im Hintergrund PSN/XBL-Nachrichten abfragen oder ein Chatfenster im Overlay anzeigen? Okay. Oder gar eine nicht sichtbare (Spiel im Vollbild) aber resourcenfressende Flash-Animation im Browser? Eher nicht. Also wenn MS/Sony da volle zwei Kerne für reservieren haben die meiner Meinung nach einen Knall. Einer vielleicht, aber selbst wenn es nur 50% eines Kerns sind (ich würde sogar mal locker flockig sagen, daß im Notfall auch 10%-20% eines Kerns reichen), sollte das locker reichen. Wenn man das Spiel aus dem Vollbild nimmt, kann das Spiel ja CPU-Resourcen abgeben (bzw. nimmt das OS sie ihm einfach weg). Für die flüssigen Wechsel ist es hauptsächlich entscheidend, daß man nicht erstmal ein paar hundert MB von der Platte laden muß, also Wichtiges im Speicher verbleibt. CPU-Resourcen kann man da aber sparen.
Mach doch selbst mal den Test mit einer überladenen Windows-Kiste, wo im Hintergrund Skype, Virenscanner (der wird auf Konsolen ja wohl eingespart), irgendein Chatclient und noch ein Browser offen ist und schau mal nach einer mehrstündigen Spielesession nach, wieviel CPU-Zeit diese Hintergrundprogramme in der Zwischenzeit gefressen haben. Zwei Kerne? Es hakt wohl!
Um die erhöhte Latenz bei der Kommunikation mit dem jeweils anderen CPU-Cluster zu umgehen, kann man es vielleicht so einrichten, daß das OS bevorzugt jeweils einen Kern pro Cluster benutzt, man also die Kommunikation zwischen den Clustern minimiert. Aber die muß man doch nicht komplett belegen sondern ich bin der Meinung, daß man da großzügig auch Prozessorzeit an das Spiel abgeben kann (nur eben nicht den kompletten Kern).

Avalox
2013-08-25, 12:24:56
W Zwei Kerne? Es hakt wohl!

Ein Kern wird bestimmt permanent mit DRM Systemüberwachung beschäftigt sein.

=Floi=
2013-08-25, 12:44:18
wird da etwas neues in sachen drm eingebaut? haben die geräte eigentlich tpm? dank x86 und den amd socs dürfte das ja jetzt quasi gratis mit an board sein.

Neosix
2013-08-25, 13:37:20
War doch schon mit der PS3 nicht anders, eine der CPUs hat da auch nichts anderes als DRM-Checks gemacht.

00-Schneider
2013-08-25, 13:41:10
War doch schon mit der PS3 nicht anders, eine der SPEs hat da auch nichts anderes als DRM-Checks gemacht.


fixed. ;)

-------------------

So langsam zerfällt wohl der Mythos von 1080p in allen Games, der nächste Kandidat (nach BF4) streicht wohl die Segel diesbezüglich:

http://www.neogaf.com/forum/showthread.php?t=660937

War eigentlich klar, dass durchgängig "1080p + 60FPS" wohl eher unwahrscheinlich sind. Ist halt die Frage, was in zukünftigen Games dann zuerst gestrichen wird:

- Auflösung und AA?

- Effekte und Sichtweite?

- Oder doch eher die Framerate wieder runter auf 25-30FPS?

M4xw0lf
2013-08-25, 15:03:09
Ein Kern wird bestimmt permanent mit DRM Systemüberwachung beschäftigt sein.
Dafür könnten auch noch ARM-Kerne vorhanden sein... auch wenn man diesbezüglich natürlich noch nichts gehört hat, soweit ich weiß.

Skysnake
2013-08-25, 15:44:30
In den AMD APUs sind ja inzwischen ARM Cores für deren DRM-System drin, oder wie sich dasbei ARM auch nochmal schimpft.

Gipsel
2013-08-25, 15:49:11
Dafür könnten auch noch ARM-Kerne vorhanden sein... auch wenn man diesbezüglich natürlich noch nichts gehört hat, soweit ich weiß.Ja. Einen der Jaguar-Kerne dafür abzuzweigen wäre vermutlich höchst unsicher (also innerhalb kurzer Zeit geknackt). Man benötigt besser ein wenig separate, möglichst abgeschottete Hardware für diesen Zweck. Das ist ja auch die Idee hinter der Trustzone-Geschichte, für die man einen separaten ARM-Kern mit auf's Die packt. Aber MS und Sony werden wohl nur ungern verraten, wie das bei ihnen genau funktioniert. Daß die 1:1 TrustZone benutzen, glaube ich eher nicht. Die werden da vermutlich AMD noch ein paar eigene Zutaten zum Integrieren gegeben haben.

just4FunTA
2013-08-25, 15:57:54
fixed. ;)

-------------------

So langsam zerfällt wohl der Mythos von 1080p in allen Games, der nächste Kandidat (nach BF4) streicht wohl die Segel diesbezüglich:

http://www.neogaf.com/forum/showthread.php?t=660937

War eigentlich klar, dass durchgängig "1080p + 60FPS" wohl eher unwahrscheinlich sind. Ist halt die Frage, was in zukünftigen Games dann zuerst gestrichen wird:

- Auflösung und AA?

- Effekte und Sichtweite?

- Oder doch eher die Framerate wieder runter auf 25-30FPS?

ist mir echt unverständlich warum die sich für die SourceEngine entschieden haben, haben sie dafür Geld von Valve bekommen oder wie? Jeder Mensch weiß doch das die Engine nicht auf aktuellem Stand ist und der labert einen voll wie viel sie dafür neu entwickeln mussten. Die Frage ist nur warum machen sie es sich nicht einfach und nehmen eine Engine die Aktuell ist da hätten sie sich viel arbeit erspart und seien wir ehrlich titanfall sieht immernoch sehr alt aus ala hl2 da müssten sie noch einiges an Arbeit reinstecken um mit aktuellen Engines gleichzuziehen.

Mal schauen wie weit Valve mit Source 2 geht.

Skysnake
2013-08-25, 15:58:00
Ah ja genau, "TrustZone" schimpft sich das bei AMD.

Danke Gipsel.

Ich denke auch, dass die das verwenden werden in leichter Abwandlung.

MarcWessels
2013-08-25, 18:28:00
fixed. ;)

-------------------

So langsam zerfällt wohl der Mythos von 1080p in allen Games, der nächste Kandidat (nach BF4) streicht wohl die Segel diesbezüglich:

http://www.neogaf.com/forum/showthread.php?t=660937Na ja, die XBox One sollte da eigentlich kein Maßstab sein, um das für die NextGen-Spiele zu beurteilen.

Hayab
2013-08-25, 21:48:39
Gerade Titanfall mit der lastgen Grafik sollte 1080p@60 schaffen.:confused:
Bei BF4 sollte zumindest auf PS4 das drin sein. Irgendwie kann ich das nicht glauben mit 720p.

aufkrawall
2013-08-25, 21:53:38
720p ist so eine Krümmelauflösung, die ist doch schon nativ blurry und und flimmerig.
Wenn sich das bewahrheitet, ist das einfach nur ein Armutszeugnis für NextGen.
Da war die BQ vor zehn Jahren auf dem PC schon besser. :freak:

dildo4u
2013-08-25, 21:59:02
Multigames sind wie immer Schrott Sony First Party richtet es schon,den Rest muss man halt für PC kaufen.


Killzone 1080p.

https://mega.co.nz/#!JR9gQTKR!FfpRJx0PkpfleRvbKVeCzA1e9nNOMhvZyxGTCkPAQek

Infamous 1080p.

http://youtu.be/Uibnf_Q_51s

http://www.gamersyde.com/download_infamous_second_son_smoke_mirrors-30496_en.html

Lost Boy
2013-08-25, 22:57:40
Weiss jemand auf welcher Hardware Forza 5 lief auf der Gamescom? Gibt es da irgendwelche Informationen? Bei Ryse kann man wohl davon ausgehen dass es auf "echter" Hardware lief, wie auf der E3.

][immy
2013-08-25, 23:00:01
Welche ganzen Features denn? Was verbrauchen die denn an CPU-Last? Videomitschnitt? Macht die VCE-Einheit vollkommen in Hardware, das kostet minimal Bandbreite, die CPU muß da ganz genau gar nichts machen (außer Kommando zum Starten und Stoppen senden). Backgrounddownloads/-updates? Die funktionieren sogar, wenn der Main-SoC aus ist im Standby. Im Hintergrund PSN/XBL-Nachrichten abfragen oder ein Chatfenster im Overlay anzeigen? Okay. Oder gar eine nicht sichtbare (Spiel im Vollbild) aber resourcenfressende Flash-Animation im Browser? Eher nicht. Also wenn MS/Sony da volle zwei Kerne für reservieren haben die meiner Meinung nach einen Knall. Einer vielleicht, aber selbst wenn es nur 50% eines Kerns sind (ich würde sogar mal locker flockig sagen, daß im Notfall auch 10%-20% eines Kerns reichen), sollte das locker reichen. Wenn man das Spiel aus dem Vollbild nimmt, kann das Spiel ja CPU-Resourcen abgeben (bzw. nimmt das OS sie ihm einfach weg). Für die flüssigen Wechsel ist es hauptsächlich entscheidend, daß man nicht erstmal ein paar hundert MB von der Platte laden muß, also Wichtiges im Speicher verbleibt. CPU-Resourcen kann man da aber sparen.
Mach doch selbst mal den Test mit einer überladenen Windows-Kiste, wo im Hintergrund Skype, Virenscanner (der wird auf Konsolen ja wohl eingespart), irgendein Chatclient und noch ein Browser offen ist und schau mal nach einer mehrstündigen Spielesession nach, wieviel CPU-Zeit diese Hintergrundprogramme in der Zwischenzeit gefressen haben. Zwei Kerne? Es hakt wohl!
Um die erhöhte Latenz bei der Kommunikation mit dem jeweils anderen CPU-Cluster zu umgehen, kann man es vielleicht so einrichten, daß das OS bevorzugt jeweils einen Kern pro Cluster benutzt, man also die Kommunikation zwischen den Clustern minimiert. Aber die muß man doch nicht komplett belegen sondern ich bin der Meinung, daß man da großzügig auch Prozessorzeit an das Spiel abgeben kann (nur eben nicht den kompletten Kern).
nunja, unrecht hast du ja nicht. das wäre wohl alles auch mit einem kern machbar. So viel ists eigentlich nicht was die Betriebssysteme machen müssten. Allerdings will man eventuell nur etwas Hardware für die Zukunft vorbehalten, weil man noch nicht so richtig weiß was in Zukunft noch alles kommen wird. später kann man sie immer noch freigeben.

Crazy_Bon
2013-08-25, 23:09:12
Weiss jemand auf welcher Hardware Forza 5 lief auf der Gamescom? Gibt es da irgendwelche Informationen? Bei Ryse kann man wohl davon ausgehen dass es auf "echter" Hardware lief, wie auf der E3.
Irgendwo habe ich gelesen, daß Forza auch auf einer nativen XBO lief.

Coda
2013-08-26, 01:42:28
CPU basiertes (Occlusion) Culling ist einer GPU Lösung immernoch überlegen.
Huh? Darum ging's doch gar nicht.

DrMabuse1963
2013-08-26, 06:47:55
Weiss jemand auf welcher Hardware Forza 5 lief auf der Gamescom? Gibt es da irgendwelche Informationen? Bei Ryse kann man wohl davon ausgehen dass es auf "echter" Hardware lief, wie auf der E3.

Zumindest einige PS4 Games auf W7 : )
http://www.gamestar.de/hardware/konsolen/sony-playstation-4/news-artikel/playstation_4,481,3027075.html

Silentbob
2013-08-26, 08:10:35
Gerade Titanfall mit der lastgen Grafik sollte 1080p@60 schaffen.:confused:
Bei BF4 sollte zumindest auf PS4 das drin sein. Irgendwie kann ich das nicht glauben mit 720p.


BF 4 720p wurde von Dice dementiert. Allerdings wurde bisher nicht verlautbart in welcher Auflösung es den nun laufen soll.

Skysnake
2013-08-26, 08:20:49
Also ich glaub das Problem bei der Auflösung ist einfach, das es DIE "Auflösung" gar nicht mehr geben wird.

Man verwendet mehrere Auflösungen ingame. Das war ja schon bei der aktuellen Gen schon so, das man teilweise die Auflösung änderte, aber bei der NextGen wird das halt innerhalb des selben Bildes Sachen mit unterschiedlichen Auflösungen geben.

Halt da, wo man es nicht sieht die Auflösung runter drehen und sich über die frei gewordene Leistung freuen.

M4xw0lf
2013-08-26, 10:13:32
Das hier könnte auch interessant sein im Zusammenhang mit den Konsolen, HSA-Präsentation von der Hot Chips: http://www.planet3dnow.de/cms/1291-amd-prasentiert-hsa-details-auf-der-hotchips-25/

Hübie
2013-08-26, 10:23:59
Also ich glaub das Problem bei der Auflösung ist einfach, das es DIE "Auflösung" gar nicht mehr geben wird.

Man verwendet mehrere Auflösungen ingame. Das war ja schon bei der aktuellen Gen schon so, das man teilweise die Auflösung änderte, aber bei der NextGen wird das halt innerhalb des selben Bildes Sachen mit unterschiedlichen Auflösungen geben.

Halt da, wo man es nicht sieht die Auflösung runter drehen und sich über die frei gewordene Leistung freuen.

Ja da kamen so einige krumme zahlen raus wie 867 mal 488 etc... :freak: Ich hoffe inständig dass die PPAA-Lösungen nicht zu zermatschend eingesetzt werden. Finde das teilweise schon grausam auf screenshots von FullHD-Spielen.

Deinorius
2013-08-26, 10:26:42
720p ist so eine Krümmelauflösung, die ist doch schon nativ blurry und und flimmerig.
Wenn sich das bewahrheitet, ist das einfach nur ein Armutszeugnis für NextGen.
Da war die BQ vor zehn Jahren auf dem PC schon besser. :freak:


Natürlich, weil ja die Grafikqualität NUR von der Auflösung abhängt. :rolleyes:

Grestorn
2013-08-26, 10:42:44
Natürlich, weil ja die Grafikqualität NUR von der Auflösung abhängt. :rolleyes:

Ich WOLLTE Last Of Us spielen. Wirklich. Alleine, ich halte es nicht aus. Flimmern, Treppen und Unruhe im ganzen Bild. Das lenkt dermaßen ab, dass das Spiel noch so gut sein kann...

Die letzten Konsolenspiele, die ich gerne gespielt habe, waren FF XIII-II und Hard Rain. Bei denen hat mich das nicht oder kaum gestört. Aber sonst geht das gar nicht.

Wenn in der neuen Generation auch wieder mit reduzierter Auflösung gearbeitet wird, ist sie für mich gestorben bevor sie angefangen hat.

Hübie
2013-08-26, 10:46:52
Hard Rain ;D Aua. Das nennt man Hagel. Ich denke eher dass du Heavy Rain meinst :freak:

Ich zocke aktuell The last of us und finde das flimmern teils nervig, aber ingesamt bin ich zu sehr mit dem gameplay beschäftigt als dass ich mich darüber aufrege. Etwas PPAA hätte hier gut getan, aber die PS3 ist wohl eh schon an der Kotzgrenze.

Lightning
2013-08-26, 10:51:13
Die letzten Konsolenspiele, die ich gerne gespielt habe, waren FF XIII-II und Hard Rain. Bei denen hat mich das nicht oder kaum gestört.

Verstehe ich ehrlich gesagt nicht. Warum stören dich da die 720p nicht?

Naja, tut mir jedenfalls Leid für dich. Ich glaube, ich könnte mich auch mit größerer Anstrengung nicht dazu durchringen, ein PS2-Spiel wegen der Grafik nicht zu mögen.. ;)

edit:
Ich zocke aktuell The last of us und finde das flimmern teils nervig, aber ingesamt bin ich zu sehr mit dem gameplay beschäftigt als dass ich mich darüber aufrege. Etwas PPAA hätte hier gut getan, aber die PS3 ist wohl eh schon an der Kotzgrenze.

The Last of Us hat PP-AA.

Hübie
2013-08-26, 11:00:36
Davon sehe ich gar nix. :|

Skysnake
2013-08-26, 11:03:50
Ich WOLLTE Last Of Us spielen. Wirklich. Alleine, ich halte es nicht aus. Flimmern, Treppen und Unruhe im ganzen Bild. Das lenkt dermaßen ab, dass das Spiel noch so gut sein kann...

Die letzten Konsolenspiele, die ich gerne gespielt habe, waren FF XIII-II und Hard Rain. Bei denen hat mich das nicht oder kaum gestört. Aber sonst geht das gar nicht.

Wenn in der neuen Generation auch wieder mit reduzierter Auflösung gearbeitet wird, ist sie für mich gestorben bevor sie angefangen hat.
1. sind das noch nicht PS4 Spiele. Die Technik ist also eine andere. Meines wissens hat da eben nur das gesamte Bild eine Auflösung und nicht Teilbereiche unterschiedliche Auflösungen und
2. wird das auch am PC Einzug halten.

dargo
2013-08-26, 11:09:52
2. wird das auch am PC Einzug halten.
Was meinst du?

Lightning
2013-08-26, 11:13:01
Davon sehe ich gar nix. :|

http://www.eurogamer.net/articles/digitalfoundry-the-last-of-us-tech-analysis

Besonders toll siehts nicht aus, aber eben auch nicht wie ganz ohne AA.

dargo
2013-08-26, 11:19:02
http://www.eurogamer.net/articles/digitalfoundry-the-last-of-us-tech-analysis

Besonders toll siehts nicht aus, aber eben auch nicht wie ganz ohne AA.
Urgh... die Screens sehen aber wirklich schrecklich aus. Man könnte meinen PS2-Niveau. :freak:

Blediator16
2013-08-26, 11:22:39
Dass das auch im 3dc hier so ausartet geht so dermaßen auf den Sack...

RLZ
2013-08-26, 11:26:51
1. sind das noch nicht PS4 Spiele. Die Technik ist also eine andere. Meines wissens hat da eben nur das gesamte Bild eine Auflösung und nicht Teilbereiche unterschiedliche Auflösungen und
Ich sag da mal nur "Über-Low Resolution Particles" :freak:

Lightning
2013-08-26, 11:36:07
Urgh... die Screens sehen aber wirklich schrecklich aus. Man könnte meinen PS2-Niveau. :freak:

Du musst schon sehr lange kein PS2-Niveau mehr gesehen haben.

Skysnake
2013-08-26, 11:39:29
/sign

da muss man sich nur mal das Hier im Vergleich zu anschauen.

Leere Spielwelt ole ole ole

http://media2.giga.de/2013/07/GTA-San-Andreas-5.jpg

dargo
2013-08-26, 11:47:05
Du musst schon sehr lange kein PS2-Niveau mehr gesehen haben.
Da könntest du recht haben. :tongue:

Aber mal ehrlich... wenn ich sowas sehe:
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/7/1.bmp.jpg/EG11/resize/1280x-1

Die Fahrzeuge sehen schrecklich aus. Wie so ein Klumpen von irgendwas. Dann die beiden Mädels. Auf 2-3 Meter Entfernung kann du da im Gesicht gar nichts mehr erkennen.

Oder das hier:
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/7/2.bmp.jpg/EG11/resize/1280x-1
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/8/6.bmp.jpg/EG11/resize/1280x-1

Was sind das für Schatten, Texturen? Ich hab eher das Gefühl man hat hier an jeder Ecke Details auf das tiefste Minimum gesetzt (außer vielleicht den Protagonisten, der sieht noch recht ok aus) damit das Spiel nur irgendwie in die ~30fps passt. Sorry... aber das ist wirklich Steinzeit.

Lightning
2013-08-26, 11:51:53
/sign

da muss man sich nur mal das Hier im Vergleich zu anschauen.

Leere Spielwelt ole ole ole

http://media2.giga.de/2013/07/GTA-San-Andreas-5.jpg

Es ging ja auch um die Bildqualität. Da ist der PC-Screenshot sehr Schmeichelhaft für die PS2, die meist mit ~512x448 rendert und kein Mip-Mapping verwendet..

[...]Auf 2-3 Meter Entfernung kann du da im Gesicht gar nichts mehr erkennen.

Liegt hier am Motion Blur.
Ansonsten sind die Screenshots nicht repräsentativ fürs ganze Spiel.

Blediator16
2013-08-26, 11:59:23
Da könntest du recht haben. :tongue:

Aber mal ehrlich... wenn ich sowas sehe:
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/7/1.bmp.jpg/EG11/resize/1280x-1

Die Fahrzeuge sehen schrecklich aus. Wie so ein Klumpen von irgendwas. Dann die beiden Mädels. Auf 2-3 Meter Entfernung kann du da im Gesicht gar nichts mehr erkennen.

Oder das hier:
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/7/2.bmp.jpg/EG11/resize/1280x-1
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/8/6.bmp.jpg/EG11/resize/1280x-1

Was sind das für Schatten, Texturen? Ich hab eher das Gefühl man hat hier an jeder Ecke Details auf das tiefste Minimum gesetzt (außer vielleicht den Protagonisten, der sieht noch recht ok aus) damit das Spiel nur irgendwie in die ~30fps passt. Sorry... aber das ist wirklich Steinzeit.

Komm schon...:rolleyes:

dargo
2013-08-26, 12:03:51
Liegt hier am Motion Blur.

Ah ok... ich hab mich schon gewundert warum die beiden Mädels komplett so verschmiert rüber kommen. Wäre eine plausible Erklärung beim Sreenshoten.

Edit:
Hab mir gerade die Frameanalyse angeschaut. Bis zu 22fps runter, oh weiha... :freak: Wird höchste Zeit, dass die Dinger ersetzt werden!

Skysnake
2013-08-26, 12:35:29
Da könntest du recht haben. :tongue:

Aber mal ehrlich... wenn ich sowas sehe:
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/7/1.bmp.jpg/EG11/resize/1280x-1

Die Fahrzeuge sehen schrecklich aus. Wie so ein Klumpen von irgendwas. Dann die beiden Mädels. Auf 2-3 Meter Entfernung kann du da im Gesicht gar nichts mehr erkennen.

Oder das hier:
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/7/2.bmp.jpg/EG11/resize/1280x-1
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/8/6.bmp.jpg/EG11/resize/1280x-1

Was sind das für Schatten, Texturen? Ich hab eher das Gefühl man hat hier an jeder Ecke Details auf das tiefste Minimum gesetzt (außer vielleicht den Protagonisten, der sieht noch recht ok aus) damit das Spiel nur irgendwie in die ~30fps passt. Sorry... aber das ist wirklich Steinzeit.
UND? Das läuft auf asbach uralter Hardware...

Überleg mal, wie das auf absoluter High-End-Hardware aus der Zeit aussehen würde....

Wir bekommen jetzt dann aber die neuen Konsolen, und der Sprung wird gewaltig sein.

dargo
2013-08-26, 12:58:01
UND?
Nix und... neue Konsolen her, am besten schon gestern.

Grestorn
2013-08-26, 13:18:53
Hard Rain ;D Aua. Das nennt man Hagel. Ich denke eher dass du Heavy Rain meinst :freak:Oops :) Klar...

Verstehe ich ehrlich gesagt nicht. Warum stören dich da die 720p nicht?

Naja, tut mir jedenfalls Leid für dich. Ich glaube, ich könnte mich auch mit größerer Anstrengung nicht dazu durchringen, ein PS2-Spiel wegen der Grafik nicht zu mögen..

Naja, ich muss zugeben, es kommt noch dazu, dass ich für Shooter-Spiele ein Gamepad absolut ungeeignet finde (und auch echt sucke dabei). Bei "echten" Konsolenspielen, also Spiele für die das Gamepad gedacht war, mag ich das Pad dagegen schon und da ist dann auch die Grafik nicht so wichtig. Aber alle Spiele in der letzten Zeit für die das gilt und die mir wichtig waren, sind eben auch für den PC erschienen (TombRaider, RememberMe usw.). Nur leider eben nicht TLoU. Schade drum, ich hätt's echt gern gespielt.

Wer aber mal durch die Welten eines ans absolut machbare gemoddeten Sykrim gelaufen ist (4 GB VRam ausgereizt), der tut sich echt hart mit der Grafik, die auf den alten Konsolen so geliefert wird. Und ich denke, daran wird auch die neue Generation wenig ändern. Auch wenn ich beide Konsolen bestellt habe, ich werde letztlich immer den PC als Plattform vorziehen.

Lightning
2013-08-26, 13:59:50
Edit:
Hab mir gerade die Frameanalyse angeschaut. Bis zu 22fps runter, oh weiha... :freak: Wird höchste Zeit, dass die Dinger ersetzt werden!

Hat aber wenig damit zu tun, dass die Konsolen veraltet sind. Hardware überfordern kann man immer. Da gab es schon Jahre vorher deutlich schlimmeres auf PS360.

Wer aber mal durch die Welten eines ans absolut machbare gemoddeten Sykrim gelaufen ist (4 GB VRam ausgereizt), der tut sich echt hart mit der Grafik, die auf den alten Konsolen so geliefert wird.

Ich finde, man sollte da nicht von sich auf andere schließen. Ich verstehe, wenn du das so siehst, aber bei mir ists halt anders (und alleine bin ich damit hier im Forum damit auch keineswegs, viele spielen alte Spiele). Ich habe auf dem PC immer deutlich bessere Technik und Bildqualität als auf den Konsolen, den Vergleich habe ich also ebenfalls. Ist für mich aber nicht mehr als ein "nice to have"; zurück kann ich immer.

Hübie
2013-08-26, 14:06:58
Ich habe eben das hier gezockt ;D

http://steamcommunity.com/sharedfiles/filedetails/?id=166130956

Also allein bist du nicht. Aber dargo hat auch recht, wenn er sagt dass neue Konsolen her müssen. Es ist allerhöchste Eisenbahn! The last of us hat ein grandioses gameplay, macht echt Spaß und ist saumäßig spannend an vielen Stellen, aber dennoch ist es technisch veraltet. Es ist natürlich beeindruckend was die Entwickler aus der hardware heraus holten, aber man kann einfach nicht leugnen dass es kacke aussieht wenn man es mit Skyrim etc. vergleicht.

http://abload.de/thumb/tesv2013-05-2021-02-2n0q1w.png (http://abload.de/image.php?img=tesv2013-05-2021-02-2n0q1w.png)

Lost Boy
2013-08-26, 14:14:59
Zumindest einige PS4 Games auf W7 : )
http://www.gamestar.de/hardware/konsolen/sony-playstation-4/news-artikel/playstation_4,481,3027075.html

EA Spiele...

Wieso kocht hier immer wieder die PC vs. Konsolen Diskussion hoch...? Genau wie damals beim Xbox360/PS3 Launch. Solangsam wissen wir doch welche technischen Vor- und Nachteile die jeweiligen Systeme für Konsumenten und Entwickler haben. Ich finde die Diskussion hier völlig überflüssig.

dargo
2013-08-26, 14:19:06
Hat aber wenig damit zu tun, dass die Konsolen veraltet sind. Hardware überfordern kann man immer. Da gab es schon Jahre vorher deutlich schlimmeres auf PS360.

Natürlich nicht. :rolleyes:

Naughty Dog hat das Game bestimmt wieder schlecht programmiert und da liegen sicherlich noch irgendwo in der Ecke 50% Leistung brach. :freak: Vorallem zum Lebenende der alten Konsolen.

del_4901
2013-08-26, 14:25:21
Huh? Darum ging's doch gar nicht.
Worum geht es denn?

Lost Boy
2013-08-26, 14:33:37
Natürlich nicht. :rolleyes:

Naughty Dog hat das Game bestimmt wieder schlecht programmiert und da liegen sicherlich noch irgendwo in der Ecke 50% Leistung brach. :freak: Vorallem zum Lebenende der alten Konsolen.

Ich hatte bei TLOU aber zumindest den Eindruck dass es noch ein paar Monate Entwicklungszeit gebraucht hätte. Stellenweise wirkte es irgendwie unfertig. TLOU war nicht so perfekt "durchgestylt" wie UC2+3. Trotzdem eines der besten Spiele der aktuellen Generation.

Blediator16
2013-08-26, 14:35:01
Freunde bitte. Niemand leugnet, dass eine 100€ Konsole eine schlechtere Grafik darstellt, als ein 1000€ PC, doch bitte geht den Leuten nicht auf den Sack mit diesem Scheiss.

Watson007
2013-08-26, 14:35:56
Natürlich nicht. :rolleyes:

Naughty Dog hat das Game bestimmt wieder schlecht programmiert und da liegen sicherlich noch irgendwo in der Ecke 50% Leistung brach. :freak: Vorallem zum Lebenende der alten Konsolen.

sie hätten auch den Grafiklevel etwas herunterschrauben können um stabile 30fps zu ermöglichen, natürlich hat er recht. :confused: Man kann jede Hardware überfordern. Nur weil es zum Endzeitpunkt der Konsole erschien heißt das nicht dass es ruckeln muss. Ist ja nicht so dass das Gameplay grafische Mindest-Anforderungen stellt.

Für mich lief es jedenfalls flüssig genug.

Du bist bloß neidisch dass TLoU nicht für PC erschien. Pixelzähler ^^

Skysnake
2013-08-26, 14:39:34
EA Spiele...

Wieso kocht hier immer wieder die PC vs. Konsolen Diskussion hoch...? Genau wie damals beim Xbox360/PS3 Launch. Solangsam wissen wir doch welche technischen Vor- und Nachteile die jeweiligen Systeme für Konsumenten und Entwickler haben. Ich finde die Diskussion hier völlig überflüssig.
Vor allem warum macht man jetzt hier den Aufriff mit den alten Konsolen, wenn die neuen in weniger al 4 Monaten bei den Leuten stehen werden? :ugly:

dargo
2013-08-26, 14:46:45
Du bist bloß neidisch dass TLoU nicht für PC erschien.
Aber sowas von. :uup:

Grestorn
2013-08-26, 14:51:31
Es ging nicht um PC vs. Konsole sondern um 720p statt 1080p und das man das nicht wirklich merken würde.

Doch, das merkt man. Und das merkt man auch am TV Gerät, nur kennen die Konsoleros das inzwischen kaum noch anders, es ist ja alles bestenfalls 720p heutzutage.

PCler sind da eventuell etwas empfindlicher.

Watson007
2013-08-26, 14:58:35
Aber sowas von. :uup:

das ist Pech. Es ist aber schon möglich dass auch auf der PS4 die Auflösung wieder auf 720p runtergeht wenn mehr Grafikanforderungen gestellt werden ;)

Deathcrush
2013-08-26, 15:02:35
Warum immer gleich 720p? Vielleicht wählt man auch eine Auflösung die genau dazwischen liegen wird. Ich denke, das nur wenige Titel wirklich 720p haben werden und dann auch nur Multiplattformtitel.

DinosaurusRex
2013-08-26, 15:20:38
Dargo, ich finde du übertreibst maßlos.

http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/8/1.bmp.jpg/EG11/resize/1280x-1
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/7/3.bmp.jpg/EG11/resize/1280x-1
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/9/2.bmp.jpg/EG11/resize/1280x-1

Was gibt es denn an dieser Grafik auszusetzen, außer das die Kantenglättung nicht auf high-end PC Niveau ist?

Was Naughty Dog da aus dieser Asbach-uralt Hardware rausquetscht, ist für mein Verständnis einfach nur phänomenal.

Und wer dieses Spiel nur aufgrund der Bildqualität nicht spielen möchte, der ist einfach nur selber schuld.

Lightning
2013-08-26, 15:22:46
Ich glaube auch nicht wirklich an 720p, erst recht nicht für den Durchschnitt. Ist denn bisher für irgendein Next Gen-Spiel diese Auflösung bestätigt?
Abweichungen von 1080p nach unten hin wird es sicher geben. Aber eben wahrscheinlich eher so, wie wir es bei der jetzigen Generation und 720p hatten.


Natürlich nicht. :rolleyes:

Naughty Dog hat das Game bestimmt wieder schlecht programmiert und da liegen sicherlich noch irgendwo in der Ecke 50% Leistung brach. :freak: Vorallem zum Lebenende der alten Konsolen.

Keine Ahnung, wovon du redest.

Hübie
2013-08-26, 15:25:18
Dargo, ich finde du übertreibst maßlos.

http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/8/1.bmp.jpg/EG11/resize/1280x-1
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/7/3.bmp.jpg/EG11/resize/1280x-1
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/9/2.bmp.jpg/EG11/resize/1280x-1

Was gibt es denn an dieser Grafik auszusetzen, außer das die Kantenglättung nicht auf high-end PC Niveau ist?

Was Naughty Dog da aus dieser Asbach-uralt Hardware rausquetscht, ist für mein Verständnis einfach nur phänomenal.

Und wer dieses Spiel nur aufgrund der Bildqualität nicht spielen möchte, der ist einfach nur selber schuld.

Full ack. :biggrin: Wer von den miesmachern hier hat denn eine Konsole ala PS360? :cool:

DinosaurusRex
2013-08-26, 15:26:31
Ist denn bisher für irgendein Next Gen-Spiel diese Auflösung bestätigt?


Soweit ich das richtig mitbekommen habe für alle außer Battlefield 4. Ich hab aber keine Ahnung ob die da tricksen.

Edit: Achso du meinst das glaube ich andersherum, oder? Dann ignorier mich einfach. :D

dargo
2013-08-26, 16:05:45
Keine Ahnung, wovon du redest.
Du hast folgendes gesagt als du mich mit den 22fps zitiert hast.
Hat aber wenig damit zu tun, dass die Konsolen veraltet sind.
Hat natürlich überhaupt nichts damit zu tun, dass die PS3 aus dem letzten Loch pfeift und nicht mal 30fps durchgehend halten kann, für das was Naughty Dog in diesem Spiel vor hatte. Sind bestimmt wieder die Programmierer schuld. :rolleyes:

Grestorn
2013-08-26, 16:10:00
Full ack. :biggrin: Wer von den miesmachern hier hat denn eine Konsole ala PS360? :cool:

Ja, die Grafik ist künstlerisch aussergewöhnlich gut - gerade in den Cutscenes, aber auch sonst. Die fehlende Auflösung lässt sich aber nicht wegdiskutieren, deswegen schauen die Bilder ja nicht grundsätzlich schlechter aus.

Das hat auch nichts mit miesmachen zu tun. Es gibt keinen Grund das Problem verteidigen zu wollen. 720p ist für die nächste Generation absolut inakzeptabel, und wenn sie es wieder noch schaffen, das Versprechen von vor 8 Jahren endlich einzulösen, dann ist das ein Armutszeugnis auf ganzer Linie,

Ich habe nichts gegen Konsolen, aber ich habe etwas dagegen, rein aus Mainstream und Kostengründen auf durchaus machbare und eigentlich gar nicht teure Qualität verzichten zu müssen. Warum gibt es keine Konsole für den Mainstream und Preisbewussten Kunden und eine für Enthusiasten? Man müsste die Spiele nur in zwei Leistungsstufen skalieren (viel einfacher als auf dem PC) und könnte dennoch jedem Anspruch gerecht werden. Und vlt. sogar endlich mal eine Maussteuerung auf der Konsole zulassen. Warum das Gamepad so sakrosankt ist, werde ich eh nie verstehen.

dargo
2013-08-26, 16:11:43
Dargo, ich finde du übertreibst maßlos.

http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/8/1.bmp.jpg/EG11/resize/1280x-1
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/7/3.bmp.jpg/EG11/resize/1280x-1
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/9/2.bmp.jpg/EG11/resize/1280x-1

Was gibt es denn an dieser Grafik auszusetzen, außer das die Kantenglättung nicht auf high-end PC Niveau ist?

Was Naughty Dog da aus dieser Asbach-uralt Hardware rausquetscht, ist für mein Verständnis einfach nur phänomenal.

Und wer dieses Spiel nur aufgrund der Bildqualität nicht spielen möchte, der ist einfach nur selber schuld.
Ganz große Klasse. Sind natürlich astreine Beispiele in ~15m² Räumen. :rolleyes: Und das dritte Bild ist am besten für diesen Vergleich. Hauptfigur + jede Menge DoF dahinter. :freak:

Bin begeistert. :ulol:
http://images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/9/4.bmp.jpg/EG11/resize/1280x-1

Eigentlich eher so da das 720p Bild immer automatisch 1:1 klein auf dem Bildschirm dargestellt wird.
http://s7.directupload.net/images/130826/wmpo8mrd.jpg

Ich glaube auch nicht wirklich an 720p, erst recht nicht für den Durchschnitt. Ist denn bisher für irgendein Next Gen-Spiel diese Auflösung bestätigt?

Wir sind doch erst am Anfang. Schon vergessen was die alten Konsolen am Anfang geliefert haben? Da gab es auch paar Titel die sogar damals Full-HD boten. Warte mal 2-3 Jahre ab.


Ich habe nichts gegen Konsolen, aber ich habe etwas dagegen, rein aus Mainstream und Kostengründen auf durchaus machbare und eigentlich gar nicht teure Qualität verzichten zu müssen. Warum gibt es keine Konsole für den Mainstream und Preisbewussten Kunden und eine für Enthusiasten?
Das wird schon aus thermischen Gründen nicht funktionieren. Du kannst nicht einfach so um die 400W an Verlustleistung in diesen kleinen Kisten betreiben.

Grestorn
2013-08-26, 16:29:53
Das wird schon aus thermischen Gründen nicht funktionieren. Du kannst nicht einfach so um die 400W an Verlustleistung in diesen kleinen Kisten betreiben.

Eine Enthusiasten-Version darf ruhig größer und aufwendiger gekühlt sein!

Windi
2013-08-26, 16:31:46
Ganz große Klasse. Sind natürlich astreine Beispiele in ~15m² Räumen. :rolleyes:
sieht trotzdem gut aus. Und bei kleineren Räumen, in denen man sich meist sogar langsamer bewegt, achtet man auch mehr auf die Details. Das ist halt eine gute Ausnutzung der Möglichkeiten der Hardware, man muss ein Spiel ja nicht zwangsweise auf nur große Areale oder nur kleine Räume festlegen.

Und das dritte Bild ist am besten für diesen Vergleich. Hauptfigur + jede Menge DoF dahinter. :freak:
Genau so soll es halt sein. Der Regisseur/Entwickler gibt halt vor, wohin man schauen und worauf sich die Pupille fokussieren soll. Ein scharfer Hintergrund mit hunderten von Details wäre vollkommen unrealistisch.
So ist das auch bei Fotos, Filmen und in der Realität.

Skysnake
2013-08-26, 16:36:10
Eine Enthusiasten-Version darf ruhig größer und aufwendiger gekühlt sein!
Und wer soll das kaufen?

Die paar hundert/tausend "Enthusiasten" wie dich?

Da wirst du NIE auch nur die Entwicklungskosten rein spielen, oder wärst du bereit für so ne "High-End" Konsole >1000€ zu bezahlen? Und wenn ja, wieviele wohl sonst noch?

Du/Ihr/Wir können darauf hoffen, dass die Produktzyklen kürzer werden, also vielleicht so 4 Jahre, wenns ganz gut läuft auch 3, wobei ich das für zu kurz halte. Mehr kann man aber nicht erwarten.

dargo
2013-08-26, 16:37:07
Eine Enthusiasten-Version darf ruhig größer und aufwendiger gekühlt sein!
Bau dir doch gleich selbst sowas. Zumal du dir die Komponenten auch selbst aussuchen kannst, nach deinen Wünschen.

sieht trotzdem gut aus. Und bei kleineren Räumen, in denen man sich meist sogar langsamer bewegt, achtet man auch mehr auf die Details. Das ist halt eine gute Ausnutzung der Möglichkeiten der Hardware, man muss ein Spiel ja nicht zwangsweise auf nur große Areale oder nur kleine Räume festlegen.

Alles auf low bis ultra-low Level. Toll...


Genau so soll es halt sein. Der Regisseur/Entwickler gibt halt vor, wohin man schauen und worauf sich die Pupille fokussieren soll. Ein scharfer Hintergrund mit hunderten von Details wäre vollkommen unrealistisch.
So ist das auch bei Fotos, Filmen und in der Realität.
Du hast überhaupt nicht verstanden worum es mir ging.

DinosaurusRex
2013-08-26, 16:40:56
Genau so soll es halt sein. Der Regisseur/Entwickler gibt halt vor, wohin man schauen und worauf sich die Pupille fokussieren soll. Ein scharfer Hintergrund mit hunderten von Details wäre vollkommen unrealistisch.
So ist das auch bei Fotos, Filmen und in der Realität.

Beyond Two Souls wird da vermutlich noch eine Schippe drauflegen:

http://www.ingame.de/files/2013/04/Beyond-Two-Souls-Cover-und-Live-Event-bekannt-gegeben-2.jpg
http://www.gameplorer.de/wp-content/uploads/2013/03/beyond-two-souls-ellen-page-als-jodie-holmes.jpg

Auch PS3 übrigens. Aber der Aufwand ist wirklich krass.

mironicus
2013-08-26, 16:43:07
Zumindest einige PS4 Games auf W7 : )
http://www.gamestar.de/hardware/konsolen/sony-playstation-4/news-artikel/playstation_4,481,3027075.html

Cool! Das PS4-Joypad ist dann wohl auch auf dem PC nutzbar! ;D

Windi
2013-08-26, 16:46:00
Du hast überhaupt nicht verstanden worum es mir ging.
Doch hab ich. Natürlich nutzt ein Entwickler solche Methoden um an einer Seite Leistung zu sparen, um sie dann woanders nutzen zu können.

Trotzdem ist das ein ganz normales künstlerisches Mittel um die Hauptfiguren in den Mittelpunkt zu rücken.
Das hat man sogar bei Animationsfilmen, bei denen es eigentlich gar kein Problem wäre alles scharf darzustellen. Die Leute wollen es halt so.

DinosaurusRex
2013-08-26, 16:49:50
Ich verstehe auch überhaupt nicht was es da zu meckern gibt. In PC Spielen kommen doch auch verschiedene LoD Stufen zum Einsatz und in solchen Cut Scenes kann man dann mal ein wenig "angeben".

Vor allem Steven Spielberg hat immer sehr gerne auf die Gesicher draufgehalten: http://www.lavideofilmmaker.com/filmmaking/steven-spielberg-film-techniques.html

Grestorn
2013-08-26, 16:52:55
Und wer soll das kaufen?

Die paar hundert/tausend "Enthusiasten" wie dich?

Da wirst du NIE auch nur die Entwicklungskosten rein spielen, oder wärst du bereit für so ne "High-End" Konsole >1000€ zu bezahlen? Und wenn ja, wieviele wohl sonst noch?

Ja, das wäre ich. Ich und viele andere. Sicher vlt. nur 10% der Konsolenkäufer insgesamt, aber das sind nicht so wenige. Die Entwicklungskosten sind marginal - man muss ja nur einige Komponenten durch die besseren Counterparts ersetzen. Einen Bulldozer statt Jaguar. Die GPU mit mehr Einheiten und Takt. Mehr Speicher. That's it. Ich glaube nicht mal, dass das von den Kosten derart reinhauen würde. Die Konsole dürfte dann statt 400€ kaum mehr als 600-700€ kosten.

Auch für die Spieleproduzenten sollte es kein großes Problem sein, die Spiele für zwei Qualitätsstufen zu produzieren.

Du/Ihr/Wir können darauf hoffen, dass die Produktzyklen kürzer werden, also vielleicht so 4 Jahre, wenns ganz gut läuft auch 3, wobei ich das für zu kurz halte. Mehr kann man aber nicht erwarten.

Das ändert nichts an der Grundproblematik. Die Hardware wird immer aus Kostengründen massiv limitiert sein.

Bau dir doch gleich selbst sowas. Zumal du dir die Komponenten auch selbst aussuchen kannst, nach deinen Wünschen.Das mach ich doch. Aber da immer wieder konsolenexklusive Games rauskommen, die man eigentlich nicht auslassen kann, kann ich mich eben nicht auf den PC alleine verlassen.

Windi
2013-08-26, 17:07:43
Außerdem verstehe ich diese PCvsKonsole Kämpfe überhaupt nicht.

Der PC hat schon genug Probleme mit der Konkurrenz High-End vs. alter Laptop.
Bei Fifa nutzt man anscheinend extra die alte PS360 Engine, damit es auch auf alten Maschinen läuft. Für High-End interessiert man sich anscheinend immer weniger. Wenn erst Spiele kommen die auf SoCs optimiert sind, wird es für die High-End-PCs noch schwerer.

Und die Konsolen haben das Problem, das für so einige ihrer Spiele die jetzige Grafik vollkommen ausreicht. Minigames, Sing-, Tanz- und Sportspiele können auch auf einer Android-Konsole für 99€ abgespielt werden. Das entzieht den Konsolen die Breite der Kundenbasis und könnte dazu führen das Konsolen in Zukunft nur noch was für die Core-Gamer ist. (Was auch heißt, das man die Entwicklungskosten auf weniger Kunden abwälzen muss)

dargo
2013-08-26, 17:13:25
Das mach ich doch. Aber da immer wieder konsolenexklusive Games rauskommen, die man eigentlich nicht auslassen kann, kann ich mich eben nicht auf den PC alleine verlassen.
Tja... in dem Fall gibts leider keine Lösung für dich. Dann musst du wohl bei den Exclusives leiden oder verzichten. ;( Ich hab das Glück, dass mich bei den Konsolen nichts Exklusives interessiert, alles was ich brauche bekomme ich am PC.

DinosaurusRex
2013-08-26, 17:14:49
Außerdem verstehe ich diese PCvsKonsole Kämpfe überhaupt nicht.


Verunsicherung. Große Verunsicherung. Und Angst. ;)

Lightning
2013-08-26, 17:16:30
Du hast folgendes gesagt als du mich mit den 22fps zitiert hast.

Hat natürlich überhaupt nichts damit zu tun, dass die PS3 aus dem letzten Loch pfeift und nicht mal 30fps durchgehend halten kann, für das was Naughty Dog in diesem Spiel vor hatte. Sind bestimmt wieder die Programmierer schuld. :rolleyes:

Was sollen diese haltlosen Unterstellungen?

Was ich sagte, war: Jede Hardware kann überfordert werden. Völlig egal, ob wir von einem Super Nintendo, der PS3 oder einem PC mit Titans im Quad-SLI sprechen: Alle Systeme sind zu langsam für Echtzeitgrafik ohne Kompromisse. Das ist schlicht und ergreifend Fakt.
Der nächste Fakt, den ich angeführt habe, ist, dass es schon vor Jahren Spiele auf den aktuellen Konsolen gab, die viel schlimmer ruckelten.

Die Schlussfolgerung: Dass The Last of Us Framedrops hat, ist kein Hinweis darauf, dass es deswegen Zeit für neue Konsolen ist, weil sie jetzt "aus dem letzten Loch pfeifen". Wenn ein Spiel schlecht läuft, ist es die Schuld des Entwicklers. Nicht, weil er zu doof ist, die Hardware richtig auszulasten (wie du es unterstellst), sondern, weil er zu viele Details untergebracht hat. Das ist völlig unabhängig zum Releasezeitpunkt.

Wir sind doch erst am Anfang. Schon vergessen was die alten Konsolen am Anfang geliefert haben? Da gab es auch paar Titel die sogar damals Full-HD boten. Warte mal 2-3 Jahre ab.

Nein, das stimmt nicht. Alle großen Titel liefen direkt mit 720p. Der Schritt zu kleineren Auflösungen ließ auch nicht lange auf sich warten. Halo 3 (das erste Halo auf der 360) fing direkt mit 1152x640 an.

dildo4u
2013-08-26, 17:21:44
Tja... in dem Fall gibts leider keine Lösung für dich. Dann musst du wohl bei den Exclusives leiden oder verzichten. ;( Ich hab das Glück, dass mich bei den Konsolen nichts Exklusives interessiert, alles was ich brauche bekomme ich am PC.
Da du dich nich wirklich mit den Konsolen Games beschäftigst kannst du das gar nich wissen,z.b hat dir das neue Tomb Raider gefallen.Uncharted ist Vergleichbar nur auf einem viel höheren Qualität's Level.

http://www.metacritic.com/game/playstation-3/uncharted-2-among-thieves

http://www.metacritic.com/game/pc/tomb-raider

Last of US ist der näste Schritt nach Uncharted und noch mal besser.Imo das beste Game was du niemals spielen wirst.Für dich ist die Krönung des Jahres dann halt BF4,für Multiformatzocker vermutlich Last of Us oder GTA5.

dargo
2013-08-26, 17:31:23
Was sollen diese haltlosen Unterstellungen?

Was ich sagte, war: Jede Hardware kann überfordert werden. Völlig egal, ob wir von einem Super Nintendo, der PS3 oder einem PC mit Titans im Quad-SLI sprechen: Alle Systeme sind zu langsam für Echtzeitgrafik ohne Kompromisse. Das ist schlicht und ergreifend Fakt.
Der nächste Fakt, den ich angeführt habe, ist, dass es schon vor Jahren Spiele auf den aktuellen Konsolen gab, die viel schlimmer ruckelten.

Die Schlussfolgerung: Dass The Last of Us Framedrops hat, ist kein Hinweis darauf, dass es deswegen Zeit für neue Konsolen ist, weil sie jetzt "aus dem letzten Loch pfeifen". Wenn ein Spiel schlecht läuft, ist es die Schuld des Entwicklers. Nicht, weil er zu doof ist, die Hardware richtig auszulasten (wie du es unterstellst), sondern, weil er zu viele Details untergebracht hat. Das ist völlig unabhängig zum Releasezeitpunkt.

Merkst du eigentlich nicht, dass du dich im Kreis drehst? Der Entwickler soll also noch weniger Details in dieses Spiel reinpumpen um die 30fps halten zu können als jetzt schon? Manche sind echt leidensfähig. :freak:


Nein, das stimmt nicht. Alle großen Titel liefen direkt mit 720p. Der Schritt zu kleineren Auflösungen ließ auch nicht lange auf sich warten. Halo 3 (das erste Halo auf der 360) fing direkt mit 1152x640 an.
Und? GT5 lief mit 1080p. Gut... fairerweise muss man sagen, dass horizontal nur 1280 Pixel gerendert wurden. Trotzdem ist das mehr als 720p. Oder war GT5 kein großer Titel? Ridge Racer 7 lief in 1080p, zumindest die Demo laut dieser Liste:
http://forum.beyond3d.com/showthread.php?t=46241

Wie es bei der Full aussah weiß ich nicht.

StefanV
2013-08-26, 17:37:05
Cool! Das PS4-Joypad ist dann wohl auch auf dem PC nutzbar! ;D
Ist das PS3 Pad nicht schon heute unter Win nutzbar??

deepmac
2013-08-26, 17:37:53
Und wer soll das kaufen?

Die paar hundert/tausend "Enthusiasten" wie dich?

Da wirst du NIE auch nur die Entwicklungskosten rein spielen, oder wärst du bereit für so ne "High-End" Konsole >1000€ zu bezahlen? Und wenn ja, wieviele wohl sonst noch?

Du/Ihr/Wir können darauf hoffen, dass die Produktzyklen kürzer werden, also vielleicht so 4 Jahre, wenns ganz gut läuft auch 3, wobei ich das für zu kurz halte. Mehr kann man aber nicht erwarten.


man bräuchte eine Bausatzlösung, aber bestimmt werden nicht in 3 Jahren neue Konsolen auf dem Markt kommen, die haben grad mal 1 Mio Vorbestellungen, die musthave Leute sind dann schon weg, 3 Jahre niemals, ende nächstes Jahr zu Weihnachten sind dann ja fast schon 1,5 Jahre um und vermutlich grad so die Entwicklungskosten eingespielt.

dargo
2013-08-26, 17:38:51
Da du dich nich wirklich mit den Konsolen Games beschäftigst kannst du das gar nich wissen,z.b hat dir das neue Tomb Raider gefallen.Uncharted ist Vergleichbar nur auf einem viel höheren Qualität's Level.

http://www.metacritic.com/game/playstation-3/uncharted-2-among-thieves

http://www.metacritic.com/game/pc/tomb-raider

Oh ja... jetzt wird die Bewertungskeule irgendwelcher Reviews rausgekrammt. :facepalm: Erstens sind das subjektive Meinungen die mich eh nicht interessieren. Zweitens würde dein Urcharted gegenüber einer Tomb Raider PC Version einfach völlig abstinken würde man die Grafik mit höherem Prozentsatz bewerten. Und zwar anhand vom aktuellen Jahr zur aktuellen Hardware! Und nicht die Taschenrechner von 2005/2006. Das ganze Bewertungssystem ist völlig für den Anus, und das weiß du auch. Wurde auch ausgiebig im Spieleforum diskutiert.

DinosaurusRex
2013-08-26, 17:39:14
Ist das PS3 Pad nicht schon heute unter Win nutzbar??

Jup: http://www.motioninjoy.com/download

Hayab
2013-08-26, 17:39:33
Vielleicht ist die gazne Aufloesung Diskussion ueberfluessig, oder mit Absicht von paar Marketingfuzzis entfacht. VRAM haben beide Konsolen genug.
Ausserdem muessen die Konsoleros mit dem mickrigen Aufloesungen leben, auf den PC wird man die Aufloesung nach belieben Auswaehlen duerfen und wenn nicht wirds halt nicht gekauft.:D

dildo4u
2013-08-26, 17:44:50
Oh ja... jetzt wird die Bewertungskeule irgendwelcher Reviews rausgekrammt. :facepalm: Erstens sind das subjektive Meinungen die mich eh nicht interessieren. Zweitens würde dein Urcharted gegenüber einer Tomb Raider PC Version einfach völlig abstinken würde man die Grafik mit höherem Prozentsatz bewerten. Und zwar anhand vom aktuellen Jahr zur aktuellen Hardware! Und nicht die Taschenrechner von 2005/2006. Das ganze Bewertungssystem ist völlig für den Anus, und das weiß du auch. Wurde auch ausgiebig im Spieleforum diskutiert.
Als wenn Tomb Raider besondere Tech hätte wie immer Konsolengame mit ein paar Upgrades wie die total verbuggte Haarsimulation.Ich hab beide Games gespielt und Tomb Raider am PC und das einzige was mir aufgefallen ist wie unverschämt bei Uncharted gestohlen wurde,das Game hat wenig mit dem klassischen Tomb Raider gemein.Aber solche Sachen fallen halt nur auf wenn man wirklich weiss wovon mach spricht was natürlich nur geht wenn man die Games auch zockt.

Grestorn
2013-08-26, 17:46:22
Verunsicherung. Große Verunsicherung. Und Angst. ;)

Bei wem? Den Konsoleros weil sie nicht das best mögliche bekommen?!

Keine Angst, ich mach mir keine Sorgen um PC-Gaming. Überhaupt keine. Gerade die letzten Jahre haben gezeigt, dass die Plattform so schnell nicht verschwinden wird.

dargo
2013-08-26, 17:49:02
Als wenn Tomb Raider besondere Tech hätte wie immer Konsolengame mit ein paar Upgrades wie die total verbuggte Haarsimulation.
Ich habe auch nirgendwo gesagt, dass Tomb Raider visuell den höchsten Level bietet. TR ist für mich immer noch einen Level unter Crysis 3. Das hatte ich auch schon im TR-Thread geschrieben. Und das mit der verbuggten Haarsimulation kann nur von einem NV-User kommen... war völlig klar. :rolleyes:

Grestorn
2013-08-26, 17:49:39
Als wenn Tomb Raider besondere Tech hätte wie immer Konsolengame mit ein paar Upgrades wie die total verbuggte Haarsimulation.Ich hab beide Games gespielt und Tomb Raider am PC und das einzige was mir aufgefallen ist wie unverschämt bei Uncharted gestohlen wurde,das Game hat wenig mit dem klassischen Tomb Raider gemein.

Im Gegensatz zu Uncharted (1 und 2) fand ich TombRaider richtig spielenswert. Die nervigen Deckungs-Shooter-Einlagen in Uncharted sind unerträglich, speziell da man sie mit dem Pad (urgh) steuern muss.

dargo
2013-08-26, 17:52:03
Ich hab beide Games gespielt und Tomb Raider am PC und das einzige was mir aufgefallen ist wie unverschämt bei Uncharted gestohlen wurde,das Game hat wenig mit dem klassischen Tomb Raider gemein.Aber solche Sachen fallen halt nur auf wenn man wirklich weiss wovon mach spricht was natürlich nur geht wenn man die Games auch zockt.
Jetzt machst du dich aber völlig lächerlich! Man kann das Rad natürlich ein zweites Mal erfinden. :rolleyes: Das gewisse Spielmechaniken immer wieder in mehreren Games verwendet werden ist absolut nichts Neues.

Und hör auf mit diesem Blödsinn man könnte sich kein Urteil bilden wenn man es nicht selbst gespielt hat. Es gibt heutzutage genug Videos/Let`s Plays im Internet.

dildo4u
2013-08-26, 17:55:04
Jetzt machst du dich aber völlig lächerlich! Man kann das Rad natürlich ein zweites Mal erfinden. :rolleyes: Das gewisse Spielmechaniken immer wieder in mehreren Games verwendet werden ist absolut nichts Neues.
Wenn die Serie sich vorher anders gespielt hat fällt das sehr auf wenn geklaut wird,es wurde dort definitiv nicht von der eigenen Idee weiter entwickelt.Das ist nix anderes als wenn sie jetzt x Shooter bei COD bedienen weil's erfolgreich ist.(Siehe Medal of Honor)

THEaaron
2013-08-26, 17:55:17
Irgendwie macht ihr euch alle lächerlich. :>

Gipsel
2013-08-26, 17:57:30
Übrigens mal was zum Thema der CPU-Wahl für die Konsolen und ob vielleicht 4 BD/PD/SR-Kerne besser gewesen wären als 8 Jaguar-Kerne mit niedrigerem Takt. Da hat doch tatsächlich mal wer eine GTX680 an verschiedene AMD-CPUs gehängt, darunter auch an ein A6-5200 (2 GHz) Kabini-System und auch an einen E-350 Brazos (1,6GHz) (http://adrenaline.uol.com.br/biblioteca/analise/784/amd-a6-5200-kabini.html?&pg=5). Man sollte übrigens bedenken, daß Kabini nur über ein PCIe x4-Interface verfügt und natürlich nur ein Quadcore ist, während die Konsolen mit doppelt so viel (oder wenn 6 nutzbar sind, immerhin noch +50%) aufwarten (mit 20% niedrigerem Takt).

http://www.adrenaline.com.br/files/upload/reviews/2013/amd_a6-5200/amd_a6-5200_kabini_15.jpg
http://www.adrenaline.com.br/files/upload/reviews/2013/amd_a6-5200/amd_a6-5200_kabini_16.jpg

http://abload.de/img/kabini_gtx680_bench4zsij.png

Ist natürlich im GPU-Limit, zeigt aber doch, daß selbst ein Jaguar-Quad halbwegs neue Spiele auch mit ~60fps bewältigen kann. Der Bobcat-Dualcore schwächelt zumindest bei Tombraider dagegen bereits erheblich. Und vermutlich gibt es auch Spiele, wo der A6-5200 arge Mühe hat, aber das ist schon mal nicht soo schlecht, insbesondere dann mit 8 Kernen.

dildo4u
2013-08-26, 17:58:43
Die Demo's sind für die Tonne in Tomb Raider gibt's Level wo die CPU massiv limitiert ganz anders als der Bench.Der Härtetest für die PS4 wird BF4 mit 64 Playern,das ist wirklich CPU Lastig da muss ideal über 6Core skaliert werden wenn sie 60fps halten wollen.(Ich hab bei BF3 mit einem AMDX6@3.2Ghz 60fps zu halten auf 64 Servern )

DrMabuse1963
2013-08-26, 17:59:33
Jup: http://www.motioninjoy.com/download

Thx , ist gebookmarkt falls ich mal in die Verlegenheit kommen sollte nen Pad nutzen zu wollen . MfG

dargo
2013-08-26, 18:05:01
Wenn die Serie sich vorher anders gespielt hat fällt das sehr auf wenn geklaut wird,es wurde dort definitiv nicht von der eigenen Idee weiter entwickelt.
Ja und? Zwingt dich jemand Tomb Raider zu kaufen? Wenns dir nicht gefällt einfach nicht kaufen. Verstehe nicht wo das Problem sein soll? Oder musst du zwangsläufig alles konsumieren?

Übrigens mal was zum Thema der CPU-Wahl für die Konsolen und ob vielleicht 4 BD/PD/SR-Kerne besser gewesen wären als 8 Jaguar-Kerne mit niedrigerem Takt. Da hat doch tatsächlich mal wer eine GTX680 an verschiedene AMD-CPUs gehängt, darunter auch an ein A6-5200 (2 GHz) Kabini-System und auch an einen E-350 Brazos (1,6GHz) (http://adrenaline.uol.com.br/biblioteca/analise/784/amd-a6-5200-kabini.html?&pg=5). Man sollte übrigens bedenken, daß Kabini nur über ein PCIe x4-Interface verfügt und natürlich nur ein Quadcore ist, während die Konsolen mit doppelt so viel (oder wenn 6 nutzbar sind, immerhin noch +50%) aufwarten (mit 20% niedrigerem Takt).

http://abload.de/img/kabini_gtx680_bench4zsij.png

Ist natürlich im GPU-Limit, zeigt aber doch, daß selbst ein Jaguar-Quad halbwegs neue Spiele auch mit ~60fps bewältigen kann. Der Bobcat-Dualcore schwächelt zumindest bei Tombraider dagegen bereits erheblich. Und vermutlich gibt es auch Spiele, wo der A6-5200 arge Mühe hat, aber das ist schon mal nicht soo schlecht, insbesondere dann mit 8 Kernen.
Also Gipsel ich bitte dich... von dir hätte ich das jetzt nicht erwartet. Was soll denn eine Szene über die CPU-Last im gesamten Spiel aussagen? Zumal du gar nichts weißt was da überhaupt gebencht wurde? War viel los, also angreifende KI oder eher tote Hose, ergo weniger CPU-Last? Das sagt nun wirklich gar nichts aus. :)

Hübie
2013-08-26, 18:15:30
Übrigens mal was zum Thema der CPU-Wahl für die Konsolen und ob vielleicht 4 BD/PD/SR-Kerne besser gewesen wären als 8 Jaguar-Kerne mit niedrigerem Takt. Da hat doch tatsächlich mal wer eine GTX680 an verschiedene AMD-CPUs gehängt, darunter auch an ein A6-5200 (2 GHz) Kabini-System und auch an einen E-350 Brazos (1,6GHz) (http://adrenaline.uol.com.br/biblioteca/analise/784/amd-a6-5200-kabini.html?&pg=5). Man sollte übrigens bedenken, daß Kabini nur über ein PCIe x4-Interface verfügt und natürlich nur ein Quadcore ist, während die Konsolen mit doppelt so viel (oder wenn 6 nutzbar sind, immerhin noch +50%) aufwarten (mit 20% niedrigerem Takt).

http://www.adrenaline.com.br/files/upload/reviews/2013/amd_a6-5200/amd_a6-5200_kabini_15.jpg
http://www.adrenaline.com.br/files/upload/reviews/2013/amd_a6-5200/amd_a6-5200_kabini_16.jpg

http://abload.de/img/kabini_gtx680_bench4zsij.png

Ist natürlich im GPU-Limit, zeigt aber doch, daß selbst ein Jaguar-Quad halbwegs neue Spiele auch mit ~60fps bewältigen kann. Der Bobcat-Dualcore schwächelt zumindest bei Tombraider dagegen bereits erheblich. Und vermutlich gibt es auch Spiele, wo der A6-5200 arge Mühe hat, aber das ist schon mal nicht soo schlecht, insbesondere dann mit 8 Kernen.

Na ja aber ohne fps-Verlaufsdiagramm sind dass etwas schwammige Darstellungen die vielleicht ein reelles Performancebild verzerren. Und wie dildo4u sagte ist es in fast allen Spielen so, dass eins, zwei Maps richtig heftig reinhauen obwohl der Bench butterweich rennt.
Deine Message hab ich dennoch verstanden. Die Wahl ist mit Jaguar sicher nicht unglücklich verlaufen. Ich machte mir Anfangs eher Sorgen um die Verfügbarkeit als um die Performance.
Auf seiten der GPU hätte es aber anno 2013 - fast 2014 - doch mehr sein dürfen. Zumindest was die ALUs / ROPs angeht.

dargo
2013-08-26, 18:18:12
Der Härtetest für die PS4 wird BF4 mit 64 Playern,das ist wirklich CPU Lastig da muss ideal über 6Core skaliert werden wenn sie 60fps halten wollen.(Ich hab bei BF3 mit einem AMDX6@3.2Ghz 60fps zu halten auf 64 Servern )
Nicht wirklich vergleichbar. Niemand weiß inwieweit sich die Effizienz der Engine verändert hat. Frostbite 2 ist nicht Frostbite 3. Zudem gibts eine CPU-Entlastung beim PC mit Win8 und DX11.1. Wie stark muss sich erst zeigen. Wenn man schon am PC nochmals zusätzliche CPU-Entlastung bietet (DX11.0 ist schon DX9 um Welten voraus) wird man das erst recht bei der PS4 tun sollte es nötig sein. Möglicherweise auch der Grund dafür warum man keine 1080p bieten kann.

Lightning
2013-08-26, 18:30:37
Merkst du eigentlich nicht, dass du dich im Kreis drehst? Der Entwickler soll also noch weniger Details in dieses Spiel reinpumpen um die 30fps halten zu können als jetzt schon?

Genau. Es sei denn, die Framerate ist einem halt nicht so wichtig. Hat wie gesagt aber wenig damit zu tun, ob das Spiel nun heute erschienen ist oder vor vier Jahren.

Und? GT5 lief mit 1080p. Gut... fairerweise muss man sagen, dass horizontal nur 1280 Pixel gerendert wurden. Trotzdem ist das mehr als 720p. Oder war GT5 kein großer Titel?

GT6 wird mit der gleichen Auflösung laufen, zumindest geht das aus der Demo hervor. Ergo kein Rückschritt. Aber Einzelbeispiele helfen eh nicht weiter. Die Regel waren halt 720p. Und meine Vermutung ist halt jetzt, dass, wenn die meisten Starttitel jetzt mit 1080p laufen werden, dies sich auch im Laufe der Generation nicht so stark ändern wird. Ob ich mich damit irre, wird man in Zukunft sehen.

dargo
2013-08-26, 18:37:50
GT6 wird mit der gleichen Auflösung laufen, zumindest geht das aus der Demo hervor. Ergo kein Rückschritt. Aber Einzelbeispiele helfen eh nicht weiter. Die Regel waren halt 720p. Und meine Vermutung ist halt jetzt, dass, wenn die meisten Starttitel jetzt mit 1080p laufen werden, dies sich auch im Laufe der Generation nicht so stark ändern wird. Ob ich mich damit irre, wird man in Zukunft sehen.
Ich glaube wir reden etwas aneinander vorbei. Ich gehe jetzt auch nicht davon aus, dass man größtenteils auf 720p gehen wird. Um Gottes Willen. Ich wollte damit nur ausdrücken, dass man oft die 1080p nicht halten können wird. Da gibts ja mehrere Auflösungen dazwischen wo man ausweichen kann. Ich würde aber auch nicht ausschließen, dass einzelne Games in Zukunft doch noch auf 720p zurückfallen. Gerade in wenigen Jahren wo man noch eine Schüppe visuell drauflegen will.

Apropo GT6... um ehrlich zu sein sehe ich da auch nicht wirklich einen grafischen Fortschritt zu GT5.

dildo4u
2013-08-26, 18:41:06
Es gibt auch Beispiele wo die Auflösung erhöt wurde,z.b GTA4 zu GTA5.Die ganzen PS3 Trailer sind jetzt viel klarer als den Mist den man 2008 angeboten hat.

Rechte Seite PS3
http://youtu.be/F0RS1vaHkdk

GTA5 Gameplay auf PS3

http://youtu.be/N-xHcvug3WI

Mann kann Beispielweise auch bei der PS4 erstmals Effekte kastrieren bevor man die Auflösung senkt,z.b wie bei GT5 die Rauchauflösung.

Gebrechlichkeit
2013-08-26, 18:54:07
Fuer die Tech-affinen unter uns :
MS will be talking about Xbox One silicon at Hot Chips 25 conference next Monday/also heute oder naechste Woche ?!
http://www.neogaf.com/forum/showthread.php?t=657721

Skysnake
2013-08-26, 19:04:04
Ja, das wäre ich. Ich und viele andere. Sicher vlt. nur 10% der Konsolenkäufer insgesamt, aber das sind nicht so wenige. Die Entwicklungskosten sind marginal - man muss ja nur einige Komponenten durch die besseren Counterparts ersetzen. Einen Bulldozer statt Jaguar. Die GPU mit mehr Einheiten und Takt. Mehr Speicher. That's it. Ich glaube nicht mal, dass das von den Kosten derart reinhauen würde. Die Konsole dürfte dann statt 400€ kaum mehr als 600-700€ kosten.

Ich habe das Gefühl, du hast keinen blassen schimmer davon, was es beudeutet einen SOC zu designen, geschweige denn davon, was es bedeutet, wenn man einmal nen Handoptimiertes Desing Bulldozer und das andere mal ein synthethisches Design wie Jaguar hat....

Die 1k€ sind aus meiner Sicht schon sehr sehr sehr konservativ geschätzt!


Mann kann Beispielweise auch bei der PS4 erstmals Effekte kastrieren bevor man die Auflösung senkt,z.b wie bei GT5 die Rauchauflösung.
Juhu, endlich schnallt es mal jemand...

Und das "lustige" dabei ist, man sieht es oft nicht wirklich. Da wedelt sich doch so mancher Developer gerade einen von der Palme, wie toll Sie das doch schon umgesetzt haben in ihrer Engine...

M4xw0lf
2013-08-26, 19:05:42
Fuer die Tech-affinen unter uns :
MS will be talking about Xbox One silicon at Hot Chips 25 conference next Monday/also heute oder naechste Woche ?!
http://www.neogaf.com/forum/showthread.php?t=657721
Muss eigentlich heute sein, oder die Hot Chips ist viel länger als ich denke ;)

dildo4u
2013-08-26, 19:08:13
Vortrag läuft.

Msoft XBox One SoC has 47 MBytes cache in 363mm2 die

https://twitter.com/rickbmerritt/status/372041119833800704

Msoft XBox One supports shared coherent memory between 8 AMD Jaguar cores and DX 11.1+ GPU like @hsafoundation

https://twitter.com/rickbmerritt/status/372042121777541120

dargo
2013-08-26, 19:12:49
Juhu, endlich schnallt es mal jemand...

Und das "lustige" dabei ist, man sieht es oft nicht wirklich.
Fielmann? :uconf2:
http://images.eurogamer.net/articles//a/1/3/0/4/5/7/0/Dodgy_Alpha2.jpg.jpg
http://images.eurogamer.net/articles//a/1/3/0/4/5/7/0/Dodgy_Alpha1.jpg.jpg

Skysnake
2013-08-26, 19:13:49
gibts zur HotChips eigentlich nen liveStream?

EDIT:
:facepalm:
Dargo.... DAS IST ALTER DRECK! meine Fresse.... Die neue Konsolenhardware bietet da ganz andere Möglichkeiten.

Schau einfach mal im Tatarchuk-Destiny-SIGGRAPH2013 PDF auf die Slides 134-137....

Da siehst du trotz Reduzierung auf 1/4 der Auflösung absolut keinen Unterschied AUF DER NEUEN! Konsolenhardware...

Den Link zum PDF habe ich nicht parat, sollte aber auf einer der vorhergehenden Seiten zu finden sein.

EDIT2:
Ok, hab den Post doch schnell gefunden:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9883501&postcount=1206

Und der Direkt-Link zum PDF:http://advances.realtimerendering.com/s2013/Tatarchuk-Destiny-SIGGRAPH2013.pptx

dildo4u
2013-08-26, 19:20:35
Fielmann? :uconf2:
http://images.eurogamer.net/articles//a/1/3/0/4/5/7/0/Dodgy_Alpha2.jpg.jpg
http://images.eurogamer.net/articles//a/1/3/0/4/5/7/0/Dodgy_Alpha1.jpg.jpg
Das fiel nur so stark im Regen auf wurde aber bei GT6 gefixt ist immer noch low Res blendet aber besser mit den Autos zusammen.

Smoke and particles no longer create unsightly artifacts quite so often when they overlap over surrounding geometry,

http://www.eurogamer.net/articles/digitalfoundry-gt6-demo-vs-gt5

dargo
2013-08-26, 19:22:44
Das fiel nur so stark im Regen auf wurde aber bei GT6 gefixt ist immer noch low Res blendet aber besser mit den Autos zusammen.


http://www.eurogamer.net/articles/digitalfoundry-gt6-demo-vs-gt5
Na immerhin. :)

Finch
2013-08-26, 20:07:58
Du hast hier deinen Spaß, oder?

Hallo
2013-08-26, 20:22:44
Nein, das stimmt nicht. Alle großen Titel liefen direkt mit 720p. Der Schritt zu kleineren Auflösungen ließ auch nicht lange auf sich warten. Halo 3 (das erste Halo auf der 360) fing direkt mit 1152x640 an.

Ich glaub Dragons Lair heisst das Spiel von Factor5 und RidgeRacer7 sind first gen Games und liefen auf der PS3 in nativen 1080p. Aber ja, das waren ganz seltene Ausnahmen.

Windi
2013-08-26, 20:47:28
Also nachdem was bei NeoGaf über die HotChip Konferenz berichtet wurde, hat die Xone:

47MB onDIE Speicher. Also 32MB ESRAM + 4MB L2 Cache + 11MB für ?

Die Konsole bekommt 8GB Flashspeicher. Fürs Betriebssystem oder als Beschleuniger für die Festplatte?

Ich habe noch keinen ARM Kern gesehen. (Hat den jetzt nur die PS4 fürs StandBy)

Anscheinend kann die CPU doch auf den ESRAM zugreifen und nicht nur die GPU.

xyleph
2013-08-26, 21:04:05
Angabe der One GPU:
- 41GigaTexel/Sec
- 13,6GigaPixel/Sec
- 1,31TFLOPs

fondness
2013-08-26, 21:23:14
http://img826.imageshack.us/img826/9889/rkrw.jpg (http://imageshack.us/photo/my-images/826/rkrw.jpg/)

Und noch viele weitere Folien: http://semiaccurate.com/2013/08/26/xbox-one-details-in-pictures/

Interessant ist daran vor allem der 28nm HPM Prozess von TSMC. Also nichts GF und nichts HP.

dildo4u
2013-08-26, 21:24:23
https://semiaccurate.com/assets/uploads/2013/08/XBO_diagram_WM.jpghttps://semiaccurate.com/assets/uploads/2013/08/XBO_GPU_WM.jpghttps://semiaccurate.com/assets/uploads/2013/08/XBox_One_diagram.jpg

Iterator
2013-08-26, 21:25:02
47MB onDIE Speicher. Also 32MB ESRAM + 4MB L2 Cache + 11MB für ?



Die 11 MB sind für die 15 Special-Purpose-Processors.

prinz_valium
2013-08-26, 21:42:41
was nutzt die ps4? den normalen hp von tsmc?

naja das könnte immerhin die angeblichen yieldprobleme erklären
wäre ja der erste große chip, der hpm nutzt, oder?
sonst doch nur der snapdrogon 800

fondness
2013-08-26, 21:46:53
wäre ja der erste große chip, der hpm nutzt, oder?
sonst doch nur der snapdrogon 800

Ja, sonst nur Snapdragon 800 AFAIK. Möglich dass dadurch die Yield-Probleme erklärt werden können. Sollte allerdings auch Vorteile beim Stromverbrauch bringen.

Windi
2013-08-26, 22:05:31
Die 11 MB sind für die 15 Special-Purpose-Processors.
Der Sound-Teil hat noch ein paar kleinere Caches und der Grafik-Teil sicher auch.
Aber dann bleiben da sicher 8-10MB übrig. Welche von den 15 Special-Purpose-Processors braucht denn so viel Cache?

edit: OK, bei NeoGaf hat jemand geschrieben, dass der Grafikteil ungefähr 4,2MB an Caches haben sollte. Wenn ich da noch den Sound-Teil und den L1 der CPU drauf rechne, dann komme ich auf ungefähr 6MB für die Special-Purpose-Processors. Immer noch recht viel.

mironicus
2013-08-26, 22:54:35
Ich frage mich, warum MS so viel Platz für einen OnChip-Cache verschwendet, statt in Einheiten für die GPU.

Naitsabes
2013-08-26, 23:14:05
[...] dann komme ich auf ungefähr 6MB für die Special-Purpose-Processors. Immer noch recht viel.

Vielleicht auch noch etwas Cache für diese ominösen move-engines?

][immy
2013-08-26, 23:17:14
mal so ne frage, was sind das für Special Purpose Processors?

Ich sehe grad auf den Folien 204GB/s eSRAM Anbindung. Der eSRAM wurde also nicht mit der GPU höher getaktet, falls die Folien nicht schon älter und unangepasst waren (was wohl nicht der Fall sein wird). Andererseits würden die 109GB/S die als Minium angegeben wurden wiederum auf eine Erhöhung des Taktes auch des eSRAMs hinweisen. Nun würde ich mich fragen welche zahl nun wie berechnet wurde ^^

drkohler
2013-08-27, 00:18:05
[immy;9893879']Nun würde ich mich fragen welche zahl nun wie berechnet wurde Bei der Frage möchte ich mich auch einklinken. Ich komme auf keine Art auf die von MS propagierten Zahlen.
Die 109GB/s sind das Einzige, was mir klar scheint. Laut Folie 4 256bit Speichercontroller, also 128Byte *0.853GHz = 109 GByte/s. Mehr Speichercontroller sind da nicht zu sehen auf der Folie, also kein dual-ported design? Dann dieses schwachsinnige "wir können gleichzeitig lesen und schreiben"... könnt ihr schon, wenn die vier Controller unabhängig voneinander auf physikalisch verschiedene esram-Speichermodule zugreifen, das erhöht aber nicht die 109G/s Grenze. Also wer hat das Geheimnis der 268GB/s entdeckt?

prinz_valium
2013-08-27, 01:32:26
109gb/s esram + 68gb/s ddr3 ram + 30gb/s cpu gpu kommunikation

macht 207gb/s

drkohler
2013-08-27, 02:44:22
Die drei Zahlen habe ich auch schon zusammengezählt, macht aber eben 207 und nicht 204. Gibt auch noch andere Zahlen, die man zusammen zählen kann und in die 200er Gegend kommt. Aber Zusammen zählen bleibt dennoch die naive Ansicht, das man das darf...

mboeller
2013-08-27, 07:58:11
12x CU:
- 4x64kb vector registers
- 64kb local store
- 8kb scalar registers
- 16kb L1
== 4128kb

3x groups of 4 CU:
- 16k icache
- 32k vector cache
== 144kb

4x memory controllers L2 128kb:
== 512kb

2x jaguar CU L2
== 4096kb

- 8x jaguar cores
- 32kb icache
- 32kb dcache
== 512kb

- 32mb esram

- 64kb GDS

- 240kb audio


Quelle: http://forum.beyond3d.com/showpost.php?p=1777245&postcount=5766

zusätzlich wird spekuliert das die 32MB eSRAM ECC haben, das wären dann 36MB

macht dann zusammen die 47MB, naja eigentlich 46560 KB ;)

DinosaurusRex
2013-08-27, 08:06:43
Hat die Xbox denn jetzt hUMA oder nicht? :confused:

Skysnake
2013-08-27, 08:10:57
Wie "bescheuert" wäre denn DAS bitte? :ugly:

ECC???? What the Fuck?....

Also entweder wir sehen da die Grundlage für kommende Opteron/FirePro APUs, und MS hatte absolut kein Budget, wodurch Sie was komplett von der Stange gekauft haben, oder enen hat echt jemand ins Hirn geschissen wenns so ist.

Wer kommt denn bitte auf die Idee ECC da zu verbauen? Scheis doch auf nen Bitflip... Das interessiert doch absolut KEINE Sau... Und wenn das Ding abschmiert so what. Macht man halt nen reset. Aber ich seh da absolut keinen rationalen Grund warum man da ECC verwenden sollte, außer man hat eben kein custom ASIC, sondern so viel wie nur irgendmöglich von der Stange um die Kosten zu drücken.

Windi
2013-08-27, 08:48:34
Hat die Xbox denn jetzt hUMA oder nicht? :confused:
Ich gehe mal davon aus, das sie es nicht haben, sonst hätten sie es gesagt.

Das heißt aber nur, das sie irgend etwas nicht unterstützen, das man für diesen Markennamen braucht. Ihre Lösung scheint halt etwas anders zu sein und damit nicht dem Anforderungskatalog zu entsprechen. Das heißt aber nicht zwingend, das ihre Lösung schlechter sein muss. Ihre Lösung kann theoretisch etwas schlechter oder auch viel besser sein. Das kann halt niemand so genau sagen, außer vielleicht ein paar Entwickler, die unter NDA stehen.


@ECC
Kann das vielleicht für den Kopierschutz wichtig sein?

Skysnake
2013-08-27, 08:53:02
@ECC:
ähm nein?

Dir ist die Funtkionsweise von ECC klar oder?

ECC verhindert, bzw um genau zu sein erkennt bzw korrigiert sogar Bitflips. 1 Bitfehler werden erkannt und korrigiert. 2Bitfehler werden, soweit ich das im Kopf habe, nur noch erkannt können aber nicht mehr automatisch korrigiert werden, und 3 Bitfehler können nicht mehr erkannt werden. Die Zahlen beziehen sich jeweils auf die normalerweise verwendete Anzahl an ECC-Bits (2 sind glaub ich je Byte).

Es würde also nur was helfen, wenn jemand versuchen würde den "Kopierschutz" mittels Betastrahler oder sonstiger hochenergetischer Strahlung zu überbinden, aber ich halte das für "minimalst" unpraktikabel :ugly:;D

Windi
2013-08-27, 09:15:52
Keine Ahnung, was Microsoft den Raubkopierern da wieder so zutraut :freak:;D

Skysnake
2013-08-27, 09:24:34
Es macht einfach keinen Sinn..

dargo
2013-08-27, 09:26:07
http://www.eurogamer.net/articles/digitalfoundry-gt6-demo-vs-gt5
Kurze Frage weil ich mir jetzt die Frameanalyse angeschaut habe. Gabs diese Framedrops bis zu 42fps auch schon @1080p in GT5 oder ist das neu in GT6? Weil scheinbar die kleinen Verbesserungen in GT6 jetzt auf Kosten der Framerate gehen.

DinosaurusRex
2013-08-27, 09:50:30
GT5 hatte zum Release sehr starke Framdrops. Das wurde dann aber nach ner Zeit rausgepatcht. Heute läuft das Spiel eigentlich sehr flüssig.

][immy
2013-08-27, 10:04:03
Die drei Zahlen habe ich auch schon zusammengezählt, macht aber eben 207 und nicht 204. Gibt auch noch andere Zahlen, die man zusammen zählen kann und in die 200er Gegend kommt. Aber Zusammen zählen bleibt dennoch die naive Ansicht, das man das darf...
MS hat doch damals mal was davon geschrieben, das praktisch maximal 192 gb/s raus kommen können. Eventuell sind die 208gb/s jetzt das absolute Maximum das der esram beim lesen und schreiben zusammengerechnet auch praktisch erreichen kann.

Finch
2013-08-27, 12:09:34
Kurze Frage weil ich mir jetzt die Frameanalyse angeschaut habe. Gabs diese Framedrops bis zu 42fps auch schon @1080p in GT5 oder ist das neu in GT6? Weil scheinbar die kleinen Verbesserungen in GT6 jetzt auf Kosten der Framerate gehen.

Du merkst aber schon, das du seit einigen Posts in der falschen Generation unterwegs bist, oder? GT5 und GT6 haben hier nichts zu suchen.

DinosaurusRex
2013-08-27, 14:35:37
Vgleaks hat nach langer Zeit mal wieder einen neuen Artikel veröffentlicht:

PlayStation 4 includes hUMA technology (http://www.vgleaks.com/playstation-4-includes-huma-technology/)

dildo4u
2013-08-27, 14:37:59
Kurze Frage weil ich mir jetzt die Frameanalyse angeschaut habe. Gabs diese Framedrops bis zu 42fps auch schon @1080p in GT5 oder ist das neu in GT6? Weil scheinbar die kleinen Verbesserungen in GT6 jetzt auf Kosten der Framerate gehen.
GT6 ist Democode Final komm erst im Dezember.

dargo
2013-08-27, 14:38:37
Vgleaks hat nach langer Zeit mal wieder einen neuen Artikel veröffentlicht:

PlayStation 4 includes hUMA technology (http://www.vgleaks.com/playstation-4-includes-huma-technology/)
Geiler Typo... jetzt hat die PS4 doch nur 4GB. :biggrin:

DinosaurusRex
2013-08-27, 14:41:59
Ist ja das alte Diagramm von vor Februar. ;)

EDIT: Für die neue Seite:


PlayStation 4 includes hUMA technology (http://www.vgleaks.com/playstation-4-includes-huma-technology/)

tobor
2013-08-27, 14:56:37
Das wird schon aus thermischen Gründen nicht funktionieren. Du kannst nicht einfach so um die 400W an Verlustleistung in diesen kleinen Kisten betreiben.

Xbox One und klein??? Das Ding ist riesig.

x-force
2013-08-27, 15:07:23
GT5 hatte zum Release sehr starke Framdrops. Das wurde dann aber nach ner Zeit rausgepatcht. Heute läuft das Spiel eigentlich sehr flüssig.

nein, auf 1080p ist das nicht durchgehend ohne slowdowns spielbar. ich hab mir extra für gt ne ps3 geholt, das kannst du mir glauben ;)

720p incl echtem aa ist einfach nur flüssig und ruhiger. 1080p hat nur bluraa und insbesondere mit ki und rauch/sand/wasser massive drops

selbst wenn man alleine fährt bietet 1080p nicht das fahrerlebnis, den ein simulator bieten sollte(durchgehend 60fps)

wenn du 3d anmachst fängt sogar 720p an stärker zu ruckeln als 1080p.

Crazy_Bon
2013-08-27, 15:18:18
Xbox One und klein??? Das Ding ist riesig.
Die Xbox One hat ziemlich ähnliche Maße wie die alte Xbox 1. Also wer noch die alte Konsole Zuhause stehen hat, der kann damit Maß nehmen für den Stellplatz der neuen Konsole. ;)

dargo
2013-08-27, 15:25:19
Xbox One und klein??? Das Ding ist riesig.
Nicht für 400W TDP!

Finch
2013-08-27, 15:40:56
Die Xbox One hat ziemlich ähnliche Maße wie die alte Xbox 1. Also wer noch die alte Konsole Zuhause stehen hat, der kann damit Maß nehmen für den Stellplatz der neuen Konsole. ;)

Die Konsolen haben bei mir irgendwie noch nie das Problem gehabt einen Platz zu finden. Mir macht da mein AV Receiver wesentliche mehr Probleme.

MartinB
2013-08-27, 15:51:01
Ich finds gut das die Xbox One so "groß" ist. Zum einen ist es ein weitere Versicherung gegen ROD, außerdem könnte der Lüfter durch seine größe recht leise sein (muss sich noch zeigen).

Der größte Feind von Konsolen sind doch AV-Racks. Normale Leuten behandeln das Ding wie ein Radio und verstauen Konsolen fast luftdicht in irgendwelchen Regalen.

Karümel
2013-08-27, 16:06:51
Zwischengespeichert wird im GDDR5, dafür sind 1GB reserviert. Auf die HDD wird denke ich nur gespeichert wenn du das "ok" gibst. Sonst würde das ja keinen Sinn ergeben. Erstens das Rödeln, zweitens irgendwann wäre die voll.

Noch eine Nachfrage.
Das Material was die PS4 dann aufgenommen hat, wie sieht das denn mit dem "sharen" also verteilen aus? Geht das direkt übe Knopfdruck zu Youtube, ist sowas also direkt mit eingebunden? Sony hat doch gaikai gekauft, wird aber nicht nur über den Service laufen, oder? Also wegen der Formate die verwendet werden usw.

just4FunTA
2013-08-27, 16:15:02
Noch eine Nachfrage.
Das Material was die PS4 dann aufgenommen hat, wie sieht das denn mit dem "sharen" also verteilen aus? Geht das direkt übe Knopfdruck zu Youtube, ist sowas also direkt mit eingebunden? Sony hat doch gaikai gekauft, wird aber nicht nur über den Service laufen, oder? Also wegen der Formate die verwendet werden usw.

die Videos landen dann auf Twitch, ich nehme aber mal an das man sie auch auf Festplatte oder USB Stick wird speichern können.

dildo4u
2013-08-27, 16:16:48
Noch eine Nachfrage.
Das Material was die PS4 dann aufgenommen hat, wie sieht das denn mit dem "sharen" also verteilen aus? Geht das direkt übe Knopfdruck zu Youtube, ist sowas also direkt mit eingebunden? Sony hat doch gaikai gekauft, wird aber nicht nur über den Service laufen, oder? Also wegen der Formate die verwendet werden usw.
PS4 unterstützt im OS Twitch und Ustream dort kann man Live streamen oder Clips Archivieren siehe hier: http://www.twitch.tv/directory/videos/week

http://blog.twitch.tv/2013/08/twitch-coming-to-ps4/

http://www.psu.com/a019905/

Blediator16
2013-08-27, 16:23:53
PS4 unterstützt im OS Twitch und Ustream dort kann man Live streamen oder Clips Archivieren siehe hier: http://www.twitch.tv/directory/videos/week

http://blog.twitch.tv/2013/08/twitch-coming-to-ps4/

http://www.psu.com/a019905/

Das ein riesen Ding werden.

Karümel
2013-08-27, 16:28:37
Stimmt es das die "Aufnahmen" nur 720P erstellt werden?
Bin der Meinung ich hätte mal was davon gelesen, auch weil wegen der Datengröße.

robbitop
2013-08-27, 16:50:30
Ich finds gut das die Xbox One so "groß" ist. Zum einen ist es ein weitere Versicherung gegen ROD, außerdem könnte der Lüfter durch seine größe recht leise sein (muss sich noch zeigen).

Der ROD lag an Prozessproblemen mit dem bleifreiem Lot. Ein solches Gerät wird, unabhängig von der Größe, thermisch korrekt ausgelegt. Was eine große Box bringen kann, ist dass eine leisere Kühlung möglich ist.

Gebrechlichkeit
2013-08-27, 16:56:12
Hier eine kleine Lektuere, von mir an Euch. (About the Box)

Mister X and his loyal followers have spoken
http://misterxmedia.livejournal.com/

Ein paar excerpts
Also AMD confirming that console have more ACE
like i said the PS4 custom 7xxx + more ACE
XB1 is APU (9xxx) + dGPU (9xxx + future tech)

Everything is going according to a plan: not only Microsoft will give us the most powerfull console to last on pair with PC for 5-7 years(better first 2 or 3 years) but they will shut all haters up.


mistercteam: i already explained about W2W several days ago

it is APU + DGPU

W2W = wafer 2 wafer, in stacking

Wafer:
1st layer wafer imagine as APU like Vgleak (include shape & move engine)
2nd layer wafer => dGPU
3rd Layer xx MB of eSRAM (the quantity of it will be > 32MB)

in reality it could be > 3 layer
above is simplified stacking scenario

Microsoft let Sony lie because that will play in Microsoft favoure at the end. Sony lie because they have no other options left with 7850 level GPU.

Misterx: In other words Xbox One specs have not changed since Febrary 2013(APU is a system SoC that VGleaked and dGPU is application SoC - 2x8950 level GPUs tapped together) and Xbox One is a 5TF paper beast with optimisation and other new tech will equal to PCs 5TFx2=10TF. Here is a link about what w2w is about http://misterxmedia.livejournal.com/114613.html?thread=1524661. Some pictures from the link:

http://saved.im/mtg4ndg3nnrw/homersimpson211.jpg

Blediator16
2013-08-27, 17:03:06
HAHAHAH ich hab sogar gelacht :D

just4FunTA
2013-08-27, 17:07:03
Hier eine kleine Lektuere, von mir an Euch. (About the Box)

Mister X and his loyal followers have spoken
http://misterxmedia.livejournal.com/

Ein paar excerpts








http://saved.im/mtg4ndg3nnrw/homersimpson211.jpg

http://31.media.tumblr.com/1171975114553d7723e9c26808c0833d/tumblr_mosxwt78Ic1sppmago1_250.gif

prinz_valium
2013-08-27, 18:13:57
die xbo wird schon die schtärkere und bessere konsole sein am ende des tages. ich denke da sind wir uns alle einig

aber 10tflops klingt doch etwas viel

Akkarin
2013-08-27, 18:20:35
Gibs w2w wirklich und es liegt einfach nur weiter ferne oder hat er sich das aus den fingern gezogen ? Was ist da der unterschied zum normalen stacking mit TSV ?

Coda
2013-08-27, 18:28:18
Wie "bescheuert" wäre denn DAS bitte? :ugly:

ECC???? What the Fuck?....

Also entweder wir sehen da die Grundlage für kommende Opteron/FirePro APUs, und MS hatte absolut kein Budget, wodurch Sie was komplett von der Stange gekauft haben, oder enen hat echt jemand ins Hirn geschissen wenns so ist.

Wer kommt denn bitte auf die Idee ECC da zu verbauen? Scheis doch auf nen Bitflip... Das interessiert doch absolut KEINE Sau... Und wenn das Ding abschmiert so what. Macht man halt nen reset. Aber ich seh da absolut keinen rationalen Grund warum man da ECC verwenden sollte, außer man hat eben kein custom ASIC, sondern so viel wie nur irgendmöglich von der Stange um die Kosten zu drücken.
Gröhl *zeter* die sind so dumm!111einself

Das Ding ist so ausgelegt, dass man es praktisch nie ausschalten muss. Das ist der Grund.

drkohler
2013-08-27, 18:28:53
Gibs w2w wirklich und es liegt einfach nur weiter ferne oder hat er sich das aus den fingern gezogen ? Was ist da der unterschied zum normalen stacking mit TSV ?Dieser misterx ist ein bekannter Troll und ist wohl in allen vernünftigen Foren gesperrt. Das Ganze ist auch nicht besonders amüsant weil seine feuchten Träume einfach zu übertrieben sind.
Und prinz_valium: Nein, rein von der brute-force her ist die XBoxOne etwas schwächer als die PS4. Da helfen auch keine Fantasiezahlen ("Wir können glieichzeitig lesen und schreiben"). Im Endergebnis wird man (zumindest in den ersten 1-2 Jahren) kaum je einen Unterschied feststellen können.

Avalox
2013-08-27, 18:40:25
Um wie viel langsamer ist denn ECC bei dem Speichertyp?

Akkarin
2013-08-27, 18:40:31
Dass es so niemals in der XBox ankommt war mir bewusst, ich wollte wissen ob es die Technik von der er spricht (w2w) prinzipiell gibt, aber eben noch Jahre in der Zukunft liegt, oder ob es nur ein paar ausgedachte Namen sind.

Skysnake
2013-08-27, 18:47:37
ich nicht, weil bei so viel bullshit bekomm ich Kopfschmerzen...

Gröhl *zeter* die sind so dumm!111einself

Das Ding ist so ausgelegt, dass man es praktisch nie ausschalten muss. Das ist der Grund.
Sorry, aber das ist doch ne bescheuerte Rechtfertigung bei Consumergeräten.

Du weißt genau wie ich, wie selten allein 1Bit Fehler sind, und wie unwahrscheinlich es bei auch noch ist, dass dieser 1 Bit-Fehler in Systemrelevanten Daten passiert und nicht in einem unbenutzen Speicherbereich, oder nem Speicherbereich wo Texturen usw liegen, was null negative Auswirkungen hat.

Klar hat man Millionen von Geräten, aber mehr als ein paar am Tag wird das nicht treffen. Die Wahrscheinlichkeit, das es einem innerhalb von 5 Jahren nie trifft ist sogar gar nicht so niedrig.

Sorry, aber in einem Powerlimited Chip, einfach mal so Energie für ECC zu verballern, dessen Fehlen maximal die Auswirkung hätte, das jemand vielleicht einmal im Jahr seine Kiste neu starten muss ist einfach behämmert in meinen Augen.

Das macht nur Sinn, wenn man etwas dafür zahlen müsste, das man es weg lässt.

just4FunTA
2013-08-27, 18:53:42
die xbo wird schon die schtärkere und bessere konsole sein am ende des tages. ich denke da sind wir uns alle einig

aber 10tflops klingt doch etwas viel

nein damit stehst du mit ein paar hardcorefanbys so ziemlich alleine da, die ps4 ist die klar schnellere und bessere Konsole. Kann mich nicht erinnern auch nur ein einziges mal etwas gegenteiliges gehört zu haben von Leuten die etwas Ahnung haben. Höchstens den einen oder anderen irren MSfanboy der irgendwelches wirres gefasel von sich gibt..

prinz_valium
2013-08-27, 18:58:56
alter schon der 2. der drauf reinfällt


das war doch sowas von offensichtlich sarkasmus :D

just4FunTA
2013-08-27, 19:01:17
bei dem nick ist man halt schnell geneigt dir zu glauben das du es ernst meinst bei etwas nicht ganz so wachen postings. :D

S940
2013-08-27, 22:02:34
zusätzlich wird spekuliert das die 32MB eSRAM ECC haben, das wären dann 36MB
Es macht einfach keinen Sinn..
Jupp, aber bei solchen Aussagen muss man immer das Unwissen des Verbreiters in Betracht ziehen. ECC ist Mist, ja absolut, aber es könnte sein, dass er Cachezellenredundanz mit Speicherfehlerkorrektur verwechselt hat.

32MB sind schon ein ziemlicher Brocken, da würde es mich nicht wundern, wenn sie einige viele kB als Reserve eingeplant hätten. V.a. beim Cache ist das eigentlich Gang und Gäbe. AMD fiel damals mit dem K6-3 böse auf die Nase, seitem haben sie Redundanz in den L2-Caches ^^

Obs aber gleich 4MB sein sollen .. wär etwas viel. Aber scheinbar hat sich das nur einer mal schnell anhand der fehlerhaften ECC-Auskunft ausgerechnet, darf man also anzweifeln.

Avalox
2013-08-27, 22:22:39
Ein bisschen was neues zum Kinect 2 ist heute auch genannt worden.


So kann Kinect 2 nun Objekte von 2,5 cm erkennen.
Die Erfassungsbereich beträgt 0,8 m bis 4,2 m. Die Kamera ermöglicht einen 70° Erfassungswinkel.

http://venturebeat.com/2013/08/26/microsoft-disclosed-details-for-the-main-processor-and-the-kinect-image-processor-in-the-xbox-one-video-game-console-today-at-a-chip-design-conference-those-details-are-critical-for-the-kind-of-expe/

Skysnake
2013-08-28, 05:52:58
Jupp, aber bei solchen Aussagen muss man immer das Unwissen des Verbreiters in Betracht ziehen. ECC ist Mist, ja absolut, aber es könnte sein, dass er Cachezellenredundanz mit Speicherfehlerkorrektur verwechselt hat.

32MB sind schon ein ziemlicher Brocken, da würde es mich nicht wundern, wenn sie einige viele kB als Reserve eingeplant hätten. V.a. beim Cache ist das eigentlich Gang und Gäbe. AMD fiel damals mit dem K6-3 böse auf die Nase, seitem haben sie Redundanz in den L2-Caches ^^

Obs aber gleich 4MB sein sollen .. wär etwas viel. Aber scheinbar hat sich das nur einer mal schnell anhand der fehlerhaften ECC-Auskunft ausgerechnet, darf man also anzweifeln.
Ja das macht Sinn, aber wie gesagt, wenn ich schon nen custom ASIC habe, dann wäre das echt hirnrissig bei nem reinen Consumerprodukt.

Wobei irgendwie würde es ja aktuell zu MS passen :freak:

DinosaurusRex
2013-08-28, 07:42:14
Sony 1st Party Boss auf Twitter:


When you buy a PS4 game on smartphone, it will wake your PS4 up to start downloading the game. PS4 goes back to sleep after that (https://twitter.com/yosp/status/372466175080275968?screen_name=yosp)

Coole Sache, aber ich hab TV, Receiver und Konsolen eigentlich immer an einer Steckdosenleiste angeschlossen. Mal schauen, ob ich für die PS4 eine Ausnahme machen werde.

Deinorius
2013-08-28, 08:21:07
Das wird wenigstens die Akzeptanz von Downloadspielen deutlich steigern. Wenn man keine allzu schnelle Internetverbindung hat, muss man wenigstens nicht genervt vor dem TV sitzen, bis es fertig ist.

Iceman346
2013-08-28, 08:40:34
Na jo, das ist ja etwas was die 360 jetzt schon kann.

Da ich meine Konsolen und meinen Fernseher ebenfalls an einer abschaltbaren Steckdose hab nutze ich das aber auch nie. Bei Spielen im 25+GB Bereich ist das aber, wegen der Zeitersparnis, natürlich interessanter.

M4xw0lf
2013-08-28, 08:46:11
Planet3dnow kommt hier auch nochmal zu dem Ergebnis, dass die Aussage "kein hUMA für die Xbone" korrekt war. http://www.planet3dnow.de/cms/1538-microsoft-prasentiert-xbox1-prozessor-auf-der-hot-chips-25-huma-sein-oder-nicht-sein/

Deinorius
2013-08-28, 08:58:09
Na jo, das ist ja etwas was die 360 jetzt schon kann.


Bei der PS4 würde es mich dann aber interessieren, ob diese dabei praktisch gar nicht hochfährt, also nur über diesen ARM Teil läuft und damit auch kaum Strom verbraucht. Ich nehme mal an, die Xbox 360 läuft dabei vollständig?

Iceman346
2013-08-28, 09:05:39
Nee, die hat einen Background Download Modus welcher auch aktiv ist wenn man noch einen Download laufen hat aber die Konsole abschaltet. Gibt keine Bildausgabe und es läuft iirc nur der Netzteillüfter.

Da keine Extrahardware verbaut ist wird da aber sicherlich die normale CPU laufen. Falls bei der PS4 nur der ARM Teil läuft dürfte das weniger Strom verbrauchen.

][immy
2013-08-28, 09:34:50
Sony 1st Party Boss auf Twitter:


When you buy a PS4 game on smartphone, it will wake your PS4 up to start downloading the game. PS4 goes back to sleep after that (https://twitter.com/yosp/status/372466175080275968?screen_name=yosp)

Coole Sache, aber ich hab TV, Receiver und Konsolen eigentlich immer an einer Steckdosenleiste angeschlossen. Mal schauen, ob ich für die PS4 eine Ausnahme machen werde.
und plötzlich ist "always on" ne coole Sache ;D
ja, ja, ich weiß, ist ein kleiner unterschied. trotzdem hätte man sich darüber aufgeregt wenn ms so was angekündigt hätte, da die box ja dann wer weiß was über die kamera aufnimmt und im sleep modus versendet.


anderes Thema. Weis schon jemand was das nun für special purpose processors sind?
Sind damit jetzt einfach sound-chip, video decoder/encoder, move engines etc gemeint? Komme da nicht so richtig auf 15

mboeller
2013-08-28, 09:46:29
[immy;9895651']
anderes Thema. Weis schon jemand was das nun für special purpose processors sind?
Sind damit jetzt einfach sound-chip, video decoder/encoder, move engines etc gemeint? Komme da nicht so richtig auf 15

ich komme auch nur auf 14, selbst dann wenn man den Audio-Processor 4x zählt (weil er 4 DSP drin hat), aber vielleicht zählen sie ja die speziellen Hardware-Engines auch noch extra.

Links:

http://www.planet3dnow.de/cms/wp-content/gallery/microsoftxbox/05.jpg

http://www.planet3dnow.de/cms/wp-content/gallery/microsoftxbox/11.jpg

Iruwen
2013-08-28, 10:17:42
Na jo, das ist ja etwas was die 360 jetzt schon kann.

Ja, aber MS is scheiße und Sony toll, deshalb interessiert das keinen.

DinosaurusRex
2013-08-28, 10:25:25
Ich wusste gar nicht das die Xbox360 sowas hat. Ist das eines der SmartGlass Features?

Iceman346
2013-08-28, 10:30:59
Nein, der Einkauf ist über die Xbox.com Webseite möglich, da kann man dann direkt die Downloadliste von zum Account zugeordneten Konsolen befüllen.

Bei der Konsole muss Background Downloads in den Systemoptionen aktiv sein und diese muss am Strom und mit dem Internet verbunden sein.

DrMabuse1963
2013-08-28, 10:53:23
http://www.areagames.de/artikel/detail/Technische-Details-des-Xbox-One-Chips-veroeffentlicht/126331

Windi
2013-08-28, 11:21:14
Ich habe nichts gegen einen StandBy Modus, der weiteren Zusatznutzen bringt.
Also nebenbei Updates oder Spiele runter laden. Wichtig ist mir dabei nur, das das es nicht zur Pflicht wird und das man sich dabei um den Stromverbrauch kümmert.
Die Wii ist da z.B. ein absolutes negativ Beispiel. Die verbraucht unter Vollast 18W und im StandBy 10W (mehr als 50%). Da wurden keinerlei Stromsparfunktionen integriert.


PS: Microsoft sollte wirklich ihre PR Abteilung feuern.
Die stehen jetzt da wie Idioten (wegen Always On) und Sony als goldener Ritter (weil sie die Downloads erleichtern)
Und das ganze nur weil die nicht wissen wie man mit den Leuten da draußen redet.

Watson007
2013-08-28, 11:27:20
ich glaube keine PR-Abteilung der Welt hätte das geplante Verbot des Weiterverkaufs von Gebrauchtsoftware schönreden können ;)
aber trotzdem, in den anderen Punkten hast du sicher recht. Aber es wurde halt auch mehr darüber gesprochen was das Ding NICHT kann.

Windi
2013-08-28, 11:40:27
Dann hätte die PR- und Marktforschungsabteilung das Management davor warnen und auf einen Verzicht bestehen müssen.
Aber nun gut, Steve Ballmer muss jetzt gehen, hatte vielleicht auch damit was zu tun. (Irgendein Konzept durchdrücken, obwohl man gewarnt wurde)


Ach noch was zur Cloud
http://www.consolewars.de/news/42136/xbox_one_infografik_und_video_ueber_die_macht_der_cloud/
Die ist wohl hauptsächlich zum Austausch von Daten zuständig und nicht um noch zusätzliche Leistung zu bringen. Wie es zu erwarten war.
Aber ganz kann es MS dann doch nicht mit der "Power of the Cloud" lassen. ;D

Coda
2013-08-28, 11:53:31
Sorry, aber das ist doch ne bescheuerte Rechtfertigung bei Consumergeräten.
Das hast du nicht zu entscheiden. Offensichtlich gab es Design-Kriterien die das bisschen an Mehrkosten für angemessen erscheinen ließen.

Um wie viel langsamer ist denn ECC bei dem Speichertyp?
Null. ECC ist nicht das gleiche wie registered Memory.

Skysnake
2013-08-28, 11:57:18
Dann nen mir doch einen rationalen Grund, in nem Consumergerät welches auf einem Custom! ASIC aufbaut, ECC zu verbauen, welches Powerlimited ist.

Und der Grund: Das Design war fertig und eine Anpassung, also weglassen hätte extra gekostet, habe ich schon genannt, und fällt damit weg.

Ich bin ernsthaft gespannt, was da als Begründung kommt. Mir fällt dazu nämlich nichts, rein gar nichts ein.

Wenn einer einmal im Jahr, oder vielleicht auch zweimal im Jahr das Ding neu starten muss, dann ist das absolut scheis egal. Da ist die Stromversorgung an sich in vielen Ländern dieser Welt schon für mehr Ausfälle verantwortlich... Oder haben die etwa auch gleich nu USV mit rein gepackt, damit das Ding nicht ausgeht?

Coda
2013-08-28, 11:59:31
Dann nen mir doch einen rationalen Grund, in nem Consumergerät welches auf einem Custom! ASIC aufbaut, ECC zu verbauen, welches Powerlimited ist.
Weniger Hardware-Defekte. Weniger Rücklaufquote. Stabileres System.

Windi
2013-08-28, 12:24:17
Weniger Hardware-Defekte. Weniger Rücklaufquote. Stabileres System.
Erstmal: Ich kenne mich mit ECC nicht so aus.

Aber hat man heute so häufig das Problem, das einzelne Speicherzellen (im laufenden Betrieb) im Cache der CPU/GPU ausfallen?
Der Aufwand das alles mit ECC zu überwachen und dann mit Reservezellen zu kompensieren ist dann doch recht hoch. Oder lohnt sich das tatsächlich?

Skysnake
2013-08-28, 12:59:54
Weniger Hardware-Defekte. Weniger Rücklaufquote. Stabileres System.
Also wenn einzelne Bits komplett kaputt gehen, dann habe ich im Normalfall ganz andere Probleme.

Zumal es eben nur hilft, wenn ein einziges Bit in einem Byte kaputt geht, wobei ich mir nichtmal sicher bin, ob wirklich kaputte Bits korrigiert werden können, und nicht nur Bitflips. Eigentlich korrigiert die Logik ja den Fehler inplace soweit ich das weiß.

ECC ist für Hardwaredefekt eigentlich ziemlich ungeeignet. Da macht es deutlich mehr sinn ein paar Byte/KB an redundanten Speicher zu verbauen, um solche Defekte zu kompensieren. -> Das ist kein rationales Argument.

Weniger Rücklaufquote? Wegen was bitte? :freak:

Stabileres System? Also ein Ausfall im Worstcase alle paar Tage ist also relevant? Bei Supercomputern mit Petabyte an Speicher, die dann auch noch an einem Problem Tage rechnen, macht das Sinn, bzw ist zwingend erforderlich ECC zu verbauen, weil die Wahrscheinlichkeit hoch ist, das ein Fehler auftritt, und jeder Fehler da inakzeptabel ist. In nem Consumergerät mit der geringen Menge an Speicher, wobei ja nicht mal der RAM geschützt ist, sondern wenn überhaupt nur die Caches usw ist die Menge sooo wahnwitzig klein, das die meisten Nutzer wohl das Ding 5 Jahre durchlaufen lassen werden ohne je nen Fehler zu haben.

Wie gesagt, da sorgt allein ein schlechtes Stromnetz für mehr Ausfälle in den meisten Ländern dieser Welt :ugly:

Gebrechlichkeit
2013-08-28, 13:22:46
Microsoft Could Be in Trouble, Still No FCC Approval for Xbox One
http://n4g.com/news/1341883/microsoft-could-be-in-trouble-still-no-fcc-approval-for-xbox-one

While Microsoft tries to rebut supply chain and manufacturing issues as results for a delayed Xbox One release, another possible problem has come to light. Where is the FCC Approval for the Xbox One? Without FCC approval,....... ;

Ehrlich gesagt habe ich weder das von Paul Andretti gepostete Forum Post ueber die FFC mitgekriegt, noch eine offizielle seitens der FFC (Eintrag/Report, betrifft nur USA) gelesen. Das Counterpart duerfte die BEREC hier in EU sein, von der hat man auch nix gelesen bzw. gehoert (PS4 noch Box 1). Hmm...

SamLombardo
2013-08-28, 13:50:16
http://www.areagames.de/artikel/detail/Technische-Details-des-Xbox-One-Chips-veroeffentlicht/126331
Die feiern ja die Specs regelrecht. Hab mich jetzt länger nicht damit beschäftigt. Bedeutet das irgendwas neues für die Leistungsfähigkeit der Xbox im Vergleich zur PS4? Hängt die Box doch nicht so stark hinterher?

][immy
2013-08-28, 13:50:22
Microsoft Could Be in Trouble, Still No FCC Approval for Xbox One
http://n4g.com/news/1341883/microsoft-could-be-in-trouble-still-no-fcc-approval-for-xbox-one

While Microsoft tries to rebut supply chain and manufacturing issues as results for a delayed Xbox One release, another possible problem has come to light. Where is the FCC Approval for the Xbox One? Without FCC approval,....... ;

Ehrlich gesagt habe ich weder das von Paul Andretti gepostete Forum Post ueber die FFC mitgekriegt, noch eine offizielle seitens der FFC (Eintrag/Report, betrifft nur USA) gelesen. Das Counterpart duerfte die BEREC hier in EU sein, von der hat man auch nix gelesen bzw. gehoert (PS4 noch Box 1). Hmm...

nunja, die freigabe dürfte recht schnell erteilt werden können. das sollte eigentlich kein problem sein.

ich bin auch noch ein wenig darüber erstaunt das nun doch tatsächlich ein audio-prozessor in der xbox drin ist und nicht nur ein simpler chip mit codec.
gibt es schon genaueres über den soundchip in der ps4? ob es hier nur ein codec oder tatsächlich auch ein audio prozessor?
könnte natürlich auch wieder einiges an last vom system nehmen, je nachdem wie aufwändig die audio-berechnungen denn werden können. vor allem da so ein audio-chip um einiges effizienter rechnen dürfte als ein normaler x86er Core.

Die feiern ja die Specs regelrecht. Hab mich jetzt länger nicht damit beschäftigt. Bedeutet das irgendwas neues für die Leistungsfähigkeit der Xbox im Vergleich zur PS4? Hängt die Box doch nicht so stark hinterher?
das bedeutet zumindest das MS ein aufeinander abgestimmtes system designed hat. Trotzdem wüsste ich mal gerne was die ganzen Special Purpose Processors (wenn ich fies wäre würde Special Purpose Units (SPU) schreiben :) ) denn nun genau sind.
etwas sagen die specs allerdings auch aus, die xbox one komplett auszunutzen wird diesmal wohl schwieriger als die PS4 komplett auszunutzen (Sony und MS haben mal einfach so die plätze getauscht). es sei denn Sony hat doch noch mehr custom zeugs drin als sie bisher gesagt haben.
das soll übrigens keine einschätzung zur leistungsfähigkeit sein, nur das ms es hier ein wenig komplizierter macht.

was die vermutete ecc funktionalität des esrams angeht, wäre es nicht ziemlich teuer hier 4mb in transistoren zu verbraten für den esram?

M4xw0lf
2013-08-28, 13:52:42
Die feiern ja die Specs regelrecht. Hab mich jetzt länger nicht damit beschäftigt. Bedeutet das irgendwas neues für die Leistungsfähigkeit der Xbox im Vergleich zur PS4? Hängt die Box doch nicht so stark hinterher?
Doch. Der Neuigkeitsgehalt ist hier auch gleich null - alles längst bekannt. Die Leute da sind entweder harte Fanboys und/oder total ahnungslos. Kostprobe:

So ruhig hier in dem Thread??? Wo bleibt das Gebashe der Sony-Neider??? Ein wahres Architektur-Beast was in der XBox One seinen Dienst verrichten wird!!!

Aber DDR5 ist ja so geil mit seinen 176 GB/s Bandbreite *lol*. Dank der zusätzlichen 32 MB ESRAM erreicht der Gesamtspeicher 204 GB/s. Zusätzlich 8 GB lashspeicher eMMS 4.5, der unter anderem das Betriebssystem unterstützt, heißt mehr "schnelleres" RAM für die wiedergegebene Anwendung (Spiele, etc.).

Wahrscheinlich überlegen gerade alle Microsoft und XBox-Hater, wie sie diese News wieder einmal negativ interpretieren können.

Tolle Leistung Microsoft!
Ohne Worte. :facepalm:

tobor
2013-08-28, 14:10:08
Nicht für 400W TDP!

Tja ,wie viel Watt gehen denn nun maximal mit einer "konventionellen" Kühlung bei der One?
Die Frage habe ich hier ja schon mal gestellt und keine Antwort erhalten.

snutzer
2013-08-28, 14:24:39
Mir ist das eigentlich auch egal ob 176GByte oder 204GByte. Hauptsache das was auf meinem FullHD Fernseher von der PS4 ankommt sieht 100mal besser aus als jetzt mit der PS3. Spiele gerade God of War Ascension und wenn mann mal genau hinschaut flimmerts da gewaltig durch die geringe Auflösung und das nicht vorhandene AA. (Oder liegts an meinem Fernsehr?)

Ähmmmmm: Natürlich würde sich die PS4 "besser" neben meinem TV anfühlen wenn ich wüsste das sie besser als alle anderen Konsolen ist. :-D

][immy
2013-08-28, 14:26:12
Tja ,wie viel Watt gehen denn nun maximal mit einer "konventionellen" Kühlung bei der One?
Die Frage habe ich hier ja schon mal gestellt und keine Antwort erhalten.

gehen wir mal von der letzten Konsolengeneration mit ihren bereits gigantischen Gehäusen aus. mehr als 200 Watt wirst du hier nicht verpacken können. die xbone ist zwar groß, aber nicht im vergleich zu einem midi-Tower. zudem erkaufst du dir mit einem größeren Gehäuse allenfalls etwas zeit beim lüften. die wärme muss ja auch noch abgeführt werden. im schlimmsten Fall (bei einem schlecht designten Gehäuse) staut sich die warme Luft noch. wobei sowohl Sony als auch ms diesmal wohl hoffentlich darauf geachtet haben.
da die Kühlung aber diesmal leise sein soll (zumindest bei der xbone) kannst du wohl davon ausgehen das 200Watt bei weitem nicht realistisch sind sondern irgendwas in der Richtung von 100Watt (eventuell 150Watt für das Gesamtsystem mit Netzteil). Und auch mit 100Watt mit leiser Kühlung bekommst du die Luft im Gehäuse schon gut aufgewärmt.
dann musst du ja noch bedenken, das es nicht überall so angenehm ist wie in DE. Die Konsole muss ja auch in wärmeren Ländern noch durchhalten. Also so extrem viel Spielraum mit einer leisen Kühlung hat man da einfach nicht.
da zudem viele eine Konsole wohl auch noch in einen Schrank packen werden, wo die Luft nicht abziehen kann, kann es nicht schaden da einfach ein wenig mehr Grundplatz sich durch ein größeres Gehäuse zu schaffen. Wobei ich noch immer glaube das die Ausmaße eher aus Planungstechnischen Gründen kamen, weil man noch nicht wusste, was alles rein sollte.

Mir ist das eigentlich auch egal ob 176GByte oder 204GByte. Hauptsache das was auf meinem FullHD Fernseher von der PS4 ankommt sieht 100mal besser aus als jetzt mit der PS3. Spiele gerade God of War Ascension und wenn mann mal genau hinschaut flimmerts da gewaltig durch die geringe Auflösung und das nicht vorhandene AA. (Oder liegts an meinem Fernsehr?)
definiere mal 100 mal besser. ich würde von der neuen Generation keinen Sprung wie bei den letzten Generationen erwarten. Ist halt eher eine evolution als eine Revolution.

DinosaurusRex
2013-08-28, 14:26:49
(Oder liegts an meinem Fernsehr?)

Es empfiehlt sich für Videospiele die Schärfe auf neutral zu stellen und alle möglichen Bildver(schlimm)besserer, zB Konturenverstärkung oder sowas, zu deaktivieren. ;)

Wird aber vermutlich trotzdem am Spiel liegen. lol

[immy;9896003']
definiere mal 100 mal besser. ich würde von der neuen Generation keinen Sprung wie bei den letzten Generationen erwarten. Ist halt eher eine evolution als eine Revolution.

Dazu empfehle ich zu Unterhaltungszwecken unbedingt diesen NeoGAF Thread aus dem Jahre 2005, in dem so ziemlich jeder behauptet wie kacke die next gen Grafik doch ist, das diminishing returns eine Weiterentwicklung der Grafik verhindern und das der Sprung von PS1 auf PS2 ja sowieso viel größer war:

http://www.neogaf.com/forum/showthread.php?t=47031

P.S.: "Täglich grüßt das Murmeltier" läuft heute im FreeTV. :D

S940
2013-08-28, 14:39:17
Null. ECC ist nicht das gleiche wie registered Memory.Falsch, Scrubbing kostet Leistung, selbst der Background Scrubber.

Allgemein zum Thema:
Da gabs vor ein paar Jahren ne Google-Studie über den hauseigenen Rechnerpark, da gabs deutlich mehr RAM-Probleme als erwartet. Eventuell hatten die MSler das gelesen und Panik bekommen? :freak:

Edit: Link zum Paper von 2009:
http://www.cs.toronto.edu/~bianca/papers/sigmetrics09.pdf

Wobei es da allerdings um DRAM im GB-Bereich ging und nicht um eher läppische 32MB eDRAM...

Außerdem wird der eDRAM doch nur von der GPU benutzt, oder nicht? Da ist bei nem Bitfehler halt mal ein Pixel dunkelgrün anstatt hellgrün, aber sonst ist das da ziemlich egal ... also mich würde es auch wundern. Glaube eher an ne Cachezellenredundanz für bessere Yields.

tobor
2013-08-28, 15:02:23
[immy;9896003']gehen wir mal von der letzten Konsolengeneration mit ihren bereits gigantischen Gehäusen aus. mehr als 200 Watt wirst du hier nicht verpacken können. die xbone ist zwar groß, aber nicht im vergleich zu einem midi-Tower. zudem erkaufst du dir mit einem größeren Gehäuse allenfalls etwas zeit beim lüften. die wärme muss ja auch noch abgeführt werden. im schlimmsten Fall (bei einem schlecht designten Gehäuse) staut sich die warme Luft noch. wobei sowohl Sony als auch ms diesmal wohl hoffentlich darauf geachtet haben.
da die Kühlung aber diesmal leise sein soll

Es ging mir jetzt nicht um Microsofts Prioriäten hierbei.(wobei natürlich nicht Staubsaugerlautstärke wie in der 360 entstehen sollte, wobei hier mehr das Laufwerk als der Lüfter schuld war)
Nicht lauter als die Ps3 und Sony hatte doch gar ein 300 Watt Netzteil verbaut?
Wie wäre denn dann "drin" beim Onegehäuse?

StefanV
2013-08-28, 15:48:29
Ist es nur mir aufgefallen, oder kann man die X-Bone(r) auch ganz schön niedermachen, sprachlich? Das muss doch auch jemandem aufgefallen sein, bei M$, oder?!

prinz_valium
2013-08-28, 16:19:36
also ich würde mich mittlerweile freuen wenn man mehr und bessere grafik aus der xbo holen könnte, als aus der ps4.

einfach nur um ein paar vielen damit ein wenig die faust aufs auge zu drücken.
wird aber wohl leider nichts werden.

Finch
2013-08-28, 16:29:38
also ich würde mich mittlerweile freuen wenn man mehr und bessere grafik aus der xbo holen könnte, als aus der ps4.

einfach nur um ein paar vielen damit ein wenig die faust aufs auge zu drücken.
wird aber wohl leider nichts werden.

Wie denn bitte, wenn die Grundlage durch die Hardware nicht gegeben ist?

Air Force One
2013-08-28, 16:52:31
Wie denn bitte, wenn die Grundlage durch die Hardware nicht gegeben ist?

Die Clound! ;)








;D

Coda
2013-08-28, 17:36:00
Also wenn einzelne Bits komplett kaputt gehen, dann habe ich im Normalfall ganz andere Probleme.
Nö. Es ist ziemlich üblich, dass inein Bit oder eine Row verreckt in einem Speicher. Das lässt sich durch ECC ausgleichen.

Falsch, Scrubbing kostet Leistung, selbst der Background Scrubber.
Man kann auch nur beim lesen prüfen. Scrubbing ist völlig optional.

S940
2013-08-28, 17:52:38
Man kann auch nur beim lesen prüfen. Scrubbing ist völlig optional.Na das ist dann doch nur noch schlimmer. Da hab ich lieber nen Background Scrubber, als das er bei jedem Lesezugriff, also genau dann wenn die Daten gebraucht werden, erst noch mit dem Überprüfen anfängt.

drkohler
2013-08-28, 18:49:53
Microsoft Could Be in Trouble, Still No FCC Approval for Xbox One
Diese "News" stammt von einem Forentroll.
Die XBox One hat die FCC genau einen Tag später als die PS4 passiert (Der MS PR guy meinte zwar "vor der PS4", aber er ist ja der MS pr guy und nicht der Sony pr guy...)

Coda
2013-08-28, 18:55:52
Na das ist dann doch nur noch schlimmer. Da hab ich lieber nen Background Scrubber, als das er bei jedem Lesezugriff, also genau dann wenn die Daten gebraucht werden, erst noch mit dem Überprüfen anfängt.
Das ist nicht schlimmer, das überprüfen hast du natürlich im Lese-Pfad mit eingebaut. Das kostet dich im schlimmsten Fall nen Takt Latenz und nichts weiter.

Was glaubst du wie in so ziemlich allen modernen CPUs der Cache Parity geprüft wird?

Skysnake
2013-08-28, 20:07:09
wie wilst du mit eec ne ganze row ausgeichen? :ugly: Mehr als 1bitfehler kannste nicht ausgleichen

ECC hat nichts mit resundanz zu tun. Genau das beschreibst du aber gerade. Eventuell noch RAS-Features, aber das hat wie gesagt nichts mit ECC zu tun

DrMabuse1963
2013-08-28, 20:31:55
http://www.gamestar.de/spiele/war-thunder/news/playstation_4,46846,3027231.html

Finch
2013-08-28, 20:34:16
Die Gamestar Kommentare sind wirklich... Gamestar :D gruselig

M4xw0lf
2013-08-28, 20:43:23
Die Gamestar Kommentare sind wirklich... Gamestar :D gruselig
Meine Fresse. Einer doofer als der andere, aber jeder ein Experte. ;D

Gipsel
2013-08-28, 21:42:16
Na das ist dann doch nur noch schlimmer. Da hab ich lieber nen Background Scrubber, als das er bei jedem Lesezugriff, also genau dann wenn die Daten gebraucht werden, erst noch mit dem Überprüfen anfängt.Bei einem Lesevorgang wird natürlich immer der ECC-Check gemacht, egal ob Scrubbing an ist oder aus. Das Scrubbing kommt halt nur obendrauf, um zu verhindern, daß bestimmte Speicherbereiche ewig lange nicht gelesen werden und sich so eventuell unkorrigierbare 2Bit-Fehler aufbauen können.
Was glaubst du wie in so ziemlich allen modernen CPUs der Cache Parity geprüft wird?Nur read-only Caches (wie L1-I; mit der "richtigen" Cache-Policy evtl. auch writethrough Caches) haben Parity, alle anderen richtiges ECC. Grund: stellt man bei einem RO-Cache mit Parity einen Fehler fest, lädt man einfach aus dem Speicher (oder dem nächsthöherem Cachelevel) nach. Bei WB-Caches steht aber im Cache möglicherweise die einzige Kopie der aktuellen Daten, da geht das also nicht.

S940
2013-08-28, 21:42:32
Das ist nicht schlimmer, das überprüfen hast du natürlich im Lese-Pfad mit eingebaut. Das kostet dich im schlimmsten Fall nen Takt Latenz und nichts weiter.
"Schlimmstenfalls nen Takt" ist (bzw. war?) bei Dir als gleich null?
Was glaubst du wie in so ziemlich allen modernen CPUs der Cache Parity geprüft wird?Klar mit ECC, weiss ich, da braucht mans ja auch, wenn die CPUs in mehrstöckigen Serverracks stehen, die Atombombenexplosionen simulieren sollen.

Wenns dagegen um ne optische 3D-Darstellung einer Explosion in ner mittelprächtigen KonsolenSoC geht, wär der eine Takt wichtiger als der Helligkeitsgrad eines Pixel..

Gipsel
2013-08-28, 21:47:46
"Schlimmstenfalls nen Takt" ist (bzw. war?) bei Dir als gleich null?

Klar mit ECC, weiss ich, da braucht mans ja auch, wenn die CPUs in mehrstöckigen Serverracks stehen, die Atombombenexplosionen simulieren sollen.Außer low-power CPUs können auch Consumer-CPUs ECC für die L1-D/L2-/L3-Caches sowie Parity für L1-I. Das ist in den angegebenen Latenzen jeweils schon enthalten und voll in die Pipeline integriert.

MarcWessels
2013-08-28, 23:27:18
Die feiern ja die Specs regelrecht. Hab mich jetzt länger nicht damit beschäftigt. Bedeutet das irgendwas neues für die Leistungsfähigkeit der Xbox im Vergleich zur PS4? Hängt die Box doch nicht so stark hinterher?Die Typen von Area haben nunmal nicht den blassesten Schimmer - egal, ob es um Fernseher, Receiver, oder eben Konsolentechnologie geht.

snutzer
2013-08-28, 23:50:31
[immy;9896003']definiere mal 100 mal besser. ich würde von der neuen Generation keinen Sprung wie bei den letzten Generationen erwarten. Ist halt eher eine evolution als eine Revolution.
Also wenn es kein Kantenflimmern, besonders bei Drahtzäunen und ähnlich schmalen Objekten oder transparenten Texturen, mehr gibt ist das für mich schon 10 mal besser als jetzt. Dazu noch die höhere Auflösung die das ganze nochmals vierfach besser aussehen lässt. Bessere Texturen und Effekte. Ganz zu schweigen von höheren Frameraten die die ganze Darstellung ruhiger wirken lassen. Und dann wird hoffentlich das ganze Level in den Speicher passen was Ladezeiten minimiert.
Also schlußendlich eben 100 mal besser als jetzt. NextGen eben. Woah, ich freu mich drauf. :D

Deinorius
2013-08-29, 00:18:58
Ist es nur mir aufgefallen, oder kann man die X-Bone(r) auch ganz schön niedermachen, sprachlich? Das muss doch auch jemandem aufgefallen sein, bei M$, oder?!


Solche Dinge bemerken diese Typen doch nie im voraus. ;D

xL|Sonic
2013-08-29, 00:32:30
Kannst du auch bei der PlayStation und trotzdem hat sich da nichts getan ;)

http://www.hackworld.it/HW-Labs/Immagini/gaystation.jpg

Lost Boy
2013-08-29, 01:36:55
Kannst du auch bei der PlayStation und trotzdem hat sich da nichts getan ;)

http://www.hackworld.it/HW-Labs/Immagini/gaystation.jpg


:uclap:






:facepalm:

S940
2013-08-29, 06:48:24
Außer low-power CPUs können auch Consumer-CPUs ECC für die L1-D/L2-/L3-Caches sowie Parity für L1-I. Das ist in den angegebenen Latenzen jeweils schon enthalten und voll in die Pipeline integriert.CPU-Cache ist ja schön und gut, aber die 32MB eDRAM sind kein CPU-Cache, weder CPU noch Cache ^^.

Außerdem haben wir auch keine angegebenen Latenzen. Darum gehts doch gerade, würde ECC für den eDRAM nun Sinn machen oder nicht? Wie ich schon schrieb, bei CPU-Caches im 1000er Pack für HPC ist das absolut keine Frage, bei eDRAM für ne einzelnen Spielekonsolen dagegen ... ? Das es Leistung kostet ist ja jetzt auch außer Frage..

Edit: Hat Jaguar überhaupt ECC im L1/L2? Finde dazu nichts im (kurzem) ISSCC-Paper.

Skysnake
2013-08-29, 08:40:15
Bei einem Lesevorgang wird natürlich immer der ECC-Check gemacht, egal ob Scrubbing an ist oder aus. Das Scrubbing kommt halt nur obendrauf, um zu verhindern, daß bestimmte Speicherbereiche ewig lange nicht gelesen werden und sich so eventuell unkorrigierbare 2Bit-Fehler aufbauen können.

Richtig, wobei der ECC-Check bei DRAM eigentlich immer beim Refresh gemacht werden sollte. Da sind die Zeitspannen dann auch nicht so groß. Das passt. Bei SRAM muss man wirklich selbst drüber schrubbeln im Zweifel, weil es ja keinen Refresh gibt.


Nur read-only Caches (wie L1-I; mit der "richtigen" Cache-Policy evtl. auch writethrough Caches) haben Parity, alle anderen richtiges ECC. Grund: stellt man bei einem RO-Cache mit Parity einen Fehler fest, lädt man einfach aus dem Speicher (oder dem nächsthöherem Cachelevel) nach. Bei WB-Caches steht aber im Cache möglicherweise die einzige Kopie der aktuellen Daten, da geht das also nicht.
Auch wieder absolut richtig. Daher muss das auch so bei allen Chips sein, die in Server usw wandern. Man kann sich die Unwägbarkeit einfach nicht erlauben. Vor allem nicht das es eventuell nicht auffällt, das ein Bitflip drin ist. Bei SRAM ist das zwar nochmal deutlich unwahrscheinlicher als bei DRAM, aber da ist einfach die null Tolleranzgrenze zu sehen.

Da gehts ja nicht mal um marodierende Programme, die dann einen Absturz verursachen, sondern viel viel viel schlimmer sind Fehler die nur in Daten nen Flip verursachen. Das wird man nämlich nie mitbekommen.

Außer low-power CPUs können auch Consumer-CPUs ECC für die L1-D/L2-/L3-Caches sowie Parity für L1-I. Das ist in den angegebenen Latenzen jeweils schon enthalten und voll in die Pipeline integriert.
/Sign. Daher machts auch keinen Sinn das weg zu lassen.

Wobei mir nicht klar ist, ob Jaguar an sich auch ECC und Parity Bits hat. Als low-Power Design, was ja nicht unbedingt ins Serverumfeld soll, kann ich mir schon vorstellen, das man das weg gelassen hat. Bringt zwar nicht viel, aber da freut man sich ja über jedes mW. Andererseits würde Jaguar damit bei den Microservern raus fliegen... Wie ist denn das mit Jaguar und Microserver? Wenn ja, dann wird man da auch ECC und Parity drin haben.

CPU-Cache ist ja schön und gut, aber die 32MB eDRAM SRAM sind kein CPU-Cache, weder CPU noch Cache ^^.

/sign wobei es SRAM ist. AMD produziert wie IBM nicht eDRAM auf dem gleichen Chip wie normale Logik. Zumindest wäre mir das bisher nicht bekannt. War ja auch schon länger in der Gerüchteküche, das es sich um SRAM handeln soll. Ich hatte das aufgrund der Menge nur immer für unrealistisch gehalten, aber man sieht ja, das nur ein DIE auf dem Package ist, wobei ganz lustig ist, wie klein das Package ist. Da sieht man, das da nicht viel mit I/O ist ;)

Vor allem bei der Menge an Cache hauts halt ECHT rein. Alles per ECC zu schützen. Bei der Menge und der Tatsache, das man ja auch nur genau eine Konfiguration hat, und alles was die nicht erfüllt eigentlich wegschmeisen kann, muss man ja auch noch Redundanz verbauen, und die braucht dann ja auch wieder die ECC Bits, und dann auch noch SRAM statt eDRAM... :freak:



Außerdem haben wir auch keine angegebenen Latenzen. Darum gehts doch gerade, würde ECC für den eDSRAM nun Sinn machen oder nicht? Wie ich schon schrieb, bei CPU-Caches im 1000er Pack für HPC ist das absolut keine Frage, bei eDSRAM für ne einzelnen Spielekonsolen dagegen ... ? Das es Leistung kostet ist ja jetzt auch außer Frage..

Für die Caches ist die Menge eigentlich relativ egal. Da gehts nur um die Frage, ob ein Fehler katastrophale Auswirkungen hat, oder nicht.

Latenzen usw wird das nicht wirklich erhöhen. Das baut man schon entsprechend. Es macht das Design für die Entwickler halt anspruchsvoller, um die Latenzen/Laufzeiten zu treffen als ohne, aber das wars halt dann auch.


Edit: Hat Jaguar überhaupt ECC im L1/L2? Finde dazu nichts im (kurzem) ISSCC-Paper.
Das ist halt die Frage, die ich oben ja auch schon angerissen habe.

Ich hab mir mal paar Sachen nochmal durch den Kopf gehen lassen beim schreiben von der Antwort hier, und es könnte echt sein, dass der Chip relativ 1:1 von den Seamicro Kisten kommt, bzw dort auch eingesetzt werden soll. Denkt mal dran, dass der Chipsatz per PCI-E angebunden ist. ;) Das fand ich schon etwas seltsam. Dazu kommt noch das ECC Geraffel usw usw.

In nem Microserver wäre der Chip schon sehr interessant. Vor allem könnte man MS anbieten die Chips, die nicht funktionstüchtig sind für die XBone zu den Herstellungskosten z.B. ab zu nehmen. Das wäre ne Win-Win Situation. MS könnte die Produktion einfach richtig knallen lassen, und AMD hätte günstige Chips.
So recht dran glauben mag ich aber nicht. Zuerst müsste man ne Seamicro Kiste mit ähnlichen Chips sehen.

@Gipsel:
Für die Caches der CPU seh ich Parity und ECC ja absolut ein, da nimmt man das fertige Design und gut ist. Aber für den SRAM? Das haben Sie wenn die Seamicro-Geschichte nicht unerwartend zutrifft, ja extra für MS gemacht, und die brauchen das absolut kein ECC. Die Wahrscheinlichkeit, das da nen Bitflip ist, und der dann auch noch in nem Bereich liegt, der zu echten Fehlern führt und nicht nur zu nem Farbfehler in nem Pixel, ist doch sehr sehr sehr sehr sehr niedrig. Das wird praktisch nie passieren.

Da wäre doch ECC völlige Verschwendung, und man hätte lieber mehr Redundanz verbaut, oder eben noch mehr Speicher ansprechbar machen können, oder siehst du das anders?

EDIT:
Was mir gerade eingefallen ist, was ich eigentlich direkt noch schreiben wollte.

GK104, hat z.B. kein ECC für die onChip Caches, und wird dennoch im Profisegment verkauft... *hust

Hat man da groß was gehört, dass das soooo schlimm ist? Nö, obwohl ich es schon eine Farce finde, das man den RAM per ECC sichert, die Caches aber nicht... GK110 hat die onChip Caches wieder mit ECC geschützt. Dabei finde ich es schon "frech", das nVidia GK104 ohne onChip ECC für so Sachen wie Georesearch anpreist.

StefanV
2013-08-29, 10:14:02
Denkt mal dran, dass der Chipsatz per PCI-E angebunden ist. ;) Das fand ich schon etwas seltsam. Dazu kommt noch das ECC Geraffel usw usw.
Sorry, Skysnake, aber das hat ATi bei Chipsätzen schon immer so gemacht. Und nach der Übernahme und Adaption der ATi Chipsätzen hat da sauch AMD weiter gemacht. Das ist also nix neues - heißt nur u.U. anders.

Früher schimpfte ATi das ganze Alink-Express...

Skysnake
2013-08-29, 10:22:31
Also mir wäre ganz neu, das AMx(+) PCI-E nutzt um den Chipsatz an zu binden :ugly:

Und selbst FMx bindet den Chipsatz ja per UMI an, was zwar im großen und Ganzen nichts anderes als PCI-E ist, aber eben doch nicht das Gleiche.

Und ALink-Express kenne ich vom Namen her nicht mehr, wenn ich aber seh, dass das zu AGP Zeiten aktuell war, dann kannst du davon ausgehen, dass das alles nur nicht PCI-E ist....

DinosaurusRex
2013-08-29, 16:39:43
Charlie Demerjian zufolge takten die Jaguars in der Xbox One mit 1,9GHz:


The CPUs connect to four 64b wide 2GB DDR3-2133 channels for a grand total of 68GB/sec bandwidth. Do note that this number exactly matches the width of a single on-die memory block. One interesting thing to note is that the speed of the CPU MMU’s coherent link to the DRAM controller is only 30GBps, something that strongly suggests that Microsoft sticks with Jaguar’s half-clock speed NB. If the NB to DRAM controller is 256b/32B wide, that would mean it runs at about 938MHz, 1.88GHz if it is 128b/16B wide.

SemiAccurate would be very surprised if it was 128b wide, wires are cheap, power saving areas not. Why is this important? Unless Microsoft’s XBox One architects are masochists that enjoy doing needless and annoying work they would not have reinvented the wheel and put an arbitrarily clockable asynchronous interface between the NB and the CPU cores/L2s. Added complexity, lowered performance, and die penalty for absolutely no useful upside is not a good architectural decision. That means the XBox One’s 8 Jaguar cores are clocked at ~1.9GHz, something that wasn’t announced at Hot Chips. Now you know.

A deep dive into Microsoft’s XBox One’s architecture (http://semiaccurate.com/2013/08/29/a-deep-dive-into-microsofts-xbox-ones-architecture/)

Lightning
2013-08-29, 16:47:09
Charlie Demerjian zufolge takten die Jaguars in der Xbox One mit 1,9GHz:



A deep dive into Microsoft’s XBox One’s architecture (http://semiaccurate.com/2013/08/29/a-deep-dive-into-microsofts-xbox-ones-architecture/)

Das wäre ja echt keine schlechte Steigerung zu den bisher spekulierten 1.6 GHz.
Wäre noch interessant, ob denn die 1.6 GHz für die PS4 stimmen.

dargo
2013-08-29, 16:59:16
Wäre noch interessant, ob denn die 1.6 GHz für die PS4 stimmen.
Na hoffentlich. Dann kann man den Sonyboys etwas den Wind aus den Segeln nehmen. :biggrin:

Watson007
2013-08-29, 17:02:08
wären aber nur 18% Unterschied dann

robbitop
2013-08-29, 17:02:36
Na hoffentlich. Dann kann man den Sonyboys etwas den Wind aus den Segeln nehmen. :biggrin:

Aber leider nicht den PC-Fanboys. :D

dargo
2013-08-29, 17:03:25
Aber leider nicht den PC-Fanboys. :D
Dafür müssten die Jaguarcores mit 4+ Ghz takten. :devil:

Hallo
2013-08-29, 17:11:37
Na hoffentlich. Dann kann man den Sonyboys etwas den Wind aus den Segeln nehmen. :biggrin:

Ich bin 360 Fan und zocke auch gerne ab und zu PS3.

Doch diesmal ist X1 der PS4 klar unterlegen, teurer und unsympathischer, Punkt:)

Mehr gibt's nicht zu sagen, ausser das es mich wegen Forza und evtl. ein zwei andere Exclusives schmerzt. Aber cool daherkommen geht anders.

...wie bei Dreamcast...

Hübie
2013-08-29, 17:13:32
Mal doof gefragt: ist es im Bereich des Möglichen (und sinnvoll) einen Teil des eSRAM managed zu benutzen und einen Teil als Cache? Müsste der dann aufgeteilt "verdrahtet" werden? Habe gerade etwas Leerlauf und grübel nach ;D
Falls Blödsinn-》ignorieren...

Hallo
2013-08-29, 17:19:04
Du musst ausrechnen wieviel 1080p/720p@ Farbtiefe an Framebuffer verbrauchen (evtl. double/tripple buffer), den Rest sollte man durchaus als Cache für den DDR3 Ram nutzen können.

Gipsel oder Coda können dies bestimmt besser erläutern.

xL|Sonic
2013-08-29, 17:41:32
Durch das große Gehäuse sollte die Kühlung eigentlich auch keine Probleme machen bei so einer kleinen Taktsteigerung. Im Endeffekt käme das auch nur der PS4 zu gute. Je näher Xbox One und PS4 rücken, desto weniger Abstriche.

DinosaurusRex
2013-08-29, 18:03:01
Durch das große Gehäuse sollte die Kühlung eigentlich auch keine Probleme machen bei so einer kleinen Taktsteigerung. Im Endeffekt käme das auch nur der PS4 zu gute. Je näher Xbox One und PS4 rücken, desto weniger Abstriche.

Da beide die gleiche CPU nutzen, rücken sie bei unterschiedlichen Taktraten in dieser Disziplin eher auseinander, oder nicht? ;)

snutzer
2013-08-29, 18:19:01
PS4 40-50% schneller: http://www.hartware.de/news_58581.html (http://www.hartware.de/news_58581.html)

xL|Sonic
2013-08-29, 18:21:10
Da beide die gleiche CPU nutzen, rücken sie bei unterschiedlichen Taktraten in dieser Disziplin eher auseinander, oder nicht? ;)

Dafür ist die GPU bei der PS4 schneller. Und es ist sicher Möglich Prozesse so zur verteilen, damit kapital aus beidem geschlagen werden kann.

Akkarin
2013-08-29, 18:54:30
Nur 5 länder mit voice commands zu beginn: http://www.neogaf.com/forum/showthread.php?t=664637

CBOAT scheint mit den yields recht gehabt zu haben, bis auf die voice commands dütfe die localisierung ja kein problem sein.

megachip800
2013-08-29, 19:02:11
PS4 40-50% schneller: http://www.hartware.de/news_58581.html (http://www.hartware.de/news_58581.html)

LOL , der übliche oberflächliche Vergleich. Man kann nicht einfach die Komponenten isoliert vom rest des System einzeln betrachten und sagen weil die eine GPU mehr Flops hat als die andere ist die Konsole deshalb
schneller das gleiche mit der Ramgeschwindigkeit. Entscheidend ist eher wie die die einzelnen Komponenten innerhalb des System untereinander kommunizieren und miteinander agieren/reagieren. Darüber steht im
Artikel nichts. Und gerade in diesem Punkt ist die Xbox One besser ausbalanciert als die PS4 und hat noch andere Schmankl implementiert.

just4FunTA
2013-08-29, 19:04:38
LOL , der übliche oberflächliche Vergleich. Man kann nicht einfach die Komponenten isoliert vom rest des System einzeln betrachten und sagen weil die eine GPU mehr Flops hat als die andere ist die Konsole deshalb
schneller das gleiche mit der Ramgeschwindigkeit. Entscheidend ist eher wie die die einzelnen Komponenten innerhalb des System untereinander kommunizieren und miteinander agieren/reagieren. Darüber steht im
Artikel nichts. Und gerade in diesem Punkt ist die Xbox One besser ausbalanciert als die PS4 und hat noch andere Schmankl implementiert.

ja genau megachip muß es ja wissen. ;D

Crazy_Bon
2013-08-29, 19:08:16
Ich bin mal auf einen direkten Vergleich von Drive Club und Forza 5 gespannt. Da DC arcadelastiger wie ein PGR-Titel scheint, im Gegenzug Forza 5 sich als Advanced Simulation schimpft, müsste DC mit eingesparten Berechnungen mehr Details und Eyecandies bieten.. tut es aber nicht?

dildo4u
2013-08-29, 19:10:24
LOL , der übliche oberflächliche Vergleich. Man kann nicht einfach die Komponenten isoliert vom rest des System einzeln betrachten und sagen weil die eine GPU mehr Flops hat als die andere ist die Konsole deshalb
schneller das gleiche mit der Ramgeschwindigkeit. Entscheidend ist eher wie die die einzelnen Komponenten innerhalb des System untereinander kommunizieren und miteinander agieren/reagieren. Darüber steht im
Artikel nichts. Und gerade in diesem Punkt ist die Xbox One besser ausbalanciert als die PS4 und hat noch andere Schmankl implementiert.
Frostbite 3 läuft schon mal besser auf PS4,das wären dann NFS,BF4,Mirrors Edge 2,Dragon Age 3 und Star Wars Battlefront.

http://www.play3.de/2013/08/22/need-for-speed-rivals-hat-die-ps4-fassung-die-nase-technisch-vorne/

Schon lustig vorher haste immer geflamet wie schwach die neuen Konsolen sind und jetzt Hypst du das schwächere System.

Ich bin mal auf einen direkten Vergleich von Drive Club und Forza 5 gespannt. Da DC arcadelastiger wie ein PGR-Titel scheint, im Gegenzug Forza 5 sich als Advanced Simulation schimpft, müsste DC mit eingesparten Berechnungen mehr Details und Eyecandies bieten.. tut es aber nicht?
Du kannst nur Multi Titel direkt vergleichen,DC nutzt eine Dynamische Beleuchtung,Forza 5 ne statistische was massig Ressourcen spart.

Selbe Kurve unterschiedliche Tageszeit.

http://www.neogaf.com/forum/showpost.php?p=78248645&postcount=1131

just4FunTA
2013-08-29, 19:14:41
Ich bin mal auf einen direkten Vergleich von Drive Club und Forza 5 gespannt. Da DC arcadelastiger wie ein PGR-Titel scheint, im Gegenzug Forza 5 sich als Advanced Simulation schimpft, müsste DC mit eingesparten Berechnungen mehr Details und Eyecandies bieten.. tut es aber nicht?

ne bei forza 5 werden die kompletten hochkomplizierten Berechnungen in der Cloud gemacht dadurch kann man die komplette power in die Grafik stecken laut entwickler. :freak:

Botcruscher
2013-08-29, 19:21:13
Dafür müssten die Jaguarcores mit 4+ Ghz takten. :devil:
Liegt die IPC überhaupt über einem A64X2?


18% Mehr CPU-Leistung machen das Kraut auch nicht fett. Was wirklich zählt ist die GPU.

Hayab
2013-08-29, 19:28:01
Liegt die IPC überhaupt über einem A64X2?


18% Mehr CPU-Leistung machen das Kraut auch nicht fett. Was wirklich zählt ist die GPU.

Vielleicht will MS den Flighsimulator fuer XB1 anbieten, da spielt die GPU eine untergeordnete Rolle. Mem Read/Write macht da die FPS.:D

Kira
2013-08-29, 19:29:02
ist das bestätigt mit den 1,9 vs 1,6?

dildo4u
2013-08-29, 19:30:31
Es muss halt ordentlich Multithreaded programmiert werden immerhin bringt Sony Planetside 2 für PS4,das ist das CPU Lastigste Game was ich je gezockt habe.

Lightning
2013-08-29, 19:32:19
ist das bestätigt mit den 1,9 vs 1,6?

Nein. Die 1,9 GHz für die Xbox One sind nur die neueste Spekulation, während es bei der PS4 schon lange nichts mehr neues zur CPU gab.

edit:
Ich frage mich nur: Wenn Microsoft bei der CPU die Nase vorne hätte, hätten sie das nicht wahrscheinlich im Tech-Talk erwähnt..?

Hayab
2013-08-29, 19:36:22
Die Spiele die auf XB1 schneller laufen als auf der PS4 werden wahrscheinlich seltene Ausnahmen sein.

M4xw0lf
2013-08-29, 19:41:53
Die Spiele die auf XB1 schneller laufen als auf der PS4 werden wahrscheinlich selten Ausnahmen sein.
So eher, ne?

xxxgamerxxx
2013-08-29, 19:45:54
Nur 5 länder mit voice commands zu beginn: http://www.neogaf.com/forum/showthread.php?t=664637

CBOAT scheint mit den yields recht gehabt zu haben, bis auf die voice commands dütfe die localisierung ja kein problem sein.

Deutschland gehört zum Glück dazu.