PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Xbox One/Playstation 4: technische Spekulation und Vergleich


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47

M4xw0lf
2013-09-13, 18:13:40
Generell scheint es da ja sehr viel Verwirrung um die Leistungsfähigkeit der beiden Systeme zu geben. Hier zum Beispiel die Interpretation eines anderen Journalisten:

Microsoft emerges as a CPU force with Xbox One and Kinect (http://www.itworld.com/hardware/371478/microsoft-emerges-cpu-force-xbox-one-and-kinect)
Among the 50 MCUs are 15 special processors that can handle things like graphics and physics processing. The result is a chip and system that are freakishly powerful and would make any PC gamer drool.

(...)

Microsoft used PC standards – an x86 CPU, a DirectX 11 GPU and DDR3 memory – but it threw out the traditional PC architecture to create a beast. Many analysts have told me over the years that consoles tend to be over-engineered, so they have a long lifespan. Given Microsoft got eight years and counting out of the Xbox 360, the Xbox One should be good for at least a decade.

(...)

So when did Microsoft get so good at chips?
Wer auch immer das verzapft hat, sollte besser nie wieder über IT-Themen schreiben.

DinosaurusRex
2013-09-13, 18:19:45
Was ist wenn er recht hat und die Entwicklerstimmen von EDGE nur Sony PR sind? Albert Penello von Microsoft bestreitet ja vehement, dass die PS4 leistungsfähiger sei. ;)

M4xw0lf
2013-09-13, 18:26:45
Was ist wenn er recht hat und die Entwicklerstimmen von EDGE nur Sony PR sind? Albert Penello von Microsoft bestreitet ja vehement, dass die PS4 leistungsfähiger sei. ;)
Also bitte, der von dir zitierte Artikel ist doch einfach nur haarsträubend - der Verfasser versucht ja, entweder aus Unwillen oder Unvermögen, wobei ich letzteres stark annehme, überhaupt nicht, seine Aussagen irgendwie mit technischem Hintergrund zu untermauern. So viel secret sauce, wie für seine Fantasien nötig wäre, lässt sich auch nicht auf einem 350 mm² Die unterbringen in 28nm.

Lost Boy
2013-09-13, 19:00:49
Laut Yoshinori Ono (Deep Down) sind 60 FPS leicht erreichbar:



Quelle (http://www.youtube.com/watch?v=FkRyDDxxkUA)

The quality showcased in the PlayStation Meeting in February was reached considerably quickly, and things like 60 frames per seconds are relatively easy to achieve.

The representation of environments is close to photo realistic, and elements like degradation of weapon and armor will also be displayed graphically. The PS4 is able to calculate the accumulation of mold, dirt and rust on equipment and display it on the textures, giving you the sensation that those items really exist in the world.

Wundert mich nur warum das Material von Februar dann besser aussieht als die letzte Präsentation... :freak:

LadyWhirlwind
2013-09-13, 19:03:52
Was ist wenn er recht hat und die Entwicklerstimmen von EDGE nur Sony PR sind? Albert Penello von Microsoft bestreitet ja vehement, dass die PS4 leistungsfähiger sei. ;)

Klar, würde er öffentlich was anderes sagen, wäre er auch sein Job los...

DinosaurusRex
2013-09-13, 19:27:23
Vielleicht sollte er einfach mal weniger auf die Kacke hauen und nicht immer in Superlativen von der neuen Xbox schwärmen. Einer von den Naughty Gods hat sich jetzt erstmals öffentlich zur neuen Konsole geäußert und der hat beispielsweise Diminishing Returns ins Spiel gebracht:


However, the benefits advancing tech has on storytelling are changing. In terms of trying to render realistic characters, Druckmann said the industry is hitting the point of diminishing returns as the audience won't really care that much about depicting eyelashes and wrinkles better than ever before.

"But if you're trying to tell a more dynamic story or use AI in sophisticated ways--some of the stuff we tried to do with The Last of Us--technology will definitely go a long way," Druckmann said. "We were running out of memory as far as how many animations Ellie can carry, or how much dialog we could stream at one time. And that's where going to the PS4 in the future could really help us in the dynamic area of the game where the story is responding to the player's input on a moment-to-moment basis. Technology still has a long way to go."

Quelle (http://www.gamesindustry.biz/articles/2013-09-13-the-last-of-us-dev-says-aaa-can-learn-from-indies)

y33H@
2013-09-13, 19:27:52
There may be a SoC at the heart of the Xbox One but it will never make it into a smartphone.:ugly:

Die XBO hat mehr Bandbreite, die PS4 hinten raus mehr Compute ...

del_4901
2013-09-13, 19:27:52
Achso, ja klar, wie konnte ich das nur übersehen :ugly:

Klar, ihr werde ohne expliziete Berücksichtigung des eSRAM die volle Leistung aus der XBone herausholen ;)

Und bei der PS4 wird man sich natürlich einen Abbrechen, um für Multiplattformtitel noch das letzte quäntchen Performance raus zu holen, wenn man die 30/60 FPS mal erreicht hat.Alles reine Spekulationen von Dir, der weder von Games-entwicklung noch von Nextgen was versteht.

M4xw0lf
2013-09-13, 20:11:54
:ugly:

Die XBO hat mehr Bandbreite, die PS4 hinten raus mehr Compute ...
Wo denn? Zu ihren 32mb eSRAM? Und da auch nur etwas mehr als die PS4 zum gesamten 8GB-Speicher... an den Vorteil glaub ich nicht.

Deinorius
2013-09-13, 20:54:30
Alles reine Spekulationen von Dir, der weder von Games-entwicklung noch von Nextgen was versteht.


Direkt widersprochen hast ihm aber auch nicht.

Gipsel
2013-09-13, 21:24:28
Direkt widersprochen hast ihm aber auch nicht.
Die Argumentation geht vermutlich in die Richtung, daß man für ein Spiel (insbsondere wenn es ein AAA-Titel wird) so viel Aufwand treiben muß, daß die eSRAM-Geschichte ein ziemlich kleiner Punkt wird.

Deinorius
2013-09-13, 21:36:34
Würde ich jetzt mal auch behaupten.
Ich frage mich jetzt dennoch, ob Skysnakes Aussage im direkten Vergleich bei der Programmierung nicht dennoch zumindest nicht unwahr ist. Letzten Endes sollte man einzelne Punkte (wie nur GDDR5 vs. DDR3&eSRAM) wohl dennoch nicht vergleichen, wenn das die Gesamtsicht hinsichtlich der Programmierbarkeit nicht zufriedenstellend widergibt. Da mag Sony beim RAM simpler sein, aber vielleicht hat M$ bei der API Vorteile, oder was auch diese Move Engines bringen könnten usw.

Watson007
2013-09-13, 21:42:13
wenn sich die Unterschiede nur auf ein bisschen weniger Auflösung und fps der XBox One liegen werden die meisten Leute den Unterschied wirklich nicht mitbekommen.

Fraglich ist noch wieviel das hUMA-Konzept der PS4 ausmachen wird.

Felixxz2
2013-09-13, 22:33:08
Bei Exclusives wirds man aber deutlich merken und Sony wird das wohl auch stark bewerben wenn nur die PS4 in 1080p läuft.

00-Schneider
2013-09-13, 22:44:30
Bei Exclusives wirds man aber deutlich merken und Sony wird das wohl auch stark bewerben wenn nur die PS4 in 1080p läuft.


This.

Etwas Vergleichbares wie z.b. Infamous: Second Son muss MS erst noch für ihre One zeigen. Und dabei kommt das Spiel schon im Februar, gehört also noch quasi noch zur ersten Generation der Spiele für die neue Konsole. Bin gespannt, ob ein Exklusivspiel der One jemals dessen "technische" Qualität erreichen wird...

Hallo
2013-09-13, 22:56:25
Vielleicht sollte er einfach mal weniger auf die Kacke hauen und nicht immer in Superlativen von der neuen Xbox schwärmen. Einer von den Naughty Gods hat sich jetzt erstmals öffentlich zur neuen Konsole geäußert und der hat beispielsweise Diminishing Returns ins Spiel gebracht:



Quelle (http://www.gamesindustry.biz/articles/2013-09-13-the-last-of-us-dev-says-aaa-can-learn-from-indies)

Endlich hats jemand erkannt und ausgesprochen!

Die paar Pixel mehr sieht und juckt keinen mehr. Bestes Negativbeispiel Crysis3, supertolle Tech, superschlechtes Artdesign und die Story/Dialoge...drittklassiges Hollywood Niveau.

Shenmue1/2 hat vor fast 15 Jahren vorgeführt wie State of the Art Tech mit superbem Storytelling und Artdesign auszusehen hat.

Bayonetta (360) war das letzte current gen Game was für mich in allen Belangen, ich wage es mal, PERFEKT war. Naja, Cave shoot 'em ups natürlich auch, aber das ist sehr speziell aber extremst perfekt:)

Wenn man das Gefühl hat das ein Game, egal ob 60, 150 oder gar 300 Euro, ein Geschenk ist, dann ist alles in Ordnung.

Bei Exclusives wirds man aber deutlich merken und Sony wird das wohl auch stark bewerben wenn nur die PS4 in 1080p läuft.

Damit sollte man sich nicht rühmen weils Standard sein sollte. Panasonic hat auf der IFA 2012 einen 145" 8K Plasma vorgeführt;)

Felixxz2
2013-09-13, 23:39:16
Hä? Sie rühmen sich doch nicht damit 1080p zu können, sondern werden nur hervorheben, dass die Auflösung meist höher als bei der One ist. Manche Leute suchen aber auch das Haar in der Suppe.....

Hallo
2013-09-13, 23:42:28
1080p gibt's schon seit knapp 8 Jahren im TV Bereich.

Man sollte sich eher schämen wenn man dies nicht zu stande bringt.

Nur weil MS zu doof ist heisst dies noch lange nicht das man toll ist.

Und bedenke, Sony hat damals zu PS3 Zeiten geprahlt "mit uns beginnt das FullHD Zeitalter";)

Also Schnute an die Entwickler, 1080p, 60fps!!! und gutes Gamedesign.

Gabs alles schon zu Dreamcast Zeiten 1999, natürlich "nur" in 480p weil nicht mehr ging.

Felixxz2
2013-09-13, 23:50:39
Ich check nicht was du hast. Wenn Sony echtes 1080p bringt und MS nicht kann Sony das doch mit fug und recht bewerben!?

Hallo
2013-09-14, 00:01:50
Etwas bewerben was ein alter Hut sein sollte...Die sollten lieber mit Substanz werben, gute Spiele , gutes Gamedesign, weisst du;)

Ist wie in alten Zeiten wo es noch um 16 Bit ging, oder gar einige den 68000er mit dem Z80er zu 24 Bit verklamüserten, gähn...Wieso trauen die sich nicht mit 60fps zu werben?? Jedes NES Game lief schon mit dieser Framerate.

Wenn ich ein F-Zero GX auf GC (10 Jahre alt, hyperschnell, 29 AI Gegner oder 4er Split, alles @60fps mit 0,0 Lag) mit nem Forza Horizon vergleiche, hmm...das verstehst du nur wenn du solche Games gezockt hast, vor zehn Jahren. Deshalb bin ich höchst unbeeindruckt von solchen Aussagen wie die von Sony.

Das 30fps überhaupt noch existieren ist lachhaft. 30fps bedeuten schwammige Texturen in Motion, höherer Lag und Augenkrämpfe.

Felixxz2
2013-09-14, 00:23:01
Sony hat garnicht damit geworben....
Ich sage nur dass sie es tun werden. Das kannst du natürlich auch auf 60fps beziehen. Und nein es ist kein alter Hut den auf Konsolen ist echtes 1080p neu und wenn MS das nicht bringen kann, ist es völlig legitim wenn Sony das bewirbt.

Hallo
2013-09-14, 00:46:43
Na ok, kam so rüber als ob Sony...trotzdem 30fps annen Galgen:freak:

Ich setze diesmal auf Sonys Pferd und wehe die geigen rum...das MS rumgeigen wird steht ja leider schon fest, für mich zumindest.

Am liebsten wäre mir Sega mit ner HW Überraschung dann gäbs keine Fragen mehr:cool:

Felixxz2
2013-09-14, 01:03:54
Mir musst du das nicht sagen. Ich hätte am liebsten, dass Sony den Devs 1080p, 60fps und 16xAF vorschreiben würde. Das muss 2013 bei ner Radeon 7800 einfach drin sein.
Weiß eig jemand ob die neuen Konsolen noch dezidierte Upscaler haben?

Skysnake
2013-09-14, 01:15:08
Alles reine Spekulationen von Dir, der weder von Games-entwicklung noch von Nextgen was versteht.
Ich vesteh aber was von Hardwaredesign, und hab auch schon das eine oder andere down to the metal machen müssen/dürfen.

Aber wie gesagt, wenn du anderer Ansichten bist, dann immer zu, teil das mit den Leuten, ich lerne gerne noch was dazu ;)

Die Argumentation geht vermutlich in die Richtung, daß man für ein Spiel (insbsondere wenn es ein AAA-Titel wird) so viel Aufwand treiben muß, daß die eSRAM-Geschichte ein ziemlich kleiner Punkt wird.
Klar, für AAA-Titel ist es sicherlich witzlos, auch für die Leute, die sich mit Cell rumschlagen mussten, ist das im Vergleich dazu sicherlich ein Kindergeburtstag.

Es ist aber eben dennoch mehr Aufwand, als bei der PS4, und je wenige Aufwand man hat, desto besser rein vom Grundprinzip her. Bleibt halt mehr Zeit/Geld für was anderes über, und gerade bei nicht AAA-Titeln ist das sicherlich nicht schlecht.

Bei der XBoxone muss man halt etwas mehr denken. Ich glaube nicht, dass die API das wirklich zur vollsten Zufriedenheit bewerkstelligen wird können, und man muss ja auch mit weniger GPU-Performance auskommen als bei der PS4. Also muss man sich halt einfach mehr reinhängen bei der XBoxone als bei der PS4, um am Ende das "gleiche" Ergebnis auf dem Schirm zu haben.

HotSalsa
2013-09-14, 02:00:29
Ja das Thema Hardware is schon was tolles...

PS4 hat eine höhere Speicherbandbreite, mehr shader cores, huma, etc...
Die Xbox hat dafür eSRAM, einen extra Sound Chip, Move Engines, nach aktuellem Stand die höher getaktete CPU, etc....

Klingt auf dem Papier nach einem leichten Vorteil für die PS4. Die exclusives werden auf beiden Plattformen rocken. Wenn ich mir anschaue, was 343 Industries noch aus der 360 rausgeholt hat... Hut ab :smile:

Was an Ende übrig bleibt sind die games... sieht der DAU Nerd z.B. den angenommenen Unterscheid von 1080p auf der PS4 zu 1680x960 auf der Xbox? Ich wage es zu bezweifeln ... Wir diskutieren hier im Forum, schau mal PS4 hat richtiges 4x AA bekommen ... Xbox sieht nach max. 2x AA aus.... das fällt 95% der Käufer garantiert nicht auf.

Ich will auf jeden Fall Halo, Forza, irgendwann ein Gears, Killer Instinkt und Titanfall (Alter wieviele E3 Awards hat dieses Spiel bekommen ... :eek: ) etc...
@ Coda: Macht endlich Ryse fertig :biggrin: ...sieht lecker aus ^^Spartacus zum mitspielen ;D

Killzone sieht zugegeben echt gut aus... dann kommt für meinen Geschmack (ausser Multiplattform Titeln wie CoD) erst mal ne Weile nix... Ergo wirds bei mir ne Xbox auch wenn die PS4 mehr Rohpower zu bieten hat.

Der Siri Klon von MS "Cortana" soll z.B. auch auf die Box kommen. Relativ frei mit der Xbox über Kinect sprechen und Cort... äääh die Box antwortet mir ... das spricht irgendwie den geek in mir an ^^

DinosaurusRex
2013-09-14, 07:28:48
Ein NeoGAF Moderator hat versucht, die derzeitige Situation für jedermann leicht verständlich zu erklären:


Question.

Suppose there were a bicycle with one wheel 6" in diameter and one wheel 600" in diameter. The bicycle, let's say, was a little oddly shaped but highly optimized to be pedaled on certain surfaces. This bicycle had adjustable length pedals that were designed to move power from the rider to the GROUND. Let's suppose there was another normal bicycle. Now, you might suppose that the normal bicycle was more equipped to be PEDALED around as compared to the special bicycle with the one very small wheel and the one very large wheel. But let me suppose ON TOP OF THAT that with the pedals and with a special processing system designed to allow that bike to shift gears faster, it could, UNDER CERTAIN CIRCUMSTANCES-- such as the rider having mutant legs or the bicycle company perhaps paying the rider to do a shitty job-- outperform the normal bicycle.

Let us further suppose that there is a banana and a million dollar gold bar in your apartment. And let us suppose further to my original further supposition that there is a raging monkey outside your window SCREAMING about wanting a banana. While it may seem realistic that the million dollar gold bar would in fact be the more valuable item, in this PARTICULAR circumstance in which the raging monkey HAS MADE HIS DEMANDS KNOWN TO YOU that you would in fact rather have the dedicated audio chip and the moneyh...I mean, the banana.

When you consider all of these facts and, again, the fact that the PS4 is infact a blu-ray player with some controllers attached, I do not understand how you could conclude anything other than the fact that the special bicycle and the raging monkey are in fact ONCE AGAIN the choice for consumers.


Trust me, I am a dev.

* (http://www.neogaf.com/forum/showpost.php?p=81719237&postcount=2179)

robbitop
2013-09-14, 09:09:57
Ich verstehe den Diskussionsbedarf um das Thema gar nicht. Die deutlich höhere Rohleistung der PS4 GPU macht sie glasklar zur leistungsfähigeren Konsole. Und das signifikant. Soundchip ... das sind Tröpfchen auf den heißen Stein. SRAM ... versucht die geringe BB zum DDR3 zu kompensieren.
Doch war bis dato immer die leistungsfähigste Konsole auch die kommerziell erfolgreichste Konsole? ;)

Deinorius
2013-09-14, 09:41:49
Doch war bis dato immer die leistungsfähigste Konsole auch die kommerziell erfolgreichste Konsole? ;)


Wie du schon selber geschrieben hast, "bis dato".
Es würde mich ehrlich gesagt wundern, wenn wir diesmal nicht die Ausnahme von der Regel erleben würden. ;)

fondness
2013-09-14, 09:50:22
Ich verstehe den Diskussionsbedarf um das Thema gar nicht. Die deutlich höhere Rohleistung der PS4 GPU macht sie glasklar zur leistungsfähigeren Konsole. Und das signifikant. Soundchip ... das sind Tröpfchen auf den heißen Stein. SRAM ... versucht die geringe BB zum DDR3 zu kompensieren.
Doch war bis dato immer die leistungsfähigste Konsole auch die kommerziell erfolgreichste Konsole? ;)

Das "witzige" an der Sache ist ja, dass der Xbox SoC wohl sogar größer ist und ein genau so breites SI hat. Ich verstehe nicht was MS geritten hat auf DDR3 zu setzen, aber sie werden schon gute Gründe dafür gehabt haben. Dürfte wohl zu Lebensende der Xbox360 nicht mehr ganz so einfach sein passenden GDDR3 aufzutreiben.

ndrs
2013-09-14, 10:16:04
Das "witzige" an der Sache ist ja, dass der Xbox SoC wohl sogar größer ist und ein genau so breites SI hat. Ich verstehe nicht was MS geritten hat auf DDR3 zu setzen, aber sie werden schon gute Gründe dafür gehabt haben. Dürfte wohl zu Lebensende der Xbox360 nicht mehr ganz so einfach sein passenden GDDR3 aufzutreiben.
1. GDDR3 ??? Das ist DDR2-basiert und hat DDR3 nix zu tun.
2. Ich denke langfristig könnte es recht hohe Kostenvorteile haben. Einerseits kann der eSRAM gut mitgeschrumpft werden. Außerdem könnte ich mir vorstellen, dass man bei einem Shrink den DDR3 durch einen DDR4-Controller mit doppelter Transferrate ersetzt und gleichzeitig das Interface halbiert. Bei einem fiktiven 16nm XBO-SoC könnte es sonst mit einem 256bit-SI schon recht schwierig werden.

Muselbert
2013-09-14, 11:26:53
Ich verstehe den Diskussionsbedarf um das Thema gar nicht. Die deutlich höhere Rohleistung der PS4 GPU macht sie glasklar zur leistungsfähigeren Konsole. Und das signifikant. Soundchip ... das sind Tröpfchen auf den heißen Stein. SRAM ... versucht die geringe BB zum DDR3 zu kompensieren.
Doch war bis dato immer die leistungsfähigste Konsole auch die kommerziell erfolgreichste Konsole? ;)

Natürlich nicht (außer vielleicht in Nerdland), aber die Kombination leistungsfähiger UND günstiger ist nunmal sehr attraktiv :D

Hayab
2013-09-14, 11:38:27
Gerade da wo viel Bandbreite durch GPU benoetigt wird, ruckelt es oft bei spielen. Bei Konsolen kann man diese Stellen zwar besser optimieren, aber ein FPS drop wird es da so oder so geben.
Es ist nicht schwer zu erraten, dass die Konsole die weniger GPU power und weniger Speicherbandbreite besitzt da den kuerzeren ziehen wird. Der sram mit der sagenhaften Kapazitaet von 32MB, wird sicher nicht alle hires benoetigten Texturen schlucken koennen, wenn ueberhaupt dieser Speicher als Texturpuffer verwendet wird.

Coda
2013-09-14, 12:13:55
Das "witzige" an der Sache ist ja, dass der Xbox SoC wohl sogar größer ist und ein genau so breites SI hat. Ich verstehe nicht was MS geritten hat auf DDR3 zu setzen, aber sie werden schon gute Gründe dafür gehabt haben. Dürfte wohl zu Lebensende der Xbox360 nicht mehr ganz so einfach sein passenden GDDR3 aufzutreiben.
DDR3 dürfte wesentlich billiger sein. Ich vermute das kostet weniger als die Hälfte von dem GDDR5 das Sony einsetzt. Der SOC ist derzeit zwar ziemlich groß aber nach einem Die-Shrink ist das auch egal.

Dennoch glaube ich dass Sonys Strategie die bessere ist.

00-Schneider
2013-09-14, 12:19:08
Dennoch glaube ich dass Sonys Strategie die bessere ist.


Da kann man ja nur auf ein baldiges Projekt von Crytek für die PS4 hoffen. Oder seid ihr fürs erste mit MS verwurzelt, was Konsolenprojekte angeht?

----------------------------------------

Mit welchen Settings läuft eigentlich Ryse? (Auflösung/AA/AF/FPS)

Kann die neuste Cryengine bei Spielen eigentlich auch dynamische Auflösung, je nachdem was auf dem Bildschirm passiert? Benutzt ihr das?

StefanV
2013-09-14, 12:42:30
Ich verstehe den Diskussionsbedarf um das Thema gar nicht. Die deutlich höhere Rohleistung der PS4 GPU macht sie glasklar zur leistungsfähigeren Konsole. Und das signifikant. Soundchip ... das sind Tröpfchen auf den heißen Stein. SRAM ... versucht die geringe BB zum DDR3 zu kompensieren.
Doch war bis dato immer die leistungsfähigste Konsole auch die kommerziell erfolgreichste Konsole? ;)
Ähh, Wii vs. 360 und PS3? ;)
AFAIR war das Mega Drive auch leistungsfähiger als das SNES, kann mich auch irren...
Gleiches auch bei der Dreamcast vs PS2...

Es ist also wohl nicht so, dass die bessere Konsole die komerziell erfolgreichere sein wird. Es ist eher so, dass die Konsole mit den meisten/besten (exklusiv) TIteln die erfolgreichere Konsole werden wird. Und da hing halt relativ viel von z.B. Final Fantasy ab...
Aber genau das ist ja auch der PUnkt: IN Gebieten, in denen Konsolen besonders beliebt sind, bekommt M$ kein Fuß aufs Bankett...

StevenB
2013-09-14, 12:46:31
DDR3 dürfte wesentlich billiger sein. Ich vermute das kostet weniger als die Hälfte von dem GDDR5 das Sony einsetzt. Der SOC ist derzeit zwar ziemlich groß aber nach einem Die-Shrink ist das auch egal.


Na ja, so schnell wird ein Shrink aber wohl nicht kommen wie im Vergleich zu PS3 / Xbox 360.

prinz_valium
2013-09-14, 12:49:16
Das "witzige" an der Sache ist ja, dass der Xbox SoC wohl sogar größer ist und ein genau so breites SI hat. Ich verstehe nicht was MS geritten hat auf DDR3 zu setzen, aber sie werden schon gute Gründe dafür gehabt haben. Dürfte wohl zu Lebensende der Xbox360 nicht mehr ganz so einfach sein passenden GDDR3 aufzutreiben.


wurde doch schon mehrfach gesagt. ms wolle schon ganz zu anfang auf jedenfall 8 gb ram

sony hat gegambelt. und hätte am ende auch nur mit 4gb dastehen können, wenn es nicht ausreichend große gddr5 speicherchips mittlerweile gäbe


und deswegen hat sie jetzt diesen rohleistungsvorteil im bereich gpu größe

Na ja, so schnell wird ein Shrink aber wohl nicht kommen wie im Vergleich zu PS3 / Xbox 360.

22nm steht doch schon vor der tür.
ist halt nur die frage, ab wann der chip unter einem neuen prozess günstiger ist, als unter dem ausgereiften alten.
gerade da die xbox one so einen großen komlizierten chip hat, könnte sich das ziemlich schnell rechnen.
vllt schon mitte 2015 spätestens ende imho.

wäre dann doch genauso schnell wie bei der vorgänger genereation, oder?

Trevor
2013-09-14, 12:52:40
Ähh, Wii vs. 360 und PS3? ;)
AFAIR war das Mega Drive auch leistungsfähiger als das SNES, kann mich auch irren...
Gleiches auch bei der Dreamcast vs PS2...


Das Mega Drive war nicht leistungsfähiger. SNES hatte zwar weniger CPU-Leistung aber bedeutend bessere GPU-Leistung, dazu auch den besseren Sound.

SNES > MD

Auch war Dreamcast nicht leistungsfähiger als PS2. Die PS2 war bedeutend schneller. Das konnte sie aber die ersten 1-2 Jahre nicht zeigen. Dreamcast war sehr clean, hatte viele Hardwarefeatures die man bei der PS2 in Software nachproggen musste.

Deswegen sahen auch die ersten Dreamcast-Games sauberer aus. In Sachen Polycount wars aber von Anfang an sichtbar.

360 vs PS3 ging eher an die 360. :)

Jetzt ist halt wieder Sony an der Reihe. ;)

Finch
2013-09-14, 12:55:47
Hey, du Avatar Dieb! -.-

drkohler
2013-09-14, 12:59:25
Wie du schon selber geschrieben hast, "bis dato".
Es würde mich ehrlich gesagt wundern, wenn wir diesmal nicht die Ausnahme von der Regel erleben würden. ;)Ihr vergesst aber etwas ganz Elementares: Gleichgültig wie besser die PS4 als die XBox One aussieht, MS wird Sony ganz einfach mit Werbedollars platt machen. Speziell in Amerika wird sich Nichts ändern am Verteilungskuchen, Werbedollars werden den Ausschlag geben und da kann Sony einfach nicht mithalten.

Trevor
2013-09-14, 12:59:37
Das tut mir leid! :)

Watson007
2013-09-14, 13:02:28
Ihr vergesst aber etwas ganz Elementares: Gleichgültig wie besser die PS4 als die XBox One aussieht, MS wird Sony ganz einfach mit Werbedollars platt machen. Speziell in Amerika wird sich Nichts ändern am Verteilungskuchen, Werbedollars werden den Ausschlag geben und da kann Sony einfach nicht mithalten.

von wegen. Microsoft sieht sich jetzt schon Forderungen seiner Teilhaber gegenüber, die XBox-Division auszugliedern weil sie zu defizitär ist.
speziell nach dem Rücktritt von Steve Ballmer.
wenn die Verkaufszahlen der One so schlecht ausfallen wie prognostiziert wird das nicht besser werden.

Ich würde sagen, alles hängt vom Start der neuen Konsolen ab. Die Vorgänger waren zu defizitär.
Microsoft hat zwar viel Geld, müssen sich aber auch gegenüber ihren Aktionären rechtfertigen wie andere Firmen auch.
Und das "uncoole" Image wird MS auch so leicht nicht mehr los, hat sicher seinen Grund dass sie den MS-Schriftzug auf ihren Konsolen verbergen...

Warten wirs ab. BTW Nintendo hat auch viel Geld, ich wundere mich gerade dass sie für die WiiU kaum Werbung hierzulande machen, das Teil floppt doch gerade...
Ich wundere mich immer noch darüber wie schnell Nintendo nach dem Erfolg der Wii wieder uncool geworden ist, die Hochzeiten der Wii sind solange noch nicht her...

prinz_valium
2013-09-14, 13:39:50
diese gen wir sehr interessant, was die verkaufszahlen angeht.

einen großen unterschied in der letzen gen gibt es nicht mehr. das bluray laufwerk.
dieser punkt sollte jetzt eher an die xbo gehen, wenn die "zwichendurch mal zocken wollen film gucker" eine kaufberatung suchen, druch das konzept, das eh eher auf multimedia ausgelegt ist.

grafikfetischisten und leistungsliebhaber werde aber eher zur ps4 greifen.
reine budget käufer auch.
eine weitere frage ist nach den onlinespielern, die vorher nie geld dafür zahlen wollten. nun gibt es hier auch keinen unterschied mehr. aber xbox live wird bessere qualität zugesagt. vllt gewinnen sie dort ein paar kunden.

bleiben noch die fanboy, die eh ihrem lager treu bleiben und normale gamer, die vorallem nach den spielen entscheiden.


das ps4 setup wird imho erst deutlich nach release interessnt.
aber ich bin da wohl sowieso eine ausnahme, weil für mich eh nur 2 spiele überhaupt interessant sind. forza und ryse. für alle anderen würde ich keine next gen relese preise zahlen.
das ist natürlich ein schwer subjektiver punkt.



was man vllt auch noch betrachten sollte. auch kinect 2, was atm noch schweine teuer ist, sollte mit der zeit günstiger werden. hier sollte die xbox one ingesamt mehr spielraum für kostensenkungen haben. ich könnte mir vorstellen, dass die ps4 z.b ein deutlich teurerer netzteil, verbauen musste aufgrund des formfaktors. bei der xbox one müssten diese komponenten ein kleinerer kostenfaktor sein, weil man ja die beiden größeren chip und kinect noch hat und sonst zu teuer wäre. mit der zeit sollten die prozentualen kosteneinsparunen bei der xbox one also prozentual größer als bei der ps4 sein. (reine mutmaßung meinerseits, ergibt aber irgendwie sinn)



die zahlen werden es zeigen

xxxgamerxxx
2013-09-14, 13:40:10
von wegen. Microsoft sieht sich jetzt schon Forderungen seiner Teilhaber gegenüber, die XBox-Division auszugliedern weil sie zu defizitär ist.


Es gibt immer Heuschrecken, die auf schnelle Schlacke aus sind und wertvolle Assets verkaufen wollen. Bei Sony siehts auch nicht besser aus und es wäre dramatisch für die Zukunft, wenn sie die PlayStation Sparte verkaufen würden Da Microsoft zum Geräte/Service Anbieter mutiert, hat man diese Heuschrecken offensichtlich aber noch unter Kontrolle.

Ich behaupte auch mal, dass auf den Lebenszyklus der PS4/X1 beide Konsolen neue Konkurrenz bekommen werden. Der Markt wird weiter wachsen, aber ich glaube eher, dass der Highend Bereich prozentual schrumpfen wird. Und dann wird sich zeigen wie gut die PS4 aufgestellt ist, wenn sie nur auf Specs setzt.

prinz_valium
2013-09-14, 13:48:14
nvm

00-Schneider
2013-09-14, 13:50:10
einen großen unterschied in der letzen gen gibt es nicht mehr. das bluray laufwerk.
dieser punkt sollte jetzt eher an die xbo gehen, wenn die "zwichendurch mal zocken wollen film gucker" eine kaufberatung suchen, druch das konzept, das eh eher auf multimedia ausgelegt ist.

grafikfetischisten und leistungsliebhaber werde aber eher zur ps4 greifen.
reine budget käufer auch.


Das Wichtigste hast du vergessen: PS4 kostet 100€ weniger, und ist Leistungsfähiger. Was kann die PS4 in Sachen Multimedia nicht, was dafür die One kann? Mir fällt diesbezüglich nichts ein. Wieso ist Multimedia also ein Argument für die One?

was man vllt auch noch betrachten sollte. auch kinect 2, was atm noch schweine teuer ist, sollte mit der zeit günstiger werden. hier sollte die xbox one ingesamt mehr spielraum für kostensenkungen haben. mit der zeit sollten die prozentualen kosteneinsparunen bei der xbox one also prozentual größer als bei der ps4 sein. (reine mutmaßung meinerseits, ergibt aber irgendwie sinn)


Da stimme ich zu. Daraus schließe ich aber auch, dass es sich nicht lohnt, eine One vor der ersten Preissenkung zu kaufen, bzw. zu warten bis im ersten oder zweiten Quartal 2014 eine Version ohne Kinect erscheint.

Die PS4 wird in nächster Zeit bis Weihnachen 2014 eh nicht günstiger werden. Muss sie aber auch nicht, da sie sich eh wie geschnitten Brot verkaufen wird.

Deswegen kann man auch schon zum Release bei der PS4 zugreifen, wenn man kein ganzes Jahr auf die erste Preissenkung warten will.

Watson007
2013-09-14, 13:51:18
@xxxgamerxxx
"wertvolle Assets"??? inwiefern denn noch?

beide Konsolen setzen stark auf PC-Technik. Auch hUMA wird irgendwann für PC-APUs kommen.
Sony hat wenigstens noch eigene Studios, MS dagegen kaum. Rückwärtskompatibel sind sie beide nicht, der Verteilungskampf beginnt komplett von vorn.

MS würde ich nicht vermissen, wenn die gehen kommt halt ein anderer Großer dazu. Sony würde ich schon eher vermissen mit ihren ganzen exklusiven Studios. IMHO fehlen von MS mit dem Verkauf ihrer ganzen Gamestudios eigene Impulse für den Gamingsektor, eigentlich machen sie nur das Nötigste. Mit Kinect/NFL/TV zudem massiv aufs falsche Pferd gesetzt.

Watson007
2013-09-14, 13:55:22
btw. ich weiß gar nicht genau warum der TV-Teil der XBox One hervorgehoben wird von MS.

Fakt ist:
- einen UPNP-Client hat die PS3 jetzt schon, und die PS4 sicher auch. Benötigt wird für Streaming nur ein Ethernet-Port, kein separater HDMI-Eingang der die Hardware zusätzlich verteuert.
- einen TV-Empfänger benötigt die XBox One weiterhin, genauso wie die PS4
- wenn man sich auskennt wird man auch mit der PS4 fernsehen können, man braucht dafür nur einen kleinen PC mit TV-Karte hinstellen, dazu DVBViewer (15 Euro) kaufen welches einen UPNP-Server integriert hat... und Voila, Fernsehen an der PS4. Sogar mit Umschaltmöglichkeit (nur ohne EPG). Ich mache das jetzt schon an der PS3. Für mich kein Kaufargument für die XBox One. Zumal bei der DVBViewer-Lösung der TV-Empfänger in einem anderem Raum stehen und übers Netzwerk gestreamt werden kann.

Mal schauen inwieweit MS noch die TV-Vorteile hervorheben kann, aber das Feature ist vermutlich hauptsächlich für Amis interessant.

prinz_valium
2013-09-14, 14:04:44
Das Wichtigste hast du vergessen: PS4 kostet 100€ weniger, und ist Leistungsfähiger. Was kann die PS4 in Sachen Multimedia nicht, was dafür die One kann? Mir fällt diesbezüglich nichts ein. Wieso ist Multimedia also ein Argument für die One?




hmm die reinen budget käufer habe ich doch erwähnt. die greifen zur ps4

wenn natürlich der multimedia gelegenheitszocker typ auch noch ein budget käufer ist, dann ist die entscheidung eben nicht mehr ganz so klar.
aber wenn es rein um einen br player geht, kauft man sowieso keine konsole mehr, denn die sind mittlerweile ja recht günstig.



Die PS4 wird in nächster Zeit bis Weihnachen 2014 eh nicht günstiger werden. Muss sie aber auch nicht, da sie sich eh wie geschnitten Brot verkaufen wird.

Deswegen kann man auch schon zum Release bei der PS4 zugreifen, wenn man kein ganzes Jahr auf die erste Preissenkung warten will.

jup. aber eine xbox one wird auch nicht bis weihnachten 2014 günstiger.
also kauft ich gleich die day one editon. aber das sehen viele natürlich anders. und 2015 hat man ganz andere mögliche kunden, wenn das teil dann nurnoch 349 euro mit kinect kostet und die ps4 299 (reine mutmaßungen meinerseits)

btw. ich weiß gar nicht genau warum der TV-Teil der XBox One hervorgehoben wird von MS.

Fakt ist:
- einen UPNP-Client hat die PS3 jetzt schon, und die PS4 sicher auch. Benötigt wird für Streaming nur ein Ethernet-Port, kein separater HDMI-Eingang der die Hardware zusätzlich verteuert.
- einen TV-Empfänger benötigt die XBox One weiterhin, genauso wie die PS4
- wenn man sich auskennt wird man auch mit der PS4 fernsehen können, man braucht dafür nur einen kleinen PC mit TV-Karte hinstellen, dazu DVBViewer (15 Euro) kaufen welches einen UPNP-Server integriert hat... und Voila, Fernsehen an der PS4. Sogar mit Umschaltmöglichkeit (nur ohne EPG). Ich mache das jetzt schon an der PS3. Für mich kein Kaufargument für die XBox One. Zumal bei der DVBViewer-Lösung der TV-Empfänger in einem anderem Raum stehen und übers Netzwerk gestreamt werden kann.

Mal schauen inwieweit MS noch die TV-Vorteile hervorheben kann, aber das Feature ist vermutlich hauptsächlich für Amis interessant.

weil es nunmal das konzept von ms ist
und was was du schreibst, ist ja nun schon etwas mehr als einfaches reines plug und "play".
das mag so zwar alles möglich sein, aber einfach und ohne zusatzanschaffungen sollte es schon noch sein.


das bist jetzt du mit deiner lösung eher der sonderfall und keinesfalls eine massen (ziel)gruppe
deswegen eben vorhandene set top boxen / receiver einstecken und keinen htpc daneben stellen.

][immy
2013-09-14, 14:15:20
btw. ich weiß gar nicht genau warum der TV-Teil der XBox One hervorgehoben wird von MS.



Fakt ist:

- einen UPNP-Client hat die PS3 jetzt schon, und die PS4 sicher auch. Benötigt wird für Streaming nur ein Ethernet-Port, kein separater HDMI-Eingang der die Hardware zusätzlich verteuert.

- einen TV-Empfänger benötigt die XBox One weiterhin, genauso wie die PS4

- wenn man sich auskennt wird man auch mit der PS4 fernsehen können, man braucht dafür nur einen kleinen PC mit TV-Karte hinstellen, dazu DVBViewer (15 Euro) kaufen welches einen UPNP-Server integriert hat... und Voila, Fernsehen an der PS4. Sogar mit Umschaltmöglichkeit (nur ohne EPG). Ich mache das jetzt schon an der PS3. Für mich kein Kaufargument für die XBox One. Zumal bei der DVBViewer-Lösung der TV-Empfänger in einem anderem Raum stehen und übers Netzwerk gestreamt werden kann.



Mal schauen inwieweit MS noch die TV-Vorteile hervorheben kann, aber das Feature ist vermutlich hauptsächlich für Amis interessant.

ist das ernst gemeint?
so gesehen kannst du dann auch bei ner snes, blu ray player und hd receiver bleiben. zusammen mit dem pc bekommste dann alles gleichzeitig hin ...
ne mal im ernst, das ding heißt nicht umsonst "one". ein gerät statt vieler war schon immer bequemer, und das ist es ja eigentlich worum es bei konsolen geht, bequemlichkeit.
ich finde es ist nach wie vor ein nettes feature, allerdings hab ich das problem, das mein kabelreceiver im ferseher steckt, wie es inzwischen eigentlich üblich ist. aber apps nebenbei laufen zu lassen ist sicherlich auch nett.

btw, was die hardware angeht, wenn tatsächlich es extra prozessoren für physik-berechnungen und andere dinge gibt, sind die 1.3tf absolut nicht vergleichbar mit denen der ps4.

@coda, wann kannst du zur hardware genaueres sagen?


das mit den spezialprozzessoren für physik-berechnungen hab ich übrigens hier her http://www.itworld.com/hardware/371478/microsoft-emerges-cpu-force-xbox-one-and-kinect

Watson007
2013-09-14, 14:17:24
natürlich ist meine Lösung kein Plug and Play.

Aber ist MS Lösung genaugenommen auch nicht wenn man noch zusätzliche externe TV-Empfänger benötigt ;)

natürlich nicht vergleichbar, aber die PS4 ist dafür ja auch 100 Euro günstiger. Möglich ist jedenfalls auch mit der PS4 (indirekt) zu fernsehen.

xxxgamerxxx
2013-09-14, 14:18:04
- einen UPNP-Client hat die PS3 jetzt schon, und die PS4 sicher auch. Benötigt wird für Streaming nur der Ethernet-Port.
- einen TV-Empfänger benötigt die XBox One weiterhin, genauso wie die PS4
- wenn man sich auskennt wird man auch mit der PS4 fernsehen können, man braucht dafür nur einen kleinen PC mit TV-Karte hinstellen, dazu DVBViewer (15 Euro) kaufen welches einen UPNP-Server integriert hat... und Voila, Fernsehen an der PS4.

Da hast du natürlich Recht. Nur an solche primitiven Abspielmöglichkeiten hat man bei Microsoft sicher nicht unbedingt gedacht. Eher so:
- Abgreifen des Signals und Overlay Anzeige mit Zusatzinformationen. (z.B. auch Bildsuche)
- Steuerung mit Sprache/Gesten
- Person kommt im Raum, wird von Kinect erkannt und schaltet z.B. automatisch auf seine Lieblingsserie (oder reguliert automatisch die Lautstärke usw.)

Wird bestimmt so kommen, wenn vielleicht auch erst mit einem Update.

prinz_valium
2013-09-14, 14:22:26
natürlich ist meine Lösung kein Plug and Play.

Aber ist MS Lösung genaugenommen auch nicht wenn man noch zusätzliche externe TV-Empfänger benötigt ;)

natürlich nicht vergleichbar, aber die PS4 ist dafür ja auch 100 Euro günstiger. Möglich ist jedenfalls auch mit der PS4 (indirekt) zu fernsehen.


klar. wenn man bisher noch KEIN tv guckt, DANN ja
aber bei wem ist das so?

wie viele menschen haben einen kabel receiver und wie viele haben einen htpc im wohnzimmer stehen? darum geht es doch wohl eher. dass die xbox one das ganz von alleine schafft, hat ja auch nie jemand behauptet.

aber du steckst eben deinen vorhandenen tv-empfänger rein und es funktioniert. das ist zumindest für mich die defintion von plug and play


und dann gibts eben noch die, die mit nem internen tv tuner gucken. für die bringt es natürlich auch nichts. dazu gehöre ich z.b.

Watson007
2013-09-14, 14:25:38
Receiver-Steuerung über den HDMI-Eingang, ich könnte mir vorstellen dass das am Anfang ziemlich Kompatibilitätsprobleme gibt. Scheint mir bislang eher ein häufig ungenutztes Feature zu sein.

Ich würde jedem One-Interessierten hierzulande raten, ein Jahr zu warten. Gründe: wenn der Verkauf hierzulande wirklich so schlecht läuft wie es die Vorbesteller-Zahlen vermuten lassen wird garantiert der Preis schnell gesenkt. Weiterer Grund: dann ausgereifter und billigere Software (gilt natürlich auch für die PS4 dann).

Gipsel
2013-09-14, 14:28:53
aber du steckst eben deinen vorhandenen tv-empfänger rein und es funktioniert.
[..]
und dann gibts eben noch die, die mit nem internen tv tuner gucken. für die bringt es natürlich auch nichts. dazu gehöre ich z.b.Genau. Mein inzwischen über 2 Jahre alter Fernseher kann übrigens auch Skype und Twitter und das per Overlay drüberblenden. Wozu brauche ich gleich nochmal die XB1? Damit die TV-Funktionalität der One funktioniert, benötigt man mindestens zwei Boxen am Fernseher. Irgendwie eine Lachnummer und vermutlich am zukünftigen Markt mit wahrscheinlich fortschreitender Integration vorbei entwickelt, IMO.

xxxgamerxxx
2013-09-14, 14:29:40
@xxxgamerxxx
"wertvolle Assets"??? inwiefern denn noch?


Indem man in über 100 Mio. Wohnzimmern (was man bei der X1 anvisiert) Bing als Suche etabliert und potentiell Apps verkaufen kann. Und natürlich kann man damit auch die Marke Microsoft stärken. Google wird auf jeden Fall ins Wohnzimmer kommen, das ist ziemlich klar. Es bleibt spannend wie stark Sony mit der PS4 aufgestellt sein wird.

][immy
2013-09-14, 14:30:06
Receiver-Steuerung über den HDMI-Eingang, ich könnte mir vorstellen dass das am Anfang ziemlich Kompatibilitätsprobleme gibt. Scheint mir bislang eher ein häufig ungenutztes Feature zu sein.

nicht ganz. der receiver wird über kinect gesteuert soweit ich verstanden habe. kinect sendet ein infra rot signal aus, das z.b. von wänden abprallt und vom receiver empfangen wird. kinect ist quasi auch eine universalverbedienung

xxxgamerxxx
2013-09-14, 14:42:14
Genau. Mein inzwischen über 2 Jahre alter Fernseher kann übrigens auch Skype und Twitter und das per Overlay drüberblenden.

Cool... Der empfängt auch Skype Anrufe oder musst du dazu die App starten? :rolleyes: Und dein TV Programm läuft weiter im Hintergrund? Auch Skype Videoanrufe in FullHD?

xxxgamerxxx
2013-09-14, 14:57:21
Damit die TV-Funktionalität der One funktioniert, benötigt man mindestens zwei Boxen am Fernseher. Irgendwie eine Lachnummer und vermutlich am zukünftigen Markt mit wahrscheinlich fortschreitender Integration vorbei entwickelt, IMO.

Diese zunehmende Integration hat man schon vor 5 Jahren behauptet. Der TV Markt ist wie der Smartphone Markt. Fü 0,5 mehr Funktionen musst du das neue Modell kaufen. Der SW Support ist einfach nur lächerlich hoch zehn. Mein Samsung UE47... hatte im ersten halben Jahr ein Update bekommen und da wusste ich auch nicht mal wofür. Danach gab es nie wieder ein Update. Wenn ich dagegen überlege wie die erste Xbox360 war und wie viele Update es gab und wie stark sie modifiziert wurde...

Hallo
2013-09-14, 14:59:32
Dennoch glaube ich dass Sonys Strategie die bessere ist.

Gabs da jemals Zweifel dran;)

Schon mal mit der Sega Saturn HW Katastrophe vertraut gemacht? Dagegen ist XBone ein Witz. Auf Saturn haben damals die grossen/guten Entwickler alle in Assembler programmiert um beide SH-2s synchron zu bekommen abgesehen vom VDP1/VDP2 und all den anderen DSPs...oh und das Bussystem...

PS4 = Dreamcast, grob gesagt von der Einfachheit/Effektivität.

DinosaurusRex
2013-09-14, 15:13:12
diese gen wir sehr interessant, was die verkaufszahlen angeht.


Das hier ist die Fünjahresprognose, die FOX vor ein, zwei Tagen veröffentlicht hat:

http://www.abload.de/img/screenshot2013-09-12au1adc.png

prinz_valium
2013-09-14, 15:18:11
Das hier ist die Fünjahresprognose, die FOX vor ein, zwei Tagen veröffentlicht hat:

http://www.abload.de/img/screenshot2013-09-12au1adc.png


jup kenn ich. mal sehen ob sie recht behalten werden.
höchstwahrscheinlich nicht


was meinen die mit wii? wii + wii u oder nur wii u? oder auch einen möglichen nachfolger? ist das worldwide, oder usa only?


aber vllt hat sony ja wirklich mal wieder so einen erfolg wie mit der ps2.

Coda
2013-09-14, 15:19:15
http://www.pyramidresearch.com/points/item/110509.htm?sc=PP051011_SMRT

Soviel zu "Analyst Expectations". Das ist doch reines Kaffeesatzlesen.

Watson007
2013-09-14, 15:22:14
ich bin mir immer noch nicht im Klaren darüber was hUMA konkret in Spielen bringen wird, außer der Vereinfachung. Wird es sich deutlich in besserer Performance niederschlagen?

und Skype... ich weiss nicht. Eigentlich wartet Videotelefonie auch schon seit 10 Jahren auf den großflächigen Durchbruch unter Privatanwendern. Klar einige verwenden es, der Durchschnitts-DAU aber sicher nicht...

DinosaurusRex
2013-09-14, 15:24:23
Soviel zu "Analyst Expectations". Das ist doch reines Kaffeesatzlesen.

Diese Analysen werden ja primär für die Aktionäre erstellt. Die Frage ist jetzt, inwiefern Sony daraus Kapital schlagen kann und wie viele Microsoft Aktionäre es drauf ankommen lassen werden.

Coda
2013-09-14, 15:33:15
ich bin mir immer noch nicht im Klaren darüber was hUMA konkret in Spielen bringen wird, außer der Vereinfachung. Wird es sich deutlich in besserer Performance niederschlagen?
Man kann deutlich mehr mit der GPU für generelle Berechnungen machen ohne das man Daten hin- und her kopieren oder größere Latenzen hätte.

Watson007
2013-09-14, 15:34:58
bedeutet dieses hUMA einen allgemeinen Trend bei Konsolen, werden alle zukünftigen Konsolen damit kommen? Diskrete GPUs dort zukünftig unwahrscheinlich?

ich bin gespannt wie da diskrete GPUs am PC zukünftig dagegenhalten werden können.

Nakai
2013-09-14, 16:07:48
bedeutet dieses hUMA einen allgemeinen Trend bei Konsolen, werden alle zukünftigen Konsolen damit kommen? Diskrete GPUs dort zukünftig unwahrscheinlich?

ich bin gespannt wie da diskrete GPUs am PC zukünftig dagegenhalten werden können.

hUMA ist toll, da man einen Speicherbereich haben kann. Das bedeutet, dass CPU und GPU auf den gleichen Speicher zugreifen kann. Normalerweise haben bei GPGPU-Berechnungen die CPU und die GPU jeweils eine Kopie des Datensatzes, auf dem Berechnungen durchgeführt werden, in ihrem Speicherbereich. Wird was auf der GPU berechnet, wird das in dem Speicherbereich der GPU getan und somit auf dem Datensatz im GPU-Speicher. Nach der Aktion muss dieser synchronisiert werden, ergo es wird vom GPU-Speicher in den CPU-Speicher kopiert. Vice versa, geht es auch anders herum. Wird nun nicht viel von der GPU getan, kann das sogar Performanceverlust bedeuten, da der Synchronisationsoverhead viel zu fett ist, um einen Performancegewinn zuzulassen. Kurz, es wäre besser gewesen, alles auf der CPU zu lassen.
hUMA umgeht das Problem etwas, weil die Latenzen, weil GPU und CPU auf einem DIE sind, niedriger sind und die Bandbreite höher ist. Außerdem kann der Synchronisationsoverhead komplett entfallen, wenn beide unterschiedlich, aber vereinheitlicht auf den gleichen Speicher zugreifen können. Kein lästiges Synchronisieren, keine nervigen Latenzen oder niedrige Bandbreite.


mfg

€: Wie hält der standard PC mit dedizierter Grafik dagegen? Entweder alles auf der CPU oder alles auf der GPU. Oder die Berechnungen sind so groß, dass der Synchronisationsoverhead vernachlässigbar ist.

Windi
2013-09-14, 16:26:33
bedeutet dieses hUMA einen allgemeinen Trend bei Konsolen, werden alle zukünftigen Konsolen damit kommen? Diskrete GPUs dort zukünftig unwahrscheinlich?
Es gibt einen allgemeinen Trend dazu, alles mögliche zusammen auf ein DIE zu pressen. Das hat halt gewaltige Vorteile. Würde man alle möglichen Prozessoren einzeln produzieren und auf die Platine stecken, dann wären die ganzen Leitungen und Sockel wohl teurer als das ganze Silizium.
Momentan wird halt versucht die Grafikprozessoren zu integrieren.
Bei den Smartphones/Tablets gibt es gar nichts anderes mehr.
Bei den Konsolen kommt es jetzt auch.
Bei den Laptops geht es mittlerer weile auch immer mehr in die Richtung.
Für einen Office-, Surf-, Multimedia- PC reichen die SoC auch problemlos.

Die SoC haben halt gewaltige Vorteile:
Platzbedarf, Kosten, bessere interne Latenzen, höhere interne Bandbreiten, dynamische Taktraten, dynamische Lastverteilung, ......

Man stelle sich nur mal eine externe FPU vor, die mit PCIe angebunden ist.:freak:

ich bin gespannt wie da diskrete GPUs am PC zukünftig dagegenhalten werden können.
Gar nicht! Die separaten Grafikkarten werden bei der alleinigen Grafikberechnung stecken bleiben, alles andere wird die CPU übernehmen. (mit all ihren integrierten Spezialprozessoren: FPU/GPU/Decoder/Encoder/.....)

AnarchX
2013-09-14, 16:30:13
Nvidia hat konkrete Pläne für ARM-Cores in ihren GPUs und AMD kann auch niemand abhalten ARMv8 oder gar Jaguar+ Cores zu integrieren.

Gipsel
2013-09-14, 16:36:59
Cool... Der empfängt auch Skype Anrufe oder musst du dazu die App starten? :rolleyes: Und dein TV Programm läuft weiter im Hintergrund? Auch Skype Videoanrufe in FullHD?Man muß sich einmal anmelden und dann läuft das im Hintergrund. Da kann man weiterhin ganz normal Fernsehen oder was auch immer. Geht ein Anruf ein, kommt ein Popup in der Ecke und fragt, ob man den Anruf entgegennehmen will, ähnlich wie überall. Maximale Auflösung ist wohl 720p. Aber ich nutze das nicht, insofern habe ich nicht wirklich Erfahrung damit, wie gut das in der Praxis funktioniert.

MarcWessels
2013-09-14, 16:43:17
[immy;9917327']das mit den spezialprozzessoren für physik-berechnungen hab ich übrigens hier her http://www.itworld.com/hardware/371478/microsoft-emerges-cpu-force-xbox-one-and-kinectDas ist nicht Dein Ernst?

Nakai
2013-09-14, 16:46:07
Nvidia hat konkrete Pläne für ARM-Cores in ihren GPUs und AMD kann auch niemand abhalten ARMv8 oder gar Jaguar+ Cores zu integrieren.

Bin ja gespannt, wie das laufen wird. Da müsste ein Großteil des allgemeinen und sequenziellen Codes auf die ARM-Codes ausgelagert werden, welche dann die GPU mit parallelen Tasks füttern. Keine Ahnung, wie das abläuft, aber man könnte das ins CUDA Toolkit direkt integrieren.

Windi
2013-09-14, 16:48:18
Nvidia hat konkrete Pläne für ARM-Cores in ihren GPUs und AMD kann auch niemand abhalten ARMv8 oder gar Jaguar+ Cores zu integrieren.
Natürlich kann man das. Aber wohl nur für Spezialanwendungen (Server/Workstations)

Für vieles erhöht die Kombination aus CPU und einer extra Grafikkarte nur die Kosten. Einfach weil für vieles, die Leistung von ein paar integrierten Grafikkernen ausreicht.

Bei größeren Sachen, wie z.B. Spielen, limitieren dann die Latenzen und die Bandbreite zwischen den beiden SoCs.



Zur Multimediafähigkeit:
Eigentlich sollten die Smart-TVs all das können, was die Tablets schon lange beherrschen. Die Hersteller stellen sich momentan nur etwas blöd an und bringen Neuerungen nur in elendig kleinen Kleckerschritten. Aber es scheint sich langsam etwas zu bessern. Vielleicht weil man Angst vor möglichen Apple, Google Fernsehern oder auch den neuen Konsolen hat.
Sobald die Hersteller aufgewacht sind und ihre Fernseher das können, was auch ein 200€ Tablet kann, werden die Multimediafähigkeiten der Konsolen recht bedeutungslos.

prinz_valium
2013-09-14, 18:28:17
Zur Multimediafähigkeit:
Eigentlich sollten die Smart-TVs all das können, was die Tablets schon lange beherrschen. Die Hersteller stellen sich momentan nur etwas blöd an und bringen Neuerungen nur in elendig kleinen Kleckerschritten. Aber es scheint sich langsam etwas zu bessern. Vielleicht weil man Angst vor möglichen Apple, Google Fernsehern oder auch den neuen Konsolen hat.
Sobald die Hersteller aufgewacht sind und ihre Fernseher das können, was auch ein 200€ Tablet kann, werden die Multimediafähigkeiten der Konsolen recht bedeutungslos.


ui das dauert noch
die 2 größten probleme daran


fernseher kauft man nicht im jahres / 2 jahres takt. abgesehen von ein paar wenigen ausnahmen.
dazu sind diese features meist nur in den oberklasse geräten drin und nicht auch in low budget oder mainstream (okay in die mainstream klasse halten sie langsam einzug)


bis die multimediefähigkeiten auf den bildschirmen der leute (in ausreichender qualität und quanität) angekommen sind, wird es imho noch bis zur next gen dauern :D
und dann ist da noch das problem mit den updates.


aber wir geraten off topic

drkohler
2013-09-14, 19:16:06
Man stelle sich nur mal eine externe FPU vor.:freak:
Hatte ich jahrelang. Auf einer Europakarte einen 68010 Prozessor, auf einer anderen Karte den 68881 Koprozessor. 12MHz. Ich hatte eine Zeit lang den schnellsten Rechner in der Stadt :biggrin:

StefanV
2013-09-14, 19:37:05
Das Mega Drive war nicht leistungsfähiger. SNES hatte zwar weniger CPU-Leistung aber bedeutend bessere GPU-Leistung, dazu auch den besseren Sound.
SNES > MD
Auch war Dreamcast nicht leistungsfähiger als PS2. Die PS2 war bedeutend schneller. Das konnte sie aber die ersten 1-2 Jahre nicht zeigen. Dreamcast war sehr clean, hatte viele Hardwarefeatures die man bei der PS2 in Software nachproggen musste.
Deswegen sahen auch die ersten Dreamcast-Games sauberer aus. In Sachen Polycount wars aber von Anfang an sichtbar.
360 vs PS3 ging eher an die 360. :)
Jetzt ist halt wieder Sony an der Reihe. ;)
Ah, OK, aber war die Dreamcast nicht zwischen PSX und PS2 angesiedelt?
Wobei das N64 eigentlich auch besser als die PSX sein dürfte, nur an den Datenträgern ist sie arg gescheitert...

Da hast du natürlich Recht. Nur an solche primitiven Abspielmöglichkeiten hat man bei Microsoft sicher nicht unbedingt gedacht. Eher so:
- Abgreifen des Signals und Overlay Anzeige mit Zusatzinformationen. (z.B. auch Bildsuche)
- Steuerung mit Sprache/Gesten
- Person kommt im Raum, wird von Kinect erkannt und schaltet z.B. automatisch auf seine Lieblingsserie (oder reguliert automatisch die Lautstärke usw.)
Wird bestimmt so kommen, wenn vielleicht auch erst mit einem Update.
Mir scheint es auch so, als ob das M$ Zeugs sich weit weniger um irgendwelche Standards kümmert als das bei Sony der Fall ist. Ich hab leider gerad keine PS3 zum Vergleich hier, mir scheints aber, als ob Sony wesentlich mehr auch ohne Zahlnetzwerk zulässt.

Ohne XBox Live Gold Mitgliedschaft kannst eigentlich nur offline deine Games zocken, die meisten Anwendungen gehen einfach nicht - WAS soll der Müll?!

Genau. Mein inzwischen über 2 Jahre alter Fernseher kann übrigens auch Skype und Twitter und das per Overlay drüberblenden. Wozu brauche ich gleich nochmal die XB1? Damit die TV-Funktionalität der One funktioniert, benötigt man mindestens zwei Boxen am Fernseher. Irgendwie eine Lachnummer und vermutlich am zukünftigen Markt mit wahrscheinlich fortschreitender Integration vorbei entwickelt, IMO.

Und wenn du jetzt noch 'nen Fernseher mit dem entsprechenden Receiver integriert hast (ja, sowas solls geben ;)), brauchst zum TV schauen am TV gar keine Box...

xxxgamerxxx
2013-09-14, 21:30:25
Und wenn du jetzt noch 'nen Fernseher mit dem entsprechenden Receiver integriert hast (ja, sowas solls geben ;)), brauchst zum TV schauen am TV gar keine Box...

TVs mit Triple Tuner sind nichts neues, das stimmt. Trotzdem ist es bei weitem nicht so, dass jeder auch Vorteile daraus zieht. Gerade bei Kabel wird sehr viel selbst gekocht. Da bewegt man sich teils immer noch in der Illegalität in D., wenn man erst sein CAM Modul flashen muss, um die privaten zu entschlüsseln. Bei Kabel Deutschland strahlen sie die ja jetzt unverschlüsselt aus, aber bei Unity z.B. nich nicht. Von HD ganz zu schweigen, das empfängst du nur über ein mietbaren Receiver oder ein eigenes zertifiziertes CAM Modul. Von Aufnehmen usw. wollen wir gar nicht erst sprechen.

Gipsel
2013-09-15, 01:22:23
Und wenn du jetzt noch 'nen Fernseher mit dem entsprechenden Receiver integriert hast (ja, sowas solls geben ;)), brauchst zum TV schauen am TV gar keine Box...Genau darum ging es ja, um TVs mit integriertem Receiver. ;)
TVs mit Triple Tuner sind nichts neues, das stimmt. Trotzdem ist es bei weitem nicht so, dass jeder auch Vorteile daraus zieht. Gerade bei Kabel wird sehr viel selbst gekocht. Da bewegt man sich teils immer noch in der Illegalität in D., wenn man erst sein CAM Modul flashen muss, um die privaten zu entschlüsseln. Bei Kabel Deutschland strahlen sie die ja jetzt unverschlüsselt aus, aber bei Unity z.B. nich nicht. Von HD ganz zu schweigen, das empfängst du nur über ein mietbaren Receiver oder ein eigenes zertifiziertes CAM Modul. Von Aufnehmen usw. wollen wir gar nicht erst sprechen.Bei Kabel Deutschland z.B. bekommst Du auch ganz offiziell CAM-Module für den Einsatz mit im TV integrierten Receivern, man benötigt keine extra Box. Ob man eine Sendung aufnehmen kann oder nicht (bei CI+), hängt dabei immer vom Sender ab. Dass man mit falschen Angaben wie einer fake dbox-Seriennnummer auch vorhandene CI-Module nutzen kann, steht ja auf einem anderen Blatt und hat mit dem grundsätzlichen Punkt wenig zu tun.

Hayab
2013-09-15, 01:49:04
Ich kann mir schon vorstellen, dass xb1 bei den Amis punkten kann, in dem MS mit irgendeinen Videostreaming Dienst einen Vertrag abschliesst. Das ist aber in EU und den Rest der Welt total irrelevant.

Heelix01
2013-09-15, 02:30:25
Genau darum ging es ja, um TVs mit integriertem Receiver. ;)
Bei Kabel Deutschland z.B. bekommst Du auch ganz offiziell CAM-Module für den Einsatz mit im TV integrierten Receivern, man benötigt keine extra Box

Auch wenn es OT ist ... die internen Tuner der Fernseher kannst du leider in die Tonne treten. Der Funktionsumfang des Leihgerät mit seinen 4 Tunern ist doch um Welten überlegen. (Sofern man auch "normal" Fernsehen schaut)

Felixxz2
2013-09-15, 04:54:48
4 Tuner? Dvb Magic? Oder 4 Kanäle gleichzeitig? Und was kann der mehr?

Heelix01
2013-09-15, 09:01:16
Mhh!! des "KD leihgerät" wurde geschluckt :D , ja die Möglichkeit 4 Programme aufzunehmen und nebenbei eines davon zu schauen.
Timeshift alleine ist halt nur die halbe Miete das bietet fast jeder Fernseher.
Mehrere Dinge gleichzeitig aufnehmen ist mit nur einem Fernseher in einem 2 Personen Haushalt Super :D .

DinosaurusRex
2013-09-16, 09:11:41
Harry Krueger meldet sich mal wieder zu Wort und hat den Hauptunterschied zwischen PS3 und PS4 erklärt:

We have worked on many platforms in the past. On development side the two are not all that different; only instead of hard-to-program SPUs that require assembly-level programming if you want to extract the full potential, we have compute shaders that are easy to program and most of the cumbersome scaffolding is now in the GPU hardware. One difference is that when things go wrong, PS3 GPU crashes but PS4 GPU hangs [note: you just read some coder humor].

Quelle (http://gamingbolt.com/housemarque-ps4-is-powerful-enough-to-blow-your-pants-off-will-use-touchpad-in-unexpected-ways)

Vielleicht mag ja einer der Pros hier sagen ob der Witz überhaupt lustig war.

del_4901
2013-09-16, 09:23:11
Ich musste schmunzeln.

Hallo
2013-09-16, 16:32:18
Überschrift vom Link:

Housemarque: PS4 Is “Powerful Enough To Blow Your Pants off”, Will Use Touchpad In Unexpected Ways

Ungefähr so wie das "spektakuläre" 30fps Club Drive? 30fps mit dynamischem Wetter (auch Regen) gabs schon bei Le Mans 24h auf Dreamcast...
https://www.youtube.com/watch?v=PteVFYtukAQ

Was das Touchpad aber angeht sehe ich auch sehr viel Potenzial z.B. für Makros in Form von Gestiken.

@Coda,
bist du in irgend einer Form schon mit der PS4 in Berührung gekommen?

Gipsel
2013-09-16, 16:57:39
@Coda,
bist du in irgend einer Form schon mit der PS4 in Berührung gekommen?Soll Ryse nicht ein Launchtitel werden? So lange ist nun auch nicht mehr hin. :rolleyes:

del_4901
2013-09-16, 17:20:46
Ryse ist Xbone only. Anfassen wird er wohl schon mal duerfen, aber selber eins haben, wohl eher nicht.

Hallo
2013-09-16, 17:22:51
Gipsel, bin grad aufm Schlauch mit deiner Antwort.

@Alpha Tier

Mir geht's darum eine Meinung zu bekommen von jemanden Plan hat.

Die Behauptung der leichten Programmierbarkeit der PS4 (was ich nicht anzweifle) steht in keinem Verhältniss zu dem Gezeigten.
Klar ist sie viel stärker als current gen aber ich sehe die Mehrpower in 1080p evtl. besserem AF und AA und nicht viel schärferen ( in Relation zur erhöhten Auflösung) Texturen verpuffen. Das 30fps bei sensiblen Genres überhaupt noch ein Thema sind ist erbärmlich. Die erste Box war da meilenweit vorraus.

del_4901
2013-09-16, 17:33:57
Mir geht's darum eine Meinung zu bekommen von jemanden Plan hat.
Die wirst du niemals nicht auf dem Silbertablett serviert bekommen.

Hallo
2013-09-16, 17:40:46
Nun, mir ging es auch nicht darum das NDAs gebrochen werden. War einfach nur eine Frage aus Programmier-Noob-Perspektive. Mit evtl. Kodizes kenn ich mich nicht aus :smile:

Gipsel
2013-09-16, 17:42:51
Gipsel, bin grad aufm Schlauch mit deiner Antwort.Es war ein Hinweis darauf, daß seine Prioritäten im Moment vermutlich woanders als bei der PS4 liegen. Beim Kaffee holen mal zwei Sätze mit einem Kollegen drüber wechseln ist wohl drin, aber selber dran rumspielen, dafür könnte die todo-Liste einfach zu voll sein. Nur so als Vermutung als völlig Unbeteiligter.

@AlphaTier: Schon klar. Das war anders gemeint.

Hallo
2013-09-16, 17:54:23
Edit: Ok, habs gerafft:freak:

Mein Interesse ist grad wohl nicht gross genug um die Exclusives beider Konsolen auseinander zu halten.

Blediator16
2013-09-16, 18:21:44
Gipsel, bin grad aufm Schlauch mit deiner Antwort.

@Alpha Tier

Mir geht's darum eine Meinung zu bekommen von jemanden Plan hat.

Die Behauptung der leichten Programmierbarkeit der PS4 (was ich nicht anzweifle) steht in keinem Verhältniss zu dem Gezeigten.
Klar ist sie viel stärker als current gen aber ich sehe die Mehrpower in 1080p evtl. besserem AF und AA und nicht viel schärferen ( in Relation zur erhöhten Auflösung) Texturen verpuffen. Das 30fps bei sensiblen Genres überhaupt noch ein Thema sind ist erbärmlich. Die erste Box war da meilenweit vorraus.


Ich weiß nicht ob das stimmt, aber ich habe gelesen, dass die Entwickler zur Zeit nicht die Tools haben, um alles von der PS4 nutzen zu können bzw. xbo und dass das erst nächtes Jahr durch die Hersteller geändert wird. Ohne neuer Tools kann man wohl schlecht alles rausholen.

Deinorius
2013-09-16, 19:11:56
Bei der PS4 soll hinsichtlich der Tools der Umstand vorliegen, dass derzeit noch zwei APIs existieren. Der Umstieg auf eine API soll erst noch erfolgen.

Coda
2013-09-16, 19:13:53
Ihr redet wirres Zeug.

Deinorius
2013-09-16, 19:17:44
Sehr wahrscheinlich. :D

][immy
2013-09-16, 22:10:30
wo bleiben eigentlich die UE4 spiele?
zumindest hier scheint man sich schon drauf zu freuen
https://mobile.twitter.com/MarkRein/status/342100479704190976?screen_name=MarkRein

ist das mit dem flash speicher bei der xbox eigentlich sicher? ich wüsste nicht warum der erwähnt werden würde wenn der nur für instant on sein würde, oder halt nur für das OS. und normalen flash speicher würde man sicher nicht nutzen um ihn häufig zu beschreiben.

00-Schneider
2013-09-16, 22:28:36
Das neue Fable benutzt UE4. Wahrscheinlich meint Rein das.

Ansonsten hat Epic Games afaik keine eigenen NextGen-Spiele angekündigt. (Stichwort eigene Engine für eigene Spiele nutzen)

Gears of War? - In nächster Zeit eher nicht.

Unreal? - Wäre wünschenswert.

UT? - Das Genre ist auf Konsolen tot, da es sich beschissen mit Controller steuern lässt. Keine Konsolenversion -> no deal!

-------------------

Alle anderen großen Entwickler haben mittlerweile ihre eigenen Engines. Gab ja mal ein Gerücht, dass das nächste CoD(Ghosts) die UE4 benutzen würde, das Ergebnis ist bekannt...

Hallo
2013-09-16, 22:37:40
Ihr redet wirres Zeug.

"Breaking News": Das mag sein, dann kläre doch bissl auf.

Ich liebe deine substanzlosen Einzeiler... :ubash2:

RLZ
2013-09-16, 23:10:10
Ein paar Devkits für Naughty Dog:

https://lh6.googleusercontent.com/-vyGb-asHaDg/UjdRuL9sO3I/AAAAAAAAag0/ezFEhLc-wO4/w622-h467-no/13+-+1 (https://plus.google.com/112063116155978782075/posts/gDyQfF5MBfZ)

:biggrin:

00-Schneider
2013-09-16, 23:11:45
120 Stück zusätzlich - Man weiß also nicht, wie viele sie schon hatten. :D

Braucht ein Dev eigentlich so viele Devkits? :confused:

Wieviele PS4-Devkits habt ihr bei Crytek eigentlich Coda?

Knuddelbearli
2013-09-16, 23:19:17
1 devkit und 119 als Ersatz wegen YROD ^^

Coda
2013-09-16, 23:24:27
120 Stück zusätzlich - Man weiß also nicht, wie viele sie schon hatten. :D

Braucht ein Dev eigentlich so viele Devkits? :confused:

Wieviele PS4-Devkits habt ihr bei Crytek eigentlich Coda?
Du fragst mich dauernd Sachen, die ich sowieso nie kommentieren würde.

Da die Engine aber auch für die PS4 portiert würde man annehmen wollen, dass es genügend sind. An solchen Sachen scheitert es in der Regel nicht.

drkohler
2013-09-16, 23:28:23
120 Stück zusätzlich
Braucht ein Dev eigentlich so viele Devkits? :confused:
ND schon. Die renderten bisher mit zusammengestöpselten PS3. Jetzt stöpseln sie halt PS4 zusammen zum Rendern, aber 120+ ist schon eine Menge Holz..

00-Schneider
2013-09-16, 23:42:52
Du fragst mich dauernd Sachen, die ich sowieso nie kommentieren würde.


Keine Ahnung, was an meinen Fragen verwerflich ist:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9917176&postcount=2284

-> Wurde letztens von nem Dev bestätigt, dass es nativ 1080p ist. Wieso kannst du nichts dazu sagen?

---------------------------------

Nur weil ihr zurzeit Ryse für MS entwickelt, dürft ihr nicht zugeben, dass ihr Devkits der PS4 habt!? (Mir ist btw. klar, dass Crytek PS4-Devkits hat...)

prinz_valium
2013-09-17, 00:00:11
naja ich finde 120 devkits jetzt eher nicht so viel

ist halt ihr arbeitsgerät.


die bestätigung über 1080p bei ryse kam aber doch von ms direkt und nicht einem entwickler, oder hab ich da was falsch verstanden.
aber 30fps bei 1080p ist doch ein offenes geheimnis. wobei sich daran natürlich noch was ändern könnte. aa und af wärre natürlich interessant zu erfahren

DinosaurusRex
2013-09-17, 07:50:46
Ich hab mal ne ernst gemeinte Frage.

Hier ist ein neues Interview mit Mark Cerny, das sich zwar sehr schön liest, allerdings auch nur ganz wenig neue Informationen enthält. An einer Stelle kommen sie dann aber auf x86 zu sprechen und Cerny sagt dann folgendes:


LH: So what was the next step after deciding the x86 was going to be the thing?

MC: I wasn’t deciding whether the x86 would be the chip. I was trying to work out whether it would be an option. If your only option is the Power PC, it’s very restrictive in terms of hardware vendors. If you can also use the x86, you can talk to anyone out there who makes technology.

LH: What were people saying about the x86?

MC: Because of its very long history, the x86 is rather complex. You can run code today that was written for the original chip in 1978. They just kept adding things for [over 30] years. If you read an x86 manual, it takes pages to explain all the different ways that you can move data from one register to another, based on all the additions to the architecture over the years. It’s a bit overwhelming from that perspective. Also, it gets very technical. It’s a CISC architecture rather than RISC architecture. There was definitely a first-party voice that said [the x86] probably couldn’t be used in a games PS4 console disk drive.

LH: How did you address that?

MC: The first real interaction that we had with the game teams was talking to first-party about the x86 and explaining why we felt that finally it was useable in a console. We made 15 separate presentations. We went from morning to mid-afternoon going through how we felt the time had come. We knew we needed to show that our dedication and our concern was just as high as the game teams’. The presentation we did was so long that one of the teams was stranded on the tarmac for five hours, and they still arrived before we finished going through all the materials we prepared.

Warum haben einige Sonys first-party Entwickler gegen x86 gestimmt? Für Microsoft scheint das offensichtlich kein Problem zu sein, die haben ja immerhin 2 von 3 Konsolen mit diesen Prozessoren bestückt.

edit1: Link vergessen...

Mark Cerny interview – Building PS4, designing Knack & placing apples Crash Bandicoot 2 (http://www.officialplaystationmagazine.co.uk/2013/09/16/mark-cerny-interview-building-ps4-designing-knack-placing-apples-crash-bandicoot-2/)


edit2: Hier mal Sonys PR Keule lol...

Nolan North on PS4: “I’ve Seen Some Stuff… I Couldn’t Believe it was Gameplay” (http://n4g.com/news/1355792/nolan-north-on-ps4-ive-seen-some-stuff-i-couldnt-believe-it-was-gameplay)


edit3: Aaron Greenberg, Director of Product Management der Xbox Sparte, hat diesen Tweet rausgehauen:

http://i.cubeupload.com/cJuPNi.png

Deinorius
2013-09-17, 08:28:15
Nolan North hätte ja noch sagen können: It put his pants off! ;D

DinosaurusRex
2013-09-17, 08:35:25
Nolan North hätte ja noch sagen können: It put his pants off! ;D

Er ist übrigens der Voice Actor von Nathan Drake, dem Protagonisten aus Uncharted. Ist sicher kein Zufall, dass er dieses Statement abgibt, kurz nach dem Naughty Dog das Foto mit den 120 Devkits veröffentlich hat.

Ich denke Sony geht da auch sehr klug vor: Sie schicken "Laien" mit solchen "Meinungen" vor, während Microsofts PR Leute im NeoGAF rumwüten und alles nur noch schlimmer machen.

Deinorius
2013-09-17, 09:16:43
Ganz ehrlich, schlimmer als M$'s PR-Abteilung kann man es auch nicht machen, da hat es Sony nun wirklich leicht. ;D

john carmack
2013-09-17, 09:56:03
Jemand ne Ahnung ob dieser Texturen Matsch endlich der Vergangenheit angehört?

00-Schneider
2013-09-17, 10:09:24
Jemand ne Ahnung ob dieser Texturen Matsch endlich der Vergangenheit angehört?


Jep. 6GB für Spiele benutzbarer RAM von den neuen Konsolen reicht für gute Texturen aus. K.a. wie es mit AF aussieht. Ohne AF machen auch die besten Texturen wenig Sinn...

--------------------------

Ryse doch "nur" in 900p, Forza in 1080p: https://twitter.com/aarongreenberg/

1600x900 scheint also in der nächsten Gen eine echt Option zu sein. Besser als wenn man von 1080p gleich auf 720p runtergeht...

DinosaurusRex
2013-09-17, 10:30:08
Kriegt man bei den Partially Resident Textures AF nicht sogar hinterhergeschmissen?

00-Schneider
2013-09-17, 10:37:09
Kriegt man bei den Partially Resident Textures AF nicht sogar hinterhergeschmissen?


k.a. was das ist. :freak:

Jedenfalls mal als Beispiel ein Shoot aus Forza 5:

http://abload.de/img/forza_5_xbox_one_screaqsga.jpg

Definitiv zu wenig AF, siehe die Straße hinter dem Auto.

Ist AF immer noch so teuer, als dass es sich lohnen würde, darauf zu verzichten?

Skysnake
2013-09-17, 11:03:22
Jetzt mal ganz im Ernst, wo fehlt dir da AF? Meinste nicht, dass du da "geringfügig" übertreibst? Wenn das so im Spiel ist, siehts doch super aus.

Das ist Meckern auf ganz ganz ganz hohem Niveau von Leuten, die auch 1k€ in die GPU/CPU stecken...

Für die meisten Gamer wird das aber völlig irrelevant sein. Das interessiert bis auf ein paar Freaks hier doch keine Sau. Das Bild sieht super aus, und wird für die meisten Leute eine wahre Offenbarung sein..

y33H@
2013-09-17, 11:31:30
Bei einem Rennspiel kein AF sieht ziemlich hässlich aus.

Coda
2013-09-17, 11:35:57
Keine Ahnung, was an meinen Fragen verwerflich ist
Das meiste davon werde ich einfach nicht kommentieren, das ist doch wohl logisch.

DinosaurusRex
2013-09-17, 11:40:16
Das hier hat einer auf NeoGAF geschrieben zu den 900p von Ryse:


Yes, CryEngine 3 uses a g-buffer with a depth of 64 bits (Depth24Stencil8 and A8B8G8R8) per pixel [1]. That would be ~16MB at 1080p and ~11MB at 900p. The other buffers account for a total of ~30MB at 1080p on the PC, resulting in a total sum of ~46MB at 1080p. It might well be that the decision to go with 900p is because of ESRAM size limitations.

megachip800
2013-09-17, 11:49:36
k.a. was das ist. :freak:

Jedenfalls mal als Beispiel ein Shoot aus Forza 5:

http://abload.de/img/forza_5_xbox_one_screaqsga.jpg

Definitiv zu wenig AF, siehe die Straße hinter dem Auto.

Ist AF immer noch so teuer, als dass es sich lohnen würde, darauf zu verzichten?

tja scheint nicht gut auszusehen man beachte mal den Seitenstreifen ganz rechts:

http://4.bp.blogspot.com/-JzIugukc09w/UelUyzlUa3I/AAAAAAAASU0/ES2DvXmvZ4Q/s1600/_68098779_forza5.png

Gipsel
2013-09-17, 11:52:35
Kriegt man bei den Partially Resident Textures AF nicht sogar hinterhergeschmissen?Nein, es funktioniert nur und man muß nicht in den Shadern filtern.

DinosaurusRex
2013-09-17, 11:54:48
Dann hab ich das falsch aufgeschnappt. :redface:

Danke, Gipsel.


Was glaubst du eigentlich, warum waren Sonys first-party Studios gegen x86?

r3ptil3
2013-09-17, 12:43:20
k.a. was das ist. :freak:

Jedenfalls mal als Beispiel ein Shoot aus Forza 5:

http://abload.de/img/forza_5_xbox_one_screaqsga.jpg

Definitiv zu wenig AF, siehe die Straße hinter dem Auto.

Ist AF immer noch so teuer, als dass es sich lohnen würde, darauf zu verzichten?
Übel...

Coda
2013-09-17, 12:44:54
Was glaubst du eigentlich, warum waren Sonys first-party Studios gegen x86?
Wer sagt das?

Lightning
2013-09-17, 12:48:50
k.a. was das ist. :freak:

Jedenfalls mal als Beispiel ein Shoot aus Forza 5:

http://abload.de/img/forza_5_xbox_one_screaqsga.jpg

Definitiv zu wenig AF, siehe die Straße hinter dem Auto.

Ist AF immer noch so teuer, als dass es sich lohnen würde, darauf zu verzichten?

Bei dem Shot würde ich auf 4x AF tippen, auf jeden Fall nicht auf kompletten Verzicht. Der Blickwinkel ist ziemlich flach.

edit:
@Coda: Siehe hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9920825#post9920825

THEaaron
2013-09-17, 13:18:55
Jetzt mal ganz im Ernst, wo fehlt dir da AF? Meinste nicht, dass du da "geringfügig" übertreibst? Wenn das so im Spiel ist, siehts doch super aus.

Das ist Meckern auf ganz ganz ganz hohem Niveau von Leuten, die auch 1k€ in die GPU/CPU stecken...

Für die meisten Gamer wird das aber völlig irrelevant sein. Das interessiert bis auf ein paar Freaks hier doch keine Sau. Das Bild sieht super aus, und wird für die meisten Leute eine wahre Offenbarung sein..

Das ist ein Standbild. Mir stößt es jedenfalls immer böse auf wenn ich eine Blurlinie vor mir wegschiebe. Vor ALLEM bei Rennspielen.

Crazy_Bon
2013-09-17, 13:45:36
Das Bild ist doch einige Monate alt, glaubt ihr es hat sich seit dem nichts mehr getan?

DinosaurusRex
2013-09-17, 13:48:45
Das Bild ist doch einige Monate alt, glaubt ihr es hat sich seit dem nichts mehr getan?

Klar, aber in welche Richtung? :freak:

del_4901
2013-09-17, 14:03:28
Nein, es funktioniert nur und man muß nicht in den Shadern filtern.
Muss man auch so nicht. Man muss einfach nicht padden und die Replacementlogik ist viel einfacher.

Gipsel
2013-09-17, 14:25:53
Muss man auch so nicht. Man muss einfach nicht padden und die Replacementlogik ist viel einfacher.Hat Rage das nicht gemacht (und war auf 4xAF limitiert)? Ich meine, wenn Du immer Tiles mit allen Mip-Leveln hast, die sich am Rande etwas überlappen, dann geht natürlich auch das normale trilineare/AF Texturfiltering. Aber ich dachte das geht nicht, wenn man (so wie bei PRT unterhalb des min_sparse_level, oder wie auch immer das bei DX heißt) immer nur ein einziges Level in einem Tile hat und die TMU ohne PRT Support schlicht nicht weiß, von wo sie denn ein benachbartes MipLevel laden soll. Dann ist man also auf bilinear limitiert. Das benachbarte MipLevel mußte man bisher notgedrungen im Shader getrennt fetchen und selber verrechnen. Oder übersehe ich da was?

Edit:
Oder anders, ja, man spart das Padding und eine Menge Overhead und das Filtern funktioniert einfach für alle Filtermodi.

Für alle anderen:
So sieht MS das übrigens selber (http://channel9.msdn.com/Events/Build/2013/4-063) (so ungefähr ab 6:00 Minuten). Da sieht man auch den Grund, warum Rage nur bis 4xAF gegangen ist.

del_4901
2013-09-17, 14:36:54
Hat Rage das nicht gemacht? Ich meine, wenn Du immer Tiles mit allen Mip-Leveln hast, die sich am Rande etwas überlappen, dann geht natürlich auch das normale trilineare/AF Texturfiltering. Aber ich dachte das geht nicht, wenn man (so wie bei PRT unterhalb des min_sparse_level, oder wie auch immer das bei DX heißt) immer nur ein einziges Level in einem Tile hat und die TMU ohne PRT Support schlicht nicht weiß, von wo sie denn ein benachbartes MipLevel laden soll. Dann ist man also auf bilinear limitiert. Das benachbarte MipLevel mußte man bisher notgedrungen im Shader getrennt fetchen und selber verrechnen. Oder übersehe ich da was?

Edit:
Oder anders, ja, man spart das Padding.
Trilinear Anisotrop filtert man eh kaum. Aber selbst wenn, man es braucht, dann braucht man nur einen zusaetzlichen Mip Level. Das macht die Ersetzungsregeln aber komplizierter.

Coda
2013-09-17, 14:51:21
Mit D3D10 und D3D11 kannst du doch gar nichts anderes einstellen als trilinare anisotrop. Bi anisotrop gibt's da gar nich.

Wenn man direkten GPU-Zugriff hat auf den Konsolen kann man's wahrscheinlich aber trotzdem machen.

john carmack
2013-09-17, 15:39:09
k.a. was das ist. :freak:

Jedenfalls mal als Beispiel ein Shoot aus Forza 5:

http://abload.de/img/forza_5_xbox_one_screaqsga.jpg

Definitiv zu wenig AF, siehe die Straße hinter dem Auto.

Ist AF immer noch so teuer, als dass es sich lohnen würde, darauf zu verzichten?



Doch noch Texturen Matsch...
Die Starsse sieht nicht besonders aus. Warum kann nicht alles so gut und "echt" aussehen wie zB. die Felgen?

aufkrawall
2013-09-17, 15:44:18
Doch noch Texturen Matsch...
Die Starsse sieht nicht besonders aus. Warum kann nicht alles so gut und "echt" aussehen wie zB. die Felgen?
Warum wohl? Man ist der Meinung, die Leistung für was anderes besser einsetzen zu können. Konsole halt, und für jetzt schon relativ wenig Rechenleistung.

dargo
2013-09-17, 15:55:57
Warum wohl? Man ist der Meinung, die Leistung für was anderes besser einsetzen zu können. Konsole halt, und für jetzt schon relativ wenig Rechenleistung.
Trotzdem finde ich es merkwürdig, dass da scheinbar nur 4xAF zum Einsatz kommt. So teuer ist doch 16xAF gar nicht.

PS: würde mich auf dieses Bild allerdings nicht zu sehr versteifen. Das ist eh nicht Ingame... dafür sieht man kaum Aliasing. Ist wahrscheinlich wieder in 4k-16k entstanden und resampled.

Hallo
2013-09-17, 16:00:55
K.a. wie es mit AF aussieht. Ohne AF machen auch die besten Texturen wenig Sinn...


Absolut richtig, 16xAF sollten Pflicht sein. Finde ich sogar noch wichtiger als zu hohes AA vom Rechenbudged aus gesehen.
Hat jemand ne Ahnung ob die PS4 GPU Winkelunabhängiges AF beherrscht?

Edit:

Das AF vom Forza Screenshot ist bescheiden, dürfte in Natura 1080p (?) noch bescheidener aussehen. Himmel, meine GTX 570 kann da schon mehr...Das die Texturen im Vordergrund/Boden so scharf werden will ich erst mal sehen auf ner richtigen ONE.

del_4901
2013-09-17, 16:07:12
Absolut richtig, 16xAF sollten Pflicht sein.
Lol, warum immer alles versuchen mit der Keule zu erschlagen? Viele Texturen brauchen gar kein 16x das ist nur verschwendete Bandbreite und Register/Sampler. Richtig macht man es, wenn man die Texturen analysiert und anhand der Frequenz bestimmt welcher AF level wirklich notwendig ist. Viele Texturen sind mit 2x oder 4x bereits ausreichend gefiltert. Einige wenige brauchen 8x und extrem selten braucht man 16x.

Gipsel
2013-09-17, 16:16:05
Hat jemand ne Ahnung ob die PS4 GPU Winkelunabhängiges AF beherrscht?Basiert auf GCN, also alles Andere würde keinen Sinn machen.
Viele Texturen brauchen gar kein 16x das ist nur verschwendete Bandbreite und Register/Sampler.Bandbreite okay, aber Register braucht das genau Null. Und ob Du ein Sampler auf max 4xAF stellst oder 16x, kümmert den Sampler auch nicht.
Wenn Du viele verschiedene Sampler benutzen willst, dann sollte das auf GCN eigentlich praktisch fast umsonst sein, wenn die API da keine Restriktionen über die maximale Anzahl auferlegt (GCN kann z.B. auch das "bindless texture" Feature unterstützen sowie prinzipiell unlimitiert viele Sampler). Das sind einfach ein paar Werte in Skalarregistern, die man entweder irgendwoher lädt oder sich im Zweifelsfall im Shadercode selber bastelt/modifiziert (den Filtermodus eines Samplers ändern kann man einfach über das Setzen von ein paar Bits im Samplerdescriptor, der in den skalaren Regs liegt, das geht recht bequem mit den skalaren Instruktionen von GCN), falls das die API erlaubt (da benötigt man low-level Zugriff auf den Shadercode).
Richtig macht man es, wenn man die Texturen analysiert und anhand der Frequenz bestimmt welcher AF level wirklich notwendig ist. Viele Texturen sind mit 2x oder 4x bereits ausreichend gefiltert. Einige wenige brauchen 8x und extrem selten braucht man 16x.AF ist ja immer adaptiv anhand der Gradienten. Die höheren AF-Level werden nur benutzt, wenn es nötig ist. Und wenn man keine feinen Details (hohe Frequenzen) in den Texturen hat, kann man darüber nachdenken mehr Bandbreite zu sparen, in dem man einen entsprechenden LoD-Bias festlegt. ;)

Hallo
2013-09-17, 16:18:08
Nun wenn man davon ausgeht das man Texturen einigermassen gleichmässig scharf macht (Texture Res), also grosse, mittlere und kleine, sprich homogen (immer noch ein sehr sehr seehhr grosses Problem), sind mind. 8xAF nicht dumm. Ich sehe das so das ich auch noch in 5 virtuellen Metern Abstand noch scharfe Texturen haben möchte. Sicher, Keule muss nicht sein aber was current gen AF mässig liefert ist wrklich grausam. Aber zumindest sollte der Boden bei Racern weit in die ferne Scharf sein, dem Baum nebenan reicht natürlich auch weniger, verstehe.

Oder Denkfehler meinerseits?

Habe mit dem Dolphin Emulator herumgespielt und der Unterschied bei F-Zero GX (hab das Original) zwischen 8X und 16x AF ist sehr deutlich @1080p, wenn man dann noch sone Art Downsampling (ich weiss unfair) einschaltet killt die Schärfe den Forza Screenshot im Rückwärtsgang. Fluchtlinien/Texturen sind bis zum Horizont messerscharf:)

@Gipsel, ok thx, wenigstens wird beim AF nicht mehr gepfuscht wie bei GForce 6/7 Zeiten.

del_4901
2013-09-17, 16:21:32
Oder Denkfehler meinerseits?
Warscheinlich nur verkorkster Geschmack, den Menschen kann man doch an alles gewoehnen, nicht umsonst verkaufen sich kompakt Anlagen so gut.

Bandbreite okay, aber Register braucht das genau Null. Die Welt besteht nicht nur aus GCN.

AF ist ja immer adaptiv anhand der Gradienten. Die höheren AF-Level werden nur benutzt, wenn es nötig ist. Und wenn man keine feinen Details (hohe Frequenzen) in den Texturen hat, kann man darüber nachdenken mehr Bandbreite zu sparen, in dem man einen entsprechenden LoD-Bias festlegt. ;)
Der Sampler kennt den Inhalt der Texturen nicht, das musst man schon vorher in einem prepass machen. Und wer mit dem LoD-Bias spielt der gehoert sowieso gesteinigt.

Gipsel
2013-09-17, 16:26:28
Die Welt besteht nicht nur aus GCN.Wir sind hier im XB1/PS4-Thread, also doch. :tongue:
Und ich kenne keine einzige GPU-Architektur, in der höhere AF-Grade mehr Register benötigen würden. In Registern landen doch nur die fertig gefilterten Werte. Oder Du machst halt das Filtern im Shader, dann hättest Du recht, das macht bloß keiner.
Der Sampler kennt den Inhalt der Texturen nicht, das musst man schon vorher in einem prepass machen. Und wer mit dem LoD-Bias spielt der gehoert sowieso gesteinigt.Und anhand welcher Kriterien willst Du den AF-Grad auf max. 4x festlegen? Statisch anhand des Textureninhalts? Das klappt doch nie (wenn das gehen würde, geht auch der LoD-Bias). Was da in einer Szene sinnvoll ist, hängt eben wesentlich von der Geometrie und eben den daraus resultierenden Textur-Gradienten ab.

Hallo
2013-09-17, 16:31:59
@Alpha Tier

Haha, yupp und ich bin hohe Quali gewohnt durch viel Arcade, also bitte MS/Sony kein Matsch, kein Geruckel und shit, weil ich anderes gewohnt bin;) Himmel Arsch, das 20 Jahre alte Ridge Racer Arcade lief schon flutschig und hatte wirklich scharfe Texturen (@24 Bit Farbtiefe) wenn auch nur Point Sampling und dann kommen die mit Club Drive, die 30fps sind echt zum Gähnen...da sag ich mal nö. Es gibt nix schlimmeres als tolle Texturen mit 30fps zu versauen. Vor allem auf Plasma sieht man die "Ruckelei" sehr deutlich.

Edit: Mag sein das dies die Masse wenig juckt, dann halt Pech für mich und für die Hersteller die mein und vieler anderer Geld nicht wollen.

Der grosse Unterschied zwischen Arcade und Home war und ist immer noch die Tatsache das die Games um 60fps herum gebaut werden. Etwas was die Konsolenhersteller noch begreifen müssen den Bling Bling nimmt man irgenwann nicht mehr wahr, Framerate und die bessere Steuerung durch 60fps aber sehr wohl, nicht nur optisch sondern auch vom Lag her.

del_4901
2013-09-17, 16:32:03
Und anhand welcher Kriterien willst Du den AF-Grad auf max. 4x festlegen? Statisch anhand des Textureninhalts?
Jap, und das klappt sehr gut.

Haha, yupp ich bin hohe Quali gewohnt durch viel Arcade, also bitte MS/Sony kein Matsch, kein Geruckel und shit, weil ich anderes gewohnt bin;) Sorry, das es dir noch keiner erzaehlt hat: Aber deine Ansprueche sind weder der Zielgruppe entsprechend noch Marktwirtschaftlich.

Felixxz2
2013-09-17, 16:38:09
Aber mal ehrlich man spart sich doch nix? Was kostet HQ AF 16 auf modernen GPUs? 10%? 15%? Und das im Vergleich zu 0x. Der Unterschied zwischen 8x und 16x dürfte doch minimal sein. Klar holt man bei Konsolen jedes Prozent raus, aber ich will eig schon konstant schön gefilterte Texturen, nicht dass da manchen Devs wieder schmarrn machen.

Gipsel
2013-09-17, 16:39:43
Jap, und das klappt sehr gut.Das kann gar nicht gut klappen. Rein prinzipiell nicht. Da schaut man in einem flachen Winkel auf eine so texturierte Oberfläche und schon ist es wieder Matsch. Oder Du hast soo niedrige Frequenzen in der Textur (die steigen übrigens dann bei höheren Mip-Leveln, nur mal so nebenbei), daß es auch eine niedriger aufgelöste Variante getan hätte, also niedriger aufgelöst in Screen-Koordinaten aka positiver LoD-Bias.

R.I.P.
2013-09-17, 16:42:30
Eure Grundsatzdiskussion in allen Ehren (passt ja auch bezüglich Standbilder), aber hattet ihr jemals Zeit bei einem Rennspiel viel auf den gepflasterten Boden zu schauen? Und noch besser während des Fahrens Euch Gedanken zu machen, ob jetzt 4x AF doch bescheiden aussieht? Sorry, aber ich kann, bei Rennspielen wohlgemerkt (bei RPG, wo man Zeit hat sich die Umgebung näher anzuschauen, können wir darüber streiten), in den wenigste Fällen Unterschiede ausmachen, da ich einfach auf andere Sachen konzentriert bin

Gipsel
2013-09-17, 16:44:29
Aber mal ehrlich man spart sich doch nix? Was kostet HQ AF 16 auf modernen GPUs? 10%? 15%? Und das im Vergleich zu 0x. Der Unterschied zwischen 8x und 16x dürfte doch minimal sein.Das liegt daran, daß auch nur ein minimaler Teil des Bildes typischerweise diese AF-Grade bekommt. AF ist prinzipiell adaptiv. Man kann AF allerdings künstlich limitieren, daß er auch Bereiche, die höhere AF-Grade benötigen würden nur z.B. mit 4x behandelt. Auf die anderen Bildbereiche, wo trilinear bis 4xAF ausreicht, sieht man mit 16xAF auch nicht den geringsten Unterschied (und es gibt auch keinen performance-Unterschied!), da eben immer nur der AF-Grad von der Texturing Hardware ausgewählt wird, der anhand der Gradienten sinnvoll ist. Mit dem Limit auf 4x beschneidet man also nur die Qualität für die Bereiche, in denen höheres AF angesagt wäre.

dargo
2013-09-17, 16:47:20
Eure Grundsatzdiskussion in allen Ehren (passt ja auch bezüglich Standbilder), aber hattet ihr jemals Zeit bei einem Rennspiel viel auf den gepflasterten Boden zu schauen? Und noch besser während des Fahrens Euch Gedanken zu machen, ob jetzt 4x AF doch bescheiden aussieht? Sorry, aber ich kann, bei Rennspielen wohlgemerkt (bei RPG, wo man Zeit hat sich die Umgebung näher anzuschauen, können wir darüber streiten), in den wenigste Fällen Unterschiede ausmachen, da ich einfach auf andere Sachen konzentriert bin
Nicht jeder hat einen Tunnelblick. Natürlich sieht man gerade bei Rennspielen zu niedriges AF sehr deutlich, auch während der Fahrt. Zb. auf einer geraden... Asphalt und die Seitenmauer. Auf einem Stadtkurs siehst du das an den Gebäuden auch recht schnell.

THEaaron
2013-09-17, 16:48:39
Eure Grundsatzdiskussion in allen Ehren (passt ja auch bezüglich Standbilder), aber hattet ihr jemals Zeit bei einem Rennspiel viel auf den gepflasterten Boden zu schauen?


Wenn das Spiel kein AF hat springt einem der Übergang der scharfen Textur zum Matsch doch regelrecht ins Auge und wird einem durchgehend 3 Meter vor einem präsentiert. In dem Fall also eindeutig ja.

del_4901
2013-09-17, 16:51:32
Das kann gar nicht gut klappen. Rein prinzipiell nicht. Da schaut man in einem flachen Winkel auf eine so texturierte Oberfläche und schon ist es wieder Matsch. Oder Du hast soo niedrige Frequenzen in der Textur (die steigen übrigens dann bei höheren Mip-Leveln, nur mal so nebenbei), daß es auch eine niedriger aufgelöste Variante getan hätte, also niedriger aufgelöst in Screen-Koordinaten aka positiver LoD-Bias. In der Theorie ist alles schoen und toll. Die Praxis sieht leider ganz anders aus.

R.I.P.
2013-09-17, 16:56:29
Nicht jeder hat einen Tunnelblick. Natürlich sieht man gerade bei Rennspielen zu niedriges AF sehr deutlich, auch während der Fahrt. Zb. auf einer geraden... Asphalt und die Seitenmauer. Auf einem Stadtkurs siehst du das an den Gebäuden auch recht schnell.

Ich würde wetten, dass sehr wenige den Unterschied zwischen 4x und 8x Af während des Spiels erkennen ;D
Wäre dann wieder zu diskutieren, was für dich "zu niedrig" bedeutet und ob du (als Beispiel für Verfechter von hohen AF) anhand eben jenes Standbildes von Forza5 darauf schließen kannst, ob es "zu niedrig" ist; weiterer Punkt der zu klären gilt, ob das Spiel den finalen Anschliff schon hinter sich, wo noch Zeit bis zum release ist

Gipsel
2013-09-17, 17:00:00
In der Theorie ist alles schoen und toll. Die Praxis sieht leider ganz anders aus.Ja? Wenn Du argumentieren würdest, daß man aus Performancegründen das vielleicht auf 4x festlegt, da man weiß, daß entsprechende Gradienten bevorzugt weit im Hintergrund auftreten und es deswegen nicht ganz so wichtig für den Bildeindruck ist, dann wäre ich voll bei Dir (oder auch einfach nur aus Performancegründen). Aber die Geschichte mit der statischen Analyse des Texturinhalts ist ein schlechte Erklärung, ganz ehrlich. Das klappt so einfach nicht. Wenn es klappen würde, daß man keinen Unterschied zwischen 4x und 16x sieht (an Stellen, wo 16xAF greifen würde), dann ist das identisch zu der Aussage, daß man dort einen +2 LoD-Bias ebenfalls nicht sehen würde (weil 4xAF zwei Mips höher sampelt als 16x). Und wenn man das nicht sieht (ja angeblich wegen der niedrigen Frequenzen in der Textur) sieht man es nirgendwo (die Frequenzen der Textur ändern sich ja nicht), also kann man gleich mit +2 LoD-Bias über das Bild matschen.

Locuza
2013-09-17, 17:13:16
Ich hab mal ne ernst gemeinte Frage.

Hier ist ein neues Interview mit Mark Cerny, das sich zwar sehr schön liest, allerdings auch nur ganz wenig neue Informationen enthält. An einer Stelle kommen sie dann aber auf x86 zu sprechen und Cerny sagt dann folgendes:

Warum haben einige Sonys first-party Entwickler gegen x86 gestimmt? Für Microsoft scheint das offensichtlich kein Problem zu sein, die haben ja immerhin 2 von 3 Konsolen mit diesen Prozessoren bestückt.

Hat er auch in einem Interview gesagt, dass die allgemeine Meinung ist/war das sich x86 für eine Konsole nicht eignet und er dem zustimmen müsste, "aber" nur bis zu einer gewissen Zeit, da die neusten Entwicklungen von AMD und Intel die x86 CPUs auf ein konsolentaugliches Level gebracht hätten.

Wenn ich als Laie raten müsste, dann würde ich auf die SIMD Erweiterungen tippen wie SSE3/4 und AVX.
Das ganze bringt horizontal add, dot products, ein 3 Operanden-System und mehr Register mit sich.
Ebenso sind die Compiler sicher deutlich besser geworden und auch das Performance Verhalten der CPUs selber.

Power soll angeblich weniger hässlich sein, hat wenn ich mich richtig erinnere Architektur bedingt doppelt so viele Register und hat/hatte viele praktische Instruktionen vor x86 gehabt.

DrMabuse1963
2013-09-17, 17:40:52
Eure Grundsatzdiskussion in allen Ehren (passt ja auch bezüglich Standbilder), aber hattet ihr jemals Zeit bei einem Rennspiel viel auf den gepflasterten Boden zu schauen? Und noch besser während des Fahrens Euch Gedanken zu machen, ob jetzt 4x AF doch bescheiden aussieht? Sorry, aber ich kann, bei Rennspielen wohlgemerkt (bei RPG, wo man Zeit hat sich die Umgebung näher anzuschauen, können wir darüber streiten), in den wenigste Fällen Unterschiede ausmachen, da ich einfach auf andere Sachen konzentriert bin
Yep , bei Race07 war es die Hölle mit Randstreifen , das hat mich sogar im MP gestört , erst mit SSAA war das Af gut . MfG

Hayab
2013-09-18, 00:13:24
Ich würde wetten, dass sehr wenige den Unterschied zwischen 4x und 8x Af während des Spiels erkennen ;D
Wäre dann wieder zu diskutieren, was für dich "zu niedrig" bedeutet und ob du (als Beispiel für Verfechter von hohen AF) anhand eben jenes Standbildes von Forza5 darauf schließen kannst, ob es "zu niedrig" ist; weiterer Punkt der zu klären gilt, ob das Spiel den finalen Anschliff schon hinter sich, wo noch Zeit bis zum release ist

Gerade bei Rennspielen ist AF wichtig, Fahrbahmarkierungen, Begrenzungen, Zaun abseits der Stecken da braucht hochqualitatives AF, sonst sieht man den Uebergang von scharf zu unscharf, oder es gibt AF "Bugwellen" in Texturen.

Coda
2013-09-18, 00:18:30
Power soll angeblich weniger hässlich sein, hat wenn ich mich richtig erinnere Architektur bedingt doppelt so viele Register und hat/hatte viele praktische Instruktionen vor x86 gehabt.
Dafür hat Power ein viel relaxierteres Speichermodell bei multithreading. Macht absolut keinen Spaß damit zu arbeiten.

Die Dot-Product-Instruction ist auf Jaguar übrigens schnarchlahm.

S940
2013-09-18, 00:43:59
Die Dot-Product-Instruction ist auf Jaguar übrigens schnarchlahm.Microcoded?

Gipsel
2013-09-18, 03:57:18
Microcoded?Erstens das und zweitens sind eigentlich alle horizontalen Geschichten mit SSE tendentiell eher Krampf.

y33H@
2013-09-18, 06:32:05
Eure Grundsatzdiskussion in allen Ehren (passt ja auch bezüglich Standbilder), aber hattet ihr jemals Zeit bei einem Rennspiel viel auf den gepflasterten Boden zu schauen?Man sieht in einem Rennspiel ständig den Boden ...

Crazy_Bon
2013-09-18, 06:51:39
Doch noch Texturen Matsch...
Die Starsse sieht nicht besonders aus. Warum kann nicht alles so gut und "echt" aussehen wie zB. die Felgen?
Immerhin besser als der Matsch dort, sicherlich liegt es wie immer am "Alphacode".
http://i.imgur.com/7zdJSkw.jpg

R.I.P.
2013-09-18, 07:09:23
Man sieht in einem Rennspiel ständig den Boden ...
Welcher sich ständig bewegt und durch Bewegungsuschärfe das Problem relativiert. Vielleicht solltest du deine Fahrkenntnisse aufbesseren, damit du nicht ständig Standbilder vom Boden siehst :D
Scherz beiseite, finde 4x einen guten Kompromiss und mMn schaut das Gezeigte bei Forza 5 nicht so schlecht aus

Erdbeermayonnaise
2013-09-18, 08:13:40
Welcher sich ständig bewegt und durch Bewegungsuschärfe das Problem relativiert. Vielleicht solltest du deine Fahrkenntnisse aufbesseren, damit du nicht ständig Standbilder vom Boden siehst :D
Scherz beiseite, finde 4x einen guten Kompromiss und mMn schaut das Gezeigte bei Forza 5 nicht so schlecht aus
Da wird nichts relativiert. Das Problem fängt doch schon damit an, dass die Straßenmarkierungen in der Entfernung immer breiter werden. Da kann man auch noch so viel Bewegung(sunschärfe) haben, das ändert überhaupt nichts. Ich bin eigentlich kein Grafikfetischist, aber gerade bei Rennspielen auf dem Boden sieht man fehlendes AF ja wohl überdeutlich. Ich weiß gar nicht, was es da zu diskutieren gibt. Es haben auch nicht ohne Grund in der Vergangenheit schon viele Rennspiele per default negatives Lodbias auf die Strecke angewendet.
Ich würde sogar sagen: Das ist eine der wenigen Situationen, in denen auch 32xAF noch sinnvoll wären.

Skysnake
2013-09-18, 09:33:25
jetzt mal ganz im ernst, geht ihr jetzt nach:ich wünsch mir die Welt wie sie mir gefällt

oder geht ihr hin, nehmt die alten Konsolengames und vergleicht mit denen?

Klar Banding ist unschön, aber das muss sich auch noch zeigen, wie stark man das dann im fertigen Spiel wahrnimmt. Hier wird echt auf sehr sehr hohem Niveau gejammert...

Seit mal ganz ehrlich zu euch selbst. Wenn das jetzt nicht da gewesen wäre, hättet ihr doch sicher irgendwas anderes gefunden, was "Augenkrebs" hervorruft...

Ich frag mich echt, wie ihr in den 90ern gezockt haben wollt....

THEaaron
2013-09-18, 09:42:54
Die Ansprüche wachsen halt mit. Jeder Titel der einen neuen Maßstab setzt erhöht auch die Erwartungshaltung der Kunden. Damals hatte man einfach nichts anderes.

boxleitnerb
2013-09-18, 09:44:25
Wir haben vielleicht im Gegensatz zu dir höhere Ansprüche? Wenn du damit leben kannst, ist das ja schön für dich, warum die anderen wegen Qualitätsbewusstsein doof anmachen?

00-Schneider
2013-09-18, 09:45:35
Dass in der aktuellen Gen kaum AF benutzt wurde ging mir schon extrem auf den Sack. Damals wurde gesagt, dass die knapp bemessene Leistung halt für andere Sachen gebraucht wird.

Die neuen Konsolen haben aber ohne wenn und aber genug Leistung für AF über. Deswegen kann man als Kunde auch verlangen, dass es benutzt wird.

Lightning
2013-09-18, 09:55:32
Da wird nichts relativiert. Das Problem fängt doch schon damit an, dass die Straßenmarkierungen in der Entfernung immer breiter werden.

Dafür braucht man aber nicht volles AF für alle Texturen, sondern eben nur für solche, bei denen es besonders auffällt. Und das wird imo in der Regel auch so gemacht. Die Straßenlinien bleiben zumindest in Forza Horizon, das ich derzeit spiele, stets vollständig scharf.

edit:
Und da setzen die Hersteller den Fokus halt oft auf bling bling. Diese "Mängel" über die ihr redet sind aber nicht dafür entscheidend, ob das Game SPASS macht beim zocken. Da sind ne vernünftige KI und Fahrphysik viel entscheidender. Ich setz mich ja nicht hinter den Monitor und wedel mir die Palme, weil ich die Grafik geil finde... Meckern kann man immer... Schau dir irgendwelche Hollywood Blockbuster an, da findet man auch noch genug zu meckern...

Das Game muss doch am Ende eins machen, und zwar unterhalten/spass machen.

Spiele wie limbo usw usw zeigen doch das Grafik nicht alles ist.

Nichts für ungut, aber wir sind hier in einem Technikthema, da hat eine Spielspaßdiskussion eigentlich nichts verloren.

Skysnake
2013-09-18, 09:56:16
Wir haben vielleicht im Gegensatz zu dir höhere Ansprüche? Wenn du damit leben kannst, ist das ja schön für dich, warum die anderen wegen Qualitätsbewusstsein doof anmachen?
Man sollte aber immer im Hinterkopf behalten, das wir hier über ne ~400€ Konsole mit <200W Verbrauch reden. Da sollte einem klar sein, das es hier und da mal Abstriche gibt.

Und da setzen die Hersteller den Fokus halt oft auf bling bling. Diese "Mängel" über die ihr redet sind aber nicht dafür entscheidend, ob das Game SPASS macht beim zocken. Da sind ne vernünftige KI und Fahrphysik viel entscheidender. Ich setz mich ja nicht hinter den Monitor und wedel mir die Palme, weil ich die Grafik geil finde... Meckern kann man immer... Schau dir irgendwelche Hollywood Blockbuster an, da findet man auch noch genug zu meckern...

Das Game muss doch am Ende eins machen, und zwar unterhalten/spass machen.

Spiele wie limbo usw usw zeigen doch das Grafik nicht alles ist.

boxleitnerb
2013-09-18, 10:03:43
Siehe Lightnings Antwort, der ich voll zustimme.

THEaaron
2013-09-18, 10:06:11
Spiele wie limbo usw usw zeigen doch das Grafik nicht alles ist.

Und wie genau passt diese Aussage jetzt zum Thema?

Skysnake
2013-09-18, 10:27:18
Das hier teilweise maßlos übertrieben wird...

Mich stört z.B. Auf dem Bild viel mehr die unrealistischen schatten, welche auch noch teilweise wie es scheint Darstellungsfehler haben. Ganz zu schweigen, dass die Godrays nicht zu den Schatten passen...

boxleitnerb
2013-09-18, 10:29:28
Was für eine arrogante Einstellung für andere beurteilen zu wollen, wo man kritisieren darf und wo nicht. Vielleicht solltest du bei deiner eigenen Meinung bleiben und anderen ihre lassen.

THEaaron
2013-09-18, 10:30:28
Dass es hier User gibt die sich durch ihren selbst hochgesteckten Anspruch gerne profilieren und in anderen Threads ihr Ego Gassi führen ist ja kein Geheimnis. Aber solange die Diskussion in einem dafür dedizierten Thread stattfindet ist doch vollkommen Ok.

DinosaurusRex
2013-09-18, 10:31:14
Ich versteh überhaupt nicht wo das Problem liegt.

Wer sein AF selber einstellen möchte, der kauft sich halt einfach nen PC. Eine Konsole muss mit begrenzten Ressourcen auskommen und da verlässt man sich als Spieler eben auf die Expertise des Programmierers, welcher AF-Grad nun zum Einsatz kommen soll. Ich kann Skysnakes Reaktion verstehen.

dildo4u
2013-09-18, 10:37:58
AF kostet halt kaum Leistung daher wäre es schon sinnvoll,das es immer aktiv ist.Ich denke ein Konsolero würde sich schon über das optimierte AF freuen muss ja nicht HQ sein.

del_4901
2013-09-18, 10:42:51
AF kostet halt kaum LeistungIch behaupte einfach mal da spielt euch Jemand einen Streich. ;)

Gipsel
2013-09-18, 11:27:16
Ich erinnere mal an das Thema.

Xbox One/Playstation 4: technische Spekulation und Vergleich

Ich erkenne nicht, wie die AF-Diskussion die Konsolen-Technik erörtert. Zu AF gibt es eigentlich andere Threads.

][immy
2013-09-18, 15:13:03
Nun, die xbone wird wohl doch keine 100Watt Konsole sein. Zumindest das Netzteil scheint einiges mehr leisten zu können
http://i.imgur.com/qCRATnJ.jpg (>200Watt)

Ich weiß zwar nicht wie viel die USB-Ports + Kinect maximal schlucken können, scheint aber doch recht großzügig ausgelegt zu sein.

Eventuell auch aus dem grund den ich mal genannt habe, das Netzteile mit der Zeit gerne mal etwas nachlassen und daher ein gewisser Puffer nötig ist.

dildo4u
2013-09-18, 15:17:28
Ist ganz normal bei Konsolen,die erste PS3 hatte ein 380Watt NT braucht aber max 200W.

https://en.wikipedia.org/wiki/PlayStation_3_technical_specifications#Configurations

http://www.computerbase.de/artikel/multimedia/2007/test-sony-playstation-3/24/

Die Regel scheint das man ca 2X des realen Verbrauches verbaut.

dargo
2013-09-18, 15:19:28
[immy;9922831']Nun, die xbone wird wohl doch keine 100Watt Konsole sein. Zumindest das Netzteil scheint einiges mehr leisten zu können
http://i.imgur.com/qCRATnJ.jpg (>200Watt)

Ähm... welcher Hersteller ist so dumm und betreibt das Netzteil jahrelang am Limit? :confused:

dildo4u
2013-09-18, 15:20:14
Ähm... welcher Hersteller ist so dumm und betreibt das Netzteil jahrelang am Limit? :confused:
Keiner.

dargo
2013-09-18, 15:23:14
Keiner.
Eben, das wollte ich damit sagen. Dein Hinweis mit dem PS3 NT ist übrigens ein ganz guter, da sind die 100W von MS durchaus realistisch wenn man ein 253W NT verwendet.

][immy
2013-09-18, 15:35:00
Ähm... welcher Hersteller ist so dumm und betreibt das Netzteil jahrelang am Limit? :confused:

das ist schon klar, nur geisterte die Tage ja ein Netzteil mit nur <130Watt Leistung herum.

Btw. die Xbox Netzteile waren schon immer sehr nah am tatsächlichen Verbrauch. Das erste xbox 360 Netzteil leistete 203 Watt wovon sie sich ~180Watt genehmigte, danach ging es abwärts und das obwohl noch die Stormversorgung für Kinect hinzu kam. Also zumindest MS hält zwar einen Sicherheitsabstand ein, aber keinen sehr großen.

Botcruscher
2013-09-18, 15:36:34
In der Spitze werden es dann doch 150 für die Box sein. So klein ist der SoC nun auch nicht.

Hallo
2013-09-18, 16:08:06
Jap, und das klappt sehr gut.

Sorry, das es dir noch keiner erzaehlt hat: Aber deine Ansprueche sind weder der Zielgruppe entsprechend noch Marktwirtschaftlich.

Ähhm, das hatte ich schon erwähnt, ja dessen bin ich mir sehr bewusst, dennoch 30fps für MICH = Shit, bin mal so frei ;) Die Masse juckt mich nicht ich will Qualität und dafür zahle ich auch gerne mal 400 Euro (für ein Game). Ein Forza Horizon nehme ich nicht mal für geschenkt.

Zitat Hallo: "Mag sein das dies die Masse wenig juckt, dann halt Pech für mich und für die Hersteller die mein und vieler anderer Geld nicht wollen."

Super Mario Bros. auf NES lief schon sauber und heute, please...immer diese lahmen Ausreden...auf Saturn haben die Big Player alle in Assembler geprogged und Wunder vollbracht, und heute? Gejammer...

DinosaurusRex
2013-09-19, 14:57:43
Hier ist ein ganz interessantes Interview mit Mark Cerny, in dem er über seine Anfangszeit als Programmierer spricht (3DO und sowas), wie er von anderen Entwickler bei PS4 Präsentationen verspottet wurde und was er sich von der PS4 verspricht:

An Audience With: Mark Cerny – on three decades in the games business and the future of PS4 (http://www.edge-online.com/features/an-audience-with-mark-cerny-on-three-decades-in-the-games-business-and-the-future-of-ps4/)

Das hier ist vermutlich von Interesse für dieses Thema:


Setting aside postmortem feedback, what did you personally want out of the PlayStation 4 as a game designer and engine programmer that you were, selfishly, free to champion from your post as system architect?

Well, as a programmer myself, I wanted to be sure that there were lots of fun little features in the hardware that people could really explore in the later years of the console lifecycle. So when it came down to designing the feature set for years three and four of the console, that isn’t something where the development community could contribute as broadly because it had much more to do with personal vision about where GPGPU was going. I definitely did pitch it to a broad variety of teams and get their feedback, but there were many, many small and large decisions that had to be made in terms of actually creating the details of that hardware.

Hardware generation cycles have lengthened considerably. When you were locking in specs for the PlayStation 4, what kind of time horizon were you budgeting for?

There are definitely some features in the PlayStation 4 that start to get used broadly in the third or fourth year of the console lifecycle. It’s all about how the GPU and CPU can work together to do many tasks other than graphics, which is say that photorealism is a great target but that world simulation is also important. This is underappreciated but getting your audio right in a game and making sure that your character’s ears are really hearing what they should within the game universe takes a tremendous amount of processing power. And there’s a lot of features in the GPU to support asynchronous fine-grain computing. ‘Asynchronous’ is just saying it’s not directly related to graphics, ‘fine grain’ is just saying it’s a whole bunch of these running simultaneously on the GPU. So I think we’re going to see the benefits of that architecture around 2016 or so.

Is that as far as you’re able to reasonably forecast?

There are still people who are making Atari 2600 games today so learning, on some level, never stops. With the PlayStation 4, it’s even such things as the share cores have a beautiful instruction set and can’t be programmed in assembly. If you were willing to invest the time to do that, you could do some incredibly efficient processing on the GPU for graphics or for anything else. But the timeframe for that kind of work would not be now. I don’t even think it would be three years from now.

What is next-gen gaming? What features do you think will define this upcoming generation of console hardware?

I think we’re going to see heightened social integration in the games, and that can take a lot of different forms. If you went to Ubisoft’s press conference, there were all these cases where they were sort of blurring the line between what was a singleplayer game and what was a multiplayer game. Knack is a singleplayer game but you also see your other friends in it as you’re playing the game. There are treasure chests with random items that come out of them that let you build gadgets to help you in your quest, and you can either choose the one that came out of the treasure chest or you see a list of all your friends who’ve been to the same secret room and you can choose what they picked up instead. That is a smaller feature but it’s nice because it makes you feel like you’re on an adventure with your real-world friends. So I think broadly across games we’re going to see that heightened level of social interaction.

I think we’ll also see – and this was also possible in the PlayStation 3 generation – but we’ll see living software. Every time you go to play that game, there’s something new – new places to explore in the world, new missions, and so on. That is one of the more exciting things that having a hard drive in every PlayStation 4 supports.

Hayab
2013-09-19, 14:57:47
http://i.imgur.com/qCRATnJ.jpg

Nach P(Leistung in W)=U(Spannung in V) x l(Stromstaerke in A) :
Ist die Eingangsleistung
100Vx4,91A=491W
Vermutlich ist die Stromstaerke hoeher bei 100V als bei 127V Spannung also max. 491W. Wird wahrscheinlich der Einschaltwert sein.

Ausgangsspannung
12Vx17,9A=214W
5Vx1A=5W
Zusammen ist das 219W

Stromverbrauch 253Wh (Watt pro Stunde) - 219W Ausgangsleistung= 34W Abwaerme wahrscheinlich aber mehr;D

Gipsel
2013-09-19, 15:18:17
Stromverbrauch 253Wh (Watt pro Stunde)Das ist absoluter Schrott diese Einheit. Wh sind immer Wattstunden im Sinne von W*h, also eine Energieeinheit.

Hayab
2013-09-19, 15:23:36
Das ist absoluter Schrott diese Einheit. Wh sind immer Wattstunden im Sinne von W*h, also eine Energieeinheit.

253Wh=0,253kWh. Das ist ein wert mit dem man die Stromverbrachkosten rechnen kann.

][immy
2013-09-19, 15:37:49
253Wh=0,253kWh. Das ist ein wert mit dem man die Stromverbrachkosten rechnen kann.
worum es ihm ging ist wohl eher, das du die "Stunden" als Einheit gleich weglassen kannst, weil 253W verbrauch automatisch 253Wh (253W *1h)bedeutet ;)
Oder von mir aus auch 0,253 KWh (0,253KW würden aber auch genügen als Angabe).

Die >400W ist definitiv nur die Einschaltleistung wie bei jedem Netzteil (einmaliger kleiner Peak).

Was darf man eigentlich an 3 USB 3.0 Ports maximal anschließen (also wie hoch darf der Verbrauch daran sein)?

Gipsel
2013-09-19, 15:45:04
253Wh=0,253kWh. Das ist ein wert mit dem man die Stromverbrachkosten rechnen kann.Ja, das sind Energiekosten, die sich aus Leistung * Zeit, die die Leistung abgerufen wird, ergeben.
Wenn Du irgendwas, was 1 kW verbraucht, 15 Minuten und 11 Sekunden lang laufen läßt, hast Du 253 Wh Energie verbraucht. Wenn irgendwas nur 1 W verbraucht, mußt Du das 10 Tage und 13 Stunden laufen lassen, damit Du darauf kommst.
Welchen Sinn macht dann die Angabe von 253Wh auf einem Netzteil gleich nochmal? Richtig, gar keinen.
[immy;9924348']worum es ihm ging ist wohl eher, das du die "Stunden" als Einheit gleich weglassen kannst, weil 253W verbrauch automatisch 253Wh (253W *1h)bedeutet ;)Das bedeutet nicht automatisch 253Wh. Bei einer Leistungsaufnahme von 253W, beträgt der Energieverbrauch nach einer Stunde 253Wh (also 253 W*h/h :freak:), aber woher kommt die eine Stunde? Darf das Netzteil nur eine Stunde pro Tag laufen oder was? Oder eine Stunde überhaupt als absolute Lebensdauer? Es ist schlicht Schrott.

ndrs
2013-09-19, 15:46:20
[immy;9924348']
Was darf man eigentlich an 3 USB 3.0 Ports maximal anschließen (also wie hoch darf der Verbrauch daran sein)?
4,5W.

][immy
2013-09-19, 16:21:34
Welchen Sinn macht dann die Angabe von 253Wh auf einem Netzteil gleich nochmal? Richtig, gar keinen.
Das bedeutet nicht automatisch 253Wh. Bei einer Leistungsaufnahme von 253W, beträgt der Energieverbrauch nach einer Stunde 253Wh (also 253 W*h/h :freak:), aber woher kommt die eine Stunde? Darf das Netzteil nur eine Stunde pro Tag laufen oder was? Oder eine Stunde überhaupt als absolute Lebensdauer? Es ist schlicht Schrott.
es ist schlicht eine Standardangabe um auszugeben wie viel Watt ein Gerät pro Stunde maximal verbraucht. Das es auch darunter sein kann/wird ist klar. Einfach damit die normalen leute damit rechnen können, was maximal rauskommen würde (wenn man es eine Stunde laufen lässt).
ne durchschnittliche stündliche Leistungsaufnahme würde nichts bringen, von daher ist die Angabe wohl schon gerechtfertigt. Hat hier im Thread aber herzlich wenig verloren.

Deinorius
2013-09-19, 16:57:19
4,5W.


Pro Port, da er nach drei Ports gefragt hat (nur um sicher zu gehen).
Macht also zusammen 13,5 W.

L233
2013-09-19, 17:47:11
http://images.anandtech.com/graphs/graph7335/58194.png

Interepretiere ich das richtig, dass die sog. "NextGen"-Konsolen bzgl. der CPU-Leistung bereits von 'nem Handy geraped werden, bevor sie überhaupt auf dem Markt sind?

Gipsel
2013-09-19, 17:49:28
[immy;9924443']es ist schlicht eine Standardangabe um auszugeben wie viel Watt ein Gerät pro Stunde maximal verbraucht.Nein. Das ist schlicht falsch.
Eine Watt-Angabe ist immer instantan, nicht pro Stunde oder sonstiger Zeiteinheit (Watt ist bereits Joule [Energieeinheit] pro Sekunde). Genau deswegen ist es Blödsinn.
Das Einzige, was Sinn macht, ist eine Energieangabe als Produkt von Verbrauch (Leistung in W) mal die Zeitdauer (nicht pro Zeitdauer, das wäre ein Division; W*s ist wieder J, aber es gibt eben die nichtmetrische Einheit W*h = 3600 W*s = 3600J). Aber was soll die Zeitdauer sein?
Das macht bei einem Kühlschrank Sinn (der läuft nicht kontinuierlich und eine Energieangabe in kWh pro Tag ist da gut für die Einschätzung [man bezahlt Energie, nicht Leistung!]) oder bei einer Waschmaschine (das 60° Vollprogramm verbraucht 2 kWh oder so, das ist eine integrale Angabe über die komplette Laufzeit dieses Programms) oder bei einem Akku als Energiespeicherkapazität, aber nie und nimmer bei einem Netzteil.

Es ist zwar wirklich OT, aber ein wenig Grundwissen über Leistungs- und Energieeinheiten kann nie schaden. ;)

Lightning
2013-09-19, 17:53:32
http://images.anandtech.com/graphs/graph7335/58194.png

Interepretiere ich das richtig, dass die sog. "NextGen"-Konsolen bzgl. der CPU-Leistung bereits von 'nem Handy geraped werden, bevor sie überhaupt auf dem Markt sind?

Nein. Die CPUs haben 8 Jaguar-Kerne (1.75 GHz bei der Xbox, mindestens 1.6 GHz bei der PS4).

Gipsel
2013-09-19, 17:54:13
http://images.anandtech.com/graphs/graph7335/58194.png

Interepretiere ich das richtig, dass die sog. "NextGen"-Konsolen bzgl. der CPU-Leistung bereits von 'nem Handy geraped werden, bevor sie überhaupt auf dem Markt sind?Nein. Doppelte Kernanzahl, höherer Takt, locker eine Größenordnung mehr Speicherbandbreite und zum Abschluß: Was ist denn das schon wieder für ein abstruser Browserbenchmark?

L233
2013-09-19, 17:55:57
Nein. Die CPUs haben 8 Jaguar-Kerne (1.75 GHz bei der Xbox, mindestens 1.6 GHz bei der PS4).
Wovon max. 6 zur Verfügung stehen und letztendlich der Core, auf der der rechenaufwändigste Thread läuft, immer der leistungsbestimmende Bremser ist.

Crazy_Bon
2013-09-19, 18:00:41
http://images.anandtech.com/graphs/graph7335/58194.png

Interepretiere ich das richtig, dass die sog. "NextGen"-Konsolen bzgl. der CPU-Leistung bereits von 'nem Handy geraped werden, bevor sie überhaupt auf dem Markt sind?
Ist das nicht ein Browserbenchmark basierend auf HTML5- und Javascripts? Sehr aussagekräftig für´ne Konsole. ;)

Lightning
2013-09-19, 18:07:15
Wovon max. 6 zur Verfügung stehen[...]

Ich würde eher sagen mindestens 6 (genau wissen wir das noch nicht).

Aber du bist ja anscheinend informiert: Was sollte dann die Frage? Du wirst angesichts der Fakten doch nicht ernsthaft bestreiten wollen, dass die CPUs der Konsolen schneller sind?

und letztendlich der Core, auf der der rechenaufwändigste Thread läuft, immer der leistungsbestimmende Bremser ist.

Zusammenhang..?

dildo4u
2013-09-19, 18:09:37
Wovon max. 6 zur Verfügung stehen und letztendlich der Core, auf der der rechenaufwändigste Thread läuft, immer der leistungsbestimmende Bremser ist.
Wenn die Engine vernünftig geprogt wurde,wird die Last gleichmäßig verteilt nennt sich Job System.

Seite 6
http://s09.idav.ucdavis.edu/talks/04-JAndersson-ParallelFrostbite-Siggraph09.pdf

L233
2013-09-19, 18:21:28
Du wirst angesichts der Fakten doch nicht ernsthaft bestreiten wollen, dass die CPUs der Konsolen schneller sind?
Bei der CPU-Leistung? Da möchte ich mir nicht anmaßen, ein entgültiges Urteil zu fällen. Wenn der neue Atom Jaguar bitchslappen kann, warum sollte Apples neue ARM-basierte CPU das dann nicht können? Ist IMO zumindest in Bereich des Möglichen.

Zusammenhang..?
IPC > Cores.
Jaguar = crap IPC

Coda
2013-09-19, 18:27:04
Wovon max. 6 zur Verfügung stehen und letztendlich der Core, auf der der rechenaufwändigste Thread läuft, immer der leistungsbestimmende Bremser ist.
Du hast da eine falsche Vorstellung.

IPC > Cores.
Nö. Ich nehm lieber doppelt so viele Cores als 50% mehr IPC.

L233
2013-09-19, 18:30:37
Nö. Ich nehm lieber doppelt so viele Cores als 50% mehr IPC.
Solange man effektiv genug Parallelisieren kann, damit einer der Cores nicht zum massiven Bremser wird. Kann man das bei Game-Code denn immer? Oder ist davon auszugehen, dass NextGen-Games eh GPU-limitiert sind?
Du hast da eine falsche Vorstellung..
Ja, kann sein.

StefanV
2013-09-19, 18:36:15
http://images.anandtech.com/graphs/graph7335/58194.png

Interepretiere ich das richtig, dass die sog. "NextGen"-Konsolen bzgl. der CPU-Leistung bereits von 'nem Handy geraped werden, bevor sie überhaupt auf dem Markt sind?
Mann, das isn Browser Benchmark. Damit auf 'ne CPU oder irgendwelche Leistung schließen zu wollen ist mal völlig im Eimer.
Denn in erster Linie kommts eben auf den Browser an, wie gut der auf den Untersatz optimiert wurde und so weiter...

Bei einem iPhone kann man da ja auch wohl 'nen bisserl mehr optimieren als bei 'nem Windows PC, meinst nicht auch??
Und das ist alles, was man aus diesem Bild ablesen kann, dass der iOS Browser wohl ganz gut optimiert ist. Alles andere ist Blödsinnig.

Lightning
2013-09-19, 18:38:16
Bei der CPU-Leistung? Da möchte ich mir nicht anmaßen, ein entgültiges Urteil zu fällen. Wenn der neue Atom Jaguar bitchslappen kann, warum sollte Apples neue ARM-basierte CPU das dann nicht können? Ist IMO zumindest in Bereich des Möglichen.

Also nochmal von vorne: Du kommst hier mit der Aussage in den Thread, dass ein vor den Konsolen erscheinendes Handy eine deutlich schnellere CPU haben soll. Dazu präsentierst du einen Benchmark (zweifelhafter Relevanz), der das aber nicht annähernd hergibt. Und jetzt argumentierst du anscheinend damit, dass die singlethreaded Leistung ja höher sein könnte (wobei selbst das nicht aus dem Benchmark hervorgeht). Ich habe keine Ahnung, was das jetzt alles soll.
Wenn du einfach nur deine Meinung kundtun willst, dass du die CPUs der Konsolen für schwach hälst, dann geht das auch anders und ohne offensichtliche Übertreibungen.

L233
2013-09-19, 19:17:05
Mann, das isn Browser Benchmark. Damit auf 'ne CPU oder irgendwelche Leistung schließen zu wollen ist mal völlig im Eimer.
WebXPRT beinhaltet u.a. Photo Editing und Gesichtserkennung. WebXPRT läuft AFAIK am besten mit Chrome und damit wurde offenbar auf den Win8-Geräten gebenched. Ich sehe nicht, dass Kabini hier einen browser-verursachten Nachteil haben sollte, eher das Gegenteil. Natürlich ist die Aussagekraft über Platformen und Browser hinweg beschränkt, aber ein interessanter Datenpunkt ist es allemal.

dildo4u
2013-09-19, 19:21:13
Es gäb so oder so keine Alternative zu Jaguar im TDP Bereich einer Konsole(Der SOC darf Gesamt nur um 100W "verbrauchen"),und nur ein SOC bietet direkten Zugriff zwischen GPU und CPU.Intel hätte zwar den besseren CPU Teil aber keine Chance gegen die AMD GPU in der PS4.Auch die ganze Mobile GPU's sind noch Jahre von der 78XX(1.8TFlop) in der PS4 weg.

Sony will das die Entwickler anfangen die GPU für CPU Aufgaben zu nutzen daher bekommt die GPU das Meiste vom Power Budget.


Enormous explosions, waves of enemies and bullet storms are all par for the course, backed by the screen-filling pyrotechnics you've come to expect from this developer. Housemarque's approach in realising the digital carnage is intriguing: environments are created from hundreds of thousands of cubes, each of which is individually animated by GPU-accelerated physics.

"The entire environment - everything - is built up from these voxels," explains Kruger. "All of the cubes that you see flying around - there's no gimmick, no point sprites, it's not a particle effect, they're actual physical cubes. In gameplay, dynamic cubes with collisions, floating around, you can get up to 200,000. Our engine supports up to 500,000 but in actual gameplay scenarios, it rarely goes over 200K."

The technology behind the cube-based construction of each level is as typically ingenious as you would expect from a Housemarque title.

"It's actually pretty interesting tech because as you can see, the environments are fully destructible and both the background and the gameplay ring are loaded from 3D textures - and then they're polygonised on the fly," Kruger says.

"So basically what happens is that the mesh for the actual background geometry is generated, then when an explosion happens and a part of it is chipped away, that particular segment is reconstructed. That's what's happening on the GPU side with compute shaders - but with nice performance."

http://www.eurogamer.net/articles/digitalfoundry-vs-resogun

http://a.pomf.se/3Pe9.gif

Hallo
2013-09-19, 20:22:55
...

][immy
2013-09-20, 00:42:26
das netzteil der ps4 ist aber recht genügsam. http://www.ps3news.com/images/sony-ps4-retail-console-passes-through-fcc-details-available-35620-2.jpg
~250W max ist nicht unbedingt viel wenn man z.b. die einschaltleistung betrachtet.

robbitop
2013-09-20, 08:34:26
Was erwartest du denn? Da ist ein SoC mit sparsamen Jaguarkernen drin und einem nicht allzu hoch getakteten abgespeckten Pitcairn. Der SoC zieht real wohl unter 100 W. Ein paar Watt für den Speicher, das NT und das Laufwerk. Die gesamte Konsole kommt real sicher mit 150...200 W unter Volllast aus.

DinosaurusRex
2013-09-20, 08:44:52
Wisst ihr noch wie wir hier vor einiger Zeit über Sonys TMAA gesprochen, eine Form von Hardware-AA, das von einer SCE Advanced Technology Group angeblich extra für die PS4 konzipiert wurde? Es wurde ja unter anderem für Killzone Shadow Fall angekündigt, welches bisher immer nur FXAA in den Demos eingesetzt hat. Damals wusste niemand, was dieses TMAA eigentlich genau ist.

Hier gibts ein sehr schickes 1080p Video von der TGS, das Killzone Shadow Fall mit ziemlich guter Bildqualität zeigt:

http://www.gamersyde.com/news_tgs_killzone_video-14633_en.html

Ist leider nur abgefilmt, aber vielleicht mag ja mal einer drübergucken.

Der Typ der das hochgeladen hat will im Laufe des Tages noch mehr Material zeigen, eventuell verlinke ich das dann, wenn man da mehr sehen kann.

][immy
2013-09-20, 09:39:34
Was erwartest du denn? Da ist ein SoC mit sparsamen Jaguarkernen drin und einem nicht allzu hoch getakteten abgespeckten Pitcairn. Der SoC zieht real wohl unter 100 W. Ein paar Watt für den Speicher, das NT und das Laufwerk. Die gesamte Konsole kommt real sicher mit 150...200 W unter Volllast aus.
naja, selbst das Laptop-Netzteil das ich hier habe, hat eine Ausgangsleistung von 90W aber eine Peak-Leistung von >250W. Normalerweise ist die Einschaltleistung um einiges höher (~doppelt so hoch) wie die Ausgangsleistung. Zumindest bei den Netzteilen die ich hier so habe.
Es wundert mich das Sony so eine geringe Peak-Leistung hinbekommt. also entweder die Konsole schluckt verdammt wenig oder die haben ein verdammt teures Netzteil eingebaut (was ich mal bezweifeln mag).

Es ist ja nicht nur der Soc der schluckt, sondern auch externe Geräte (dazu gehört auch das PSeye), USB-Ports über die die Controller geladen werden etc. da scheint nicht sehr viel für den Soc übrig zu bleiben.

Was würde eigentlich ein 8-core Jaguar noch verbrauchen unter last?

DinosaurusRex
2013-09-20, 09:55:08
Sony wird bei einem Preis von $399 mit jeder verkauften PS4 angeblich $60 Verlust machen:


PlayStation 4 hardware will make a loss at launch, but Sony expects to immediately recoup the costs when a typical user also buys a PlayStation Plus subscription and at least one launch game.

Sony Japan executive Masayasu Ito made the comment to Eurogamer today in an interview at the company's Tokyo headquarters.

Eurogamer has heard from well-placed sources that Sony expects to make an approximate $60 loss per $399 unit sold. When presented with the figure, Ito denied it - but only because the company expects a typical user to buy a console with these other items.

Quelle (http://www.eurogamer.net/articles/2013-09-20-sony-expects-to-recoup-playstation-4-hardware-loss-at-launch)

M4xw0lf
2013-09-20, 10:41:44
Wisst ihr noch wie wir hier vor einiger Zeit über Sonys TMAA gesprochen, eine Form von Hardware-AA, das von einer SCE Advanced Technology Group angeblich extra für die PS4 konzipiert wurde? Es wurde ja unter anderem für Killzone Shadow Fall angekündigt, welches bisher immer nur FXAA in den Demos eingesetzt hat. Damals wusste niemand, was dieses TMAA eigentlich genau ist.

Hier gibts ein sehr schickes 1080p Video von der TGS, das Killzone Shadow Fall mit ziemlich guter Bildqualität zeigt:

http://www.gamersyde.com/news_tgs_killzone_video-14633_en.html

Ist leider nur abgefilmt, aber vielleicht mag ja mal einer drübergucken.

Der Typ der das hochgeladen hat will im Laufe des Tages noch mehr Material zeigen, eventuell verlinke ich das dann, wenn man da mehr sehen kann.
Das bringt so erstmal noch nix. Um eine AA-Methode zu bewerten muss man schon die einzelnen Pixel zählen können... ;)

][immy
2013-09-20, 11:25:17
Ist jetzt pure Spekulation, aber kann es sein das der Jaguar auf der PS4 mit weniger als mit 1,6 GHz läuft?
Hintergrund ist einfach folgender. Die PS4 hat wohl einen breiteren Grafikchip. 4 von den 18CUs sind anscheinend eher für GPGPU zwecke gedacht als für die Grafik. Dann ist da noch die anscheinend eher sehr geringe Leistungsaufnahme, trotz der gleich auch noch 8 GB GDDR5 Speicher und größerem Grafikchip. Nun könnte ich mir durchaus vorstellen, das Sony die CPU eher als unwichtiger betrachtet und eher alles auf die GPU setzt.
Unter anderem würde dies auch die nur sehr geringe Speicheranbindung der CPU von 10GB/s eher dafür Sprechen das die CPU nicht unbedingt all zu viel zu tun bekommt. Das ist immerhin eine 8 Core CPU, da scheinen 10GB/s doch recht wenig zu sein. Daher könnte ich mir durchaus vorstellen, das zugunsten der GPU die CPU eher untertaktet wurde.

dildo4u
2013-09-20, 11:33:45
Jaguar läuft mit 1.6Ghz Ideal erst da drüber steigt der Verbrauch unverhältnismäßig stark an,sind ziemlich sicher 1.6Ghz.

Bis 1.6Ghz 15 Watt bei 2Ghz sinds 25.
http://www.computerbase.de/news/2013-04/amd-praesentiert-neue-g-serie-mit-jaguar-socs/

Denke schon das so 30W (Real weniger weil die kleine GPU wegfällt) für die CPU eingeplant wurden,das wäre trotzdem eine deutliche Reduzierung von Cell.Wäre also über 70% vom Power Budget für die GPU/GDDR5.

mironicus
2013-09-20, 11:47:26
Es würde mich nicht wundern, wenn die PS4 insgesamt weniger Strom verbraucht als die Xbox One.

Das ist ohnehin schon ein kleiner technologischer Gau. Die PS4 ist schneller, kleiner und das Netzteil ist intern verbaut.

][immy
2013-09-20, 12:08:45
Jaguar läuft mit 1.6Ghz Ideal erst da drüber steigt der Verbrauch unverhältnismäßig stark an,sind ziemlich sicher 1.6Ghz.

Bis 1.6Ghz 15 Watt bei 2Ghz sinds 25.
http://www.computerbase.de/news/2013-04/amd-praesentiert-neue-g-serie-mit-jaguar-socs/

Denke schon das so 30W (Real weniger weil die kleine GPU wegfällt) für die CPU eingeplant wurden,das wäre trotzdem eine deutliche Reduzierung von Cell.Wäre also über 70% vom Power Budget für die GPU/GDDR5.
der Großteil von den 10W mehr bei den 2GHz dürfte eher auf das Konto der 600Mhz GPU bei Kabini gehen. Aber wenn ich mir z.B. mal die 7850 anschaue, die zieht locker über 100W (mit nur 2GB Ram). Wenn man jetzt mal davon ausgeht, das sich die Fertigung verbessert hat, das ding zusammen mit der CPU auf einem Soc klebt und jetzt plötzlich 8GB Ram hat, würde ich nach wie vor von ~80-100W für GPU + RAM ausgehen.
Dazu kommen dann noch Mainboard, Laufwerke, externe Geräte & co. Hier scheint mir einfach ein Netzteil das 250W Peak-Leistung hat, einfach unterdimensioniert zu sein. wie schon geschrieben, die Einschaltleistung ist für gewöhnlich sehr viel höher als die Output-Leistung.
Von daher muss wohl irgendwo etwas eingespart werden. und der CPU-Takt wäre aus meiner Sicht noch das einfachste wo man einsparen kann ohne all zu viel Leistung zu verlieren (als Ausgleich gibt es ja die 4CUs für GPGPU zwecke).

Sony mag ja gut sein was das verbauen von Teilen angeht (besser als MS), aber Wunder können sie nicht vollbringen.

Coda
2013-09-20, 13:22:48
Bis 1.6Ghz 15 Watt bei 2Ghz sinds 25.
http://www.computerbase.de/news/2013-04/amd-praesentiert-neue-g-serie-mit-jaguar-socs/
Das ist die TDP für das ganze SoC.

prinz_valium
2013-09-20, 14:00:49
Sony wird bei einem Preis von $399 mit jeder verkauften PS4 angeblich $60 Verlust machen:



Quelle (http://www.eurogamer.net/articles/2013-09-20-sony-expects-to-recoup-playstation-4-hardware-loss-at-launch)

puhh das würde natürlich einiges erklären.
ich habe schon lange vermutet, dass die aufteilung im groben so sein wird


xbox one: soc / kinect sensor teuerer
ps4: ram / netzteil / kühllösung / layout teuerer


somit hat die xbox one größeres einsparpotential bei nem shrink und ausgereifteren fertigungsprozessen. vllt sollte man dann erst eine ps3 zum launch kaufen und in knapp 2 jahren eine xbox one, die inklusive kinect dann bei dem preisniveau der ps4 angekommen ist.


wie viel verlust ms wohl mit jeder xbOne macht?
ich denke zwischen 20 dollar plus und minus ganz am anfang ist das alles drin. kommt vorallem auf die ausbeute bei den beiden chips an, die wir nie erfahren werden:frown:



edit: leistungsaufnahme ddr3 gegen gddr5? bei 8gb, sollte das ja auch einen kleinen teil ausmachen

Gipsel
2013-09-20, 14:15:33
xbox one: soc / kinect sensor teuerer
ps4: ram / netzteil / kühllösung / layout teuerer
Bei einem Shrink kannst Du genauso auch am Netzteil und der Kühllösung sparen. Und im Übrigen könnte das PS4 Mainboard sogar billiger sein als das der XB1, weil GDDR5 trotz der hohen Frequenzen einfacher und kompakter zu layouten ist als DDR3. Man muß einfach kein Matching der Leitungslängen machen, weil GDDR5 die Laufzeitunterschiede mißt und dann kompensiert (das macht das sogenannte Training des Interfaces). Die Umgebung des SoCs wird bei der XB1 absolut voll von Zickzack-Linien beschreibenden Datenleitungen zum DDR3 sein, bei der PS4 ziehst Du die einfach gerade auf kürzestem Weg zum RAM-Baustein und gut ist. Deswegen benötigt man für GDDR5 auch weniger Platz als für DDR3.

prinz_valium
2013-09-20, 14:50:12
hmm das wäre ja schonmal eine erklärung mit, warum das xbOne gehäuse so groß und weiträumig geraten ist.

klar, wenn beim ersten shrink gleich so viel leistungsaufnahme eingspart wird, dass man das gehäuse (inklusive kühllösung) und netzteil sinvollerweise verkleinern / verbilligen kann, gibt es dort auch noch einsparpotential.
auf der anderen seite, kann die xbox one aber auch beim 1. shrink schon auf ein noch "billigeres" netzteil setzen.


ich wollte aber darauf hinaus, dass es im allgemeinen teurer ist, das gleiche auf sehr sehr engem raum unterzubringen. ein ps4 von innen zu sehen, wärer mal interessant.
trotzdem glaube ich beim ersten shrink an noch keine (größeren) änderungen am äußeren und den restlichen komponenten beider konsolen. der sprung ist ja doch nicht so groß von 28 auf 22. und beide konsolen wurde ja in ihrer erst variante so konzipiert, dass sie sparsamer, kleiner, kühler und leiser sind, als noch bei der letzten generation.



ich kann mich aber auch irren.
sind ja nur vermutungen meinerseits. sollten die 60dollar verlust aber stimmen, würde meine these gut ins bild passen. beim boardlayout magst du aber recht haben. das wusste ich nicht. wenigstens wieder was gelernt :)

mironicus
2013-09-20, 14:54:40
Es sind aber nur Dollar und nicht Euro. In Europa dürfte Sony keinen Verlust mit jeder verkauften Konsole machen.

][immy
2013-09-20, 15:18:56
wegen den Verbrauchswerten von Kabini, die 1,6 GHz CPU hat eine TDP von 15W, die 1,5 GHz APU (also CPU + GPU) ebenfalls. Also macht die kleine Taktsenkung wohl durchaus etwas aus, sonst hätte AMD hier eine optimistischere TDP angegeben.

Es sind aber nur Dollar und nicht Euro. In Europa dürfte Sony keinen Verlust mit jeder verkauften Konsole machen.

naja, der unterschied ist nicht grad gigantisch. die $-Preise sind ohne Steuern, die €-preise mit Steuern. Die zahlen nähern sich also an. Also Verluste werden sie trotzdem machen. Aber ich schätze mal eher durch die Entwicklungskosten die auf jede Konsole draufgerechnet wird und weniger durch die Hardware selbst. So ein Überflieger ist die PS4 ja an sich auch nicht von der puren Hardware her.

@offtopic
Seltsamerweise waren früher mal Stimmen zu hören die nichts unterhalb einer 7970 drin haben wollten für next-gen und inzwischen sind sie zufrieden mit der PS4 .. schon seltsam wie sich die Meinungen ändern können :)

M4xw0lf
2013-09-20, 15:52:23
In der Not frisst der Teufel Fliegen, gelle :D

prinz_valium
2013-09-20, 15:55:50
[immy;9925774']
@offtopic
Seltsamerweise waren früher mal Stimmen zu hören die nichts unterhalb einer 7970 drin haben wollten für next-gen und inzwischen sind sie zufrieden mit der PS4 .. schon seltsam wie sich die Meinungen ändern können :)

es gab auch genug stimen, die von 4 oder gar nur 2 gb ram für die nex gen konsolen ausgingen :D

ich denke da liegen wir doch gut in der mitte

Gipsel
2013-09-20, 16:03:11
[immy;9925774']Seltsamerweise waren früher mal Stimmen zu hören die nichts unterhalb einer 7970 drin haben wollten für next-gen und inzwischen sind sie zufrieden mit der PS4 .. schon seltsam wie sich die Meinungen ändern können :)Also ich bin mit meiner Einschätzung von vor über zwei Jahren, daß wir Cypress/GF104/114-Leistung oder mit viel Glück vielleicht etwa GF110-Leistung bekommen, eigentlich ganz zufrieden. :D
Ich lese da sogar was von um die 4 Milliarden Transistoren und 256Bit GDDR5-Interface als mögliche Lösungen.

DinosaurusRex
2013-09-20, 16:11:36
Auf wieviel RAM hättest du denn getippt?

Ich hab für beide Konsolen nur mit 2GB GDDR5 gerechnet. :D

Gipsel
2013-09-20, 16:14:24
Auf wieviel RAM hättest du denn getippt?

Ich hab für beide Konsolen nur mit 2GB GDDR5 gerechnet. :D
Dazu habe ich damals nichts geschrieben (zumindest in den Posts, die ich mir rausgesucht habe) und vermutlich habe ich da nicht viel drüber nachgedacht. Aber 4GB hätten es wohl auch aus damaliger Sicht mindestens sein sollen.

Undertaker
2013-09-20, 16:30:03
Es gäb so oder so keine Alternative zu Jaguar im TDP Bereich einer Konsole(Der SOC darf Gesamt nur um 100W "verbrauchen"),und nur ein SOC bietet direkten Zugriff zwischen GPU und CPU.Intel hätte zwar den besseren CPU Teil aber keine Chance gegen die AMD GPU in der PS4.Auch die ganze Mobile GPU's sind noch Jahre von der 78XX(1.8TFlop) in der PS4 weg.

Jahre? ;) Eine doppelte Iris Pro (das Design ist ohnehin sehr gut skalierbar) hätte bei typischen 1,3 GHz knapp 1,7 TFLOPS... Machbarkeitsprobleme sehe ich da keine, Effizienz hätte dank Fertigungsvorteil ebenfalls keine Probleme bereitet. Aber: Intel hätte (oder hat) dafür sicherlich ganz andere Preise aufgerufen als AMD. Ich fress einen Besen, wenn es derartige Verhandlungen im Hintergrund nicht gegeben hat, die aber letztlich genau aus dem Preisgrund gescheitert sind.

DinosaurusRex
2013-09-20, 16:41:33
Könnte Intel eine 22nm APU mit dieser Rechenleistung in derart großen Mengen überhaupt liefern?

Lost Boy
2013-09-20, 16:55:52
Wisst ihr noch wie wir hier vor einiger Zeit über Sonys TMAA gesprochen, eine Form von Hardware-AA, das von einer SCE Advanced Technology Group angeblich extra für die PS4 konzipiert wurde? Es wurde ja unter anderem für Killzone Shadow Fall angekündigt, welches bisher immer nur FXAA in den Demos eingesetzt hat. Damals wusste niemand, was dieses TMAA eigentlich genau ist.

Hier gibts ein sehr schickes 1080p Video von der TGS, das Killzone Shadow Fall mit ziemlich guter Bildqualität zeigt:

http://www.gamersyde.com/news_tgs_killzone_video-14633_en.html

Ist leider nur abgefilmt, aber vielleicht mag ja mal einer drübergucken.

Der Typ der das hochgeladen hat will im Laufe des Tages noch mehr Material zeigen, eventuell verlinke ich das dann, wenn man da mehr sehen kann.


Also so ähnlich wie bei Segas Dreamcast? Sozusagen "AA for free" ?

Undertaker
2013-09-20, 16:57:21
Ein virtueller Haswell-Quad mit "GT4" wäre in 22nm vermutlich etwas über 300mm² groß, wobei der CPU-Teil sogar etwas abgespeckt werden könnte. Fertigbar also auf jeden Fall, die entsprechenden Ressourcen sind natürlich eine andere Frage. Keine Ahnung ob man es mit einer Vorlaufzeit von einigen Jahren geschafft hätte, genügend Kapazitäten für den normalen Windows-Markt plus die Konsolen bereitzustellen.

DinosaurusRex
2013-09-20, 16:57:36
Also so ähnlich wie bei Segas Dreamcast? Sozusagen "AA for free" ?

"For Free" ist das bestimmt nicht, aber es soll halt eine Eigenentwicklung von SCE sein und bereits bei Launch-Titeln wie Killzone zum Einsatz kommen.

y33H@
2013-09-20, 17:03:44
Ich kenne TMAA als Transparency Multisampling Anti-Aliasing, also MSAA mit TAA für Alpha-Tests. Was aber hat SCEI gebastelt?

DinosaurusRex
2013-09-20, 17:03:58
Ein Ubisoft Reflections Programmierer hat sich auch mal zu dem Thema "AA und PS4" geäußert und das hier gesagt:

"There are two things we want to look into: asynchronous compute where we can actually run compute jobs in parallel... We [also] have low-level access to the fragment-processing hardware which allows us to do some quite interesting things with anti-aliasing and a few other effects."

Quelle (http://www.eurogamer.net/articles/digitalfoundry-how-the-crew-was-ported-to-playstation-4)

Keine Ahnung ob es da einen Zusammenhang gibt.

Coda
2013-09-20, 17:44:47
Ich kenne TMAA als Transparency Multisampling Anti-Aliasing, also MSAA mit TAA für Alpha-Tests. Was aber hat SCEI gebastelt?
Es wird wieder irgendwas zusammengebaut aus MSAA/CSAA (EQAA bei AMD) + Filterkernel + Temporal sein. Wunderhardware gibt's da auch in der PS4 nicht.

Akkarin
2013-09-20, 18:12:24
Gibs irgendwo Erklärungen zu den namen und modi ? Ich kenne so den standartkram (FX/MLAA, SMAA, MSAA, SG/RG/OGSSAA, TXAA), und 1-2 exotischere Sachen (quincunx) aber das wars auch. Den uralten Artikel auf 3DC kenne ich, aber der ist ja nicht mehr wirklich aktuell. Was zur hölle sind coverage samples bzw. wo liegt der unterschied zu color samples ?

y33H@
2013-09-20, 19:59:55
Es wird wieder irgendwas zusammengebaut aus MSAA/CSAA (EQAA bei AMD) + Filterkernel + Temporal sein. Wunderhardware gibt's da auch in der PS4 nicht.Aber muss dann jeder sich nen eignen Namen ausdenken? :usad:

Hallo
2013-09-20, 23:51:23
Also so ähnlich wie bei Segas Dreamcast? Sozusagen "AA for free" ?

Woher kommt dieses Gerücht eigentlich? Per VGA/480p war nix AA for free.

Per Scart RGB/15KHz Interlaced/480i gabs dann sone Art AA aber auch nur deswegen weil Sega als erstes flickerfree interlacing lieferte, 2xAA sozusagen was kein echtes AA war. Echtes AA war viel zu teuer auf DC, das habe ich nur einmal bei einem Ladebildschirm gesehen wo eine Anglerschnur hin-und herpendelte, ich glaube Sega Marine Fishing oder Bass Fishing1/2...lang ists her wo alles noch gut war:)

Skysnake
2013-09-21, 00:33:40
Aber muss dann jeder sich nen eignen Namen ausdenken? :usad:
Klar, sonst jubelt die Meute ja nicht...:rolleyes:

megachip800
2013-09-21, 21:41:29
Das hier hat einer auf NeoGAF geschrieben zu den 900p von Ryse:

verstehe ich nicht warum es dort mit 1080p solche Probleme gibt. Neben Tiling bietet die Xbox One lossless Kompression für die Farb und Tiefeninformation an und da reichen die 32mb nicht aus?

][immy
2013-09-21, 21:46:32
verstehe ich nicht warum es dort mit 1080p solche Probleme gibt. Neben Tiling bietet die Xbox One lossless Kompression für die Farb und Tiefeninformation an und da reichen die 32mb nicht aus?
kommt halt drauf an was crytek da noch alles in die 32mb rein schreibt. jede engine und jedes spiel kann das ja anders handhaben.
coda könnte da wohl mehr zu sagen, aber ich vermute er wird es wohl nicht ;)

ist wohl einer dieser vielen entschreidungen die man halt fällen muss, details streichen oder die auflösung kaum merklich reduzieren. diese praktik werden wir auch bei der nächsten konsolengeneration nicht selten sehen. ist halt unter anderem die frage was den größeren visuellen nachteil mit sich zieht. und die auflösung auf dem grafik-niveau dürfte das kleinste übel sein.

abgesehen davon, als launch-titel hat man einen ziemlich festgeschriebenen Termin, den man nicht einfach ein wenig rauszögern könnte. Also kommt Zeitdruck auch noch dazu.

das tolle ist ja, das Ryse jetzt schon toll aussieht, da kann man sich schon mal auf spiele freuen die in ein paar jahren rauskommen, wo die erfahrung mit den neuen Konsolen dann schon größer ist.

megachip800
2013-09-21, 22:21:43
[immy;9927535']kommt halt drauf an was crytek da noch alles in die 32mb rein schreibt. jede engine und jedes spiel kann das ja anders handhaben.
coda könnte da wohl mehr zu sagen, aber ich vermute er wird es wohl nicht ;)

ist wohl einer dieser vielen entschreidungen die man halt fällen muss, details streichen oder die auflösung kaum merklich reduzieren. diese praktik werden wir auch bei der nächsten konsolengeneration nicht selten sehen. ist halt unter anderem die frage was den größeren visuellen nachteil mit sich zieht. und die auflösung auf dem grafik-niveau dürfte das kleinste übel sein.

abgesehen davon, als launch-titel hat man einen ziemlich festgeschriebenen Termin, den man nicht einfach ein wenig rauszögern könnte. Also kommt Zeitdruck auch noch dazu.

das tolle ist ja, das Ryse jetzt schon toll aussieht, da kann man sich schon mal auf spiele freuen die in ein paar jahren rauskommen, wo die erfahrung mit den neuen Konsolen dann schon größer ist.

Tjo da bin ich mal gespannt wie sich das in den nächsten Monaten so entwickelt , hoffentlich kommen da nicht mehr Hiobsbotschaften zu uns an...

just4FunTA
2013-09-21, 22:28:05
verstehe ich nicht warum es dort mit 1080p solche Probleme gibt. Neben Tiling bietet die Xbox One lossless Kompression für die Farb und Tiefeninformation an und da reichen die 32mb nicht aus?

muss wohl an den unfähigen Entwicklern von Crytek liegen denn an der SUPER DUPER xboxOne kann es ja nicht liegen das hast du uns ja lang und breit erklärt was für ne Mega power die hat. ;D

prinz_valium
2013-09-21, 22:57:48
kann schon sein. viel und schönes grafik blingbling können sie ja, aber die hardware kommt dabei immer so in schwitzen.

nichts neues im westen also

Hallo
2013-09-22, 01:49:51
*troll mode on*

Kurz gesagt, wenn jetzt schon 900p Thema sind darf ich dann schlussfolgern das die One HW designtechnisch lame ist? ;D Oder, die Gamedesigner können es einfach nicht lassen die falschen Prioritäten zu setzten? *schnarch*... oder einfach beides.

*troll mode off*

Im Ernst, wo liegt das Problem ein Game um 1080p @ 60fps zu designen? Ich denke Crytek und viele andere auch sollten sich mal auf Dreamcast Sonic Adventure2 reinziehen und durchzocken als Lehrbeispiel wie ein rundes Game auszusehen hat. Sauschnell, dynamisch, perfektes Design, messerscharfe Texturen in echten 480p und alles @60fps vor über 10 Jahren, tja.

Die meisten wirklich guten first gen Games auf der ersten XBox liefen alle in 60fps mit toller Grafik. PCler beschweren sich das Konsolen den PC ausbremsen. Ich behaupte mal das PCler (die Entwickler) Konsolen kaputtgemacht haben mit ihrer ruckelnden Möchtegern-BlingBling-Attitude. Schuster bleib bei deinen Leisten!

StefanV
2013-09-22, 01:57:24
Im Ernst, wo liegt das Problem ein Game um 1080p @ 60fps zu designen?
Zu hoher Verlust an Grafikqualität??

Da geht man dann u.U. lieber 'ne Auflösungsstufe zurück als die Details (noch) weiter runter zu schrauben...