PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Xbox One/Playstation 4: technische Spekulation und Vergleich


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 [30] 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47

M4xw0lf
2014-06-09, 09:10:01
Wie wichtig ist hier eigentlich die sogenannte Frame Time im Vergleich zur Frame Rate? Alle scheinen sich ja auf letzteres festzunageln. So etwas kann der Entwickler auf einer Konsole doch von Hand optimieren, oder nicht? Fühlen sich 30fps in Spiel X dann anders an als 30fps in Spiel Y?
Frame Rate = 1/Frame Time. 30 FPS in Spiel X können sich anders anfühlen als 30 FPS in Spiel Y, wenn die frame times stark variieren (siehe Microruckler bei Multi-GPU Systemen).

Finch
2014-06-09, 10:09:04
Wie wichtig ist hier eigentlich die sogenannte Frame Time im Vergleich zur Frame Rate? Alle scheinen sich ja auf letzteres festzunageln. So etwas kann der Entwickler auf einer Konsole doch von Hand optimieren, oder nicht? Fühlen sich 30fps in Spiel X dann anders an als 30fps in Spiel Y?


Imho sehr wichtig. Siehe watchdogs auf der PS4. Jedenfalls nach meinem empfinden läuft das spiel super mit 30 fps.

Coda
2014-06-09, 12:16:13
Neben der Variabilität der Framezeiten ist auch die Eingabe-nach-Ausgabe-Latenz extrem wichtig.

Das hat Multitthreading übrigens für viele Engines um einen Frame erhöht.

DinosaurusRex
2014-06-09, 12:44:40
Kann es sein, dass die moderneren Prozessorarchitekturen der neuen Systeme in dieser Hinsicht auch noch mal eine positive Wirkung mitbringen? Bei der PS3 wurde beim Nvidia RSX ja zum Beispiel immer von Pipeline Stalls gesprochen. Oder hat das mit der Spielbarkeit nix zu tun?

Ich hab Watch Dogs nicht auf Konsole gespielt, aber bei Assassin's Creed 4 auf der PS4 ist mir das ebenfalls sehr angenehm aufgefallen: Das lief absolut butterweich. Eventuell darf man Ubisoft unterstellen, dass die gerade um diesen Punkt sehr bemüht sind.

Botcruscher
2014-06-09, 13:33:19
Oder hat das mit der Spielbarkeit nix zu tun?


Nein hat es nicht. Die Zeit zwischen den Bilder muss gleich bleiben und die Eingabeverzögerung muss klein sein.

Hallo
2014-06-09, 16:44:26
Richtig, und der beste Weg sind f.cking 60fps, so schwer zu verstehen für euch:freak:

Diskutiert über 3000 Euro Grakas aber bei nem 30er...allet jut, come on:confused:

Davon ab sind 30er bei grossen Schirmen Augenkrebs weil es ruckelt bei schnellen Games aka Racern...Fragt mal James Cameron...seine Filme werden traditionell gerne über 32" mit 5m Abstand geschaut...not!

mbee
2014-06-09, 16:51:40
Und was hat Dein ständiges 60 FPS-Geseire mit dem Thema zu tun?
Ich lese hier nichts von "3000 € Grakas" im Thread-Titel...
Verlagere das doch am besten auch in den von Dir bereits geschrotteten UFO-Thread ;)

Hallo
2014-06-09, 16:55:44
Da warste aber schnell;)
Es ging bei Botcrusher um kleinen I-Lag und meine Antwort sind 60 was nebenbei das Geschehen FLÜSSIG erscheinen lässt;) Ich rede nicht von Action-Adventures sondern über Action-Games die davon spielerisch/steuerungstechnisch profitieren...stell dich nicht... als du wirklich bist. No offence just the truth.
Ausserdem ist dein Nachtritt gemein und hat nichts mit diesem thread zu tun, contradiction anyone;)

Was hat der UFO Thread hier zu suchen?? In die Ecke mit dir und ich verzeihe dir sogar.

Jonas_2014
2014-06-09, 16:56:57
Richtig, und der beste Weg sind f.cking 60fps, so schwer zu verstehen für euch:freak:


Es reicht mittlerweile. Man braucht nicht immer 60fps, wie oft denn noch...

Coda
2014-06-09, 16:57:04
Richtig, und der beste Weg sind f.cking 60fps, so schwer zu verstehen für euch:freak:
Es ist ein Weg, aber nicht der einzige. Es gibt auch andere Latenzen die durchaus vermeidbar sind.

Hallo
2014-06-09, 17:04:27
Es reicht mittlerweile. Man braucht nicht immer 60fps, wie oft denn noch...

Nein nicht immer, sage ich doch schon die ganze Zeit aber bei Action Games (Racer gehören dazu?) sehr wohl weil es das Game besser macht zum Steuern. Hat es geschnackelt?

Hallo
2014-06-09, 17:06:04
Es ist ein Weg, aber nicht der einzige. Es gibt auch andere Latenzen die durchaus vermeidbar sind.

Das mag sehr wohl sein und ich glaube dir NUR 60er macht von Haus aus alles schneller und es bewegt sich SAUBER über den Screen, 30er "ruckelt" nunmal, richtig;)

Edit: Es gibt einen Grund wieso Mario Kart 8, F-Zero GX und all die Sega/Namco Arcade Racer in 60 laufen, diese Programmierer sind nicht doof und haben mit HW zu tun gehabt die selbst den grössten High-End PC geldtechnisch in der Pfeiffe geraucht hätten.

Bin einfach diese Ausreden leid von Ubi und Konsorten...

Rente
2014-06-09, 17:55:46
Du hast einen Sprung in deiner Schallplatte...

Akzeptiere doch einfach, dass es in diesem Fall nicht eine einzige richtige Sichtweise gibt, dann kann es hier auch eher wieder um das Ursprungsthema gehen.

Hallo
2014-06-09, 19:04:42
Ich drehe es mal um, den SPRUNG inner Platte haben die Hersteller die ihre Unfähigkeit (aka 30 fps bei schnellen Spielen) "ausleben" aber gerne ihren Mist sich mit 70 Euro bezahlen lassen wollen und dann noch jammern das es ihnen schlecht geht....sorry, bin zu lange dabei für solch einen Mist. Hab schon mehr für ein Spiel gezahlt als für ne PS4...Unterschied das Game war es auch wert;)


Nochmal Racer 2014 @ 30fps ist FAIL:wink: Wenn du damit klar kommst....hey OK Ich tue das NICHT...Meinungsfreiheit oder so;)

Und wieso sollte ich was "akzeptieren" was seit 1993 Standard ist (60effingframes), please....

Crazy_Bon
2014-06-09, 19:39:43
Man kann Automatenhardware nicht nicht Heimkonsolen vergleichen. Sega bemühte sich zwar bei der Automatenversion von Daytona USA mit konstanten 60fps, aber die Umsetzung auf der Sega Saturn gurkte mit nur 20fps, niedrigere Auflösung und schrecklichen PopUps dahin.

Hallo
2014-06-10, 00:56:25
Wie Recht du hast, nur das es heute umgekehrt ist. Heim HW und PCs sowieso sind weitaus stärker als Arcade HW. Nur wieso kriegens Taito, Namco usw. dennoch hin alles fliesend zu gestalten? Richtig, weil Prioritäten gesetzt werden.

Wie gesagt ein rockstable 30er bei Last of Us ist durchaus angemessen weil solche Spiele nunmal von der Grafik leben und ein Forza muss in 60 laufen weil es von der Geschwindigkeit lebt. Btw wieviel bekommt man bei Racern denn vom Blinki mit? Recht wenig...Framerate aber sehr wohl in jeder gezockten Sekunde. Himmel, Racer und 30, ich fass es nicht:freak:

DinosaurusRex
2014-06-10, 08:13:58
Vielleicht ganz interessant und etwas unerwartet: Naughty Dog peilt für Uncharted 4 1080p60fps an.

60fps Teaser (http://nd.images.s3.amazonaws.com/video/U4-E3-Teaser-FINAL-Online-HQ-5994_H266_gamersyde-update.mp4)

Quelle (http://blog.eu.playstation.com/2014/06/10/uncharted-4-thiefs-end-trailer-debuts-e3-2014/)

Guest83
2014-06-10, 09:01:28
Vielleicht ganz interessant und etwas unerwartet: Naughty Dog peilt für Uncharted 4 1080p60fps an.
Ist das jetzt positiv? Ein anderer Sony-Entwickler hat uns ja erklärt, dass er am liebsten 24 FPS gehabt hätte.

Lightning
2014-06-10, 09:19:44
Ist das jetzt positiv? Ein anderer Sony-Entwickler hat uns ja erklärt, dass er am liebsten 24 FPS gehabt hätte.

..und wurde daher auch von allen Seiten kritisiert. Ich finde sowohl 1080p als auch 60 fps ganz klar positiv, ist mir wichtiger als auf Kosten dessen noch ein paar Details mehr reinzuquetschen.

Lurtz
2014-06-10, 09:20:07
Ist das jetzt positiv? Ein anderer Sony-Entwickler hat uns ja erklärt, dass er am liebsten 24 FPS gehabt hätte.
Es wird dann halt leider nicht so cineastisch wie wenn es 30fps hätte :usad:

DinosaurusRex
2014-06-10, 09:25:03
Es ist auf jeden Fall interessant, denn es wird zeigen, was für eine Grafik wir von Morpheus-exklusiven VR-Produktionen mit AAA Budget erwarten können.

Coda
2014-06-10, 10:07:11
..und wurde daher auch von allen Seiten kritisiert. Ich finde sowohl 1080p als auch 60 fps ganz klar positiv, ist mir wichtiger als auf Kosten dessen noch ein paar Details mehr reinzuquetschen.
"Ein paar Details mehr"?

Dir ist schon klar, dass 30 FPS doppelte Framezeit bedeutet? Das ist ein massiver Unterschied.

Das heißt mit 60 braucht man blödere AI, mehr statisches Licht, billigere Shader, etc.

Undertaker
2014-06-10, 10:11:41
Das heißt mit 60 braucht man blödere AI

Evtl. eine blöde Frage, aber warum muss die Berechnung der AI an die Framerate gekoppelt werden?

y33H@
2014-06-10, 10:46:46
Weil aufwendigere Algorithmen CPU-Zeit kosten, die dann beim Render-Budget fehlt.

Lightning
2014-06-10, 10:54:36
"Ein paar Details mehr"?

Dir ist schon klar, dass 30 FPS doppelte Framezeit bedeutet? Das ist ein massiver Unterschied.

Das heißt mit 60 braucht man blödere AI, mehr statisches Licht, billigere Shader, etc.

Ja, ist mir natürlich klar. Halt etwa doppelt so viel von allem.

Ich finde halt einerseits, dass der sicht- bzw. spürbare Unterschied bei einer Verdopplung der Leistung heute nicht mehr so entscheidend ist wie früher. Und andererseits ist ein richtig flüssiges Spiel halt auch eine Menge Wert.
Zugegeben, bei Uncharted kann man sich schon darüber streiten, ob die Mehrheit der Spieler nicht 30 fps bei besserer Grafik bevorzugen würde. Aber da "targeting 60 fps" in der Realität eher "irgendwas zwischen 30 und 60" bedeutet, ist mir das auf jeden Fall lieber, als "30 fps", die in der Realität dann irgendwo zwischen 20 und 30 schwanken.

Andere Frage: Hat die AI bei Spielen wie Uncharted einen wesentlichen Anteil der CPU-Zeit pro Frame? Hätte jetzt vermutet, dass nicht.

Guest83
2014-06-10, 11:05:01
Andere Frage: Hat die AI bei Spielen wie Uncharted einen wesentlichen Anteil der CPU-Zeit pro Frame? Hätte jetzt vermutet, dass nicht.
Sie könnte es aber haben. Das ist für mich ja die größte Enttäuschung der neuen Generation. Dass sich die Grafik etwas verbessert ist logisch, aber meine große Hoffnung war, dass sich endlich mal etwas in Sachen KI tut und dann sind die neuen Konsolen derart schwach auf der Brust was CPU-Leistung anbelangt.

Iruwen
2014-06-10, 11:07:56
Wäre das nicht etwas, das man prima "in die Cloud" auslagern könnte?

][immy
2014-06-10, 11:18:06
Ja, ist mir natürlich klar. Halt etwa doppelt so viel von allem.

Ich finde halt einerseits, dass der sicht- bzw. spürbare Unterschied bei einer Verdopplung der Leistung heute nicht mehr so entscheidend ist wie früher. Und andererseits ist ein richtig flüssiges Spiel halt auch eine Menge Wert.
Zugegeben, bei Uncharted kann man sich schon darüber streiten, ob die Mehrheit der Spieler nicht 30 fps bei besserer Grafik bevorzugen würde. Aber da "targeting 60 fps" in der Realität eher "irgendwas zwischen 30 und 60" bedeutet, ist mir das auf jeden Fall lieber, als "30 fps", die in der Realität dann irgendwo zwischen 20 und 30 schwanken.

Andere Frage: Hat die AI bei Spielen wie Uncharted einen wesentlichen Anteil der CPU-Zeit pro Frame? Hätte jetzt vermutet, dass nicht.
das mit der AI war wohl nur ein Beispiel, weil einfach weniger CPU-Zeit übrig bleibt, die bei den kleinen Kernen eh schon knapp ist. Da gibt es nix zu verschenken.
Targeting 60fps klingt wirklich unschön. wenn dann wieder etwas rauskommt mit springenden Framezeiten dann lieber richtige 30fps.
Aber "die paar Details" machen wirklich einiges aus. doppelte Renderzeiten würden zur Verfügung stehen, das sind wirklich nicht nur ein paar Details die da flöten gehen.

Coda
2014-06-10, 11:25:14
Andere Frage: Hat die AI bei Spielen wie Uncharted einen wesentlichen Anteil der CPU-Zeit pro Frame? Hätte jetzt vermutet, dass nicht.
Das teuere ist daran in der Regel zu berechnen wer wen sieht und das Pathfinding. Das ist schon nicht zu vernachlässigen.

M4xw0lf
2014-06-10, 11:28:56
Das teuere ist daran in der Regel zu berechnen wer wen sieht und das Pathfinding. Das ist schon nicht zu vernachlässigen.
Wäre etwas wie Pathfinding auch auf der GPU möglich um die CPU zu entlasten, und wenn, wäre das überhaupt sinnvoll (performanter)?

Undertaker
2014-06-10, 11:48:53
Weil aufwendigere Algorithmen CPU-Zeit kosten, die dann beim Render-Budget fehlt.

Also war das nur indirekt gemeint. Alles andere hätte mich jetzt auch gewundert.

Lightning
2014-06-10, 12:12:13
Sie könnte es aber haben. Das ist für mich ja die größte Enttäuschung der neuen Generation. Dass sich die Grafik etwas verbessert ist logisch, aber meine große Hoffnung war, dass sich endlich mal etwas in Sachen KI tut und dann sind die neuen Konsolen derart schwach auf der Brust was CPU-Leistung anbelangt.

Ich denke, dass "dummes" KI-Verhalten zum Teil sogar beabsichtigt ist. Schon zwischen Spielen der letzten und vorletzten Generation gab es da oft kaum Unterschiede, obwohl die CPU-Leistung noch kräftig gewachsen war.
Coda schreibt ja auch, dass vor allem "wer sieht wen" und Pathfinding teuer sind, die Gegner darüberhinaus auch noch wirklich intelligente Entscheidungen treffen zu lassen ist wohl selten Priorität.

[immy;10240794']doppelte Renderzeiten würden zur Verfügung stehen, das sind wirklich nicht nur ein paar Details die da flöten gehen.

Was nur "ein paar Details" sind, ist halt subjektiv. War vielleicht etwas provokativ formuliert von mir, aber es gibt halt auch Leute, die nichtmal zwischen der letzten und neuen Generation einen richtig großen Sprung sehen. Abnehmender Grenzertrag ist imo durchaus real in der allgemeinen Wahrnehmung, auch wenn wir da erst am Anfang stehen.

dildo4u
2014-06-10, 12:14:58
Vielleicht ganz interessant und etwas unerwartet: Naughty Dog peilt für Uncharted 4 1080p60fps an.

60fps Teaser (http://nd.images.s3.amazonaws.com/video/U4-E3-Teaser-FINAL-Online-HQ-5994_H266_gamersyde-update.mp4)

Quelle (http://blog.eu.playstation.com/2014/06/10/uncharted-4-thiefs-end-trailer-debuts-e3-2014/)
Interessant nur doppelt so viel Polys wie Joel ich glaub durch 720p konnte man kaum was von den Details erkennen Freue mich schon auf den Remaster.

DinosaurusRex
2014-06-10, 12:27:16
Das teuere ist daran in der Regel zu berechnen wer wen sieht und das Pathfinding. Das ist schon nicht zu vernachlässigen.

Aber wollte Cerny genau das nicht auf die GPU auslagern? Ich meine mich zu erinnern, dass er Ray Casting für die Berechnungen von Umgebungsverdeckung und Kollisionserkennung als explizites Beispiel für next-gen typische GPGPU-Aufgaben genannt hat.

dildo4u
2014-06-10, 15:19:14
Crackdown 3 nutzt die Cloud für Server seitige Zerstörung.

http://i.imgur.com/75cnGDQ.png

Demo der Tech.
http://youtu.be/ECsbaO1XGBU

Lost Boy
2014-06-10, 19:06:27
Interessant nur doppelt so viel Polys wie Joel ich glaub durch 720p konnte man kaum was von den Details erkennen Freue mich schon auf den Remaster.

Doppelt so viele Polygone hört sich vielleicht nicht viel an, aber ich denke das Ergebnis kann sich bisher trotzdem sehen lassen ;)


http://giant.gfycat.com/DisastrousHealthyGreatdane.gif

http://giant.gfycat.com/BothBrightGoitered.gif


€:

Aus dem GAF:

It's daytime!

I tweaked the brightness and saturation of the original gif. Now we can appreciate the details with ease.

http://i.minus.com/ibdRXJqeM8dbYH.gif


http://www.neogaf.com/forum/showpost.php?p=115712606&postcount=754

M4xw0lf
2014-06-10, 19:25:24
http://www.allmystery.de/i/tabacb3_barack-obama-not-bad-face-32.jpeg?bc

Deinorius
2014-06-10, 20:46:11
Es sind keine Gameplay-Szenen. Was sollen dann die großen Detail-Betrachtungen?

Coda
2014-06-10, 21:29:00
Wieso sind es keine Gameplay-Szenen? Weil du es glaubst, oder weil es so gesagt wurde?

Ich halte es durchaus realistisch, dass das In-Game ist.

00-Schneider
2014-06-10, 21:33:02
Ich halte es durchaus realistisch, dass das In-Game ist.


Ingame-Cutscene. Heißt nicht, dass das Gesicht im eigentlichen Spiel auch so detailliert ist.

(Wobei ich nichts ausschließe...)

DrMabuse1963
2014-06-10, 21:40:54
Wäre aber Hammer...

Deinorius
2014-06-10, 21:56:02
Wieso sind es keine Gameplay-Szenen?
Ingame-Cutscene.


Ausschließen möchte ich aber auch nichts.

Wäre aber Hammer...


Ich reiße meinen Mund auf, sobald ich belegte Gameplay-Szenen sehe... und dann richtig. :biggrin:

Lightning
2014-06-10, 22:01:55
Das Problem ist halt, dass sie die "was captured directly from PS3/4"-Einblendung vor dem Trailer genau so auch schon beim Trailer zu The Last of Us hatten. Und darin war zwar alles in-Engine, aber nicht alles Echtzeit.

Hayab
2014-06-10, 22:13:37
Also ich glaub das kann schon ingame sein.
VRAM haben die konsolen genung fuer grosse Texturen und bei interaktiven Gameteilen wird der/die Charakter/e ein LOD zurueckgesetzt. Das merkt eh kein Mensch wenn man nur den Ruecken sieht, dass da die Haelfte an Geometrie fehlt.

Deinorius
2014-06-10, 22:19:30
Also ich glaub das kann schon ingame sein.


Klar wird es Ingame sein, aber ich glaube mit der derzeitigen Infolage eher an Cutscene als an Gameplay.

arcanum
2014-06-10, 22:44:04
definitiv ingame engine und da cut scene wahrscheinlich (wie üblich bei allen NG games) mit höherer quali als beim spielen selbst. naughty dog versteht es den fokus des betrachters auf bestimmte bildinhalte zu lenken und dort das maximum rauszuholen.
uncharted und last of us haben auch eher durch starkes artwork und grandiose präsentation als durch cell brilliert.

Telema
2014-06-10, 22:46:04
Weisst du der Erklärparadigmenwechsel ist nah. :D

Weisst du es ist PC 2.0, heterogene Hierarchie der Hardware, Xone hatt es und guckst du kommt auf E3.


und...was hat nun die E3 neues über die one gezeigt?

Lost Boy
2014-06-10, 22:53:49
Es sind keine Gameplay-Szenen. Was sollen dann die großen Detail-Betrachtungen?

Dass man die Szenen aus den ersten beiden Gifs später auch so Ingame zu sehen bekommt halte ich durchaus für realistisch. Ich arbeite weder für Naughty Dog noch für einen anderen Spieleentwickler, das ist einfach meine subjektive Einschätzung. ND hat vor release ihrer Spiele nie irgendwelche fake/cgi Szenen als realtime/ingame verkauft.

http://ps3media.ign.com/ps3/image/article/705/705953/naughty-dog-ps3-project-untitled-20060508111959961.jpg
http://ps3media.ign.com/ps3/image/article/705/705953/naughty-dog-ps3-project-untitled-20060508112001899.jpg

Das waren die ersten Bilder die zu Uncharted 1 veröffentlicht wurden. Damals waren die Leute auch skeptisch ob es überhaupt in realtime auf der PS3 läuft und ob ND diese Qualität im fertigen Spiel halten kann. Am Ende sah es so aus:

http://i5.photobucket.com/albums/y180/nchoudhury/tv3.jpg
http://i5.photobucket.com/albums/y180/nchoudhury/tv2.jpg


Beim dritten von mir geposteten Gif bin ich allerdings auch etwas skeptisch ob man diesen Detailgrad dann auch wirklich Ingame zu sehen bekommt.

Hayab
2014-06-10, 22:55:45
Klar wird es Ingame sein, aber ich glaube mit der derzeitigen Infolage eher an Cutscene als an Gameplay.

Bei der Last gen Konsolen gab es viele vids als Cutscenes und dann kam man ins Spiel und alles wurde so grob texelig.

xyleph
2014-06-10, 23:28:25
Wieso sind es keine Gameplay-Szenen? Weil du es glaubst, oder weil es so gesagt wurde?

Ich halte es durchaus realistisch, dass das In-Game ist.

Also wenn du das sagst, habe ich ganz gutes Vertrauen in die Leistung der Konsolenhardware.

Deinorius
2014-06-10, 23:43:24
Ich lasse mich gerne positiv überraschen, glauben tue ich es derzeit einfach nicht.

Coda
2014-06-11, 00:25:31
Ich seh halt das Marius' Model aus der Entfernung ähnlichen Detailgrad (http://www.fxguide.com/wp-content/uploads/2014/03/mariusHead_v1.jpg) hat und ja das ist in den Cutscenes das selbe Model wie In-Game.

Deshalb seh ich keinen Grund warum das nicht gehen soll. Rendert ja sonst nix.

-/\-CruNcher-/\-
2014-06-11, 00:45:36
Wieso sind es keine Gameplay-Szenen? Weil du es glaubst, oder weil es so gesagt wurde?

Ich halte es durchaus realistisch, dass das In-Game ist.

Naja würde sogar sagen ziemlich eindeutig das Ergebnis des entfernteren Kamerawinkes gefällt mir überhaupt nicht da flipt das Specular schon wieder dermasen aus und das schon bei Mondlicht :(

Drill
2014-06-11, 00:46:21
Dass man die Szenen aus den ersten beiden Gifs später auch so Ingame zu sehen bekommt halte ich durchaus für realistisch. Ich arbeite weder für Naughty Dog noch für einen anderen Spieleentwickler, das ist einfach meine subjektive Einschätzung. ND hat vor release ihrer Spiele nie irgendwelche fake/cgi Szenen als realtime/ingame verkauft.

http://ps3media.ign.com/ps3/image/article/705/705953/naughty-dog-ps3-project-untitled-20060508111959961.jpg
http://ps3media.ign.com/ps3/image/article/705/705953/naughty-dog-ps3-project-untitled-20060508112001899.jpg

Das waren die ersten Bilder die zu Uncharted 1 veröffentlicht wurden. Damals waren die Leute auch skeptisch ob es überhaupt in realtime auf der PS3 läuft und ob ND diese Qualität im fertigen Spiel halten kann. Am Ende sah es so aus:

http://i5.photobucket.com/albums/y180/nchoudhury/tv3.jpg
http://i5.photobucket.com/albums/y180/nchoudhury/tv2.jpg


Beim dritten von mir geposteten Gif bin ich allerdings auch etwas skeptisch ob man diesen Detailgrad dann auch wirklich Ingame zu sehen bekommt.


Last of Us:

Cutscene:

http://img3.wikia.nocookie.net/__cb20130602170350/thelastofus/images/0/0c/Last_Of_Us_Ellie_Rifle.jpg


Ingame:

http://i1.wp.com/gearnuke.com/wp-content/uploads/2014/03/vlcsnap-2013-07-02-23zss31.png?fit=1024%2C1024


nix neues bei naughty dog, wurde in uncharted 1-3 auch schon so praktiziert.

-/\-CruNcher-/\-
2014-06-11, 00:50:05
Last of Us:

Cutscene:

http://img3.wikia.nocookie.net/__cb20130602170350/thelastofus/images/0/0c/Last_Of_Us_Ellie_Rifle.jpg


Ingame:

http://i1.wp.com/gearnuke.com/wp-content/uploads/2014/03/vlcsnap-2013-07-02-23zss31.png?fit=1024%2C1024


nix neues bei naughty dog, wurde in uncharted 1-3 auch schon so praktiziert.

Du brauchst eigentlich momentan immer ein gut vordefiniertes light setup um eingermasen gute Charackter ergebnisse zu erzielen schau dir doch mal an wie das 3 point lighting hier meistens aufgebaut ist für die Cutscenes ;)

Das Ingame result ist so gesehen aber nicht schlecht, es ist gut abgestimmt auf den Art Style, da gibt es weitaus schlimmeres ;)

Coda
2014-06-11, 00:58:25
Zur Abwechslung stimme ich dir sogar zu.

Es gibt sogar Spiele wo der Character die ganze Zeit Lichter vor seinem Gesicht mitträgt, damit's besser aussieht.

-/\-CruNcher-/\-
2014-06-11, 01:03:19
Vor allem bei dynamischen licht wechseln sprich TOD und weather change wird es lustig, wie da plötzlich aus einem charackter ein komplett anderer wird ist schon etwas erschreckend ;)

Coda
2014-06-11, 01:06:24
Das liegt dann aber eher an nicht physikalisch basierten Fail-Shadern. Da änderst du die Lichtverhältnisse und alles sieht zum Kotzen aus.

-/\-CruNcher-/\-
2014-06-11, 01:23:48
Jep da tretten wir ja langsam in eine Phase ein wo es besser werden sollte charakter rendering tritt meiner meinung nach vor allem durch Photogrammetry und PBS ja auch vermehrt wieder in den Vordergrund bei vielen :)
Was nützt einem die realistischst wirkende umgebung und Materialeigenschaften wenn einem die chars in dieser Umgebung zusammenbrechen, es sei den man möchte dies bewusst ;)

Du hast diese extreme realistisch wirkende Umgebung und dann siehst du die character und denkst dir was ist hier los ?

Dieses Gefühl hatte ich erst vor kurzem bei The Vanishing of Ethan Carter und deren Release trailer ich dachte ich seh nicht richtig :(

PSXRacer
2014-06-11, 02:15:56
Also in Bewegung sieht das doch etwas zu krass aus, allerdings den Uncharted Machern traue ich es schon zu. :)

http://mkerala.com/u/di/O1XQ/unch.gif

DinosaurusRex
2014-06-11, 07:36:53
Druckmann hat gesagt, dass man für gute Animationen vor allen Dingen ganz viel RAM braucht. Davon haben sie ja jetzt ne ganze Menge.

DrMabuse1963
2014-06-11, 10:17:46
Wieviel Ram lässt sich denn max. als VRam nutzen ? Denke das es so um ~ 4,5GB sein könnten wenn im Game noch andere Sachen passieren die ne Ram zuweisung brauchen . Aber wenn das Vid InGame Echtzeit ist , wieviel Textur ist das ??? Hoffe aber ( immer noch ) das Beste das die Next Gen richtigen Fortschritt bringen . MfG

prinz_valium
2014-06-11, 10:39:34
sieht für mich nach einer realistischen cutsczene aus

DinosaurusRex
2014-06-11, 10:52:19
Wieviel Ram lässt sich denn max. als VRam nutzen ? Denke das es so um ~ 4,5GB sein könnten wenn im Game noch andere Sachen passieren die ne Ram zuweisung brauchen .

Guerrilla Games hat es für Killzone Shadow Fall folgendermaßen aufgeteilt:

http://static.gamespot.com/uploads/original/823/8237367/2402726-1922614234-wx7XR.png

Das heißt natürlich nicht, dass es Naughty Dog genauso machen wird.

Hallo
2014-06-11, 11:57:44
Frage ist wieso wurde nichts In-Game-Action gezeigt? Bei Teil 1 und 2 sahen die Cutscenes auch besser aus als echtes In-Game. Davon ab bin ich mir nicht mal sicher ob die Cuts Real-Time waren oder nur FMV:confused:

Wenn In-Game wirklich so aussieht und dann noch mit 60 knie ich ganz tief nieder und kauf die PS4 spätestens dann. Aber die Vergangenheit hat leider schon so oft gelehrt...Zuviel Hype war noch nie gut siehe N64 etc. , Überraschungen wie Far Cry 1 PC aber haben mich umgehauen:)

Hayab
2014-06-11, 12:05:06
Naja würde sogar sagen ziemlich eindeutig das Ergebnis des entfernteren Kamerawinkes gefällt mir überhaupt nicht da flipt das Specular schon wieder dermasen aus und das schon bei Mondlicht :(

Mit dem Specular ueberteiben die Devs. bei vielen Spielen, finde ich, wobei mit dem vielen Vram man da recht detaillierte Maps erstellen kann.

RLZ
2014-06-11, 12:06:42
Frage ist wieso wurde nichts In-Game-Action gezeigt?
Wenn man die Vergangenheit betrachtet, wird ND bei der nächsten Präsentation wohl wieder Gameplay zeigen. Das bisherige Video ist ja nur ein Teaser.

Auch bei der ersten Last Of Us Präsentation war man nicht wirklich weit von der Spielgrafik weg. Die Cutscenes im fertigen Spiel sahen wesentlich besser aus.

Hallo
2014-06-11, 12:56:58
OK, deal. Was mich nur irritiert das ND hinzugefügt hat das 60 angestrebt werden, hmmm. Ich denke bei solch einem Genre wären 30 auch OK wenn die Grafik so bleibt In-Game versteht sich, 60er wäre natürlich ein phantastischer Bonus. Aber ja ND hat eigentlich noch nie enttäuscht, zumindest technisch.

Bin mal gespannt wann Sega ein AAA rausbringt und wie es aussieht:smile:

Iruwen
2014-06-11, 13:23:06
Bin mal gespannt wann Sega ein AAA rausbringt
Sega auch ;D

Malvinen
2014-06-11, 13:26:35
OK, deal. Was mich nur irritiert das ND hinzugefügt hat das 60 angestrebt werden, hmmm. Ich denke bei solch einem Genre wären 30 auch OK wenn die Grafik so bleibt In-Game versteht sich, 60er wäre natürlich ein phantastischer Bonus. Aber ja ND hat eigentlich noch nie enttäuscht, zumindest technisch.

Bin mal gespannt wann Sega ein AAA rausbringt und wie es aussieht:smile:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=549714
:)

Was mich an dem Teaser begeistert ist das Wasser. Bisher hat man immer den Eindruck gehabt, dass wenn Wasser auf einen Strand trifft, irgendwo einer eine transparente Decke über den Sand zieht. Auch wie das Wasser an der Nase und Kinn abläuft, schaut klasse aus.

Hallo
2014-06-11, 15:57:57
Sega auch ;D

Ich weiss was du meinst aber vergiss nicht das grandiose perfektomöse Sonic Generations (only PC wegen 60 Birnen) und den Mario Kart Killer in allen Belangen und noch viel mehr... Sonic All Stars Racing Transformed!! (ebenfalls nur PC @60 Äpfle;) Das sind AAA+++ Titel:) Die können schon wenn sie nicht den Finger im Hintern haben...N hat alle Finger in allen Löchern @ default, hihi:freak: Beim Racer kann ich sogar 1080p, 16AF 4xSSAA @ GTX570 reinhauen und das sieht...genau so siehts aus, mit allen Birnen und Äpfeln;)

@ Malvinen

Kenn ich garned sieht aber vielversprechend aus. Fun Fact Schnee, Sand und überhaupt (polygonale) Bodendeformationen (inkl. entsprechender Physik Sega Rally Revo 2007 wieder PC oder Arcade wegen den vielen Birnen) gibts bei Sega seit 2002;)

Sorry für die kleine Geschichtsstunde.

http://www.youtube.com/watch?v=u0SoYTCtr4g

Ob Schnee, Dirt oder Sand alle Spuren (selbst Wasserlachen passen sich an) bleiben das ganze Rennen erhalten und haben Auswirkung, so muss das.

PSXRacer
2014-06-11, 17:38:55
Boah Hallo schreib doch normal das ist ja echt nervig zu lesen so, aber zumindest was Sega Rally Revo angeht muß ich dir zustimmen das war damals schon ein richtig geiler Arcaderacer. Kam irgendwie ausm nichts und nach der Demo war das sofort ein Musthave! :up:

Finde es eh sehr schade das die aktuelleren Rennspiele so statisch sind was die Umgebung angeht. Als Dirt 1 rauskam hat einen die Demo regelrecht umgehauen, die Leitplanken wurden eingedellt wenn man reingefahren ist die Reifenstapel konnte man auseinandersprengen, das war so ein richtiger Schritt nach vorne und dann wurde es von Spiel zu spiel statischer, schon erbärmlich eigentlich..

Jonas_2014
2014-06-11, 18:52:02
Mario Kart Killer. :D

Guter Witz Hallo. ;)

Hallo
2014-06-11, 20:04:12
Sorry es ist ein MK Killer WEIL es es vordergründig auf Fahrkönnen ankommt und nicht blauer Panzer ausserdem werden alle wichtigen Franchises als Streckenthema benutzt was heisst das jedem Sega Fan die Tränen kommen ebenso ist die Fahrphysyk viel komplexer und herausvordernder, viel mehr Fahrzeuge mit noch mehr Tuningoptionen und Boot und Luftfahrzeuge ebenfalls innerhalb einer Strecke die sich noch verändern:wink: Aber das ist wie immer Geschmackssache. Check Transformed mal aus, gibts auf der Pyramide für nen 13er für PC. 10Player Online (Steam) inkl. Voice Chat, N anyone;)

http://www.youtube.com/watch?v=UPRpmM916Ms Dagegen ist MK ne müde Kaffefahrt...

@PSXRacer

Ich weiss aber nerv ich nicht schon genug mit meinen 60fps, deshalb Birnen und so:freak: Und ja ich muss dir Recht geben das viele Racer viel zu statisch sind was die Umgebung betrifft. Ein tolles Beispiel wäre noch das alte Flatout wo man so ziemlich alles am Streckenrand umfahren konnte. Ich Glaube darin liegt die Zukunft und nicht nur das Blinki, Interaktion. MotorStorm 2 und 3 wären noch zu erwähnen, ein regelrecht explosives Schlachtfest.

Auch nicht schlecht ein Zwei Mann Kickstarter Projekt im Sinne der alten Sega Arcade Racer:)

http://www.youtube.com/watch?v=bywfy_hcq_s :heart:

http://www.youtube.com/watch?v=sM6saRuiRBE Artdesign, Detailverliebtheit, Blauer Himmel, Sonne Sand und Meer und Bunt. Kommt auf PC UND Wii U @ 60 fucking frames.

Edit:

Grid mal anders http://system16.com/hardware.php?id=907

DinosaurusRex
2014-06-12, 06:47:09
Coda hatte mal wieder recht: Der Uncharted 4 Teaser lief tatsächlich in Echtzeit auf einer PS4 in 1080p60fps:

http://i.imgur.com/nyq0LK7.jpg

Also darf man im fertigen Spiel wohl schicke Echtzeitreflektionen auf Patronenmagazinen mit 60 Birnen pro Sekunde erwarten:

http://fc04.deviantart.net/fs71/f/2014/162/0/a/drake_by_raziel1992-d7m0j48.gif

In diesem Fall kann ich es auch kaum erwarten, wie die pre-rendered Cutscenes aussehen werden.

Corrinne ist eine GPGPU-Spezialistin. Was die wohl so alles mit einem HSA SoC anstellen kann? Von der PS4 scheint sie auf jeden Fall schwer angetan zu sein:

http://i.imgur.com/PUnpdlx.png

#BasedCerny

http://i.imgur.com/0sIAg4X.gif

---

Dazu habe ich übrigens auch mal eine Frage, und zwar ist die PS4 ja voll auf GPGPU ausgelegt mit ihren vielen ACEs und Queues und dem dicken unified RAM. Ich hab vor einigen Wochen etwas gelesen von einer Art Paradigmenwechsel beim Rendering. Sogenanntes GPGPU-Rendering. Ich suche das bereits seit Tagen und ich finde es einfach nicht mehr. Gibt es sowas tatsächlich?

---

Auf die Frage, ob die PS4 einfach zu programmieren sei, hat Corrinne folgendes geantwortet:

http://abload.de/img/corrinnefwqnp.png

Ist die low-level Optimierung von Bandbreite etwas Besonderes? Ich glaube AlphaTier hat irgendwann mal gesagt, dass man so ziemlich alles einsparen kann, ausser Bandbreite.

Jonas_2014
2014-06-12, 12:48:00
Die Naughty Götter am delivern... :)

Wer hätte was anderes erwartet? Wenn man sieht was die aus einer PS3 geholt haben. Jetzt haben sie deutlich mehr RAM und auch keine sonstigen Flaschenhälse. Da wird man noch öfter mit den Augen schlackern.

Wie bereits immer gesagt. Der nächste Schritt in Sachen Grafik findet auf PS4 und Xbox One statt. Nicht auf dem PC! :)

Deinorius
2014-06-12, 12:59:12
Coda hatte mal wieder recht: Der Uncharted 4 Teaser lief tatsächlich in Echtzeit auf einer PS4 in 1080p60fps:

http://i.imgur.com/nyq0LK7.jpg


Es hat keiner angezweifelt, dass es nicht in Echtzeit läuft, nur dass es möglicherweise eine Cutscene ist. Und die Aussage überzeugt mich noch nicht. Cutscenes kann man IMHO auch als real game level bezeichnen.

][immy
2014-06-12, 13:14:26
Coda hatte mal wieder recht: Der Uncharted 4 Teaser lief tatsächlich in Echtzeit auf einer PS4 in 1080p60fps:

http://i.imgur.com/nyq0LK7.jpg

Also darf man im fertigen Spiel wohl schicke Echtzeitreflektionen auf Patronenmagazinen mit 60 Birnen pro Sekunde erwarten:

http://fc04.deviantart.net/fs71/f/2014/162/0/a/drake_by_raziel1992-d7m0j48.gif

In diesem Fall kann ich es auch kaum erwarten, wie die pre-rendered Cutscenes aussehen werden.

Corrinne ist eine GPGPU-Spezialistin. Was die wohl so alles mit einem HSA SoC anstellen kann? Von der PS4 scheint sie auf jeden Fall schwer angetan zu sein:

http://i.imgur.com/PUnpdlx.png

#BasedCerny

http://i.imgur.com/0sIAg4X.gif

---

Dazu habe ich übrigens auch mal eine Frage, und zwar ist die PS4 ja voll auf GPGPU ausgelegt mit ihren vielen ACEs und Queues und dem dicken unified RAM. Ich hab vor einigen Wochen etwas gelesen von einer Art Paradigmenwechsel beim Rendering. Sogenanntes GPGPU-Rendering. Ich suche das bereits seit Tagen und ich finde es einfach nicht mehr. Gibt es sowas tatsächlich?

---

Auf die Frage, ob die PS4 einfach zu programmieren sei, hat Corrinne folgendes geantwortet:

http://abload.de/img/corrinnefwqnp.png

Ist die low-level Optimierung von Bandbreite etwas Besonderes? Ich glaube AlphaTier hat irgendwann mal gesagt, dass man so ziemlich alles einsparen kann, ausser Bandbreite.


dir ist aber schon bewusst das es sich derzeit nur um einen Showcase handelt und noch nicht wirklich viel fertig sein kann, oder?
Die Charakterdetails sind ja ganz nett, aber im Hintergrund ist absolut nix wirklich sichtbar. Man wird hier schlicht abwarten müssen ob sie die Qualität auch halten können (was ich derzeit bezweifle) weil zu einem spiel schon noch mehr gehört als ein bissel Wasser + ein Charakter.
Aber z.B. Ryse als ein Launch-Titel hat ja gezeigt das mit heutiger Technik bereits viel möglich ist. Das Grafik-Level muss halt nur gehalten werden können. Sieht halt nicht so schön aus wenn der Haupt-Char toll aussieht, aber der rest nicht so doll ist.


Aber wie geschrieben, war ja nur ein Showcase, ansonsten hätte man wohl mehr gezeigt.

dildo4u
2014-06-12, 13:23:54
Es gibt wenig zu sehen weil sich Naughty Dog Zeit nimmt,daher gab's Uncharted 1 auch nicht zum Launch der PS3,der Vorteil diesmal ist das sie mit dem Last of Us Remaster schon ein PS4 Game fertig haben werden,daher erwarte ich wenige Technische Schwächen bei U4.Wenn das Game raus ist hatten sie 2 Jahre mit dem finalen Devkit.

USS-VOYAGER
2014-06-12, 18:30:25
lol selbst Diablo 3 läuft auf der XBox nicht in 1080p http://www.pcgames.de/Diablo-3-Ultimate-Evil-Edition-PS4-258056/News/Diablo-3-Ultimate-Evil-Edition-nur-auf-PS4-in-1080p-1125006/
So Grafisch anspruchsvoll ist das doch gar nicht oder.

DinosaurusRex
2014-06-12, 18:50:01
[immy;10243383']Die Charakterdetails sind ja ganz nett, aber im Hintergrund ist absolut nix wirklich sichtbar.

Doch, ein wenig kann man schon erkennen:

http://giant.gfycat.com/BothBrightGoitered.gif

Stell dir einfach vor da würde sich jetzt langsam das UI einblenden und du könntest Drake durch den Dschungel steuern... :D

del_4901
2014-06-12, 18:54:43
lol selbst Diablo 3 läuft auf der XBox nicht in 1080p http://www.pcgames.de/Diablo-3-Ultimate-Evil-Edition-PS4-258056/News/Diablo-3-Ultimate-Evil-Edition-nur-auf-PS4-in-1080p-1125006/
So Grafisch anspruchsvoll ist das doch gar nicht oder.
Das ist wohl eher auf Memory und Entwickler Zeitmangel zurueckzufuehren.

DinosaurusRex
2014-06-12, 18:58:30
Das ist wohl eher auf Memory und Entwickler Zeitmangel zurueckzufuehren.

Sie haben wohl kein low-level Bandwidth Management auf der Xbox, he? :uconf3:

Hunter93
2014-06-12, 22:03:35
Der Debut-Trailer zu LoU (https://www.youtube.com/watch?v=rWzcYbtZQrk) war auch "directly captured from a PS3". Mir kann aber keiner erzählen, dass das Spiel InGame damit mithalten konnte.

Den allgemeinen Optimismus kann ich auch nicht recht nachvollziehen. Wo gab es bisher optisch annähernd vergleichbares wie Drake´s Gesicht? Glauben tue ich das jedenfalls erst, wenn ich es sehe. :rolleyes:

THEaaron
2014-06-12, 23:04:04
Ryse hat schon verdammt gute Gesichter.

Hunter93
2014-06-12, 23:36:26
Das IMO aber auch nur in den offline-gerenderten Videosequenzen. Mag sein, dass die Charakter-Modelle sogar diesselben waren, das Shading und Beleuchtung aber wohl nicht.

Coda
2014-06-12, 23:46:25
Der Debut-Trailer zu LoU (https://www.youtube.com/watch?v=rWzcYbtZQrk) war auch "directly captured from a PS3". Mir kann aber keiner erzählen, dass das Spiel InGame damit mithalten konnte.

Den allgemeinen Optimismus kann ich auch nicht recht nachvollziehen. Wo gab es bisher optisch annähernd vergleichbares wie Drake´s Gesicht? Glauben tue ich das jedenfalls erst, wenn ich es sehe. :rolleyes:
Das Problem ist, das das Niveau wahrscheinlich sogar durchgängig möglich wäre, aber die Assets muss halt auch erstmal jemand produzieren.

Das IMO aber auch nur in den offline-gerenderten Videosequenzen. Mag sein, dass die Charakter-Modelle sogar diesselben waren, das Shading und Beleuchtung aber wohl nicht.
Das Offline gerenderte kommt unverändert aus der Engine. Es ist nur bisschen mehr AA drauf, dafür mehr Kompressionsartefakte. Quelle: Ich hab das gemacht.

del_4901
2014-06-12, 23:53:06
Das Offline gerenderte kommt unverändert aus der Engine. Es ist nur bisschen mehr AA drauf, dafür mehr Kompressionsartefakte. Quelle: Ich hab das gemacht.
Dot hobter juht gemocht. Mochmer och so. Ond die Ondern mochn det och. :)

Sven77
2014-06-12, 23:54:54
Das Problem ist, das das Niveau wahrscheinlich sogar durchgängig möglich wäre, aber die Assets muss halt auch erstmal jemand produzieren.

Denke das wird ein grosses Thema bei dieser Gen. Schon abartig was man inzwischen für Manpower für AAA-Produktionen braucht..

Hunter93
2014-06-13, 00:19:00
Das Offline gerenderte kommt unverändert aus der Engine. Es ist nur bisschen mehr AA drauf, dafür mehr Kompressionsartefakte. Quelle: Ich hab das gemacht.

Bildvergleiche will ich dir ersparen, aber zugegeben verlangst du da meinem guten Glauben schon ein bisschen etwas ab. :tongue:

Coda
2014-06-13, 00:40:16
Dot hobter juht gemocht. Mochmer och so. Ond die Ondern mochn det och. :)
Klarstellen bevor wieder Müll erzählt wird.

Bildvergleiche will ich dir ersparen, aber zugegeben verlangst du da meinem guten Glauben schon ein bisschen etwas ab. :tongue:
Was willst du mir da zeigen? Ich kenn die Szenen auswendig. Und ja, sind sind alle aus der Engine. Selbe Shader wie im Spiel auch.

del_4901
2014-06-13, 00:43:57
Klarstellen bevor wieder Müll erzählt wird.
Ich fands gut!

Immer klarstellen geht dann leider doch ned. :)

Nightspider
2014-06-13, 00:55:24
Grafik hin oder her.
Interessanter ist imo ob jetzt alle Spiele eine phys. Zerstörung bieten werden.

Wenigstens bei Spielen wo man schießen kann sollte es einen gewissen Grad an Zerstörung geben.

Und ja ich weiß das auch diese Zeit und Geld kosten wird aber sowas sollte mittlerweile wirklich drin sein.

Hunter93
2014-06-13, 01:20:44
Was willst du mir da zeigen?

http://i2.minus.com/iZYzc0sBVC16y.png
http://i2.minus.com/iVXQLwTm69ewG.png
http://www11.pic-upload.de/13.06.14/4tezd6xepzb9.png

Rente
2014-06-13, 01:33:59
Die Beleuchtung ist unterschiedlich und jetzt?
Das Offline gerenderte kommt unverändert aus der Engine. Es ist nur bisschen mehr AA drauf, dafür mehr Kompressionsartefakte. Quelle: Ich hab das gemacht.
Steht für mich überhaupt nicht im Widerspruch...

DinosaurusRex
2014-06-13, 06:40:20
Große Worte vom Uncharted Lead Programmer:

http://i.imgur.com/pGN0H4U.png

Ryse hat schon verdammt gute Gesichter.

Jup, die hatten gestern zig Screenshots von Ryse und Uncharted im NeoGAF. Viele haben erst durch den direkten Vergleich mit Naughty Dog gemerkt, wie gut Ryse eigentlich aussieht und das obwohl es ein Launch-Titel war. Okay, da ist natürlich stets der Makel, dass das eine Spiel mit 900p30fps und das andere mit 1080p60fps läuft :freak:, aber dafür hat ND ja auch deutlich mehr Zeit und Rechenleistung zur Verfügung. Jetzt wäre es natürlich interessant zu sehen, wie ein PS4-exklusives Ryse im Jahr 2015 aussehen könnte.

Coda
2014-06-13, 10:18:14
http://i2.minus.com/iZYzc0sBVC16y.png
http://i2.minus.com/iVXQLwTm69ewG.png
http://www11.pic-upload.de/13.06.14/4tezd6xepzb9.png

Exakt selbes Model anders angeleuchtet.

Cortana
2014-06-13, 11:29:06
Exakt selbes Model anders angeleuchtet.
Hat er da Selfies gemacht? :biggrin:

Dachte der Trend ist rel. neu.

Iruwen
2014-06-13, 11:31:15
Denke das wird ein grosses Thema bei dieser Gen. Schon abartig was man inzwischen für Manpower für AAA-Produktionen braucht..
Die Summen sind ja auch nicht mehr feierlich.
http://www.cnet.com/news/activision-to-pump-500-million-into-bungies-destiny/
Laut Wikipedia entfallen davon allein 360 Millionen aufs Marketing.

novl
2014-06-13, 11:56:13
Laut Wikipedia entfallen davon allein 360 Millionen aufs Marketing.

Bis zu dem Punkt wolle ich geade fragen wo denn die 500 Millionen hin sind, wie 500 Millionen sieht die Alpha nämlich nicht aus.

Dennoch schade, das man dieses Spiel wohl nicht am PC sehen wird.

Loeschzwerg
2014-06-13, 13:24:05
Die Summen sind ja auch nicht mehr feierlich.
http://www.cnet.com/news/activision-to-pump-500-million-into-bungies-destiny/
Laut Wikipedia entfallen davon allein 360 Millionen aufs Marketing.

Kosten/Nutzen-Faktor ist bei dieser Art von Marketing eh nicht gegeben... da versuchen nur ein paar Deppen ihren Arbeitsplatz zu rechtfertigen ;)

Kickstarter und Co zeigen wie es ohne Unsummen für Marketing funktionieren kann.

DinosaurusRex
2014-06-13, 14:34:53
Ich glaube nicht, dass ein Spiel wie Uncharted auch mit Kickstarter funktionieren würde.

mbee
2014-06-13, 14:36:58
Es geht ja auch überhaupt nicht um's funktionieren, sondern um's Abwerfen von möglichst viel Gewinn. Man schaue sich nur GTA5 an. Das funktioniert so ohne Marketing eben nicht.
Selbst ein so großes Crowdfunding-Projekt wie Star Citizen, das aufgrund seiner "Nische" sehr erfolgreich ist, ist im Vergleich ein Witz dazu.

Guest83
2014-06-13, 14:55:41
Exakt selbes Model anders angeleuchtet.
Denke darum geht es ihm. Bei einer Cutszene oder Trailer investiert man als Designer viel mehr Zeit darin, alles möglichst perfekt zu machen. Kamerawinkel, Beleuchtung, Positionierung im Bild, usw. Das kann man logischerweise nicht das ganze Spiel über machen, weil es entweder viel zu viel Aufwand wäre oder auch die Freiheit des Spielers einschränken würde.

Und weil jemand Selfie geschrieben hat: Das ist finde ich ein ganz guter Vergleich. Der Unterschied ist wie bei einem schnellen Selfie und einem professionellen Fotografen. Der Fotograf weiß genau, wie man jemanden best möglich ablichtet und seine Bilder (selbst wenn die mit derselben iPhone-Kamera gemacht wurden) werden besser und effektvoller/atmosphärischer aussehen als wenn man sich mal eben selbst fotografiert.

DinosaurusRex
2014-06-13, 14:59:09
Ich denke bei den 1st-party oder 2nd-party Spielen läuft das sowieso noch einmal eine ganze Ecke anders als bei den großen 3rd-Parties. 2K, Ubisoft und Co produzieren Videospiele primär um damit Geld zu verdienen. Bei den konsolenexklusiven Spielen von Microsoft, Nintendo und Sony ist das nur ein sekundäres Ziel, dort geht es primär darum, Kunden für die eigene Spieleplattform zu gewinnen. Ein finanzieller Erfolg wie GTA 5 ist für ein konsolenexklusives Spiel absolut undenkbar. Ich weiß ja nicht wie das bei CryTek im Detail aussieht, aber ich wette, die werden mit ihren Multiplattformern ne ganze Menge mehr Knete machen als mit einem Spiel wie Ryse. Das gleiche gilt auch für Produktionen wie Uncharted oder The Order 1886. Mich würde es nicht einmal wundern, wenn diese Spiele gemessen an den Verkaufszahlen eigentlich ein Verlustgeschäft für das Studio sind und der Plattforminhaber dann am Ende des Tages die Rechnung begleicht.

Zumindest den Sony 1st-Parties wird immer wieder nachgesagt, dass nur die allerwenigsten dieser Spiele profitabel sind. Sie sind abstrakt gedacht nichts anderes als ein in ein Videospiel umgeformtes Marketingbudget für die jeweilige Konsole. Ich denke deswegen können diese Spiele überhaupt erst so gut sein. Ein Verlust wird geduldet und viel wichtiger ist hingegen der Erfolg beim Kunden und bei der Presse. Ubisoft muss bei jedem Spiel darauf achten, dass man am Ende des Tages Gewinn macht. Sony muss das nicht, bzw mittlerweile vielleicht schon ein wenig: Vor allem Naughty Dog ist dafür bekannt, dass sie einen sehr großen Teil der Arbeit nach China outsourcen, um damit Kosten zu sparen. Für eine Plattform wie den PC ist diese Situation natürlich ein wenig blöd, denn da bezahlt niemand die Zeche. Die PC-Zocker sind ja nicht einmal bereit, am Launch Day Vollpreis zu bezahlen.

Loeschzwerg
2014-06-13, 19:01:39
Ich glaube nicht, dass ein Spiel wie Uncharted auch mit Kickstarter funktionieren würde.

Das sicherlich nicht, aber ich finde das Budget für Marketing einfach zu hoch, denn letztendlich liefert dir die Presse das wirklich zündende Marketing bzw. generiert den Hype.

Ab einem gewissen Punkt bringt dir mehr Geld im Marketing halt keine weiteren Einnahmen. Da braucht es dann keine unnötigen Events usw.

Aber ist auch OT. Wurde das hier schon gepostet?
http://gamingbolt.com/ps4-api-can-go-down-to-the-metal-specific-optimizations-not-on-pc-will-improve-performance-further

Lost Boy
2014-06-13, 19:42:55
Das gleiche gilt auch für Produktionen wie Uncharted oder The Order 1886. Mich würde es nicht einmal wundern, wenn diese Spiele gemessen an den Verkaufszahlen eigentlich ein Verlustgeschäft für das Studio sind und der Plattforminhaber dann am Ende des Tages die Rechnung begleicht.



Halte ich für absolut unrealistisch und ich bin der Meinung dass speziell Sony allein mit ihren 1st Party Titeln ganz gutes Geld verdient. Dazu kommt natürlich dass solche Exklusivtitel, wie du schon geschrieben hast, Konsolen verkaufen.

Heavy Rain cost developer Quantic Dream $21.8 million to make, and with Sony's marketing budget added in, production costs topped out at $52.2 million (based on a mid-range euro-dollar exchange rate of $1.31), Quantic CEO Guillaume de Fondaumiere tells Eurogamer. It was worth it in the end – Heavy Rain made Sony more than $130.6 million.


"It's very profitable," Fondaumiere says. Since there seems to be a wide discrepancy between the definition of "successful" in AAA and smaller games, it's always good to know that yes, more than $100 million is still "profitable" to some developers


http://www.joystiq.com/2013/04/21/heavy-rain-cost-52-million-but-made-130-million-you-do-the-ma/



Wie Guillaume de Fondaumiere verraten hat, kommt Heavy Rain mittlerweile auf über 2,5 Millionen verkaufte Exemplare.

http://www.gamezone.de/Heavy-Rain-PS3-132240/News/Heavy-Rain-Ueber-2-5-Millionen-Mal-verkauft-1068827/

][immy
2014-06-14, 11:40:20
Halte ich für absolut unrealistisch und ich bin der Meinung dass speziell Sony allein mit ihren 1st Party Titeln ganz gutes Geld verdient. Dazu kommt natürlich dass solche Exklusivtitel, wie du schon geschrieben hast, Konsolen verkaufen.


http://www.joystiq.com/2013/04/21/heavy-rain-cost-52-million-but-made-130-million-you-do-the-ma/


http://www.gamezone.de/Heavy-Rain-PS3-132240/News/Heavy-Rain-Ueber-2-5-Millionen-Mal-verkauft-1068827/

das ist aber nur das, was mit dem Spiel umgesetzt wurde. Da geht ja noch alles mögliche von ab. Kann mir fast gar nicht vorstellen das die mit 2,5 Millionen Kopien tatsächlich irgendwelchen Gewinn gemacht haben, bei den Ausgaben.
Was noch abgeht:
- Händler wollen auch was haben (nur weil das Spiel für $50-60 verkauft wird, heißt es ja nicht das dieser Betrag auch an Sony geht)
- Transportkosten (wohl der kleinste Teil)
- Steuern des jeweiligen Landes


Wie ich schonmal schrieb (und DinosaurusRex ebenfalls). Bei 1st-Party titeln kommt es nicht drauf an Gewinn zu machen, sondern das System zu verkaufen bzw. für den Systemverkauf mehr Anreize zu schaffen. Eine 0-Runde ist bei solchen Titeln für den Hersteller (bzw. in diesem Fall den Auftraggeber) sogar noch richtig gut.


Was Uncharted angeht, wenn es später vielleicht sogar besser aussehen soll, will ich nicht wissen wie hoch die Kosten dafür sind. Technisch scheint es ja kein wirkliches Problem zu geben, nur irgendwer muss das ganze Zeugs auch so Detailliert erstellen. Da sind es dann eher die Kosten welche den grafischen Fortschritt aufhalten wenn die Qualität über das gesamte Spiel gleich oder sogar besser sein soll.

mironicus
2014-06-14, 12:11:37
Hat sich hier jemand schon mal gefragt, warum die PS4 so viel Strom beim Idlen verbraucht? 80 Watt! Beim Blu Ray-Abspielen sogar mehr als 100 Watt.

Wo bleiben denn da die modernen Stromspartechniken wie man sie vom PC kennt? Neulich habe ich einen kleinen HTPC mit einer AM1-CPU zusammengestellt und der verbraucht beim Idlen 10 Watt und beim Bluray-Abspielen maximal 20 Watt.

][immy
2014-06-14, 12:16:07
Hat sich hier jemand schon mal gefragt, warum die PS4 so viel Strom beim Idlen verbraucht? 80 Watt! Beim Blu Ray-Abspielen sogar mehr als 100 Watt.

Wo bleiben denn da die modernen Stromspartechniken wie man sie vom PC kennt? Neulich habe ich einen kleinen HTPC mit einer AM1-CPU zusammengestellt und der verbraucht beim Idlen 10 Watt und beim Bluray-Abspielen maximal 20 Watt.
schon häufiger aufgefallen.
Aber haben einfach bei Konsolen keine Prio.
Hat lange genug gedauert bis die Mechanismen auf einem PC stabil liefen, da werden die vermutlich sehr vorsichtig mit dem Thema sein, besonders wenn es (leider) kaum jemanden interessiert.
Ich würde einfach mal vermuten, das weder CPU noch GPU noch RAM im idle runtertakten. Oder zumindest nicht besonders stark. Ist bei der xbone aber auch nicht wirklich anders. Generell verbraucht sie zwar weniger, aber im Grunde sind es nur 20Watt unterschied.

dildo4u
2014-06-14, 12:23:02
Hat sich hier jemand schon mal gefragt, warum die PS4 so viel Strom beim Idlen verbraucht? 80 Watt! Beim Blu Ray-Abspielen sogar mehr als 100 Watt.

Wo bleiben denn da die modernen Stromspartechniken wie man sie vom PC kennt? Neulich habe ich einen kleinen HTPC mit einer AM1-CPU zusammengestellt und der verbraucht beim Idlen 10 Watt und beim Bluray-Abspielen maximal 20 Watt.
Der Vergleich ist Sinnlos es gibt keine PC APU die GDDR5 als Bild und Arbeitsspeicher nutzt.Vermutlich muss der GDDR5 Speicher immer mit vollem Takt laufen damit die Systemperformance nicht total einbricht.Bei einem PC wird der Arbeitsspeicher im idle auch nicht runter getaktet.

DinosaurusRex
2014-06-14, 13:02:40
Das ist für mich auch einer der größten Kritikpunkte an der PS4. Der Stromverbrauch ist echt hart an der Schmerzgrenze. Ich finde das eigentlich sehr enttäuschend.

Felixxz2
2014-06-14, 14:16:19
Kurze frage nochmal an die Devs hier: Die 1080p bei der One scheitern ja (oft) an der Größe des eSRAM oder? Der wird ja als Framebuffer benutzt. Sehe ich das richtig, dass auf 720/900p in einer klassichen Framebuffer Lösung die 32Mb reichen? Und dass man für 1080p den Buffer in Tiles zerlegen muss? Oder liegt das an was anderem? Wie groß sind denn die Framebuffer bei einer modernen Deffered Engine?

Könnte man mittelfristig mit einem tilebased Buffer wie auf IMG GPUs den eSRAM effizienter nutzen und zumindest aus RAM sicht immer 1080p erreichen?

Coda
2014-06-14, 14:42:51
Der Vergleich ist Sinnlos es gibt keine PC APU die GDDR5 als Bild und Arbeitsspeicher nutzt.Vermutlich muss der GDDR5 Speicher immer mit vollem Takt laufen damit die Systemperformance nicht total einbricht.Bei einem PC wird der Arbeitsspeicher im idle auch nicht runter getaktet.
Nette Theorie, aber leider falsch.

StefanV
2014-06-14, 18:59:19
Bei einem PC wird der Arbeitsspeicher im idle auch nicht runter getaktet.
Seit wann das denn?!

Bei Grafikkarten, ja. Aber doch nicht bei der CPU!

Gipsel
2014-06-14, 19:17:33
Also ich habe noch ein uraltes Notebook (~7 Jahre, mit einem DualCore TurionX2 TL-60) und schon das fährt den Speichertakt je nach Powerstate hoch und runter. :rolleyes:

Rente
2014-06-14, 19:20:47
Bei den Desktop-Varianten der Intel Core-Serie wird der Speichertakt nicht gesenkt, aber was hat das eigentlich mit dem Thema zu tun? :freak:
Der Stromverbrauch des RAMs dürfte doch auch bei der PS4 nur zwischen 4-8 Watt liegen, das Problem liegt wohl eher wo anders.

Gipsel
2014-06-14, 19:22:50
Der Stromverbrauch des RAMs dürfte doch auch bei der PS4 nur zwischen 4-8 Watt liegen, das Problem liegt wohl eher wo anders.Das dürfte erheblich mehr sein, eher so 30+W.

aufkrawall
2014-06-14, 19:47:34
Das dürfte erheblich mehr sein, eher so 30+W.
TDP?

Coda
2014-06-14, 20:11:16
Das dürfte erheblich mehr sein, eher so 30+W.
Das kommt mir gefühlsmäßig ziemlich hoch gegriffen vor.

Gipsel
2014-06-14, 20:23:15
TDP?
Ja, zumindest in etwa. Die einzigen GDDR5-Specs, die ich kenne, sprechen für 5,5GBps-Chip im x32-Mode von bis zu 1760mA IDD (bei Read-Bursts) bei 1,5V VDD, macht also 2,64W pro Chip, was dann für 16 Chips etwa 42W macht. Die PS4 betreibt ihre 16 Chips allerdings im x16-Modus, wodurch das auf 1090mA und damit 1,635W pro Chip sinkt. Bei 16 Chips ergibt das also gute 26W. Nun waren das allerdings Specs für kleinere Chips, also nicht exakt die 4GBit-Chips, die in der PS4 verbaut sind. Typischerweise ist aber zu beobachten, daß die Kapazität für den Verbrauch nur eine relativ kleine Rolle spielt. Man sollte aber im Hinterkopf behalten, daß das nur ein grober Richtwert bzw. Schätzung ist. Weiterhin ist der Verbrauch des Speichercontrollers im Prozessor ziemlich untrennbar mit dem Speicher verbunden. Beim Betrieb mit vollem Takt zieht der gerne nochmal das Gleiche wie der Speicher selber. Wieviel nur das Hoch- oder Runtertakten des GDDR5-Speichers und -Speichercontrollers im Idle für den Verbrauch ausmacht, kennt man ja von Grafikkarten zur Genüge. Da sind 30W sicher nicht zu hoch gegriffen.

y33H@
2014-06-14, 20:25:06
Also ich habe noch ein uraltes Notebook (~7 Jahre, mit einem DualCore TurionX2 TL-60) und schon das fährt den Speichertakt je nach Powerstate hoch und runter.Macht zB Haswell und Kaveri im Mobile Segment auch ...

Gipsel
2014-06-14, 20:27:18
Macht zB Haswell und Kaveri im Mobile Segment auch ...Ich wollte nur zum Ausdruck bringen, daß das bereits vor einiger Zeit durchaus üblich war. ;)

y33H@
2014-06-14, 20:46:17
Ich wollte nur zum Ausdruck bringen, dass das auch heute noch durchaus üblich ist ;)

Gipsel
2014-06-14, 22:11:40
Fassen wir also zusammen:
Es ist also zumindest in den entsprechenden Segmenten allgemein durchaus üblich und sollte demzufolge technisch gesehen kein Problem darstellen, falls MS oder Sony ihren Willen zur Nutzung so eines Features gegenüber AMD Ausdruck verliehen haben.

Rente
2014-06-14, 23:13:08
Das dürfte erheblich mehr sein, eher so 30+W.
Danke für deine weiteren Erläuterungen, ich hatte eher vermutet, dass es sich wie mit dem am Desktop üblichen DDR3 verhält, aber 30W ist natürlich eine ganz andere Marke, das würde auf jeden Fall den hohen Verbrauch erklären und auch, warum die One da ein Stück niedriger liegt.

Ich hoffe immer noch, dass Sony mit einer neuen Rev. diese Problematik in Angriff nimmt, wann kam dieser Schritt bei der PS3 denn?
Edit:
2,5 Jahre bis zur Slim, 1,5 Jahre bis zur ersten Version in 65nm damals.
Bei der 360 hat es aber auch 2 bzw. 3 Jahre gedauert.

Ich hoffe aufgrund des Konzeptes bei beiden Konsolen geht das diesmal etwas schneller bzw. teilweise schon Softwareseitig.

Coda
2014-06-14, 23:25:14
Hm, vielleicht ist das sogar der Grund warum MS von GDDR5 abgesehen hat. Wäre zumindest mal eine plausible Erklärung.

Dennoch sollte man eigentlich meinen dass da niedrigere Frequenzen im Idle eigentlich helfen sollten.

-/\-CruNcher-/\-
2014-06-14, 23:47:24
Exakt selbes Model anders angeleuchtet.

Die Hautfarben (Melanin) reaktion find ich allerdings sehr oft einfach grässlich, die Abstimmung zwischen SSS und lighting hättet ihr sicher besser hinkriegen können ;)

Ich warte ja wirklich auf einen nicht CGI Light approach in einem Spiel von euch wird sicher interessant das von euch zu sehen, mal wech von super Kontrast und Hollywood, sowas wie Remember Me by Crytek ;)

Frankfurt ist doch so eine schöne Stadt ;)


Einige Ergebnisse sind einfach so genial da denkt man echt man sieht ein Arnold offline Rendering von Digic Pictures :)

Das Specular das SSS alles sehr genial von der Abstimmung :)

http://i.minus.com/i6RcSqt81wtV7.png

Deinorius
2014-06-15, 01:20:54
wann kam dieser Schritt bei der PS3 denn?


Dass die PS3 im Idle im Sinne "weniger Verbrauch durch geringere Taktung" weniger verbraucht? Eigentlich nie. Der geringere Verbrauch geht mit dem Shrink einher. Ehrlich gesagt bin ich mir nicht mal sicher, ob ich meine PS3 jemals bei Blu-Ray Wiedergabe gemessen habe.

Hm, vielleicht ist das sogar der Grund warum MS von GDDR5 abgesehen hat. Wäre zumindest mal eine plausible Erklärung.


Korrigiere mich bitte, wenn ich das falsch verstanden habe: Aber willst du damit andeuten, dass MS für einige Watt weniger im Idle eine schöne Portion Leistung weggeschmissen hat? :ugly:
Wenn man bedenkt, wieviel die XBO derzeit verbraucht, ist das MS hervorragend gelungen... :uup:

Rente
2014-06-15, 01:29:14
Es könnte wohl ein Grund gewesen sein, neben der aufwändigeren Integration und der höheren Kosten (wobei mir unklar ist wie viel ESRAM kostet), sowie natürlich der Fehleinschätzung der PS4.

][immy
2014-06-15, 02:08:48
Danke für deine weiteren Erläuterungen, ich hatte eher vermutet, dass es sich wie mit dem am Desktop üblichen DDR3 verhält, aber 30W ist natürlich eine ganz andere Marke, das würde auf jeden Fall den hohen Verbrauch erklären und auch, warum die One da ein Stück niedriger liegt.

Ich hoffe immer noch, dass Sony mit einer neuen Rev. diese Problematik in Angriff nimmt, wann kam dieser Schritt bei der PS3 denn?
Edit:
2,5 Jahre bis zur Slim, 1,5 Jahre bis zur ersten Version in 65nm damals.
Bei der 360 hat es aber auch 2 bzw. 3 Jahre gedauert.

Ich hoffe aufgrund des Konzeptes bei beiden Konsolen geht das diesmal etwas schneller bzw. teilweise schon Softwareseitig.
Ich hatte das hier auch mal aufgeschlüsselt mit den entsprechenden Links zu den Speicherherstellern. GDDR5 verbraucht ne ganze Menge mehr (Verhältnismäßig). DDR3 kommt mit einem Bruchteil des Verbrauchs aus, weshalb ich damals auch meinte das die Speicherkühlung auf Dauer bei der PS4 ein Problem werden könnte auf der Rückseite des Mainboards. Aber nunja, bisher scheint es ja ganz gut zu klappen. Das ding wird zwar gerne sehr heiß, aber es läuft (Grafikkarten genehmigen sich ja auch gerne Temperaturen >70°C)
Der Große Verbrauch vom GDDR5 Speicher sollte aber eigentlich nur unter Last auffallen und nicht wenn die Speicherzellen sich langweilen.


Der größte Teil des Stromverbrauchs bei PS4 und xbone kommt nach wie vor über die GPU und CPU, weil diese wohl nicht runtertakten wenn das System fast nix macht.
Ist Jaguar eigentlich in der Lage einzelne Kerne runter zu takten? Wäre ja sinnvoll z.B. die 6 Kerne fast völlig abzuschalten wenn kein Spiel läuft. Aber den größten Verbraucher stellt wohl eh die GPU dar.

Felixxz2
2014-06-15, 02:27:04
Der Grund war zu 99% dass man unbedingt 8GB RAM haben wollte. Und das war in langfristiger Planung nur mit DDR3 möglich. Sony hat mit 4GB kalkuliert und ist kurzfristig auf 8GB umgestiegen, als dies technisch doch möglich war. Hätte man nur 4GB gehabt, sähe die Situation ganz anders aus. Sony hat hier viel Glück gehabt, denn halber RAM wär schon ein herber Nachteil gewesen.

robbitop
2014-06-15, 08:42:20
Der Grund war zu 99% dass man unbedingt 8GB RAM haben wollte. Und das war in langfristiger Planung nur mit DDR3 möglich. Sony hat mit 4GB kalkuliert und ist kurzfristig auf 8GB umgestiegen, als dies technisch doch möglich war. Hätte man nur 4GB gehabt, sähe die Situation ganz anders aus. Sony hat hier viel Glück gehabt, denn halber RAM wär schon ein herber Nachteil gewesen.
Quelle?

DinosaurusRex
2014-06-15, 08:53:27
Sony hat laut eigenen Aussage lange Zeit zweigleisig entwickelt: Einmal mit 128-Bit GDDR5 + embedded (oder stacked?) DRAM und einmal mit 256-Bit GDDR5. Die einzige offizielle Aussage, waum man sich für letzteres entschieden hat, kam von Mark Cerny und der hat gesagt, er wollte den Entwicklern kein Rätsel aufgeben.

Wenn diese Information den Tatsachen entspricht, dann stand für die PS4 in ihrer späten Entwicklungsphase DDR3 niemals zur Debatte. Wir wissen jetzt allerdings nicht, wie Sony reagiert hätte, wenn die 4Gb RAM-Chips nicht rechtzeitig fertig gewesen wären. Hätten sie die PS4 dann mit 16 2Gb-Chips veröffentlicht? Hätten sie sie um ein Jahr verschoben (Microsoft wäre ihnen sicherlich dankbar gewesen...)? Oder hätte sie in den sauren Apfel gebissen und 32 2Gb-Chips verbaut und diese SKU dann anschließend so schnell wie möglich gegen eine Revision ausgetauscht?

Dazu gibt es keine offiziellen Informationen. Alles Spekulation.

Botcruscher
2014-06-15, 09:03:20
Die 4GB hätte man auch mit 256bit angebunden. Der Rest ist eine Kostenfrage. Dazu lagen die RAM-Preise vor 2-3 Jahren noch deutlich tiefer.

DinosaurusRex
2014-06-15, 09:14:47
Hallo bekommt einen prominenten Verbündeten in seinem Kampf gegen 30fps Spiele:


30fps Is Not a Good Artistic Decision, It's a Failure!


Quelle (http://www.gamespot.com/articles/oculus-vr-founder-30fps-is-not-a-good-artistic-decision-it-s-a-failure/1100-6420493/)

Er meint das auch nicht bezogen auf VR, sondern tatsächlich auf ganz traditionelle Spiele.

Gipsel
2014-06-15, 09:46:47
Wir wissen jetzt allerdings nicht, wie Sony reagiert hätte, wenn die 4Gb RAM-Chips nicht rechtzeitig fertig gewesen wären. Hätten sie die PS4 dann mit 16 2Gb-Chips veröffentlicht? Hätten sie sie um ein Jahr verschoben (Microsoft wäre ihnen sicherlich dankbar gewesen...)? Oder hätte sie in den sauren Apfel gebissen und 32 2Gb-Chips verbaut und diese SKU dann anschließend so schnell wie möglich gegen eine Revision ausgetauscht?Dafür benötigt man mindestens ein 512Bit-Interface. Oder man benutzt Custom-Speicherchips (mit schmalerem Interface) und entsprechend angepaßtem Speichercontroller. Keine sehr kostengünstige Option und damit unwahrscheinlich. Wäre vielleicht gegangen, wenn GDDR5M nicht gestorben wäre (da waren afaik x8-Anbindungen vorgesehen, so daß man mit 32 Chips ein 256Bit-Interface füllen könnte).

Cortana
2014-06-15, 09:47:02
Ich muss da aber widersprechen.

60fps kann ohne das nötige Postprocessing ziemlich billig aussehen. Da geht teilweise viel Immersion flöten, und ich rede jetzt ausschliesslich von Konsolengames.

robbitop
2014-06-15, 09:47:55
Sony hat laut eigenen Aussage lange Zeit zweigleisig entwickelt: Einmal mit 128-Bit GDDR5 + embedded (oder stacked?) DRAM und einmal mit 256-Bit GDDR5. Die einzige offizielle Aussage, waum man sich für letzteres entschieden hat, kam von Mark Cerny und der hat gesagt, er wollte den Entwicklern kein Rätsel aufgeben.

Aha - wo kann man das nachlesen? :)

Locuza
2014-06-15, 10:18:19
Das Sony zweigleißig gefahren ist, daran kann ich mich nicht erinnern.
Das war ein Video von Cerny, wo er meinte 256-Bit (Oder 512-Bit? Egal, war sowieso nur ein fiktives Beispiel) mit einem Speicher ist besser, als 128-Bit mit einem zusätzlichen ganz schnellen Speicher.

In einem anderem Video klang es auch sehr danach, dass Cerny von Anfang an 8 GB im Kopf hatte. (Das war glaube ich ein Interview von Cerny mit Yoshida)
Er meinte er ist mit dem Vorschlag erst kurz vor Schluß mit einer Zusammenfassung seiner Erkenntnise gekommen, sonst wären die Business Guys vielleicht nicht überzeugt gewesen, wenn er ganz am Anfang euphorisch gemeint hätte wir brauchen 8 GB.

DinosaurusRex
2014-06-15, 10:29:40
Aha - wo kann man das nachlesen? :)

Das hat er in Barcelona auf einer Präsentation gesagt:

gNfyumTCVZ4

Ich hab das Video auch irgendwann mal verlinkt, aber ich bin hier ja anscheinend der einzige, der sich sowas ansieht... :rolleyes:

Locuza
2014-06-15, 10:51:25
Nein bist du nicht.
Die Stelle worum es geht fängt ab ~38:50 an.

robbitop
2014-06-15, 11:23:41
Das Video kenne ich. Er sagt nicht explizit, dass sie zweigleisig gefahren sind. Er bespricht im Konjunktiv nur beide Varianten und deren Auswirkungen. Zweigleisig fahren ist für mich, dass man konkret beides entwickelt und da richtig R&D reinfließt. Klingt für mich eher so als hätte man beide Konzepte vor Entwicklungsstart des ASICs betrachtet, bewerted und sich am Ende für eines entschieden. Parallel 2 ASICs zu entwickeln wäre eine ziemliche Verschwendung und man müßte sicher auch Kompromisse eingehen, solange man sich beide Varianten offen halten will.

-/\-CruNcher-/\-
2014-06-15, 11:38:59
Ist eigentlich schon ersichtlich wer so langsam anfängt auf der Xbox One den Edram optimaler zu nutzen als andere, frage mich ernsthaft wer das Noughty Dog in Zukunft für die Xbox One und den Edram approach wird, Crytek hat ja ziemlich gut vorgelegt ;)

Hab mit konsolen nix am hut aber der schritt zur verschmellzung von PC und Konsole in eine Architektur ist ein ziemlich logischer auch das der Properitäre weg den Sony anfangs gefahren ist keine Zukunft hat mussten sie sich ja im Endeffekt eingestehen selbst auf der Buisness Seite das ist schon äusserst interessant :)

Da frage ich mich ob das auch mit einfluss auf die Entscheidung hatte die PC sparte ad akta zu legen in Sonys Augen hat sie in diesem sinne ja auch keine Zukunft mehr.

DinosaurusRex
2014-06-15, 11:39:36
Sie sind aber zweigleisig gefahren. Dazu habe ich hier erst vor wenigen Wochen Slides und Interviews (z.B. mit Masaaki Tsuruta) verlinkt, in denen Sony-Leute über die Vor- und Nachteile von kleinen, ultraschnellen RAM-Pools sprechen. Vor allem für 3D/VR wäre das wohl eine gute Lösung gewesen. Aber Cerny wollte das ja laut eigenen Aussagen nicht, um die Komplexität für die Entwickler möglichst niedrig zu halten.

Natürlich besteht auch die Möglichkeit, dass diese Äusserungen alle nur Finten waren, damit sich Microsoft mit seiner eSRAM-Lösung in Sicherheit wiegt. Frei nach dem Motto: Wenn Sony das auch hat, dann müssen die Devs sich ja sowieso darauf einschießen.

drkohler
2014-06-15, 13:58:17
Ich hab das Video auch irgendwann mal verlinkt, aber ich bin hier ja anscheinend der einzige, der sich sowas ansieht..Dieses berühmt-berüchtigte Slide mit dem 1T/s edram wurde an vielen Veranstaltungen gezeigt. Meiner Meinung nach ein Bogus-Argument, weil:
1. 1T/s edram, wie soll das implementiert werden, denn das ist wirklich sehr schnell und es gibt auch heute noch nichts zu kaufen (für Normalos) mit dieser Bandbreite. Man hatte sich ja schon von Anfang an für eine hochwertige GPU entschieden (ein 7850/7870 chip war zu dem Zeitpunkt hochwertig). Somit war der Platzbedarf abzusehen und noch edram ins Die reinzuwürgen wäre viel zu teuer geworden. Die Diskussion war wohl eher ob 176G/s wirklich genug waren für gpu UND cpu.
2. 4G oder 8G Speicher? Ich denke man hatte schon relativ früh in der Entwicklung auf 8G umgestellt. Natürlich hat man die Konkurrenz "beruhigt" mit 2G/4G Gerüchten. Sony wusste ja dass man schon für den ersten Batch etwa 100-150mio Speicherchips benötigen würde und bei solchen Zahlen spielt man nicht Lotto. Es war wohl schon mindestens 1 Jahr vor dem Launch klar (von Samsung signalisiert), dass die 4gb Speicherchips erhältlich sein würden. Das übliche "Sony hatte aber wirklich Glück" halte ich für schlicht falsch.

prinz_valium
2014-06-15, 15:01:33
http://i.imgur.com/I5mkUla.png
http://www.eurogamer.net/articles/digitalfoundry-2014-murdered-soul-suspect-face-off
warum hat die ps4 eigenltich solche af probleme? ist ja nicht das erste game

Gipsel
2014-06-15, 15:03:01
Dieses berühmt-berüchtigte Slide mit dem 1T/s edram wurde an vielen Veranstaltungen gezeigt. Meiner Meinung nach ein Bogus-Argument, weil:
1. 1T/s edram, wie soll das implementiert werden, denn das ist wirklich sehr schnell und es gibt auch heute noch nichts zu kaufen (für Normalos) mit dieser Bandbreite.Ach komm, der 10MB eDRAM der alten XBox360 hat eine Bandbreite von 256GB/s zu den ROPs (das haben bei neueren AMD-GPUs die spezialisierten ROP-Tile-Caches für die gleiche Anzahl ROPs auch, was die Bandbreiteneffizienz und die Anforderungen an den eigentlichen Speicher verringert, die XB360 hatte die noch nicht). Die 1TB/s sind technisch gesehen tatsächlich realistisch und übrigens auch in etwa die L2-Bandbreite eines Hawaii (schon ein RV770 hatte übrigens 384GB/s L2-Bandbreite). Nur ist diese Bandbreite wegen den inzwischen besseren Caches der GPU für viele Anwendungsfälle oft gar nicht nötig (was nicht heißt, das man in bestimmten Situationen nicht doch ein Vorteil daraus ziehen könnte, aber es lohnt halt im Vergleich mit dem nötigen Aufwand kaum). Die XB1 könnte z.B. eine höhere Bandbreite für den eSRAM zumindest durch die nur 16 ROPs oft kaum nutzen (und bei der geringen Größe dürfte oft außer den Rendertargets nicht viel mehr reinpassen).
Ja wenn man nun eine etwas größere GPU hätte und z.B. 32 ROPs würde z.B. ein 512GB/s eDRAM schon mehr Sinn machen, am besten auch gleich 64oder gar 128MB MB groß (das war damals mein erster Tipp für die XB1, als noch eDRAM im Spiel war).
Man hatte sich ja schon von Anfang an für eine hochwertige GPU entschieden (ein 7850/7870 chip war zu dem Zeitpunkt hochwertig). Somit war der Platzbedarf abzusehen und noch edram ins Die reinzuwürgen wäre viel zu teuer geworden. Die Diskussion war wohl eher ob 176G/s wirklich genug waren für gpu UND cpu.Ein 400mm² Chip ist jetzt auch nicht soo riesig. Das wäre schon gegangen, wenn man einen entsprechenden Leistungsschub vermutet hätte. Aber die XB1 (dessen SoC leicht größer als der PS4-Chip ist) zeigt doch im Prinzip, daß der eSRAM (der wie gesagt genug Bandbreite für 16 ROPs hat) in den Regionen nicht wirklich viel Mehrleistung bietet. Dies wäre offenbar nur der Fall, wenn man einen großen eDRAM (eSRAM fällt da aus Platzgründen eher flach) mit einer großen GPU kombiniert. Und mit eDRAM hat man ein Fertigungsproblem (sehr limitierte Auswahl an Fabs und Prozessen). Zusätzlich ist die (Spiele-)Entwicklung mit nur einem Speicherpool etwas einfacher. Nach diesen Kriterien hat Sony offenbar die Entscheidung gefällt. MS wollte dagegen auf DDR3 zu geringeren Kosten und größerer Kapazität setzen und mußte die somit fehlende Bandbreite irgendwie kompensieren, ohne in das eDRAM-Produktionsproblem zu laufen, was dann zu der eSRAM-Lösung mit geringer Größe (aber wohl ausreichender Bandbreite) geführt hat. Das ist klar ein Kompromiß gewesen, der aus der Nachbetrachtung offenbar nicht wirklich gut ist. Aber ich denke beide Lösungen (XB1 und PS4) könnten von mehr DRAM-Bandbreite profitieren (die PS4 vermutlich auf breiterer Front, weil es der einzige Speicherpool ist und die 32ROPs deutlich mehr Bandbreite "verbrennen" könnten als die 16 ROPs der XB1 und man hat ja auch insgesamt die größere GPU).

Gipsel
2014-06-15, 15:17:32
http://i.imgur.com/I5mkUla.png
http://www.eurogamer.net/articles/digitalfoundry-2014-murdered-soul-suspect-face-off
warum hat die ps4 eigenltich solche af probleme? ist ja nicht das erste gameDer verlinkte Artikel spricht von etwas grob wirkendem Tuning auf den verschiedenen Plattformen mit offenbar unterschiedlichen Zielen (30fps cap auf XB1, 60fps Target auf PS4) und z.B. von Problemen mit dem Texturstreaming. Die PS4 sollte z.B. mit einem 30fps Cap keine Probleme haben, ebenfalls 16xAF anzubieten (die PS4-Version bleibt meist bei 60 fps und sinkt selbst in Cutscenes wohl nie unter 30 fps, die XB1 sinkt selten unter 30fps). Im Schnitt (von Extremfällen abgesehen) kostet das vermutlich höchstens 10% Performance. Um die Gründe für diese Entscheidung bzw. die genauen Überlegungen dahinter zu erfahren, müßte man mal den Entwickler befragen (und auf eine ehrliche Antwort abseits von Phrasen hoffen).
Die PS4-Hardware hat sicher keine Probleme mit AF. Die TMUs sind die gleichen wie bei der XB1 und die PS4 hat sogar 50% mehr davon.

del_4901
2014-06-15, 15:50:19
Der verlinkte Artikel spricht von etwas grob wirkendem Tuning auf den verschiedenen Plattformen mit offenbar unterschiedlichen Zielen (30fps cap auf XB1, 60fps Target auf PS4) und z.B. von Problemen mit dem Texturstreaming. Die PS4 sollte z.B. mit einem 30fps Cap keine Probleme haben, ebenfalls 16xAF anzubieten (die PS4-Version bleibt meist bei 60 fps und sinkt selbst in Cutscenes wohl nie unter 30 fps, die XB1 sinkt selten unter 30fps). Im Schnitt (von Extremfällen abgesehen) kostet das vermutlich höchstens 10% Performance. Um die Gründe für diese Entscheidung bzw. die genauen Überlegungen dahinter zu erfahren, müßte man mal den Entwickler befragen (und auf eine ehrliche Antwort abseits von Phrasen hoffen).
Die PS4-Hardware hat sicher keine Probleme mit AF. Die TMUs sind die gleichen wie bei der XB1 und die PS4 hat sogar 50% mehr davon.
Ich denke es ist einfach nur ein vermurkster Sampler und nur noch niemanden aufgefallen oder erst zu spaet entdeckt worden.

gnomi
2014-06-15, 16:22:41
Der Artikel scheint mir nicht ganz auf dem neusten Stand zu sein, denn auf PC kann man das Spiel per Ini Tuning + Schreibschutz + Treiber VSync auch zu synchronisierten 60 fps ohne Tearing zwingen.
Dann noch den Xbox One Controller anschließen, und man hat definitiv die bestmögliche Spielerfahrung. =)
30 fps sind für mich so langsam Schnee von gestern.
Gerade auch die verbesserten Controller der neuen Konsolen verdeutlichen das Problem!
Es kann im Einzelfall wie bei Ryse gerade noch funktionieren, aber wenn irgendwie möglich, will ich eigentlich nichts mehr so spielen. (da Last Gen Konsolen Feeling)
Ich finde es daher gut, dass immer mehr Entwickler hier langsam mal Prioritäten setzen und die Spiele nicht mehr mit überreizten Grafiken raushauen.

robbitop
2014-06-15, 18:13:18
Sie sind aber zweigleisig gefahren. Dazu habe ich hier erst vor wenigen Wochen Slides und Interviews (z.B. mit Masaaki Tsuruta) verlinkt, in denen Sony-Leute über die Vor- und Nachteile von kleinen, ultraschnellen RAM-Pools sprechen.
Darüber sprechen ist das eine. Konkret zu entwickeln das andere. Normalerweise wiegt man vor Entwicklungsstart ab und geht dann einen Weg.

Nochmal: ich habe noch nirgendwo explizit gesehen, dass sie zweigleisig gefahren sind. Sie erklären einfach nur Vor- und Nachteile (zum zu erklären, warum sie den Weg gegangen sind).


Vor allem für 3D/VR wäre das wohl eine gute Lösung gewesen. Aber Cerny wollte das ja laut eigenen Aussagen nicht, um die Komplexität für die Entwickler möglichst niedrig zu halten.
Warum wäre das für 3D/VR eine besonders gute Lösung gewesen?

Natürlich besteht auch die Möglichkeit, dass diese Äusserungen alle nur Finten waren, damit sich Microsoft mit seiner eSRAM-Lösung in Sicherheit wiegt. Frei nach dem Motto: Wenn Sony das auch hat, dann müssen die Devs sich ja sowieso darauf einschießen.
Ich kann mir gut vorstellen, dass beide voneinander wußten. Immerhin haben sie beide es bei AMD entwickeln lassen. Da arbeiten viele viele Leute. Und Leute quatschen nunmal.

So eine Entscheidung trifft man auch nicht in letzter Minute. Der SoC muss sicher mindestens 1 Jahr vor Veröffentlichung fertig sein, damit die Massenproduktion genug Zeit hat, sich darauf einzustellen.

Knuddelbearli
2014-06-15, 18:33:27
ne frage. sind die Konsolen eigentlich HSA fähig?
ne oder?

Lightning
2014-06-15, 18:44:47
ne frage. sind die Konsolen eigentlich HSA fähig?
ne oder?

HSA-fähig? Was soll das genau sein?

00-Schneider
2014-06-15, 18:52:51
HSA-fähig? Was soll das genau sein?


"Hauptmerkmal von HSA ist, dass die CPU-Kerne und der Grafikprozessor auf einen gemeinsamen Adressraum und Speicher (RAM) zugreifen."

-------------

PS4 ja, Xbox One eigentlich nicht.

Knuddelbearli
2014-06-15, 18:53:15
Ok sollte es genauer eingrenzen an und für sich steht ja HSA für vieles und aktuell gibt es schon die dritte Ausbaustufe bei AMD:
Das man aufgaben beliebig und mit quasi 0 Latenz zwischen cpu und gpu rumschieben kann zum Beispiel.
Womit dann auch mal echte Gameplay Physik bei brauchbarer Performance möglich wäre.

Gemeinsamer Speicher gehört da mit dazu ist aber weder das einzige noch unbedingt erforderlich wenn eh low level programmiert wird.

L.ED
2014-06-15, 18:55:10
Es sind HSA (https://de.wikipedia.org/wiki/Heterogeneous_System_Architecture) Plattformen die PS4 dabei im Idealeren Sinne als die Xbox One, gem es ist schon ein ziemliches Plus viel relativ schnellen gemeinsamen Speicher zu besitzen!

Cortana
2014-06-15, 18:56:33
Wird sich dieses Konzept demnächst auch am PC durchsetzen? Oder ist VRAM noch zu teuer um ausreichend Arbeitsspeicher zu kompensieren?

robbitop
2014-06-15, 19:00:12
Die Latenz zum VRAM auf der GPU ist viel zu hoch. Aber man könnte diese Effekte auf APUs nutzen. Und das wird man früher oder später auch.

Cortana
2014-06-15, 19:04:58
Die Latenz zum VRAM auf der GPU ist viel zu hoch. Aber man könnte diese Effekte auf APUs nutzen. Und das wird man früher oder später auch.
Scheint ja bei der PS4 kein Problem zu sein?

L.ED
2014-06-15, 19:07:47
HSA wird sich auf dem PC wohl nur sehr verzögert durchsetzen, Intel ist hier ne ziemliche Macht und ordentlich wieder am Ausnutzen im Sinne von Ausbremsen. Auf HSA Eben mit AMD in die Augen zu sehen fühlen sie sich noch nicht bereit (und sind sie es vermutlich auch noch nicht?)! Die CPU Benchmarks würden Radikal anders aussehen ;) , bei vielem mehr und mehr auch der x86er Part dann wesentlich an Gewicht verlöre. :eek:

robbitop
2014-06-15, 19:11:56
Scheint ja bei der PS4 kein Problem zu sein?
Die PS4 ist praktisch eine (große) APU und hat nur einen RAM Pool und hat keine dedizierte Grafikkarte mit extra VRAM, die über den PCIe angebunden ist.

Knuddelbearli
2014-06-15, 19:44:40
Frage ist ob die PS4 alles schon kann für gute Spielephysik

robbitop
2014-06-15, 19:53:47
Warum nicht? AMD hat ja selbst gesagt, dass das Ding hUMA fähig ist und eine Physikdemo gab es auch schon mal. Es ist nun die Sache des Entwicklers, wie er die Rechenleistung der GPU einsetzt. Mehr Physik bedeutet natürlich auch weniger Rechenleistung für Grafik.

L.ED
2014-06-15, 19:58:38
Was HSA und Gaming belangt (daraus resultierenden Möglichkeiten), ist die PS4 Aktuell die potenteste Adresse. Und könnte allgemein der Durchbruch werden, gerade weil der x86er Part so vergleichsweise schwach eignet sie sich hervorragend um die Stärken von HSA zu demonstrieren. :wink:

Klar das hat auch Grenzen und ein stärkerer x86er Part wäre trotz allem auch gerne genommen (der später einmal auf dem Desktop mit vorhanden sein wird)! Man wird in Zukunft gerade auf der PS4 noch einige Dinge erleben wo allgemein hin nur noch Staunen (und die Otto-nicht-in-der-Materie, bis dahin noch für blanke Utopie am Deklarieren).

HSA im allgemeinen, ist der nächste Schritt in der Technischen Evolution! :smile:

][immy
2014-06-15, 23:30:47
"Hauptmerkmal von HSA ist, dass die CPU-Kerne und der Grafikprozessor auf einen gemeinsamen Adressraum und Speicher (RAM) zugreifen."

-------------

PS4 ja, Xbox One eigentlich nicht.
ähm, schon wieder diese Aussage die nicht stimmt.
Die CPU könnte sogar auf den esram zugreifen, aber sollte es nicht, da sehr langsam bzw. ich glaube das wird durch das OS gesperrt, bin mir da aber nicht sicher. Eine Sperre seitens der Hardware gibt es nicht. esram und Hauptspeicher sind in einem gemeinsamen speicherbereich.
Ich weiß echt nicht was du da immer hast. Die xbone erfüllt die spezifikation voll und ganz, außer das man für die 32 zusätzlichen MB es nicht nutzen sollte.

Felixxz2
2014-06-15, 23:44:34
Das ist natürlich auch definitionssache. Muss für HSA die GPU auch Zugriff auf die CPU Caches haben und vice versa? Darf man, wie hier, einen langsamen und einen schnellen Speicher benutzen, auf den aber beide zugreifen können? Ich denke jedocj die Hauptfeatures sind der On Die Interconnect und der gemeinsame Hauptram.

hasebaer
2014-06-16, 00:00:31
Auf den DDR3 RAM können CPU und GPU kohärent zugreifen, der ESRAM ist nicht kohärent.
Es können also nur entweder CPU oder der GPU Teil der XBO APU auf diesen zugreifen und Bandbreite braucht i.d.R. eher die GPU.

Das Problem bei dem Konzept ist nicht so sehr der zusätzliche Software Aufwand ggü. der PS4, es ist schlicht das der ESRAM zu klein ist, um die Nachteile ggü. dem PS4 HUMA mit GDDR5 auszugleichen.

(bis zu) 8192MB ggü. 32MB, da nutzt es auch nichts, dass der ESRAM 15% schneller als Sonys Lösung ist.

drkohler
2014-06-16, 01:26:56
[immy;10247387']ähm, schon wieder diese Aussage die nicht stimmt.
Die CPU könnte sogar auf den esram zugreifen, aber sollte es nicht, da sehr langsam bzw. ich glaube das wird durch das OS gesperrt, bin mir da aber nicht sicher. Eine Sperre seitens der Hardware gibt es nicht. esram und Hauptspeicher sind in einem gemeinsamen speicherbereich.
Das ist aber reine Spekulation von Dir, oder?
Ich bin der Meinung dass
a) Die cpu NUR über eine Move-Engine auf das esram zugreifen kann, deshalb rät MS davon ab wegen "zu langsam".
b) Das esram (resp. Teile davon) KANN, muss aber nicht im Speicherbereich 8G liegen. Das Ganze wird durch die Page-Tables gesteuert (das ist der mysteriöse, kleinere esram-block auf dem Die).
Die ganzen Speicherzugriffe laufen in der XBox doch über eine Crossbridge ab, so können ganz esoterische Speicherbewegungen stattfinden. Z.B. die gpu macht Zugriffe auf 3 esram Blocks und den ddr3 Speicher, während simultan eine Move-Engine auf den vierten esram Block zugreift. Oder die gpu greift voll aufs esram und die cpu voll aufs ddr3 ram zu, so kommt man auf die 150GByte/s die MS so rumtrötet. Montag beginnt die ISCA2014 Konferenz, vielleicht verrät ja endlich jemand von MS was da wirklich drin liegt mit der XBox Bandbreite (die "Wir können gleichzeitig lesen und schreiben ins esram, also 2*109GB/s = 218GB/s halte ich nach wie vor für glatt gelogen).

DinosaurusRex
2014-06-16, 08:16:20
Darüber sprechen ist das eine. Konkret zu entwickeln das andere. Normalerweise wiegt man vor Entwicklungsstart ab und geht dann einen Weg.

Nochmal: ich habe noch nirgendwo explizit gesehen, dass sie zweigleisig gefahren sind. Sie erklären einfach nur Vor- und Nachteile (zum zu erklären, warum sie den Weg gegangen sind).

Sie haben ja nicht nur über die Vor- und Nachteile gesprochen, sondern auch explizit gesagt, dass sie sowas für die PS4 verwenden wollen.


Warum wäre das für 3D/VR eine besonders gute Lösung gewesen?

Wegen der hohen Bandbreite, denn davon würde mit ausreichend ROPs vor allen Dingen auch die Pixel Fillrate profitieren. Und aufgrund der niedrigen Latenz würde man die Alpha Blending Performance (ReadModifyWrite) deutlich steigern können. Sowas braucht man doch für 3D/VR, oder?

del_4901
2014-06-16, 08:43:02
Und aufgrund der niedrigen Latenz würde man die Alpha Blending Performance (ReadModifyWrite) deutlich steigern können. Sowas braucht man doch für 3D/VR, oder?Deine Gedankengaenge sind nicht so einfach zu durchschauen.

DinosaurusRex
2014-06-16, 09:10:10
War falsch? Naja, egal. Aber wenn mich jemand mit nem 3D-Center Schriftzug überm Avatar solche Sachen fragt, dann kann ich doch eigentlich nur verlieren... :lol:

robbitop
2014-06-16, 11:13:42
Sie haben ja nicht nur über die Vor- und Nachteile gesprochen, sondern auch explizit gesagt, dass sie sowas für die PS4 verwenden wollen.

Hast du eine Quelle, wo das explizit steht? Ich würde es gern mal anschauen.



Wegen der hohen Bandbreite, denn davon würde mit ausreichend ROPs vor allen Dingen auch die Pixel Fillrate profitieren. Und aufgrund der niedrigen Latenz würde man die Alpha Blending Performance (ReadModifyWrite) deutlich steigern können. Sowas braucht man doch für 3D/VR, oder?
Für 3D/VR brauchst du halt mehr Framerate. Also musst du doppelt so viele FPS erzeugen. Also brauchst du 2x so viel von allem. Nicht nur mehr ROP Leistung oder mehr Bandbreite. Geometrieleistung, Texturleistung, Aritmetik etc pp.

Iruwen
2014-06-16, 15:08:44
We’ve just launched “Mario Kart 8,” increasing our hardware sales by a factor of four.

http://blogs.seattletimes.com/brierdudley/2014/06/11/e3-nintendo-boss-on-wii-u-beating-xbox-and-playstation/

/e: keine Ahnung warum ich das hier gepostet hab, aber jetzt isses auch egal :cool:

DinosaurusRex
2014-06-16, 15:23:26
Hast du eine Quelle, wo das explizit steht? Ich würde es gern mal anschauen.

Zum Beispiel hier:


Masaaki Tsuruta, CTO of Sony Computer Entertainment, says that the company is working on a system-on-chip (SoC) for their fourth generation console which will not be called PlayStation 4. [link] The engine that powered the PS3 reportedly cost $400MM to develop; the main SoC for the new console could be the first $1bn hardware design project.

Tsuruta indicated that there is likely to be a 3D stack incorporating TSV technology in the next generation console. Sony’s target of no more than 50ms latency even for 8k x 4k resolution at 300fps, clearly points to the need for a highly integrated TSV-based package although Tsuruta warns "We will have to work with a lot of third-party partners to make these things happen."

Noting the recent difficulties that several fabs are having trying to achieve viable yields at 28nm, Tsuruta commented that he believes that these problems are now moving towards a resolution.

Quelle (http://electroiq.com/insights-from-leading-edge/2012/02/iftle-88-apple-tsv-interposer-rumors-betting-the-ranch-tsv-for-sony-ps-4-top-chip-fabricators-in-last-25-years/)

Und hier gibts das in noch längerer Länge: Quelle (http://mandetech.com/2012/01/10/sony-masaaki-tsuruta-interview/)

Ich denke damit ist das gemeint, was Cerny in Barcelona als "embedded DRAM" bezeichnet hat. Die Präsentation in Barcelona ging bei technischen Dingen ohnehin kaum ins Detail.

Da gabs ja auch noch ein paar mehr "Leaks", beispielsweise dieses Bild soll angeblich die ein alternatives PS4-APU-Design mit stacked DRAM zeigen:

http://livedoor.blogimg.jp/sag_alt/imgs/9/5/95dd2b6d.jpg

Eventuell auch totaler Blödsinn, keine Ahnung. Ich bin kein Experte.


Für 3D/VR brauchst du halt mehr Framerate. Also musst du doppelt so viele FPS erzeugen. Also brauchst du 2x so viel von allem. Nicht nur mehr ROP Leistung oder mehr Bandbreite. Geometrieleistung, Texturleistung, Aritmetik etc pp.

Aber man braucht die doppelte Render Performance doch nur dann, wenn man den 3D-Effekt mit doppelter Auflösung darstellt. Bei der PS4, beziehungsweise Morpheus, sprechen wir über zwei Mal 960x1080 und damit ist die Pixellast genauso hoch wie bei einem 1920x1080 Bild. Nach meinem Verständnis muss man nur das mehr berechnen, was sich aufgrund der leicht versetzten Sicht für Auge 1 und 2 nicht überschneidet. Also nur ein paar Prozent mehr. :confused:

Lightning
2014-06-16, 15:48:57
Nach meinem Verständnis muss man nur das mehr berechnen, was sich aufgrund der leicht versetzten Sicht für Auge 1 und 2 nicht überschneidet. Also nur ein paar Prozent mehr. :confused:

Nach meinem Verständnis geht das für richtiges 3D eben gerade nicht, oder zumindest nicht ohne weiteres. Der 3D-Effekt kommt ja gerade dadurch zustande, dass die beiden Augen die gleiche Szene aus minimal unterschiedlichen Blickwinkeln betrachten, und diese minimalen Unterschiede sind wichtig.
Da der Unterschied aber mit zunehmender Disanz geringer wird, könnte man da vielleicht etwas sparen und die Szene nur bis zu einer gewissen Distanz zweimal rendern. Ob das in der Praxis sinnvoll ist hängt aber sicher vom Szenario ab.

robbitop
2014-06-16, 16:03:12
Zum Beispiel hier:



Quelle (http://electroiq.com/insights-from-leading-edge/2012/02/iftle-88-apple-tsv-interposer-rumors-betting-the-ranch-tsv-for-sony-ps-4-top-chip-fabricators-in-last-25-years/)

Und hier gibts das in noch längerer Länge: Quelle (http://mandetech.com/2012/01/10/sony-masaaki-tsuruta-interview/)

Ich denke damit ist das gemeint, was Cerny in Barcelona als "embedded DRAM" bezeichnet hat. Die Präsentation in Barcelona ging bei technischen Dingen ohnehin kaum ins Detail.

Da gabs ja auch noch ein paar mehr "Leaks", beispielsweise dieses Bild soll angeblich die ein alternatives PS4-APU-Design mit stacked DRAM zeigen:

http://livedoor.blogimg.jp/sag_alt/imgs/9/5/95dd2b6d.jpg

Eventuell auch totaler Blödsinn, keine Ahnung. Ich bin kein Experte.
Nirgendwo wird (auch im direkten Artikel mit dem Interview) explizit gesagt, dass Sony wirklich und ernsthaft an eDRAM/eSRAM gearbeitet hat. Aber ich gebe zu, deine Quellen lassen aber durchschimmern, dass es so gewesen sein kann. Und dass man an dieser Möglichkeit gearbeitet hat oder zumindest sich mit der Realisierbarkeit beschäftigt hat. Offenbar hat man 2012 dann eingesehen, dass TSV etc. noch nicht weit genug ist und hat sich dann zum klassichen Ansatz entschieden. Aber als Fakt würde ich es nicht hinstellen. Es bleibt eine spekulative Möglichkeit - die aber nicht offiziell bestätigt wurde.

IMO ist die PS4 eine sehr gute Gesamtentscheidung und ein sehr gutes Gesamtkonzept. Wenn man Preis, Leistung und Einfachheit der HW in Betracht zieht, hat man IMO eine sehr gute Wahl getroffen.
Aus der PS3/X360 hat man finanziell eben Lehren gezogen. Ein moderner kompakter SoC mit breitem großen Speicherpool ist da eine konventionelle und gute Wahl. :up:



Aber man braucht die doppelte Render Performance doch nur dann, wenn man den 3D-Effekt mit doppelter Auflösung darstellt. Bei der PS4, beziehungsweise Morpheus, sprechen wir über zwei Mal 960x1080 und damit ist die Pixellast genauso hoch wie bei einem 1920x1080 Bild. Nach meinem Verständnis muss man nur das mehr berechnen, was sich aufgrund der leicht versetzten Sicht für Auge 1 und 2 nicht überschneidet. Also nur ein paar Prozent mehr. :confused:
Achso man halbiert die Auflösung und zeigt dafür 2 unterschiedliche Bilder an. Am Ende braucht man in dem Fall wahrscheinlich kaum mehr Leistung von irgendwas. Jeder Pixel kostet Bandbreite, Rechen- und Texturleistung. Halb so viele Pixel pro Bild senkt die Anforderungen nahezu linear. Die Framerate bleibt gleich - da kein Shutter. Ich bin mir nicht sicher, ob man die Geometrie ggf. aufgrund des verschobenen Blickwinkels z.T. redundant berechnen muss. Aber der Rest bleibt gleich.

Dafür hat man aber weniger Auflösung. Wenn einen das nicht stört, ist das ok.

DinosaurusRex
2014-06-16, 16:09:19
IMO ist die PS4 eine sehr gute Gesamtentscheidung und ein sehr gutes Gesamtkonzept.

Ja aber Interposer und 2.5D-stacked DRAM wäre viel spektakulärer gewesen. :D Naja, vllt mit der PS5...

Cerny hat in Barcelona ja gesagt, dass die derzeitige Lösung mit 8GB @ 176GB/s ohnehin die bessere sei.

dildo4u
2014-06-16, 16:10:46
Laut PCGH ist Morpheus Vergleichbar mit dem Oculus Devkit 2 scheint also gut zu funzen.

http://youtu.be/w-e1c4tbVmU

robbitop
2014-06-16, 16:23:17
Ja aber Interposer und 2.5D-stacked DRAM wäre viel spektakulärer gewesen. :D Naja, vllt mit der PS5...

Cerny hat in Barcelona ja gesagt, dass die derzeitige Lösung mit 8GB @ 176GB/s ohnehin die bessere sei.
Stacked RAM bringt dir ja nur was, wenn du auch die Rechenleistung hast, die verfügbare Bandbreite auszureizen. Für das was zum PS4 Preis möglich war, wäre es sinnfrei gewesen. :)

Wie du schon sagst: PS5.

Mandalore
2014-06-17, 12:10:05
2.5D?:confused:

Wofür steht das? Sorry, weiß echt net wofür das stehen soll...

Iruwen
2014-06-17, 13:13:19
Nur mal am Rande falls das jemand im Spieleforum nicht mitverfolgt hat: die Watch Dogs E3-Effekte sind ja mittlerweile in den Gamefiles gefunden worden und per Mod aktiviert. So sieht das dann aus:
http://imgur.com/a/QCmYD
http://imgur.com/a/1Rm31
PC Gaming Masterrace :cool:

-Changes to the default fog values
-Enabled bokeh DOF for the main cameras
-Stuttering Improvements
-E3 2012 Bloom
-Performance Improvements
-Enabled Headlight Shadows
-LoD Changes
-Reflection changes
-Added 3 new cameras to the game(closer, normal, further)
-Rain changes(High quality rain drops, properly reacting to light, etc)
-LensFlares(WIP)
-Lighting changes(TESTING AND WIP)
-Civilians density changes

Das war für Version 0.6, gibt schon mindestens 0.7. Siehe auch hier (http://www.neogaf.com/forum/showthread.php?t=838538).

/e: boah, im NeoGAF lesen verursacht echt Hirntumore...

Gipsel
2014-06-17, 13:35:12
2.5D?:confused:

Wofür steht das? Sorry, weiß echt net wofür das stehen soll...
"Stacking" nebeneinander auf einem (Si-)Interposer, also das, was man auf dem Bild links unten sieht:

http://livedoor.blogimg.jp/sag_alt/imgs/9/5/95dd2b6d.jpg

Guest83
2014-06-17, 14:47:08
Laut PCGH ist Morpheus Vergleichbar mit dem Oculus Devkit 2 scheint also gut zu funzen.

http://youtu.be/w-e1c4tbVmU
Natürlich ist es vergleichbar, sind ja beides VR-Headsets. Genauso sind ja auch Xbox One und Playstation 4 vergleichbar.

][immy
2014-06-17, 16:06:03
Hier noch mal erklärt. Scheinen dann wirklich 10% sein, obwohl ich immer dachte 2% für den Rest des Systems reserviert (z.B. Apps). http://www.eurogamer.net/articles/2014-06-17-how-the-xbox-one-gpu-reserve-unlock-actually-works


weiß man eigentlich wie viel Bandbreite Kinect hier reserviert bzw. in Beschlag genommen hat? Wäre mal interessant zu wissen. Vor allem weil es wohl zu Lasten der eh schon relativ geringen Dram Bandbreite ging. ich vermute mal nicht das Kinect hier im esram aktiv war.

dildo4u
2014-06-17, 16:07:51
Natürlich ist es vergleichbar, sind ja beides VR-Headsets. Genauso sind ja auch Xbox One und Playstation 4 vergleichbar.
Sorry ich meinte die Auflösung weil Morpheus ja spart im Gegensatz zu Oculus 2,damit die PS4 nicht zu viel zu tun hat.

DinosaurusRex
2014-06-17, 17:43:29
PC Gaming Masterrace :cool:



http://i.imgur.com/fGyXJxa.gif


;)

Guest83
2014-06-17, 18:57:08
Sorry ich meinte die Auflösung weil Morpheus ja spart im Gegensatz zu Oculus 2,damit die PS4 nicht zu viel zu tun hat.
Ist doch bekannt, dass sowohl Morpheus als auch das DK2 ein 1080p Panel verwenden. Allerdings nutzt Oculus OLED, während Sony LCD verwendet und dank Low Persistence Technologie und 75 Hertz gibt es beim DK2 auch kaum noch Schlieren, wenn man den Kopf bewegt. Das war ja neben dem Screendoor-Effekt eines der größten Probleme des DK1.

Die CV1 von Oculus wird 1440p und 90 Hertz verwenden, Sony wird bei 1080p und 60 Hertz bleiben (müssen).

DinosaurusRex
2014-06-17, 19:18:50
Laut Digital Foundry plant Sony in der finalen Version von Morpheus ebenfalls OLED einzusetzen.

Der größte Vorteil des Morpheus gegenüber dem OR, zumindest list man das aus zahlreichen Hands-On-Erfahrungen immer wieder raus, ist das präzisere und latenzärmere Tracking der Kopfbewegungen. Dieser Punkt ist elementar wichtig, um Schwindelgefühle oder gar Übelkeit vorzubeugen.

Darüber hinaus plant Sony, die auf der GDC vorgestellte Eye-Tracking-Technik zu miniaturisieren und in das Morpheus zu integrieren. Dadurch wäre sogenanntes Foveated Rendering möglich, wodurch man mit Sicherheit ne ganze Menge Rechenleistung einsparen würde. Dieser Punkt könnte tatsächlich ein Game Changer für VR werden.

Nightspider
2014-06-17, 19:30:54
Wow, von der Ey-Tracking-VR-Technik habe ich jetzt zum ersten Mal gehört.
Habe danach gegoogelt.

Also könnte Sony sogar ein 4K Panel im finalen Morpheus verbauen und dank dynamischer Auflösung würde es genauso flüssig laufen wie in 1080p am Fernseher.

Aber wie hoch ist denn der Lag zwischen Erkennung der Position der Augen und der Anpassung der Auflösung? Da darf ja auch keine Verzögerung sichtbar sein.

Guest83
2014-06-17, 19:51:45
Laut Digital Foundry plant Sony in der finalen Version von Morpheus ebenfalls OLED einzusetzen.
Das ist relativ egal, den großen Vorteil spielt OLED erst im Zusammenhang mit Low Persistence aus und das funktioniert nicht mit 60 Hertz, da hätte man Strobing.


Der größte Vorteil des Morpheus gegenüber dem OR, zumindest list man das aus zahlreichen Hands-On-Erfahrungen immer wieder raus, ist das präzisere und latenzärmere Tracking der Kopfbewegungen. Dieser Punkt ist elementar wichtig, um Schwindelgefühle oder gar Übelkeit vorzubeugen.
Sowas hab ich bisher nicht gelesen. Es gibt auch keinen technischen Grund, wieso Morpheus hier irgendeinen Vorteil haben sollte. Laut Sony geschieht das Positional Tracking mit 60 Hertz, genauso wie bei Oculus. Möglicherweise haben sie softwareseitig etwas mehr Prediction am laufen als Oculus, aber das ist ein zweischneidiges Schwert. Es kann zwar das Tracking in den meisten Fällen smoother machen, aber in ein paar Extremsituationen völlig falsch und da reißt es einem dann aus der Immersion.


Darüber hinaus plant Sony, die auf der GDC vorgestellte Eye-Tracking-Technik zu miniaturisieren und in das Morpheus zu integrieren. Dadurch wäre sogenanntes Foveated Rendering möglich, wodurch man mit Sicherheit ne ganze Menge Rechenleistung einsparen würde. Dieser Punkt könnte tatsächlich ein Game Changer für VR werden.
Das ist noch Jahre entfernt und ich bezweifle sehr, dass Sony das so gesagt hat. Da haben vielleicht manche Internetseiten wieder zuviel hinein interpretiert. Eye-Tracking ist nichts neues, Größe, Gewicht und Preis so sehr zu reduzieren, dass es für VR tauglich wird, ist die große Kunst und das wird noch eine Weile dauern.

RLZ
2014-06-17, 20:18:40
Laut Sony geschieht das Positional Tracking mit 60 Hertz, genauso wie bei Oculus.
Das wäre für beide fatal und ist auch nicht so.


Um das Rendering per Eyetracking anzupassen, braucht man absurd niedrige Latenzen, da die Augenbewegung extrem schnell ist. Da ist man noch SEHR weit weg.

Guest83
2014-06-17, 22:32:01
Das wäre für beide fatal und ist auch nicht so.
Was? Das ist absolut so. Es geht ums Positional Tracking, also das mit den bunten Lichtern bei der PS4 bzw. den LEDs bei der Rift. Die internen Sensoren (Gyroskop, Accelerometer) haben natürlich eine viel höhere Frequenz. Weiß nicht genau, aber so um die 1.000 oder 2.000 pro Sekunde.

drkohler
2014-06-17, 23:31:48
2.5D?:confused:

Wofür steht das? Sorry, weiß echt net wofür das stehen soll...Stell dir einfach vor, du musst 100 Wohnungen bauen. Das kannst du auf zwei Arten machen:
1. Du baust erst mal die Versorgung für 100 Häuser (Wasser, Strom, Wege) horizontal "unter der Erde" auf. Dann stellst du 100 Häuser hin, jedes Haus bekommt dann Zugang zu Wasser, Strom und Wegen. Wie du dein Haus einteilst, ist nach deinem Geschmack. "2.5d"
2. Du baust ein Hochhaus mit 100 Wohnungen. Jetzt musst du das Wasser, den Strom und die Wege vertikal durch dein ganzes Hochhaus ziehen, und du musst bei deiner Wohnungeinteilung die Versorgungswege beachten. "3d"

Elektronisch gesagt:
2.5d = Eine Schicht mit einem horizontalen Netzwerk von Daten- und Stromleitungen, wird als "interposer" bezeichnet. Auf diesem Interposer sind die einzelnen Chips platziert. Die Chips bestimmen die Strukturdetails des Interposers.
3d = Vertikal aufeinander gepappte individuelle Chips, oder auch ein einziger Chip mit mehreren Funktions-Ebenen. Die Leitungen müssen durch die Ebenen hindurch gehen. Die Chipdesigns müssen i.A. den Leitungsdetails angepasst werden (Wenn völlig unterschiedliche Chips aufeinander gepappt werden).
5.5d = Eine Mischung von beiden Varianten.

RLZ
2014-06-17, 23:33:51
Was? Das ist absolut so.
Nein.

Screemer
2014-06-18, 00:05:40
erleuchte uns oder hat coda noch nen account gekapert? wie ich sowas ab kann.

AwesomeSauce
2014-06-18, 00:23:57
Nein.
Doch! :D

http://www.oculusvr.com/dk2/

Gipsel
2014-06-18, 01:05:29
Nur ging es ursprünglich um das Tracking der Kopfbewegungen, und das ist schneller (läuft über die Gyros und Accelerometer), nicht um das positional tracking. :rolleyes:

Edit:
Oder um das zu verdeutlichen: Man kann die Orientierung des Kopfes recht schnell ändern (Kopf drehen und neigen), aber seine Position kann nur zusammen mit dem Oberkörper geändert werden (langsamer).

Guest83
2014-06-18, 01:38:04
Nur ging es ursprünglich um das Tracking der Kopfbewegungen, und das ist schneller (läuft über die Gyros und Accelerometer), nicht um das positional tracking. :rolleyes:
Was ist "ursprünglich"? Das ist mein Statement das er in Frage gestellt hat: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10249540&postcount=7442

Und da war ganz klar von Positional Tracking die Rede. Und dann hab ich es sogar extra nochmal definiert und er hat erneut widersprochen. Wenn er meine Aussagen zitiert und darauf antwortet, gehe ich davon aus, dass er mit mir spricht und nicht über etwas was angeblich vorher war.

DinosaurusRex
2014-06-18, 06:26:56
Apropos VR, eventuell erwartet uns in Zukunft ja sogar eine TLOU Remastered VR Edition. Anders kann ich mir Corrinne Yus Aussage nicht erklären:

http://i.imgur.com/cQCpkZm.png

Warum sonst sollte Naughty Dog mehr als 60fps anstreben? Oder machen die das nur, damit das Spiel auch in jeder erdenklichen Situation nicht unter 60fps dropt?

Corrinne scheint auf ihre Arbeit sehr stolz zu sein, aber der Arsch namens Cliffiy B hat ihr dann auf Twitter seine Meinung dazu gesagt.


http://i.imgur.com/RS9w8Zl.png
http://i.imgur.com/MXluw5X.png

Mein erster Gedanke war: "Was für ein verwöhntes Arschloch das doch ist." Ich meine, sie arbeitet in ihrem Traumberuf, den sie anscheinend richtig gut beherrscht, sie will laut eigenen Aussagen einen bleibenden Eindruck in der Branche hinterlassen und bekommt dafür auch noch einen riesigen Haufen Geld. Wo ist jetzt das Problem? Sie wird ja nicht zu dieser Arbeit gezwungen. Wenn sie es nicht möchte, dann kann sie jederzeit aufhören.

Ich habe mit 13 Jahre schwarz gearbeitet, um 04:00 Uhr aufgestanden und dann acht Stunden am Tag mit so einem hochgiftigem Verdünner Maschinenteile gereinigt und das für weniger als 400€ im Monat. Als ich meinen Zivildienst im Krankenhaus abgeleistet habe, musste ich mindestens einmal pro Monat den kompletten Samstag und den kompletten Sonntag von 06:00 Uhr bis 18:00 Uhr Schicht schieben, also 94 Stunden aufgeteilt auf zwei Wochen, Müll und Plazenta entsorgen und so eine Scheiße. Auch Weihnachten und Neujahr musste man arbeiten und an Feiertagen grundsätzlich immer eine 12-Stunden Schicht. Dafür hab ich auch nur 400€ bekommen und die ganzen Ärzte haben einen wie ein Stück Scheiße behandelt (weil die auch solche Frust-Schichten schieben müssen) und ich hab diesen beknackten Zivildienst sicher nicht freiwillig gemacht. Diese Arbeit war totaler Mist, aber irgendwer muss sie machen, denn sonst kannst du die ganzen Krankenhäuser dicht machen.

Dieser Cliffy B ist bestimmt so ein verwöhnter Sack, der in seinem ganzen Leben noch nie einen Finger krumm gemacht hat, weil er von klein auf alles von seinen Eltern in den Arsch geblasen bekommen hat. In glückliche Umstände geboren war schon seine größte Leistung. Das ist ja grundsätzlich nicht verkehrt und ein Kind kann da ja auch gar nichts zu, aber wenn solche Leute dann anfangen, die Arbeitsmoral anderer Menschen zu bewerten, dann platzt mir der Kragen. Vor allem wenn es dann auch noch darum geht, vor einem PC zu sitzen. Wir reden hier nicht über schwere, körperliche Arbeit, die deinen Körper mit der Zeit unausweichlich zermürbt, bis du dann mit 50 Jahren total geschädigt in Frührente gehen musst. Der sollte sich mal fragen, unter welchen Umständen seine Kleidung gefertigt wird oder die Elektronik in seinen Computern. Ob er da auch extra einen Tweet für abschickt? "Dear workers at Foxconn, my thoughts are with you" Natürlich nicht, denn er ist ein verdammter Heuchler.

Und das sich so ein nutzloser Lackaffe, der seit Jahren nichts weiter produziert als heiße Luft, dann auch noch in die Arbeitsmoral des womöglich besten Entwicklerstudios der Welt einmischt, schießt sowieso den Vogel ab. Nein, besser hätte er noch ein zwei Worte über Outsourcing verlieren sollen. Frei nach dem Motto: Das ist doch nicht gesund! Schick die Arbeit doch einfach in die dritte Welt... Mit so einem wie dem würde ich niemals zusammenarbeiten wollen.

Und mal ganz nebenbei: Wer jetzt als Gamer immer noch denkt, dass Entwickler einen nur abzocken wollen und grundsätzlich wie der Feind behandelt werden müssen, dass Raubkopieren legitim ist und das 9,99€ im Steam Sale der angemessene Preis für ein AAA-Game sind, der kann sich direkt neben Cliffy B stellen, denn der ist in meinen Augen keinen Deut besser. Das sind genau diese "Bringt doch eh alles nix" Nervensägen, die allen nur auf die Nüsse gehen und die niemandem etwas nutzen.

---

Das hier ist der Arbeitsplatz eines Polyphony Digital Entwicklers:

http://media.caranddriver.com/images/media/108160/theres-no-quitting-time-for-some-workers-at-polyphony-digital-the-tokyo-based-subsidiary-of-sony-computer-entertainment-that-writes-the-gran-turismo-driving-game-like-many-of-his-co-workers-game-photo-131219-s-1280x782.jpg

xxxgamerxxx
2014-06-18, 10:39:31
Corrinne scheint auf ihre Arbeit sehr stolz zu sein, aber der Arsch namens Cliffiy B hat ihr dann auf Twitter seine Meinung dazu gesagt.


Was für ein Blödsinn. Du steckst doch weder in der einen, noch in der anderen Haut. Also ich kenne niemanden, der Nächte lang auf Arbeit verbracht hat, um zu programmieren. Vielleicht hat sie es frei willig gemacht, vielleicht gab es auch Druck vom Studio, um etwas auf der E3 zu zeigen. Vielleicht auch beides. Aber man kann das nicht von jeden erwarten und Familien/Beziehungs tauglich ist das auch nicht gerade, wenn das oft passiert.

Gipsel
2014-06-18, 11:17:59
Was ist "ursprünglich"? Das ist mein Statement das er in Frage gestellt hat: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10249540&postcount=7442

Und da war ganz klar von Positional Tracking die Rede.
Ähm, nicht ganz.
Der größte Vorteil des Morpheus gegenüber dem OR, zumindest list man das aus zahlreichen Hands-On-Erfahrungen immer wieder raus, ist das präzisere und latenzärmere Tracking der Kopfbewegungen. Dieser Punkt ist elementar wichtig, um Schwindelgefühle oder gar Übelkeit vorzubeugen.Sowas hab ich bisher nicht gelesen. Es gibt auch keinen technischen Grund, wieso Morpheus hier irgendeinen Vorteil haben sollte. Laut Sony geschieht das Positional Tracking mit 60 Hertz, genauso wie bei Oculus.Du hast das positional tracking reingebracht, worum es gar nicht ging. Oder Du hat es durcheinander gebracht.

Egal. Wir können festhalten, daß die Messung der Kopfbewegungen (die von DinosaurusRex als wichtig für möglichst gute Immersion herausgestellt wurden) schneller erfolgen als mit 60 Hz.

Gipsel
2014-06-18, 11:32:51
Was für ein Blödsinn. Du steckst doch weder in der einen, noch in der anderen Haut. Also ich kenne niemanden, der Nächte lang auf Arbeit verbracht hat, um zu programmieren. Vielleicht hat sie es frei willig gemacht, vielleicht gab es auch Druck vom Studio, um etwas auf der E3 zu zeigen.Hah, daß habe ich auch schon gemacht, und ich bin kein (Spiele-)Programmierer, dessen Beruf das ist. Das war schon eher mehr Hobby als Arbeit bei mir. Die Grenzen sind da fließend, glaub' mir. Solange es Dir Spaß macht (bzw. man schlicht ehrgeizig ist), schiebst Du freiwillig Nachtschichten (bzw. 24h-Schichten) ein, wenn es nötig ist. Da muß dich keiner zu zwingen. Und es gilt natürlich nicht nur für's Programmieren.

Guest83
2014-06-18, 11:58:20
@DinosaurusRex

Und was genau stört dich nun an der Aussage von Bleszinski? Findest du es etwa gut, wenn in der Spieleindustrie Überstunden der Normalzustand sind und man in den letzten Monaten eines Projekts (oder anderer Deadline, wie eben der E3) kaum noch seine Familie sieht und keine Freizeit hat, nur weil der Publisher das so will?

Und das ist alles was Bleszinski sagt, dass er dieses Vorgehen selbst erlebt hat und diese Praktik verurteilt. Natürlich gibt es immer einzelne Leute, die das freiwillig und gerne tun (bei Valve gibt es da sogar ein eigenes logistisches System, dass Entwickler die zuviele Stunden im Office verbringen in Zwangsurlaub geschickt werden), aber in den allermeisten Fällen sind das keine passionierten Star-Entwickler, sondern ganz normale Mitarbeiter die einfach nur ihren Job behalten wollen und deshalb de facto gezwungen sind über Wochen- und Monate ihr Privatleben aufzugeben.

Du solltest dich vielleicht mehr mit der Sache seiner Kritik befassen, statt ihn persönlich zu kritisieren und zu beschimpfen.

Lordluti
2014-06-18, 12:00:36
@DinosaurusRex So muss ein Arbeitsplatz aussehen. Wie Zuhause :D http://www.youtube.com/watch?v=cMl9FfqlxEU (y)

dildo4u
2014-06-18, 13:56:47
Witcher 3 soll auf beiden Konsolen in 1080p laufen

900p resolution is CD Projekt's "minimum", Mamais said. "We will hit 900p no problem. We'd like to get it up to 1080p on Xbox One. That's our goal. Whether we can do it or not I don't know. We've got to squeeze everything we can out of the hardware.

"But we anticipate being able to do 1080p on PS4 a little bit easier than on the Xbox."

Witcher 3 on PC ultra settings adds better tessellation, more physics, more post-processing and more realistic fur, Mamais said.

By comparison, the graphics of the console versions are equivalent to high settings on PC.

http://www.eurogamer.net/articles/2014-06-18-witcher-3-e3-gameplay-demo-combat-was-deliberately-easy-cd-projekt-says

xxxgamerxxx
2014-06-18, 14:08:59
Da muß dich keiner zu zwingen. Und es gilt natürlich nicht nur für's Programmieren.

Das kannst du trotzdem nicht per Ferndiagnose für jemand anderen beurteilen. Es gibt auch Branchen, wo massive Überstunden ohne Ausgleich mehr oder weniger unter der Hand abverlangt werden. Ich habe einen Kumpel in der Werbe Branche, da ist das z.B. so. Und das sorgt auch immer für Reibereien in der Familie.

Wie auch immer, wir kennen nicht den konkreten Fall. Ich kann allerdings nichts negatives an Cliffs Aussage feststellen. Er hat halt vermutet, dass sie das wegen der E3 machen musste. Vielleicht ist es auch nicht so, wer weiß.

prinz_valium
2014-06-18, 14:49:52
Apropos VR, eventuell erwartet uns in Zukunft ja sogar eine TLOU Remastered VR Edition. Anders kann ich mir Corrinne Yus Aussage nicht erklären:

http://i.imgur.com/cQCpkZm.png

Warum sonst sollte Naughty Dog mehr als 60fps anstreben? Oder machen die das nur, damit das Spiel auch in jeder erdenklichen Situation nicht unter 60fps dropt?


ich kann mich irren, aber push past, übersetzt man normal nicht wörtlich.
also jedenfalls nicht mit mehr als 60 fps in dem fall

Nightspider
2014-06-18, 15:27:56
Witcher 3 soll auf beiden Konsolen in 1080p laufen


Witcher 3 on PC ultra settings adds better tessellation, more physics, more post-processing and more realistic fur, Mamais said.

By comparison, the graphics of the console versions are equivalent to high settings on PC.

http://www.eurogamer.net/articles/2014-06-18-witcher-3-e3-gameplay-demo-combat-was-deliberately-easy-cd-projekt-says


equivalent :ucrazy4::ulol3:

Mandalore
2014-06-18, 15:36:40
Wie weit von den Augen wird das Bild eigentlich bei Morpheus+OCR projiziert? Sollte es sehr nah sein, müsste doch 1080p ne ziemlich schlechte Sache sein, ebenso 1440p. :confused::frown:

del_4901
2014-06-18, 16:22:39
Corrinne scheint auf ihre Arbeit sehr stolz zu sein, aber der Arsch namens Cliffiy B hat ihr dann auf Twitter seine Meinung dazu gesagt.
Mein erster Gedanke war: ...
Wer Cliff kennt, der weiss dass er sehr zynisch und verspielt sein kann. Und der Zusammenhang mit der E3 macht durchaus sinn. Ich kenne einige Leute die sich durch schleche Selbsteinschaetzung in den Burn-Out getrieben haben. Ich wuerde das nicht auf die Goldwage legen und anfangen zwischen den Zeilen zu lesen. In diesen Sinne: Wir wissen jetzt du hattest ein schweres leben und trallalalala. Und auch wenn wir alle unseren Job lieben. Es gibt Tage, da ist der Job einfach nur der Job. Und am Ende des Tages ist es der Publisher, welcher mit unserer Arbeitskraft den grossen Reibach macht.

DinosaurusRex
2014-06-18, 16:38:46
In diesen Sinne: Wir wissen jetzt du hattest ein schweres leben und trallalalala.

Darum geht es überhaupt nicht.

Ich wollte damit nur sagen, dass beschissene Arbeitszeiten und strenge Deadlines bei vielen Branchen und Berufsgruppen zum Alltag gehören, in denen die Arbeit dann aber nicht das zum Beruf gemachte Hobby ist, ganz im Gegenteil, und in denen auch ganz andere Löhne gezahlt werden. Die Videospielbranche ist für viele (Zocker) ein absoluter Traum. Geh mal nach NeoGAF und frag in die Runde, ob jemand gerne an einem Videospiel mitarbeiten möchte. Da werden alle "Ich! Ich! Ich!" schreien und mit den Armen wedeln. Und nach allem was man so mitbekommt, wird man je nach Studio auch nicht gerade schlecht entlohnt. Corrinne bekommt doch sicher ein sechstelliges Jahresgehalt von Naughty Dog, oder?

Was Cliffy B da macht ist Jammern auf unglaublich hohem Niveau und sowas nervt einfach nur. Es ist ein Schlag ins Gesicht für alle, die aus wirtschaftlichen Gründen, sei es nun Familie oder andere Verpflichtungen, einem wesentlich schlechter bezahlten Beruf nachgehen, den sie eigentlich gar nicht mögen und dabei aufgrund einer vorherrschenden Konkurrenzsituation oder branchentypischem Erfolgsdruck mit ähnlichen Problemen zu tun haben, wie sie hier von Cliffy angesprochen werden. Damit will ich nicht sagen, dass ich mit so einer Situation konfrontiert bin. Es geht hier einfach nur ums Prinzip. Gerade fähige Programmierer können sich ihre Jobs (ausserhalb der Videospielbranche) doch fast schon aussuchen. Niemand wird gezwungen, bei einem AAA Game Studio anzuheuern.

del_4901
2014-06-18, 16:48:30
Corrinne bekommt doch sicher ein sechstelliges Jahresgehalt von Naughty Dog, oder? Nur in Ami-Land mit all seinen vor- und nachteilen.

Die Videospielbranche ist für viele (Zocker) ein absoluter Traum. Der sich ganz schnell wieder in Luft aufloesen kann. Ich spiel kaum noch Spiele.

Es geht hier einfach nur ums Prinzip.
Von dem du im Prinzip keine Ahnung hast. Unhealthy competition gibt es in der Branche soweit das Auge reicht. Burn-Out ist ueberdurchschnittlich haeufig, genau wie geschiedene Familien.

Gerade fähige Programmierer können sich ihre Jobs (ausserhalb der Videospielbranche) doch fast schon aussuchen. Niemand wird gezwungen, bei einem AAA Game Studio anzuheuern.Been there done that: Um dann mit unfaehigen Programmierern in einer CodeBase zu arbeiten. Da koennen SIe mir das 10 fache zahlen, das ist mir die grauen Haare nicht wert.

DinosaurusRex
2014-06-18, 16:54:07
Ich formuliere es mal anders: Wenn es dir zu viel wird, dann kannst du immer noch einen oder zwei Gänge rausnehmen und bist wirtschaftlich trotzdem abgesichert. Ob das dein Ego verkraftet, ist natürlich eine ganz andere Sache. In anderen Branchen bedeutet "einen Gang rausnehmen" direkt Hartz 4 und je nach Größe der Familie kann das eine soziale Katastrophe bedeuten.

Und nur damit wir uns richtig verstehen: Ich gönne jedem sein Kreuz und ich bin auch bereit, für jeden eine heuchlerische, kleine Träne zu verdrücken, aber ich mag es einfach nicht, wenn einige meinen, ihr Kreuz mit Diamanten verzieren zu müssen, nur damit es in der Sonne schöner glitzert.

del_4901
2014-06-18, 17:06:37
Ich formuliere es mal anders: Wenn es dir zu viel wird, dann kannst du immer noch einen oder zwei Gänge rausnehmen und bist wirtschaftlich trotzdem abgesichert. Ob das dein Ego verkraftet, ist natürlich eine ganz andere Sache. In anderen Branchen bedeutet "einen Gang rausnehmen" direkt Hartz 4 und je nach Größe der Familie kann das eine soziale Katastrophe bedeuten.
Kuendigungsfrist gibt es in Ami-Land nicht. Wenn du da nen Gang rausnimmst und dein Chef nen schlechten Tag hat, dann steht du am naechsten Tag vor verschlossener Tuere. Und mit ego hat das manchmal nicht viel tun. Gerade unter den Programmierern gibt es viele mit (hang zum) Autismus: DIe koennen entweder nur ganz oder gar nicht arbeiten. Gaenge die man da rausnehmen koennte gibt es bei denen nicht.

Coda
2014-06-18, 17:07:39
Wobei das bei Corinne jetzt eher kein Problem sein dürfte.

Iruwen
2014-06-18, 17:08:40
Ich hab mir die Tweets und die Wall of Text jetzt doch nochmal durchgelesen und kann deinen Gedankengang nicht nachvollziehen. Deine unverhohlene Aggression diesem Cliff den ich nicht kenne gegenüber mal außen vor: er greift sie doch gar nicht an. Ich lese da eher das Gegenteil raus und kann sein Statement absolut nachvollziehen. Er sagt ja auch "some do it for love", andere halt weil sie unter Druck stehen. Oder braucht man noch irgendwelche Backgroundinfos um das zu verstehen?

Coda
2014-06-18, 17:09:40
Ich finde Cliffs Aussagen da jetzt auch nicht so schlimm. Er macht sich eher Sorgen um den ganzen Crunch in der Industrie.

del_4901
2014-06-18, 17:12:49
Wobei das bei Corinne jetzt eher kein Problem sein dürfte.
Bei mir auch nicht mehr (auf holz klopf), aber dahin muss man erstmal kommen.

DinosaurusRex
2014-06-18, 17:19:17
Da haben sich die Überstunden ja gelohnt, nicht wahr?

http://asset-7.soup.io/asset/5287/7237_7a37.gif


Sorry... ;)

del_4901
2014-06-18, 17:34:49
Da haben sich die Überstunden ja gelohnt, nicht wahr?
Ich mach kaum noch Ueberstunden. Ich bin sogar eher der Arsch der immer das Maul nicht halten kann, wenn grad was gegen den Baum faehrt. Ich lag in der Vergangenheit nur zu oft richtig. und die paar mal, wo das nicht der Fall hab ich es sauber unter den Teppich kehren koennen.

Iruwen
2014-06-18, 17:47:48
So ist es richtig. Alles eine Frage der Erfahrung :D

DinosaurusRex
2014-06-18, 17:49:01
Ich bin sogar eher der Arsch der immer das Maul nicht halten kann, wenn grad was gegen den Baum faehrt.

Kommunikation ist wichtig. Allerdings kann man sich nie so wirklich sicher sein, wie die Gegenseite die Sache interpretiert.

Was meinst du denn mit "gegen den Baum fahren"? Zum Beispiel wenn man ein Projekt mit knallharter Deadline für zu viele Plattformen gleichzeitig entwickeln muss und am Ende nichts funktioniert? :naughty:

del_4901
2014-06-18, 17:51:52
So ist es richtig. Alles eine Frage der Erfahrung :D
Irgend woher muss die Reputation ja kommen... und wenn es nicht klappt hat mein Vadder immer gesagt: "Ist der Ruf erst ruiniert, lebt es ganz ungeniert" :ugly:
Kommunikation ist wichtig. Allerdings kann man sich nie so wirklich sicher sein, wie die Gegenseite die Sache interpretiert.
Es fliessen schon manchmal die Traenen, aber da muessen wir durch: "Was uns nicht umbringt macht uns staerker".

DinosaurusRex
2014-06-18, 17:54:13
Ich kann mir schon genau vorstellen, wie das dann abläuft...

http://i.imgur.com/L9Irt3R.gif

del_4901
2014-06-18, 18:05:56
Ich kann mir schon genau vorstellen, wie das dann abläuft...

http://i.imgur.com/L9Irt3R.gif
iLike!
So laeuft dass nur in Extremsituationen, wenn die beteiligten Parteien ausgesprochen Beratungsresistent sind.

Hallo
2014-06-18, 19:17:35
Hahaha... http://www.hartware.de/news_61002.html

Cinematischer Style, BS aka wir sind zu doof...


Wie gesagt in Racing Games und anderen Action Games wie Shooter die NICHT cinematisch sind sondern den Anspruch haben REALISTISCH zu sein ( was bedeutet Realität läuft nicht in schmalen 30 Frames per Second) MÜSSEN 60 endlich Standard sein...duppdidupp...Kids these days...;D Leute die 30 verteidigen haben kein Recht über VR oder Realismus zu sprechen. Ich weiss polemisch, aber wo ich Recht habe habe ich Recht;)

Zitat ausm Link: Das auch keine künstlerische Entscheidung, sondern das Eingeständnis des eigenen Scheiterns


Es gibt doch noch Leute die wissen wo oben und unten ist.

Guest83
2014-06-18, 19:26:35
Wie weit von den Augen wird das Bild eigentlich bei Morpheus+OCR projiziert? Sollte es sehr nah sein, müsste doch 1080p ne ziemlich schlechte Sache sein, ebenso 1440p. :confused::frown:
Korrekt, wir sind mit diesen Auflösungen noch ganz am Anfang von VR. Ich hab jetzt die genauen Zahlen nicht im Kopf, aber jemand hat mal durchgerechnet, dass wenn man einen Fernseher simuliert der drei Meter entfernt steht und der in der Realität 1080p hätte, hätte bei einer 1440p-Auflösung der CV1 nur 240p oder so, da er ja nur einen kleinen Teil des Sichtfelds einnimmt. Bei Morpheus und den 1080p noch entsprechend weniger.

Theoretisch könnte man natürlich eine IMAX-Leinwand simulieren und das Sichtfeld fast komplett ausfüllen (also um jetzt beim Beispiel Film zu bleiben), aber trotzdem verliert man einiges und das ist auch nicht jedermanns Sache. Die Auflösung die man heute bei Spielen (am PC) und Bluray-Filmen gewöhnt ist, wird es in den ersten Jahren von VR nicht geben.

Realistisch gesehen wird man bei bis zu 10.000 x 10.000 Pixel pro Auge deutliche Verbesserungen erkennen können, das ist also eine Auflösung die man mittelfristig anstreben muss und das setzt natürlich massive Rechenkapazitäten voraus. (Das sind fast 100 mal mehr Pixel die gerendert werden müssen als bei einer 1080p-Auflösung.) Grafikkartenhersteller wirds freuen.

Mandalore
2014-06-19, 20:31:10
Dieser ganze 60FPS-Wahn ist wirklich zum Kotzen:down::idea:

AC 4 und Watch Dogs haben beide 30FPS auf der PS4 und es läuft derart flüssig wie als wären es 60 FPS. Natürlich sind 60 FPS immer besser, aber wenn ihr (vor allem du Hallo) schon damit kommt, kann ich euch sagen, dass 120 FPS nochmals deutlich besser sind. Tja, aber es kümmert den Großteil net, lieber habe ich ne richtig hübsche Grafik wo ich staunen kann, als das ich jahrelang auf so nem schlechten Grafikniveau wie CoD mit der Quake 3 Engine bis Ghosts feststecke:facepalm::facepalm:

Guest83
2014-06-19, 22:27:48
30FPS auf der PS4 und es läuft derart flüssig wie als wären es 60 FPS
Wat :confused:

Sardaukar.nsn
2014-06-19, 22:51:57
Naja, eventuell spielt das TV-Gerät ja auch eine Rolle bei der Wahrnehmung. Ich könnte mir gut vorstellen das ein aktueller High-End Fernseher mit diversen Zwischenbildern einiges ausmacht.

THEaaron
2014-06-19, 23:21:56
Ja, so 100/200/400/1000HZ Zwischenbildberechnung die einen monströsen Input Lag verursacht. :D

Cortana
2014-06-19, 23:30:28
Dieser ganze 60FPS-Wahn ist wirklich zum Kotzen:down::idea:

AC 4 und Watch Dogs haben beide 30FPS auf der PS4 und es läuft derart flüssig wie als wären es 60 FPS. Natürlich sind 60 FPS immer besser, aber wenn ihr (vor allem du Hallo) schon damit kommt, kann ich euch sagen, dass 120 FPS nochmals deutlich besser sind. Tja, aber es kümmert den Großteil net, lieber habe ich ne richtig hübsche Grafik wo ich staunen kann, als das ich jahrelang auf so nem schlechten Grafikniveau wie CoD mit der Quake 3 Engine bis Ghosts feststecke:facepalm::facepalm:
Dazu fällt mir echt nichts mehr ein.

:uban:

Sardaukar.nsn
2014-06-19, 23:32:19
Trotzdem hat es doch Fortschritte gegeben. Aktuelle Flachbildschirme liefern doch sicher ein deutlich besseres Bild als die Modelle welche damals oft zur WM2006 bzw. mit der "neuen" PS3 zusammen gekauft wurden.

Crazy_Bon
2014-06-19, 23:40:18
Ja, so 100/200/400/1000HZ Zwischenbildberechnung die einen monströsen Input Lag verursacht. :D
Dafür gibt es einen Game-Mode, je nach Modell sind das nur noch 1-2 Frames, schlimmstenfalls 3.

Lightning
2014-06-19, 23:59:41
Trotzdem hat es doch Fortschritte gegeben. Aktuelle Flachbildschirme liefern doch sicher ein deutlich besseres Bild als die Modelle welche damals oft zur WM2006 bzw. mit der "neuen" PS3 zusammen gekauft wurden.

Aber nicht bezüglich der fps.

Dafür gibt es einen Game-Mode, je nach Modell sind das nur noch 1-2 Frames, schlimmstenfalls 3.

Und der schaltet die Zwischenbildberechnung dann ab. Sollte er zumindest.

-/\-CruNcher-/\-
2014-06-20, 00:18:34
Wobei das bei Corinne jetzt eher kein Problem sein dürfte.

Weis nicht aber ich schätze Corinne eher so ein das sie glücklicher in der R&D bei Sony, Nvidia oder AMD werden könnte :)

Ihrer Vita ist ja schon etwas ausergewöhnlich so als Wissenschaftlerin bei einer Entertainment buzze rumzudödeln sei es Gearbox, Bungie oder jetzt Naughty Dog, stell ich mir komisch vor sie ist ja weitaus mehr als eine einfache Programmiererin ;)

Wer weiss denke mal Sony wird sie jedenfalls sehr genau im Auge behalten und im I.C.E Team zu sein ist ja schonmal nicht schlecht für alle beteiligten ;)

phoenix887
2014-06-20, 01:13:37
Na 60fps fühlen sich schon anders an. Habe es selber bei Watch Dogs auf meinem TV gemerkt, da ich mit den Einstellung gespielt habe.

Aber wenn man 60fps nicht kennt, sind 30fps durchaus ok und spielbar in solchen Spielen.


Bei meinem LG wird auch die Zwischenbildberechnung ausgeschaltet im Game Mode. Aber mache das sowieso auch bei Filme auch aus. Bei Zwischenbildberechnung wird das Bild bei meinem unruhig. Ungefähr so Bildzereißer bei schnellen Kamerafahrten, wenn man ohne vsync spielt.

MarcWessels
2014-06-20, 01:59:56
Natürlich sind 60 FPS immer besser, aber wenn ihr (vor allem du Hallo) schon damit kommt, kann ich euch sagen, dass 120 FPS nochmals deutlich besser sind.Nein. In einer c't-Studie stellte sich heraus, dass der Unterschied zwischen 50fps und 60fps als doppelt so stark wahrgenommen wird, wie der Unterschied zwischen 60fps und 120fps.

Zudem kommt bei 30fps ja noch hinzu, dass die Bildwiederholrate nicht der Framerate entspricht.

Hallo
2014-06-20, 07:17:30
Dieser ganze 60FPS-Wahn ist wirklich zum Kotzen:down::idea:

AC 4 und Watch Dogs haben beide 30FPS auf der PS4 und es läuft derart flüssig wie als wären es 60 FPS. Natürlich sind 60 FPS immer besser, aber wenn ihr (vor allem du Hallo) schon damit kommt, kann ich euch sagen, dass 120 FPS nochmals deutlich besser sind. Tja, aber es kümmert den Großteil net, lieber habe ich ne richtig hübsche Grafik wo ich staunen kann, als das ich jahrelang auf so nem schlechten Grafikniveau wie CoD mit der Quake 3 Engine bis Ghosts feststecke:facepalm::facepalm:

Wer lesen kann ist klar im Vorteil. Ich habe betont das bei Games die den Anspruch haben realistisch zu sein 60 Pflicht sind. Die von dir erwähnten Games haben NICHT diesen Anspruch und können nach meiner Auffassung durchaus mit 30 laufen weil es cinematische Games sind - was ich auch schon mehr als einmal betont habe. Es gibt einen guten Grund wieso Forza auf Kosten der Grafik in 60 läuft;) Weil es vielleicht eine Simulation ist?

120 sind für die Wahrnehmung nicht wirklich besser halbieren aber den I-Lag nochmals und vermindern VOR ALLEM die Schmiererei von S+H Displays. Also perfekt für VR.


Zudem kommt bei 30fps ja noch hinzu, dass die Bildwiederholrate nicht der Framerate entspricht.

Exakt, deshalb "ruckelt" es auch.

Man kann aber 30 mit einem Trick auf einem CRT flüssig erscheinen lassen indem man den CRT auf 30Hz zwingt nur das es dann übelst flimmert.

DinosaurusRex
2014-06-20, 07:39:48
Weis nicht aber ich schätze Corinne eher so ein das sie glücklicher in der R&D bei Sony, Nvidia oder AMD werden könnte :)

Ihrer Vita ist ja schon etwas ausergewöhnlich so als Wissenschaftlerin bei einer Entertainment buzze rumzudödeln sei es Gearbox, Bungie oder jetzt Naughty Dog, stell ich mir komisch vor sie ist ja weitaus mehr als eine einfache Programmiererin ;)

Wer weiss denke mal Sony wird sie jedenfalls sehr genau im Auge behalten und im I.C.E Team zu sein ist ja schonmal nicht schlecht für alle beteiligten ;)

Glaube ich nicht. Die hat neulich auf Twitter erzählt, dass sie schon als Kind Videospiele für ihre Verwandten programmiert hat und das sie in ihrer Freizeit auch heute noch sowas macht, allerdings dann für Smartphones und Tablets. Bei Cerny ist es ja ähnlich, da hat man auch schon häufig gehört, dass der sein Talent mit Videospielen verschwendet, aber die Frage ist halt, ob solche Menschen überhaupt so gute Arbeit abliefern könnten, wenn sie nicht mit vollem Herzblut dabei sind.

Wobei ich bei Corrinne auch ehrlich gesagt nicht weiß, ob die wirklich so toll ist, wie alle immer behaupten. Sie ist weiblich und Asiatin und programmiert Videospiele. Das die bei den Hardcore Fans schnell zum Liebling aufsteigt, war von vorneherein klar. Vielleicht hat sie Naughty Dog ja auch für PR-Zwecke abgeworben? ;) Ihre Vita spricht zwar eine ziemlich deutliche Sprache, aber ich denke die großen Hersteller wissen sehr genau, dass Corrinne Yu auch eine ganze Menge Fans mitbringt. Sollte die Naughty Dog irgendwann einmal verlassen, dann hat Sony besser ein gute Erklärung parat.

SamLombardo
2014-06-20, 07:46:44
Ich sehe das wie Mandalore. Bleibt bei 30 fps und liefert dafür nen richtigen Grafiksprung! Wenn 60fps das Ziel der Entwickler sind, sind die Systemressourcen die in die grafische Qualität gesteckt werden können quasi halbiert. Darum sch... auf 60 fps. Ich will "Kinnladenmomente", Grafik zum Staunen! Das ist mir viel wichtiger als dieses "60fps um jeden Preis"

Sam

mbee
2014-06-20, 08:52:27
Amen!
Sehe ich genau so. Zudem sind konstante 30 FPS besser als schwankende 60 FPS und möglicherweise noch Tearing.

Jonas_2014
2014-06-20, 08:53:56
Amen!
Sehe ich genau so. Zudem sind konstante 30 FPS besser als schwankende 60 FPS und möglicherweise noch Tearing.

Dito. :)

Guest83
2014-06-20, 09:09:20
Ich sehe das wie Mandalore. Bleibt bei 30 fps und liefert dafür nen richtigen Grafiksprung! Wenn 60fps das Ziel der Entwickler sind, sind die Systemressourcen die in die grafische Qualität gesteckt werden können quasi halbiert. Darum sch... auf 60 fps. Ich will "Kinnladenmomente", Grafik zum Staunen! Das ist mir viel wichtiger als dieses "60fps um jeden Preis"

Sam
Wenn dir Grafik so wichtig ist, solltest du dir einen Gaming-PC kaufen/bauen. Ich kann mich allerdings erinnern, dass es jahrelang von der Konsolenfraktion hieß, dass Grafik nicht so wichtig sei und es vor allem ums Gameplay geht. Und das Gameplay profitiert von 60 FPS enorm.


Nein. In einer c't-Studie stellte sich heraus, dass der Unterschied zwischen 50fps und 60fps als doppelt so stark wahrgenommen wird, wie der Unterschied zwischen 60fps und 120fps.
Für jemanden der in dem Bereich so sensibel ist, dass er zwischen 60 und 120 FPS einen starken Unterschied sieht (solche Leute gibt es, ist aber ein relativ kleiner Prozentsatz) sind 30 FPS sowieso völlig unspielbar.

Jonas_2014
2014-06-20, 09:27:28
Wenn dir Grafik so wichtig ist, solltest du dir einen Gaming-PC kaufen/bauen. Ich kann mich allerdings erinnern, dass es jahrelang von der Konsolenfraktion hieß, dass Grafik nicht so wichtig sei und es vor allem ums Gameplay geht. Und das Gameplay profitiert von 60 FPS enorm.


Gute Grafik ist kein Alleinstellungsmerkmal des PCs. :wink:

Grafik ist schon sehr wichtig, allerdings sind Konsolenspieler weniger fixiert auf glatte Kanten als PC-Spieler.

Der Content macht den Unterschied und da werden wir mit der neuen Konsolengeneration noch sehr viele WOW-Momente erleben dürfen.

Wartet mal ab wenn Naughty Dog ihr Uncharted 4 auf den Markt bringen, wenn 343i ihr Halo 5 released. Wenn die richtigen PS4/One Only Titel kommen. Cross-Gen behindert das Ganze momentan noch...

Mit dem Speicher der neuen Konsolengen wird noch sehr viel möglich sein. Als PS3 und Xbox 360 auf den Markt kamen, war der Speicher schon sehr am Limit.

robbitop
2014-06-20, 09:40:08
Glaube ich nicht. Die hat neulich auf Twitter erzählt, dass sie schon als Kind Videospiele für ihre Verwandten programmiert hat und das sie in ihrer Freizeit auch heute noch sowas macht, allerdings dann für Smartphones und Tablets. Bei Cerny ist es ja ähnlich, da hat man auch schon häufig gehört, dass der sein Talent mit Videospielen verschwendet, aber die Frage ist halt, ob solche Menschen überhaupt so gute Arbeit abliefern könnten, wenn sie nicht mit vollem Herzblut dabei sind.

Wobei ich bei Corrinne auch ehrlich gesagt nicht weiß, ob die wirklich so toll ist, wie alle immer behaupten. Sie ist weiblich und Asiatin und programmiert Videospiele. Das die bei den Hardcore Fans schnell zum Liebling aufsteigt, war von vorneherein klar. Vielleicht hat sie Naughty Dog ja auch für PR-Zwecke abgeworben? ;) Ihre Vita spricht zwar eine ziemlich deutliche Sprache, aber ich denke die großen Hersteller wissen sehr genau, dass Corrinne Yu auch eine ganze Menge Fans mitbringt. Sollte die Naughty Dog irgendwann einmal verlassen, dann hat Sony besser ein gute Erklärung parat.
Sowas wirkt sich praktisch nicht auf Verkäufe aus. Die Minderheit informiert sich über die Dinge im Hintergrund. Die Masse kauft einfach nur Spiele, weil sie gut bewertet wurden oder weil das Cover toll aussieht. Die wissen nicht wer Corrine ist.

Auf mich (als Außenstehenden, der nur ihre Twitterposts kennt) macht sie aber auch einen Eindruck als wäre sie mit Herzblut dabei. Und wenn das der Fall ist, dann ist alles gesagt. Besser kann es doch nicht sein, wenn man das tut, was man liebt. Egal, ob es als "Verschwendung von Talent" angesehen wird oder nicht. Hoch talentierte Menschen gibt es eine ganze Menge und die großen Spieler wissen, wie man sie anlockt und sortiert. (man schaue sich mal an, wie Firmen wie Apple, Google und Co reihenweise die besten der besten Absolventen anziehen wie das Glitzern die Elstern - und dann müssen die noch tonnenweise Leute aussieben)


Der Content macht den Unterschied und da werden wir mit der neuen Konsolengeneration noch sehr viele WOW-Momente erleben dürfen.

Wartet mal ab wenn Naughty Dog ihr Uncharted 4 auf den Markt bringen, wenn 343i ihr Halo 5 released. Wenn die richtigen PS4/One Only Titel kommen. Cross-Gen behindert das Ganze momentan noch...

This :up:

Ich bin auch absoluter BQ Fetischist und würde am liebsten überall und immer echtes SG-SSAA mit mind 8 Samples und ordentlichem Downsamplingfilter haben. Am liebsten immer extrem hohe Polygonzahlen, aufwändige Shadereffekte und gestochen scharfe Texturen.

Aber: Content macht Grafik erst richtig schön. Stimmiger, schöner und gleichmäßig guter Kontent macht ein Spiel IMO auch sehr sehr schön. Ich kann auch heute noch manche SNES Spiele (z.B. Yoshis Island) oder N64 Spiele (Banjo Kazooie, Lylat Wars) oder ältere PC Spiele (Max Payne 1/2) spielen und es schön finden. Einfach weil der Content so wahnsinnig gut ist und die Grafik als solches stimmig und mit Liebe zum Detail gemacht worden ist.

Ein wesentlich neueres Far Cry 1 (die Grafikreferenz 2004-2007!!) hingegen lässt mich heute kalt.

Genau das ist es, was Naughty Dog Spiele ausmacht. Die sind einfach wunderschön. Zwar flimmert hier und da etwas oder ist nicht immer flüssig und man hat ein wenig Aliasing. Aber die Spiele sind sehr sehr stimmig und die Grafik hält idR überall das gleiche Niveau. Und sie alle sind mit Liebe zum Detail gemacht worden. Das gilt für die Jak-Serie aber auch für die Uncharted Serie und TLOU.
So gut wie von Naughty Dog auf der PS3 wurde ich sonst kaum von Spielen unterhalten. (Uncharted weckt in mir ein wenig Erinnerungen an die Indiana Jones Trilogie - sehr positiv!!).
Außerdem ist es nicht so als wären ND Spiele nicht grafisch auf der Höhe der Zeit (zum Release). Sie holen idR alles, was sie in diesem Moment vermögen, aus der Plattform, die zum Release verfügbar ist, raus.

Deshalb geht (zumindest für mich) genau diese Art von Schönheit als Spieler vor reiner Framerate, Geometrie- und Texturdetails, AA und Shadereffekten. Uncharted werde ich auch in 10 Jahren noch mit einem Grinsen auf dem Gesicht spielen können. Crysis 3, Metro etc - eher nicht. (dafür geilt die Grafikhure in mir sich im Moment daran auf :D)

DinosaurusRex
2014-06-20, 09:48:59
Wenn dir Grafik so wichtig ist, solltest du dir einen Gaming-PC kaufen/bauen. Ich kann mich allerdings erinnern, dass es jahrelang von der Konsolenfraktion hieß, dass Grafik nicht so wichtig sei und es vor allem ums Gameplay geht. Und das Gameplay profitiert von 60 FPS enorm.


Wer 2012/2013 nicht ins PC-Lager gewechselt ist, also in einer Zeit, in der der Unterschied zwischen PC-Grafik und Konsolengrafik wirklich unfassbar groß war, der wird das vermutlich auch nie mehr tun.

Ich weiß, es ist nur sehr, sehr schwer zu verstehen für dich, aber es gibt viele Millionen Menschen da draußen, die einfach keinen Bock haben auf PC Gaming, sei es nun weil sie voll auf die konsolenexklusiven Spiele abfahren, weil sie japanische Software präferieren oder weil sie ein Plug-and-Play Erlebnis suchen. Aber nur weil man sich für eine Spielkonsole entscheidet, heißt das noch lange nicht, dass man sein Recht verwirkt hat, hübschere Grafik zu fordern. Die Entwickler in diesem Forum haben es doch in den letzten Wochen und Monaten immer und immer wieder gesagt: Es ist eine Designentscheidung und wenn du Framerate aufgibst, dann kannst du ne ganze Menge mehr Grafik rausholen. Ein Uncharted 4 mit 30fps würde sicher noch einmal ein ordentliches Stück besser aussehen als das, was wir auf der E3 gezeigt bekommen haben.

Jeder hat da einen anderen Geschmack und das gilt sowohl für Zocker, als auch für Entwickler. Cort Stratton vom ICE-Team hat neulich in einem Interview sogar gesagt, dass er auch mit 720p gut leben kann, wenn im Gegenzug die Grafik bis ans absolute Maximum gepusht wird (mal stelle sich mal Uncharted 4 Grafik mit 720p30fps vor...). Weiterhin hat er gesagt, dass er auf jeden Fall Auflösung stärker präferiert als Framerate und in diesem Punkt stimme ich ihm zum Beispiel zu. Lightning hat hier ja schon mehrfach gesagt, dass er lieber 60fps in jedem Spiel hat und damit ist er einer Meinung mit einem sehr großen Teil der NeoGAF User.

Aber sollten sich jetzt alle, die Grafik präferieren, einen PC kaufen? Ganz sicher nicht und das liegt meiner Meinung nach daran, dass der visuelle Unterschied zwischen Konsolen- und PC-Spielen in erster Linie auf Unterschiede bei der Bildqualität zurückzuführen ist. Der Unterschied bei den ganzen Grafikeffekten ist in der Regel zu vernachlässigen und wenn man die kleinen Tricks der Devs ignoriert, dann sehen Konsolenspiele bei der Grafik häufig sogar noch besser aus als PC-Spiele, bspw. Infamous > Watch Dogs, The Last of Us > 99% aller PC Games der letzten Jahre, etc.

robbitop
2014-06-20, 09:52:44
Soll auch Menschen geben, die PC und Konsole besitzen. :)
Ich spiele z.B. nur die AAA Exclusives auf der Konsole.

DinosaurusRex
2014-06-20, 09:55:30
Ich zocke beides durcheinander, je nach Laune. Watch Dogs hab ich auf dem PC gespielt, BF4 auf der PS4, und so weiter. In letzter Zeit spiele ich aber fast nur noch auf meinen Handhelds (Vita + 3DS).