PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 [32] 33 34 35 36 37 38 39

Felixxz2
2013-04-13, 01:44:52
Ich mich auch, aber der durchschnittliche Konsolenbenutzer weiß gar nicht was das ist. Mit 4k hingegen kann man werben, auch wenn ordentliches AA für die Bildqualität viel entscheidender wäre. Ist aber auch egal weil die Konsolen beides nicht packen.

Ahnung und so? 4K ist 4xSSAA gegenüber 1080p, da flimmert nix mehr. Aber Hauptsache man hat mal wieder gemeckert :rolleyes:
Und stimmt natürlich, Konsolen packen von Haus aus kein AA oder 4k. Auch nicht mit 4x Titan. Ist ja immerhin ne Konsole. Wenn PCler über Konsolen reden kommen immer so absurde Dinge raus....

Iruwen
2013-04-13, 02:12:03
Ja richtig, sieht man am PC schön wie da nichts mehr flimmert. Kauf dir mal 'nen ordentlichen, dann kannste das auch selbst ausprobieren und musst nicht so 'nen Quatsch behaupten. Wenn die Zombieapocalypse kommt, geh lieber Nyquist aus dem Weg :freak:

Morale
2013-04-13, 09:52:57
Soviel zum Thema 4k Preisverfall:

"The good news is that the prospect of affordable 4K PC monitors is beginning to look realistic. A few years ago, a 4K monitor would have cost as much as $50,000 or more. At CES in January, Sharp showed off a 32-inch 4K monitor that's set to sell for nearer $5,000.
The price of pixels

That's still extremely expensive. But another order-of-magnitude drop and we're looking at $500 displays. We're on the way."

http://www.techradar.com/news/computing-components/peripherals/why-4k-ultra-high-definition-display-technology-is-great-for-the-pc-1129964
32 zoll, wollen wir zurück in die steinzeit?
:D
Ausserdem, von einer preisreduzierung auf die nächste schließen ist doch quatsch. Ist ja keine e-funktion. Oder gibts bald dann 4k displays für 50 dollar? Oder 5 oder 50 cent oder 5 cent.

Lightning
2013-04-13, 10:13:50
Das wird so laufen wie jetzt.
In 3 Jahren reicht die Power wieder nicht mehr für dann High End Details, Beleuchtung und Effekte.

Dann wird halt wieder runteschraubt.

Dieser Mythos scheint sich ja hartnäckig zu halten. Die Auflösung wurde nicht erst nach drei Jahren, und dann auch noch immer mehr zurückgeschraubt; das gab es so ziemlich von Anfang an. Auch stimmt es nicht, dass fast alle heutigen AA-Titel deutlich unter 1280x720 fallen.

Dazu mal ein Beispiel über die erfolgreichsten Titel des letzten halben Jahres:

Call of Duty: Black Ops 2: 880x720 (360), evtl. niedriger auf der PS3. Klare Sache, deutlich unter 1280x720. Aber schon CoD3 war drunter, der erste CoD-Teil zu Release der PS3 ins 2006.
Halo 4: 1280x720. Halo 3 begann mit der niedrigsten Auflösung und ohne AA. Mit Halo Reach ging es nach oben, und Halo 4 hat jetzt die vollen 1280x720.
Assassin's Creed III: 1280x720. Genau wie alle Vorgänger.
Resident Evil 6: 1280x720.
Need for Speed: Most Wanted: 1280x704. Nur haarscharf vorbei.
Forza Horizon: 1280x720, sogar mit 4xMSAA + FXAA. Das hatte noch kein Konsolenspiel zuvor.
Gears of War: Judgment: 1280x720.
God of War: Ascension: 1280x720*.
Tomb Raider: 1280x720.
BioShock Infinite: 1152x720 (360), 1152x640 (PS3). Auf der PS3 schon spürbar drunter, auf der 360 aber recht knapp dran.
Metal Gear Rising: Revengeance: 1280x720**.
Crysis 3: 1152x720 (360), 1024x720 (PS3). Genau wie bei Crysis 2. Ähnlich zu BioShock Infinite ist die PS3 im Nachteil.


Quelle: Beyond3D (http://forum.beyond3d.com/showthread.php?t=46241).
*laut Eurogamer (http://www.eurogamer.net/articles/digitalfoundry-vs-god-of-war-ascension)
**laut Eurogamer (http://www.eurogamer.net/articles/digitalfoundry-metal-gear-rising-face-off)


Der Vergleich ist nicht gültig.

Ich finde den Vergleich nicht so schlecht. Bisher gab es in jeder Konsolengeneration einen Auflösungssprung, und ich sehe nicht, warum sich das diesmal ändern sollte. Das bedeutet nun nicht, dass die 1080p immer gehalten werden, aber ganz runter auf 720p wird denke ich trotzdem kaum jemand gehen.


Ja richtig, sieht man am PC schön wie da nichts mehr flimmert. Kauf dir mal 'nen ordentlichen, dann kannste das auch selbst ausprobieren und musst nicht so 'nen Quatsch behaupten. Wenn die Zombieapocalypse kommt, geh lieber Nyquist aus dem Weg :freak:

Vielleicht kannst du erklären, was du unter ordentlichem AA verstehst, das viel entscheidender als eine um vierfach erhöhte Auflösung wäre?
Natürlich wird die Bildqualität damit nicht perfekt, aber in Zeiten von mehr schlecht als recht greifendem MSAA und Shaderflimmern ist es jeder MSAA-Lösung haushoch überlegen.

starfish
2013-04-13, 11:10:41
Ich bleib dabei:

Der normale Konsolero definiert "mehr Qualität" durch Details, Effekte etc.
Auflösung und vor allem AA interessieren den wenig.

Selbst bei den fps ist bei 30 Schluss.
Und das haben wir ja schon von einigen Entwicklern wieder gehört. (Ausser CoD Multyplayer zB.)

Im Zweifel gehen die Devs also wieder auf 720p runter als 1080p anzustreben, wenn die Leistung nicht reicht.

Allerdings sollte man da schon im Auge behalten, ob und wie groß der Sprung von der 720 zur PS4 wird.
Multititel werden dann auf die schwächere Hardware zugeschnitten.
Vermute, da geht man dann ans Limit bei 720p und die PS4 bekommt dann halt 1080p.
(Und der PC noch AA dazu. Zumindest anfänglich.)

Lightning
2013-04-13, 11:52:16
Ich bleib dabei:

Der normale Konsolero definiert "mehr Qualität" durch Details, Effekte etc.
Auflösung und vor allem AA interessieren den wenig.

Selbst bei den fps ist bei 30 Schluss.
Und das haben wir ja schon von einigen Entwicklern wieder gehört. (Ausser CoD Multyplayer zB.)

Da stimme ich ja auch soweit zu (wobei der durchschnittliche PC-Spieler auch nicht besser Bescheid weiß). Vor allem die oft niedrigen Frameraten finde ich schade.
Mir ging es nur darum, den Mythos zu widerlegen, dass die Auflösung der Konsolentitel über die Zeit immer weiter zurückgeschraubt wurde und 1280x720 kaum mehr anzutreffen sind.

Im Zweifel gehen die Devs also wieder auf 720p runter als 1080p anzustreben, wenn die Leistung nicht reicht.

Und da bin ich eben skeptisch. Bei den letzten Konsolengenerationen ist die durchschnittliche Auflösung immer deutlich nach oben gegangen. Das bedeutet natürlich nicht, dass das ein in Stein gemeißeltes Gesetz ist; es ist aber schon ein Indiz dafür, dass es wahrscheinlich wieder nach oben gehen wird.
Ich kann mich irren, aber meine Prognose ist, dass wir kaum 720p-Titel sehen werden. Abweichungen von 1080p nach unten wird es geben, aber dazwischen ist ja noch Spielraum.

Coda
2013-04-13, 12:47:24
Ahnung und so? 4K ist 4xSSAA gegenüber 1080p, da flimmert nix mehr.
Das würde nur gelten, falls du es auch auf 1080p runterrechnest. Wenn du es auf einem 4K-Display ausgibst, hast du natürlich trotzdem Flimmern.

Und selbst mit dem Downsampling auf 1080p wäre 2x2 OGSSAA nicht besonders gut.

Crazy_Bon
2013-04-13, 12:52:39
Ich kann mich irren, aber meine Prognose ist, dass wir kaum 720p-Titel sehen werden. Abweichungen von 1080p nach unten wird es geben, aber dazwischen ist ja noch Spielraum.
Full ack! Wenn man schaut wie schwach die Xenos und RSX für heutige Verhältnisse sind und fast durchgängig 720p erreichen (große Ausnahme die COD-Serie, die zumindenst auf der Xbox360 die 60fps anpeilt), dann ist der Sprung auf 1080p nicht mehr so groß (Faktor 2,25).

Felixxz2
2013-04-13, 13:37:18
Ja richtig, sieht man am PC schön wie da nichts mehr flimmert. Kauf dir mal 'nen ordentlichen, dann kannste das auch selbst ausprobieren und musst nicht so 'nen Quatsch behaupten. Wenn die Zombieapocalypse kommt, geh lieber Nyquist aus dem Weg :freak:

Kauf dir nen ordentlichen was? 4K Monitor? PC? Seriously? :freak:


Das würde nur gelten, falls du es auch auf 1080p runterrechnest. Wenn du es auf einem 4K-Display ausgibst, hast du natürlich trotzdem Flimmern.

Und selbst mit dem Downsampling auf 1080p wäre 2x2 OGSSAA nicht besonders gut.

Nö. Wenn ich zwei 55" Fernseher hab, einen mit 1080p und den anderen mit 4K, dann hab ich am 4K TV 2x2 OGSSAA gegenüber dem 1080p TV. Und die bessere Bildqualität durch die mehr Pixel obendrauf. Downsampling auf 1080p würde deutlich schlechter aussehen.

Knuddelbearli
2013-04-13, 13:45:26
kauf dir ne konsole für 500$ mit 4 Titans verbaut meint er wohl ^^

fondness
2013-04-13, 13:54:07
Das würde nur gelten, falls du es auch auf 1080p runterrechnest. Wenn du es auf einem 4K-Display ausgibst, hast du natürlich trotzdem Flimmern.

Und selbst mit dem Downsampling auf 1080p wäre 2x2 OGSSAA nicht besonders gut.

Eine höhere Abtastrate, die man dank mehr Pixel auch noch ausgeben kann, ist sogar deutlich besser als 2x2 OGSSAA mit suboptimalen Downsamplingfilter. Zumal aktuelle AA-Implementierung meist eh nicht mehr vernünftig greifen.

aufkrawall
2013-04-13, 13:59:24
Eine höhere Abtastrate, die man dank mehr Pixel auch noch ausgeben kann, ist sogar deutlich besser als 2x2 OGSSAA mit suboptimalen Downsamplingfilter.

Behauptest du jetzt einfach so.
Auf meinem 19" Monitor sehen 1080p Filme mit madVR in 720p deutlich besser aus als native 1080p@21" (weniger Rauschen, Flimmern etc.).

fondness
2013-04-13, 14:08:51
Behauptest du jetzt einfach so.
Auf meinem 19" Monitor sehen 1080p Filme mit madVR in 720p deutlich besser aus als native 1080p@21" (weniger Rauschen, Flimmern etc.).


Ein Downsampligfilter versucht das Originalsignal möglichst gut nachzubilden, es ist also nur eine Näherung. Demzufolge kann es nicht besser sein als das Originalsignal. Aber glaube doch was du willst, ich habe keine Lust mehr mich mit dir zu unterhalten.

aufkrawall
2013-04-13, 14:15:47
Ein Downsampligfilter versucht das Originalsignal möglichst gut nachzubilden, es ist also nur eine Näherung. Demzufolge kann es nicht besser sein als das Originalsignal.
Das Originalsignal ist aber leider prinzipiell kaputt, wenn es kein Mehr an Informationen zur Darstellung in Pixeln enthält.
1080p@21" sind jedenfalls bei Spielen ohne AA so gut wie überhaupt nicht ruhiger als 1280x1024@19".
Das wird mit 4k@21" auch nicht revolutionär anders sein.

fondness
2013-04-13, 14:22:24
Das Originalsignal ist aber leider prinzipiell kaputt, wenn es kein Mehr an Informationen zur Darstellung in Pixeln enthält.

Wenn die Samplefrequenz hoch genug ist dann flimmert es auch nicht. Ansonsten bringt eine höhere Abtastfrequenz definitiv Vorteile.


Das wird mit 4k@21" auch nicht revolutionär anders sein.

Doch wird es.

Tesseract
2013-04-13, 14:41:46
Das Originalsignal ist aber leider prinzipiell kaputt, wenn es kein Mehr an Informationen zur Darstellung in Pixeln enthält.

muss es auch nicht unbedingt weil die pixel viel kleiner sind. downsampling macht dann das hirn bzw. das auge.
keine ahnung in welchem abstand du da vergleichst aber ein 2560*1440@27" auf >=1m abstand flimmert subjektiv wesentlich weniger als ein 1080p@23"er mit einem abstand der in etwa das selbe sichtfeld abdeckt. noch viel extremer ist es wenn du z.B. am smartphone mit >=200 ppi mit "monitor-abstand" den citadel benchmark laufen lässt. aliasing ist da selbst mit 100% sehkraft so gut wie nicht mehr zu sehen.

Coda
2013-04-13, 16:04:22
Nö. Wenn ich zwei 55" Fernseher hab, einen mit 1080p und den anderen mit 4K, dann hab ich am 4K TV 2x2 OGSSAA gegenüber dem 1080p TV.
Hast du nur wenn du genügend weit wegsitzt, dass deine Augen wirklich nur noch die Hälfte der Auflösung wahrnehmen und damit effektiv das Resampling machen. Das sieht dann aber exakt identisch aus wie 2x2 OGSSAA auf der Entfernung.

Höhere Auflösung verhindert nunmal kein Aliasing, das ist ein Trugschluss.

aufkrawall
2013-04-13, 16:25:17
muss es auch nicht unbedingt weil die pixel viel kleiner sind.

Bei Bewegung flimmert es dann doch trotzdem, sähe also schlechter aus als niedrigere Pixeldichte mit SGSSAA.
Das Mehr an Details/Schärfe sollte man auch nicht überbewerten, das kompensiert das Flimmern bezüglich des Gesamteindrucks nicht.


downsampling macht dann das hirn bzw. das auge.
keine ahnung in welchem abstand du da vergleichst

Wieso Abstand?
Ich schaue mir gerne in hübschen Spielen etwas ganz genau an und will alle Details erkennen können bzw. muss ich in MP-Shootern eh. Da würde früher oder später dann doch wieder das Flimmern störend auffallen und sogar wahrscheinlich auch Treppen.


noch viel extremer ist es wenn du z.B. am smartphone mit >=200 ppi mit "monitor-abstand" den citadel benchmark laufen lässt. aliasing ist da selbst mit 100% sehkraft so gut wie nicht mehr zu sehen.
Das mag für Treppeneffekte gelten, aber z.B. für Specular Aliasing glaub ich das nicht.

Edit: Oder Vegetation wie in Crysis 1. Die wird mit 4k@21" ohne AA garantiert immer noch wie Sau flimmern.

fondness
2013-04-13, 16:28:20
Höhere Auflösung verhindert nunmal kein Aliasing, das ist ein Trugschluss.

Hier sitzt du einem Trugschluss auf. Aliasing entsteht wenn das kontinuierliche Originalsignal bei Übergang in den diskreten Bereich durch eine zu geringe Abtastfrequenz fälschlicherweise falsch interpretiert wird - nämlich mit einer deutlich niedrigeren Frequenz. Eine höhere Abtastfrequenz verhindert das (sofern sie hoch genug ist). Mit einer höheren Auflösung vermindert man Aliasing-Effekte also.

Coda
2013-04-13, 16:36:12
Hier sitzt du einem Trugschluss auf.
Nein, ganz sicher nicht :rolleyes: Wir haben das Thema jetzt schon zig mal durchgekaut, es stimmt einfach nicht.

Und falls du es mir nicht glaubst, vielleicht glaubst du John Carmack:
Is there a good app to demonstrate the aliasing you still get from animated wireframe rendering even on a "retina display"?


Die Auflösung, die nötig wäre um ohne Anti-Aliasing auszukommen wäre immer doppelt so hoch wie das abzutastende Signal. Das ist viel mehr als 300 DPI und sparse Multisampling ist viel viel billiger als das wahnsinnig ineffiziente Supersampling was du damit machen würdest.

Dazu kommt, dass solange du die einzelnen Pixel halbwegs wahrnehmen kannst du effektiv immer Moiré haben wirst ohne AA bei Gittermustern etc. Und da bewirkt schon 4x Multisampling Wunder.

del_4901
2013-04-13, 16:47:04
Und falls du es mir nicht glaubst, vielleicht glaubst du John Carmack:
Is there a good app to demonstrate the aliasing you still get from animated wireframe rendering even on a "retina display"?

Das liegt aber auch daran, dass die lines im wireframe modus in pixelgroesse angegeben sind, und damit auch mit der Aufloesung skaliert werden. "Vermindert" wird das aliasing (wenn man es denau nimmt) irgendwie schon. Durch die Perspektivische Projektion schiebt man die Probleme nur weiter nach hinten. (Wo es dann vom DoF aufgefressen wird :D) Dass das natuerlich fuer ein gutes Spielerlebniss noch nicht ausreichend ist, steht auf einem ganz anderen Blatt.

Coda
2013-04-13, 16:48:08
Natürlich wird es vermindert, aber das Moiré verschwindet erst, wenn du wirklich Pixel hast die du nicht mehr siehst und dein Auge damit die Farben vermischt.

Die Frage war, ob es unnötig wird mit 4K. Wird es sicher nicht.

del_4901
2013-04-13, 16:51:06
Natürlich wird es vermindert, aber das Moiré verschwindet erst, wenn du wirklich Pixel hast die du nicht mehr siehst und dein Auge damit die Farben vermischt. Natuerlich. Persoehnlich wuerde ich lieber Ausgabegeraete mit einem zufaelligen/gejittertem Pixelmuster haben. Damit Moiré im Rauschen untergeht. .... Oder wenigens 6-eckige Pixel waehren doch schon mal was.

Die Frage war, ob es unnötig wird mit 4K. Wird es sicher nicht.Kommt auf den DoF drauf an :D. Naja bei dem ganzen haarigen Renderings der letzten Zeit, wird auch der DoF nicht viel helfen.

Coda
2013-04-13, 16:52:32
Darüber hab ich auch schon nachgedacht vor einiger Zeit. Aber wie willst du Hexagonale Gitter in linearem Speicher halten? Und ich denke auch der Rasterizer wird um einiges komplexer.

Kommt auf den DoF drauf an :D. Naja bei dem ganzen haarigen Renderings der letzten Zeit, wird auch der DoF nicht viel helfen.
Wart's mal ab :)

del_4901
2013-04-13, 16:56:07
Darüber hab ich auch schon nachgedacht vor einiger Zeit. Aber wie willst du Hexagonale Gitter in linearem Speicher halten? Und ich denke auch der Rasterizer wird um einiges komplexer.
So etwa: http://www.mosaictilesupplies.com/ProductImages/lyric/HexX-SeekM.300.jpg
Ich glaube die Rasterizer koennen das schon, die koennen doch schon die Sub-Pixel Position verschieben, es wird nur nicht exposed.

Wart's mal ab :)
Ik kenn mir aus. Weiss bescheid!

fondness
2013-04-13, 17:03:58
Nein, ganz sicher nicht :rolleyes: Wir haben das Thema jetzt schon zig mal durchgekaut, es stimmt einfach nicht.

Und falls du es mir nicht glaubst, vielleicht glaubst du John Carmack:



Die Auflösung, die nötig wäre um ohne Anti-Aliasing auszukommen wäre immer doppelt so hoch wie das abzutastende Signal. Das ist viel mehr als 300 DPI und sparse Multisampling ist viel viel billiger als das wahnsinnig ineffiziente Supersampling was du damit machen würdest.

Dazu kommt, dass solange du die einzelnen Pixel halbwegs wahrnehmen kannst du effektiv immer Moiré haben wirst ohne AA bei Gittermustern etc. Und da bewirkt schon 4x Multisampling Wunder.

Das widerspricht meiner Aussage nicht. Deine Aussage war: "Höhere Auflösung verhindert nunmal kein Aliasing, das ist ein Trugschluss." Das stimmt so nicht. Es verhindert Aliasing sehr wohl. Warum das so ist habe ich oben erklärt. Natürlich schiebt man dadurch das Aliasing erst mal sozusagen nur "nach hinten", zumindest solange man nicht mit mehr als der doppelten Sigalfrequenz abtastet (Nyquist-Shannon) oder das Auge das nicht mehr wahr nimmt.

del_4901
2013-04-13, 17:11:45
Das widerspricht meiner Aussage nicht. Deine Aussage war: "Höhere Auflösung verhindert nunmal kein Aliasing, das ist ein Trugschluss." Das stimmt so nicht. Es verhindert Aliasing sehr wohl. Warum das so ist habe ich oben erklärt. Natürlich schiebt man dadurch das Aliasing erst mal sozusagen nur "nach hinten", zumindest solange man nicht mit mehr als der doppelten Sigalfrequenz abtastet (Nyquist-Shannon) oder das Auge das nicht mehr wahr nimmt. Es wird vermindert aber nicht verhindert.
Das Aliasing-Problem verschwindet deswegen noch lange nicht. Also wo ist denn nun eigentlich dein Problem bei der Sache?

fondness
2013-04-13, 17:15:52
Es wird vermindert aber nicht verhindert.
Das Aliasing-Problem verschwindet deswegen noch lange nicht. Also wo ist denn nun eigentlich dein Problem bei der Sache?

Kein Problem. :)
Ist ja im Grunde auch egal. Jedenfalls wird es auch verhindert wenn die Abtastfrequenz hoch genug ist. Siehe oben.
Klar wird dazu 4K bei weitem nicht immer reichen, es sollte allerdings schon für eine deutliche Entspannung sorgen. Das ist immerhin ein deutliche Sprung im Vergleich zu 1080p.

Coda
2013-04-13, 17:16:33
Sie ist aber nicht hoch genug. Bei weitem nicht. Vor allem nicht für Moiré.

del_4901
2013-04-13, 17:17:19
Kein Problem. :)
Ist ja im Grunde auch egal. Jedenfalls wird es auch verhindert wenn die Abtastfrequenz hoch genug ist. Siehe oben.
Durch die perspektivische Projketion geht die benoetigte Abtastfrequenz aber gegen unendlich. :eek:

fondness
2013-04-13, 17:19:51
Durch die perspektivische Projketion geht die benoetigte Abtastfrequenz aber gegen unendlich. :eek:

Da steigen dir vorher schon längst die Auge aus. :)
Ist aber auch egal, nichts für ungut.

del_4901
2013-04-13, 17:22:30
Da steigen dir vorher schon längst die Auge aus. :)
Ist aber auch egal, nichts für ungut.Heutige Bildschirme haben fixe Aufloesung, da steigen die Augen noch lange nicht aus.

fondness
2013-04-13, 17:28:24
Heutige Bildschirme haben fixe Aufloesung, da steigen die Augen noch lange nicht aus.

Das bezog sich natürlich auf einen fiktiven Monitor der das auch darstellen kann. Das war ja auch der Ursprung der Diskussion, nämlich das man mit 4K Auflösung eben wesentlich hochfrequenter abtastet.

del_4901
2013-04-13, 17:33:32
Das bezog sich natürlich auf einen fiktiven Monitor der das auch darstellen kann. Das war ja auch der Ursprung der Diskussion, nämlich das man mit 4K Auflösung eben wesentlich hochfrequenter abtastet.4K Monitore sind aber nicht fiktiv... Wir haben 3 davon. (Japan import) :D

Felixxz2
2013-04-13, 18:11:03
Hast du nur wenn du genügend weit wegsitzt, dass deine Augen wirklich nur noch die Hälfte der Auflösung wahrnehmen und damit effektiv das Resampling machen. Das sieht dann aber exakt identisch aus wie 2x2 OGSSAA auf der Entfernung.

Höhere Auflösung verhindert nunmal kein Aliasing, das ist ein Trugschluss.

Ich verstehe absolut nicht auf was du hier hinauswillst. Wenn ich einen 55" TV habe und die Auflösung vervierfache habe ich deutlich weniger Aliasing. Das kann jeder am heimischen PC nachvollziehen. Wenn ich an meinem Cinema Display 720p und 1440p vergleiche sieht man das sofort.

Das Aliasing ensteht durch eine Unterabtastung, dadurch, dass der abgetastete Wert nicht dem wirklichen Durschnitt des realen Wertes entspricht. Entweder ich sample also genauer und bilde dadurch einen besseren Durschnittswer bei meiner gegebenen Auflösung (-> AA) oder ich erhöhe die Auflösung und stelle die genaueren Samples einfach direkt dar.

Natürlich hast du Recht, dass 4K nicht genau genug ist um Aliasing zu verhindern, allerdings ist es eben im Vergleich zu 1080p deutlich genauer und erzielt somit eine Verminderung des Aliasings.

Darauf bezog sich meine Ursprungsaussage, denn 1080p mit "ordentlichem AA" ist eben nicht besser als 4K, ganz unabhängig von den Kosten auf die der zitierte Beitrag ja auch nicht einging. Vielmehr ist 4K sogar noch deutlich hochqualitativer, da es nicht nur das Aliasing bekämpft sondern auch mehr Bildinformationen wirklich darstellt und nicht nur die gemittelten Werte verbessert.

Kann man doch auch ganz easy veranschaulichen, indem man auf einem 1080p Screen ein Spiel auf 540p downsampled und dann so ausgibt und wenn man gleich 1080p ausgibt. Die richtigen 1080p werden immer besser aussehen.

Coda
2013-04-13, 22:28:13
Ich will darauf hinaus, dass 1080p selbst mit 4x Multisampling sehr wohl deutlich flimmerfreier aussieht als 4k ohne AA solang du auf dem 4K-Schirm noch einzelne Pixel wahrnehmen kannst.

Abtastung ist da zwar ungefähr die gleiche, aber der Rekonstruktionsfilter ist ein völlig anderer.

Das macht erst dann keinen Unterschied mehr, wenn du weit genug wegsitzt und du nicht mehr einzelne Pixel wahrnimmst auf dem 4K-Display. Dann brauchst du aber auch kein 4K mehr.

Lightning
2013-04-13, 23:05:54
Ich will darauf hinaus, dass 1080p selbst mit 4x Multisampling sehr wohl deutlich flimmerfreier aussieht als 4k ohne AA solang du auf dem 4K-Schirm noch einzelne Pixel wahrnehmen kannst.

In einer perfekten Welt, in der es nur gutartigen Content gibt (keine flimmernden Texturen oder Shader) und MSAA überall vernünftig greift, magst du recht haben.
Die Realität sieht aber doch leider meist völlig anders aus. Kantenflimmern oder Moire sind da oft noch das geringste Problem, und daher wirkt MSAA einfach viel zu selektiv. Eine hohe Auflösung macht AA nicht obsolet, wirkt aber wenigstens gleichmäßig auf das komplette Bild und erzeugt so einen homogeneren Bildeindruck. Finde ich zumindest. Gilt natürlich auch oder erst recht für SSAA.

Das macht erst dann keinen Unterschied mehr, wenn du weit genug wegsitzt und du nicht mehr einzelne Pixel wahrnimmst auf dem 4K-Display. Dann brauchst du aber auch kein 4K mehr.

Bei einem 4K-Display ist der Abstand, ab dem man keine einzelnen Pixel mehr wahrnimmt, aber geringer (bei gleicher Displaygröße versteht sich).

aufkrawall
2013-04-13, 23:11:40
In einer perfekten Welt, in der es nur gutartigen Content gibt (keine flimmernden Texturen oder Shader) und MSAA überall vernünftig greift, magst du recht haben.
Die Realität sieht aber doch leider meist völlig anders aus. Kantenflimmern oder Moire sind da oft noch das geringste Problem, und daher wirkt MSAA einfach viel zu selektiv. Eine hohe Auflösung macht AA nicht obsolet, wirkt aber wenigstens gleichmäßig auf das komplette Bild und erzeugt so einen homogeneren Bildeindruck. Finde ich zumindest. Gilt natürlich auch oder erst recht für SSAA.

4k als hacky "Lösung" für Deferred Rendering?
Find ich arm. :(
Dann doch lieber SGSSAA per Frickel-Bits (hoffentlich irgendwann mal).

Hat btw. alles nichts mehr mit Konsolen zu tun, da läuft höchstens Tetris in 4k.

Coda
2013-04-13, 23:20:07
In einer perfekten Welt, in der es nur gutartigen Content gibt (keine flimmernden Texturen oder Shader) und MSAA überall vernünftig greift, magst du recht haben.
Die Realität sieht aber doch leider meist völlig anders aus. Kantenflimmern oder Moire sind da oft noch das geringste Problem, und daher wirkt MSAA einfach viel zu selektiv. Eine hohe Auflösung macht AA nicht obsolet, wirkt aber wenigstens gleichmäßig auf das komplette Bild und erzeugt so einen homogeneren Bildeindruck. Finde ich zumindest. Gilt natürlich auch oder erst recht für SSAA.
Das Shadergeflimmer haben wir nächste Generation los. Das ist kein ungelöstes Problem, da hat's nur an der Rechenleistung gefehlt.

Bei einem 4K-Display ist der Abstand, ab dem man keine einzelnen Pixel mehr wahrnimmt, aber geringer (bei gleicher Displaygröße versteht sich).
Nochmal: Was willst du dann überhaupt nocht mit 4k? Dann ist deine Framerate 1/4 ohne irgendwelchen guten Grund.

Lightning
2013-04-14, 00:19:07
4k als hacky "Lösung" für Deferred Rendering?
Find ich arm. :(
Dann doch lieber SGSSAA per Frickel-Bits (hoffentlich irgendwann mal).

Nein, ich schlage das natürlich nicht als Lösung vor. Die Diskussion entstammte ja nur einem Gedankenspiel, "was wäre, wenn".

Hat btw. alles nichts mehr mit Konsolen zu tun, da läuft höchstens Tetris in 4k.

Nein, höchstens Pong. (WTF?)

Das Shadergeflimmer haben wir nächste Generation los. Das ist kein ungelöstes Problem, da hat's nur an der Rechenleistung gefehlt.

Gut, hoffen wir mal das beste. Wird es deiner Einschätzung nach denn auch wieder besseren MSAA-Support geben?

Nochmal: Was willst du dann überhaupt nocht mit 4k? Dann ist deine Framerate 1/4 ohne irgendwelchen guten Grund.

Will ich wie gesagt gar nicht. Natürlich ist 4K ineffizient und kein besonders eleganter Weg, Rechenleistung zu verballern.
Es stand halt nur die hypothetische Frage im Raum, was besser aussähe: 1080p mit "ordentlichem" AA (worunter ich jetzt einfach mal MSAA oder Post-Processing verstanden habe), oder 4K ohne AA. Und da war eben meine Meinung, dass 4K besser aussieht, zumindest in den meisten heutigen Spielen.

00-Schneider
2013-04-14, 00:24:34
Es stand halt nur die hypothetische Frage im Raum, was besser aussähe: 1080p mit "ordentlichem" AA (worunter ich jetzt einfach mal MSAA oder Post-Processing verstanden habe), oder 4K ohne AA. Und da war eben meine Meinung, dass 4K besser aussieht, zumindest in den meisten heutigen Spielen.


Natürlich sieht 4K besser aus, aber mit einem unsäglichem Kosten/Nutzen-Faktor, als dass man es überhaupt in Betracht ziehen sollte zu nutzen. (Bei Spielen zumindest)

---------------------------------------

Neuer Digital Foundry Artikel hat auch was mit 4K zu tun:

http://www.eurogamer.net/articles/digitalfoundry-vs-the-ultimate-gaming-pc

Tesseract
2013-04-14, 01:55:16
Bei Bewegung flimmert es dann doch trotzdem, sähe also schlechter aus als niedrigere Pixeldichte mit SGSSAA.
aber wirklich nicht. die frequenzen sind natürlich etwas höher weil es nicht runtergematscht wird, dafür fehlt auch detail und das restflimmern besteht aus punktuellem "rauschen" und nichtmehr aus fetten, als flächig sichtbaren pixel die rumtanzen.
je nach content wird mal das eine, mal das andere vorteile haben aber wenn ich die wahl hätte würde ich IMMER 4k vorziehen.

probier es doch einfach am smartphone aus und sag mir wo du da bei so hohen pixeldichten flimmern sehen willst. wenn sich die artefakte über eine ganze fläche verteilen (z.B. bei einem ungünstig im raster liegenden gitter) sieht man das natürlich aber pixeltreppen, aliasing auf specular highlights und solche dinge verschwinden fast vollständig und gehen im viel höheren detailreichtum total unter.

Natürlich ist 4K ineffizient und kein besonders eleganter Weg, Rechenleistung zu verballern.
so lange man die höhere auflösung tatsächlich sehen kann ist auflösung nicht ineffizient. man könnte vielleicht überlegen nicht für jedes pixel die ganze farbinformation zu berechnen sondern nur helligkeiten aber abgesehen davon ist auflösung durch nichts zu ersetzen.

del_4901
2013-04-14, 05:06:39
Jain, man muss da sehr wohl differenzieren. Die hoehere Aufloesung bringt einem nichts wenn man trotzdem "Jaggies" Kanten hat. Unser Gehirn reagiert da sehr empfindlich drauf. Mit Antialiasing bekommt man flisendere Uebergaenge, da reagiert unser Gehirn nicht so empfindlich drauf. Rein technisch gesehen mag kein Unterschied bestehen, aber unser Gehirn ist nicht "technisch".

aufkrawall
2013-04-14, 10:20:02
probier es doch einfach am smartphone aus und sag mir wo du da bei so hohen pixeldichten flimmern sehen willst. wenn sich die artefakte über eine ganze fläche verteilen (z.B. bei einem ungünstig im raster liegenden gitter) sieht man das natürlich aber pixeltreppen, aliasing auf specular highlights und solche dinge verschwinden fast vollständig und gehen im viel höheren detailreichtum total unter.

Ich habe es schon auf einem Galaxy W (wohl 250ppi) gesehen. Da lief irgendeine UE3-Demo/Shooter, wo es z.B. Gitterstäbe gab, auf denen Specular Highlights waren: Die haben übelst geflimmert, daran hat auch der Augenabstand nicht wirklich was geändert.
Bei der Citadel Demo war es anders, hat halt weniger Flimmershader. Es kommt dann, wie schon gesagt, auch stark auf den Content an.

Das Teil hat ne üble Texturfilterung, btw. :freak:

fondness
2013-04-14, 11:14:28
Nochmal: Was willst du dann überhaupt nocht mit 4k? Dann ist deine Framerate 1/4 ohne irgendwelchen guten Grund.

Genau so gut könnte man behaupten: Was willst du mit 1080p, da ist deine Framerate nur 1/4 von 540p ohne irgendwelchen Grund. Die Auflösung stagniert seit Jahren, dabei wird der Content immer hochfrequenter. Es ist höchste Zeit die Abtastraten und damit die Auflösung zu erhöhen. Heute braucht man fast schon 8xSSAA um noch ein flimmerfreies Bild zu bekommen - und selbst das greift dann meist nicht überall.

Herr Doktor Klöbner
2013-04-14, 11:24:52
Ich finde diese Diskussion in Zusammenhang mit den Next-Gen Konsolen fruchtlos.

Ich denke Starttitel auf der PS4 werden in 1080p kommen mit bestenfalls 2xMSAA, grafisch aufwendigere Folgetitel ohne AA, und irgendwann werden die Entwickler wieder über 720p bei 30 FPS nachdenken wenn die Kiste aus dem letzten Loch pfeift.

Sich über flimmernde Kanten aufzuregen ist ein PC-Spieler Problem, 95% der Konsolenspieler hält so etwas für gottgegeben und macht sich da keinen Kopf.

Bevor ich Details reduziere oder die Framerate zu niedrig wird ist bei mir auch am PC eher das AA deaktiviert, im Notfall setze ich meine Brille ab, Kurzsichtigkeit ist ein extrem effektiver Filter.

Coda
2013-04-14, 12:41:38
Genau so gut könnte man behaupten: Was willst du mit 1080p, da ist deine Framerate nur 1/4 von 540p ohne irgendwelchen Grund.
Blödsinn, natürlich will man die höhere Auflösung wenn man die Pixel auch sehen kann. Man sieht schließlich mehr Details.

Es löst aber nicht das Aliasing-Problem, wie du behauptest. 1080p mit 4xSGSSAA flimmert was Geometrie angeht weniger als 4k ohne AA.

Es ist höchste Zeit die Abtastraten und damit die Auflösung zu erhöhen.
Abtastrate und Auflösung ist nicht das gleiche. Und du hörst mir nicht zu, das Aliasing-Problem muss man nicht mit Abtastrate erschlagen. Das ist die ineffizienteste Lösung überhaupt.

Die Rechenleistung die du damit verschwendest lässt sich wesentlich sinnvoller einsetzen.

Nightspider
2013-04-14, 17:37:35
Es hätten aber trotzdem viele lieber 4K ohne AA als 2K mit 4xSGSSAA.

Das Bild ist einfach schärfer. Un ob jetzt die winzigen Pixel hier und da etwas flimmern ist weniger relevant als wenn große, gut sichtbare, einzelne Pixel flimmern.

Aber man kann bei 4K ja auch immer noch billiges 2xMSAA oder eben ein FSAA/FXAA zuschalten.

Ich finde es zumindest gut das man bei entsprechendem HighestEnd PCs für das passende Kleingeld mittlerweile in 4K Zocken kann und es auch bald 4K Bildschirme gibt.

Hier im Forum gibt es schließlich auch schon paar Freaks, die in 4K DS zocken, dank Titan SLI /T-SLI.

aufkrawall
2013-04-14, 18:15:44
Es hätten aber trotzdem viele lieber 4K ohne AA als 2K mit 4xSGSSAA.
Es kennt doch so gut wie niemand den Vergleich, da sind solche Äußerungen unqualifiziert.

drexsack
2013-04-14, 18:21:44
Wenn ich mir die Diskussonen hier so durchlese, frage ich mich ernsthaft, wer von euch hier überhaupt Konsole spielt. Eure Diskussionen liegen so kilometerweit neben der Realität und den Ansprüchen der durchschnittlichen Konsoleros, das es schon ne gewisse Komik aufweist.

ndrs
2013-04-14, 18:36:48
Un ob jetzt die winzigen Pixel hier und da etwas flimmern ist weniger relevant als wenn große, gut sichtbare, einzelne Pixel flimmern.
Ich denke doch, dass das Geschmackssache ist und das jeder für sich entscheiden sollte.
Abgesehen davon, ist das hier schon seitenweise OT und sollte definitiv ausgelagert werden.

Crazy_Bon
2013-04-14, 18:38:26
Wenn PCler sich über Konsolen unterhalten, dann kommt nur technischer Kram raus.

Nightspider
2013-04-14, 18:44:28
Es kennt doch so gut wie niemand den Vergleich, da sind solche Äußerungen unqualifiziert.

"Viele" Bezog sich auf den Anteil der Leute, die bereits Erfahrungen in dem Bereich gemacht haben.

Wenn PCler sich über Konsolen unterhalten, dann kommt nur technischer Kram raus.

Schuldig im Sinne der Anklage.

Tesseract
2013-04-14, 18:50:23
Es kennt doch so gut wie niemand den Vergleich, da sind solche Äußerungen unqualifiziert.
änder die entfernung zum monitor, dann hast du den vergleich. einfache anwendung des strahlensatzes, vorausgesetzt du hast keine, oder wenn, eine ordentlich korrigierte sehschwäche. mache ich seit jahren so um eine höhere subjektive pixeldichte nutzen zu können als zum jeweiligen zeitpunkt "eigentlich" verfügbar war.

abgesehen davon gibt es im laptopbereich schon länger schirme mit höherer ppi und seit einiger zeit auch auf tablets und smartphones.

boxleitnerb
2013-04-14, 19:11:57
"Viele" Bezog sich auf den Anteil der Leute, die bereits Erfahrungen in dem Bereich gemacht haben.


Das geht mangels 4K-Display gar nicht. Und nein, Downsampling ist nicht dasselbe.

Felixxz2
2013-04-14, 19:45:33
Garnicht sinnlos, das lässt sich erstens wunderbar an bestehenden Auflösungen zeigen und zweitens auch auf die Frage 720p + billiges AA oder 1080p ohne AA bei den neuen Konsolen übertragen. Hier wäre MIR natürlich auch 1080p ohne AA lieber. Finde sowieso, dass MS/Sony 1080p und 16xAF zur Pflicht mschen sollten. Das mag meine vertechnisierte PC Spieler Ansicht sein, aber ich würde mir schon lange strengere Qualitätsvorgaben auch im PC Bereich wünschen. Wäre sogar für vorgeschriebenes SSAA in DirectX für Max Details, das hätte psychologische Vorteile.

Tesseract
2013-04-14, 19:51:19
Wäre sogar für vorgeschriebenes SSAA in DirectX für Max Details, das hätte psychologische Vorteile.

SSAA ist ineffizient, warum sollte man das vorschreiben?

boxleitnerb
2013-04-14, 19:52:25
720p ist ja auch zu wenig für die üblichen TV-Größen. Das sieht dann durch die Interpolation nicht nur pixelig, sondern auch matschig aus. Kein Vergleich zum Thema 1080p + gescheites AA vs 4K ohne AA. Da stinkt letzteres einfach nur ab, solange der Content nicht einen Quantensprung nach vorne macht - die Frage können wir in 10 Jahren erörtern.

Zum Thema SSAA:
Solange OGSSAA gemeint ist, ja, das ist sehr ineffizient. Bei SGSSAA sieht es deutlich anders aus. Gescheit implementiert in Hardware und Software kostet es 40-50% vs kein AA und bügelt das Bild nahezu perfekt glatt.

Tesseract
2013-04-14, 20:00:55
Zum Thema SSAA:
Solange OGSSAA gemeint ist, ja, das ist sehr ineffizient. Bei SGSSAA sieht es deutlich anders aus. Gescheit implementiert in Hardware und Software kostet es 40% und bügelt das Bild nahezu perfekt glatt.

auch SGSSAA ist ineffizient - es gibt keinen grund warum man supersampling brauchen sollte. löst man die unterabtastungsprobleme dort wo sie entstehen ist es wesentlich effizienter als mit SS über die symptome zu bügeln. wenn ein shader flimmert, den shader umschreiben. wenn geometrie flimmert, multisample- bzw. coverage-lösungen nehmen. wenn texturen flimmern, bessere textursamples berechnen.

boxleitnerb
2013-04-14, 20:03:29
Das stimmt, aber es ist total unrealistisch. Dazu müssten ALLE Entwickler ihre Arbeit gescheit machen, und das ist leider nicht möglich. Ob aus Desinteresse, Unwissenheit oder Zeit- und finanziellem Druck, ist dabei egal. Daher finde ich es immer besser, wenn es an dem einen Punkt, wo alles zusammenläuft, erschlagen wird, nämlich auf der GPU.

Coda
2013-04-14, 20:24:26
Es ist nicht unrealistisch.

boxleitnerb
2013-04-14, 20:31:03
Warum? Wie willst du Hunderte von Entwicklerteams dazu bringen, sich an bestimmte Regeln zu halten? Was soll sich da plötzlich ändern?

oids
2013-04-14, 20:37:39
Die fähigen Entwickler werden rulen,die Unfähigen untergehen :biggrin:

schreiber
2013-04-14, 20:44:44
Die fähigen Entwickler werden rulen,die Unfähigen untergehen :biggrin:
Entwickler sollten sich ja auch entwickeln. Sagt der Name ja schon. ^^
Zeit bleibt nicht stehen und Grafik hat immer wieder seine Fortschritte gezeigt, auch wenn es etwas dauert.

aufkrawall
2013-04-14, 20:53:09
Warum? Wie willst du Hunderte von Entwicklerteams dazu bringen, sich an bestimmte Regeln zu halten? Was soll sich da plötzlich ändern?
Zumal die Entwickler bisher gescheites AA ja auch einen Sch... gekümmert hat, von Konsolen gar nicht zu reden.

Gegen Kantenflimmern, selbst bei unkritischen Texturen, kommt man ohne Höherabtastung doch auch nicht weiter. Bei der derzeitigen Pixeldichte/Auflösung sehen Texturen ohne SSAA auch nicht unbedingt geil aus.

So gesehen ist SGSSAA eigentlich nicht teuer.

Felixxz2
2013-04-14, 21:05:49
Ineffizient im Bezug auf den erreichten BQ-Grad ist SGSSAA keineswegs. Deine genannten Alternativvorschläge könnte man natürlich genauso zu rate ziehen. Letztlich würde ich mir nur bei Konsolen UND PC einen "Standardglättegrad" des Bildes wünschen, bei den neuen Konsolen eben 1080p + 16xAF und am PC 2x/4xSGSSAA und 16xAF. Das würde mMn die Grafik entschieden weiterbringen, da man dann endlich mal eine vernünftige BQ Grundlage für die Grafik hätte und nicht wie aktuelle, an PC wie Konsole, gute Grafik durch schlechte Grundqualität (LoD, DoF, Flimmern) erkauft. Für mich leidet da die Immersion viel mehr als wenn dann dafür Shader/Geometrie/Texturen fehlen.

Ein Großteil des realistischen Eindrucks bei CGI in Filmen kommt doch daher, dass die CGIs schön glatt sind. Obwohl man sie oft als CGIs erkennt, fügen sie sich doch gut ins realistische Gesamtbild ein.

Aber zumindest am PC kommt man dem in Zukunft duch nen 4K Monitor näher....ineffizient aber geil :freak:

Tesseract
2013-04-14, 21:37:59
Ineffizient im Bezug auf den erreichten BQ-Grad ist SGSSAA keineswegs.

doch und genau das ist der punkt. wäre SGSSAA vorgeschrieben müsste man an anderen stellen einsparen und käme am ende auf eine geringere gesamtqualität.
das budget kann man anders besser nutzen, auch dann wenn möglichst wenig flimmern das ziel ist.
es hat schon einen grund warum man heute 16xAF mit trilinearem mipmapping verwendet und nicht drölfzigfach supersampling in kombination mit nearest neighbor.

außerdem gibt es in der echtzeit-3D-grafik mehr als nur eine baustelle. CGI in filmen sieht nicht nur deswegen so homogen aus weil alles glatt ist sondern weil man z.B. die performance für ordentliche beleuchtungssysteme hat und nicht so viel erschummeln muss. gegen eine minderwertige beleuchtung hilft dir auch supersampling nicht bzw. nur sehr sehr eingeschänkt, je nach fall.

Felixxz2
2013-04-14, 22:48:33
Nö, ich hätte es persönlich lieber, wenn Games standardmäßig auf der Stufe von 4xSGSSAA wären und dafür grafisch schlechter. Ob du die Glättungsstufe auch anders erreichen kannst, ist doch garnicht der Punkt.

Und AF: AF kommt doch aus einer Zeit, in der MSAA neu war? Und erst in den letzten Jahren hat man diesen mathematischen "Vollausbau" von AF mit 16x Filterung, ohne Optimierungen und mit triliniarem Mipmapping bei annehmbarer Performance erreicht? mMn ganz schlechtes Beispiel.

Coda
2013-04-14, 23:10:18
Nö, ich hätte es persönlich lieber, wenn Games standardmäßig auf der Stufe von 4xSGSSAA wären und dafür grafisch schlechter.
Mit ordentlichen Shadern erreichst du dieses Qualität auch mit 4xMSAA. Du hast nicht verstanden was er dir mitteilen will.

Felixxz2
2013-04-14, 23:18:33
Ich glaub eher umgekehrt. Von mir aus auch mit ordentlichen Shadern, aber in der selben Qualität. Und die gibt es IMO nicht standardmäßig. Und per Treiber funktioniert nicht immer und wenn, sprengt es oft das Performancebudget.

Kurz: Mir völlig Wumpe wie man es erreicht, ich hätte aber gern standardmäßig und von mir aus auch auf Kosten der Grafik schön glatte Bilder.

boxleitnerb
2013-04-14, 23:18:40
Und wer garantiert, dass jeder Shader ordentlich geschrieben wird? Das ist ja das Problem. Oft wird sich gar nicht Mühe gegeben, sondern einfach SSAA drübergebügelt vom Spiel, siehe Tomb Raider oder Sleeping Dogs.
Übrigens ist selbst Crysis 3 in dieser Hinsicht nicht optimal. Mehr als einmal habe ich Stellen gefunden wo es geflimmert hat, und da hat kein einziger AA-Modus, der auswählbar war, sei es mit einer oder zwei GPUs, wirklich alles geglättet.

Coda
2013-04-14, 23:30:03
Und wer garantiert, dass jeder Shader ordentlich geschrieben wird?
Nochmal: Das ist ein gelöstes Problem, aber Current-Gen-Kackkonsolen sind dafür nicht schnell genug.

Und weil du die immer mitunterstützen musst, ist halt auch auf dem PC das Shading immer noch garstig. Wir benutzen zur Zeit im wesentlichen immer noch den Doom-3-Schrott.

Unselektives Supersampling ist einfach komplette Verschwendung an Rechenzeit.

boxleitnerb
2013-04-14, 23:33:51
Könntest du das bitte noch näher erläutern? Warum spielt die Performance eine so große Rolle?

Coda
2013-04-14, 23:35:02
Weil man einfach nicht die Zeit hat mehr zu machen als zwei dumme Dot-Products für Blinn-Phong für das Shading auf den Mühlen und dann auch noch die Normal-Maps einfach durch den normalen Mipfilter lässt. Das ist einfach eine groteske Approximation.

Deshalb flimmert alles was Specular hat wie sau.

Felixxz2
2013-04-14, 23:43:20
Na dann passts doch. Mir gings ja nicht ums SGSSAA, sondern um die BQ.

Kann man also in der Next-Gen flimmerärmere Spiele erwarten?

Exxtreme
2013-04-14, 23:45:40
Unselektives Supersampling ist einfach komplette Verschwendung an Rechenzeit.
Dafür aber sehr universell und man braucht sich keine Sorgen zu machen, dass Haste-nicht-gesehen-neuer-Technikschnickschnack nicht geglättet wird weil MSAA mal wieder nicht greift.

Coda
2013-04-14, 23:55:45
Na dann passts doch. Mir gings ja nicht ums SGSSAA, sondern um die BQ.

Kann man also in der Next-Gen flimmerärmere Spiele erwarten?
Meiner Meinung nach ja. Wenn die Gesamtqualität steigt würde das wie es im Moment ist einfach zu sehr herausstechen.

del_4901
2013-04-14, 23:56:27
Und wer garantiert, dass jeder Shader ordentlich geschrieben wird? "Physically Based Shading" ist das Zauberwort.



Soviele Facepalms die letzen Seiten... ich bekomm schon ne blaue Stirn.

Iruwen
2013-04-15, 20:46:27
http://www.4players.de/4players.php/spielinfonews/PlayStation4/34337/2131061/PlayStation_4%7CDie_Konsole_pustet_jeden_ernst_zu_nehmenden_Computer_weg.html
:D

oids
2013-04-15, 21:10:22
Klar Aussage von AMD dem Chiplieferanten der Konsolen :freak:

Nvidia sagt genau das Gegenteil :biggrin:

Knuddelbearli
2013-04-15, 21:42:09
une bdeid dürften recht behalten

NV vergleicht nur Rohdaten

AMD vergleicht das Erlebnis an sich

oids
2013-04-15, 21:55:12
Was meinst mit Ergebnis ansich?

Das hier?: “......Am Ende dürfte die höhere Leistungsfähigkeit der NextGen-Konsolen XBOX 720 sowie Playstation 4 wohl recht schnell wieder aufgezehrt sein.

– und im Gegensatz zur aktuellen Konsolengeneration verfügen die NextGen-Konsolen nicht über wirklich gute CPU-Konstruktionen, die dann noch viel herausretten können.

Daß die NextGen-Konsolen den PC wieder ausbremsen wie aktuell zu sehen, sollte zwar in absehbarer Zeit nicht passieren – aber es dürfte sich schnell wieder die Situation entwickeln, wo die beste Grafikqualität nur unter dem PC verfügbar ist, nicht aber den Konsolen (auch nicht den NextGen-Konsolen).

Dafür ist der Hardware-Ansatz der NextGen-Konsolen einfach zu mittelprächtig, um den PC effektiv von seiner Führungsrolle abzuhalten.”


Quelle:3DCenter

Knuddelbearli
2013-04-15, 22:03:08
Erlebnis nicht Ergebnis

das was der Spieler mitbekommt, inkl konsolenoptimierungen für mehr Leistung das die spiele eh nur mit 30 fps laufen ( wodurch wieder mehr Leistung frei wird ) usw

und was willst du mit 4k ...

Zeig mir bitte einen 800€ PC der aktuelle ( also nichtmal next gen ) spiele in 4k aufm TV bringt ...

und 800€ ist schon das doppelte von dem was die Konsolen vermutlich kosten werden

Knuddelbearli
2013-04-15, 22:43:10
also ich würde stabile 30 fps auch auf dem pc für bessere optik opfern

spiele aber auch keien rennspiele oder shooter

rensspiele ahben auch auf konsolen oft 60fps, und shooter fühlen sich schon aufgrund der steuerung zäh an da merkt man vond en 30 fps auch kaum was



und deiner Glaubwürdigkeit nützt es nichts wenn du dauernd die Argumente wechselst wie Unterhosen, vorher war es die miese leistung jetzt plötzlich soll man doch ne apssive graka verbauen ^^

boxleitnerb
2013-04-15, 22:50:26
Shooter mit 30 fps sind unspielbar, jedenfalls aus 1st Person Perspektive. Klar ist die Steuerung bei 30 fps zäh, wie soll es auch anders sein.
Ich würde die neuen Konsolen nicht so hypen, erstmal abwarten was daraus letztendlich wird. Nachher ist man nur wieder enttäuscht, wenn dasselbe Ergebnis zu Release mit einem Mittelklasse-PC erreichbar ist und mit 20nm dann der PC wieder vorne liegt.

Finch
2013-04-15, 23:11:01
Da stehe ich wohl nicht alleine da :rolleyes:

Man steht selten mit einer Meinung alleine da. Das gleiche gilt für die andere seite.
Doch PC fixierte Quellen heranzuziehen bringt es da auch nicht. Und jetzt komm mit nicht mit Krawall ;)

Das Konzept des Spielens an der Konsole ist meiner Meinung nach ein ganz anderes, als am PC. Ich habe hier einen schnellen PC stehen und spiele sehr gerne auf ihm. Doch gleichzeitig spiele ich viele spiele auf der Konsole (ps3/x360). Da ist es mir sgar oft egal wieviel besser die PC Version aussieht.

Der PC wird immer schneller sein. Das war die letzten beiden Generationen schon so und wird wohl so bleiben. Doch das bringt mit keine Last of us oder guacamelee. Oder gemütliches zocken mit meiner Freundin auf dem Sofa.

xL|Sonic
2013-04-15, 23:14:28
Das war nicht immer so. Dreamcast hatte extrem viele Spiele mit 60fps, schon alleine wegen der Nähe zur Arcade. Was draus geworden ist wissen wir ja.

Felixxz2
2013-04-15, 23:24:40
Was ist denn das für ne Diskussion hier? :freak:
Wunderbares Konsolenbashing?

Als ob 4K Gaming in naher Zukunft irgendwie relevant wird. Bis die Monitore unter 500€ Kosten und ein 1K€ PC das packt gehen noch Jahre ins Feld.

Alle bangen um 1080p für die PS4 und er kommt mit 4K.....absurd :freak:

1080p60 (oder 30 für bestimmte Games die das vertragen) mit 16xAF ohne Tearing wären doch schon mal super. Da könnte sich wirklich niemand beschweren.

Finch
2013-04-15, 23:31:09
Das war nicht immer so. Dreamcast hatte extrem viele Spiele mit 60fps, schon alleine wegen der Nähe zur Arcade. Was draus geworden ist wissen wir ja.

Erinner mich bitte nicht daran. Ich habe die Konsole geliebt. Habe gestern erst noch meinen lvl. 94 HUmar in Phantasy Star online entstaubt. Hab richtig flashbacks gehabt. Gut das ich damals die Telefonrechnung nicht zahlen musste. ;D hach jetzt werde ich nostalgisch

da Vinci
2013-04-15, 23:51:39
4k lohnt sich auch nur bei sehr großen Diagonalen (ab 60") oder ungewöhnlich kurzem Sitzabstand zum TV.
Ich glaube nicht daß die Mehrheit der Verbraucher das im Wohnzimmer möchte.
Der Mehrwert an sichtbaren Details wäre z.B. bei mir (Abstand 3m Diagonale 42") gleich Null.
Mir würde sogar 720p reichen wenn ich dafür stabile, spielbare Frameraten bekomme.

Aber irgendwie müssen die Hersteller ja einen Neukauf schmackhaft machen.

Finch
2013-04-15, 23:53:44
Sobald 4k Gerätschaften in bezahlbare Bereiche vordringen werden PC Leute
in 4k zocken und die Konsoleros sind auf ihrer Full HD Auflösung (womöglich mit nur 30 fps) festgenagelt - Auf zig Jahre hinaus!Mal die gleiche Lebenserwartung wie die aktuellen,hoffnungslos veralteten Konsolen vorrausgesetzt!

Das es so kommt darauf würde ich meinen Arsch verwetten :biggrin:


Wie Coda schon schrieb. Lieber 1080p mit AA, als 4k ohne.

Wenn ich sehe wie 1440p an der Leistung frisst, will ich nicht sehen wie 4K Abgeht. ;) der Anteil an Spieler die das machen werden wird Imho nur langsam steigen. Sehr sehr langsam. Die meisten sind gerade mal bei 1080p angekommen. So schnell werden Monitore nicht gewechselt.
Wir hier im Forum sind ja auch nicht sehr repräsentativ ;)

Iceman346
2013-04-16, 10:40:02
Das Thema ist Next-Gen Konsolen, bitte zurück dahin.

Gipsel
2013-04-16, 13:33:04
Leute seit nicht sauer auf mich-Ich will hier nur den Laden ein bißchen aufmischen :biggrin:
Ich misch' hier auch gleich was auf!

Wiederholungen werden als Trollversuch gewertet.

PS:
Ich habe mal den größten Teil des Rotzes entsorgt.

Finch
2013-04-17, 10:59:30
http://www.vgleaks.com/rumor-durango-leaks-analyzed-by-anonymous-source-pastebin-doc/

Neues zum Durango

So yes, I originally made a post on pastebin that I then posted on IGN that has now mysteriously vanished from the internet. I’m guessing good ‘ol Don wasn’t too happy.

In that pastebin post I said I wouldn’t be saying anything else, but that was before a few things changed. So yeah…. #dealwithit.

That IGN post (that referenced the pastebin post) was also posted on NeoGAF. Though it didn’t get much attention.

In that pastebin post I specifically mentioned that I was a GAF member, but that I would not be outing myself on GAF for fear of losing my job. And I still will not be doing that. I’m not an idiot.
However since the reveal is pretty close now, I thought I’d just come out and tell you everything I know. No more cryptic bullshit, just facts.

First of all, for any of the GAF members reading this (or anyone else for that matter) that actually believed the online-required rumor, well…. you’re either stupid, very gullible, or a fanboy. Reading the posts some of you made over the past few weeks leads me to believe that mostly fanboyism was involved. So, I’ll make this very clear:

You are not required to be connected to the internet in order to play Durango games and MS were NEVER considering doing such a thing. Now please, just read that last sentence over and over again until it sinks in. Done? Good.

Now that I’ve got that out of the way I can talk about the real details.
First, I’ll admit some things that I originally hinted at in the first pastebin are now not going to happen. Mainly the April 18th date (obviously) and the HMD glasses. The date, as you may know by now was pushed back to May, and the glasses, well, although they’re kind of working are going to spend a bit longer in the oven.

Ok, moving on. Have you read the VGLeaks article about the Durango specs? Yes? Good because everything you read in that article was 100% correct. Except, for one tiny little detail that MS kept guarded from most devs until very recently. That detail being that every Durango ships with a Xbox 360 SOC.

There was a reason why MS hired so many former IBM and AMD employees. I’ll admit I’m not an electrical engineer (I’m in software) so I won’t pretend to know the ins and outs of how the 360 SOC integrates into the Durango motherboard. All I know, and all I need to know about this new change is that I (or a game dev) can use the 360 SOC in parallel with the original Durango hardware.

What does this mean in basic terms? Well, apart from Durango having 100% BC with the 360, it also increases Durango’s processing power a fair amount.

Ok, so what else?

Kinect 2.0: – Again the specs from VGLeaks are correct, there’s been no change and there won’t be. However, the fact is, is that software can do ANYTHING, and with the quite substantial increase in the hardware over Kinect 1.0, any humanly noticeable lag should be gone

Controller: – The controller is pretty much the same. The D-Pad has been improved, but the change will only be noticeable when actually using it, i.e. it looks exactly the same, I haven’t actually touched it, this is just what I’ve been told. AA batteries will make a return, but the new wireless tech MS has created for the controller, improves battery life by 16%. Again, this is just what the doc says.

Xbox Mini/Xbox TV: Yes, this is happening, although as far as I know, it’s a whole different team over at MS that are handling this. As has been reported its main purpose is to compete with Apple TV, so expect this thing to be small and around $100.
It contains the 360 SOC (similar to the one in the Durango), however no disc drive is included (to decrease size). But of course you can still play any XBLA/Games on Demand game. That’s all I really know about the xTV so I’ll leave it at that. Thurrott seems to know more than anyone else about this, so go ask him.

OS/Services: I wish I knew more about this, but I honestly don’t. I have no clue what sort of new ideas MS are going to bring to the table this gen, but I’m certainly expecting them to amaze.
The only thing that I do know for definite is that Durango will be running Windows 8. It will essentially be the full version of the OS, minus the desktop side of things. This means it’ll be running the new WinRT framework, which as a side effect also means that contrary to popular belief MS will be the most indie friendly of all the big 3 next gen.
This is because any app/game that is created for the Windows app store will (after adding controller support of course) be playable on Durango.
In other words, any random person worldwide can pay Microsoft a $60 license fee (for the Windows Store) and submit their app/game to the store where millions of people can then download/buy it. No expensive development kits needed.
Expect to hear much more on WinRT – Durango at Build2013.

Ok, so that’s pretty much it. I wish I had more info on specific games and services that MS have lined up, but it seems that even I’ll have to wait until May to find out.
I’ll look forward to this post appearing on GAF, where rest assured I’ll be lurking. Hell, who knows I may even make a few posts.

I wonder how many people will refuse to believe this? Hmmmm….



Ich kann mir nicht vorstellen, wie der x360 SoC dem Durango helfen soll Hüne das die Entwickler sich erhängen. Ich denke das ist eher ein Wunschtraum.

Immerhin BC.

DinosaurusRex
2013-04-17, 12:50:07
(...)Now please, just read that last sentence over and over again until it sinks in. Done? Good.(...)

An der Stelle hab ich aufgehört zu lesen. Das ist mir einfach zu dumm. ;)

Finch
2013-04-17, 12:54:05
Ich weiß was du meinst. Aber wollte das neuste Häppchen Gerüchte nicht unerwähnt lassen.

mironicus
2013-04-17, 14:01:14
Wie viel Watt frisst denn wohl der XBox360-Soc in 28 nm wenn er Bestandteil der Konsole wäre?

Und wenn die parallel miteinander arbeiten... wenn man nur den Prozessorpart nimmt und dann die neuere DX11-GPU für das Rendering der alten Xbox 360-Spiele verwendet, wäre das problemlos machbar?

N0Thing
2013-04-17, 14:07:24
Der XBox-360-SOC würde zur extra sauce passen, ich kann mir aber nicht vorstellen, daß man die PPC-CPUs so einfach zur Unterstützung einbinden kann, zumal die Devs davon angeblich bisher auch noch nichts wußten.

Allein schon das vorhandensei des SOCs würde wundern, Abwärtskompatibilität ist meiner Meinung nach kein entscheidendes Kaufkriterium mehr, da es auch schon bei der aktuellen Generation keinen Einfluß hatte.

robbitop
2013-04-17, 14:24:33
In 28 nm könnte der SoC irgendwas zwischen 10 ... 20 W nehmen. Ich weiß nicht, wie wahrscheinlich das Ganze ist. Das CPU Design ist ja auf SOI ausgelegt. 28 nm gibt es AFAIK derzeit nicht in SOI. Das umzustricken wäre sicher ziemlich aufwändig und teuer.
Auch bräuchte der SoC irgendwie Zugriff auf 512 MiB RAM, die von den Latenzen gleich sind, wie der in der X360. Ich weiß nicht, ob es wahrscheinlich ist, dass MS sich all die Mühe für Abwärtskompatibilität macht.

Deinorius
2013-04-17, 14:45:53
Ich habe das Ganze bis jetzt so verstanden, dass ein seperates günstigeres Gerät mit dem Xbox 360 SoC für 99 $ verkauft werden wird. Das spricht da schon eher für Xbox TV, wenn dort der SoC wirklich rein kommen soll, obwohl das wenig für Abwärtskompatibilität spricht, da man dann kaum die schon vorhandenen Spiele wegen dem fehlenden Laufwerk nutzen könnte.

mironicus
2013-04-17, 14:52:05
Die Xbox Mini (für 360-Spiele und alle Multimedia-Dienste) ist dann wohl in der neuen Konsole gleich schon integriert.

Dann braucht man halt nicht zwei Geräte, wenn man an der neuen Konsole interessiert ist. Ein Zusatz-Gerät (Addon) zur Abwärtskompatibilität halte ich nicht für sehr erfolgversprechend.

Microsoft hat mit der Xbox 360 eine Infrastruktur geschaffen mitsamt vieler Multimedia-Dienste, die wohl dann auch problemlos mit der neuen Konsole laufen soll. Zusammen mit Kinect 2.0 und BluRay-Laufwerk eine eierlegende Wollmilchsau.

Deinorius
2013-04-17, 14:53:49
Für die Multimedia-Dienste brauchen die wohl kaum den Xbox 360 SoC. :|

Felixxz2
2013-04-17, 17:49:19
Halte ich auch für fragwürdig. Halte ich auch nicht für ein Kaufkriterium für ne neue Konsole. Ne Xbox Mini für 360 Games und Multimedia halte ich aber definitiv für eine gute Strategie. Für 99$ hätte man damit praktisch nen Apple-TV nur eben im Xbox Ökosystem und eine Xbox 360 in einem. Für den Preis wäre das wohl ziemlich erfolgreich.

][immy
2013-04-18, 16:56:57
Naja die gerüchteküche brodelt zumindest.

Ich habe das Ganze bis jetzt so verstanden, dass ein seperates günstigeres Gerät mit dem Xbox 360 SoC für 99 $ verkauft werden wird. Das spricht da schon eher für Xbox TV, wenn dort der SoC wirklich rein kommen soll, obwohl das wenig für Abwärtskompatibilität spricht, da man dann kaum die schon vorhandenen Spiele wegen dem fehlenden Laufwerk nutzen könnte.

"games on demand", Arcade bzw. in den gerüchten hieß es ja auch das man das Gerät mit der neuen Xbox verbinden kann, so das man auch ein Laufwerk zur Verfügung hätte. Bei einer Installation dürfte selbst ein sehr simple USB verbindung reichen.

Deinorius
2013-04-19, 01:11:04
Finde ich noch nicht mal deppert.

Blediator16
2013-04-20, 14:27:20
Next-Gen Will 'Push Things The PC Is Not Good At' - Crytek
http://www.nowgamer.com/news/1888323/nextgen_will_push_things_the_pc_is_not_good_at_crytek.html

http://www.neogaf.com/forum/showthread.php?t=540456

mbee
2013-04-20, 16:51:36
Was für ein Geschwurbel: "Wie sage ich mit möglichst viel Worten nichts aus" glänzend erfüllt ;)

aufkrawall
2013-04-20, 17:10:22
Ist sein Markenzeichen.

DinosaurusRex
2013-04-21, 07:22:35
Diese Aussage passt zu diesen ganzen Spekulationen rund um Ryse als exklusiver Kinect-Releasetitel für die neue XBox.

Wenn man sich die offiziellen Aussagen von CryTek in den letzten Monaten anguckt, dann kann man mittlerweile davon ausgehen, dass Yerli mit "next gen consoles" ausschließlich die neue XBox meint. Die PS4 existiert für CryTek ja anscheinend nicht...

:nono: :deal:

Finch
2013-04-24, 17:47:25
Cerny spricht über die PS4 Hardware

http://www.gamasutra.com/view/feature/191007/inside_the_playstation_4_with_mark_.php

Iterator
2013-04-24, 19:55:31
Jetzt haben wir es offiziell, am 21 Mai ist es soweit, Microsoft wird die
Nachfolge Konsole der Xbox 360 vorstellen.

http://abload.de/img/xbox-720-invite-vg247f5e1a.jpg

Major Nelson hat sich diesbezüglich schon in seinem Blog (http://majornelson.com/2013/04/24/xboxreveal/) zu geäußert.


Bilderquelle:insidegames.ch (http://www.insidegames.ch/next-gen-xbox-microsoft-bestaetigt-enthuellung-fuer-den-21-mai-2013/)

Finch
2013-04-24, 22:15:18
Ich muss zugeben, ich sehe skeptisch in Richtung Microsoft. Ich habe das Gefühl, dass sie sich zu sehr in Richtung Media Station orientieren diese Dienste eher dem Ami Entgegenkommen als uns.

Selbst die Wii U ist mir sympathischer :/

LadyWhirlwind
2013-04-25, 08:07:13
Ich muss zugeben, ich sehe skeptisch in Richtung Microsoft. Ich habe das Gefühl, dass sie sich zu sehr in Richtung Media Station orientieren diese Dienste eher dem Ami Entgegenkommen als uns.

Selbst die Wii U ist mir sympathischer :/

Jaa, und die hälfte der Dienste werden nur in den USA verfügbar sein.... Wobei es meiner Meinung nach durchaus einen Spielraum für ein solches Gerät gibt, nur der ist halt sehr klein, insbesondere da sich die Box ja auch von der wohl sehr attraktiven PS4 absetzen muss.

Iceman346
2013-04-25, 08:27:29
Mal schauen was kommt, bevor es offizielle Infos gibt möchte ich über die Konsole nicht urteilen.

Wenn sie stark auf Multimediadienste setzen wäre das vielleicht garnicht so schlimm. Immerhin hätte Microsoft dann ein deutliches Interesse daran diese auch außerhalb der USA anzubieten und würde eventuell mal versuchen den Blockierern in den Arsch zu treten.

robbitop
2013-04-25, 08:55:46
Cerny spricht über die PS4 Hardware

http://www.gamasutra.com/view/feature/191007/inside_the_playstation_4_with_mark_.php



Cerny spent his Thanksgiving holiday reading up on the history of the X86 architecture -- realizing that not only had it evolved dramatically over the years, but that by the time the PlayStation 4 shipped, it would be powerful enough for Sony's needs.

It had evolved into something "that looked broadly usable by even the sort of extreme programmers we find in the games business," he said.

Wenn ich sowas lese, tut mir Sony leid, dass so jemand Lead Scientist für eine Konsole ist. Der musste sich erstmal die Geschichte von x86 anlesen und erstmal recherchieren, ob das für eine Konsole passt. Wenn man in dem Business ist, ist man immer informiert. Schon gar nicht über so triviale Dinge.
Und x86 hat sich ja ach so plötzlich entwickelt... :rolleyes:
Jaguar ist sicher ein tolles Design - aber man hätte auch schon lange Konsolen mit x86 CPUs bauen können. Und zwar gleichwertig oder besser als die vorherigen Lösungen. Also wirklich....

mbee
2013-04-25, 09:02:50
Du glaubst nicht wirklich etwas von dem Marketing-Blafasel, das da stellenweise zu lesen ist oder? ;)
Bei technisch versierten/interessierten Leuten hat das natürlich die gegenteilige Wirkung, aber hey: Er hat schließlich seinen "Thanksgiving Holiday" dafür geopfert, das ist die Botschaft für die breite Masse.

robbitop
2013-04-25, 09:14:01
Ich muss davon ausgehen, wenn jemand soetwas erzählt, dass es stimmt. Ich glaube, dass ein ernstzunehmender Hardwaremensch soetwas nie erzählen würde, weil er sich damit lächerlich machen würde. Vieleicht ist es nur ein Marketing Heini, der da den "Lead" über die PS4 übernommen hat. Ich habe den Typ ab dem Satz nicht mehr ernst genommen. Und der Inhalt des Artikels hat auch wenig Gehalt. Da kommt nur Geschwafel.

Iruwen
2013-04-25, 09:18:43
Ich muss zugeben, ich sehe skeptisch in Richtung Microsoft. Ich habe das Gefühl, dass sie sich zu sehr in Richtung Media Station orientieren diese Dienste eher dem Ami Entgegenkommen als uns.

Wäre das schlecht? Wenn ich die Wahl zwischen einer Konsole hab die eine Taste zum Teilen von Erfolgen auf Facebook hat und einer die ohne zusätzlichen Streamingserver alles mögliche abspielen kann und dabei noch leise ist wüsste ich was ich kaufen würde. "Dem Ami" ist eh relativ, Netflix z.B. kommt ja offenbar auch nach Deutschland und die PS3 hat diverse Dienste integriert die ich nutzen kann. Spotify wäre cool, wobei das bei Microsoft mit ihrem Music ja auszuschließen ist.

Lightning
2013-04-25, 09:24:16
Ich muss davon ausgehen, wenn jemand soetwas erzählt, dass es stimmt. Ich glaube, dass ein ernstzunehmender Hardwaremensch soetwas nie erzählen würde, weil er sich damit lächerlich machen würde. Vieleicht ist es nur ein Marketing Heini, der da den "Lead" über die PS4 übernommen hat. Ich habe den Typ ab dem Satz nicht mehr ernst genommen. Und der Inhalt des Artikels hat auch wenig Gehalt. Da kommt nur Geschwafel.

Hast du auch die nächsten Seiten gelesen? Ein bisschen was handfestes zu den vorgenommenen Optimierungen ist da schon dabei.
Zugegeben, die von dir zitierte Stelle liest sich schon sehr hanebüchen. Aber dass der Typ nach 30 Jahren in der Industrie (und zwar auch als Programmierer) wenig Ahnung hat, kann ich mir nicht recht vorstellen. Der Artikel ist halt leider eine Mischung aus Infos und Marketig.

Finch
2013-04-25, 10:09:50
Wäre das schlecht? Wenn ich die Wahl zwischen einer Konsole hab die eine Taste zum Teilen von Erfolgen auf Facebook hat und einer die ohne zusätzlichen Streamingserver alles mögliche abspielen kann und dabei noch leise ist wüsste ich was ich kaufen würde. "Dem Ami" ist eh relativ, Netflix z.B. kommt ja offenbar auch nach Deutschland und die PS3 hat diverse Dienste integriert die ich nutzen kann. Spotify wäre cool, wobei das bei Microsoft mit ihrem Music ja auszuschließen ist.

Hier geht es aber nicht um streamingserver und Codec Kompatibilität( jedenfalls nicht den lokalen Zugang zu seinen MKVs), sondern um netflix und weitere unzählige Streaming Dienste.

Also mi ist da eine Taste mit der ich spiele Szenen an meine PSN Freunde schicken kann wesentlich lieber als eine pizza Hut App. Die man nebenbei nur nutzen kann wenn man eine Gold Mitgliedschaft besitzt.

Mal davon abgesehen das MS außer Halo, Gears und Forza zu bieten hat.
Es heißt abwarten. Sind die aktuellen Gerüchte auch nur ansatzweise wahr(abseits von Allways on und gebrauchtspielsperre) dann wird die neue Xbox genau wie die alte behandelt. Irgendwann wird sie für ein paar spiele gebraucht gekauft und dann wieder verkauft.

del_4901
2013-04-25, 10:11:28
Vieleicht ist es nur ein Marketing Heini, der da den "Lead" über die PS4 übernommen hat. Ich habe den Typ ab dem Satz nicht mehr ernst genommen.Mark Cerny ist vieles, aber mit sicherheit kein Marketing Heini, der weis genau wovon er spricht! Wenn man Cerny etwas kennt, ist auch davon auszugehen, dass die Sache mit dem Ernst nehmen auf Gegenseitigkeit beruht.

Shink
2013-04-25, 10:14:19
Jaguar ist sicher ein tolles Design - aber man hätte auch schon lange Konsolen mit x86 CPUs bauen können.
Hat man doch. Teurer als die PS3 dürfte die Xbox 1 in der Herstellung auch nicht gewesen sein - in der Entwicklung ohnehin...

robbitop
2013-04-25, 10:14:27
Was ich bei der PS4 nicht ganz verstanden habe: Es gibt doch eine Funktion, bei dem man Freunde über das Internet (muss auch eine PS4 haben) zuschauen lassen kann, wie man gerade zockt. Und wenn es haarig wird, soll angeblich der Freund das Spiel für dich übernehmen können. Streamt die PS4 das Spiel dann auf die PS4 des Freundes? Muss er dazu das Spiel also gar nicht haben (also das gleiche was Gaikai macht)?

LadyWhirlwind
2013-04-25, 10:14:28
Wenn ich sowas lese, tut mir Sony leid, dass so jemand Lead Scientist für eine Konsole ist. Der musste sich erstmal die Geschichte von x86 anlesen und erstmal recherchieren, ob das für eine Konsole passt. Wenn man in dem Business ist, ist man immer informiert. Schon gar nicht über so triviale Dinge.
Und x86 hat sich ja ach so plötzlich entwickelt... :rolleyes:
Jaguar ist sicher ein tolles Design - aber man hätte auch schon lange Konsolen mit x86 CPUs bauen können. Und zwar gleichwertig oder besser als die vorherigen Lösungen. Also wirklich....


Naja, so wie ich das Lese, hat hier eher der Schreiberling die Formulierung verbockt. Und wenn er Jahre lang nicht direkt mit x86 zu tun hatte, wird er über die Entwicklungen sicher auch nicht im DETAIL bescheid gewusst haben. Da hatte er wahrscheinlich einfach was aufzuhohlen um zu sehen, wo jetzt genau X86 im Vergleich z. Bsp. Cell steht.

robbitop
2013-04-25, 10:15:25
Mark Cerny ist vieles, aber mit sicherheit kein Marketing Heini, der weis genau wovon er spricht! Wenn man Cerny etwas kennt, ist auch davon auszugehen, dass die Sache mit dem Ernst nehmen auf Gegenseitigkeit beruht.

OK. Aber warum erzählt er denn auf Seite 1 so einen Kram? :|

del_4901
2013-04-25, 10:19:43
OK. Aber warum erzählt er denn auf Seite 1 so einen Kram? :| Damit auch der Poebel was zu lesen hat.

Skysnake
2013-04-25, 10:22:19
Wie immer halt >=90% Marketing und ein Funken echte Infos :(

Gipsel
2013-04-25, 10:35:49
Was ich bei der PS4 nicht ganz verstanden habe: Es gibt doch eine Funktion, bei dem man Freunde über das Internet (muss auch eine PS4 haben) zuschauen lassen kann, wie man gerade zockt. Und wenn es haarig wird, soll angeblich der Freund das Spiel für dich übernehmen können. Streamt die PS4 das Spiel dann auf die PS4 des Freundes? Muss er dazu das Spiel also gar nicht haben (also das gleiche was Gaikai macht)?Ja und ja.

MR2
2013-04-25, 12:19:44
http://www.golem.de/news/jaguar-und-gcn-256-bit-bus-fuer-unified-memory-der-playstation-4-1304-98942.html

PS4-Chefentwickler Mark Cerny hat in einem Interview erklärt, wie die Busarchitektur des AMD-Chips für die PS4 arbeitet. Für Spieleentwickler soll das sehr einfach zu handhaben sein, um auch die GPU für Rechenaufgaben häufig zu nutzen.

DinosaurusRex
2013-04-25, 14:47:39
Finanziell scheint es bei Sony auch wieder langsam bergauf zu gehen:

Sony doubles full-year profit forecasts to ¥40 billion (http://www.gamesindustry.biz/articles/2013-04-25-sony-doubles-full-year-profit-forecasts-to-40-billion)

Ob sich das auf den Preis der PS4 auswirken wird?

Gipsel
2013-04-25, 15:00:02
http://www.golem.de/news/jaguar-und-gcn-256-bit-bus-fuer-unified-memory-der-playstation-4-1304-98942.html

PS4-Chefentwickler Mark Cerny hat in einem Interview erklärt, wie die Busarchitektur des AMD-Chips für die PS4 arbeitet. Für Spieleentwickler soll das sehr einfach zu handhaben sein, um auch die GPU für Rechenaufgaben häufig zu nutzen.
Da wird auch immer nur das Gleiche wiedergekäut. Das Meiste davon ist sowieso schon für zukünftige HSA-Geschichten entwickelt worden und stellt nur eine sanfte Evolution der bisherigen APUs dar. Die erhöhte Anzahl der Compute-Queues tauchte ebenso auch schon im "CI" ISA-Manual auf der AMD-Seite auf (Beschreibung praktisch identisch zur PS4: 8 ACEs mit jeweils 8 Queues, das Manual ist wieder verschwunden, da es nicht für alle "C.I." GPUs gilt, ist eher sowas wie GCN1.1, die bisher kaufbaren GPUs der offiziell CI genannten Reihe sind aber noch GCN1.0). Die Sache mit dem Volatile-Tag für Cachelines ist sogar bereits bei SI/GCN1.0 vorhanden (also schon seit Tahiti auf dem Markt). Ein wirklicher Unterschied zu den PC-GPUs wäre, daß es offenbar bei der PS4 zwei Grafik-Command-Prozessoren gibt (wenn man vgleaks glaubt), einen für's Spiel und eine high priority Queue fürs OS.
Und natürlich, daß sich Sony nicht an die durch die DX-API definierte Abfolge der einzelnen Shadertypen halten muß, die können die Renderpipeline auch flexibler gestalten. Die Hardware ist ja inzwischen nicht mehr wie früher mal auf eine sture Abfolge von Vertex-Shader => Rasterizer => Pixelshader festgelegt. Die Anzahl der der Shadertypen hat zum einen seitdem deutlich zugenommen und ist zum größten Teil auch ziemlich symmetrisch geworden (sprich man kann im Prinzip in jedem Shadertyp beinahe das Gleiche machen, abgesehen von ein paar Ausnahmen, die mit DX11.1 weiter abgenommen haben). Der GCN-Hardware ist es daher völlig egal, welche Shadertypen genau mit Abhängigkeiten hintereinander ausgeführt werden, die Unterscheidung der verschiedenen Typen ist eigentlich inzwischen eher nur noch historisch zu sehen, eine CU kümmert es praktisch nicht mehr. Man muß nur die Abhängigkeiten der verschiedenen Pipelinestages (Shaderprogramme, Tesselator, Rasterizer) untereinander definieren und das dann in die Queue des Commandprozessors stellen. Ab und zu sind dann vermutlich noch ein paar Hints für die Workdistribution (wie und mit welcher Priorität der Command-Prozessor die einzelnen Wavefronts der Domain of Execution auf die CUs verteilt) hilfreich (bei DX kommt man auf diesem Level an nichts ran, das wird über Spielprofile im Treiber gehandhabt). Genauso kann das vermutlich beim Absetzen reiner Compute-Tasks über die ACEs beeinflußt werden. Dadurch wird dann praktisch automatisch das von Cerny beschriebene Beispiel der vom Entwickler gesteuerten engen Zusammenarbeit eines Compute- und eines Vertexshaders möglich (je nachdem, wie weit man es treibt, ermöglicht es wie beschrieben generell die flexible Konfiguration der Renderingpipeline). Aber das ist bei einer GCN basierten Grafiklösung eher weniger eine Modifikation der Hardware als es eine Modifikation der API und vielleicht noch der Firmware (die die genaue Funktionsweise der Commandprozessoren festlegt) ist.

Akkarin
2013-04-25, 15:06:53
Was ich bei der PS4 nicht ganz verstanden habe: Es gibt doch eine Funktion, bei dem man Freunde über das Internet (muss auch eine PS4 haben) zuschauen lassen kann, wie man gerade zockt. Und wenn es haarig wird, soll angeblich der Freund das Spiel für dich übernehmen können. Streamt die PS4 das Spiel dann auf die PS4 des Freundes? Muss er dazu das Spiel also gar nicht haben (also das gleiche was Gaikai macht)?

&@Gipsel

Ich hätte jestzt gesagt es funktioniert ähnliche wie eine spectator funktion die man z.b. aus Dota 2 oä. kennt. Hätte den vorteil das es ziemlich Resourcensparend sowohl für die Bandbreite als auch für den Spielenden ist.

Würde eine PS4 es überhaupt schaffen zu streamen ? Die CPU und GPU wird doch eher voll für die games benutzt, da noch genügen Raum für einen stream zu lassen wird doch eher schwierig ?

DinosaurusRex
2013-04-25, 15:10:53
@ Gipsel:

Kann es sein das Sony und AMD diese Features zusammen entwickelt haben? Also den Cache Bypass, die 64 Compute Queues, das Volatile Tag? Cerny behauptet nach der Aufzählung dieser Features immerhin folgendes:

The team, to put it mildly, had to think ahead. "The time frame when we were designing these features was 2009, 2010. And the timeframe in which people will use these features fully is 2015? 2017?" said Cerny.


Oder heimst der hier dreisterweise nur die Lorbeeren für AMDs Arbeit ein?

LadyWhirlwind
2013-04-25, 15:18:56
Wahrscheinlich wird AMD die bereits bestehenden Konzepte/Ideen und Lösungen auf die Anforderungen von Sony angepasst haben. Sony is ja der Auftraggeber und wird daher auch gesagt haben müssen, was sie genau wollen. AMD wiederum wird dabei auf Grund der bestehenden Technik & Möglichkeiten Sony beratend zur Seite gestanden haben.

robbitop
2013-04-25, 15:47:42
&@Gipsel

Ich hätte jestzt gesagt es funktioniert ähnliche wie eine spectator funktion die man z.b. aus Dota 2 oä. kennt. Hätte den vorteil das es ziemlich Resourcensparend sowohl für die Bandbreite als auch für den Spielenden ist.

Da müssten dann nur Bewegungsdaten ausgetauscht werden. Den Rest macht der Client. Das ist ressourcensparender: aber dazu müssen beide Seiten das Spiel besitzen. Und das schränkt den Nutzwert dann wieder massiv ein.

Würde eine PS4 es überhaupt schaffen zu streamen ? Die CPU und GPU wird doch eher voll für die games benutzt, da noch genügen Raum für einen stream zu lassen wird doch eher schwierig ?
Da wird ein Hardware De-/Encoder drin sein. Die Dinger kosten heute kaum noch Kernfläche. Die General Purposehardware muss dabei praktisch nichts mehr tun.

Gipsel
2013-04-25, 15:55:54
&@Gipsel

Ich hätte jestzt gesagt es funktioniert ähnliche wie eine spectator funktion die man z.b. aus Dota 2 oä. kennt. Hätte den vorteil das es ziemlich Resourcensparend sowohl für die Bandbreite als auch für den Spielenden ist.

Würde eine PS4 es überhaupt schaffen zu streamen ? Die CPU und GPU wird doch eher voll für die games benutzt, da noch genügen Raum für einen stream zu lassen wird doch eher schwierig ?Das Encodieren geht völlig ohne CPU- und Shader-Last auf der VCE. Das beeinträchtigt die Spielperformance überhaupt nicht (benötigt vermutlich nur minimal Speicherbandbreite [weniger als 1GB/s von den 176 GB/s die man hat]). Alles was man benötigt, ist eine genügend breite Internetverbindung im Upstream (optimalerweise mehrere MBit/s). Das war's.
@ Gipsel:

Kann es sein das Sony und AMD diese Features zusammen entwickelt haben? Also den Cache Bypass, die 64 Compute Queues, das Volatile Tag? Cerny behauptet nach der Aufzählung dieser Features immerhin folgendes:

Oder heimst der hier dreisterweise nur die Lorbeeren für AMDs Arbeit ein?Das macht auch alles ohne die PS4 Sinn. Das meiste, was dort beschrieben ist, sind tatsächlich Standardfeatures von GCN bzw. HSA, die (wie z.B. die parallelen Compute-Queues) allerdings auch bei nV in ähnlicher Form anzutreffen sind und eventuell nur leicht modifiziert wurden. Normale GCN1.1 GPUs für den PC bekommen vielleicht nur 16 oder 32 Queues (Titan unterstützt z.B. 32 Queues). AMD hat ja schon 2011 bei der GCN-Vorstellung betont, daß sich die Anzahl der ACEs bzw. Compute-Queues innerhalb der Architektur flexibel ändern läßt. Sowas ist dann eher eine Frage der Konfiguration des ASICs durch Sony, bei dem sie stark vereinfacht aus einem "Bausatz" von angebotenen GPU-Komponenten sich was zusammenstellen (das Ergebnis muß dann natürlich trotzdem noch implementiert und validiert werden, es ist also immer noch erheblicher Aufwand).
Wie gesagt, die "schwerwiegendste" (bisher bekannte) Änderung an der Hardware gegenüber AMD-Standardkomponenten sind nicht die Compute-Queues, das volatile Tag (das gab es in GCN schon von Anfang an), der Cache-Bypass oder die Möglichkeit zu kohärenten Speicherzugriffen der GPU (Teil der HSA-Evolution), sondern der zweite Grafik-Commandprocessor über den aber niemand spricht. Selbst die Verknüpfung von zwei Jaguar-Modulen auf einem Die funktioniert vermutlich mit Standard-Jaguar-Kernen und einer Standard-Northbridge (also dem SRQ-Teil dieser) aus dem "Konzernregal", die "nur" für den gewählten Prozeß und die angepeilte Taktfrequenz implementiert werden muß. Bei einer Extra-Entwicklung für die Konsolen, wäre vermutlich die Latenz für Snoops des jeweils anderen Moduls geringer ausgefallen (es aber auch deutlich teurer geworden).

DinosaurusRex
2013-04-25, 16:13:50
Okay danke erstmal. Das diese Features nicht extra für die PS4 entwickelt wurden, hast du mir in etwas kürzerer Form ja bereits vor ein paar Seiten erklärt.

Mir ging es halt speziell um diese Formulierungen, deswegen frage ich noch mal anders: War Sony in die Entwicklung der GCN Architektur involviert? Falls nicht, dann ist das doch ziemlich dreist was Mark Cerny da erzählt, oder nicht?

Skysnake
2013-04-25, 16:44:56
@ Gipsel:

Kann es sein das Sony und AMD diese Features zusammen entwickelt haben? Also den Cache Bypass, die 64 Compute Queues, das Volatile Tag? Cerny behauptet nach der Aufzählung dieser Features immerhin folgendes:
Da macht die eigentliche GPU/CPU gar nichts. Es wäre viel zu problematisch, wenn man für das Streamen die normalen Ressourcen nutzen wpürde.

Den H264 (?) Encoder in Hardware zu packen ist ziemlich billig. Wenn man jetzt das sogar noch direkt beim Entwickeln des Designs bedacht hat, nimmt man sogar einfach das Displaysignal, und splittet es vorher auf. Also haut schon auf dem DIE das signal in den FFU-Encoder, und der schickt das direkt an den Netzwerkport.

Da hast du dann genau 0 Interaktion mit der CPU/GPU. Das macht die FFU komplett alleine. Man merkt höchstens, das man eben weniger Internetbandbreite hat.

Wenn man es geschickt macht, hat man für den Netzwerkport sogar eine Backdoor, mit der man eben Datenpakete direkt in die Steuerung einschleusen kann.

Für die Hardware ist es dann völlig transparent, ob man jetzt lokal steuert, oder über Internet. Man hat halt nur schlechtere Latenzen, mehr nicht.

Gipsel
2013-04-25, 18:02:00
Mir ging es halt speziell um diese Formulierungen, deswegen frage ich noch mal anders: War Sony in die Entwicklung der GCN Architektur involviert? Falls nicht, dann ist das doch ziemlich dreist was Mark Cerny da erzählt, oder nicht?
Nun, man muß sich (bzw. seinen Arbeitgeber) ja auch verkaufen. Er sagt ja nicht: "Sony hat das und das entwickelt" oder so. Er spricht ständig vom "Team" und "wir", was eben höchstwahrscheinlich nicht exklusiv Sony meint AMD+Sony. Oder mal ganz prominent dieses Zitat:
The original AMD GCN architecture allowed for one source of graphics commands, and two sources of compute commands. For PS4, we’ve worked with AMD to increase the limit to 64 sources of compute commands
Im Klartext: AMD sagte bzw. fragte vor einiger Zeit: So, momentan haben wir ein Design mit einer Queue pro ACE und ihr könnt bis maximal x ACEs gleichzeitig verbauen. Wir planen momentan unsere GPUs mit 2 davon, es gehen aber auch bis zu x. Wir entwickeln gerade noch eine neuere Version mit 8 Queues pro ACEs, wovon man wiederum bis zu x in die GPU packen kann. Das bekommen wir locker in Eurem geplanten Zeitrahmen fertig, ihr könnt also auch damit planen. Eine der alten ACEs benötigt etwa yt Transistoren und im Prozeß P etwa yd Diesize. Die neueren benötigen zt Transistoren und im Prozeß P etwa zd Diesize. Was wollt ihr haben?
Sony antwortet: Wir wollen 8 der neueren ACEs.
Falls x<8 war, hat Sony eventuell noch gefragt: Hmm, gehen auch 8? Woraufhin AMD geantwortet hat: Na klar, aber dann müßt Ihr uns dafür noch M Dollar extra überweisen (alternativ, dann steigen die Lizenzkosten pro Chip um m cents).

Skysnake
2013-04-25, 19:24:44
Klingt ziemlich glaubwürdig ;)

DinosaurusRex
2013-04-26, 07:31:28
Okay, danke. Ist ja auch eigentlich halb so wild. "Entscheidend ist auf'm Platz", wie es so schön heißt. ;)


Hier mal was neues:


http://outerspace.terra.com.br/imgs_os/news/2013/sony-br.jpg


Die brasilianische Gamingsite Terra berichtet, dass Sony am 07. Mai 2013 ein weiteres PlayStation Meeting in Sao Paolo abhalten wird. Quelle (http://outerspace.terra.com.br/index.php?dir=noticias&arquivo=viewer&cod_noticia=30210&noticia=sony_fara_evento_do_playstation_no_brasil_no_dia_7_de_maio)

Ist das möglicherweise der Konter für das auf den 21. Mai 2013 datierte XBox Event? Brasilianische NeoGAF (http://www.neogaf.com/forum/showthread.php?t=547652) User behaupten zumindest, dass Terra eine sehr glaubwürdige Seite ist.


http://ocptech.com.br/img/blanka.jpg

HOT
2013-04-26, 08:44:54
Okay danke erstmal. Das diese Features nicht extra für die PS4 entwickelt wurden, hast du mir in etwas kürzerer Form ja bereits vor ein paar Seiten erklärt.

Mir ging es halt speziell um diese Formulierungen, deswegen frage ich noch mal anders: War Sony in die Entwicklung der GCN Architektur involviert? Falls nicht, dann ist das doch ziemlich dreist was Mark Cerny da erzählt, oder nicht?
Mit an Sicherheit grenzender Wahrscheinlichkeit hat Sony mit GCN nichts zu tun. Das Anforderungsprofil wurde eher an GCN angepasst als umgekehrt. Man muss bedenken, dass GCN schon in Entwicklung gewesen sein muss, als VLIW grad effizient wurde (4000er/5000er Serie) und sich abzeichnete, wohin die Reise geht mit GPU-Computing. So eine komplett neue Architektur schüttelt man nicht einfach so aus dem Ärmel. Sony wusste zu dem Zeitpunkt wahrscheinlich nicht mal, was sie selbst wollen, die waren da noch im Experimentier- und Brainstormstadium.

Gaestle
2013-04-26, 09:01:27
sondern der zweite Grafik-Commandprocessor über den aber niemand spricht.

Warum spricht da niemand drüber?
Weil er eigentlich bestehendes repliziert (also aus technologischer Sicht nicht so spannend ist), oder weil er "Geheimnisse" birgt, die einen technologischen Fortschritt bringen könnten?

Ach so, und wenn ja, welchen? Was würde das hier bedeuten?
Ein wirklicher Unterschied zu den PC-GPUs wäre, daß es offenbar bei der PS4 zwei Grafik-Command-Prozessoren gibt (wenn man vgleaks glaubt), einen für's Spiel und eine high priority Queue fürs OS.

DinosaurusRex
2013-04-26, 09:11:38
Hat die neue XBox davon nicht sogar drei? Das könnte doch ein guter Grund dafür sein, dass niemand darüber spricht. ;)

Gipsel
2013-04-26, 14:26:30
Hat die neue XBox davon nicht sogar drei? Das könnte doch ein guter Grund dafür sein, dass niemand darüber spricht. ;)Nein. Die XBox hat 3 Display Planes, das ist aber was völlig Anderes. Ich meine den linken Teil dieses Diagramms (High Priority/VSHELL):

http://www.vgleaks.com/wp-content/uploads/2013/02/gpu_queues.jpg

Damit kann das OS jederzeit Drawcalls absetzen, die Vorrang gegenüber denen aus dem Spiel haben und diese "überholen" können. Und dies war anders als die 8x8 Compute-Queues nicht in dem C.I. ISA-Manual (welches für alle "GCN1.1" gelten sollte, also auch für die PC-Varianten) erwähnt. Das ist also vermutlich eine von Sony geforderte, wirkliche Modifikation.

Hallo
2013-04-26, 14:57:15
...

Silentbob
2013-04-26, 15:04:12
Wow, soviel technisches "Geschwurbel" aus der Sicht von "PClern" die in ihrer technischen Argumentation sicherlich recht haben, nur was hat das mit gutem Gamedesign zu tun?

Nehmen wir Crytek, technisch super unterwegs aber gameplaytechnisch sucken die so dermassen, gähn;)

Klar Technik sollte gut sein, das ist aber Grundvoraussetzung über die wahrlich gute Entwickler wie (wer kennt ihn?) Yu Suzuki selten reden sondern Ergebnisse lieferten die der Gamingwelt dutzende Male Meilensteine beschert haben und nachdem sich alle gerichtet haben lange bevor es 3D beschleuniger für PCs gab.

Immer wieder lustig wie PCler Konsolengameing beurteilen...Ich will kein Crysis auf Konsole ich will Konsolengaming ohne DLC ohne Patch, ohne Bugs, ohne lächerliche Framerates:)

Keine Ahnung warum Du sowas hier reinschreibst, hier gehts nunmal um die Technik. Wenn es Dir primär um die letzten Punkte geht solltest Du das Konsolengaming aufgeben. Das wird es nömlich alles NextGen auch geben. Bis auf lächerliche Framerates hoffe ich zumindest.

Hallo
2013-04-26, 15:26:15
...

Tesseract
2013-04-26, 15:39:08
deine arcade-nostalgie hat mit next-gen-konsolen viel weniger zu tun als "technisches geschwurbel" über die verbaute hardware der kommenden konsolen.

abgesehen davon ist deine definition von "gutem gamedesign" mehr als nur fragwürdig. bei einer technischen komplexität, die ein einzelner student in ein paar wochen coden kann und die sich auf ein paar ganz wenige aspekte beschränkt ist es eher leicht, diese "perfekt zu tunen". nur spielt sowas heute fast keiner mehr.

Silentbob
2013-04-26, 15:39:12
Hier geht's um NextGen Konsolen und dazu gehört auch das eigentliche Gaming und die damit verbundene Exp.

Ja die PS4 wird technisch super und darüber freue ich mich nur hat dies noch lange nichts damit zu tun was für Games rauskommen, also die Quali. Vom ganzen DRM/DLC Kram abgesehen...

Wie gesagt mir kommt die Diskussion hier vor wie: Wer kann am schnellsten 3DMark zocken:rolleyes: Und zwar aufm Papier.

PCler ärgern sich um das Ausbremsen ihrer Games wegen den Konsolen, ich ärgere mich das Konsolengaming alle Mäkel von PC Gaming abbekommen hat. Bugs gabs vor PS/360 praktisch nicht im Retail;)


Hier geht es um die Technik, aber da: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=402552 kannst Du sicher auch eine nette Diskussion über die zu erwartenden Spielspassgranaten beginnen.

Iruwen
2013-04-26, 15:42:50
Hier geht es um die Technik, aber da: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=402552 kannst Du sicher auch eine nette Diskussion über die zu erwartenden Spielspassgranaten beginnen.
Danke, genau das wollte ich auch gerade schreiben. Das Spiele-Forum ist um die Ecke, hier gibts Spekulatius.

Gaestle
2013-04-26, 15:45:04
Ich glaube es ist sinnvoller
a) für die Weiterführung diese Threads hier
und
b) für die von Hallo gewünschte Diskussion,

wenn es einen separaten Thread gäbe: "Wie entwicklen die neuen Konsolen das Gaming weiter?" oder ähnlich. Die frage und die Diskussion ist nämlich IMHO ziemlich berechtigt und vermutlich auch spannend.

Aber hier in diesem Thread, der von Seite 1 an auf Technik orientiert ist, das ganz große PCler vs. Konsoleros-Fass inkl. erste Hinweise auf mögliche Flamewars aufzumachen hilft wahrscheinlich weder a) noch b).

Und Technik ermöglicht auch Gameoptionen und trägt IMHO auch zur "Immersion" bei.
Ich jedenfalls würde mich schwer tun z.B. "The Fate of Atlantis" heutzutage in original Pixelgrafik zu genießen, obwohl ich das Game sehr gut fand.

[Edit:] Zu spät ...

DinosaurusRex
2013-04-26, 15:53:03
Nein. Die XBox hat 3 Display Planes, das ist aber was völlig Anderes. Ich meine den linken Teil dieses Diagramms (High Priority/VSHELL)

Damit kann das OS jederzeit Drawcalls absetzen, die Vorrang gegenüber denen aus dem Spiel haben und diese "überholen" können. Und dies war anders als die 8x8 Compute-Queues nicht in dem C.I. ISA-Manual (welches für alle "GCN1.1" gelten sollte, also auch für die PC-Varianten) erwähnt. Das ist also vermutlich eine von Sony geforderte, wirkliche Modifikation.

Ups... :redface:

Was glaubst du denn wozu Sony zwei GFX Command Processors in einer Spielekonsole braucht? Weniger OS-Overhead oder bessere OS Performance zum Beispiel?

Hallo
2013-04-26, 16:02:05
...

del_4901
2013-04-26, 16:31:54
Ups... :redface:

Was glaubst du denn wozu Sony zwei GFX Command Processors in einer Spielekonsole braucht? Weniger OS-Overhead oder bessere OS Performance zum Beispiel?
Da geht es glaube ich mehr um die reaktionszeit des OS, falls das Game mal haengt oder laggt.

Silentbob
2013-04-26, 17:29:57
Der Titel heisst NexGen Konsolen, dazu gehört Technik, Gaming und die Philosophie dahinter als Ganzes.

Sonst würde der Thread doch "Die Technik der NG Konolen" heissen, richtig?

Sorry wenn ich nicht konform bin;)

Kannst ja einen Mod fragen ob er dir zuliebe den Threadnamen ändert. Oder du nimmst die Änderungen ganz altmodisch mit tip-ex vor. Is dann aber doof beim scrollen. :rolleyes:

drexsack
2013-04-26, 19:20:11
Ich würde die Diskussion um die Spiele und Inhalte eher ins Konsolenforum verlegen, da hab ich die ganzen Benchmark-Vollnerds und Pixelzähler größtenteils noch nie gesehen. Mangels Konsole wahrscheinlich. Selbst im PC Spiele Forum liest man ja fast nur "Mimimi xy läuft nicht auf Setting eins zwo mit Graka blablup".

Gipsel
2013-04-26, 19:21:50
Macht andere Threads auf, wenn ihr wollt, aber spammt diesen hier nicht zu.

Danke.

DinosaurusRex
2013-04-27, 08:34:51
Da geht es glaube ich mehr um die reaktionszeit des OS, falls das Game mal haengt oder laggt.

Also wie vermutet. Das ist ja reichlich unspektakulkär, aber sicherlich auch sehr nützlich. Die Reaktionszeit des OS war zweifellos einer der Hauptkritikpunkte an der PS3. Das sich Sony diesem Problem sogar auf SoC-Level angenommen hat, ist hoffentlich programmatisch für das Design der PS4.

LadyWhirlwind
2013-04-27, 08:46:21
Das dürfte doch auch einem ingame overlay zu gute kommen, oder?

del_4901
2013-04-27, 13:24:26
Das dürfte doch auch einem ingame overlay zu gute kommen, oder?
Das ist genau das, mir ist nur der Begriff Overlay nicht eingefallen.

TheCounter
2013-04-30, 21:09:56
Durango - Sound of Tomorrow:

http://www.vgleaks.com/durango-sound-of-tomorrow/

Nightspider
2013-04-30, 21:49:39
Durango - Sound of Tomorrow:

http://www.vgleaks.com/durango-sound-of-tomorrow/

Wow. Ich bin zwar nur Laie aber das klingt danach, als wäre die kommende Xbox den Creative X-Fi Soundkarten überlegen. Kann das jemand bestätigen?

Endlich mal Fortschritte beim Sound. =)

Hayab
2013-05-01, 11:25:18
Wow. Ich bin zwar nur Laie aber das klingt danach, als wäre die kommende Xbox den Creative X-Fi Soundkarten überlegen. Kann das jemand bestätigen?

Endlich mal Fortschritte beim Sound. =)

Ich glaub eher es geht um volle DSP funktionalitaet ueber CPU.
EAX ueber Hardware wird man so schnell ueber CPU nicht ersetzen koennen, ohne grosse latenzen.

Herr Doktor Klöbner
2013-05-01, 11:42:57
Man sollte nicht vergessen was Sound bei einer Konsole in 95 % der Fälle bedeutet : Stereoausgabe über die Lautsprecher von sehr flachen und sehr flach klingenden Fernsehern, da ist es Wurscht was man da verbaut, wahrscheinlich so ein 2,- Teil von Realtek wie auf Millionen von Motherboards auch, das reicht ja auch.

Iruwen
2013-05-01, 11:44:18
Und das hören 99% der Käufer dann über schrammelige Lautsprecher in 30" LCD Glotzen :cool:

/e: slow me is slow.

Crazy_Bon
2013-05-01, 11:48:36
Man sollte nicht vergessen was Sound bei einer Konsole in 95 % der Fälle bedeutet : Stereoausgabe über die Lautsprecher von sehr flachen und sehr flach klingenden Fernsehern, da ist es Wurscht was man da verbaut, wahrscheinlich so ein 2,- Teil von Realtek wie auf Millionen von Motherboards auch, das reicht ja auch.
Also wer alles ein Heimkinosystem am Fernseher, womöglich noch THX-zertifiziert, für den Sound zuhause hat, der steckt also jedes Mal die Verkabelung um, damit er nur Stereo von seiner Konsole hören kann?
Klingt so pauschal wie, daß jeder User am PC und Notebook den Sound nur über 20€-Kopfhörer hört.

Coda
2013-05-01, 12:15:00
Ich glaub eher es geht um volle DSP funktionalitaet ueber CPU.
EAX ueber Hardware wird man so schnell ueber CPU nicht ersetzen koennen, ohne grosse latenzen.
Doch, kann man. Sehr gut sogar.

Frozone
2013-05-01, 12:22:04
Also wer alles ein Heimkinosystem am Fernseher, womöglich noch THX-zertifiziert, für den Sound zuhause hat, der steckt also jedes Mal die Verkabelung um, damit er nur Stereo von seiner Konsole hören kann?
Klingt so pauschal wie, daß jeder User am PC und Notebook den Sound nur über 20€-Kopfhörer hört.
Wie viele haben den ein Heimkino? Das dürfte sehr gering sein.

Crazy_Bon
2013-05-01, 12:58:33
Wie viele haben den ein Heimkino? Das dürfte sehr gering sein.
Ok, falsch ausgedrückt, bei mir ist schon alles über 37" samt Boxensystem Heimkino, muss nicht eine Leinwand und Beamer sein. ;)

Frozone
2013-05-01, 13:30:33
Ok, falsch ausgedrückt, bei mir ist schon alles über 37" samt Boxensystem Heimkino, muss nicht eine Leinwand und Beamer sein. ;)
Auch glaube ich das nicht viele wirklich ein Boxensystem haben. (Habe schon gedacht das du das meintest)
Die meisten Leute interessiert nur TV Sound und 30fps reicht denen auch.

Das uns das hier allen nicht ausreicht interessiert keinen, den wir sind nur eine Minderheit.

Werewolf
2013-05-01, 15:24:12
Ist beim PC nicht viel anders. SLI Grafikkartengespanne und Razer Headsets. =) Oder durch die Bank onboard und irgendwelche Brüllwürfel. Während Pixel auseinandergenommen werden, erklingt es blechern in den Ohren während es rauscht, zirrt und sirrt.

Mich freut die Entwicklung von Audio auf den Konsolen, jetzt müsste sich auf dem PC ein Standard bilden.

Ist irgendwas von möglichen Nachfolgern für Xaudio2/XACT bekannt?

Nightspider
2013-05-01, 22:31:34
Also in meinem Freundeskreis haben erstaunlich viele ein "Heimkino".
Ein kumpel hat ein 1400 Euro Nubert System und ein anderer immerhin ein 500 Euro System.
Mein Bruder hat 1200 Euro Stereo-Standboxen und 2-3 weitere Freunde haben immerhin von Teufel ein 5.1 PC Lautsprecher-System. Wenn ich mit dem Studium fertig bin wird auch etwas richtig Großes angeschafft.

Mir ist auch egal was 99% der User haben. Deswegen braucht die Entwicklng ja nicht still zu stehen.
Die richtig leidenschaftlichen Hobbygamer und Kinofans werden mehr haben als Fernsehsound.
Und 99,9% der Menschen wird auch ein Jahr nach dem Release der PS4 keine dieser 600 Euro Konsolen besitzen. :rolleyes:

Ist beim PC nicht viel anders. SLI Grafikkartengespanne und Razer Headsets. =) Oder durch die Bank onboard und irgendwelche Brüllwürfel. Während Pixel auseinandergenommen werden, erklingt es blechern in den Ohren während es rauscht, zirrt und sirrt.


Wie jetzt? Zählst du Razor Headsets zu den Guten? :ugly:

derpinguin
2013-05-01, 22:35:54
Ne, nach dem Kauf von zwei Titan hat's nicht mehr für ein ordentliches headset gereicht.

Iruwen
2013-05-01, 22:49:52
Wie jetzt? Zählst du Razor Headsets zu den Guten? :ugly:

Lies nochmal...

Nightspider
2013-05-01, 23:03:12
Lies nochmal...

Nein.

Gouvernator
2013-05-01, 23:33:43
Audio auf Konsolen war bis jetzt schon ganz gut. Per SPDIF in PC dort über Asus STX umgewandelt auf gute Kopfhörer und es klingt besser als man sich das je vorgestellt hat. Jetzt ist die Frage könnte man vielleicht HiDef in 192khz/24 bit auf NextGen draus machen? Das wäre absolut der Overkill und must have für mich wegen oben genannter Konfig. ^^

Gipsel
2013-05-01, 23:37:55
Bevor 24Bit/192kHz zum Abspielen Sinn machen, dann doch bitter vorher beim Rendering durchgehend alle Koordinaten und Farbwerte in double precision berechnen. :rolleyes:

Gouvernator
2013-05-01, 23:46:41
24Bit/192kHz würde viel mehr zur Realismus beitragen als deine Farbwerte...

Mit Vivid-Preset am TV macht sogar 8-Bit Grafik noch Spaß.^^

Coda
2013-05-02, 00:46:37
48kHz und 16 bit ist für die Widergabe mehr als ausreichend, alles darüber ist Voodoo-Quatsch und kann sogar Probleme bereiten weil man einen extrem guten Low-Pass-Filter braucht um den ganzen hochfrequenten Quatsch wieder wegzuwerfen, den Lautsprecher gar nicht abbilden können.

mczak
2013-05-02, 00:52:48
24Bit/192kHz würde viel mehr zur Realismus beitragen als deine Farbwerte...

Wenn schon 192kHz (oder 96kHz) Audio dann will ich mindestens auch Infrarot und UV-Farbausgabe. Die Farben sehen sonst alle so flau aus.

Tesseract
2013-05-02, 02:46:35
24Bit/192kHz würde viel mehr zur Realismus beitragen als deine Farbwerte...

bist du ein delfin? :|

Werewolf
2013-05-02, 07:46:04
24Bit wären 144db Dynamik im Vergleich zu den 96db der CD. Rechnet man einen Grundpegel von 30db dazu ist man bei der CD schon bei 126db. Mehr als genug um dauerhaft das Gehör zu schädigen. Selbst die dynamischsten Aufnahmen kommen nicht über 60db (Klassik).

Dieser 192khz/24Bit Unsinn ist einfach eine kleine geniale Methode um extra abzusahnen. Das Mehr an Bits macht fürs Mastering Sinn aber für das endgültige Produkt bietet die CD alles was man braucht. Bei 44,1khz sind wir bei 22,05khz maximaler Frequenz. Wie ein Hund hören können wir nicht.

Aber natürlich gibt es ja noch das Argument der psychoakustischen Wirkung unhörbarer Frequenzen bei Menschen. :wink:

Das Problem heutzutage ist dass CDs oft zu Tode prozessiert werden während das Studiomaster nicht diese Verunstaltungen mit sich bringt. So wird das Argument pro HD Audio eben hervorragend am Leben erhalten und man sahnt fast doppelt ab.

Gouvernator
2013-05-02, 07:58:07
Ich glaube keiner der hier Anwesenden hat jemals HiDef Audio mit entsprechenden Kopfhörern gehört. Und dann lästern sie noch über billige TV Lautsprecher... X-D

Herr Doktor Klöbner
2013-05-02, 08:00:48
Ich finde es aber schon witzig in welche Richtungen Diskussionen in Nerd-Foren immer hindriften.

Warum kein 4K ? Warum nur 16 Bit Audioauflösung ? Warum kein 18 Kanal-Sound ? Warum gibt es kein bezahlbaren 8-Kern Prozessoren und überhaupt ich will 16 Kerne. Wie, du hast noch keinen 3D fähigen Beamer ?

Und so weiter und so fort.

Das was real an Hardware und Unterhaltungselektronik in einem normalen Haushalt vorhanden ist hat wenig bis nichts mit dem zu tun was das durchschnittliche Forenmitglied hier hat.

Der Markt für die Next-Gen Konsolen sieht so aus:

Leute die einfach nur spielen wollen, die mit simplen Begrifen wie AA, AF, DX11, Framerate nichts anfangen können, die interessiert das überhaupt nicht und da haben sie eigentlich sogar recht.

Bluray einlegen, spielen und gut, da interessiert es fast niemnanden das der 3te Pixel von links suboptimal gefiltert ist.

Gouvernator
2013-05-02, 08:06:36
Bluray einlegen, spielen und gut, da interessiert es fast niemnanden das der 3te Pixel von links suboptimal gefiltert ist.
Hast du denn Sinn von "BluRay" gar nicht mitbekommen? Bravo...

Werewolf
2013-05-02, 08:29:30
Ich glaube keiner der hier Anwesenden hat jemals HiDef Audio mit entsprechenden Kopfhörern gehört. Und dann lästern sie noch über billige TV Lautsprecher... X-D

Ach komm, mein Freund, das ist doch Käse.

Ich höre mit mehreren verschiedenen Kopfhörern und höre einen Unterschied, aber das liegt nicht an "HiDef" sondern an Studiomaster vs. zugekackter CD. Das Studiomaster wird als "HiDef" angepriesen und vermarktet, was es zwar technisch ist aber die Überlegenheit liegt nicht in den Zahlen.

Und dir empfehle ich mal den Signature Pro. Vor lauter Modding hast du vergessen dass Ultrasone mal wieder Geld sehen will von dir. :D

Botcruscher
2013-05-02, 08:40:47
Am Ende wird dann wieder pro Datenträger gezahlt und alles kaputt komprimiert.

Deinorius
2013-05-02, 10:26:56
Ich glaube keiner der hier Anwesenden hat jemals HiDef Audio mit entsprechenden Kopfhörern gehört. Und dann lästern sie noch über billige TV Lautsprecher... X-D


Wir wissen ja, dass du glauben kannst. :rolleyes:

Hast du denn Sinn von "BluRay" gar nicht mitbekommen? Bravo...


Na du anscheinend genauso wenig.

robbitop
2013-05-02, 10:41:33
Die Audioformate sind eh überschätzt. Ich erinnere immer gern an den Test der c't, bei dem der Mythos mit verlustbehafteter Audiokomprimierung untersucht hat. Da waren eine reihe bekannter audiophiler Leute als Probanden da, ein High End Anlage und ein akustisch nahezu optimaler Raum. Am Ende konnte statistisch nicht mehr sicher zwischen komprimiert und unkomprimiert unterschieden werden (IIRC ab 192 kbit/s).

Vernünftig komprimiert (guter Codec, korrekte Settings) und vernünftig vertont, reicht für das menschliche Ohr schon ein gutes MP3 Format. Vieles hört der Mensch eben nicht mehr. Im Grunde ist damit auch alles >DTS nur noch Voodoo. (oder aber beim Abmischen hat man die "schlechteren" Tonspuren absichtlich verschlechtert)

Was wirklich zählt, sind gute Lautsprecher/Kopfhörer, korrekte Aufstellung, korrekte Einstellung und ein guter akustischer Raum. Alles andere ist Voodoo.

ndrs
2013-05-02, 10:52:13
Das ganze Thema Audio-Codierung und Abtastraten-Mythen wurde doch schon hundert mal in anderen Freds durchgekaut. Grabt doch diese wieder aus, anstatt den nächsten damit zu übernehmen.

Werewolf
2013-05-02, 10:54:20
Viel wichtiger ist die Frage ob gescheites Audio-Rendering in Hardware dann auch genutzt wird nach diesen viel zu langen "dark ages" :D. Bei einigen Sony-Titeln bin ich mir sicher, vor allem Killzone.

Iruwen
2013-05-02, 12:40:16
24Bit wären 144db Dynamik im Vergleich zu den 96db der CD. Rechnet man einen Grundpegel von 30db dazu ist man bei der CD schon bei 126db. Mehr als genug um dauerhaft das Gehör zu schädigen. Selbst die dynamischsten Aufnahmen kommen nicht über 60db (Klassik).

Dieser 192khz/24Bit Unsinn ist einfach eine kleine geniale Methode um extra abzusahnen. Das Mehr an Bits macht fürs Mastering Sinn aber für das endgültige Produkt bietet die CD alles was man braucht. Bei 44,1khz sind wir bei 22,05khz maximaler Frequenz. Wie ein Hund hören können wir nicht.

Aber natürlich gibt es ja noch das Argument der psychoakustischen Wirkung unhörbarer Frequenzen bei Menschen. :wink:

Das Problem heutzutage ist dass CDs oft zu Tode prozessiert werden während das Studiomaster nicht diese Verunstaltungen mit sich bringt. So wird das Argument pro HD Audio eben hervorragend am Leben erhalten und man sahnt fast doppelt ab.

Das Problem ist weniger die Hörschwelle als die geringe Auflösung in dem Bereich in dem wir am besten hören, bei niedrigen Pegeln von 2-5kHz. Da reichen die 16 Bit nicht.

mbee
2013-05-02, 14:14:39
Was wirklich zählt, sind gute Lautsprecher/Kopfhörer, korrekte Aufstellung, korrekte Einstellung und ein guter akustischer Raum. Alles andere ist Voodoo.

Zuerst mal der Raum und die Aufstellung! Alles andere kommt von der Wertigkeit danach.

Und geschätzte 70% der Leute auch mit höherwertigem Equipment haben hier katastrophale Bedingungen, weil ausschließlich nach Optik aufstellt wird (Raummoden, Nachhall): Da stehen dann meist die edlen 4T€-Frontboxen und der Subwoofer schön direkt an der Wand mit dem TV und das Sofa mit dem Hörplatz direkt an der gegenüberliegenden Wand ;)

Sunrise
2013-05-02, 15:33:30
Viel wichtiger ist die Frage ob gescheites Audio-Rendering in Hardware dann auch genutzt wird nach diesen viel zu langen "dark ages" :D. Bei einigen Sony-Titeln bin ich mir sicher, vor allem Killzone.
Wenn man mal überlegt, was man damals aus dem SID, Paula oder dem Yamaha vom Megadrive rausgequetscht hat, dann sollten wir heutzutage nicht nur bombastische, interaktive, sich der Situation anpassende und mitreißende, dynamische Soundtracks haben, sondern auch eine ansprechende in Echtzeit berechnete Soundeffekte-Untermalung. Gestern Moleman 2 gesehen (sehr gute Dokumentation über die Demo-Szene mit sehr vielen Ausschnitten), einfach nur faszinierend, auch wenn sich das schwer mit Spielen vergleichen lässt, da die Dinger größtenteils nicht interaktiv sind.

Aber selbst in der Demo-Szene gibt es heutzutage immer mehr im Studio produzierte Ware, die (einfach) nur abgespielt wird.

Lustigerweise ist es so, je "besser" die Hardware wurde, desto weniger Spiele gibt es, die sie überhaupt nutzen. Das scheint ähnlich der CPU-Leistung zu sein. Je mehr Leistung da ist, desto weniger ist es nötig, sich Gedanken zu machen, wie man das Gegebene optimal nutzt. Am Ende interessiert es schlichtweg nicht.

Experimente wie damals die Gravis Ultrasound waren ganz nett, wurden aber in Spielen auch nur sehr selten genutzt. Auch die Zeiten von Midi in Form von meiner alten Roland SCC-1 sind lange gezählt.

Wenn man überhaupt noch an Fortschritt beim Sound glaubt, dann muss der auf Konsolen stattfinden, da dort eine identische Basis vorhanden ist.

Deinorius
2013-05-02, 15:35:54
Am Ende konnte statistisch nicht mehr sicher zwischen komprimiert und unkomprimiert unterschieden werden (IIRC ab 192 kbit/s).


Es waren 256 kbit/s. Macht jetzt auch keinen großen Unterschied. Es wäre aber interessant, diesen Test mit aktuellen Codecs zu wiederholen. Selbst mp3 ist mit Lame deutlich effizienter geworden. Da wäre die Grenze bei der Bitrate interessant.

Iruwen
2013-05-02, 15:41:54
Zuerst mal der Raum und die Aufstellung! Alles andere kommt von der Wertigkeit danach.

Und geschätzte 70% der Leute auch mit höherwertigem Equipment haben hier katastrophale Bedingungen, weil ausschließlich nach Optik aufstellt wird (Raummoden, Nachhall): Da stehen dann meist die edlen 4T€-Frontboxen und der Subwoofer schön direkt an der Wand mit dem TV und das Sofa mit dem Hörplatz direkt an der gegenüberliegenden Wand ;)

Der WAF ist entscheidend ;)

Sunrise
2013-05-02, 16:08:11
Es waren 256 kbit/s. Macht jetzt auch keinen großen Unterschied. Es wäre aber interessant, diesen Test mit aktuellen Codecs zu wiederholen. Selbst mp3 ist mit Lame deutlich effizienter geworden. Da wäre die Grenze bei der Bitrate interessant.
Das ist zwar etwas am Thema vorbei:

Ich würde mal behaupten, dass Lame sogar drastisch besser wurde. Ich habe letztens ungewollt (mit zwei verschiedenen Programmen, die extern den Lame nutzen) ein Stück einmal mit 3.97 bzw. 3.98 (bin mir nichtmehr sicher) und 3.99r mit 128kbit/s CBR komprimiert.

Beim Anhören ist mir dann aufgefallen, dass ich plötzlich mehr Feindetails im Hochton wahrnehme und im Tiefton wurde es präziser. Beim Vergleich zum Original habe ich dann gemerkt, dass ich in einem der beiden Programme versehentlich eine alte Lame-Version konfiguriert hatte, während Foobar2000 bei mir auf 3.99r stand. Habe das dann rückgängig gemacht und die Ergebnisse waren auch mit Foobar2000 und dem alten Lame identisch (schlechter als 3.99r).

Jemand, der vorgibt, er könne mit aktuellem Lame, 320kbit/s CBR und optimalen Settings Unterschiede zum CD-Original wahrnehmen, redet sich um Kopf und Kragen. Bei 192KBit/s sehe ich ungefähr die Grenze zwischen dem, was man evtl. noch hören kann, aber auch nur dann, wenn man auf das jeweilige Stück geübt ist und die Ohren bereits einen bestimmten Klang erwarten. Ich höre auf meiner Wiedergabekette vor allem im Mittel-Tiefton und Tiefton teilweise starke Unterschiede, wenn ich mit Bitrate zu geizig bin. Bei reinen Blindtests hat man das gleiche Problem wie mit dem Test-Schmecken von Gemüse, Früchten o.Ä. - eine Unterscheidung ist fast nicht möglich, bzw. extrem schwierig. Wechselt man die Wiedergabekette und den Raum, dann wird es fast schon unmöglich.

Außer man hört sich lange vorher in diverse Stücke ein. Woher soll der Mensch sonst wissen, wie es richtig klingen soll? Das weiß manchmal selbst der Toningenieur nicht, der sich sein eigenes Stück auf einer anderen Kette einmal komprimiert und unkomprimiert anhört, anstatt auf seinem Master-Setup, das man nur im Studio replizieren kann.

Übrigens, wenn ich bei Apple bestimmte Songs matche (iTunes Match), dann kommt auch oft ziemliche Gülle raus. Das liegt aber nicht nur an AAC, sondern daran, was Apple mit den eingelesenen Mastern noch angestellt hat (Normalizing, etc.).

Bei Lame und dem Video-Encoding mit x264 lassen sich unglaublich gute Resultate erzielen, wenn man Zeit hat, sich mit dem Material zu beschäftigen und darauf zu optimieren.

Zum Thema:

Halbwegs gut komprimierte "Streams" bei Konsolen reichen für Musik-Untermalung also völlig aus. Bei Effekten bin ich schon lange nichtmehr im Bilde. Die letzte Konsole die ich hatte, war ein SNES.

mczak
2013-05-02, 16:59:42
Also die Effekte "richtig" zu berechnen ist gar nicht so einfach, da gibt es Beugung, Brechung, Reflexion zu berücksichtigen (ist also theoretisch komplexer als bei Licht). Aber ich vermute auch ohne grosse Berücksichtigung der Physik fällt das kaum auf, der Mensch orientiert sich halt eher am Sehsinn. Setzt du die Fledermaus vor den PC kann die allerdings wohl nicht viel mit den Audioeffekten anfangen (mal abgesehen von der falschen Frequenz). Wobei z.B. blinden Menschen würde das wohl eher auffallen, schliesslich ist der Mensch prinzipiell in der Lage sich sogar anhand von Echolokalisation zu orientieren :-).

Felixxz2
2013-05-02, 20:55:22
Das solltet ihr alles nicht dem Großteil der HiFi-Freaks erzählen. Wahr oder nicht wahr, viele audiophile Leute finden CD besser als MP3 und 24 Bit besser als CD.

Ein wirklich finales Urteil würde ich mir da nicht erlauben.

PrefoX
2013-05-02, 21:25:54
Also die Effekte "richtig" zu berechnen ist gar nicht so einfach, da gibt es Beugung, Brechung, Reflexion zu berücksichtigen (ist also theoretisch komplexer als bei Licht). Aber ich vermute auch ohne grosse Berücksichtigung der Physik fällt das kaum auf, der Mensch orientiert sich halt eher am Sehsinn. Setzt du die Fledermaus vor den PC kann die allerdings wohl nicht viel mit den Audioeffekten anfangen (mal abgesehen von der falschen Frequenz). Wobei z.B. blinden Menschen würde das wohl eher auffallen, schliesslich ist der Mensch prinzipiell in der Lage sich sogar anhand von Echolokalisation zu orientieren :-).
äh licht ist komplexer oO allein schon durch die radiosität oder bei caustics

TheCounter
2013-05-02, 22:44:04
Was wirklich zählt, sind gute Lautsprecher/Kopfhörer, korrekte Aufstellung, korrekte Einstellung und ein guter akustischer Raum. Alles andere ist Voodoo.

Wobei es in der aktuellen Generation wirklich viele Spiele gab, bei denen der Sound so schlecht abgemischt und/oder "kaputt" komprimiert wurde, das einem schon fast schlecht wurde.

Wenn ich an Halo 4 zurückdenke, dann stellen sich mir noch immer die Haare auf. Das hat sich nach 64kbit MP3 angehört ;D :freak:

Hübie
2013-05-02, 22:55:57
Skyrim...
Deswegen sag ich auch immer: Wenn die Quelle scheiße ist kannst du sonst was einstellen. Aus Scheiße kann man kein Bonbon machen.

Hayab
2013-05-02, 23:51:22
Hoffentlich gibt es wieder vermehrt 3D und mehrkanal Sound bei den Spielen. 1997-2004 hatte fast jedes Spiel 3D und 7.1 Support, danach war das eher selten.

Zu Soundqualitaet. Wenn die Soundfile in 16bit/48khz Aufloesung aufgenommen wird, bringt es nicht den DAC mit 24bit/96khz zu betreiben. Dadurch wird der Sound nicht besser. Viel mehr Qualitaet vierliert der Sound an Komprimierung sowie schlechten DA Wandler die gerne verbaut werden.

mczak
2013-05-03, 03:22:13
äh licht ist komplexer oO allein schon durch die radiosität oder bei caustics
Die Effekte gibt's bei Schallwellen genau gleich. Bei Licht hast du aber im Normalfall wenigstens keine Beugung, bei Audio gibt's aber Beugung an jedem Feld-Wald-und-Wiesen Hindernis.

drmaniac
2013-05-03, 07:43:01
könnte ein Mod mal bitte die letzten beiden Seiten löschen ;) Gehört irgendwie alles gar nicht mehr in den Thread.


Bin mal gespannt, ob mit der Xbox im Mai auch das Illumiroom vorgestellt wird, also ob und wie es integriert oder wann als Zubehör erhältlich ist :)

PrefoX
2013-05-03, 07:52:03
Die Effekte gibt's bei Schallwellen genau gleich. Bei Licht hast du aber im Normalfall wenigstens keine Beugung, bei Audio gibt's aber Beugung an jedem Feld-Wald-und-Wiesen Hindernis.
dafür muss licht auch durch rauch/nebel, im wasser oder glas gebrochen werden oder wie schon gesagt die radiosität die farbe von oberflächen beeinflussen und das für jeden ray...

KiBa
2013-05-03, 16:23:37
dafür muss licht auch durch rauch/nebel, im wasser oder glas gebrochen werden oder wie schon gesagt die radiosität die farbe von oberflächen beeinflussen und das für jeden ray...
Die Effekte gibt es bei Schallwellen auch, da verändert sich auch die "Farbe" (Frequenz). Audio ist theoretisch schwieriger zu berechnen, da man häufig mit "Wellen" statt mit "Teilchen/Rays" rechnen muss. Außerdem kann man die Ausbreitungsgeschwindigkeit bzw. deren Veränderung durch Stoffe bei Licht ignorieren, aber nicht bei Schall.

Praktisch kann man aber viel bei der Audioberechnung vereinfachen, da das Gehör vieles mehr verzeiht als das Auge.

ChaosTM
2013-05-03, 17:17:07
Der Sound sollte zumindest in 192/24 vorliegen. Platz genug ist ja..
Dann kann jeder für sich selbst entscheiden, ob er den Unterschied wahrnimmt... ;)

aufkrawall
2013-05-03, 17:47:25
Der Sound sollte zumindest in 192/24 vorliegen. Platz genug ist ja..
Dann kann jeder für sich selbst entscheiden, ob er den Unterschied wahrnimmt... ;)
Und die Texturen in 500000x500000. Den Unterschied würd wenigstens jeder merken, wenn man schon Platz verschwendet...

Gipsel
2013-05-03, 18:47:10
Die Effekte gibt es bei Schallwellen auch, da verändert sich auch die "Farbe" (Frequenz).Ohne nichtlineare Effekte (oder Doppler) ändert sich die Frequenz nie, nur die Wellenlänge ;).
Audio ist theoretisch schwieriger zu berechnen, da man häufig mit "Wellen" statt mit "Teilchen/Rays" rechnen muss.Durch die erheblich größere Wellenlänge von Schallwellen, kann man die Umgebung typischerweise in deutlich niedriger Auflösung berechnen. Ich sehe nicht, wie das aufwendiger ist, als die Ausbreitung von Licht zu simulieren, bei der man alle Objekte in sehr hoher Auflösung mitnehmen muß, um realistische Ergebnisse zu erzielen, selbst wenn man die "Welleneffekte" wie Interferenz und Beugung vernachlässigt, die bei Schall recht wichtig sein können. Oder anders gesagt: bei Licht addiert man typischerweise Intensitäten (nicht kohärent, bzw. Phasen als zufällig angenommen), bei Schall Amplituden (kohärente Addition).
Außerdem kann man die Ausbreitungsgeschwindigkeit bzw. deren Veränderung durch Stoffe bei Licht ignorieren, aber nicht bei Schall.Nein. So wichtige Effekte wie Brechung beruhen auf dem Unterschied der Ausbreitungsgeschwindigkeit in verschiedenen Medien (der Brechungsindex ist schlicht der Quotient aus Lichtgeschwindigkeit im Vakuum geteilt durch die Lichtgeschwindigkeit in dem jeweiligen Medium; bei Schallwellen kann man das am Übergang zwischen zwei Materialien genauso definieren und die Brechungsgesetze sind die gleichen ;)). Das Vorgehen ist also bei allen Wellen prinzipiell gleich, sowohl bei Schall als auch Licht. Da gibt es keinen Unterschied.

So, jetzt aber wieder bitte zurück zu den Konsolen!

Hayab
2013-05-04, 01:30:31
Der Sound sollte zumindest in 192/24 vorliegen. Platz genug ist ja..
Dann kann jeder für sich selbst entscheiden, ob er den Unterschied wahrnimmt... ;)

....und dann 19,95 Euro teure weise PC Stereo lautsprecher anschliessen. :D

ChaosTM
2013-05-04, 02:03:40
....und dann 19,95 Euro teure weise PC Stereo lautsprecher anschliessen. :D

Es gibt immer noch Leute, die "etwas" mehr für ihre Anlagen ausgeben und sich daher auch das derzeit beste machbare wünschen.

Für "Joghurtbecher" Besitzer hält sich der akustische Gewinn naturgemäß in Grenzen. ;)

Knuddelbearli
2013-05-04, 02:13:18
ja und da es auch leute da draußen mit 4k Monitoren gibt / geben wird muss auch jedes spiel mit 30 fps und 4k laufen, wer nur 1080 hat spart dafür dann strom :freak:

Ist zumindest der gleiche gedankengang ^^

Frozone
2013-05-04, 14:22:51
ja und da es auch leute da draußen mit 4k Monitoren gibt / geben wird muss auch jedes spiel mit 30 fps und 4k laufen, wer nur 1080 hat spart dafür dann strom :freak:

Ist zumindest der gleiche gedankengang ^^
Nein, die Mehrheit hat kein gutes Sound System, so wie auch die Mehrheit kein 4K hat.

KiBa
2013-05-04, 14:31:18
Durch die erheblich größere Wellenlänge von Schallwellen, kann man die Umgebung typischerweise in deutlich niedriger Auflösung berechnen.
Kommt auf die Anwendung an. Zur Raumausmessung sind ähnliche Auflösungen notwendig wie bei Bildschirmen. Auch Wellenfeldsynthese ist nur mit einem kleinen Rechnerpark zu bewerkstelligen, also auch ähnlich zur Leistung einer High-End Grafikkarte, eher mehr.

Nein. So wichtige Effekte wie Brechung beruhen auf dem Unterschied der Ausbreitungsgeschwindigkeit in verschiedenen Medien (der Brechungsindex ist schlicht der Quotient aus Lichtgeschwindigkeit im Vakuum geteilt durch die Lichtgeschwindigkeit in dem jeweiligen Medium; bei Schallwellen kann man das am Übergang zwischen zwei Materialien genauso definieren und die Brechungsgesetze sind die gleichen ;)). Das Vorgehen ist also bei allen Wellen prinzipiell gleich, sowohl bei Schall als auch Licht. Da gibt es keinen Unterschied.
So meinte ich das nicht. Willst du z.B. Blitz und Donner glaubwürdig berechnen, musst du in jedem Zeitschritt die Schallwellen zurückverfolgen (bzw. die Wellen iterativ verfolgen inklusive gebrochenen, gestreuten, teilabsorbierten etc. Wellen). Die Lichteffekte vom Blitz selbst können schön Frame für Frame neu berechnet werden, während Schall komplexe Abhängigkeiten zur Landschaft zeigt (räumlich, frequenzabhängig und zeitlich). Ein Lichstrahl kann hier als unendlich schnell angenommen werden und hat hier die zeitliche Komponente nicht, und ist deshalb einfacher zu berechnen.

megachip800
2013-05-04, 23:19:57
Neue Durango Infos von Pastebin?


http://pastebin.com/8gB1zEsG


Facts from the final (retail) Version of the Console:

-Doesent play Blueray movies
-Most games runs with 30 frames/s in 720p Resolution , some Games are only upscaled to 1080p
-some Games requires permanent internet connection
-Games showing on e3 floor are running on more powerful Hardware (devkits) than the retail Version,
final Games on the retail Version looks dowgraded compare to the e3 Presentations.
-Cpu not powerful enough to handle 1000 Internetplayers like in Planetside 2 (Pc), so you wont see many
MMOG on Ms new Console
-AudioDSP is more powerful and versatile than Ps4 Soundsystem/Dsp
-Microsoft is focussing primary on Kinect and Casual Games , the so called "Coremarket" are no longer
the primary Goal for Ms.
-Gamedevelopners cannot direct Access to the Hardware , all Games are running on Microsofts API
-Some Developners are dissapointed about Durangos slow and complicated Memoryarchitecture , some Projects
were cancelled due to hardwarelimitations.
-Microsofts Low End Strategy was already set in 2010 by an internal Developner Conference , so for
me these new Trends are not a surprise for me.
- All Rumours about improving Hardwarespecs , Dual-Gpus , Clock and Memory enhancements are pure Fanboy Dreams , FUD campaign or Disinformation from Microsofts Employers.

Rente
2013-05-04, 23:24:34
Das ist zwar neu, aber mit hoher Wahrscheinlichkeit auch einfach Blödsinn.

Crazy_Bon
2013-05-04, 23:28:36
Schon mal besser gelacht.

deepmac
2013-05-05, 06:06:39
Es gibt immer noch Leute, die "etwas" mehr für ihre Anlagen ausgeben und sich daher auch das derzeit beste machbare wünschen.

Für "Joghurtbecher" Besitzer hält sich der akustische Gewinn naturgemäß in Grenzen. ;)


Tischhupen oder Brüllwürfel :biggrin:

Crazy_Bon
2013-05-05, 11:51:32
Ich ändere das mal ab:
Neue WiiU Infos von Hoax?



Facts from the final (retail) Version of the Console:

-Doesent play Blueray movies
-Most games runs with 30 frames/s in 720p Resolution , some Games are only upscaled to 1080p
-Games showing on e3 floor are running on more powerful Hardware (devkits) than the retail Version,
final Games on the retail Version looks dowgraded compare to the e3 Presentations.
-Nintendo[b] is focussing primary on Casual Games , the so called "Coremarket" are no longer
the primary Goal for [b]BigN.
-Some Developners are dissapointed about WiiU slow and complicated Memoryarchitecture , some Projects
were cancelled due to hardwarelimitations.
-Nintendos Low End Strategy was already set in 2010 by an internal Developner Conference , so for
me these new Trends are not a surprise for me.
- All Rumours about improving Hardwarespecs , Dual-Gpus , Clock and Memory enhancements are pure Fanboy Dreams , FUD campaign or Disinformation from Nintendos Employers.

So, jetzt passt´s. ;)

TheCounter
2013-05-06, 11:14:11
So, jetzt passt´s. ;)

Und schon macht das ganze Sinn.

Gibt von Pastebin auch andere Gerüchte, das MS das erstes Design verworfen hat und das zweites Design nimmt (keine APU, kein Jaguar, ~2.3TF GPU, 8GB DDR3 + 5GB GDDR5). Daher sollen auch die Hitzeprobleme der Devkits und der hohe Preis (500EUR) kommen.

Auf Pastebin darf halt nunmal jeder Hans schreiben ^^

tobor
2013-05-06, 12:07:35
Neue Durango Infos von Pastebin?


-Cpu not powerful enough to handle 1000 Internetplayers like in Planetside 2 (Pc), so you wont see many
MMOG on Ms new Console


Zumindest hier sollte man doch stutzig werden: Seit wann werden in MMOgs solche Sachen nicht vom dezidierten Servern "gehandelt"?

dildo4u
2013-05-06, 12:43:43
Das ist Murks es gibt schon auf der PS3 mehrerer MMO's,Final fantasy 14 und DC Universe Online.Meiner Meinung nach wird's diese Generation mehr geben,da zumindest Sony free to play erlauben wird.Planetside 2 kommt ziemlich sicher für die PS4.

https://twitter.com/j_smedley/status/304635642011344896

Iruwen
2013-05-06, 14:00:30
MMO ist nicht gleich MMO, so massive Kämpfe wie in EVE oder GW2 gibts nicht in jedem Spiel. Insofern ist "Massive" auch ein sehr dehnbarer Begriff.

Nightspider
2013-05-06, 15:34:25
Gibt von Pastebin auch andere Gerüchte, das MS das erstes Design verworfen hat und das zweites Design nimmt (keine APU, kein Jaguar, ~2.3TF GPU, 8GB DDR3 + 5GB GDDR5). Daher sollen auch die Hitzeprobleme der Devkits und der hohe Preis (500EUR) kommen.

Dafür wären 500 Euro aber nicht teuer sondern günstig. ;)

Erst wenn wenn Kinect 2 mit im Preis inbegriffen wäre.

TheCounter
2013-05-06, 17:53:38
Wieder was neues:

There are a number of scenarios that our users expect to work without an Internet connection, and those should 'just work' regardless of their current connection status. Those include, but are not limited to: playing a Blu-ray disc, watching live TV, and yes playing a single player game.

http://arstechnica.com/gaming/2013/05/microsoft-next-xbox-will-work-even-when-your-internet-doesnt/

Also sind wohl alle Gerüchte bezüglich "Always-On" bzw. "Muss immer Online sein" falsch.

Würde mich nicht wundern wenn einige der anderen Gerüchte, vielleicht sogar die Specs an sich, falsch sind ;)

Crazy_Bon
2013-05-08, 16:53:08
Damit wäre das nun geklärt, beide NextGen-Konsolen (Xbox Next/720 und PS4) ohne Onlinezwang.
http://www.xboxfront.de/news-32-35597-News-Xbox-360.html

DinosaurusRex
2013-05-08, 17:46:04
Also sind wohl alle Gerüchte bezüglich "Always-On" bzw. "Muss immer Online sein" falsch.

Würde mich nicht wundern wenn einige der anderen Gerüchte, vielleicht sogar die Specs an sich, falsch sind ;)

Ich denke das eine muss nicht zwangsweise etwas mit dem anderen zu tun haben. Wir müssten zuallererst den Zeitpunkt der finalen Entscheidung gegen einen Online-Zwang kennen, um über Zusammenhänge wie die von dir angedeutete allgemeine Ungültigkeit aller XBox Gerüchte spekulieren zu können. Pachter, das EDGE Magazin und andere namhafte Beteiligte werden sich ja sicher nicht grundlos so weit aus dem Fenster gelehnt haben.

Watson007
2013-05-08, 17:50:40
das war sicher ein Testballon um die Reaktionen auszuloten

PrefoX
2013-05-09, 11:13:40
MMO ist nicht gleich MMO, so massive Kämpfe wie in EVE oder GW2 gibts nicht in jedem Spiel. Insofern ist "Massive" auch ein sehr dehnbarer Begriff.
gw2 hat auch keine sichtbar größere spieleranzahl... nein auch nicht im pvp, weil du da immer nur ein teil siehst und ausserdem ist das kaum spielbar, egal auf welcher hardware.

Iruwen
2013-05-09, 18:06:25
Man sieht alle Spieler, das Culling ist im WvW entfernt und mit dem Update Ende März auch im PvE. Sind zwar keine 1000 aber 300 könnens durchaus sein.
Aber ja, das kommt auch mit 4,5GHz nicht über 30FPS. Speziell bei dem Spiel könnte man aber mit besserem Multithreading noch was reißen, hängt halt alles an einem Kern.
Bei EVE sind glaub ich durchaus 1000 Leute in einem System denkbar, hab ich aber selbst nicht so intensiv gespielt.

Knuddelbearli
2013-05-09, 20:05:01
1800+ sind bei Eve locker drinnen limitieren tut die Serverhardware ( bzw das EvE auf dem Server kaum Muiltithread fähig ist und sich das auch nicht sobald ändern wird da bestimme Erweiterungen der Programmsprache das verhindern, es müsste also größtenteils neu egamcht werden in einer anderen Sprache )

PrefoX
2013-05-10, 14:45:59
gegen eve sagt ja auch keiner was, fand nur das GW2 ein schlechtes Beispiel war, weil die performance (jaja die konsolen sind ja immer schuld an der schlechten PC-Spiele-Performance) echt schlecht ist.

Eve sollte aber auch locker auf konsolen laufen. Also liegt es eher an der software.

Knuddelbearli
2013-05-10, 17:06:09
Eve ist aber auch ein vollkommenes anderes Konzept, man muss nicht selber zielen sich bewegen usw.

Gerade Nahkämpfe sind extrem Rechenaufwendig aufwendig und zugleich sehr sensibel was lag usw betrifft

Locuza
2013-05-11, 13:12:58
Frage:
Schafft ein 1.6 Ghz Jaguar-Kern vom Durchsatz einen Xenon 3.2 Ghz-Kern zu erreichen oder gar zu übertrumpfen? (Integer&Floating-Point)

Bei einer Konsole läuft ja kein Wald&Wiesen Code, sondern man programmiert so gut es geht für das Design.
Somit wäre ja auch die In-Order Pipeline von einem Xenon nicht so fatal.

Ein Bobcat Core war glaube ich 40-70% im ST-Vorteil gegenüber einem Atom, dass ist jetzt natürlich ein Apfel&Birnen Vergleich, aber wenn ich das mit einem Xenon vergleiche, könnte ich mir doch ähnliche Größenordnungen vorstellen oder nicht?
Oder ist das Xenon-Design trotzt angepasster Programmierung deutlich technisch hinter einem Jaguar einzuordnen?
Jaguar hat ja eine moderne OoO-Pipeline, Physical Register Files, eine wohl deutlich bessere branch prediction usw.

Aber was bei einem Xenon ja sehr nett ist, ist seine spezielle VMX-Erweiterung mit 128x128-Bit Registern, ein Jaguar hat demgegenüber ja nur x86 traditionell nur 16x256-Bit Register bzw. 16x128-Bit Register.
Ist das hier bei Floating-Point Berechnungen ein großer/kleiner Nachteil?
Oder ist das eher vernachlässigbar?

][immy
2013-05-11, 14:03:27
Frage:
Schafft ein 1.6 Ghz Jaguar-Kern vom Durchsatz einen Xenon 3.2 Ghz-Kern zu erreichen oder gar zu übertrumpfen? (Integer&Floating-Point)

ich habe hier schon mal geschrieben das die CPU der xbox 360 damals (als sie rauskam) mit einem ~1,3 Ghz Athlon64 verglichen wurde. Also die allgemeine Leistung wird sicherlich nicht geringer mit den Jaguar Kernen. Das es hier und da in einigen spezialsituationen anders aussieht mag durchaus sein. die stärken und schwächen liegen halt einfach woanders.

aber du musst dir eigentlich nur mal die xbox 360 anschauen und ein paar apps oder gar den browser ausprobieren um zu merken, das der Prozessor sicherlich nicht vor Leistung strotzt. mag vielleicht auch am speichermangel liegen oder daran das nicht unbedingt hardware-nah entwickelt wurde, aber das ding ist bei sowas einfach Grotten lahm.
hinzu kommen Sachen wie "OoO" vs "In Order" Architekturen und die ganzen x86 Erweiterungen die ja auch mit an board sind. technologisch wird man hier sicherlich keinen Rückschritt machen.

Locuza
2013-05-11, 14:14:29
Das Problem ist ja wirklich, wie will ich ein Gefühl bekommen, für die Größenordnung?
Wie kann ich mehr oder weniger objektiv beide Prozessoren testen und vergleichen?

Technologisch macht man sicher keinen Rückschritt, aber Xenon hat vermutlich 100% mehr Takt.
Das gilt es nur durch bessere Technologie einzuholen, bei der Hälfte der Taktraten.

][immy
2013-05-11, 21:29:31
Das Problem ist ja wirklich, wie will ich ein Gefühl bekommen, für die Größenordnung?
Wie kann ich mehr oder weniger objektiv beide Prozessoren testen und vergleichen?

Technologisch macht man sicher keinen Rückschritt, aber Xenon hat vermutlich 100% mehr Takt.
Das gilt es nur durch bessere Technologie einzuholen, bei der Hälfte der Taktraten.

nunja, das Prozessordesign ist schon ein wenig überholter. Ein heutiger Core i3 macht auch mit 2 GHz ohne probleme jeden P4 platt. ob das in allen bereichen so ist wäre zwar noch ne andere frage, aber insgesamt schafft der das mühelos. und der P4 hatte zu hochzeiten immerhin 3,8 GHz. Taktfrequenz ist halt nicht alles.

robbitop
2013-05-13, 15:05:01
Eventuell ist Jaguar auch mit bis zu 2 GHz in den Nextgen SoCs verbaut. Die Taktrate wurde ja noch nicht preisgegeben oder?

Locuza
2013-05-13, 16:21:44
[immy;9764611']nunja, das Prozessordesign ist schon ein wenig überholter. Ein heutiger Core i3 macht auch mit 2 GHz ohne probleme jeden P4 platt. ob das in allen bereichen so ist wäre zwar noch ne andere frage, aber insgesamt schafft der das mühelos. und der P4 hatte zu hochzeiten immerhin 3,8 GHz. Taktfrequenz ist halt nicht alles.
Gibt es eig. so eine IPC-Tabelle oder einen interessanten Generations-Test bezüglich der IPC und dem Durchsatz?
(Die PCGH hatte mal einen bei AMD CPUs glaube ich, mit Bulldozer im Vergleich)

Ein Core i3 und ein Pentium 4 sind schon arg anders, was das Pipeline-Design, die Decoder usw. betrifft.
Da finde ich ist der Vergleich zwischen einem Xenon-Core und einem Jaguar etwas simpler.

(Grober Vergleich zwischen Bobcat vs. K8 vs. K10)
http://www.xtremesystems.org/forums/showthread.php?272541-Bobcat-Core-performance-analysis-Bobcat-vs-K10-vs-K8


Eventuell ist Jaguar auch mit bis zu 2 GHz in den Nextgen SoCs verbaut. Die Taktrate wurde ja noch nicht preisgegeben oder?
Die Leaks sprachen ja anfangs von 1.6Ghz für beide, aber Sony hat nichts preisgegeben bei der CPU.
Man lässt sich vielleicht etwas Spielraum.
Die Xbox Next wird jetzt am 21. Mai präsentiert, vielleicht geht MS bei sich darauf ein oder schweigt sich auch aus.

Gipsel
2013-05-13, 17:54:05
Ein Core i3 und ein Pentium 4 sind schon arg anders, was das Pipeline-Design, die Decoder usw. betrifft.
Da finde ich ist der Vergleich zwischen einem Xenon-Core und einem Jaguar etwas simpler.Also Xenon und Jaguar liegen bestimmt nicht näher beieinander als P4 und Core i#.

robbitop
2013-05-14, 08:56:44
Also Xenon und Jaguar liegen bestimmt nicht näher beieinander als P4 und Core i#.
So extrem? Core i hat >2x pro Takt/pro Kern Leistung als ein P4.
Man darf nicht vergessen, dass der Code auf Konsolen stark optimierbar ist und man In Order Nachteile damit etwas kompensieren kann. SMT steigert zusätzlich auch die Auslastung der Kerne. Ich persönlich würde dann nicht mehr von > Faktor 2 pro Takt/Kern Leistung ausgehen. Aber ich gebe zu, ein Laie in dem Gebiet zu sein.

Gipsel
2013-05-14, 13:34:45
So extrem? Core i hat >2x pro Takt/pro Kern Leistung als ein P4.
Man darf nicht vergessen, dass der Code auf Konsolen stark optimierbar ist und man In Order Nachteile damit etwas kompensieren kann. SMT steigert zusätzlich auch die Auslastung der Kerne. Ich persönlich würde dann nicht mehr von > Faktor 2 pro Takt/Kern Leistung ausgehen. Aber ich gebe zu, ein Laie in dem Gebiet zu sein.Ich dachte, wir reden hier von der Architektur. Aber auch bei der Leistung dürfte der Abstand mitunter sehr beträchtlich sein (es liegt nicht nur an in-order vs. OoOE), vor allem aber sehr viel inkonsistenter als beim Vergleich von P4 mit irgendeinem Core i#. Die Performanceprofile (also die Performance bei verschiedenen Aufgaben) der genannten x86-Prozessoren sind zueinander ähnlicher (wenn natürlich auch zwischen P4 und einem Sandybridge grob mit Faktor 2 skaliert werden kann) als beim Vergleich mit einem Xenon. Bei den x86ern kann man sogar den P4 noch (und auf den trifft das am wenigsten zu) als eine Allrounder-CPU beschreiben, zumindest im Vergleich zum Xenon.

robbitop
2013-05-14, 13:43:12
Aber gerade dann versuchst du doch als Entwickler möglichst die Schokoladenseiten der µ-Arch zu bespielen, oder?

Gipsel
2013-05-14, 13:55:11
Aber gerade dann versuchst du doch als Entwickler möglichst die Schokoladenseiten der µ-Arch zu bespielen, oder?Was Dir aber trotzdem nicht dabei hilft, eine Zahl als Faktor zwischen zwei Architekturen dranzuschreiben. Das ist bei x86ern schon recht schwer, bei einem Vergleich von Xenon vs. x86er-CPU (hier Jaguar) ist es praktisch aussichtslos. Ein Jaguar-Kern ist je nach Aufgabe vermutlich irgendwas von 0,5 bis 5mal so schnell wie ein Xenon-Kern (einfach mal ins Blaue getippt, Coda z.B. kann dazu vermutlich was Genaueres sagen; ein paar Corner-Cases oder worst-case-Code liegen wahrscheinlich noch außerhalb dieses Bereichs). Einen irgendwie aussagekräftigen Durchschnitt festzulegen, ist kaum möglich (weil das Performanceverhältnis bei verschiedenen Aufgaben viel stärker schwankt, als z.B. beim Vergleich von Jaguar mit einen Sandybridge). Hilft einem das also irgendwie weiter?

robbitop
2013-05-14, 14:10:50
Warum schwankt die Leistung bei Xenon denn eigentlich so stark?

Gipsel
2013-05-14, 14:38:07
Warum schwankt die Leistung bei Xenon denn eigentlich so stark?Weil der Maßstab nunmal x86er-CPUs mit OoOE, allgemein sehr guter Sprungvorhersage, ausgefeilten Spekulationsmechanismen und noch ein paar mehr Tricks sind, die bei irregulärerem Code jedem Xenon das Fell über die Ohren ziehen. In einer kritischen Schleife, in der man z.B. nur stur durch ein Array iteriert und irgendwelche Vektoroperationen mit ansprechend hohem (und statisch vom Compiler erkennbarem) ILP durchnudelt, bringt das alles natürlich nichts und da kann Xenon ganz gut mithalten (sogar Takt für Takt). Aber bei etwas schwierigeren Aufgaben bricht er halt ein, die x86er nicht so sehr (noch nicht mal der ebenfalls in-order Atom). Für eine performante CPU ist nunmal etwas mehr nötig, als nur zwei oder drei ALUs und zwei FPU-Pipelines zusammenzustöpseln. Und bei diesen Extras hapert es bei den alten Xenon-Kernen (oder der PPE der PS3). Die "Performancetäler" bei suboptimalem Code sind allgemein tiefer als bei halbwegs modernen x86ern.

robbitop
2013-05-14, 14:51:38
Aber auch das hat man mit harter Optimierung doch halbwegs im Griff, dass man die CPU einer Konsole immer mit schmackhaftem Code beliefert und möglichst nah am Optimum fährt oder?

Gipsel
2013-05-14, 15:23:47
Aber auch das hat man mit harter Optimierung doch halbwegs im Griff, dass man die CPU einer Konsole immer mit schmackhaftem Code beliefert und möglichst nah am Optimum fährt oder?Nun, natürlich versucht man, nah ans Optimum zu kommen. Aber das ist erstens Aufwand (den spart man sich gerne, weil es Zeit und damit Geld kostet), zweitens sind die "performance cliffs", die man hinunterstürzen kann, steiler und tiefer und zuletzt ist es für einige Sachen schlicht unmöglich, den Code in eine Form zu bringen, die einem Xenon schmeckt (was dazu führen kann, daß man auf eigentlich suboptimale Algorithmen zurückgreift, nur weil die sich besser optimieren lassen; Ähnliches kann man in vielleicht sogar noch extremerer Form auch beim GPU-Computing beobachten).