Archiv verlassen und diese Seite im Standarddesign anzeigen : PS3 hardware slow and broken
Spectrum
2006-06-20, 00:38:15
Jesus, ich habe noch die audiovision, in der die PS2 getestet wurde (2/2001). War ein ziemlicher Reinfall, etwas schlechteres musste man lange suchen. Um deren Fazit zu zitieren: "Witzige Spielkonsole, aber ein enttäuschender DVD-Player. Unter Sony-Niveau".
Über das allgemeine Niveau von Sony sollte man sich an dieser Stelle besser nicht auslassen, für viele war es halt ausreichend.
Jesus
2006-06-22, 09:01:13
Developer Interview (Heavenly Sword):
http://psinext.e-mpire.com/index.php?categoryid=3&m_articles_articleid=599&PHPSESSID=784800d1964413bf17a3fe11f1c80bc2
PSINext: As previously discussed, beyond it's high quality one of the primary reasons for the use of NAO32 is that it saves bandwidth in a bandwidth-hungry environment. In the future do you feel RSX will be at a disadvantage to Xenos when it comes to framebuffer effects due to the 128-bit bus and lack of eDRAM?
Marco: Not at all; in fact for many framebuffer effects I believe RSX will have an edge over Xenos. Don't want to go into details, but let me just point out that RSX is connected to two seperate busses, not just one.
PSINext: So NAO32 is a means for you to preserve memory while at the same time retaining image quality, is that correct?
Marco: Correct. The main idea behind NAO32 is that we want to trade shading power to regain memory space and bandwidth (very precious resources on a console). So instead of encoding our HDR colors into a FP16 or FP32 frame buffer, we devised a scheme to use RSX pixel shading units to convert an RGB color in a CIE Luv color that only requires a common RGBA8 frame buffer (4 bytes per pixel, half the space of a FP16 pixel) to be fully stored.
The quality of this format is really outstanding. Even if it uses half the space/bandwidth of common HDR rendering solutions, it really makes no compromises at all in image quality.
There's no magic here: HDR rendering costs are shifted from memory to shaders, and so our shaders are a bit longer now (between 3 and 5 cycles). We believe it's a very good trade-off. Furthermore, it enables HDR rendering and multisample anti-aliasing on GPUs that do not natively support AA with floating point render targets such as FP16 and FP32.
We also developed a faster 3 bytes per pixel version called NAO24 (predictable, isn't it?) that supports a narrower dynamic range with less accuracy. And although the quality was quite decent in most cases, we decided against making any compromises, and so in the end we did not use it.
My final answer is totally positive: NAO32 can be considered a real HDR format.
Marco: Dunno about Nintendo's offering, but it might have merit on Microsoft's console if developers wanted something that takes the same storage space as an FP10 render target, but with a much higher level of quality. NAO32 on Xenos would cost developers shading power relative to FP10, however, and they would lose the ability to use the eDRAM for blending as well. So at this time, I believe something like NAO32 makes more sense on RSX than on Xenos.
PSINext: We've spoken here about a number of NAO32's advantages. Are there any notable drawbacks?
Marco: Yes, there are drawbacks too; it's not an all-win situation. GPUs usually support hardware blending in RGB color spaces, hence hardware assisted blending is not going to work on a NAO32 frame buffer - it would produce incorrect results.
There are various ways to overcome this limitation though, such as by emulating blending operations in a pixel shader, or performing blending on a FP16 render target and then composing the result… or even just blending in LDR in a common RGBA8 buffer.
It would be nice to have a GPU that natively supports a CIE Luv frame buffer though.
Jesus[/POST]']Developer Interview (Heavenly Sword):
http://psinext.e-mpire.com/index.php?categoryid=3&m_articles_articleid=599&PHPSESSID=784800d1964413bf17a3fe11f1c80bc2
It would be nice to have a GPU that natively supports a CIE Luv frame buffer though.CIE Luv und CIE Lab sind aber keine gut handhabbaren Farbräume.
Benedikt
2006-06-22, 18:05:57
Würde sich dieses CIE-Luv/CIE-Lab-Verfahren eventuell auch für PC-GPUs von nVidia eignen, und wäre das eine Möglichkeit für Spieleentwickler, auf NV-GPUs Antialiasing und HDR zu kombinieren?
Polydeukes
2006-06-22, 18:28:32
Oh Mann, das hier ist ja wirklich fürn Arsch. Dauernd werden irgendwelche Statements von Entwicklern, die ihre subjektive Meinung kundtun als unumstössliche Tatsachen verkauft.
Vor allem Jesus tut sich dabei hervor, immer wieder aufs neue solche subjektiven Satements zu posten. Was soll das? Die haben doch keine Aussagekraft. Wahrscheinlich werden sie nur gepostet, weil man es gerne hätte, dass sie wahr sind und weil man sich dann das Hypen des Lieblingsprodukts vermeintlich rechtfertigen kann.
Jesus
2006-06-22, 20:12:13
Polydeukes[/POST]']Oh Mann, das hier ist ja wirklich fürn Arsch. Dauernd werden irgendwelche Statements von Entwicklern, die ihre subjektive Meinung kundtun als unumstössliche Tatsachen verkauft.
Vor allem Jesus tut sich dabei hervor, immer wieder aufs neue solche subjektiven Satements zu posten. Was soll das? Die haben doch keine Aussagekraft. Wahrscheinlich werden sie nur gepostet, weil man es gerne hätte, dass sie wahr sind und weil man sich dann das Hypen des Lieblingsprodukts vermeintlich rechtfertigen kann.
Wieso sollten sie nicht wahr sein? Oder findest du in dem Interview irgendwas was falsch ist? Wenn ja kannst du es gerne hier posten... :rolleyes:
Leider sind solche Statements eben die einzigen "Fakten" dies (dank NDAs) zur Zeit und wohl bis zum Release der konsole gibt, sonst würde ich schon auch was anderes posten.
@jesus so ein blödsinn...kannst ja gerne hunderttausend tests posten bei dem die ps2 supertoll als dvd player dastand
wenn du damals ne dreamcast gehabt hättest und dir die ps2 für 6390ats gekauft hättest plus rgb kabel für nochmal 500ats und dann n grünes bild gehabt hättest beim dvd sehen, würdest auch anders reden.
das dreamcast hatte von der grafik her die hundertnmal bessere grafik und bei areadvd schreiben sie ja auch "die spiele nutzen die sagenhafte hardware der ps2 voll aus" oder so ähnlich.
was ist an den lächerlichen 4mb ohne texturkompression sagenhaft?!
sie war echt kein guter dvd player und wird es auch nie sein...das bild war nicht schlecht, konnte aber keinesfalls mit guten dvd playern mithalten...
was man bei deinen berichten eindeutig sieht ist das du einfach ein sony fanboy bist und gegen M$ postest, du kannst die 360 nicht schlecht machen wenn die ps3 noch ned da ist. und was sony aus schlechter hardware auf papier machen kann wissen wir ja bereits von der ps2.
also nix für ungut, aber das blöde pro sony geposte mit lächerlichen quellen fand ich nervend.
habe auch keine quellen aber ich hab eben meine meinung die hier auch ein wenig zutrifft und kein pro sony gelaber.
du kommst mir rüber wie so ein 16 jähriger der unbedingt alle von seiner meinung überzeugen will....btw:
wie alt bist eigentlich?;-)
Benedikt[/POST]']Würde sich dieses CIE-Luv/CIE-Lab-Verfahren eventuell auch für PC-GPUs von nVidia eignen, und wäre das eine Möglichkeit für Spieleentwickler, auf NV-GPUs Antialiasing und HDR zu kombinieren?Nicht ohne Grund wird (s)RGB genutzt. Am Ende muss man ja doch sRGB ausgeben. Die Umrechnung ein einen CIE-Lxx-Farbraum ist kein Kinderspiel.
Gast[/POST]']was ist an den lächerlichen 4mb ohne texturkompression sagenhaft?!Die PS2 kann Texturen direkt aus dem (32 MiB großen) Speicher streamen.
Benedikt
2006-06-23, 19:28:15
aths[/POST]']Nicht ohne Grund wird (s)RGB genutzt. Am Ende muss man ja doch sRGB ausgeben. Die Umrechnung ein einen CIE-Lxx-Farbraum ist kein Kinderspiel.
Die PS2 kann Texturen direkt aus dem (32 MiB großen) Speicher streamen.
Naja, ich meinte eigentlich folgendes: Da derzeitige NV-GPUs ja FP16+AA nicht unterstützen, könnte man ja wie der Dev oben schreibt CIE-Lxx verwenden, um das Problem zu umgehen, oder? Sofern CIE-Irgendwas qualitativ gleichwertig wie FP16 ist, wäre ja der Vorteil des geringeren Speicherverbrauchs immer noch gegeben...
Sunrise[/POST]']Karsten Becker kann dir auch praktisch jeden (hochwertigen) Player mit SDI-Nachrüstung modifizieren, das is heutzutage alles kein Hexenwerk mehr.Den gibts immer noch? Cool. Bei ihm habe ich damals (1998?) meinen "gemoddeten" Pioneer DV-717 gekauft.
Polydeukes[/POST]']Da hat sich mal wieder jemand eindeutig als Sony-Fanboy geoutet. Fanboys hypen nämlich irrationalerweise ihre Lieblingskonsole bis zum gehtnichmehr und machen alles andere runter, auch wenn sie sich dafür neue "Gründe" wie bspw. "Microsoft hat das mit der Kompressionstechnik nur erfunden" (die natürlich nicht irgendwie gerechtfertigt werden) ausdenken müssen.
Du Ungläubiger, du...
Nur weil mein Gameboy die PS3 und eure HighendKrüppelRechner plättet bin ich ein Fanboy???
Neomi
2006-06-23, 20:18:17
Benedikt[/POST]']Da derzeitige NV-GPUs ja FP16+AA nicht unterstützen, könnte man ja wie der Dev oben schreibt CIE-Lxx verwenden, um das Problem zu umgehen, oder? Sofern CIE-Irgendwas qualitativ gleichwertig wie FP16 ist, wäre ja der Vorteil des geringeren Speicherverbrauchs immer noch gegeben...
Das ist kein Farbmodell, das man einfach so verwenden kann, Engine und Content (hauptsächlich Verwendung von Transparenz und Nebel) müssen schon darauf vorbereitet sein. Es gibt nämlich nicht nur Nachteile gegenüber FP16 (von Gleichwertigkeit kann keine Rede sein), sondern auch gegenüber FX8.
Jesus
2006-07-10, 22:54:17
Intressting: Cell Programming "User Guide"
http://www.blachford.info/computer/articles/CellProgramming1.html
Is Cell programming difficult:
If you are used to programming with high level languages such as Perl or Python this will all seem rather alien to you and you’ll be more likely to get the impression Cell development will be difficult.
If you’ve developed optimised C or C++ you should have a better understanding of what’s involved and will recognise that extra work is involved.
If you’ve developed SSE and / or Altivec code in C and understand multithreading you’ll probably recognise almost everything here and be wondering what all the fuss is about.
If you’ve developed for the Playstation 2 or tried general purpose programming on GPUs you may be thinking Cell development looks easy!
:rolleyes:
Riptor
2007-03-28, 14:40:51
Naja, ich meinte eigentlich folgendes: Da derzeitige NV-GPUs ja FP16+AA nicht unterstützen, könnte man ja wie der Dev oben schreibt CIE-Lxx verwenden, um das Problem zu umgehen, oder? Sofern CIE-Irgendwas qualitativ gleichwertig wie FP16 ist, wäre ja der Vorteil des geringeren Speicherverbrauchs immer noch gegeben...
Was ist CIE? Was kann damit gemacht werden? Können damit HDR-Effekte generiert werden? Verstehe das nicht ganz...
Was ist CIE? Was kann damit gemacht werden? Können damit HDR-Effekte generiert werden? Verstehe das nicht ganz...
Ersetze CIE durch RGB und deine Fragen hätten die gleiche Antworten.
Naja, ich meinte eigentlich folgendes: Da derzeitige NV-GPUs ja FP16+AA nicht unterstützen, könnte man ja wie der Dev oben schreibt CIE-Lxx verwenden, um das Problem zu umgehen, oder? Sofern CIE-Irgendwas qualitativ gleichwertig wie FP16 ist, wäre ja der Vorteil des geringeren Speicherverbrauchs immer noch gegeben...Wenn das so einfach wär, würde das längst gemacht.
In Direct3D10 gibt es inzwischen 32-Bit-RGB-Formate, die immerhin MDR-tauglich sind. Nur muss das auch die Hardware beherrschen.
Was ist CIE? Was kann damit gemacht werden? Können damit HDR-Effekte generiert werden? Verstehe das nicht ganz...CIE-Luv und CIE-Lab sind Beschreibungen für Farbräume, die gegenüber dem RGB-Farbraum gewisse Vorteile haben. Bei korrektem HDR-Rendering kommt es nicht darauf an, "HDR-Effekte" zu generieren. Das wäre auch ohne HDR-taugliche Formate schon (innerhalb gewisser Grenzen) möglich. HDR-Rendering ist ein Baustein (von vielen) der für eine realistische dynamische Beleuchtung notwendig ist.
Riptor
2007-03-28, 17:58:52
Ah, auf aths ist mal wieder Verlaß, vielen Dank! :)
Ok. Um es mal zusammenzufassen: Es gibt demnach 2 verschiedene Möglichkeiten, wie der RSX HDR + (Multi-Sampling)AA trotzdem darstellen könnte:
1.) FP16 (http://www.3dcenter.de/artikel/2004/11-29_a.php) + SSAA. Problem bei dieser Lösung: Sehr starke Performance-Einschränkungen.
2.) NOA32. Problem wäre hier: INT8 (integer 8-Bit Format). Also ein speziell optimiertes HDR-Verfahren, das Spiel muss jedes mal individuell optimiert werden.
Die Heavenly Sword Macher diesbezüglich:
"We are definately not using FP16 HDR anymore, Marco implemented a cool method to get the same results using INT8. Faster and with MSAA"
Also nutzt man eine geringere Präzision bei der Berechnung und damit geht natürlich alles schneller und MSAA kann aktiviert werden:
As Phil said INT8, is the ol' fashioned 32bit framebuffer, basically the method Marco is using can be done on any machine capable of running SM2 or above pixel shaders... (possible it might work on even lower machine with some trickier...) - Quelle (http://forum.beyond3d.com/showthread.php?t=26484&page=6)
Es ist also ein eigenes HDR, das auch Karten ab dem Shader Modell 2.0 (Radeon X800, GeForce FX5800 oder Radeon 9700 Pro) anwenden könnten. Dabei werden die Bilder mit Hilfe von Shadern in ein anderes Farbsystem umgewandelt. Das neue Farb-Format nennt sich CIE Luv und braucht nur halb so viel Speicher. Habe ich das so richtig verstanden?
Quelle (http://psinext.e-mpire.com/index.php?categoryid=3&m_articles_articleid=599). Obs am Ende an echtes FP16 rankommt, müssen uns die Entwickler noch zeigen, denn es ist sehr speziell an das Spiel angepaßt:
Certainly for our title, we have much more opaque geometry than translucent... so its a win for us. We trade a little pixel shader power to get all the benefits of INT8 rendering for most of our geometry. - Quelle (http://forum.beyond3d.com/showthread.php?t=27708&page=2)
In einzelnen Titeln könnte es also sehr gut klappen, allerdings muss die Engine wohl jedesmal neu angepaßt werden.
Und weiter! Verstehe ich das richtig: FP16 wird ansonsten deshalb verwendet, weils am nächsten an echte HDR-Effekte ohne Artefakte rankommt? Mit Int8 entstehen doch so Sachen wie Flimmern, unschöne Transparenz-Effekte etc. Die X360 kann FP16, verwendet aber meist nur FP10 (bzw. es wird auch als FX10 bezeichnet, oder?), da dies weniger Speicher verbraucht. Es funktioniert auch mit AA und bietet 2 x mal schnellere Performance als FP16. Problem: Es ist halt ungenauer. IMO könnte die PS3 also prinzipiell schönere HDR-Effekte erzeugen, hat aber das AA-Problem...
Korrigiert mich, wenn ich falsch liege.
- Quelle (http://forum.beyond3d.com/showthread.php?t=26484&page=6)
Es ist also ein eigenes HDR, das auch Karten ab dem Shader Modell 2.0 (Radeon X800, GeForce FX5800 oder Radeon 9700 Pro) anwenden könnten. Dabei werden die Bilder mit Hilfe von Shadern in ein anderes Farbsystem umgewandelt. Das neue Farb-Format nennt sich CIE Luv und braucht nur halb so viel Speicher. Habe ich das so richtig verstanden?Das denke ich nicht. Die Umrechnung von RGB in CIE-Luv und zurück ist nicht gerade einfach. Außerdem spart man in anderen Farbräumen nicht einfach mal Speicherplatz, ohne gleichzeitig Farbauflösung einzubüßen.
CIE-Modelle sind unter anderem dafür, dass man alle Farbtöne darstellen kann. RGB-Monitore können das zum Beispiel nicht. Schon weil CIE-Luv mehr darstellen kann als RGB, bräuchte man für die gleiche effektive Farbauflösung mehr Bits als bei RGB.
Was man überlegen könnte, wäre ein Yab-Modell, z. B. Yuv oder YCbCr. Y speichert die Helligkeit (und im Prinzip muss nur diese in hoher Dynamik vorliegen), der CbCr-Vektor die Farbe. RGB nach YCbCr kostet allerdings schon mal drei Takte im Pixelshader. Es gibt ein Format namens RGBE, wo E für hohe Dynamik sorgt. Allerdings kann man im Pixelshader nicht so einfach mit RGBE rechnen wie mit normalem RGB. Man müsste also erst mal RGBE nach RGB entpacken. Das kostet ebenfalls Rechenzeit.
Quelle (http://psinext.e-mpire.com/index.php?categoryid=3&m_articles_articleid=599). Obs am Ende an echtes FP16 rankommt, müssen uns die Entwickler noch zeigen, denn es ist sehr speziell an das Spiel angepaßt:FP16 hat eine sehr, sehr viel höhere Dynamik als FX8 (bzw. "Int8".)
In einzelnen Titeln könnte es also sehr gut klappen, allerdings muss die Engine wohl jedesmal neu angepaßt werden.Wenn, dann muss der Content angepasst werden. Genau das ist ja bei echtem HDR-Rendering ein Vorteil: Derselbe Content funktioniert bei starker wie bei schwacher Beleuchtung. Dass man die langsame Adaption des Auges mitsimulieren kann ist ein Effekt, der sich beim Tonemapping mit berücksichtigen lässt. Das ist nicht der Hauptgrund, wofür in Zukunft HDR-Rendering genutzt wird. Bei WoW sieht man gut, wie es aussieht wenn man denselben Texturcontent für Tages- wie für Nachtszenen nutzt: Nachts sieht es alles andere als echt aus.
Und weiter! Verstehe ich das richtig: FP16 wird ansonsten deshalb verwendet, weils am nächsten an echte HDR-Effekte ohne Artefakte rankommt? HDR-"Effekte" lassen sich, wie gesagt, auch ohne FP16-Framebuffer oder -Texturen machen. Für echtes HDR-Rendering brauchts aber echte HDR-Formate. FP16 ist schon HDR-tauglich.
Mit Int8 entstehen doch so Sachen wie Flimmern, unschöne Transparenz-Effekte etc. Die X360 kann FP16, verwendet aber meist nur FP10 (bzw. es wird auch als FX10 bezeichnet, oder?), da dies weniger Speicher verbraucht. Es funktioniert auch mit AA und bietet 2 x mal schnellere Performance als FP16. Problem: Es ist halt ungenauer. IMO könnte die PS3 also prinzipiell schönere HDR-Effekte erzeugen, hat aber das AA-Problem...
Korrigiert mich, wenn ich falsch liege.Dein Denken in Effekten verstellt den Blick aufs Wesentliche.
HDR-Rendering bei Beleuchtungsmodellen einzusetzen heißt, Probleme zu umgehen die man mit LDR-Rendering hat. Seit DX9 wird intern (im Shader) alles in hoher Dynamik berechnet, aber in der Regel wird ein LDR-Framebuffer genutzt.
Echtes HDR-Rendering berechnet alles zunächst in hoher Dynamik und schreibt auch die HDR-Werte in einen HDR-Framebuffer. Zum Schluss wird der HDR-Framebuffer in einen LDR-Framebuffer umgerechnet (diesen Schritt bezeichnet man auch als Tonemapping.) Wozu der Aufriss? Weil man nur beim HDR-Framebuffer die tatsächliche Gesamthelligkeit ermitteln kann. Wenn man gleich beim Rausschreiben eines einzelnen Pixels runterrechnen soll, müsste man irgendwie anders die Gesamthelligkeit kennen. (Außerdem spielen bei besseren Tonemappingverfahren auch noch Sachen wie lokale Helligkeiten eine Rolle. Hierzu ist der komplette fertige Framebuffer im HDR-Format ebenfalls erforderlich.)
Mit HDR-Rendering ist es (beim Tonemapping-Pass) unter anderem auch möglich, Überstrahleffekte oder Ans-Licht-gewöhn-Effekte umzusetzen. Solche "HDR-Effekte" sind aber auch ohne HDR-Rendering darstellbar. Dabei gibt es zwei Probleme: Entweder sind die Effekte nur ungenau, oder nutzen vorberechnete Daten. Bei NFS: MW auf der PS2 z. B. hat man einen Überstrahleffekt wenn man aus einem Tunnel herausfährt. Die Stärke mit der überblendet wird hängt von der Entfernung bis zum Tunnelausgang ab. Fährt man einfach nur durch, wirkt es wie dynamisches HDR. Fährt man nicht ganz raus und wieder zurück, stellt man fest, dass es eben nicht dynamisch ist.
Schon Unreal (Unreal 1) zeigte um helle Lichter eine Corona, die langsam wegfadet wenn die Lichtquelle verdeckt ist. Sowas ließe sich mit HDR-Rendering im Tonemapping-Pass auch automatisch einbauen, ohne eine direkte Überdeckungsprüfung zu machen die dann das ausfaden triggert.
Riptor
2007-03-30, 10:47:07
Bei WoW sieht man gut, wie es aussieht wenn man denselben Texturcontent für Tages- wie für Nachtszenen nutzt: Nachts sieht es alles andere als echt aus.
Ah, gutes Beispiel, das leuchtet mir ein!
Die Stärke mit der überblendet wird hängt von der Entfernung bis zum Tunnelausgang ab. Fährt man einfach nur durch, wirkt es wie dynamisches HDR. Fährt man nicht ganz raus und wieder zurück, stellt man fest, dass es eben nicht dynamisch ist.
Danke, DAS ist jetzt einleuchtend! D.h., "undynamisches HDR" wäre ganz normales Blooming, oder?
Denke, ich habe das jetzt alles besser verstanden. Gibt es Beispiele, wo die Unterschiede zwischen Int8, FP10 und FP16 sichtbar sind? Ich mein, für "echtes", dynamisches HDR benötigt man wirklich schon FP16, oder? Was ist dann FP/FX10 beim Xenos? Nix Halbes und nix Ganzes? Ich denke da vor allen Dingen an Oblivion, da wirkt der Effekt fast schon wie Blooming, obwohl alle metallischen Oberflächen strahlen und spiegeln. Also schon anders wie z.B. bei Gothic 3, wo nur die leuchtintensität der Oberflächen verändert werden, diese aber trotzdem stumpf bzw. matt bleiben...
Die gelbe Eule
2007-03-30, 11:47:39
Richtige Unterschiede kannst gar nicht haben bzw. vergleichen. Du müsstest auf der selben Hardware sämtliche Genauigkeiten fahren und das ist nunmal auf XBOX360/PS3 oder anderen Konsolen nicht möglich. Wer nichts anderes kennt, der sagt es sieht toll oder scheiße aus, aber zu sagen hier sieht es besser oder schlechter aus als woanders passt einfach nicht, weil nicht vergleichbar.
Riptor
2007-03-30, 12:22:39
Ok. Dann ist das Thema für mich auch gegessen! Danke für die Antworten. :)
deekey777
2007-03-30, 12:37:29
...
Danke, DAS ist jetzt einleuchtend! D.h., "undynamisches HDR" wäre ganz normales Blooming, oder?
Nein. Das ist nur ein Overbright-Effekt wie in HL2.
Auch Bloom ist ein Effekt, er kann aber auch in HDR berechnet werden (sieht deutlich besser aus, da deutlich mehr Informationen).
Was aths meint, ist die Vortäuschung der dynamischen Anpassung des Auges. In HL2 sieht man sehr oft: Der Ausgang des Tunnels ist einfach überhellt. Wenn du einfach druchfährst kriegst du das nicht mit.
Wie aths schon sagte: HDRR allein sagt nichts aus, das Rendering mit hohem dynamischem Umfang der Szene und das Post-Processing mit hohem dynamischem Umfang (wie Bloom) samt abschließenden Tonemapping (+Iris-Simulation) machen das visuelle Erbgebnis aus.
Denke, ich habe das jetzt alles besser verstanden. Gibt es Beispiele, wo die Unterschiede zwischen Int8, FP10 und FP16 sichtbar sind? Ich mein, für "echtes", dynamisches HDR benötigt man wirklich schon FP16, oder? Was ist dann FP/FX10 beim Xenos? Nix Halbes und nix Ganzes? Ich denke da vor allen Dingen an Oblivion, da wirkt der Effekt fast schon wie Blooming, obwohl alle metallischen Oberflächen strahlen und spiegeln. Also schon anders wie z.B. bei Gothic 3, wo nur die leuchtintensität der Oberflächen verändert werden, diese aber trotzdem stumpf bzw. matt bleiben...
AoE 3 nutzt bei Grafikkarten, die das 1010102-Format beherrschen, dieses auch, bei anderen Grafikkarten das "normale" FP16-HDRR. Die einen sagen, es gibt einen Unterschied, die anderen sagen, es gibt keinen.
PCGH_Carsten
2007-03-30, 12:43:42
Die einen sagen, es gibt einen Unterschied, die anderen sagen, es gibt keinen.
Da braucht man sich nicht auf hörensagen verlassen. Der Unterschied bei der Beleuchtung ist offensichtlich. Ebenso wie der Unterschied beim FSAA - dieses ist bei FP16-HDR dank "nur" 1,5x1,5 OGSSAA (IIRC) eben nicht so dolle, wie 4x RGMSAA beim FP10. Über die Gesamtqualität kann man damit natürlich vortrefflich streiten.
Riptor
2007-03-30, 13:07:37
@ Carsten: Könntest du deine Eindrück visualisieren, d.h. kann man die Unterschiede in AoE3 irgendwie als Screenshot darstellen?
Die gelbe Eule
2007-03-30, 13:17:57
Erm, was hat das alles mit dem Thema zu tun? Splittet doch einfach, nur denke ich das es das Thema eh schon 2-3 mal gibt. Immerhin ruhte es hier mehr als 9 Monate und dann quotet jemand einen Post der genauso alt ist ...
PCGH_Carsten
2007-03-30, 13:18:19
@ Carsten: Könntest du deine Eindrück visualisieren, d.h. kann man die Unterschiede in AoE3 irgendwie als Screenshot darstellen?
Ja, es reicht, mal einen Typen mit einer Fackel oder sowas zu shotten - haben wir in der PCGH 01/2006, S.117 bereits mal angerissen.
deekey777
2007-03-30, 13:36:54
Erm, was hat das alles mit dem Thema zu tun? Splittet doch einfach, nur denke ich das es das Thema eh schon 2-3 mal gibt. Immerhin ruhte es hier mehr als 9 Monate und dann quotet jemand einen Post der genauso alt ist ...
Wenn es nichts mit dem Thema zu tun hat, warum gehst du darauf ein?
Und es hat was mit dem Thema zu tun, wenn man den Thread durchliest.
Q, du wirst doch irgendwo in der Schublade einen Vergleichsscreenshot haben? :naughty:
PCGH_Carsten
2007-03-30, 14:34:26
Q, du wirst doch irgendwo in der Schublade einen Vergleichsscreenshot haben? :naughty:
Nee, nicht in Schubladen, aber auf dem Server...
7800, AA "hoch", Shader "sehr hoch"
http://img393.imageshack.us/my.php?image=age3hochaa7800gtxshaderya9.png
X1800, AA "hoch", Shader "sehr hoch"
http://img260.imageshack.us/my.php?image=age3hochaax1800xlshadervd2.png
Die gelbe Eule
2007-03-30, 15:30:53
Wenn es nichts mit dem Thema zu tun hat, warum gehst du darauf ein?
Und es hat was mit dem Thema zu tun, wenn man den Thread durchliest.
Q, du wirst doch irgendwo in der Schublade einen Vergleichsscreenshot haben? :naughty:
Du möchtest also Konsolengrafik mit PC Grafik vergleichen? Wie bitte sollte das von Statten gehen? Eine Konsole ist immer darauf limitiert, das es bei 50-60Hz flüssig läuft, rumgepatche gibt es nicht. Es wird also nie ein Screen von XBOX oder PS so gut aussehen, wie ein manuell eingesteller PC mit höchster Qualität im Treiber.
Dachte eigentlich das alte Threads pushen nicht erlaubt ist und der neueste Post dazu handelt ja immerhin nur von der Cellprogrammierung. Auch wenn Carsten Shots von G70 oder R580 postet, die passen weder auf Xenos noch Cell.
Riptor
2007-03-30, 15:47:15
Also ich finds interessant und mir hat der Thread einiges gebracht... Ich kenne sonst keinen Thread, wo z.B. das Thema HDR + AA auf der PS3 so ausführlich beredet wird, wie hier.
Ah, gutes Beispiel, das leuchtet mir ein!
Danke, DAS ist jetzt einleuchtend! D.h., "undynamisches HDR" wäre ganz normales Blooming, oder?Nee. Blooming ist ein Postprocessing-Effekt, den man auf beliebiges Bildmaterial anwenden kann. Dazu schrieb ich mal eine Demo http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4995939#post4995939 – damit kannst du bloomen, was das Zeug hält.
"Vernünftiges" Blooming ließe sich beim Tonemapping-Pass (Tonemapping ist ja für die Darstellung von HDR-Inhalten immer erforderlich) auch machen. Dann sieht man schnell einen Unterschied zu traditioneller LDR-Grafik. Genau darauf kommts ja bei gefakten HDR-Effekten an: So zu tun, als gäbe es einen Unterschied, ohne dabei tatsächlich auf das aufwändige HDR-Rendering zurückzugreifen.
Einfach gesagt: HDR-Rendering heißt, das Bild durchweg in hoher Dynamik zu berechnen. Was man davon dann sieht ist eine Frage, was genau beim Tonemapping gemacht wird. "HDR-Effekte" setzen darauf, dass man einfach was sieht was irgendwie mit Licht zu tun hat und man bisher in Spielen nicht (oder nur selten) sah.
Nicht nur sehr helle, auch sehr dunkle Szearien können von HDR-Lighting profitieren. Doom 3 zum Beispiel. Doom 3 ist unrealitisch, da nicht simuliert wird dass sich das Auge ans Dunkle ganz gut gewöhnen kann. (Und dass das Auge im Dunklen ein sehr gutes Hell-Dunkel-Empfinden ohne Farbsicht hat.) Man könnte die Textur- und Lichtdaten zwar so skalieren, dass es gut für die sehr dunklen Szenen in Doom 3 passt, hätte dann aber Probleme bei den (wenigen) hellen Lichtquellen.
Der Effekt, dass man im Dunklen ein Rauschen hat und alles nur verschwommen sieht, ließe sich auch bei LDR-Rendering mittels einem Postprocessor realisieren, ganz ohne HDR-Rendering. Das mag für ein Spiel ja auch erst mal gut genug sein. Nur weil echtes HDR-Rendering mehr Qualität ermöglicht heißt das nicht, dass man das hier und jetzt braucht.
Das ist ein wenig vergleichbar mit der Zielauflösung. Eine höhere Auflösung ermöglicht bessere Bildqualität. Eine höhere Auflösung alleine bringt – ohne besseren Content – aber wenig.
Denke, ich habe das jetzt alles besser verstanden. Gibt es Beispiele, wo die Unterschiede zwischen Int8, FP10 und FP16 sichtbar sind? Ich mein, für "echtes", dynamisches HDR benötigt man wirklich schon FP16, oder? Was ist dann FP/FX10 beim Xenos? Nix Halbes und nix Ganzes? Ich denke da vor allen Dingen an Oblivion, da wirkt der Effekt fast schon wie Blooming, obwohl alle metallischen Oberflächen strahlen und spiegeln. Also schon anders wie z.B. bei Gothic 3, wo nur die leuchtintensität der Oberflächen verändert werden, diese aber trotzdem stumpf bzw. matt bleiben...Wann man für "echtes" HDR-Rendering was braucht ist eine Frage der Definition, ab wann man "H" (hohe) Dynamik hat. Ich habe für 3DCenter-Artikel folgendes festgelegt:
8 Bit: Low Dynamic.
16 Bit: Medium Dynamic.
32 Bit: High Dynamic.
Die Bitangaben beziehen sich dabei auf ein Int- bzw Fixpoint-Format. Mit 16 Bit FP kommt man auf einen Darstellungsbereich, den man bei 32 Bit Int/FX auch hat. (Natürlich ist die Präzision von FP16 deutlich geringer als bei FX32, es geht hier erst mal nur um die Dynamik.)
Nun wirds etwas kompliziert. Um die 8 Bit beim 8-Bit-Format besser auszunutzen, werden die Werte mit einer nichtlinearen Kennlinie interpretiert und zwar so, dass dabei (zulasten der Präzision bei großen Werten) die Dynamik steigt. Leider sind erst D3D10-Grakas in der Lage, dieses spezielle 8-Bit-Format (sRGB) durchweg korrekt zu verrechnen. Bisherige Grakas fahren einen Mischmasch. Die Vorteile von sRGB werden also nicht richtig ausgenutzt.
FX10 oder FP10 bringen für die Dynamik wenig. Zu wenig. FX16 wäre schon deutlich besser, aber bei 16 Bit kann man auch gleich FP16 nehmen. Ein großer Vorteil: Die nichtlineare Quantisierung ist bei FP schon eingebaut, man braucht keine spezielle sRGB-Umrechnung, um die Bits optimal auszunutzen.
Mit 10 Bit pro Kanal geht ein bisschen mehr als mit 8 Bit. Mit 16 Bit geht erheblich mehr. Sinnvolles dynamisches HDR-Rendering ist auf 16 Bit angewiesen. Aber: Um ein Spiel gut aussehen zu lassen, ist HDR-Rendering mit 16-Bit oft nicht notwendig.
Zweites Aber: Erst mit D3D10 gibt es Formate, die drei "HDR"-Daten, also einen kompletten RGB-Vektor, in 32 Bit speichern. Sind nur 32 Bit statt 64 Bit (4x FP16) zu übertragen, spart das natürlich erheblich Bandbreite. Folge: HDR-Rendering (dann nur noch MDR-Rendering, aber was solls) wird aus Bandbreitensicht fast kostenlos. Bei der Abwägung fps-Verlust vs. besserer Qualität kann man dann eher zur Qualität greifen. Doch Sinn ergibt das erst, wenn D3D10-Karten weit genug verbreitet sind. Warten wir also noch 2, 3 Jahre.
Was es jetzt an Echtzeit-HDR-Grafik gibt, sind erste Versuche. Auch Xbox 360 und PS3 sind nicht darauf optimiert, HDR-Rendering in Echtzeit anzuzeigen. Wir werden auf beiden Systemen etliche HDR-Effekte und hier oder da auch echtes HDR-Rendering sehen. Doch erst die Nachfolge-Generation bringt alle Voraussetzungen mit, hochqualitatives HDR-Lighting bei hoher Performance zu rendern.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.