Archiv verlassen und diese Seite im Standarddesign anzeigen : Wiis Graphikleistung im Vergleich zu anderen Konsolen (und deren Auflösungen)
Lightning
2007-05-10, 17:04:58
meine anmerkung: umgerechnet auf 480p hat der wii genausoviel graphikpower zu bieten wie die anderen konsolen ;). und wenn ihr euch mal anschaut wie in benchmarks ein p3 700 mit der ps3 mithalten kann, dann ist der aufgemotzte powerPC im Wii auch nicht uebel.
Sorry, aber das halte ich für arg übertrieben. Ich denke schon, dass die Grafikchips in den Konkurrenzkonsolen eindeutig mehr als nur die vierfache Rohleistung haben. Von den sonstigen Features ganz zu schweigen.
Mit der CPU sieht es ähnlich aus. In einigen Benchmarks mag der Cell schlecht dastehen, in anderen versägt er dagegen jede erhältliche Desktop-CPU. Das sagt eigentlich nur aus, dass es sehr schwer ist, seine Leistung anhand von theoretischen Benchmarks generell zu beurteilen. Und schon gar nicht anhand eines einzelnen Benchmarks.
Weiterhin bleibt da noch der wesentlich geringere Haupt- und Grafikspeicher.
Zudem zeigen auch schon jetzt Spiele der Xbox 360 und der PS3, dass auch in 480p wesentlich mehr möglich ist als in der letzten Konsolengeneration, derer die Leistung des Wii ja ähnlich sein soll.
Auf den Punkt gebracht: Wenn man die Grafikleistung des Wii betrachtet, gibt es imo nichts schönzureden. Dass dieser Punkt aber nicht das wichtigste für jeden Spieler ist, ist ebenso klar. Es ist kein Zufall, dass ich einen Wii, aber keine der Konkurrenzkonsolen besitze.
micki
2007-05-10, 17:17:30
Ich denke schon, dass die Grafikchips in den Konkurrenzkonsolen eindeutig mehr als nur die vierfache Rohleistung haben.6.75 wenn man AA ausnimmt.
Von den sonstigen Features ganz zu schweigen.wenn du aufmerksam gelesen hast, dann weisst du dass der Wii so ziemlich jeden effekt auch hinbekommt.
Mit der CPU sieht es ähnlich aus. In einigen Benchmarks mag der Cell schlecht dastehen, in anderen versägt er dagegen jede erhältliche Desktop-CPU. Das sagt eigentlich nur aus, dass es sehr schwer ist, seine Leistung anhand von theoretischen Benchmarks generell zu beurteilen. Und schon gar nicht anhand eines einzelnen Benchmarks.jo, nur geht es hier ja um spiele und trotz manchen peaks bei irgendwelchen numbercrunchings muss der cell entsprechend mehr daten schaufeln um bei 1080p genau die pixelqualitaet zu liefern wie der Wii bei 480p. (bezug auf polygonmengen, texturen z.b. beim streamen usw.)
Weiterhin bleibt da noch der wesentlich geringere Haupt- und Grafikspeicher.multiplizier einfach mit 6.75 und dann hast du die groesser die du relativiert sehen kannst.
Zudem zeigen auch schon jetzt Spiele der Xbox 360 und der PS3, dass auch in 480p wesentlich mehr möglich ist als in der letzten Konsolengeneration, derer die Leistung des Wii ja ähnlich sein soll.jo, wenn der wii auf 240p laufen wuerde, koennte er auch so einiges zeigen.
Auf den Punkt gebracht: Wenn man die Grafikleistung des Wii betrachtet, gibt es imo nichts schönzureden. Dass dieser Punkt aber nicht das wichtigste für jeden Spieler ist, ist ebenso klar. Es ist kein Zufall, dass ich einen Wii, aber keine der Konkurrenzkonsolen besitze.
man muss nichts schoenreden, man muss nur sehen dass die anderen konsolen nicht unbedingt 6.75mal mehr leistung bieten um genau soviel rechenleistung pro pixel zu haben wie der wii.
fizzo
2007-05-10, 17:29:29
was ich dem artikel entnommen habe, so hadelt es sich beim hollywood" um einen 50% "aufgetakteten" flipper. dieser scheint jedoch im funktionsumfang (texture environment stages wurden verdoppelt) erweitert worden zu sein, was jedoch nicht dokumentiert ist. dies ermoeglicht komplexere "per-pixel graphics operations" auf kosten der gesamtperformance.
durch das plus an speicher sind somit, im vergleich mit dem gamecube, spiele in 480p inkl. bildverbesserungen wie aa/motion blur und hoeher aufgeloesten texturen leichter realisierbar.
weiters wurde schon erfolgreich mit einem "shader-to-Wii conversion tool" experimentiert.
It reads the shader code and generates the fixed function code necessary to achieve the same result. Keep in mind that the Wii's GPU is not as fast or feature rich as the Xbox 360 or PS3, but that doesn't mean you can't get very close results.
Lightning
2007-05-10, 19:18:23
6.75 wenn man AA ausnimmt.
Quelle?
wenn du aufmerksam gelesen hast, dann weisst du dass der Wii so ziemlich jeden effekt auch hinbekommt.
Sicher, im Prinzip brauch man noch nicht mal einen Grafikchip und kann trotzdem jeden "Effekt" berechnen. Nur mit welcher Performance? Ich kann mir gut vorstellen, dass der Wii bei HDR-Rendering, Parallax-Mapping, Deferred Shading und solchen Nettigkeiten auch gerne mal 50 mal langsamer sein würde als die Konkurrenz. Da kommt man mit Rohleistung alleine nirgendwohin.
jo, nur geht es hier ja um spiele und trotz manchen peaks bei irgendwelchen numbercrunchings muss der cell entsprechend mehr daten schaufeln um bei 1080p genau die pixelqualitaet zu liefern wie der Wii bei 480p. (bezug auf polygonmengen, texturen z.b. beim streamen usw.)
Warum auf einmal 1080p? Die meisten Spiele laufen mit 720p. Weiterhin halte ich den zusätzlichen CPU-Aufwand, der alleine durch eine höhere Auflösung entsteht, für vernachlässigbar gering. Sieht man ja gut an PC-Spielen. Oder meintest du etwas anderes?
multiplizier einfach mit 6.75 und dann hast du die groesser die du relativiert sehen kannst.
Nein. Mehr Hauptspeicher kann man auch unabhängig von der Auflösung gebrauchen. Ein Gothic 2 würde auf dem Wii nicht ohne weitere Anpassungen laufen, auf der Xbox 360 hingegen schon.
jo, wenn der wii auf 240p laufen wuerde, koennte er auch so einiges zeigen.
Wie kommst du nun auf einmal auf 240p?
man muss nichts schoenreden, man muss nur sehen dass die anderen konsolen nicht unbedingt 6.75mal mehr leistung bieten um genau soviel rechenleistung pro pixel zu haben wie der wii.
Da gebe ich dir vollkommen recht, ein wenig Rechenleistung verpufft natürlich an der höheren Auflösung. Aber längst nicht so viel, als dass der Wii auf einmal mithalten könnte.
Ringwald
2007-05-10, 19:40:20
Ein Gothic 2 würde auf dem Wii nicht ohne weitere Anpassungen laufen, auf der Xbox 360 hingegen schon.
Ich kam da mal auf ca. 30MB Texturspeicher verbrauch bei mittlerer Texturqualität in der Stadt. Kann aber auch sein das ich da was falsch gemessen habe.
Wie auch immer, ich halte G2 für gut machbar auf der Wii wenn man eine LOD Welt wie bei Oblivion einbauen würde :)
Ich hoffe mit LOD Welt habe ich den richtigen Ausdruck benutzt ^^
Lightning
2007-05-10, 19:44:51
Ich kam da mal auf ca. 30MB Texturspeicher verbrauch bei mittlerer Texturqualität in der Stadt. Kann aber auch sein das ich da was falsch gemessen habe.
Wie auch immer, ich halte G2 für gut machbar auf der Wii wenn man eine LOD Welt wie bei Oblivion einbauen würde :)
Ich hoffe mit LOD Welt habe ich den richtigen Ausdruck benutzt ^^
Ich sprach nicht vom Texturspeicher, sondern vom Hauptspeicher. 256 MB Ram sind das absolute Minimum für Gothic 2.
Und das war wirklich nur ein Beispiel von einem Spiel, man kann auch jedes x-beliebige andere Spiel, welches genug Speicher benötigt, dafür einsetzen. Fakt ist einfach, dass mit wenig Ram immer irgendwo sparen muss. Die verwendete Auflösung ändert daran nichts.
Ansonsten halte ich das Spiel auch machbar auf dem Wii. Aber eben nicht in der jetzigen Form.
Ringwald
2007-05-10, 19:51:26
Stimmt, die ganzen anderen Sachen verbrauchen ja auch nicht wenig Speicher aber ich hatte halt immer gedacht das die Texturen der Teil ist was am meisten verschlingt.
IAnsonsten halte ich das Spiel auch machbar auf dem Wii. Aber eben nicht in der jetzigen Form.
Nicht nur technisch, das ganze Spiel wirkt für mich eher wie eine Mod und liese sich nicht wirklich international verkaufen. Da musste man richtig viel in eine verbesserte Präsentation des Spiels arbeiten.
Aber das ganze ist jetzt eh zu OT und ein Gothic ist das letzte was auf der Wii kommen würde (auch wenn ich es mir wünsche :biggrin: ).
Grundsätzlich hat micki ja nicht ganz unrecht. Durch die Festlegung aufs pal-Format kann sich der/die/das wii schon einiges an Rechenleistung sparen, wenn er/sie/es dieselbe Grafikquali wie die beiden "Großen" in HD bieten will. Aber ich glaube trotzdem nicht, dass dieses eigesparte Potential die Schwächen in der Rechenleistung ausgleichen kann.
Haben Sony und MS nicht die Entwickler dazu verpflichtet, alle Spiele mind. in 720 zu programmieren?
Finde ich persönlich sehr schade, ein Palspiel welches die Hardware zu 100% auslastet wäre bestimmt ein Augenschmaus geworden! Zumindest für mich als Vertreter der "lieber schöne als viele Pixel"-Fraktion.
DaEmpty
2007-05-10, 20:28:19
multiplizier einfach mit 6.75 und dann hast du die groesser die du relativiert sehen kannst.
Das hört sich an als wärest du der Meinung eine langsame Konsole wie die Wii könnte nicht so viel mit mehr Speicher anfangen?
Avalox
2007-05-10, 20:31:29
Quelle?
Na ja, HDTV hat die 6,7 (6,9?) fache Auflösung vom WII 480p Modus.
Warum auf einmal 1080p? Die meisten Spiele laufen mit 720p. Weiterhin halte
Was aber auch eher dafür spricht, dass den NextGen Konsolen bei 720p schon die Puste ausgeht. Ordentliches HDTV fängt bei 1920x1080p an. Sagt zumindest die Werbung. Eben volles HDTV. Dass andere ist ähm, nicht voll. Unvollständiges HDTV, also nicht so richtiges HDTV. Na eigentlich gar kein richtiges HDTV. So ein Metading. Der Anfang, was von gestern. Bereit es zu versuchen, hat halt nicht voll geklappt. Voll ist heute.
Die Argumente von Micki finde ich gar nicht schlecht. Regen doch zum nachdenken an.
Ganon
2007-05-10, 20:37:45
Das hört sich an als wärest du der Meinung eine langsame Konsole wie die Wii könnte nicht so viel mit mehr Speicher anfangen?
Nunja. Er könnte ihn vllt. für schnelleres Laden von Content nutzen, aber nicht für Grafik-Darstellung (zumindest nicht in dem Ausmaß wie du es dir vllt. jetzt vorstellst). Was bringt's 1024x1024 Texturen und viele Objekte überall zu verwenden wenn Sachen wie Bandbreite oder Füllrate überhaupt nicht ausreichen?
Guck dir doch die PS2 an. Die hat 32MB RAM und trotzdem laufen große Spiele wie GTA3 auf dem Teil. Der GameCube hat sogar nur 24MB "schnellen" Speicher. Trotzdem gibt's große Spiele wie Zelda. Streaming macht's möglich, auch mit wenig Speicher.
Lightning
2007-05-10, 20:45:39
Na ja, HDTV hat die 6,7 (6,9?) fache Auflösung vom WII 480p Modus.
Ahso war das gemeint. Ich dachte micki bezog sich auf die Leistung der Grafikchips.
Was aber auch eher dafür spricht, dass den NextGen Konsolen bei 720p schon die Puste ausgeht. Ordentliches HDTV fängt bei 1920x1080p an. Sagt zumindest die Werbung. Eben volles HDTV. Dass andere ist ähm, nicht voll. Unvollständiges HDTV, also nicht so richtiges HDTV. Na eigentlich gar kein richtiges HDTV. So ein Metading. Der Anfang, was von gestern. Bereit es zu versuchen, hat halt nicht voll geklappt. Voll ist heute.
Wenn du meinst. ;)
Genausogut könnte man aber sagen, dass auch "Full HD" noch nicht gut genug ist. Was zählt ist doch nur, dass 720p schon ein großer Schritt in die richtige Richtung ist. Naja, oder auch nicht, denn..:
Die Argumente von Micki finde ich gar nicht schlecht. Regen doch zum nachdenken an.
Dem stimme ich ja auch zu. Ich fände es auch interessant, mal ein Spiel zu sehen, welches die gesamte Rechenpower nur auf 480p konzentriert. Ein normales PAL-Fernsehbild sieht ja auch nicht gleich unrealistisch aus, oder zumindest noch realistischer als jedes erdenkliche Computerspiel ;), nur weil die Auflösung so niedrig ist.
Dennoch ist es für mich eine offensichtliche Tatsache, dass die Xbox 360 und PS3 auch dann, wenn man sie an einen PAL-Fernseher anschließt, immer noch gehörig mehr Leistung zeigen als der Wii. Das sieht man an allen möglichen schon erschienen Spielen.
Avalox
2007-05-10, 20:51:09
Dennoch ist es für mich eine offensichtliche Tatsache, dass die Xbox 360 und PS3 auch dann, wenn man sie an einen PAL-Fernseher anschließt, immer noch gehörig mehr Leistung zeigen als der Wii. Das sieht man an allen möglichen schon erschienen Spielen.
Ja. Ich denke aber PAL ist ein echter und schwerer Nachteil der NextGen Konsolen. Bin auch erst beim "übers Mickis Argumente" nachdenken drauf gestossen.
Kein NextGen Spiel kann es sich leisten in PAL ein besseres Bild zu rendern als im 720p Modus. Genau genommen sollte dieses auch für den PAL/1080P Modus gelten. Damit werben ja die Hersteller.
Nun wird ja schon oft genug der 1080p Modus geopfert, damit überhaupt noch anständig dargestellt werden kann.
Bei PAL verpufft einfach ungeheuer viel Leistung der Nextgen Konsolen, weil es sich die Hersteller nicht leisten können diese mehr an Rechenleistung in PAL zu nutzen. Eine native PAL Konsole hat dagegen nichts zu verlieren.
Der Wii ist einfach nur ein Gamecube mit besserem Controller, die größte Abzocke ever und die Nintendo Fans betiteln das Ding als günstig, was nahezu lächerlich ist!
Ganon
2007-05-10, 20:54:25
Das sieht man an allen möglichen schon erschienen Spielen.
Resi4 ist aber auch ein nettes GameCube-Beispiel was zeigt das die aktuellen Wii-Titel die Konsole nicht mal im Ansatz nutzen. ;)
Lightning
2007-05-10, 21:06:24
Resi4 ist aber auch ein nettes GameCube-Beispiel was zeigt das die aktuellen Wii-Titel die Konsole nicht mal im Ansatz nutzen. ;)
Das ist natürlich richtig. Dennoch kommt auch Resi 4 nicht an Gears of War o.ä. ran - auch dann nicht, wenn man Gears of War nur in 480p spielt und damit gehörig Leistung verpufft.
][immy
2007-05-10, 21:09:02
Resi4 ist aber auch ein nettes GameCube-Beispiel was zeigt das die aktuellen Wii-Titel die Konsole nicht mal im Ansatz nutzen. ;)
das sieht man z.B. auch daran das die Wii spiele die derzeit auf dem markt sind alle (wenn es sie denn auch für den gamecube gibt) 1:1 der gamecube-version entsprechen
der gamecube war schon eine relativ mächtige konsole wenn man sie richtig nutzt (siehe die RE teile) die Wii ist noch ein ganzes stück stärker.
leider bekommen es einige studios aber derzeit wohl nicht hin Wii spiele zumindest besser aussehen zu lassen wie xbox 1 spiele. z.B. spiderman 3 sieht auf der Wii schlechter aus als spiderman 1 auf der xbox. warum? wahrscheinlich weil bei der portierung anstatt eine vernüpftige anpassung einfach die details so lange runtergedreht wurden bis es flüssig lief
soweit ich weiß nutzt bisher auch kein spiel den zusätzlichen speicher die die Wii im vergleich zum Gamecube zur verfügung stellt.
aber wenn man mal so in die vergangenheit schaut, hat es bisher keine High-Tech konsole jemals geschafft den markt zu übernehmen.
z.B. die Sega konsolen waren den damaligen konsolen großteils weit überlegen, konnten sich gegen die SNES aber nicht durchsetzen. die späteren auch nicht gegen die Playstation und die dreamcast auch nicht gegen die Playstation. die Xbox 1 konnte sich auch nicht so recht durchsetzen trotzdem sie der PS2 ansich ein ganzes stück überlegen war.
so gesehen hat nintendo wirklich alles richtig gemacht. die hardware wird sogar komplett beim kauf der konsole bezahlt und ist trotzdem noch die günstigste konsole. die Wii verkauft sich sehr gut und darum werden wir wohl bald auch sehr viele titel für diese konsole sehen, welche die hardware auch wirklich nutzen.
hardware ist halt nicht alles
Das ist natürlich richtig. Dennoch kommt auch Resi 4 nicht an Gears of War o.ä. ran - auch dann nicht, wenn man Gears of War nur in 480p spielt und damit gehörig Leistung verpufft.
Was aber micki sagen will ist, das 360/PS3 die 6,7x Leistung brauchen um die gleiche Effektdichte/Pixel zu haben wie die Wii.
- Wenn man ~7 mal weniger Leistung hat, dafür aber ~7 mal weniger abarbeiten muss, dann kann man auch den gleichen, coolen Feuerball (or whatever) auf den Schirm zaubern - der Unterschied ist nur, das dieser weniger Pixel beinhalten wird. (Effektdichte/Pixel) ;)
fizzo
2007-05-10, 21:21:38
wenn das thema schon gesplittet wurde, sollte zumindest der artikel, wecher zu dieser diskusion gefuehrt hat, gelinkt werden:
Geek Out: Xbox Uber-Boss Robbie Bach Takes a Shot At Nintendo's 'Underpowered' Wii. (http://blog.newsweek.com/blogs/levelup/archive/2007/05/08/geek-out-xbox-uber-boss-robbie-bach-takes-a-shot-at-nintendo-s-underpowered-wii-does-he-manage-to-score-a-bulls-eye-or-just-shoot-himself-in-the-foot.aspx)
wie ich schon im sammelthread erwaehnt habe erwarte ich von square enix, dass sie mit FFCC: The Crystal Bearers mal vorzeigen was so technisch auf der wii moeglich ist - am wochenende werden wir wohl erste ingame bilder/videos zu gesicht bekommen.
in einem punkt braucht sich die wii aber sicher nicht von der uebermaechtigen konkurenz zu verstecken....leistung pro cm3 im verhaeltnis zum stromverbrauch...auch eine art "highend" ;)
Lightning
2007-05-10, 21:24:23
Was aber micki sagen will ist, das 360/PS3 die 6,7x Leistung brauchen um die gleiche Effektdichte/Pixel zu haben wie die Wii.
- Wenn man ~7 mal weniger Leistung hat, dafür aber ~7 mal weniger abarbeiten muss, dann kann man auch den gleichen, coolen Feuerball (or whatever) auf den Schirm zaubern - der Unterschied ist nur, das dieser weniger Pixel beinhalten wird. (Effektdichte/Pixel) ;)
Genau diese Aussage akzeptiere ich doch auch die ganze Zeit (liest eigentlich niemand meine Beiträge? ;(). Das war allerdings eben nicht die Aussage von micki, sondern - ich zitiere - "umgerechnet auf 480p hat der wii genausoviel graphikpower zu bieten wie die anderen konsolen". Das ist das einzeige, was ich ankreide, wo ich beim besten Willen nicht zustimmen kann.
Genau diese Aussage akzeptiere ich doch auch die ganze Zeit (liest eigentlich niemand meine Beiträge? ;(). Das war allerdings eben nicht die Aussage von micki, sondern - ich zitiere - "umgerechnet auf 480p hat der wii genausoviel graphikpower zu bieten wie die anderen konsolen". Das ist das einzeige, was ich ankreide, wo ich beim besten Willen nicht zustimmen kann.
Das ist eine ~7 mal kleinere Aufl. - ist es denn so schwer vorstellbar, das die Wii ein Siebtel der GFX-Power, der Über-Konsolen, haben kann?
€dit:
Ach verdammt! Er hat es nur falsch formuliert. Er meint natürlich nicht, das die anderen Konsolen, wenn nur mit der niedrigeren Aufl. (der Wii) beschäftigt, die selbe Rechenleistung haben, sondern, das alle NG-Konsolen, auf ihren eigenen Terrain eine vergleichbare Effektdichte erzeugen können.
Lightning
2007-05-10, 22:33:28
Das ist eine ~7 mal kleinere Aufl. - ist es denn so schwer vorstellbar, das die Wii ein Siebtel der GFX-Power, der Über-Konsolen, haben kann?
€dit:
Ach verdammt! Er hat es nur falsch formuliert. Er meint natürlich nicht, das die anderen Konsolen, wenn nur mit der niedrigeren Aufl. (der Wii) beschäftigt, die selbe Rechenleistung haben, sondern, das alle NG-Konsolen, auf ihren eigenen Terrain eine vergleichbare Effektdichte erzeugen können.
Das habe ich schon so verstanden. Trotzdem finde ich das wirklich so schwer vorstellbar. Denn das würde ja bedeuten, dass PS3- und Xbox-360-Spiele (die nativ in 720p laufen) auf einem PAL-Fernseher (mit verpuffender Leistung) nicht besser aussehen würden als Wii-Spiele bzw. meinetwegen auch die Toptitel der letzten Konsolengeneration, da der Wii wie gesagt noch nicht gut ausgenutzt wird. Das ist in meinen Augen aber ganz klar nicht der Fall. Ein Oblivion auf dem Wii halte ich einfach für unmöglich. Ebenso HDR-Rendering und weitere Dinge, die ich teils schon vorher schon aufzählte.
edit: Kurz gesagt: Ja, ich denke, dass der Wii im Schnitt noch eindeutig weniger als ein Siebtel der Rechenleistung zur Verfügung hat. Wobei ich mich immer noch Frage, warum man von einem Siebtel redet. Normale PS3- und Xbox-360-Spiele laufen doch in 720p, die Auflösung ist also nur vier mal so hoch.
Das habe ich schon so verstanden. Trotzdem finde ich das wirklich so schwer vorstellbar. Denn das würde ja bedeuten, dass PS3- und Xbox-360-Spiele (die nativ in 720p laufen) auf einem PAL-Fernseher (mit verpuffender Leistung) nicht besser aussehen würden als Wii-Spiele bzw. meinetwegen auch die Toptitel der letzten Konsolengeneration, da der Wii wie gesagt noch nicht gut ausgenutzt wird. Das ist in meinen Augen aber ganz klar nicht der Fall. Ein Oblivion auf dem Wii halte ich einfach für unmöglich. Ebenso HDR-Rendering und weitere Dinge, die ich teils schon vorher schon aufzählte.
Ne, genau das Gegenteil wollte ich, und wahrscheinlich auch micki, behaupten.
Gehen wir davon aus, das Wii genau genug Rechenleistung hat um 1 Feuerball-Effekt, in PAL-Aufl. auf den Schirm zu bringen. Dann kann die PS3, obwohl sie die ~7x Leistung hat, auch nur einen Feuerball berechnen, da sie dies in ~7 mal grösserer Aufl. tun muss. (HDTV)
Würde sie aber einen PAL-Modus benutzen, könnte sie 7 Feuerbälle berechnen. Das meine ich mit Effektdichte.
P.S. Natürlich sind das nur hypothetische Zahlen. Der Grundgedanke ist aber der gleiche.
P.P.S. Ich glaube er (micki) geht davon aus: 1920 × 1080 / 640 x 480 = 6,75 (und bezieht sich auf PS3 vs. Wii)
DaEmpty
2007-05-10, 22:48:27
Nunja. Er könnte ihn vllt. für schnelleres Laden von Content nutzen, aber nicht für Grafik-Darstellung (zumindest nicht in dem Ausmaß wie du es dir vllt. jetzt vorstellst). Was bringt's 1024x1024 Texturen und viele Objekte überall zu verwenden wenn Sachen wie Bandbreite oder Füllrate überhaupt nicht ausreichen?
Man hat bei bei den meisten Sachen einen Tradeoff zwischen Speicherverbrauch und Rechenleistung. Wenn ich schon keine Rechenleistung haben, bin ich wenigstens froh genug Speicher zu haben. Auch wenn ich keine Grafikberechnungen habe, ist der Speicher schon fast lächerlich klein für die heutige Zeit.
Wie "schlimm" die Wii aber wirklich ist, werd ich demnächst wissen, wenn endlich die SDK da ist und damit rumgespielt wurde. ;)
Vieles auf der Liste hab ich aber schon abgestempelt als nicht realisierbar.
-Saphrex-
2007-05-10, 23:07:07
Was hat denn die Auflösung mit der mehrfachen Rechenleistung zu tun? Oder habt ihr aufm PC bei 800x600 die doppelte Framerate gegenüber 1024x768? Es ist eher gefragt wer die höhere Polygonanzahl oder Shaderleistung zusammenbringt als die Füllrate. Da kann (wird) der Wii leider nicht mithalten.
Achja, ich hab weder ne Xbox360 oder PS3. Ich hab mir den Wii wegen der Exclusivtitel gekauft
AnarchX
2007-05-10, 23:07:59
Ich würde Hollywood vielleicht auf GF3-GF4-Niveau schätzen, entsprechenden kann man dann mit Xenos und RSX vergleichen.
Wieviel TMUs hat Hollywood eigentlich: 4 oder 8?
Der Takt ist ja jedenfalls 243MHz.
Lightning
2007-05-10, 23:08:09
Ne, genau das Gegenteil wollte ich, und wahrscheinlich auch micki, behaupten.
Gehen wir davon aus, das Wii genau genug Rechenleistung hat um 1 Feuerball-Effekt, in PAL-Aufl. auf den Schirm zu bringen. Dann kann die PS3, obwohl sie die ~7x Leistung hat, auch nur einen Feuerball berechnen, da sie dies in ~7 mal grösserer Aufl. tun muss. (HDTV)
Würde sie aber einen PAL-Modus benutzen, könnte sie 7 Feuerbälle berechnen. Das meine ich mit Effektdichte.
Genau so habe ich das auch die ganze Zeit verstanden. Und ich bin immer noch der Meinung, dass die PS3 trotzem immer noch mehr Leistung hat. Also, in deinem Beispiel, meinetwegen trotz höherer Aufllösung noch dreimal so viele Feuerbälle darstellen kann, wie der Wii in niedrigerer Auflösung. Und das betrifft jetzt nur die Grafikleistung, die Prozessorgeschwindigkeit bleibt ja ungeachtet der Auflösung einfach viel größer, ebenso wie der Hauptspeicher.
Mal eine Frage: Kennst du dich mit der aktuellen Konsolengeneration aus? Besitzt du eine der Konsolen, oder hast du dir schon Spiele angesehen?
P.P.S. Ich glaube er (micki) geht davon aus: 1920 × 1080 / 640 x 480 = 6,75 (und bezieht sich auf PS3 vs. Wii)
Ich weiß, dass das wohl so gemeint ist. Allerdings läuft längst nicht jedes PS3-Spiel auch in 1080p. Das ist meines Wissens die Ausnahme. Daher sollte man imo schon eher mit 720p rechnen.
Gehen wir davon aus, das Wii genau genug Rechenleistung hat um 1 Feuerball-Effekt, in PAL-Aufl. auf den Schirm zu bringen. Dann kann die PS3, obwohl sie die ~7x Leistung hat, auch nur einen Feuerball berechnen, da sie dies in ~7 mal grösserer Aufl. tun muss. (HDTV)
Würde sie aber einen PAL-Modus benutzen, könnte sie 7 Feuerbälle berechnen. Das meine ich mit Effektdichte.
selbst wenn die auflösung 7x so hoch ist, heißt das nicht dass der gesamte aufwand um das 7-fache steigt.
Genau so habe ich das auch die ganze Zeit verstanden. Und ich bin immer noch der Meinung, dass die PS3 trotzem immer noch mehr Leistung hat. Also, in deinem Beispiel, meinetwegen trotz höherer Aufllösung noch dreimal so viele Feuerbälle darstellen kann, wie der Wii in niedrigerer Auflösung. Und das betrifft jetzt nur die Grafikleistung, die Prozessorgeschwindigkeit bleibt ja ungeachtet der Auflösung einfach viel größer, ebenso wie der Hauptspeicher.
1. Mal eine Frage: Kennst du dich mit der aktuellen Konsolengeneration aus? Besitzt du eine der Konsolen, oder hast du dir schon Spiele angesehen?
2. Ich weiß, dass das wohl so gemeint ist. Allerdings läuft längst nicht jedes PS3-Spiel auch in 1080p. Das ist meines Wissens die Ausnahme. Daher sollte man imo schon eher mit 720p rechnen.
Was die Rechenleistung der CPU angeht, hast du völlig Recht. Ich hab auch k.A. ob die Wii-Hardware wirklich 1/7 der Leistung, der PS3 oder der 360, hat - ich spekulier nur. Man sollte es in Erwägung ziehen, es könnte ja sein.
1. Nur das was ich in MM und co. gesehen habe.
2. Das ist mir auch klar. Es waren jedoch, nur hypothetische Beispiele.
selbst wenn die auflösung 7x so hoch ist, heißt das nicht dass der gesamte aufwand um das 7-fache steigt.
Und wieso nicht, wenn z.B. ein Feuerball-Shader auf einmal, statt auf 1000, auf 7000 Pixel angewendet wird?
Meiner Verständnis nach ist das dann 7 mal mehr Rechenaufwand. Nicht für die ganze GPU, aber mindestens für die ALUs und ROPs.
Lightning
2007-05-11, 00:34:31
Ich würde Hollywood vielleicht auf GF3-GF4-Niveau schätzen, entsprechenden kann man dann mit Xenos und RSX vergleichen.
Wieviel TMUs hat Hollywood eigentlich: 4 oder 8?
Der Takt ist ja jedenfalls 243MHz.
An dieser Stelle würde ich vielleicht auch weitermachen, denn daran wird schön klar, dass wirklich kleine Welten zwischen Wii und PS3/Xbox 360 liegen.
Wieviele TMUs Hollywood hat, weiß ich nicht, würde aber auf 4 Tippen. Da aber allgemein zu wenig über den Grafikchip bekannt ist, würde ich wirklich mal eine Karte aus der GF3-GF4-Generation herausgreifen und diese mit z.B. einer X1800 XT vergleichen. Sicher, das wird weit von einem optimalen Beispiel entfernt sein, aber zumindest bekommt man einen Überblick, in welchen Größenordnungen man sich befindet. Ich mach mal einen Anfang:
Nehmen wir also eine GeForce 4 Ti. Diese hat 4 Pipes mit einem Chiptakt von maximal 300 MHz. Dagegen stehen 16 Pipes mit ca. doppeltem Takt. Damit ist man schonmal bei 8-facher Füllrate. Rechnet man noch dazu, dass die Radeon doch eine deutlich gesteigerte Effizienz aufweisen sollte, ist man locker beim 10-Fachen.
Auf die Speicherbandbreite einzugehen hat an dieser Stelle imo nicht so viel Sinn, da Hollywood mit seinem SRAM-konzept einfach zu anders ist, als dass man da vernünftig vergleichen könnte.
Wie auch immer - das war erst die Rohleistung. Ganz erheblich sind die Unterschiede doch auch beim Featureset, der Shaderperformance- und Komplexität. Mit einer veralteten Grafikkarte kann man viele "Effekte" einfach performancetechnisch nicht vernünftig realisieren, auch wenn die Auflösung noch so niedrig ist. Beispiele dafür habe ich ja oben schon genannt.
Kurzum: Vergleicht man die "Leistung pro Pixel" im veralteten Kontext, wo in erster Linie Rohleistung zählt, dürfte Hollywood zwar immer noch hinten sein, aber nicht so extrem. Sobald es aber moderner wird er ungeachtet der Auflösung einfach kein Land mehr sehen.
Soviel alleine zur Grafikleistung, die ja nur einen Teil der "Leistung pro Pixel" ausmacht. Noch klarer wird das Bild, wenn man zusätzlich das Plus an Prozessorleistung und RAM auf Seiten der PS3/Xbox 360 hinzunimmt: Der Wii ist insgesamt grafiktechnisch einfach veraltet.
An dieser Stelle würde ich vielleicht auch weitermachen, denn daran wird schön klar, dass wirklich kleine Welten zwischen Wii und PS3/Xbox 360 liegen.
Wieviele TMUs Hollywood hat, weiß ich nicht, würde aber auf 4 Tippen. Da aber allgemein zu wenig über den Grafikchip bekannt ist, würde ich wirklich mal eine Karte aus der GF3-GF4-Generation herausgreifen und diese mit z.B. einer X1800 XT vergleichen. Sicher, das wird weit von einem optimalen Beispiel entfernt sein, aber zumindest bekommt man einen Überblick, in welchen Größenordnungen man sich befindet. Ich mach mal einen Anfang:
Nehmen wir also eine GeForce 4 Ti. Diese hat 4 Pipes mit einem Chiptakt von maximal 300 MHz. Dagegen stehen 16 Pipes mit ca. doppeltem Takt. Damit ist man schonmal bei 8-facher Füllrate. Rechnet man noch dazu, dass die Radeon doch eine deutlich gesteigerte Effizienz aufweisen sollte, ist man locker beim 10-Fachen.
Auf die Speicherbandbreite einzugehen hat an dieser Stelle imo nicht so viel Sinn, da Hollywood mit seinem SRAM-konzept einfach zu anders ist, als dass man da vernünftig vergleichen könnte.
Wie auch immer - das war erst die Rohleistung. Ganz erheblich sind die Unterschiede doch auch beim Featureset, der Shaderperformance- und Komplexität. Mit einer veralteten Grafikkarte kann man viele "Effekte" einfach performancetechnisch nicht vernünftig realisieren, auch wenn die Auflösung noch so niedrig ist. Beispiele dafür habe ich ja oben schon genannt.
Kurzum: Vergleicht man die "Leistung pro Pixel" im veralteten Kontext, wo in erster Linie Rohleistung zählt, dürfte Hollywood zwar immer noch hinten sein, aber nicht so extrem. Sobald es aber moderner wird er ungeachtet der Auflösung einfach kein Land mehr sehen.
Soviel alleine zur Grafikleistung, die ja nur einen Teil der "Leistung pro Pixel" ausmacht. Noch klarer wird das Bild, wenn man zusätzlich das Plus an Prozessorleistung und RAM auf Seiten der PS3/Xbox 360 hinzunimmt: Der Wii ist insgesamt grafiktechnisch einfach veraltet.
Natürlich ist sie das. Daran zweifelt auch niemand.
Die Frage ist, ob die Wii, in der Zukunft, das gleiche "bang for the buck" (Eye candy/cm²) wie die Konkurrenz bieten wird. Dabei ist es unwichtig wie ein Effekt realisiert wird. Ich könnte mir vorstellen, das sich viele Entwickler, durch ihre Verspieltheit, trauen werden, auf den 360 & PS3 hochkomplexe Effekte oder Verfahren (HDRR z.B.) anzuwenden. Die aber das gleiche optische Resultat, wie die "billigere" Methode, erzielen. Mit dem Gedanken, das die Leistung unausschöpflich ist.
Auf der Wii wird man stattdessen, wahrscheinlich, Bloom (oder etwas ähnliches) verwenden.
Der Punkt ist, auf der Wii wird man viel mehr sparen. Erstens weil sowieso weniger Leistung vorhanden ist, und zweitens, weil es die Platform mit der grössten User-Base ist, auf welcher man einfach zeigen muss, was man drauf hat, oder man wird von der Konkurrenz vernichtet. (die anderen ISVs)
Lightning
2007-05-11, 08:10:10
Natürlich ist sie das. Daran zweifelt auch niemand.
Die Frage ist, ob die Wii, in der Zukunft, das gleiche "bang for the buck" (Eye candy/cm²) wie die Konkurrenz bieten wird. Dabei ist es unwichtig wie ein Effekt realisiert wird. Ich könnte mir vorstellen, das sich viele Entwickler, durch ihre Verspieltheit, trauen werden, auf den 360 & PS3 hochkomplexe Effekte oder Verfahren (HDRR z.B.) anzuwenden. Die aber das gleiche optische Resultat, wie die "billigere" Methode, erzielen. Mit dem Gedanken, das die Leistung unausschöpflich ist.
Auf der Wii wird man stattdessen, wahrscheinlich, Bloom (oder etwas ähnliches) verwenden.
Der Punkt ist, auf der Wii wird man viel mehr sparen. Erstens weil sowieso weniger Leistung vorhanden ist, und zweitens, weil es die Platform mit der grössten User-Base ist, auf welcher man einfach zeigen muss, was man drauf hat, oder man wird von der Konkurrenz vernichtet. (die anderen ISVs)
Das, was technisch drin steckt, und das, was man rausholt, sind natürlich immer zwei verschiedene Paar Schuhe. Dass auf dem Wii mehr getrickst werden muss und werden wird, ist klar. Bloom ohne HDRR ist da ja nichtmal etwas neues.
Dennoch bin ich weiterhin der Meinung, dass die Unterschiede auch für einen Laien groß genug sein werden. Der Unterschied PS2 --> Xbox war es vielleicht nicht, aber bei der neuen Generation sind die Unterschiede einfach zu gravierend (auch nach der "Pro Pixel Leistung", oder wie man es nennen will). Die Entwickler können tricksen, aber nicht zaubern.
Ich akzeptiere natürlich trotzdem deine Meinung. Man kann ja mal in einem Jahr schauen, was draus geworden ist.
Welche Konsole auf lange Sicht dann die größte Userbase haben wird, muss sich übrigens auch noch zeigen. Momentan ist es die Xbox 360. Wobei ich mir ebenfalls vorstellen kann, dass das nicht so bleiben wird.
The_Invisible
2007-05-11, 08:41:46
Und wieso nicht, wenn z.B. ein Feuerball-Shader auf einmal, statt auf 1000, auf 7000 Pixel angewendet wird?
Meiner Verständnis nach ist das dann 7 mal mehr Rechenaufwand. Nicht für die ganze GPU, aber mindestens für die ALUs und ROPs.
zu lair auf ps3 haben die entwickler mal geschrieben das die gpu last von 720p auf 1080p nur sehr wenig ansteigt, was wohl mit cell zu tun haben könnte. also auch bei den "großen" kann man noch tricksen.
mfg
Mayhem
2007-05-11, 08:49:36
Hmm, auf der Wii sind nur Fixed-Function-Shader (vergleichbar Geforce2) möglich. Um ihn jedoch ned ganz sooo alt aussehen zu lassen hat er noch ein bisschen T-Buffer (Voodoo 5) ähnliche Sachen für Bildschirmoperationen wie MotionBlurring, DOF, usw...
Also prinzipiell Jahr 2000 Technik.
Aber halt trotzdem ne Konsole die Spass macht, genau wie mein Gamecube.
EDIT: grad gelesen, dass selbst DOT3-BumpMapping schon ein schweres Stück für den Wii zu sein scheint. Man soll es nur "sinnvoll" einsetzen...lol
zu lair auf ps3 haben die entwickler mal geschrieben das die gpu last von 720p auf 1080p nur sehr wenig ansteigt, was wohl mit cell zu tun haben könnte. also auch bei den "großen" kann man noch tricksen.
mfg
2,25 mehr Pixel mussen berechnet werden. Dazu kommen die Texturen, die auch angepasst werden müssen, damit man nicht nur Matsch sieht. Das, was die Entwickler sagen, kann nur Marketing sein.
@Lightning
Volle Zustimmung. Wobei ich mir nicht nur vorstellen kann, sondern fest davon überzeugt bin, das Wii die "Desktop-DS", vom Standpunkt der Verbreitung am Markt her betrachtet, sein wird. Und das kann mir nur Recht sein - es liegt in meinem Interesse, das die billigste Konsole gewinnt. Würde eine der beiden "Grössen" das tun, wären wir auch bei der Next-Gen schon wieder bei € 500/Konsole.
Ganon
2007-05-11, 10:22:41
Bei Factor5 sowieso. Die haben damals auch behauptet der GameCube wäre leistungsfähiger als die XBOX und das ProLogicII wäre mit dem 5.1 von der XBOX vergleichbar.
Damals hat denen auch schon keiner geglaubt. Nur komischerweise glauben denen alle wenn sie die PS3 in den Himmel loben (als Sony-Vertrags-Entwickler ;)).
Wie es halt immer so ist. ;)
micki
2007-05-11, 10:58:02
Quelle?gehirn.
1920*1080/640/480?
Ich kann mir gut vorstellen, dass der Wii bei HDR-Rendering, Parallax-Mapping, Deferred Shading und solchen Nettigkeiten auch gerne mal 50 mal langsamer sein würde als die Konkurrenz. da ist deine vorstellung leider falsch. Parallaxmapping kann man nachbilden indem man mehrere texturelayer uebereinander ausliesst (von der selben textur) mit fallenden alpha-test reference-value. so macht man auch Fur, sieh starfox-adventure. defered rendering ist nur eine andere art und weise zu rendern und mittels normalem rendering bekommst du genau das selbe resultat hin.
Warum auf einmal 1080p? Die meisten Spiele laufen mit 720p.
Wii spiele laufen auch nicht immer mit 480p oder? es geht hier nur um die maximalaufloesung bei der ein spiel auf einer plattform absolut fluessig (60hz) laufen soll und da siehst du nicht warnsinnig viel mehr details/pixel auf x360/ps3 gegenueber dem Wii.
dass die konsolen eben nicht so super leistungsfaehig sind siehst du dann auch daran dass es kaum spiele in 60hz bei max aufloesung gibt (selbst wenn es nur 720p fuer die x360 waere)
Weiterhin halte ich den zusätzlichen CPU-Aufwand, der alleine durch eine höhere Auflösung entsteht, für vernachlässigbar gering. Sieht man ja gut an PC-Spielen.
Bsp. x360, wegen dem wenigen GPU-speicher musst du fuer 1080p wohl mehrere male jeweils ein anderes stueck des framebuffers rendern. und auch sonst, falls du den selben detailgrad haben moechtest, musst du schliesslich 6mal mehr texturedaten streamen/managen, 6mal mehr meshdaten usw.
Nein. Mehr Hauptspeicher kann man auch unabhängig von der Auflösung gebrauchen. Ein Gothic 2 würde auf dem Wii nicht ohne weitere Anpassungen laufen, auf der Xbox 360 hingegen schon.ein gothic laeuft auch auf einer x360 ohne anpassungen nicht, jeder der dir was anderes erzaehlt verarscht dich. du musst die datenmenge reduzieren, das musst du auch beim wii (eben um 6.75) und dann kann es theoretisch auch auf dem wii laufen. (ich gehe mal davon aus dass du das hier nur auf die ramproblematik bezogen hast)
Wie kommst du nun auf einmal auf 240p? so wie du auf 480p fuer die anderen konsolen kommst, waehrend wir uns hier uber qualitaet/pixel bei vorgesehener bester aufloesung unterhalten.
Da gebe ich dir vollkommen recht, ein wenig Rechenleistung verpufft natürlich an der höheren Auflösung. Aber längst nicht so viel, als dass der Wii auf einmal mithalten könnte.
ich meine auch nicht dass der Wii absolut mithalten kann. aber theoretisch kann man auf dem Wii jedes spiel annehmbar laufen lassen, so wie es in der letzten generation bei xbox/ps2/gc gewesen ist. und das deshalb weil die sehr viel groessere pixelmaenge der anderen konsolen entsprechend mehr abverlangt. du willst ja nicht das selbe bild nur hochaufgeloest sehen, du willst bessere texturen, bessere models usw. haben.
micki
2007-05-11, 11:00:51
Das hört sich an als wärest du der Meinung eine langsame Konsole wie die Wii könnte nicht so viel mit mehr Speicher anfangen?
klar, du koenntest mit weniger muehe einfach alle daten von der x360 version auf den wii zum laufen bringen wenn der wii 512MB haette. gut, du wuerdest vermutlich nie das kleinste lod der meshes und texturen sehen, aber irgendeinen sinn koennte mehr ram ja haben.
AnarchX
2007-05-11, 11:04:58
da ist deine vorstellung leider falsch. Parallaxmapping kann man nachbilden indem man mehrere texturelayer uebereinander ausliesst (von der selben textur) mit fallenden alpha-test reference-value. so macht man auch Fur, sieh starfox-adventure. defered rendering ist nur eine andere art und weise zu rendern und mittels normalem rendering bekommst du genau das selbe resultat hin.
Nur zu einem deutlich höheren Preis. Oder willst du erzählen, dass so eine Blendinglösung günstiger ist als wenn die HW nativ Parallaxmapping beherrscht?
Hollywood ist und bleibt einfach um Welten schwächer als Xenos/RSX, was aber nicht heißen muss dass man keine guten Resultate auf ihm erzielen kann, wenn man genau weiß wie man es machen muss.
Würde man jedoch ein Spiel das RSX/Xenos in der HD-Auflösung völlig ausreizt, versuchen mit allen Details/Effekten auf die Auflösung der Wii umzusetzen, würde man imo trotzdem keine spielbaren FPS erhalten.
micki
2007-05-11, 11:08:19
Wie "schlimm" die Wii aber wirklich ist, werd ich demnächst wissen, wenn endlich die SDK da ist und damit rumgespielt wurde. ;)wann wird das veroeffentlich? oder sprichst du von einem das du ueber ein NDA bekommst und von dem du hier nichts sagen durftest?
homebrew gibt es ja leider noch nicht, public scheint sich auch nichts anzubahnen ....
Nur zu einem deutlich höheren Preis. Oder willst du erzählen, dass so eine Blendinglösung günstiger ist als wenn die HW nativ Parallaxmapping beherrscht?
Hollywood ist und bleibt einfach um Welten schwächer als Xenos/RSX, was aber nicht heißen muss dass man keine guten Resultate auf ihm erzielen kann, wenn man genau weiß wie man es machen muss.
Würde man jedoch ein Spiel das RSX/Xenos in der HD-Auflösung völlig ausreizt, versuchen mit allen Details/Effekten auf die Auflösung der Wii umzusetzen, würde man imo trotzdem keine spielbaren FPS erhalten ohne gewissen Einschränkungen zu haben.
Wie kann ein, auf einem Shader basierender, Effekt nativ beherrscht werden? AFAIK gibt es keine Einheit die speziell auf diesen einen Effekt zugeschnitten ist.
Dem Rest stimme ich zu.
micki
2007-05-11, 11:24:32
Nehmen wir also eine GeForce 4 Ti. Diese hat 4 Pipes mit einem Chiptakt von maximal 300 MHz. Dagegen stehen 16 Pipes mit ca. doppeltem Takt. Damit ist man schonmal bei 8-facher Füllrate. Rechnet man noch dazu, dass die Radeon doch eine deutlich gesteigerte Effizienz aufweisen sollte, ist man locker beim 10-Fachen.
Auf die Speicherbandbreite einzugehen hat an dieser Stelle imo nicht so viel Sinn, da Hollywood mit seinem SRAM-konzept einfach zu anders ist, als dass man da vernünftig vergleichen könnte.doch, das ist ja gerade wichtig, auf dem Wii kannst du texturen ins edram stecken, oder auch aus dem ram nutzen. du kannst random auf dem speicher mit vollem speed zugreifen, waehrend dir indizierte meshes mit dem ddr ram maechtig wehtun. der cube kann sogar noch weitere nette sachen um daten zu sparen, weil er eben random auf dem ram arbeiten kann, was die x360 nicht kann (natuerlich nur in den 24MB die 1TSram sind.) und die bandbreite ist ebenfalls nicht schlecht, 15GB/s aus dem edram und ca 4gb/s aus dem ram, gegenuber dem 5 bzw 1.3fachem der x360.
Wie auch immer - das war erst die Rohleistung. Ganz erheblich sind die Unterschiede doch auch beim Featureset, der Shaderperformance- und Komplexität. Mit einer veralteten Grafikkarte kann man viele "Effekte" einfach performancetechnisch nicht vernünftig realisieren, auch wenn die Auflösung noch so niedrig ist. Beispiele dafür habe ich ja oben schon genannt.nur hast du auch im artikel gelesen dass der stagecount heraufgesetzt wurde, ich wuerde schaetzen dass ca PS 1.4 emulierbar sind (seit geforce1 gab es diese "shader" und erst ab gf3 gab es den oeffentlichen assembler dazu, es ist nur eine andere art der configuration).
Kurzum: Vergleicht man die "Leistung pro Pixel" im veralteten Kontext, wo in erster Linie Rohleistung zählt, dürfte Hollywood zwar immer noch hinten sein, aber nicht so extrem. Sobald es aber moderner wird er ungeachtet der Auflösung einfach kein Land mehr sehen.
nur muss man sehen dass die spiele heute auch kaum effekte nutzen die viel leistung verlangen weil sie selbst bei 720p nichtmal ihre 30hz halten koennten. die "simplen" dinge die zumeist verwendet werden machen den grossteil aus und das kann der Wii. deswegen kann man auch NFS:carbon auf dem wii zocken. sicher kein HDR, kein megahyperbloom, aber du kannst das spiel darauf laufen lassen und das gilt auch fuer die allermeisten anderen spiele.
micki
2007-05-11, 11:34:12
Nur zu einem deutlich höheren Preis. Oder willst du erzählen, dass so eine Blendinglösung günstiger ist als wenn die HW nativ Parallaxmapping beherrscht?nein, das ist weder teurer noch guenstiger, das ist so wie es auch auf dem shader gemacht wird.
du liesst 16 leicht versetzte texel aus der textur (pro pixel) aus, und pruefst quasi die "tiefe" bis du das sampel hast, was einen hoehenwaert hat, der groesser ist als der von deinem sichtstrahl. dann ist naemlich der sichtstrahl auf die textur "geprallt"
erstes parallaxmapping (steht im opengl.org forum) lief auch auf einer geforce3, die konnte nur 4texturereads machen, deswegen war das dort etwas langsam. der Wii soll ja 16 koennen und schon die 8 vom GC haben fuer Fur gereicht.
Hollywood ist und bleibt einfach um Welten schwächer als Xenos/RSX, was aber nicht heißen muss dass man keine guten Resultate auf ihm erzielen kann, wenn man genau weiß wie man es machen muss.
Würde man jedoch ein Spiel das RSX/Xenos in der HD-Auflösung völlig ausreizt, versuchen mit allen Details/Effekten auf die Auflösung der Wii umzusetzen, würde man imo trotzdem keine spielbaren FPS erhalten.
tja, wenn welten an staerke und waelten an anforderung (HD) liegen, kuerzt du welt/welt und bekommst RSX|Xenon==Wii.
Spasstiger
2007-05-11, 11:42:32
tja, wenn welten an staerke und waelten an anforderung (HD) liegen, kuerzt du welt/welt und bekommst RSX|Xenon==Wii.
Hollywood liegt feature- und performancetechnisch irgendwo in der Gegend einer Radeon 8500. Du willst du jetzt nicht behaupten, dass eine Radeon 8500 unter Berücksichtigung der verschiedenen Auflösungen auch nur annähernd dieselben Effekte flüssig darstellen kann wie eine GeForce 7900 GT (=RSX)?!
micki
2007-05-11, 11:47:21
Hollywood liegt feature- und performancetechnisch irgendwo in der Gegend einer Radeon 8500. Du willst du jetzt nicht behaupten, dass eine Radeon 8500 unter Berücksichtigung der verschiedenen Auflösungen auch nur annähernd dieselben Effekte flüssig darstellen kann wie eine GeForce 7900 GT (=RSX)?!liess dir die rechnung oben durch, dann muss man nichts behaupten. 8fache leistung, 6.75fache aufloesung...
AnarchX
2007-05-11, 11:53:27
liess dir die rechnung oben durch, dann muss man nichts behaupten. 8fache leistung, 6.75fache aufloesung...
Im Bezug auf die arithmetische Leistung ist da wohl deutlich mehr Unterschied, wenn man einen Chip vergleicht der gerade mal so PS1.4 emulieren kann und einen SM3.0 Chip der mit USA und über 200GFLOPs daherkommt.;)
micki
2007-05-11, 11:55:12
Im Bezug auf die arithmetische Leistung ist da wohl deutlich mehr Unterschied, wenn man einen Chip vergleicht der gerade mal so PS1.4 emulieren kann und einen SM3.0 Chip der mit USA und über 200GFLOPs daherkommt.;)
und im vergleich zur bandbreite nur 2fache ;)
schoen dass wir das nochmal geklaert hatten..
edit. welche konsole hat eigentlich USA und 200glops? ich kenn nur rsx -> kein usa und Xenon->115GFlops.
Spasstiger
2007-05-11, 11:55:45
liess dir die rechnung oben durch, dann muss man nichts behaupten. 8fache leistung, 6.75fache aufloesung...
8-fache Leistung? Die Shaderleistung des Hollywood , wenn man die Funktionalität der fixed-function-Pipelines entsprechend umrechnet, ist im Vergleich zum RSX oder zum Xenos einfach nur erbärmlich.
DaEmpty
2007-05-11, 12:00:32
klar, du koenntest mit weniger muehe einfach alle daten von der x360 version auf den wii zum laufen bringen wenn der wii 512MB haette. gut, du wuerdest vermutlich nie das kleinste lod der meshes und texturen sehen, aber irgendeinen sinn koennte mehr ram ja haben.
Die Aussage hat hier einige Lacher produziert und hätte ich von dir auch nicht so erwartet. Aber lassen wir vielleicht besser das Thema. ;)
wann wird das veroeffentlich? oder sprichst du von einem das du ueber ein NDA bekommst und von dem du hier nichts sagen durftest?
Teil des NDAs ist es nicht, über den Besitz reden zu dürfen. Sonst dürfte kein offizieller Entwickler sagen, dass er ein DevKit besitzt.
Wie "schlimm" die Wii aber wirklich ist, werd ich demnächst wissen,
ich != das Forum hier.
Wenn ich nichts drüber erfahre, wärs auch gut. Das würde nämlich bedeuten, dass ich nichts dafür anpassen müsste. Ist leider recht unwahrscheinlich :(
AnarchX
2007-05-11, 12:02:54
und im vergleich zur bandbreite nur 2fache ;)
10MB 256GB/s (XBox360) edram vs 3MB 15GB/s(Wii)?
ich kenn nur rsx -> kein usa und Xenon->115GFlops.
Xenos:
48 x 9FLOPs (Vec4+skalares MUL) x 0.5GHz = 216GFLOPs. ;)
micki
2007-05-11, 12:05:10
Die Aussage hat hier einige Lacher produziert und hätte ich von dir auch nicht so erwartet. Aber lassen wir vielleicht besser das Thema. ;)schoen wenn mal jemand meine witze versteht.
Teil des NDAs ist es nicht, über den Besitz reden zu dürfen. Sonst dürfte kein offizieller Entwickler sagen, dass er ein DevKit besitzt. das heangt vom NDA ab. wenn du dir ein publiziertes NDA von nintendo anschaust, weisst du dass denen deine seele gehoert.
ich != das Forum hier.
Wenn ich nichts drüber erfahre, wärs auch gut. Das würde nämlich bedeuten, dass ich nichts dafür anpassen müsste. Ist leider recht unwahrscheinlich :(hat ja nichts damit zu tun ob es eventuell ne aussage gibt dass es public zu bekommen ist, ich kann ja nicht wissen wie du dran kommst ohne zu fragen.
micki
2007-05-11, 12:39:50
10MB 256GB/s (XBox360) edram vs 3MB 15GB/s(Wii)?
limitierend ist die texturbandbreite, nicht die framebuffer bandbreite, also 22GB/s(x360) vs 15GB/s(Wii). (es wird nunmal unmengen an textur gelesen, sehr viel mehr als pixel gesetzt werden, die framebuffer performance ist also nicht sonderlich relevant, eventuell bei AA, aber dann gibt es andere probs.
48 x 9FLOPs (Vec4+skalares MUL) x 0.5GHz = 216GFLOPs. ;)ah ok, bin heir von 5flops ausgegangen.
Wii gpu waere dann (falls es wie auf geforce2ultra ist, siehe dazu auch http://www.3dconcept.ch/reviews/geforce3/ )
pixel: 0.25Ghz * 4 * 12flops (lrp Vec4+(Vec4-Vec4)*F) = 12GLops
vertex: 8lichtquellen mit specular ca 2.5 schneller als gf3 die 1.6GFlops (200MHz*1VS*8flops) hatte -> 4gflops
== 16gflops
also ist von der reinen leistung her der xenon ca 13mal fixer bei alu und ca 2mal bei texturebandbreite. ok?
AnarchX
2007-05-11, 12:44:13
Nur haben wir hier wieder das Problem, das GFLOP nicht gleich GFLOP ist und Xenos seine arithmetische Leistung deutlich besser umsetzen kann, nicht zuletzt wegen den Passreduktionen und eben dem DB welches er dank SM3.0 besitzt. ;)
Lightning
2007-05-11, 12:53:23
@ micki:
Ich habe deine Antworten nun gelesen, möchte aber nicht im Detail darauf eingehen (das wurde ja auch teilweise schon von anderen getan).
Ich will nur nochmal betonen, dass es auf PS3- und Xbox 360 Spiele gibt, die auch ganz abgesehen von der höheren Auflösung an Komplexität, "Effektdichte" und Texturen alles, was die letzte Generation hervorgebracht hat, bei weitem übersteigt. Dass der Wii ein wenig schneller sein mag als diese wird imo nicht annähernd ausreichen, um aufschließen zu können. Mir persönlich reicht das aus, und dadurch ist aus meiner Sicht auch eine weitere Diskussion darüber überflüssig; ich zumindest habe meinen Teil dazu gesagt.
micki
2007-05-11, 13:00:03
Nur haben wir hier wieder das Problem, das GFLOP nicht gleich GFLOP ist und Xenos seine arithmetische Leistung deutlich besser umsetzen kann, nicht zuletzt wegen den Passreduktionen und eben dem DB welches er dank SM3.0 besitzt. ;)
das stimmt eher nicht, die einheiten fuer TnL waren weit aus effizienter gestaltet, deswegen ware ne GF2 oft schneller also ne GF3; beim umstieg von FixPoint (bis SM1.4) auf float (SM2) hat man nochmals einiges an optimierungen gegen generalisiertes rechnen verloren.
aber rechenleistung ist eben nicht alles, das problem ist dass heutzutage meist sehr viel mehr rechenleistung zur verfuegung steht als daten die verarbeitet werden sollen, somit limitieren meist die resourcen Ram-zugriffe.
micki
2007-05-11, 13:04:11
...Mir persönlich reicht das aus, und dadurch ist aus meiner Sicht auch eine weitere Diskussion darüber überflüssig; ich zumindest habe meinen Teil dazu gesagt.da ich aus versehen zuerst den letzten satz deines postings las, du wohl nicht weiter darueber reden moechtest wie 8fache leistung mit 8facher anforderung das gleiche resultat liefert, spar ich mir den rest deines postings. :)
Lightning
2007-05-11, 13:09:51
[...]du wohl nicht weiter darueber reden moechtest wie 8fache leistung mit 8facher anforderung das gleiche resultat liefert, spar ich mir den rest deines postings. :)
Nein, das möchte ich nicht, denn auch dazu habe ich eigentlich alles gesagt: Die Rohleistung alleine zu betrachten (und dabei zusätzlich noch einzig auf den Grafikchip einzugehen), halte ich für sinnlos.
das stimmt eher nicht, die einheiten fuer TnL waren weit aus effizienter gestaltet, deswegen ware ne GF2 oft schneller also ne GF3
Bis zur GeForce FX hatte noch jede nVIDIA-Karte eine dedizierte T&L-Einheit neben den Vertexshadern. Das die GeForce 2 manchmal schneller war lag einfach an der höheren Füllrate.
Bis zur GeForce FX hatte noch jede nVIDIA-Karte eine dedizierte T&L-Einheit neben den Vertexshadern. Das die GeForce 2 manchmal schneller war lag einfach an der höheren Füllrate.
hier geht es darum wenn TnL auf gf2 und VS auf gf3 verwendet wurde. sicher waere es bloedsin das langsammere zu nehmen wenn beides vorhanden ist.
nein, das ist weder teurer noch guenstiger, das ist so wie es auch auf dem shader gemacht wird.
du liesst 16 leicht versetzte texel aus der textur (pro pixel) aus, und pruefst quasi die "tiefe" bis du das sampel hast, was einen hoehenwaert hat, der groesser ist als der von deinem sichtstrahl. dann ist naemlich der sichtstrahl auf die textur "geprallt"
erstes parallaxmapping (steht im opengl.org forum) lief auch auf einer geforce3, die konnte nur 4texturereads machen, deswegen war das dort etwas langsam. der Wii soll ja 16 koennen und schon die 8 vom GC haben fuer Fur gereicht.
Das ist allerdings ziemlich ineffizientes Parallax-Mapping. Da gibt es bessere Varianten, und mit effizientem Branching kann man nochmal einiges rausholen.
limitierend ist die texturbandbreite, nicht die framebuffer bandbreite, also 22GB/s(x360) vs 15GB/s(Wii). (es wird nunmal unmengen an textur gelesen, sehr viel mehr als pixel gesetzt werden, die framebuffer performance ist also nicht sonderlich relevant, eventuell bei AA, aber dann gibt es andere probs.
Das halte ich für eine ziemlich gewagte Aussage.
Jedoch muss man auch hinzufügen dass die 256GB/s vom Xenos-eDRAM zum großen Teil brach liegen. Xenos ist darauf ausgelegt dass die Framebuffer-Bandbreite bei 8 Pixeln pro Takt nie limitiert (4 bei 64bpp). Das heißt aber auch dass man die 256GB/s nur dann überhaupt ausnutzt, wenn gleichzeitig 4xAA, Alpha Blending, Z-Test und Z-Writes eingeschaltet sind.
Bis zur GeForce FX hatte noch jede nVIDIA-Karte eine dedizierte T&L-Einheit neben den Vertexshadern.
Das glaube ich kaum. Würde auch keinen Sinn ergeben, da die "fixed-function" T&L-Einheit im NV1x gar nicht so weit weg von den NV2x-Vertexshadern ist.
Spasstiger
2007-05-11, 15:39:07
aber rechenleistung ist eben nicht alles, das problem ist dass heutzutage meist sehr viel mehr rechenleistung zur verfuegung steht als daten die verarbeitet werden sollen, somit limitieren meist die resourcen Ram-zugriffe.
Warum ist dann z.B. eine GeForce 7600 GT trotz deutlich geringerer Speicherbandbreite etwa 2-3-mal so schnell wie eine Radeon 9800 Pro? Und warum ist eine Radeon X1950 XTX trotz etwa gleicher Bandbreite und Shaderleistung teilweise 40% langsamer als eine GeForce 8800 GTS?
Shadereffizienz und absolute Shaderleistung spielen heute eine sehr große Rolle.
Dass die Speicherbandbreite nicht so wahnsinnig wichtig ist, sieht man auch an der Radeon X2900 XT sehr schön. Deutlich mehr Bandbreite als eine GeForce 8800 GTX und dennoch teils deutlich langsamer.
Und der Hollywood-Chip kann heutige Renderverfahren nichtmal umsetzen, zum einen fehlen die programmierbaren Shadereinheiten, zum anderen reicht die Präzision nicht aus.
Ich halte es für verblendet zu behaupten, der Hollywood-Chip sei in VGA-Auflösung schneller als Xenos und RSX in FullHD.
micki
2007-05-11, 16:49:09
Das ist allerdings ziemlich ineffizientes Parallax-Mapping. Da gibt es bessere Varianten, und mit effizientem Branching kann man nochmal einiges rausholen.so laeuft das heute noch in den meisten faellen. mit branching laeuft da eher wenig wozu auch, mit intelligentem naehern ist man schneller.
Das halte ich für eine ziemlich gewagte Aussage.ist natuerlich fallabhaengig, aber im groben trifft das zu, weshalb wohl 24pixelshader pipelines und nur 16rops? *hehe*
Das glaube ich kaum. Würde auch keinen Sinn ergeben, da die "fixed-function" T&L-Einheit im NV1x gar nicht so weit weg von den NV2x-Vertexshadern ist.
da hat coda recht. ATI hat sogar in ein paar devpapern zur 9800 beworben dass sie als erste ohne TnL laufen und im gegenzug hat NV irgendwo mal gesagt dass sie das drinnen lassen solange man damit mehr performance erreichen kann als mit der shaderemulation. (ausser beim nv2a, da war tnl raus)
micki
2007-05-11, 17:03:21
Warum ist dann z.B. eine GeForce 7600 GT trotz deutlich geringerer Speicherbandbreite etwa 2-3-mal so schnell wie eine Radeon 9800 Pro?
9800pro 21,7 GB/s
7600GT 22.4 GB/s
deswegen so hoch weil 24shaderpipelines entsprechend mehr reads machen koennen als die 8 der 9800.
edit: http://www.winfuture-forum.de/lofiversion/index.php?t21290.html
laut liste sind 9800 und 7600 dich auf.
Und warum ist eine Radeon X1950 XTX trotz etwa gleicher Bandbreite und Shaderleistung teilweise 40% langsamer als eine GeForce 8800 GTS?vergleich einfach die anzahl der pipes, dann weisst du wieviel reads moeglich sind und es eklaert sich von selbst.
Shadereffizienz und absolute Shaderleistung spielen heute eine sehr große Rolle.wobei texturleistung der shader wichtiger ist als alu leistung. alu ist auch sehr einfach zu steigern (was auch gemacht wird), textureleistung hingegen limitiert. da ist bandbreite, latenz vom speicher, cachegroesse und architektur usw. wichtig. da kannst du 100TFlops schaffen, es wird das spiel am ende weiterhin texture/bandbreitenlimitiert machen.
Dass die Speicherbandbreite nicht so wahnsinnig wichtig ist, sieht man auch an der Radeon X2900 XT sehr schön. Deutlich mehr Bandbreite als eine GeForce 8800 GTX und dennoch teils deutlich langsamer.ich glaube es gibt noch keinen qualifizierten benchmark davon.
Und der Hollywood-Chip kann heutige Renderverfahren nichtmal umsetzen, zum einen fehlen die programmierbaren Shadereinheiten, zum anderen reicht die Präzision nicht aus.hollywood kann so ziemlich alles darstellen, aber fuer ein gegenbeispiel was in einem spiel dargestellt wurde das der holly nicht koennen soll wuerde ich mich freuen.
Ich halte es für verblendet zu behaupten, der Hollywood-Chip sei in VGA-Auflösung schneller als Xenos und RSX in FullHD.
niemand sagt er waere schneller.
Spasstiger
2007-05-11, 17:19:47
9800pro 21,7 GB/s
7600GT 22.4 GB/s
deswegen so hoch weil 24shaderpipelines entsprechend mehr reads machen koennen als die 8 der 9800.
Stimmt, die 7600 GT hat ja 750 MHz Speichertakt, nicht 500 MHz. Dennoch erklärt dieser Minimalvorteil nicht den enormen Performancevorteil von einem Faktor 3 in shaderlastigen Spielen. Und die 7600 GT hat keine 24 Shaderpipelines, es sind nur 12 Pipelines, mit einer MADD-ALU (Vec4), dann einer TMU und dann nochmal einer MADD-ALU (Vec4) in Reihe, wobei die TMU die MADD-ALUs blockieren kann.
Übrigens kann auch nicht die um 120% höhere TMU-Leistung den Performancevorteil der 7600 GT vollständig erklären (vor allem, wo doch die Speicherbandbreite so dicht an der 9800 Pro liegt).
hollywood kann so ziemlich alles darstellen, aber fuer ein gegenbeispiel was in einem spiel dargestellt wurde das der holly nicht koennen soll wuerde ich mich freuen.
Hollywood beherrscht keine fp-Präzision, wodurch fp16-HDR-Rendering schonmal flach fällt.
edit: http://www.winfuture-forum.de/lofiversion/index.php?t21290.html
laut liste sind 9800 und 7600 dich auf.
Die dort gelisteten Verhältnisse sind fernab jeglicher Praxiserfahrung mit Spielen. Hier im Forum sind genug Leute von einer 9800 Pro zu einer 7600 GT gewechselt und können dir einen deutlichen Performanceschub versichern.
micki
2007-05-11, 17:26:51
Stimmt, die 7600 GT hat ja 750 MHz Speichertakt, nicht 500 MHz. Dennoch erklärt dieser Minimalvorteil nicht den enormen Performancevorteil von einem Faktor 3 in shaderlastigen Spielen. Und die 7600 GT hat keine 24 Shaderpipelines, es sind nur 12 Pipelines, mit einer MADD-ALU, dann einer TMU und dann nochmal einer MADD-ALU in Reihe, wobei die TMU die MADD-ALUs blockieren kann.also 12 vs 8, das wuerde nen kleinen vorteil bei 7600eklaeren.
Hollywood beherrscht keine fp-Präzision, wodurch fp16-HDR-Rendering schonmal flach fällt. um hdr effekte anzuzeigen braucht man kein fp16, die xbox360 macht das auch ohne float.
Die dort gelisteten Verhältnisse sind fernab jeglicher Praxiserfahrung mit Spielen. Hier im Forum sind genug Leute von einer 9800 Pro zu einer 7600 GT gewechselt und können dir einen deutlichen Performanceschub versichern.
kannst du eventuell die beispiele zeigen die du meinst, ich finde keine benches bei denen die 7600 3mal schneller war.
Spasstiger
2007-05-11, 17:46:54
kannst du eventuell die beispiele zeigen die du meinst, ich finde keine benches bei denen die 7600 3mal schneller war.
In der PC Games Hardware 02/07 war ein kleines AGP-Roundup. In Battlefield 2 erreicht bei 1280x1024 mit 4xAA und 8:1 AF die Radeon 9800 Pro nur 10 fps, die 7600 GT dagegen 24 fps. Ok, ist noch kein Faktor 3, aber mehr, als sich allein durch die Füllrate erklären lassen würde.
Die 7600 GT hat aber wohl generell einen klaren Vorteil durch den größeren Speicher, da muss man natürlich auch noch sehen.
um hdr effekte anzuzeigen braucht man kein fp16, die xbox360 macht das auch ohne float.
Das ändert nix daran, dass Hollywood kein fp16-HDR-Rendering darstellen kann. Im PC-Bereich ist das Gang und Gebe.
Und du glaubst doch nicht allen Ernstes, dass der Nintendo Wii z.B. Oblivion in der gleichen Pracht dastellen könnte (abgesehen von der Auflösung und von AA) wie die Xbox 360!?
micki
2007-05-11, 18:08:49
In der PC Games Hardware 02/07 war ein kleines AGP-Roundup. In Battlefield 2 erreicht bei 1280x1024 mit 4xAA und 8:1 AF die Radeon 9800 Pro nur 10 fps, die 7600 GT dagegen 24 fps. Ok, ist noch kein Faktor 3, aber mehr, als sich allein durch die Füllrate erklären lassen würde.
Die 7600 GT hat aber wohl generell einen klaren Vorteil durch den größeren Speicher, da muss man natürlich auch noch sehen.ja, bei 4AA (und agp?) wuerde eventuell die speichergroesse limitieren und es hat dann nichts mehr mit shaderleistung zu tun.
Das ändert nix daran, dass Hollywood kein fp16-HDR-Rendering darstellen kann. Im PC-Bereich ist das Gang und Gebe.das aendert nichts an der grundbehauptung.
Und du glaubst doch nicht allen Ernstes, dass der Nintendo Wii z.B. Oblivion in der gleichen Pracht dastellen könnte (abgesehen von der Auflösung und von AA) wie die Xbox 360!?
hast du irgendwie den halben thread verpasst? ;)
es geht doch eben darum dass man bei 480p nicht die gleich pracht berechnen muss um so ziemlich das selbe zu sehen. wenn du bei oblivion 200 000 polygone fuer die landschaft nutzen musst bei 1080p, reicht dir eben vielleicht nur 25 000 bei 480p ohne das jemand nen grossen unterschied merkt. und das zieht sich so durch das ganze spiel. du wirst auf dem Wii garnicht soviele graesser zeichen wollen wie bei 1080p, weil du dann nur noch pixelrauschen sehen wuerdest, es reicht dir eventuell 1000billboards statt 6750.etc.
Mayhem
2007-05-11, 18:42:59
ums nochmal klar zu sagen. der holly hat schon probleme DOT3-bumpmapping bildschirmfüllend darzustellen. das reicht doch eigentlich schon aus, oder?
Quelle (von erster seite)
http://blog.newsweek.com/blogs/levelup/archive/2007/05/08/geek-out-xbox-uber-boss-robbie-bach-takes-a-shot-at-nintendo-s-underpowered-wii-does-he-manage-to-score-a-bulls-eye-or-just-shoot-himself-in-the-foot.aspx
micki
2007-05-11, 18:46:19
ums nochmal klar zu sagen. der holly hat schon probleme DOT3-bumpmapping bildschirmfüllend darzustellen. das reicht doch eigentlich schon aus, oder?
Quelle (von erster seite)
http://blog.newsweek.com/blogs/levelup/archive/2007/05/08/geek-out-xbox-uber-boss-robbie-bach-takes-a-shot-at-nintendo-s-underpowered-wii-does-he-manage-to-score-a-bulls-eye-or-just-shoot-himself-in-the-foot.aspx
hey, cool, du hast den ausloeserartikel dieses threads gefunden.
Our final verdict on the charges leveled at the Wii? While Bach's statement that the Wii is graphically underpowered compared to the first Xbox wasn't quite a bulls-eye, it's so darned close to the mark--technically speaking--that we've got to compliment him on his aim.
und man konnte ja so einige gebumpmappte spiele auf der xbox sehen oder?
Mayhem
2007-05-11, 18:50:47
und man konnte ja so einige gebumpmappte spiele auf der xbox sehen oder?
war das jetzt ironie?
tatsache ist ich habe noch keine auf der wii gesehen...hmh...lass mich mal überlegen, aufm PC gings los mit evolva glaub ich...
The Cell
2007-05-11, 19:00:01
Wenn ich mir die Videos zu Super Mario Galaxy ansehe, dann erkenne ich einen Titel, der sehr wohl Bumpmapping bietet.
Gruß,
QFT
micki
2007-05-11, 19:03:47
war das jetzt ironie?halo1 hatte viel bumpmapping wenn ich mich recht erinnere.
tatsache ist ich habe noch keine auf der wii gesehen...tatsache ist, dass selbst wenn bumpmapping vorhanden waere, wuerdest du es bei der aufloesung kaum von simplen detailmaps unterscheiden koennen.
lass mich mal überlegen, aufm PC gings los mit evolva glaub ich...seit matrox milenium 400 oder sowas, die gab es sogar im bundle mit spielen die EMBM konnten. ich glaube expandable oder so hies das erste.
Mayhem
2007-05-11, 19:29:04
halo1 hatte viel bumpmapping wenn ich mich recht erinnere.
und das war langsam oder wii? ich habe keine XBOX, deswegen kann ich das nicht beurteilen...jedenfalls hatte halo auch viel pixelshader. reines DOT3 dürfte wirklich kein problem für die xbox sein.
tatsache ist, dass selbst wenn bumpmapping vorhanden waere, wuerdest du es bei der aufloesung kaum von simplen detailmaps unterscheiden koennen.
naja, vllt beim GC nicht. bei 480p sollte man da aber schon unterschiede sehn. ausserdem geht es in diesem thread doch gerade um die darstellbarkeit von effekten. wenn ich dann lesen muss, dass wii alles darstellen kann was PS3 und XBOX360 können, nur in geringerer auflösung/mit weniger details, muss ich doch die fundiertheit solcher aussagen anzweifeln.
sicher sind auf dem hollywood andere (augenscheinlichere) effekte möglich (z.b. DoF) aber die pixelshader-leistung ist einfach zu wenig.
das argument, dass man bestimmte shader wegen der geringeren auflösung eh nicht bemerken würde, lass ich jetzt nicht gelten.
seit matrox milenium 400 oder sowas, die gab es sogar im bundle mit spielen die EMBM konnten. ich glaube expandable oder so hies das erste.
es ging mir ja um DOT3. das ging erst ab GF1. wobei EMBM (vom G400) glaub ich sogar ein wenig komplexer ist, weil es einen dependent tex read statt dem dp3 enthält.
Mayhem
2007-05-11, 19:37:02
Wenn ich mir die Videos zu Super Mario Galaxy ansehe, dann erkenne ich einen Titel, der sehr wohl Bumpmapping bietet.
Gruß,
QFT
ah danke. sieht in der tat nach bumpmapping aus, aber für meine begriffe eher nach EnvironmentMappedBumpMapping (kurz EMBM). also zumindest in dem video bei youtube. EMBM dürfte dem wii auch eher schmecken als dot3, wegen dem tex read statt dem (beim wii vermutlich von hand zu berechnenden) dp3.
micki
2007-05-11, 19:37:20
und das war langsam oder wii? ich habe keine XBOX, deswegen kann ich das nicht beurteilen...jedenfalls hatte halo auch viel pixelshader. reines DOT3 dürfte wirklich kein problem für die xbox sein.
gut und da dein zittierter artikel sagt dass Wii ein wenig mehr kann als xbox, ist deine aussage:
...probleme DOT3-bumpmapping bildschirmfüllend darzustellen...somit widerlegt.
naja, vllt beim GC nicht. bei 480p sollte man da aber schon unterschiede sehn. ausserdem geht es in diesem thread doch gerade um die darstellbarkeit von effekten. wenn ich dann lesen muss, dass wii alles darstellen kann was PS3 und XBOX360 können, nur in geringerer auflösung/mit weniger details, muss ich doch die fundiertheit solcher aussagen anzweifeln. jo, geht darum dass der Wii am ende ein bild in 480p darstellt was nicht grob schlecht ist als ps3 1080p, nur entsprechend runterskaliert (in sachen texturaufloesung, polygonzahl und nicht sichtbaren effekten)
es ging mir ja um DOT3. das ging erst ab GF1. wobei EMBM (vom G400) glaub ich sogar ein wenig komplexer ist, weil es einen dependent tex read statt dem dp3 enthält.
Der PowerVR 250 und der Permedia 3 sowie die neuen Sprösslinge von S3 und NVidia (Savage2000 und GeForce256) beherrschen diese Technik in Hardwaresource: http://www.3dconcept.ch/artikel/bump/4.htm
wir koennen festhalten: matrox milenium hatte schon genug power fuer EMBM. (was wie auch du zustimmst wohl ein wenig aufwendiger ist).
micki
2007-05-11, 19:40:42
ah danke. sieht in der tat nach bumpmapping aus, aber für meine begriffe eher nach EnvironmentMappedBumpMapping (kurz EMBM). also zumindest in dem video bei youtube. EMBM dürfte dem wii auch eher schmecken als dot3, wegen dem tex read statt dem (beim wii vermutlich von hand zu berechnenden) dp3.nein, dp3 geht wie auch bei gf1 auf der gpu. weitere moeglichen shader:
* diffuse
* mapped
* illuminated mapped
* phong
* phong mapped
* phong mapped gloss
* phong illuminated mapped
* phong illuminated mapped gloss
* reflective phong
* reflective phong mapped
* reflective phong mapped gloss
* reflective phong illuminated mapped
* reflective phong illuminated mapped gloss
* bump mapped
* bump illuminated mapped
* bump phong mapped
* bump phong mapped gloss
* bump phong illuminated mapped
* bump phong illuminated mapped gloss
* bump reflective phong mapped
* bump reflective phong mapped gloss
* bump reflective phong illuminated mapped
* bump reflective phong illuminated mapped gloss
* emboss mapped
* emboss illuminated mapped
source: http://www.gamasutra.com/features/20021002/sauer_pfv.htm
Mayhem
2007-05-11, 19:57:22
nein, dp3 geht wie auch bei gf1 auf der gpu. weitere moeglichen shader:
source: http://www.gamasutra.com/features/20021002/sauer_pfv.htm
nein eben nicht. dort steht, dass anstatt die lichtintensität zu berechnen (was dp3 macht) ein tex read in eine textur gemacht wird. das ist genau das EMBM verfahren (wofür EMBM auch bei expandable verwendet wird). nachteil an dieser methode ist aber, dass bei dynamischen lichtquellen diese textur immer neu erstellt werden muss.
Spasstiger
2007-05-11, 20:26:50
hast du irgendwie den halben thread verpasst? ;)
es geht doch eben darum dass man bei 480p nicht die gleich pracht berechnen muss um so ziemlich das selbe zu sehen. wenn du bei oblivion 200 000 polygone fuer die landschaft nutzen musst bei 1080p, reicht dir eben vielleicht nur 25 000 bei 480p ohne das jemand nen grossen unterschied merkt. und das zieht sich so durch das ganze spiel. du wirst auf dem Wii garnicht soviele graesser zeichen wollen wie bei 1080p, weil du dann nur noch pixelrauschen sehen wuerdest, es reicht dir eventuell 1000billboards statt 6750.etc.
Du meinst also, dass man in 640x480 aus einem Doom 3 grafisch auch ein Alien vs. Predator 2 machen könnte, ohne dass es auffallen würde? Das wage ich nämlich mal zu bezweifeln. ;)
Und Doom 3 überfordert mit Sicherheit den Hollywood bzw. den Nintendo Wii, wenn man den typischen Bump-Mapping- und Specular-Mapping-Look und die Stencil-Shadows haben möchte - auch in 640x480.
so laeuft das heute noch in den meisten faellen. mit branching laeuft da eher wenig wozu auch, mit intelligentem naehern ist man schneller.
In den meisten Fällen wird wohl einfaches Parallax-Mapping eingesetzt, bei dem man in zwei, drei Iterationen mit Zugriff auf eine Heightmap die Texturkoordinaten anpasst. Wenn du 16 Texturzugriffe haben willst, ist das auf jeden Fall ziemlich ineffizient.
ist natuerlich fallabhaengig, aber im groben trifft das zu, weshalb wohl 24pixelshader pipelines und nur 16rops? *hehe*
Man liest zwar öfter Texturen als man auf den Framebuffer zugreift, dafür benötigt ein Texturzugriff dank Texturkompression im Schnitt aber auch deutlich weniger Bandbreite. Framebuffer-Bandbreite ist und bleibt signifikant. Ansonsten wäre ATI wohl kaum auf die Idee gekommen bei Xenos eDRAM nur für den Framebuffer einzusetzen.
da hat coda recht. ATI hat sogar in ein paar devpapern zur 9800 beworben dass sie als erste ohne TnL laufen und im gegenzug hat NV irgendwo mal gesagt dass sie das drinnen lassen solange man damit mehr performance erreichen kann als mit der shaderemulation. (ausser beim nv2a, da war tnl raus)
NVidia hatte vielleicht spezielle Befehle im VS um Lighting oder eine Matrix-Vektor-Multiplikation zu beschleunigen. Aber mit Sicherheit keine separate komplette "T&L-Einheit". Mit was ATI wirbt ist wohl kaum relevant
tatsache ist, dass selbst wenn bumpmapping vorhanden waere, wuerdest du es bei der aufloesung kaum von simplen detailmaps unterscheiden koennen.
Das ist keine Tatsache.
Ist ja auch egal, auf jeden Fall wurde bis zur FX soweit ich weiß nix an der T&L-Performance verschlechtert pro Takt.
Bis zur GeForce FX hatte noch jede nVIDIA-Karte eine dedizierte T&L-Einheit neben den Vertexshadern. Das die GeForce 2 manchmal schneller war lag einfach an der höheren Füllrate.
nein, bei NV gab es nie gleichzeitig VS und FixedFunction T&L in einer hardware, das hatte lediglich die radeon 8500 (wobei imo bei den "neuauflagen" in form der 9000-9200er serie die T&L-einheit eingespart wurde)
Man liest zwar öfter Texturen als man auf den Framebuffer zugreift, dafür benötigt ein Texturzugriff dank Texturkompression im Schnitt aber auch deutlich weniger Bandbreite. Framebuffer-Bandbreite ist und bleibt signifikant. Ansonsten wäre ATI wohl kaum auf die Idee gekommen bei Xenos eDRAM nur für den Framebuffer einzusetzen.Ist der große Unterschied in den Verträgen zwischen MS und den GPU-Herstellern zwischen Xbox und 360 nicht, dass bei der 360 das IP der verwendeten HW an MS lizensiert (oder sogar verkauft?) wurde, statt die GPUs vom IHV zu kaufen? IMHO gibts für das eDRAM in der 360 zwei Gründe:
Ersterdings, dass ATI sich die Lizensierung ihrer Bandbreitenschonungsmechanismen sparen konnte. Die behält man lieber als Betriebsgeheimnis. AFAIR besteht aus dem gleichen Grund Xenon nicht aus OoO-CPUs.
Zweiterdings, dass die 360 ursprünglich wohl kaum als immer-HD-Konsole geplant war, sonst hätte sie mehr eDRAM. Würde MS vom HD-Zwang abkommen, sollte aus der 360 wesentlich schmackhaftere Optik herauszukitzeln sein, denn die HW ist offensichtlich auf SDTV/EDTV optimiert.
Würde ATI sich um Betriebsgeheimnisse und irgendwelche Leaks bei Microsoft solche sorgen machen, hätten sie erst recht nicht die gesamte GPU lizensiert. Framebuffer-Kompression ist im Vergleich dazu ja nun wirklich nur ein kleiner Teil. Hierarchical Z und solche Späße hat Xenos ja trotzdem.
G.A.S.T.
2007-05-12, 11:33:42
The same source cited a third factor: an apparent increase in fixed-function "texture environment stages"--also known as TEV stages--from 8 in the Gamecube to 16 on the Wii...
"Assuming this isn't a bug, it means that much more complex per-pixel graphics operations are possible," our source told us. "However, each additional TEV stage use slows down the graphics chip more and more, so it is a trade-off. You can do more powerful pixel operations and you'll bottleneck the chip and not be able to do as many of them, nor as many vertex operations (since the pixel and vertex systems are tightly coupled on fixed-function graphics chips.) Eight additional stages mean more complex operations are possible. It would be easier to do bump mapping perhaps, or environment mapping, but you would have to get creative with how you do it. It wouldn't be easyWarum wird hier von einem Flaschenhals gesprochen?
"since the pixel and vertex systems are tightly coupled on fixed-function graphics chips."
Das ist ja schonmal Unsinn. Das ist bloß auf einer USA gekoppelt.
micki
2007-05-14, 09:15:02
nein eben nicht. dort steht, dass anstatt die lichtintensität zu berechnen (was dp3 macht) ein tex read in eine textur gemacht wird. das ist genau das EMBM verfahren (wofür EMBM auch bei expandable verwendet wird). nachteil an dieser methode ist aber, dass bei dynamischen lichtquellen diese textur immer neu erstellt werden muss.
jup, eine kleine map erstellen und dafuer soviele lichtquellen wie du moechtest zum immer gleichen lookup preis, gegenuber ALU-berechnungen also ein grosser vorteil, deswegen hat man noch zur bei der FX normalized uber ne cubemap gemacht (schneller ;) ).
micki
2007-05-14, 09:23:42
In den meisten Fällen wird wohl einfaches Parallax-Mapping eingesetzt, bei dem man in zwei, drei Iterationen mit Zugriff auf eine Heightmap die Texturkoordinaten anpasst. Wenn du 16 Texturzugriffe haben willst, ist das auf jeden Fall ziemlich ineffizient.nein, in den meisten faellen wird erstmal oefter iteriert z.b. 8mal, danach wird erst ne naehrung gemacht, ansonsten wuerdest du sehr oft die falsch kante erwischen bzw. kanten verpassen.
die naehrung kannst du dir bei 480p dann ersparen.
Man liest zwar öfter Texturen als man auf den Framebuffer zugreift, dafür benötigt ein Texturzugriff dank Texturkompression im Schnitt aber auch deutlich weniger Bandbreite. Framebuffer-Bandbreite ist und bleibt signifikant. Ansonsten wäre ATI wohl kaum auf die Idee gekommen bei Xenos eDRAM nur für den Framebuffer einzusetzen.framebuffer zugriffe sind jedoch relativ billig, da zumeist nur geschrieben wird und das auch noch in einen dafuer optimierten buffer, der eigentlich also nichtmal caching braucht (falls man nicht gerade blendet oder alphatest macht, das ist auch der grund fuer edram beim xenon). Texturreads ziehen trotz caching usw. die meiste zeit und da ist die bandbreite entscheident.
NVidia hatte vielleicht spezielle Befehle im VS um Lighting oder eine Matrix-Vektor-Multiplikation zu beschleunigen. Aber mit Sicherheit keine separate komplette "T&L-Einheit". Mit was ATI wirbt ist wohl kaum relevant
doch genau das ist der fall, sie hatten die TnL einheiten aus GF2/GF1 noch bis zur GF FX.
Mayhem
2007-05-14, 09:43:21
jup, eine kleine map erstellen und dafuer soviele lichtquellen wie du moechtest zum immer gleichen lookup preis, gegenuber ALU-berechnungen also ein grosser vorteil, deswegen hat man noch zur bei der FX normalized uber ne cubemap gemacht (schneller ;) ).
wenn ich "globale" (d.h. für alle polygone kann ich dieselbe vorberechnete cubemap verwenden) lichtquellen hab. aber was ist mit lokalen lichtern? dann berechne ich für jedes polygon seine eigene light-cubemap.
micki
2007-05-14, 09:52:30
wenn ich "globale" (d.h. für alle polygone kann ich dieselbe vorberechnete cubemap verwenden) lichtquellen hab. aber was ist mit lokalen lichtern? dann berechne ich für jedes polygon seine eigene light-cubemap.
man sieht die lichtquellen als direktional an, also eine cube pro objekt im schlimsten fall. viele spiele haben aber nur "sonne" und die bumpmaps sieht man durch bewegung der objekte und in diesen faellen muss man dann garnichts in der texture updaten.
Mayhem
2007-05-14, 10:36:14
man sieht die lichtquellen als direktional an, also eine cube pro objekt im schlimsten fall. viele spiele haben aber nur "sonne" und die bumpmaps sieht man durch bewegung der objekte und in diesen faellen muss man dann garnichts in der texture updaten.
:confused: ich habe bereits erläutert, wann EMBM vernünftige resultate liefert. du brauchst es dann nicht erneut zu wiederholen. DOT3 ist einfach die generischere methode für bumpmapping, da sie mit jedem lichtquellen-typ in jeder situation funktioniert.
ich sag jetzt nur nochmal doom3. eine "punkt"-lichtquelle fliegt eine wand entlang. da is dann nix mehr mit vorberechnen in CM.
ich glaube wir lassen das jetzt hier einfach....der ganze thread funktioniert so
1)du überlegst dir eine aussage.
2)bekommst sie technisch widerlegt.
3)versuchst dich dann rauszureden, indem du sagst, dass man das so und so eh nicht braucht/macht.
4)goto 1)
=> sorry, aber dann brauchen wir auch hier nicht zu diskutieren. vor allem brauchen wir nicht drüber zu parlieren, wie die entwickler hardwarelimitierungen aufwändig umschiffen müssen.
micki
2007-05-14, 11:02:44
:confused: ich habe bereits erläutert, wann EMBM vernünftige resultate liefert. du brauchst es dann nicht erneut zu wiederholen.wenn du fragst, antworte ich, moechtest du keine antwort auf
aber was ist mit lokalen lichtern? dann stell die frage nicht.
DOT3 ist einfach die generischere methode für bumpmapping, da sie mit jedem lichtquellen-typ in jeder situation funktioniert.
ich sag jetzt nur nochmal doom3. eine "punkt"-lichtquelle fliegt eine wand entlang. da is dann nix mehr mit vorberechnen in CM.dann musst du ein wenig mehr aufwand treiben The delta-texture is fed into the indirect unit where it is combined with the surface normals
1)du überlegst dir eine aussage.
2)bekommst sie technisch widerlegt.
3)versuchst dich dann rauszureden, indem du sagst, dass man das so und so eh nicht braucht/macht.
4)goto 1)
eher so
du sagst irgend nen 08/15 blub der angaeblich nicht geht
do
bekommst bewiesen dass es geht
while( haellst dich an irgendwelchen mikrigen eigenheiten fest um zu beweisen dass dieses spielunwichtige feature auf dem cube nicht gehen soll)
btw. goto is evil
sorry, aber dann brauchen wir auch hier nicht zu diskutieren. vor allem brauchen wir nicht drüber zu parlieren, wie die entwickler hardwarelimitierungen aufwändig umschiffen müssen.
keine sorge, wir machen das gerne ;)
Mayhem
2007-05-14, 12:06:44
;D ich denke es konnte sich jeder selbst ein bild machen, wer hier blub erzählt...
ich bin nur froh, dass du dich selber mit deinen aussagen widerlegt hast:
meine aussage: dp3 geht nicht in HW auf wii/gc
deine aussage: doch es geht!
dein link um deine aussage zu untermauern: es geht doch nur EMBM... KEIN DP3 in HW.
das du mir jetzt erzählen willst, dass man DOT3 mit EMBM emulieren kann is halt auch wieder mal typisch für den ganzen thread, aber leider bisschen realitätsfremd.
nein, in den meisten faellen wird erstmal oefter iteriert z.b. 8mal, danach wird erst ne naehrung gemacht, ansonsten wuerdest du sehr oft die falsch kante erwischen bzw. kanten verpassen.
die naehrung kannst du dir bei 480p dann ersparen.
Woher nimmst du diese Information über "die meisten Fälle"? Und von welcher Technik sprichst du überhaupt? Parallax Mapping (Welsh), Relief Texture Mapping (Oliveira), Steep Parallax Mapping (McGuire), Parallax Occlusion Mapping (Tatarchuck), ...?
Die simpelste Form iteriert überhaupt nicht, und sieht trotzdem schon brauchbar aus.
framebuffer zugriffe sind jedoch relativ billig, da zumeist nur geschrieben wird und das auch noch in einen dafuer optimierten buffer, der eigentlich also nichtmal caching braucht (falls man nicht gerade blendet oder alphatest macht, das ist auch der grund fuer edram beim xenon). Texturreads ziehen trotz caching usw. die meiste zeit und da ist die bandbreite entscheident.
Für jeden Pixel der es in den Fragmentshader schafft muss man in der Regel mindestens 40 Bit schreiben (Color + Z komprimiert auf 8 Bit pro Pixel). Wenn Hier-Z nicht entscheiden kann, muss man auch Z lesen. Mit Blending und AA wird es nochmals mehr. Das sind mindestens 10 DXT1-Texel. Bei normalem bilinearen Texturing mit linear interpolierten Koordinaten und Mipmapping wird im Schnitt etwa ein Texel neu gelesen.
Ich kenne recht genaue Statistiken über Textur- und Framebuffer-Bandbreite in typischen Spielszenen. Texturreads sind nicht so dominierend wie du dir das vorstellst.
doch genau das ist der fall, sie hatten die TnL einheiten aus GF2/GF1 noch bis zur GF FX.
Und das hat dir ein NVidia-Ingenieur verraten?
micki
2007-05-14, 17:55:29
;D ich denke es konnte sich jeder selbst ein bild machen, wer hier blub erzählt...jup,hoffentlich ist es ihm so peinlich dass er sich im kreise dreht.
[qupte]
meine aussage: dp3 geht nicht in HW auf wii/gc
deine aussage: doch es geht!
dein link um deine aussage zu untermauern: es geht doch nur EMBM... KEIN DP3 in HW.[/quote]mittels texturhardware wird dp3 gemacht, das bisschen musst du verstehen koennen falls du entgegen deiner vorherigen aussage doch weiter am dialog teilnehmen willst.
micki
2007-05-14, 18:32:04
Woher nimmst du diese Information über "die meisten Fälle"?aus den meisten papern die ich las und den implementierungen die ich sah.
Und von welcher Technik sprichst du überhaupt? Parallax Mapping (Welsh)ja parallax mapping
Relief Texture Mapping (Oliveira),nein, da nicht parallax mapping
Steep Parallax Mapping (McGuire),
Parallax Occlusion Mapping (Tatarchuck), ...?ja genau. genauer: http://ati.amd.com/developer/siggraph06/Tatarchuk-POM.pdf
wie du dort sehen kannst wird bei jedem parallax mapping erst linear (und danach eventuell binaersearch um bessere resultate zu bekommen)
Die simpelste Form iteriert überhaupt nicht, und sieht trotzdem schon brauchbar aus.ohne mindestens 2iterationen kein parallax-effect, daher kommt auch der name *hinthint*
Für jeden Pixel der es in den Fragmentshader schafft muss man in der Regel mindestens 40 Bit schreiben (Color + Z komprimiert auf 8 Bit pro Pixel). Wenn Hier-Z nicht entscheiden kann, muss man auch Z lesen. Mit Blending und AA wird es nochmals mehr. Das sind mindestens 10 DXT1-Texel. Bei normalem bilinearen Texturing mit linear interpolierten Koordinaten und Mipmapping wird im Schnitt etwa ein Texel neu gelesen.ich dachte du hast ein wenig einblick in die aktuelle hardware.;)
bei jedem texturzugriff wird eine kachel gelesen, selbst bei 4bits fuer dxt 1 werden also eine (wahrscheinlich mehrere) cacheline(s) gelesen. je neuer die speichertechnologie, desto mehr, also ca 256byte. bzw 2048bit.
klar landet im cache, aber nach ein paar texturzugriffen wird ne neue kachel gelesen. je mehr texturereads, desto mehr cachetrashing, desto mehr wird unnuetz gelesen. du weisst auch sicherlich, dass der cache nur minimal ist, weil er wegen den relativ random anfallenden zugriffen kaum effiziens steigert falls man ihn vergroessert, er ist also extra klein und dient lediglich als buffer fuer sehr kurze zeit (also eigentlich dumm das als cache zu bezeichnen)
und wie kompensiert man, dass die ganze sache eigentlich ohne cache laeuft? genau, indem man soviele quads in der pipe hat, dass der "buffer" die daten vorraetig hat wenn das quad dass die daten angefordert hat wieder dran ist.
Klar hast du ne gewisse koherenz zwischen nebeneinander liegenden pixeln beim texturefetch. aber 1. kann man davon ausgehen dass pro pixel und textureread ein neuer texel dazukommt (esseiden die textur ist blured) 2. die reihenfolge ist sehr selten in cachelines liegend, es wird als zum einen kachelweise gelesen und zum anderen sehr viel mehr um die koherenz ein wenig zu exploiten. doch muss man sich dann bewust sein, dass die bandbreite am ende sehr viel mehr daten verschiebt als benutzt werden.
wenn du dir die specs anschaust zu Gddr1 bis gddr4, siehst du das die latenz immer mehr steigt, dafuer erkauft man sich bandbreite, diese ist den GPU-herstellern wichtiger, obwohl man doch eigentlich denken koennte dass latenz wichtiger ist, der grund ist eben dass locker 10mal mehr gelesen wird als genutzt wird. (nein, ich kann das nicht beweisen oder quellen angeben, sorry ;) )
Ich kenne recht genaue Statistiken über Textur- und Framebuffer-Bandbreite in typischen Spielszenen. Texturreads sind nicht so dominierend wie du dir das vorstellst.dafuer kosten texturreads mehr bandbreite als du dir das vorstellst. framebufferbandbreite ist hingegen relativ eindeutig, eigentlich braucht man nichtmal einen cache.
Und das hat dir ein NVidia-Ingenieur verraten?das stand in irgendwelchen optimierungspapern von denen. moeglichst TnL benutzen wenn's geht, weil stateswitches sehr viel guenstiger waren als VS-switches und das mit ein grund ist weshalb sie nicht sofort auf pure-VS umgestiegen sind. zudem konntest du artefakte produzieren wenn du gemixt VS und TnL gerendert hast, selbst wenn du genau das selbe rendern wolltest, weil TnL ne extra einheit mit anderer genauigkeit war, da konnte dir auch kein NVidia support helfen ausser mit "dann muessen sie alles im VS rendern".
Ist der große Unterschied in den Verträgen zwischen MS und den GPU-Herstellern zwischen Xbox und 360 nicht, dass bei der 360 das IP der verwendeten HW an MS lizensiert (oder sogar verkauft?) wurde, statt die GPUs vom IHV zu kaufen? IMHO gibts für das eDRAM in der 360 zwei Gründe:
Ersterdings, dass ATI sich die Lizensierung ihrer Bandbreitenschonungsmechanismen sparen konnte. Die behält man lieber als Betriebsgeheimnis. AFAIR besteht aus dem gleichen Grund Xenon nicht aus OoO-CPUs.
Zweiterdings, dass die 360 ursprünglich wohl kaum als immer-HD-Konsole geplant war, sonst hätte sie mehr eDRAM. Würde MS vom HD-Zwang abkommen, sollte aus der 360 wesentlich schmackhaftere Optik herauszukitzeln sein, denn die HW ist offensichtlich auf SDTV/EDTV optimiert.
Toll das is der Grund für diese Hardware Gurke die kein Entwickler ausreizen kann? 4xAA @ 60FPS @ >720P bekommt ja auch nicht hin, und selbst wenn man die alten Auflösungen wählen könnte, AA gibts trotzdem nicht. Vom AF brauchen wir gar nicht reden.
Im Gegensatz zur jetzigen XBox kann man beim Cube nicht wirklich eine Bugwelle in vielen Spielen sehen, da gehe ich davon aus das das AF bzw. brilineares Filtern beim Wii weiterhin bestand halten wird.
Texturen nicht crispy aber auch nicht wischiwaschi... homogen is glaub der richtige Begriff. Und das is ein plus da können sich beide Highend Konsolen nicht rausreden.
aus den meisten papern die ich las und den implementierungen die ich sah.
Aus irgendwelchen Research-Papern kannst du allerdings nicht herauslesen, wie oft so etwas in Spielen eingesetzt wird.
ja genau. genauer: http://ati.amd.com/developer/siggraph06/Tatarchuk-POM.pdf
wie du dort sehen kannst wird bei jedem parallax mapping erst linear (und danach eventuell binaersearch um bessere resultate zu bekommen)
Da sehe ich nur dass dies bei genau diesem Parallax Occlusion Mapping so getan wird.
ohne mindestens 2iterationen kein parallax-effect, daher kommt auch der name *hinthint*
Dann lies dir mal den Parallax-Mapping-Artikel von Welsh in ShaderX3 durch. Heightmap lesen, Texturkoordinaten anpassen, normale Textur lesen, fertig. Keine Iterationen, funktioniert trotzdem. *hinthint*
ich dachte du hast ein wenig einblick in die aktuelle hardware.;)
bei jedem texturzugriff wird eine kachel gelesen, selbst bei 4bits fuer dxt 1 werden also eine (wahrscheinlich mehrere) cacheline(s) gelesen. je neuer die speichertechnologie, desto mehr, also ca 256byte. bzw 2048bit.
klar landet im cache, aber nach ein paar texturzugriffen wird ne neue kachel gelesen. je mehr texturereads, desto mehr cachetrashing, desto mehr wird unnuetz gelesen. du weisst auch sicherlich, dass der cache nur minimal ist, weil er wegen den relativ random anfallenden zugriffen kaum effiziens steigert falls man ihn vergroessert, er ist also extra klein und dient lediglich als buffer fuer sehr kurze zeit (also eigentlich dumm das als cache zu bezeichnen)
und wie kompensiert man, dass die ganze sache eigentlich ohne cache laeuft? genau, indem man soviele quads in der pipe hat, dass der "buffer" die daten vorraetig hat wenn das quad dass die daten angefordert hat wieder dran ist.
Was genau ist an "im Schnitt" nicht verständlich?
Mich würde ja wirklich mal interessieren wie hoch du die Texturcache-Hitrate bei typischen Spielszenen schätzt...
dafuer kosten texturreads mehr bandbreite als du dir das vorstellst. framebufferbandbreite ist hingegen relativ eindeutig, eigentlich braucht man nichtmal einen cache.
Ich stelle mir das nicht vor, ich lese es nach. Ich weiß nicht was du mit "eindeutig" meinst, jedenfalls ist die benötigte Bandbreite keineswegs gering.
das stand in irgendwelchen optimierungspapern von denen. moeglichst TnL benutzen wenn's geht, weil stateswitches sehr viel guenstiger waren als VS-switches und das mit ein grund ist weshalb sie nicht sofort auf pure-VS umgestiegen sind.
Dir ist aber klar dass die "Fixed-Function-T&L-Einheit" im NV1x gar nicht so "fixed-function" ist?
Ne, genau das Gegenteil wollte ich, und wahrscheinlich auch micki, behaupten.
Gehen wir davon aus, das Wii genau genug Rechenleistung hat um 1 Feuerball-Effekt, in PAL-Aufl. auf den Schirm zu bringen. Dann kann die PS3, obwohl sie die ~7x Leistung hat, auch nur einen Feuerball berechnen, da sie dies in ~7 mal grösserer Aufl. tun muss. (HDTV)
Würde sie aber einen PAL-Modus benutzen, könnte sie 7 Feuerbälle berechnen. Das meine ich mit Effektdichte.
P.S. Natürlich sind das nur hypothetische Zahlen. Der Grundgedanke ist aber der gleiche.Aber falsch. Bei steigender Auflösung nimmt die "Effektedichte" tendenziell ab. Auch bei PC-Spielen hat man es fast nie, dass die Framerate rein mit der Auflösung skaliert. "Effekte" und "Objekte" sind ohnehin teurer als zusätzliche Pixel.
Natürlich ist sie das. Daran zweifelt auch niemand.
Die Frage ist, ob die Wii, in der Zukunft, das gleiche "bang for the buck" (Eye candy/cm²) wie die Konkurrenz bieten wird.Natürlich nicht, da ein Senken der Auflösung auch die optische Komplexität von Effekten begrenzt.
Content mag allerdings wichtiger sein als ein Grafikeffekt.
Demirug
2007-05-14, 21:36:08
das stand in irgendwelchen optimierungspapern von denen. moeglichst TnL benutzen wenn's geht, weil stateswitches sehr viel guenstiger waren als VS-switches und das mit ein grund ist weshalb sie nicht sofort auf pure-VS umgestiegen sind. zudem konntest du artefakte produzieren wenn du gemixt VS und TnL gerendert hast, selbst wenn du genau das selbe rendern wolltest, weil TnL ne extra einheit mit anderer genauigkeit war, da konnte dir auch kein NVidia support helfen ausser mit "dann muessen sie alles im VS rendern".
Zufällig war ich vor Jahren genau in dieser nVidia Präsentation gesessen.
T&L anstelle von VS weil…
…die GF4MX T&L voll beschleunigen kann VS nur zum Teil. Später wurde dann auch noch das zum Teil gekippt weil es nie sauber funktioniert hat
…für die GF3/GF4 die T&L Komponenten als optimierte Teilprogramme vorlagen. Zusätzlich konnte der Treiber die Transformationsmatrizen auf bestimmte Muster (0 und 1 Stellen) untersuchen und noch bessere Optimierungen nutzen. Davon kommen dann auch die Abweichungen zwischen T&L und VS.
Mayhem
2007-05-14, 21:52:34
mittels texturhardware wird dp3 gemacht, das bisschen musst du verstehen koennen falls du entgegen deiner vorherigen aussage doch weiter am dialog teilnehmen willst.
ahso ok, jetzt hab ich's gerafft. dann hattest du ja doch recht! sry nochmal.
micki
2007-05-14, 21:59:33
Zufällig war ich vor Jahren genau in dieser nVidia Präsentation gesessen.
T&L anstelle von VS weil…
…die GF4MX T&L voll beschleunigen kann VS nur zum Teil. Später wurde dann auch noch das zum Teil gekippt weil es nie sauber funktioniert hat
btw. ich glaube ich war mit schuld am kippen des VS bei MX, bei manchem out-of-range constants gab's immer nen bluescreen *haha*
…für die GF3/GF4 die T&L Komponenten als optimierte Teilprogramme vorlagen. Zusätzlich konnte der Treiber die Transformationsmatrizen auf bestimmte Muster (0 und 1 Stellen) untersuchen und noch bessere Optimierungen nutzen. Davon kommen dann auch die Abweichungen zwischen T&L und VS.emm... das gf3/gf4 normale TnL einheiten hatten bestreitet niemand, das gab nv auch immer an und gab auch an genau diese beim nv2a auszubauen.
die debatte hier geht um geforceFX.
micki
2007-05-14, 22:04:08
Aber falsch. Bei steigender Auflösung nimmt die "Effektedichte" tendenziell ab. Auch bei PC-Spielen hat man es fast nie, dass die Framerate rein mit der Auflösung skaliert. "Effekte" und "Objekte" sind ohnehin teurer als zusätzliche Pixel.
Natürlich nicht, da ein Senken der Auflösung auch die optische Komplexität von Effekten begrenzt.
Content mag allerdings wichtiger sein als ein Grafikeffekt.
naja, bei PC spielen wird beim senken der aufloesung nur ein teil entlastet. wenn du wirklich alles runterskalierst (texturen, objektanzahl, polygonanzahl usw), dann entlastet du ja am ende das komplette system. bei PC-spielen aenderst du meistens kaum was an der texturmenge die auf die graka geschafelt wird und der polygonzahl (jedenfalls nicht nur durch aufloesungswechsel).
ich denke ein gutes beispiel fuer gute skalierung ist HL2, soll von rivaTNT2 bis radeon9800 skalieren, das sollte man mit heutigen spielen auch locker hinbekommen von wii bis x360/ps3.
Demirug
2007-05-14, 22:09:29
btw. ich glaube ich war mit schuld am kippen des VS bei MX, bei manchem out-of-range constants gab's immer nen bluescreen *haha*
Das gleiche Problem hatten noch viele andere auch. Viele Spiele haben daher wenn sie die DeviceID einer GF4MX gesehen haben den VS nicht genutzt.
emm... das gf3/gf4 normale TnL einheiten hatten bestreitet niemand, das gab nv auch immer an und gab auch an genau diese beim nv2a auszubauen.
die debatte hier geht um geforceFX.
Du hast mich falsch verstanden. Die GF3/4 hatten keine dedizierten T&L Einheiten mehr und ich kann mich auch an keine einzige Präsentation erinnern die etwas anderes behauptet hat. Diesen VS/T&L Mix gab es nur bei der Radeon 8500. Was nvidia hatte war speziell optimierter Code für den VS der eben die bessere Semantik von T&L auszunutzen wusste. Code der möglicherweise teilweise vom NV1X übernommen wurde. Die hatten ja schon eine Art VS 0.5.
micki
2007-05-14, 22:18:40
Aus irgendwelchen Research-Papern kannst du allerdings nicht herauslesen, wie oft so etwas in Spielen eingesetzt wird.muss man auch nicht, nachdenken reicht, der erste durchgang muss linear iterrieren und kann nicht schon naehrungen nutzen sonst werden kanten ubersprungen und je nach winkel schaut es falsch/kaputt aus.
Da sehe ich nur dass dies bei genau diesem Parallax Occlusion Mapping so getan wird.da sind viele paper beschrieben (die quasi die vorarbeit geleistet haben) und in jedem gibt es erstmal eine lineare interpolation.
Dann lies dir mal den Parallax-Mapping-Artikel von Welsh in ShaderX3 durch. Heightmap lesen, Texturkoordinaten anpassen, normale Textur lesen, fertig. Keine Iterationen, funktioniert trotzdem. *hinthint*das ist doch der typ aus dem ogl forum, oder? soweit ich weiss hat er das damals noch offsetmapping genannt und dann hat die oeffentlichkeit das parallax gehypt.
Was genau ist an "im Schnitt" nicht verständlich?ich hoffe dir ist da alles verstaendlich, ich kann dir jedoch nicht folgen.
Mich würde ja wirklich mal interessieren wie hoch du die Texturcache-Hitrate bei typischen Spielszenen schätzt...wenn man es weiss, ist man zu befangen das zu schaetzen...
Ich stelle mir das nicht vor, ich lese es nach. Ich weiß nicht was du mit "eindeutig" meinst, jedenfalls ist die benötigte Bandbreite keineswegs gering.
dann wundert es mich weshalb du oben solche milchmaenchen rechnungen machst statt einfach die quellen mit daten anzugeben.
Dir ist aber klar dass die "Fixed-Function-T&L-Einheit" im NV1x gar nicht so "fixed-function" ist?
aendert der themenwechsel irgendwas daran dass diese einheit noch im gffx war?
micki
2007-05-14, 22:34:00
Du hast mich falsch verstanden. Die GF3/4 hatten keine dedizierten T&L Einheiten mehr und ich kann mich auch an keine einzige Präsentation erinnern die etwas anderes behauptet hat.
hmm ich bin mir irgendwie sehr sicher dass ich das mal gesehen hatte, was ich sehr strange fand weil ATI das ja sein liess mit SM2 (stand explizit in deren papern)
Diesen VS/T&L Mix gab es nur bei der Radeon 8500. Was nvidia hatte war speziell optimierter Code für den VS der eben die bessere Semantik von T&L auszunutzen wusste. dann wundert es mich ein wenig weshalb simple VS schneller waren als TnL wohingegen welche mit ein paar mehr berechnungen langsammer waren (im ogl forum gab es mal nen langen thread dazu bei dem die noch zu gf4 zeiten versuchten das maimum an Vert/s zu erhalten, ich glaube das war ca 128M/s was sie in etwa erreicht hatten mit backface tri/strips. aber eben nur mit VS, TnL war um einiges langsammer obwohl nichts anderes gemacht wurde)
Code der möglicherweise teilweise vom NV1X übernommen wurde. Die hatten ja schon eine Art VS 0.5.klar, der PS1.1 ist auch nur register combiner. deswegen behauptet ich ja dass die 16stages im Wii (hier ne docu zu den combinern vom GC http://www.gc-linux.org/docs/yagcd/index.html) in etwa ps1.4 niveau hat.
damit bekommt man auf 480p so ziemlich alles hin was noetig ist um spiele von den anderen konsolen auf Wii zu portieren.
klar wird kein PCF texturfilter, kein AA/AF usw. genutzt werden, aber es ist nicht so als ob man sich wie bei der PS2 den arm ausrenken muesste damit bumpmapping laeuft mittels mehrerer passes, es geht recht einfach.
Aber falsch. 1. Bei steigender Auflösung nimmt die "Effektedichte" tendenziell ab. Auch bei PC-Spielen hat man es fast nie, dass die Framerate rein mit der Auflösung skaliert. "Effekte" und "Objekte" sind ohnehin teurer als zusätzliche Pixel.
2. Natürlich nicht, da ein Senken der Auflösung auch die optische Komplexität von Effekten begrenzt.
Content mag allerdings wichtiger sein als ein Grafikeffekt.
1. Eher nicht, denn in Spielen gibt es keine "zusätzliche" (also nur nackte) Pixel. Neben den Feuerball könnte sich eine Wand mit Bumpmapping oder ein NPC befinden, wessen Gesicht und Helm, nur so vor Soft-Shadows und Parallax-Mapping strotzen. Und das alles in HDRR und mit Bewegungsunschärfe versehen.
2. Wie du sehen kannst, habe ich Bang for the Buck oder Eye Candy/cm² nicht näher definiert. Mir ist es, wenn es um eine Konsole geht, egal wie das, was dem Auge Freude bereitet, zustande kommt.
aendert der themenwechsel irgendwas daran dass diese einheit noch im gffx war?
War sie nicht, das sollte doch inzw. klar sein. Es gab keine "T&L-Einheit" mehr seit NV2x.
Hab mich da auch vertan.
dann wundert es mich ein wenig weshalb simple VS schneller waren als TnL wohingegen welche mit ein paar mehr berechnungen langsammer waren (im ogl forum gab es mal nen langen thread dazu bei dem die noch zu gf4 zeiten versuchten das maimum an Vert/s zu erhalten, ich glaube das war ca 128M/s was sie in etwa erreicht hatten mit backface tri/strips. aber eben nur mit VS, TnL war um einiges langsammer obwohl nichts anderes gemacht wurde)
Wahrscheinlich hat der VS einfach die Daten durchgereicht und nichts transformiert.
das ist doch der typ aus dem ogl forum, oder? soweit ich weiss hat er das damals noch offsetmapping genannt und dann hat die oeffentlichkeit das parallax gehypt.
Nein, das ist soweit ich weiß ein anderer. Welsh hat schon vorher mit Parallax Mapping gespielt.
ich hoffe dir ist da alles verstaendlich, ich kann dir jedoch nicht folgen.
Ich habe das mit den TC-Kacheln und der Speichergranularität (mit 2048 Bit dürftest du übrigens auch bei den neuesten Chips noch ein gutes Stück daneben liegen) bewusst weggelassen, weil es letztlich auf die durchschnittliche Bandbreite ankommt. Und da gilt im Normalfall immer noch die Regel: ein neues Texel pro bilinearem Fetch. Manchmal mehr, manchmal weniger.
dann wundert es mich weshalb du oben solche milchmaenchen rechnungen machst statt einfach die quellen mit daten anzugeben.
Nicht alle Quellen sind öffentlich.
aendert der themenwechsel irgendwas daran dass diese einheit noch im gffx war?
Das war kein Themawechsel sondern sollte andeuten dass entsprechende State-Änderungen schon bei NV1x tatsächlich "Shaderwechsel" waren.
(im ogl forum gab es mal nen langen thread dazu bei dem die noch zu gf4 zeiten versuchten das maimum an Vert/s zu erhalten, ich glaube das war ca 128M/s was sie in etwa erreicht hatten mit backface tri/strips. aber eben nur mit VS, TnL war um einiges langsammer obwohl nichts anderes gemacht wurde)
Dieser Thread (
http://www.opengl.org/discussion_boards/ubb/ultimatebb.php?ubb=get_topic;f=3;t=005940;p=1)? Abgesehen vom zweiten Beitrag der lediglich vermutet und von Matt Craighead widersprochen wird, steht dort nicht dass es nur mit VS ginge.
1. Eher nicht, denn in Spielen gibt es keine "zusätzliche" (also nur nackte) Pixel. Neben den Feuerball könnte sich eine Wand mit Bumpmapping oder ein NPC befinden, wessen Gesicht und Helm, nur so vor Soft-Shadows und Parallax-Mapping strotzen. Und das alles in HDRR und mit Bewegungsunschärfe versehen.Je höher die Auflösung umso größer die Wahrscheinlichkeit, dass ein Pixel "billig" berechnet wird.
2. Wie du sehen kannst, habe ich Bang for the Buck oder Eye Candy/cm² nicht näher definiert. Mir ist es, wenn es um eine Konsole geht, egal wie das, was dem Auge Freude bereitet, zustande kommt.Bei gleicher Monitorfläche und höherer Auflösung besteht natürlich das Potenzial, mehr "pro Quadratzentimeter" anzuzeigen. Aus meiner Sicht ist das mit der Auflösung aber auch ein gutes Stück Irrweg. Vergleicht man HDTV mit SDTV rein von der Auflösung, wird stillschweigend davon ausgegangen, dass man auch einen um gleichen Faktor höheren Detailgrad hat. Das stimmt aber nicht: Auch bei ganz normalen Filmen gibt es unscharfe Bereiche, die mit HD-Auflösung natürlich kein bisschen schärfer sind. Schon deshalb ist der Nutzen einer fünffachen Pixelmenge geringer als man denkt. Im gleichen Zuge ist die Berechnung der fünffachen Menge aber auch nicht fünf mal so teuer.
micki
2007-05-15, 10:46:05
War sie nicht, das sollte doch inzw. klar sein. Es gab keine "T&L-Einheit" mehr seit NV2x.
Hab mich da auch vertan.
hier nochmal einige quellen die besagen (und benchmarks die zeigen) dass erst ab nv35 T&L raus war und also bei nv30 vorhanden war:
http://www.3dcenter.de/artikel/2002/05-22_a.php (ok das sind nur rumors)
http://en.wikipedia.org/wiki/GeForce_FX (man sollte wiki nicht immer glauben)
http://www.xbitlabs.com/articles/video/display/geforcefx-5900ultra_8.html (ok, kann am treiber liegen dass bei T&L die 5800U an der 5900u vorbeiziehtich seh gerade der takt der 5900u ist < 5800u?)
leider kann ich die paper von nv direkt nicht finden.
micki
2007-05-15, 10:55:14
Nein, das ist soweit ich weiß ein anderer. Welsh hat schon vorher mit Parallax Mapping gespielt.seltsam, bei ogl wurde das ein jahr vorher publik (vor shaderx3)
Ich habe das mit den TC-Kacheln und der Speichergranularität (mit 2048 Bit dürftest du übrigens auch bei den neuesten Chips noch ein gutes Stück daneben liegen) bewusst weggelassen, weil es letztlich auf die durchschnittliche Bandbreite ankommt. Und da gilt im Normalfall immer noch die Regel: ein neues Texel pro bilinearem Fetch. Manchmal mehr, manchmal weniger.naja, dann stimmt es halt nicht was mir ein paar hersteller sagen und du hast recht ;)
Das war kein Themawechsel sondern sollte andeuten dass entsprechende State-Änderungen schon bei NV1x tatsächlich "Shaderwechsel" waren.es waren nicht grundsaetzlich shaderwechsel, manchmal auch nur register die gesetzt werden konnten.
Dieser Thread (
http://www.opengl.org/discussion_boards/ubb/ultimatebb.php?ubb=get_topic;f=3;t=005940;p=1)? Abgesehen vom zweiten Beitrag der lediglich vermutet und von Matt Craighead widersprochen wird, steht dort nicht dass es nur mit VS ginge.
bin mir nicht ganz sicher ob es das topic war, ist schon ewig her...
1. Je höher die Auflösung umso größer die Wahrscheinlichkeit, dass ein Pixel "billig" berechnet wird.
2. Bei gleicher Monitorfläche und höherer Auflösung besteht natürlich das Potenzial, mehr "pro Quadratzentimeter" anzuzeigen. Aus meiner Sicht ist das mit der Auflösung aber auch ein gutes Stück Irrweg. Vergleicht man HDTV mit SDTV rein von der Auflösung, wird stillschweigend davon ausgegangen, dass man auch einen um gleichen Faktor höheren Detailgrad hat. Das stimmt aber nicht: Auch bei ganz normalen Filmen gibt es unscharfe Bereiche, die mit HD-Auflösung natürlich kein bisschen schärfer sind. Schon deshalb ist der Nutzen einer fünffachen Pixelmenge geringer als man denkt. Im gleichen Zuge ist die Berechnung der fünffachen Menge aber auch nicht fünf mal so teuer.
1. Wieso sollte das so sein? In der Praxis steigt der Aufwand - und das gilt für jede Form von Arbeit - exponentiell auf.
Ein Bild welches, 5x höher aufgelöst ist aber ansonsten gleich ist, benötigt 5x so viel Ops um in der gleichen Zeit berechnet zu werden. Dazu kommt, dass das System, abgesehen von den Berechnungen, die Daten auch transportieren muss. Je höher der Load, umso größer die Chance, das ein zusätzliches Subsystem, zum Flaschenhals wird. Daraus folgt, das der Aufwand mindestens linear steigt.
2. Nichts anderes habe ich gesagt.
1. Wieso sollte das so sein? In der Praxis steigt der Aufwand - und das gilt für jede Form von Arbeit - exponentiell auf.
Ein Bild welches, 5x höher aufgelöst ist aber ansonsten gleich ist, benötigt 5x so viel Ops um in der gleichen Zeit berechnet zu werden. Dazu kommt, dass das System, abgesehen von den Berechnungen, die Daten auch transportieren muss. Je höher der Load, umso größer die Chance, das ein zusätzliches Subsystem, zum Flaschenhals wird. Daraus folgt, das der Aufwand mindestens linear steigt. Nein. Beispiel: Reines Single-Texturing mit trilinearer Filterung und aktiviertem AF, 640x480 vs. 1280x960. Sofern man nur 512-er Texturen hat kann man davon ausgehen, dass bei der höheren Auflösung eher Texturvergrößerung stattfindet, was schon mal heißt, dass nicht mehr trilinear gefiltert wird. Das ist im Prinzip auch auf geshaderte Szenen anwendbar.
2. Nichts anderes habe ich gesagt.Nicht immer handelt es sich bei meinen Bemerkungen um einen Einspruch =)
1. Nein. Beispiel: Reines Single-Texturing mit trilinearer Filterung und aktiviertem AF, 640x480 vs. 1280x960. Sofern man nur 512-er Texturen hat kann man davon ausgehen, dass bei der höheren Auflösung eher Texturvergrößerung stattfindet, was schon mal heißt, dass nicht mehr trilinear gefiltert wird. Das ist im Prinzip auch auf geshaderte Szenen anwendbar.
2. Nicht immer handelt es sich bei meinen Bemerkungen um einen Einspruch =)
1. Ohhhh nein! Das ist genau ein Beispiel, welches ich nicht wollte.
Was ist schwieriger zu tragen, ein 10l Kanister voll mit Wasser, oder ein 20l nur halbvoll?
Diese Frage ist sinnlos.
Wenn der gleiche Output/Pixel erreicht werden soll, dann müssen auch die Texturen höher aufgelöst sein.
Noch einmal:
Das gleich, nur im höheren Umfang, zu erreichen, erfordert exponentiell mehr Aufwand. Natürlich kann durch Einsparung increasing return to scale beobachten werden, dann hat man aber nicht das selbe Output/Pixel-Verhältnis.
2. OK.
seltsam, bei ogl wurde das ein jahr vorher publik (vor shaderx3)
ShaderX3 war ja auch nicht die erste Veröffentlichung von Parallax Mapping. Kaneko, 2001 (http://vrsj.t.u-tokyo.ac.jp/ic-at/ICAT2003/papers/01205.pdf)
naja, dann stimmt es halt nicht was mir ein paar hersteller sagen und du hast recht ;)
Na wenn du das sagst...
es waren nicht grundsaetzlich shaderwechsel, manchmal auch nur register die gesetzt werden konnten.
Natürlich, nicht anders als bei VS auch.
Vermutlich unterscheiden sich NV1x-T&L und NV2x-VS hauptsächlich in der Anzahl der Instruktionsslots sowie der Register. Die Radeon 7500 hatte mehr Konstantenregister und konnte deswegen auch Skinning mit 4 Matrizen statt 2 wie NV1x (mit EXT_vertex_weighting)
wenn du wirklich alles runterskalierst (texturen, objektanzahl, polygonanzahl usw), dann entlastet du ja am ende das komplette system. bei PC-spielen aenderst du meistens kaum was an der texturmenge die auf die graka geschafelt wird und der polygonzahl (jedenfalls nicht nur durch aufloesungswechsel).
dann müßt ihr das halt richtig programmieren!
wie schnell is denn nun die wii?
DK2000
2007-05-20, 12:58:30
Also die Wii ist schon ganz schön schnell. Nicht so schnell wie eine PS3, auch nicht so schnell wie eine XBox 360 aber trotzdem immernoch recht schnell :P
Ernsthaft: Man könnte momentan als Vergleich zur Last-Gen "Blazing Angels" zur Hilfe ziehen und diese dann mit Xbox1 und PS2(?) Fassung zu vergleichen.
Hi,
bin letztens über diesen (http://www.evo-x.de/wbb2/print.php?threadid=164620&page=1&sid=d2c6f775c41f916d41d5c233899dc2b0) Artikel gestolpert. Besonders das Stück aus dem Interview ganz unten macht Hoffnung auf mehr! Bisher sah man von Normal oder Bumpmapping ja gar nichts.
Ganon
2007-06-19, 09:45:54
Aber Shader-Effekte (Verzerrungen, Rauschen, etc.) an sich sieht man doch schon häufiger. Meist aber nur bei Nintendo-Spielen, bzw. Exklusiv-Titeln (RedSteel z.B.).
Ringwald
2007-06-26, 21:45:45
Hi,
bin letztens über diesen (http://www.evo-x.de/wbb2/print.php?threadid=164620&page=1&sid=d2c6f775c41f916d41d5c233899dc2b0) Artikel gestolpert. Besonders das Stück aus dem Interview ganz unten macht Hoffnung auf mehr! Bisher sah man von Normal oder Bumpmapping ja gar nichts.
Hmm wird mich schon interessieren was die ganzen Experten hierzu sagen =)
Aber Shader-Effekte (Verzerrungen, Rauschen, etc.) an sich sieht man doch schon häufiger.Das sind nicht unbedingt Shader-Effekte.
Nakai
2007-06-27, 17:17:21
Meistens simple Postprocessingeffekte.
Für mich ist der Wii eher noch eine normale Konsole mit einem sehr spezifischem Aufbau. PS3 und Xbox360 liegen schon sehr nahe am PC.
Also die Wii ist schon ganz schön schnell. Nicht so schnell wie eine PS3, auch nicht so schnell wie eine XBox 360 aber trotzdem immernoch recht schnell
Der Wii hat eine ähnliche Hardware wie der GC.
Ich denke ehrlichgesagt nicht, dass der Wii rechtviel mehr und bessere Effekte wie der GC berechnen kann.
Mal eine Liste von Wikipedia:
* Nebel
* Subpixel Anti-Aliasing
* 8 Hardwarelichter
* Alpha Blending
* Virtuelles Texturendesign
* Multi-texturing, Bump-Mapping
* Environment Mapping
* Mip Mapping
* Bilineares Filtern
* Trilineares Filtern
* Anisotropes Filtern
* Echtzeit Hardwaretexturdekompression (S3TC)
* Echtzeit Displaylist-Dekompression
* Dreizeiliger Hardware-Antiflackerfilter
Sicherlich wurde da noch einiges geändert, vorallem an den Shadern. Die wären nach meiner Ansicht einfach zu altmodisch, wenn sie so wie beim GC wären. (wenn man das überhaupt Shader nennen kann)
Ach wenn was falsch ist, bitte anmerken.
mfg Nakai
Ganon
2007-06-27, 17:49:21
Das sind nicht unbedingt Shader-Effekte.
Was wären denn "Shader-Effekte"?
micki
2007-06-27, 18:29:14
Was wären denn "Shader-Effekte"?
vermutlich ein punkt bei bullshitbingo ;)
Was wären denn "Shader-Effekte"?Das hätte ich gerne von dir gewusst, wenn du den Begriff schon verwendest.
Ganon
2007-06-27, 19:06:58
Das hätte ich gerne von dir gewusst, wenn du den Begriff schon verwendest.
Na ich hab sie ja oben genannt. Effekte die das Bild verändern. z.B. verzerren, verrauschen, blurren etc. pp.
So etwas macht man doch über die Shader-Einheiten der Graka, also für mich "Shader-Effekte".
Du meinst das sind keine Shader-Effekte, also bist du dran mit Begründungen ;)
Lightning
2007-06-27, 19:16:51
Na ich hab sie ja oben genannt. Effekte die das Bild verändern. z.B. verzerren, verrauschen, blurren etc. pp.
So etwas macht man doch über die Shader-Einheiten der Graka, also für mich "Shader-Effekte".
Du meinst das sind keine Shader-Effekte, also bist du dran mit Begründungen ;)
Nunja, ich würde mal sagen man kann das nicht pauschal als "Shader-Effekte" bezeichnen, weil Shader eben nicht der einzige weg sind, so etwas darzustellen. Der Gamecube hat ja gar keine Shader im Sinne von Direct3D, soweit ich weiß. Und auch die PS2 kann diese Dinge darstellen, obwohl sie noch viel weniger Funktionen bietet.
Na ich hab sie ja oben genannt. Effekte die das Bild verändern. z.B. verzerren, verrauschen, blurren etc. pp.
So etwas macht man doch über die Shader-Einheiten der Graka, also für mich "Shader-Effekte".Das kann man – je nach Grafikeinheit – auch über Combiner oder andere Units in der GPU lösen. Es gibt meines Wissens auch keine spezielle "Shader-Einheit" in Grakas, die Compliance für bestimmte Shader-Versionen wird mit einem Zusammenspiel aus Readports, Registern, Interpolatoren, ALUs, TMUs, Loopback-Mechanismen, ROPs und weiteren Einheiten realisiert.
Ganon
2007-06-27, 20:18:56
Gut, wenn ihr das so auseinanderpflücken wollt. Der Effekt (wie auch immer ihr ihn nennen wollt) ist und bleibt der Selbe. Blur, Verzerrung, etc. pp. Was anderes hab ich auf modernsten PC-Engines (Unterschied nur Anzahl und Qualität dieser) auch noch nicht gesehen und dort wird auch von "Shader-Effekten" gesprochen.
Ich kann die Effekte auch ganz ohne GPU darstellen, aber irgendwie muss ich die Teile ja nennen.
Der Gamecube hat ja gar keine Shader im Sinne von Direct3D, soweit ich weiß.
Muss er auch nicht haben, aber das ändert an der Sache nichts, das es teilweise mehr und teilweise weniger kann. ;) Es wird nur anders angesprochen.
Gut, wenn ihr das so auseinanderpflücken wollt. Der Effekt (wie auch immer ihr ihn nennen wollt) ist und bleibt der Selbe. Blur, Verzerrung, etc. pp. Was anderes hab ich auf modernsten PC-Engines (Unterschied nur Anzahl und Qualität dieser) auch noch nicht gesehen und dort wird auch von "Shader-Effekten" gesprochen.Im PC-Bereich verfügen praktisch alle installierte Grakas auch über Pixel- und Vertexshader.
Ich kann die Effekte auch ganz ohne GPU darstellen, aber irgendwie muss ich die Teile ja nennen."Grafikeffekt"?
Muss er auch nicht haben, aber das ändert an der Sache nichts, das es teilweise mehr und teilweise weniger kann. ;)Mehr als welcher Shader? 1.1? 1.4? 2.0? 3.0? 4.0?
Ganon
2007-06-27, 20:28:56
Ich denke ehrlichgesagt nicht, dass der Wii rechtviel mehr und bessere Effekte wie der GC berechnen kann.
Also diese "bestimmten" Effekte kriegt Wii z.B. in RedSteel weitaus besser und weitaus häufiger hin als z.B. in StarFox Adventures auf dem GameCube...
Ganon
2007-06-27, 20:30:48
Im PC-Bereich verfügen praktisch alle installierte Grakas auch über Pixel- und Vertexshader.
Ja, und?
"Grafikeffekt"?
Ein Dreieck grün blinkend darstellen ist auch ein "Grafikeffekt"... ein bisschen >Eingrenzung< wäre hier schon praktisch, meinst du nicht?
Mehr als welcher Shader? 1.1? 1.4? 2.0? 3.0? 4.0?
Das Teil in der XBOX 1.
Ein Dreieck grün blinkend darstellen ist auch ein "Grafikeffekt"... ein bisschen >Eingrenzung< wäre hier schon praktisch, meinst du nicht?
den man auch mit deinem shader machen könnte ;)
ich denke was aths sagen will ist, dass "hadereffekt" genausowenig wie "grafikeffekt" aussagt.
Ganon
2007-06-27, 20:59:34
ich denke was aths sagen will ist, dass "hadereffekt" genausowenig wie "grafikeffekt" aussagt.
Sicher. Nur weiß jeder Mensch was mit Shader-Effekt gemeint ist. Selbst aths scheint ja kein anderes Wort dafür zu haben... andere Vorschläge?
Ich kann mir auch "Shader-Effekt = bildverändernder, nicht in der Standard-Grafik-API, vorhandener Effekt in der Computergrafik der optimaler Weise in einer dafür vorgesehenen und optimierten Hardware (z.B. Grafikchip) über bestimmte Befehle berechnet wird" in die Signatur schreiben. Wäre das den Herren hier angenehmer, oder ist das noch zu ungenau? ;)
Nakai
2007-06-27, 21:09:14
Also diese "bestimmten" Effekte kriegt Wii z.B. in RedSteel weitaus besser und weitaus häufiger hin als z.B. in StarFox Adventures auf dem GameCube...
Das verbessert aber nicht die Technologie nach meiner Ansicht. Der Wii bleibt ein GC auf Steroiden.^^
mfg Nakai
Ganon
2007-06-27, 21:27:08
Das verbessert aber nicht die Technologie nach meiner Ansicht. Der Wii bleibt ein GC auf Steroiden.^^
Du sagtest du nicht glaubst das Wii >mehr< und >bessere< Effekte darstellen kann. ;) RedSteel zeigt was anderes. ;) Von der Technologie hat hier keiner geredet. Klar ist Wii ein aufgebohrter GameCube. Was anderes behauptet ja auch keiner. Die Grundtechnik bleibt die Selbe. Ist nur aufgestockt und optimiert.
Lightning
2007-06-27, 21:48:40
Sicher. Nur weiß jeder Mensch was mit Shader-Effekt gemeint ist.
Das mag schon sein. Es weiß allerdings auch jeder, was mit "das Spiel nutzt übertriebenes HDR" gemeint ist, technisch ist es dennoch so falsch wie es nur sein kann. Und das muss man sich ja imo nicht falsch einprägen lassen.
Ich finde "Grafikeffekt" klingt doch gar nicht so schlecht. Was wäre an "Grafikeffekte (Verzerrungen, Rauschen, etc.)" schlechter als "Shadereffekte (Verzerrungen, Rauschen, etc.)"?
Nakai
2007-06-27, 21:49:17
Ich denke ehrlichgesagt nicht, dass der Wii rechtviel mehr und bessere Effekte wie der GC berechnen kann.
Stimmt...ich revidiere meine Aussage.
Deswegen:
Ach wenn was falsch ist, bitte anmerken.
Danke :wink:
mfg Nakai
Ganon
2007-06-27, 21:54:40
Ich finde "Grafikeffekt" klingt doch gar nicht so schlecht. Was wäre an "Grafikeffekte (Verzerrungen, Rauschen, etc.)" schlechter als "Shadereffekte (Verzerrungen, Rauschen, etc.)"?
Lass mal das Zeug in den Klammern weg und schreib mal nur das und mach mal eine Umfrage wer sich was darunter vorstellt. Wetten das bei Shader-Effekten mehr das Korrekte raus kommt, als bei "Grafikeffekt".
"Grafikeffekt" ist imo viel zu allgemein.
Aber über was reden wir hier überhaupt? Hier liegen imo schon genug Korinthen rum :D *scnr* Wie wir irgendwas definieren wollen, dazu kann man auch einen anderen Thread aufmachen.
Bekannt ist:
PS2 rechnet diese Effekte über CPU (über Brute-Force)
Wii rechnet diese Effekte in der GPU (über Spezial-Shader (btw. klingt das vllt. besser?)).
Wäre das den Herren hier angenehmer, oder ist das noch zu ungenau? ;)
ja, ein shader ist nämlich kein effekt sondern ein kleines programm das in der GPU läuft. genausowenig wie HDRR ein effekt ist.
die bezeichnung "shader-effekt" ist deshalb verdammt irreführend.
Blacksoul
2007-06-27, 22:15:19
Ich finde "Grafikeffekt" klingt doch gar nicht so schlecht. Was wäre an "Grafikeffekte (Verzerrungen, Rauschen, etc.)" schlechter als "Shadereffekte (Verzerrungen, Rauschen, etc.)"?
"Shadereffekte" klingt technologisch schön hoch entwickelt ;)
Diese Diskussion (samt Umfrage, afaik) hatten wir allerdings bereits schon einmal im Zusammenhang mit "HDRR".
Nur weil jeder Bloom als HDR(R) bezeichnet und jeder weiß, was damit gemeint sein soll, wird es nicht richtiger.
Wir sind hier nicht bei CW, CB oder sonstwo. In einem Technologie-Forum sollten wir schon etwas korrekter werden. ;)
t.b.d
Ganon
2007-06-27, 22:17:10
ja, ein shader ist nämlich kein effekt sondern ein kleines programm das in der GPU läuft.
Richtig. Aber...
die bezeichnung "shader-effekt" ist deshalb verdammt irreführend.
...warum?
Ein Shader ist ein kleines Programm, welches im Grafikchip läuft. Ich sage aber deswegen auch Shader-Effekt und nicht einfach "Shader". Ein Effekt der auf einem Shader basiert... Shader-Effekt eben.
Sehe immer noch das Problem an "Shader-Effekt" nicht.
...warum?
weil dies impliziert dass für diesen effekt ein shader notwendig ist, was aber nie der fall sein kann. jeder effekt der durch einen shader entsteht kann prinzipell auch anderwertig erzeugt werden.
mal als beispiel environment-bumpmapping, könnte man als "shadereffekt" bezeichnen, da er erst mit shaderfähigen karten großflächig zum einsatz gekommen ist und bei NV auch nur shaderfähige karten diesen auch berechnen können. dabei gibt es aber durchaus andere hardware die das schon vorher konnte.
gleiches mit displacement-mapping, könnte man auch als shader-effekt bezeichnen, schließlich braucht man vertex- und geometry-shader dafür. die parhelia kann diesen effekt ohne die shaderhardware zu besitzen.
shadereffekt alleine sagt überhaupt nichts aus, da man jeden sog. "shadereffekt" mit mehr oder weniger aufwand auch ohne shader realisieren.
wenn man von bestimmten effekten spricht sollte man nicht einfach von shadereffekt sprechen, sondern die effekte durchaus beim namen nennen und beispielsweise von bloom, motionblur, normalmapping oder was immer man meint sprechen.
Ganon
2007-06-27, 23:10:41
wenn man von bestimmten effekten spricht sollte man nicht einfach von shadereffekt sprechen, sondern die effekte durchaus beim namen nennen und beispielsweise von bloom, motionblur, normalmapping oder was immer man meint sprechen.
Und wie würdest du alle Effekte unter einer Bezeichnung >genau< erklären? "Grafikeffekte" ist nicht genau. Kann alles sein.
Sicher. Nur weiß jeder Mensch was mit Shader-Effekt gemeint ist. Selbst aths scheint ja kein anderes Wort dafür zu haben... andere Vorschläge?
Ich kann mir auch "Shader-Effekt = bildverändernder, nicht in der Standard-Grafik-API, vorhandener Effekt in der Computergrafik der optimaler Weise in einer dafür vorgesehenen und optimierten Hardware (z.B. Grafikchip) über bestimmte Befehle berechnet wird" in die Signatur schreiben. Wäre das den Herren hier angenehmer, oder ist das noch zu ungenau? ;)Standard-API und Effekte? Welche Effekte sich ergeben hängt vor allem vom Content ab.
Und wie würdest du alle Effekte unter einer Bezeichnung >genau< erklären? "Grafikeffekte" ist nicht genau. Kann alles sein."Shader-Effekt" kann auch alles sein.
Und wie würdest du alle Effekte unter einer Bezeichnung >genau< erklären?
garnicht.
"Grafikeffekte" ist nicht genau. Kann alles sein.
shadereffekte aber noch ungenauer.
ein tretroller und ein auto sind auch komplett unterschiedliche dinge und dennoch werden beide als fahrzeuge bezeichnet.
Ganon
2007-06-27, 23:17:48
"Shader-Effekt" kann auch alles sein.
Im normalen Gebrauch aber erkennbar an den üblichen Sachen. Wenn du von Shadern redest, werden jedem hier sicherlich erst mal die normalen "Effekte" wie Blur usw. einfallen. Wir reden ja nun auch von Spielen.
Wie gefragt, anderer Vorschlag?
Ganon
2007-06-27, 23:20:29
garnicht.
Ist keine Lösung. ;)
ein tretroller und ein auto sind auch komplett unterschiedliche dinge und dennoch werden beide als fahrzeuge bezeichnet.
Darum sag ich ja auch nicht "Grafikeffekt".
Das Problem ist das mit so schwammigen Begriffen gar niemand geholfen ist.
Wenn du von Shadern redest, werden jedem hier sicherlich erst mal die normalen "Effekte" wie Blur usw. einfallen.
Das fällt mir erst mal überhaupt nicht darunter ein, sondern primär erst mal irgendwelche Strukturen auf Texturen oder Beleuchtungseffekte.
micki
2007-06-28, 12:39:36
Sicher. Nur weiß jeder Mensch was mit Shader-Effekt gemeint ist. Selbst aths scheint ja kein anderes Wort dafür zu haben... andere Vorschläge?normalerweise nennt man das post-effects. blur, bloom, distrotion etc.
Ringwald
2007-07-03, 19:51:39
Hab noch was gefunden, zwar nur GC aber vielleicht hilfst ja ;)
http://666kb.com/i/apqyyda3sn4e7f7yw.jpg
Fetza
2007-07-04, 16:45:35
Was ich nicht so ganz verstehe ist, das sich doch gerade bei einer konsole wie dem wii, das 4xsparse grid aa der alten r300 generation doch gerade zu aufdrängt. Damit wäre auch die auflösung kein problem mehr, und viel leistung hat 4xaa auf der radeon ja nie gekostet.
Warum hat man das nicht mit in den chip genommen?
greetz
mickii
2007-07-04, 17:36:17
Was ich nicht so ganz verstehe ist, das sich doch gerade bei einer konsole wie dem wii, das 4xsparse grid aa der alten r300 generation doch gerade zu aufdrängt. Damit wäre auch die auflösung kein problem mehr, und viel leistung hat 4xaa auf der radeon ja nie gekostet.
Warum hat man das nicht mit in den chip genommen?
greetz
aus dem selben grund weshalb man kein 4aa bei der xbox360 in hardware bei normaler aufloesung unterstuetzt.
1. kostet edram trotzdem noch ganz schoen
2. redesign fuer interne buffer waere noetig (z.b. ein paar bits mehr fuer addressierung, eventuell mehr speicher fuers schnelle culling z.b. hierarchicalZ usw.)
Ganon
2007-07-04, 17:47:53
Laut meinen Infos halbiert das FSAA (Rotated Grid bla bla) vom GameCube die Füllrate und wird somit eher weniger genutzt. Man nutzt statt dessen lieber den allseits beliebten Flicker-Filter, der aber bei harten Kontrasten eher weniger gut funktioniert.
Wii hat somit das selbe "Problem". Aber ist ja nicht so das es die anderen Konsolen jetzt großartig besser machen ;)
mickii
2007-07-04, 17:54:12
Laut meinen Infos halbiert das FSAA (Rotated Grid bla bla) ...viertelt?
konnte der cube 480p? der wii kann das wohl und somit braucht er so schon mehr fillrate.
Ganon
2007-07-04, 18:01:24
...viertelt?
Ich hatte halbiert gelesen. Wenn du mehr weißt, bitte... ^^
konnte der cube 480p?
Jup, konnte er, aber nutzte kein PAL-Titel. NTSC-Titel gibt es aber einige die es nutzen. Das lief dann über den 2. Ausgang über YUV.
mickii
2007-07-04, 18:13:12
Ich hatte halbiert gelesen. Wenn du mehr weißt, bitte... ^^
naja, 4aa rendert in die 4fache aufloesung, muesste also 4mal soviel fillrate ziehen falls es keine optimierung gibt. mit den optimierungen hingegen eher weit unter 2fach... wuerd ich meinen.
Jup, konnte er, aber nutzte kein PAL-Titel. NTSC-Titel gibt es aber einige die es nutzen. Das lief dann über den 2. Ausgang über YUV.
Nicht jede Cube Version hatte den sogenannten Digital AV Ausgang und konnte 480p über Komponente ausgeben. Das waren doch nur Anfangs einige Versionen, die es später dann auch nicht mehr gab.
Ganon
2007-07-05, 13:59:51
Nicht jede Cube Version hatte den sogenannten Digital AV Ausgang und konnte 480p über Komponente ausgeben. Das waren doch nur Anfangs einige Versionen, die es später dann auch nicht mehr gab.
Wurde afaik nur in der PAL-Version später entfernt, da eh kein PAL-Titel diesen genutzt hat.
...viertelt?
konnte der cube 480p? der wii kann das wohl und somit braucht er so schon mehr fillrate.Würde der Cube nicht intern progressive Bilder rendern, wüsste ich nicht wie der Deflicker-Filter funktionieren sollte.
micki
2007-07-05, 15:58:00
Würde der Cube nicht intern progressive Bilder rendern, wüsste ich nicht wie der Deflicker-Filter funktionieren sollte.
ich dachte deflicker filter arbeiten auf interlaced daten.
ich dachte deflicker filter arbeiten auf interlaced daten.Wie sollte das funktionieren?
mickii
2007-07-05, 17:35:13
indem man bei jedem zweiten frame die zwischenzeilen extra-/interpoliert, so in etwa wie deinterlacing.
Fetza
2007-07-05, 18:52:10
naja, 4aa rendert in die 4fache aufloesung, muesste also 4mal soviel fillrate ziehen falls es keine optimierung gibt. mit den optimierungen hingegen eher weit unter 2fach... wuerd ich meinen.
Öhm, bin jetzt verwirrt. Ich habe eigentlich immer angenommen multisampling aa verbraucht kaum füllrate und hauptsächlich speicherbandbreite :confused:
Fetza
2007-07-05, 18:54:59
aus dem selben grund weshalb man kein 4aa bei der xbox360 in hardware bei normaler aufloesung unterstuetzt.
1. kostet edram trotzdem noch ganz schoen
2. redesign fuer interne buffer waere noetig (z.b. ein paar bits mehr fuer addressierung, eventuell mehr speicher fuers schnelle culling z.b. hierarchicalZ usw.)
Laut meinen Infos halbiert das FSAA (Rotated Grid bla bla) vom GameCube die Füllrate und wird somit eher weniger genutzt. Man nutzt statt dessen lieber den allseits beliebten Flicker-Filter, der aber bei harten Kontrasten eher weniger gut funktioniert.
Wii hat somit das selbe "Problem". Aber ist ja nicht so das es die anderen Konsolen jetzt großartig besser machen ;)
Naja, also das was ich auf der 360 bisher gesehen hab, hatte aber glaube ich schon mindestens 2xaa zur 720p auflösung. Der wii bräuchte aber meiner meinung nach viel dringender 4xaa, da er doch nur in 480p auflöst. Ich würde wirklich gern mir ne wii zulegen, weil ich bisher immer sehr von deren konzepten angetan war. Aber die wii hat einfach ein flicker problem, das heftig ist.
Öhm, bin jetzt verwirrt. Ich habe eigentlich immer angenommen multisampling aa verbraucht kaum füllrate und hauptsächlich speicherbandbreite :confused:
Multisampling ist eine Optimierung.
micki
2007-07-06, 10:22:11
Öhm, bin jetzt verwirrt. Ich habe eigentlich immer angenommen multisampling aa verbraucht kaum füllrate und hauptsächlich speicherbandbreite :confused:
und ich dachte bisher das FSAA wovon die anderen sprachen nicht multisampling aa ist.
indem man bei jedem zweiten frame die zwischenzeilen extra-/interpoliert, so in etwa wie deinterlacing.Was denn nun, extra- oder interpoliert? Was bringt Deinterlacing wenn das Ausgabegerät (der Fernseher) im Interlacing-Verfahren arbeitet?
DaEmpty
2007-07-06, 15:26:53
Ich würde wirklich gern mir ne wii zulegen, weil ich bisher immer sehr von deren konzepten angetan war. Aber die wii hat einfach ein flicker problem, das heftig ist.
Die Spiele auf der Wii funktionieren (im Sinne von machen Spass) meistens auch trotz Flickerproblem, der niedrigen Auflösung etc.. Spiele machen meistens nicht wegen der Grafik Spass. Klar sieht das in Videos nicht so toll aus. Aber wenn man mal mit der Wii spielt, merkt man schon, dass das Konzept aufgeht.
Auf dem PC spiele ich momentan auch Lost Vikings und hab mehr Spass dabei, als mit so manchem "Blockbuster" der letzten Jahre. :)
mickii
2007-07-06, 17:09:10
Was denn nun, extra- oder interpoliert?
beides? je nach zeile? was kannst du daran nicht verstehen? :confused:
Was bringt Deinterlacing wenn das Ausgabegerät (der Fernseher) im Interlacing-Verfahren arbeitet?mindert flickern.
Der Cube rendert garantiert nicht interlaced. Das würde ja zu übelsten Darstellungsfehlern (vor allem bei schnellen Bewegungen) führen, wenn immer nur ein halber Frame gerendert wird.
Der Cube rendert garantiert nicht interlaced. Das würde ja zu übelsten Darstellungsfehlern (vor allem bei schnellen Bewegungen) führen, wenn immer nur ein halber Frame gerendert wird.
Das ist genau der Fehler den du bei jedem normalen Fernseher siehst, wenn du mit einer Konsole spielst.
Das ist genau der Fehler den du bei jedem normalen Fernseher siehst, wenn du mit einer Konsole spielst.
Natürlich nicht, denn intern wird ja progressiv gerendert. Auf einer DVD liegt z.B. auch interlaced Material, aber da ist einfach ein Vollbild in zwei Halbbilder zerschnibbelt worden. Genau so ist das bei Konsolen wie dem Cube, wenn sie interlaced ausgeben. Nicht weil sie nur jeweils immer einen halben Frame rendern würden.
Natürlich nicht, denn intern wird ja progressiv gerendert. Auf einer DVD liegt z.B. auch interlaced Material, aber da ist einfach ein Vollbild in zwei Halbbilder zerschnibbelt worden. Genau so ist das bei Konsolen wie dem Cube, wenn sie interlaced ausgeben. Nicht weil sie nur jeweils immer einen halben Frame rendern würden.
Das ist natürlich Unsinn, die Fehler auf dem Fernseher entstehen durch die interlaced Wiedergabe, unabhängig davon ob die Quelle progressiv ist oder nicht.
Das ist natürlich Unsinn, die Fehler auf dem Fernseher entstehen durch die interlaced Wiedergabe, unabhängig davon ob die Quelle progressiv ist oder nicht.
Quatsch! Es macht natürlich einen Unterschied, ob ich interlaced Bilder vom selben Frame anzeige oder unterschiedlichen. Wenn ich interlaced rendern würde, dann heißt das natürlich, dass ich jeweils nur immer einen halben Frame aus Performancegründen rendere. Ansonsten gäbe es überhaupt keinen Sinn so etwas zu machen. Als Vergleich wieder die DVD: Wenn ich nämlich z.B. gängiges DVD Material deinterlace, braucht man gar keinen guten Deinterlacer mit Extrafunktionen, weil das Kinomaterial sowieso progressiv aufgenommen wird und dann einfach zerschnibselt. Trotzdem hast du vom selben Frame zwei Halbframes, die du ohne Probleme exakt zusammenfügen kannst. Bei Live-Fernsehübertragungen ist das zum Teil anders, da wird z.B. interlaced übertragen, was man vor allem bei schnellen Kameraschwenks bemerken kann. Deswegen gibt's ja diese ganze tollen Deinterlacer, die dann eben diese Fehlinformationen zwischen den Halbbildern "von verschiedenen Frames" ausbessern. Eine heutige Spielekonsole wie der Cube etc. rendert aber nie im Leben interlaced, sondern progressiv.
Quatsch! Es macht natürlich einen Unterschied, ob ich interlaced Bilder vom selben Frame anzeige oder unterschiedlichen. Wenn ich interlaced rendern würde, dann heißt das natürlich, dass ich jeweils nur immer einen halben Frame aus Performancegründen rendere. Ansonsten gäbe es überhaupt keinen Sinn so etwas zu machen. Als Vergleich wieder die DVD: Wenn ich nämlich z.B. gängiges DVD Material deinterlace, braucht man gar keinen guten Deinterlacer mit Extrafunktionen, weil das Kinomaterial sowieso progressiv aufgenommen wird und dann einfach zerschnibselt. Trotzdem hast du vom selben Frame zwei Halbframes, die du ohne Probleme exakt zusammenfügen kannst. Bei Live-Fernsehübertragungen ist das zum Teil anders, da wird z.B. interlaced übertragen, was man vor allem bei schnellen Kameraschwenks bemerken kann. Deswegen gibt's ja diese ganze tollen Deinterlacer, die dann eben diese Fehlinformationen zwischen den Halbbildern "von verschiedenen Frames" ausbessern. Eine heutige Spielekonsole wie der Cube etc. rendert aber nie im Leben interlaced, sondern progressiv.
Das ist natürlich Blödsinn! Ob der GCube Halbbilder oder progressiv zeichnet merkst du auf dem Fernseher nicht. Aus diesem Grund wäre es erstmal ziemlich dämlich 60Hz progressiv zu rendern. Falls Antiflicker-Filter zum Einsatz kommen die progressiv brauchen ist das natürlich anders, aber es ist ebenfalls möglich ohne progressiv Antiflicker-Filter zu erstellen, denn genau so funktionieren die Deinterlacer.
Gutes Deinterlacing ist aufwändig, schlechtes Deinterlacing ist sichtbar.
Würde man interlaced rendern bekäme man auch Probleme wenn die Framerate mal unter 50/60Hz sinkt.
beides? je nach zeile? was kannst du daran nicht verstehen? :confused:Werd doch mal genauer. Wie denn "je nach Zeile"? Jede zweite Zeile wäre ja vorhanden.
mindert flickern.Das hätte ich gerne erklärt.
Natürlich nicht, denn intern wird ja progressiv gerendert. Auf einer DVD liegt z.B. auch interlaced Material, aber da ist einfach ein Vollbild in zwei Halbbilder zerschnibbelt worden. Genau so ist das bei Konsolen wie dem Cube, wenn sie interlaced ausgeben. Nicht weil sie nur jeweils immer einen halben Frame rendern würden.Es ist nicht genauso, weil der Cube trotzdem 50 oder 60 Frames rendern und interlaced anzeigen kann (statt 25 oder 30 progressive Frames zu berechnen.)
fizzo
2007-07-15, 20:02:28
zum gegeben anlass werfe ich mal das Super Mario Galaxy Gameplay-Video (http://www.gametrailers.com/player/21649.html) in die diskusion ein. ich finde es schon beeindrucken, was dabei der betagte hollywood auf den bildschirm zaubert =) mich wuerde mal interessieren, wie xboxspiele in 480p in vergleich dazu aussehen - leider finde ich nichts entsprechendes.
wer noch mehr sehen will:
http://media.wii.ign.com/media/748/748588/vids_1.html
Das Wasser ist gut. Das Ufer ist zum Heulen.
Nakai
2007-07-16, 21:31:53
Das Wasser ist gut. Das Ufer ist zum Heulen.
Das Wasser passt zum Comicstil, aber das Ufer is ja nur ein müder Strich, praktisch nur 2 nebeneinandergelegte Texturen. Außerdem wurde da nicht soviele Shadereffekte in das Wasser benutzt, das schafft wohl die GPU nicht.
mfg Nakai
deadkey
2007-07-25, 00:36:45
SMG sieht nicht schlecht aus, eignet sich aber kaum, um die Grafikleistung der Wii zu beurteilen.
Der Comic-Stil sieht einfach nicht nach realistischer Grafik aus...und will es auch nicht.
Es wird noch eine Weile dauern, bis Wii-Besitzer etwas von der Leistung ihrer Konsole im Vergleich zur GC spüren werden. Momentan gibt es hauptsächlich kleine Partyspiele, die teilweise tatsächlich an das N64 erinnern.
Viele Entwickler sind von den Verkaufzahlen überrascht und haben erst spät mit der Arbeit für die Konsole begonnen. Die Wii wurde wohl in Entwicklerkreisen als potenzieller Flop gehandelt?
Die späte Auslieferung von finalen Devkits seitens Nintendo tat ihr Übriges.
Was wir heute sehen, sind aus der Not geborene Portierungen von PS2 und GC, mit teils aufgesetzt wirkender Unterstützung für das neuartige Eingabegerät. Ich bin jedenfalls froh, von Portierungen der HD-Konsolen verschont zu bleiben. Für schöne Grafik gibts nen PC, spielen tu ich lieber auf Wii und Dreamcast...Geschmackssache halt.
Spiele, die ausschließlich für Wii entwickelt wurden und werden, zeigen ganz deutlich eine Verbesserung im Vergleich zur GC. Leider durchleben Wii-Besitzer (bin einer von ihnen) momentan eine Durststrecke, aber das wird sich spätestens 2008 ändern.
Auf jeden Fall wird man nicht auf jeglichen eyecandy verzichten müssen, sicher auch Aufgrund der niedrigen zu bewältigenden Auflösung. Wenn man die Konsole eh nur an ner Röhre betreibt, wird man noch weniger leiden müssen.
Ich denk, da geht noch was;)
wie sieht die wii auf nem lcd-tv aus mit yuv kabel?hat man noch krasses aliasing?oder ist das verschwommener durch die Inerpolierung?
Ganon
2007-07-26, 11:15:12
Je nach LCD. Es gibt ja diese "PALoptimal" LCDs, welche damit keine Probleme haben. Gegen einen modernen Röhren-TV kommen sie trotzdem nicht an.
aber 480p kriegt man nur auf lcds bzw auf tv's mit yuv anschluss zu sehen,ist das richtig?
Ganon
2007-07-26, 11:30:57
Naja. Der Röhren-TV muss neben YUV auch Progressive-Darstellung ermöglichen, sonst hilft es nicht. ;)
Zum Thema Rendern in Interlaced-Formaten:
Bin nicht mehr sicher, ob ich es auf b3d oder gamasutra gelesen habe, aber z.B. Kung Fu Chaos auf der Xbox1 rendert tatsächlich interlaced. GT4 auf der PS2 IIRC auch. Es ist also nicht nur theoretisch möglich, sondern wird auf relativ modernen Konsolen auch wirklich genutzt. Wieso sollten GC und Revolution das nicht auch können? Gibt bestimmt auch auf denen Spiele, die mit Fieldrendering laufen.
micki
2007-07-27, 10:19:12
Zum Thema Rendern in Interlaced-Formaten:
Bin nicht mehr sicher, ob ich es auf b3d oder gamasutra gelesen habe, aber z.B. Kung Fu Chaos auf der Xbox1 rendert tatsächlich interlaced. GT4 auf der PS2 IIRC auch. Es ist also nicht nur theoretisch möglich, sondern wird auf relativ modernen Konsolen auch wirklich genutzt. Wieso sollten GC und Revolution das nicht auch können? Gibt bestimmt auch auf denen Spiele, die mit Fieldrendering laufen.
jup, machen manche sehr alten spiele soweit ich weiss auch (auf amiga oder so, glaube ich).
Gibt bestimmt auch auf denen Spiele, die mit Fieldrendering laufen.
weil es ziemlich sinnlos ist?
ob du nun 1280x720 mit 30fps berechnest oder 1280x360 mit 60fps ist ziemlich egal, wobei letzteres sogar mehr leistung braucht da sich ja nur die pixellast halbiert und alles andere doppelt vorgenommen werden muss.
zusätzlich hast du beim fieldrendering probleme wenn du die angepeilte framerate nicht erreichst, dann wird es ziemlich unschön.
weil es ziemlich sinnlos ist?
ob du nun 1280x720 mit 30fps berechnest oder 1280x360 mit 60fps ist ziemlich egal, Unsinn! Wenn das egal wäre, dann würde man kein interlaced brauchen. Es halbiert die Speicher-, Bandbreiten- und Pixelshader-Last. 720p@30Hz als 720i auszugeben wäre total witzlos.
Es halbiert die Speicher-, Bandbreiten- und Pixelshader-Last. 720p@30Hz als 720i auszugeben wäre total witzlos.
pro frame, da du aber doppelt so viele frames brauchst, ist die pixellast wieder identisch. dafür ist aber bei interlaced-rendering die vertexlast, und je nach umsetzung evtl. noch mehr, doppelt so hoch und du hast das problem dass du die 50/60fps garantieren musst.
pro frame, da du aber doppelt so viele frames brauchst, ist die pixellast wieder identisch.
Dafür hast du die doppelte Framerate, ansonsten könnte man sich interlaced komplett sparen.
Dafür hast du die doppelte Framerate, ansonsten könnte man sich interlaced komplett sparen.
kann man sich ja auch, das ganze war ja nur für alte TV-geräte sinnvoll, die noch keine bilder zwischenspeichern konnten.
micki
2007-07-29, 15:11:12
kann man sich ja auch, das ganze war ja nur für alte TV-geräte sinnvoll, die noch keine bilder zwischenspeichern konnten.
In dem Fall könnte man nur Ganzbilder nutzen beim aktuellen HD-Standard, doch selbst der unterstützt interlaced bei 60Hz statt nur 30Hz Ganzbilder.
In dem Fall könnte man nur Ganzbilder nutzen beim aktuellen HD-Standard, doch selbst der unterstützt interlaced bei 60Hz statt nur 30Hz Ganzbilder.
könnte man ja auch, interlacing ist sinnlos, sofern das wiedergabegerät die interlacte quelle nicht direkt darstelle kann.
weil es ziemlich sinnlos ist?
ob du nun 1280x720 mit 30fps berechnest oder 1280x360 mit 60fps ist ziemlich egal, wobei letzteres sogar mehr leistung braucht da sich ja nur die pixellast halbiert und alles andere doppelt vorgenommen werden muss.Egal ist es bestimmt nicht. Bei schnellen Spielen haben die fps Vorrang gegenüber der Bildqualität, wenn man diese durch Fieldrendering aber erhöhen kann, warum nicht? Und überhaupt, was hat der Möchtegernstandard 720p in dieser Diskussion verloren? Der einzige HDTV-Standard, der von allen HDTVs dargestellt werden kann, ist 1080i. Wenn bei einem schnellen Spiel konstante 60 fps nötig sind, dann hätte ich die lieber in 1080i als in 720p, was beides ungefähr der gleichen Menge zu rendernder Pixel entspricht, wenn bei 1080i Fieldrendering genutzt wird.
Das (optional) höchste der Gefühle bei GC/Revolution ist eh EDTV (480p)...
...was auf dem Revolution dermaßen konsequent unterstützt wird, dass man für etliche VC-Spiele erstmal das Kabel wieder gegen die Standardstrippe wechseln muss ;)
zusätzlich hast du beim fieldrendering probleme wenn du die angepeilte framerate nicht erreichst, dann wird es ziemlich unschön.Klar ist Fieldrendering nur sinnvoll, wenn man die nötigen fps wirklich sicher auf den Schirm bringen kann. Was eigentlich eine hohe Priorität in der Entwicklung einnehmen sollte, aber auf Werbescreenshots findet man halt keine fps-Anzeige und der informierte Kunde ist leider eine Randerscheinung...
1080i lieber als 720p? Da hat wer ein paar Zusammenhänge nicht verstanden, oder den Überblick über den Sand der implementierten Hardwarelösungen komplett verloren. 1080i ist aktuell bestimmt die schlechtere Lösung. Warum, kann sich jeder selbst ausmalen, wenn man die gängigen, implementierten Deinterlacingmethoden dafür kennt. In ein paar Jahren kann das anders aussehen.
1080i lieber als 720p? Da hat wer ein paar Zusammenhänge nicht verstanden, oder den Überblick über den Sand der implementierten Hardwarelösungen komplett verloren.Nein, da hat jemand eine HD-Röhre, der Deinterlacing herzlich egal sein kann, so wie sehr viele in den nicht-HDTV-Entwicklungsländern auch. Meiner kann auch 720p, sehr viele HD-Röhren aus weniger rückständigen Ländern können das aber nicht. 1080i können alle.
1080i ist aktuell bestimmt die schlechtere Lösung. Warum, kann sich jeder selbst ausmalen, wenn man die gängigen, implementierten Deinterlacingmethoden dafür kennt. In ein paar Jahren kann das anders aussehen.Vor ein paar Jahren sah das anders aus, bevor überlegene Technik durch solche verdrängt wurde, die billiger zu produzieren und gleichzeitig dem uninformierten Kunden teurer zu verkaufen ist.
Interlaced-Material kann sehr wohl sinnvoll sein, nicht nur im Broadcasting, sondern auch in Echtzeit-3D-Grafik.
HD-Röhre? Oha, na dann Glückwunsch. Das haben nur noch wenige.
Wenn ich mir jedenfalls die interlaced Darstellung der heute gängigen Flachen in 1080i anschaue, dann ist da noch ein deutlicher Unterschied im Vergleich zu einer sauberen progressiven Zuspielung. Gerade was Bildruhe angeht. Deswegen hatte mich die Aussage gewundert.
Ringwald
2008-04-18, 21:17:23
High Voltage Quantum 3 Tech Demo
It's called The Conduit and it takes place during present day. Washington D.C. finds itself the epicenter of an extraterrestrial attack and it's up to gamers, as the secret service's Agent Ford, to discover the truth hidden behind the invasion. To do that, he'll need a variety of guns and the skills to use them. High Voltage calls The Conduit a straightforward first-person shooter in the style of Halo, Medal of Honor Heroes 2 or Resistance: Fall of Man – basically, fast, run-and-gun battles and stylized weapons. The Conduit also features advanced enemy artificial intelligence enabling "human-like behavior" and a special device called the All Seeing Eye (or ASE), which, according to the studio, allows players to "reveal concealed objects and enemies, providing a deeper level of puzzle-solving."
"We think it's a real shame that publishers and developers aren't taking advantage of the technical possibilities of the Wii platform. Most Wii games don't even look as good as the later day PS2 titles and that's a real slap in the face to consumers," seconds Kerry Ganofsky, CEO and founder, High Voltage Software. "We believe that third-party developers need to step up to the plate and deliver. The Wii platform is capable of a lot more than what consumers have seen so far. We're hoping to raise a new bar."
Nofsinger takes it a step farther. "Most of the games on the Wii look like crap. We want to change that, so we've invested heavily in our Wii tech over the past year. We have real-time normal mapping, reflection and refraction, post process full screen effects, real-time shadows, projected lights and textures, specularity and fresnel effects, emissive and iridescent materials, interactive water, morphing, and much more all running with a rock solid frame rate on the Wii. Our goal is to be the most technically innovative Wii developer on the planet."
Video via IGN (http://media.video.ign.com/ev/ev.html?dlURL=http://wiimovies.ign.com/wii/video/article/867/867522/hightechwii_flvhigh.flv&object_ID=14248157)
Sieht wirklich beeindruckend aus, flimmert jedoch stark und läuft mit gefühlten 20fps. Was mich nervt ist das starke Flimmern bei sehr schmalen Objekten wie das Schwert im folgenden Bild:
http://img56.imageshack.us/img56/7019/schwertflimmernsf8.jpg
Wäre es nicht sinnvoll, das Objekt einfach auszublenden bevor es nur noch aus einzelne getrennte Pixel besteht?
Doch wäre es. Nennt sich LOD ;)
Aber für die Wii ist das ziemlich genial. Da zieh ich den Hut vor den Entwicklern. Muss extremes Multi-Passing sein. Gut dass man nur 640x480 rendern muss ;)
][immy
2008-04-18, 23:19:03
High Voltage Quantum 3 Tech Demo
Video via IGN (http://media.video.ign.com/ev/ev.html?dlURL=http://wiimovies.ign.com/wii/video/article/867/867522/hightechwii_flvhigh.flv&object_ID=14248157)
Sieht wirklich beeindruckend aus, flimmert jedoch stark und läuft mit gefühlten 20fps. Was mich nervt ist das starke Flimmern bei sehr schmalen Objekten wie das Schwert im folgenden Bild:
http://img56.imageshack.us/img56/7019/schwertflimmernsf8.jpg
Wäre es nicht sinnvoll, dass Objekt einfach auszublenden bevor es nur noch aus einzelne getrennte Pixel besteht?
nun, für die Wii sieht es doch recht nett aus, im vergleich zu dem was am markt derzeit ist. allerdings will ich nicht wissen, wieviel speicher diese nette techdemo verbraucht, bzw wie viel überhaupt noch für anderen aufgaben übrig bleibt.
warum Wii titel immer schlechter aussehen müssen als PS2 oder xbox 1 titel muss ich allerdings nicht wirklich verstehen. aber wahrscheinlich wird wirklich nur an der detailschraube gedreht bis es flüssig läuft ohne großartig zu optimieren.
Ringwald
2008-04-18, 23:22:28
Doch wäre es. Nennt sich LOD ;)
Warum nutzen die das (und alle anderen Wii Spiele) nicht? Ist LOD in der Performance "teuer"?
Wenn man es automatisch macht ja. Wenn nicht dann ist es zumindest aufwendig für die Artists.
Fetza
2008-04-19, 16:58:17
High Voltage Quantum 3 Tech Demo
Video via IGN (http://media.video.ign.com/ev/ev.html?dlURL=http://wiimovies.ign.com/wii/video/article/867/867522/hightechwii_flvhigh.flv&object_ID=14248157)
Sieht wirklich beeindruckend aus, flimmert jedoch stark und läuft mit gefühlten 20fps. Was mich nervt ist das starke Flimmern bei sehr schmalen Objekten wie das Schwert im folgenden Bild:
http://img56.imageshack.us/img56/7019/schwertflimmernsf8.jpg
Wäre es nicht sinnvoll, das Objekt einfach auszublenden bevor es nur noch aus einzelne getrennte Pixel besteht?
Hmm, das ist wirklich "interessant". Ehrlich gesagt, würde ich ein spiel mit solch einer graphik nichtmals mehr mit der kneifzange anfassen. Irgendwie finde ich, hatte die x-box hardware damals schon viel schönere titel. Das einzige was mir an der tech-demo gefällt, sind die wassereffekte.
Das Problem von dir ist, dass du nicht "Tech" sondern "Artwork" beurteilst und das ist nicht Sinn und Zweck von dem Video.
mit was wäre wiis grafikchip am ehesten zu vergleichen?
ps3 g70+
xbox 1900xt+
wii =9800pro+ oder eher 1600xt?
sm2 oder 3? oder überhaupt?
Avalox
2008-04-20, 10:23:33
Wäre es nicht sinnvoll, das Objekt einfach auszublenden bevor es nur noch aus einzelne getrennte Pixel besteht?
Nun weiss man nicht, wie es von einer Wii direkt abgespielt aussieht.
Es gibt ja durchaus Wii Titel mit temporalen Anti-Aliasing. Mag durchaus sein, dass dieses verwendet wird, aber für das Video nicht aufgezeichnet werden konnte.
Mag der reale Eindruck also sich nochmal etwas unterscheiden.
Aquaschaf
2008-04-20, 10:50:23
Es gibt ja durchaus Wii Titel mit temporalen Anti-Aliasing.
Welche?
Avalox
2008-04-20, 10:56:48
Welche?
Metroid Prime 3 z.B.
Ringwald
2008-04-20, 15:31:00
Jetzt wo ich überlege, waren besonders Nintendo Spiele weniger am flimmern.
Also wohl eine Frage des Budgets?
AnarchX
2008-04-20, 15:39:23
mit was wäre wiis grafikchip am ehesten zu vergleichen?
ps3 g70+
xbox 1900xt+
wii =9800pro+ oder eher 1600xt?
sm2 oder 3? oder überhaupt?
Schau mal die Seiten weiter vorne im Thread an, Hollywood ist bei weitem nicht auf dem Niveau eines R300, immerhin soll er ja nur auf 243MHz takten und von den Einheiten her ist er wohl eher auch nicht so breit.
Von programmierbaren Shadern kann man AFAIK auch nicht sprechen.
Aber im Endeffekt scheint er mit seinen Fähigkeiten wohl gut ins Wii-Konzept zu passen und bietet den Entwicklern die Möglichkeit über Artworkeinsatz auch ansprechende Resultate zu erzielen.
Wäre es nicht sinnvoll, das Objekt einfach auszublenden bevor es nur noch aus einzelne getrennte Pixel besteht?
Nein, denn dann würden sie einfach nur fehlen. du wuerdest es ja noch als flimmern ansehen wenn sie fast 3 pixel breite hätten, weil das "dicker und dünner" werden auch noch als Flimmern zu sehen ist. Das ganze flimmert nicht nur bei dem Ausschnitt, viele sehr breite objekte flimmern auch noch.
mit was wäre wiis grafikchip am ehesten zu vergleichen?
ps3 g70/g71/Custom Hybrid+
xbox 1900xt (mit 500Mhz)+
Fixed!
mit was wäre wiis grafikchip am ehesten zu vergleichen?
ps3 g70+
xbox 1900xt+
wii =9800pro+ oder eher 1600xt?
sm2 oder 3? oder überhaupt?
Am ehesten mit einer Geforce 2 Ultra. Also Directx 7 Level.
robbitop@work
2008-04-22, 12:47:49
Das ist immer schwer zu vergleichen. Die TEVs erlauben vergleichsweise Ähnliches wie die Register Combiner nach PS 1.4.
Also vieleicht ansatzweise vergleichbar mit einer R200.
btw.
wie wird mario gerendert?, bzw die meisten spielfiguren auf der wii?
bei SMG z.b. sieht mario sehr glatt und fast perfekt aus
wie wird das gemacht? normal müsste er doch ecken und kanten haben ect.?
AA? nein oder?
Aquaschaf
2008-04-22, 18:10:16
Genug Polygone und sehr gute Meshes.
robobimbo
2008-04-29, 10:45:26
Ganz nette Leistung die die Jungs da rauszaubern:
http://winfuture.de/news,39042.html
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.