PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ende der Grafikkartenentwicklung?


Gast
2006-01-19, 20:48:44
Dieser Beitrag ist noch weit entfernt von der Realität, aber dennoch wäre eine Diskussion ziemlich interessant.

Es geht um Vorstellung, das die Grafikkartententwicklung irgendwann das Ende erreicht hat.
Was ich unter Ende verstehe? Ich versuche es mal zu erklären: Bei den bisherigen Grafikkarten kamen immer neue Features dazu und die Taktraten wurden deutlich erhöht. Mit jeder Generation ein bisschen mehr.

Bloß was passiert, wenn die Kantenglättung so genau ist, das jede Kante für den User nicht mehr sichtbar ist, wenn jede Auflösung mit mind. 60fps dargestellt werden kann und wenn die Bilder, die auf dem Screen zu sehen sind, denen der Realität entsprechen?

Welche Verbesserungen wären dann noch möglich? Mir fiele auf die schnelle nur die Auflösung ein, die derzeit stagniert. Natürlich ließe sie sich weiter steigern, aber irgendwann ist man an dem Punkt gelangt, das eine weitere Steigerung nicht mehr sinnvoll ist, weil der User den Unterschied nicht mehr sehen kann.

Wie würde es dann weiter gehen?

Spasstiger
2006-01-19, 20:57:32
Die Chipdesigner werden zu VR-Designern. Wer soll denn den Content schaffen, der zwar virtuell ist, aber so real aussieht, dass er nicht mehr von der Realität unterschieden werden kann?
Man wird dann auch zunehmend auf Systeme setzen müssen, die direkt im menschlichen Gehirn ansetzen und somit das Gehirn selbst zum bilderzeugenden System werden lassen. Dann sollte man wohl auch mit einigen Tricks viel Arbeit bei der Contenterstellung sparen können. Allerdings sehen mit solchen Tricks dann die Spiele bei jedem etwas anders aus. ;)

CokeMan
2006-01-19, 20:57:42
Ich denke, wenn der von dir beschriebene Fall eingetreten ist wird nur noch daran optimiert das Teil billiger Hergestellt werden kann und mehr Gewinn bringt, solange bis es irgendwann zum Wegwerfartikel wird. ;)
Und dann gibts ne Neue Technik, die Komplett anders ist.

Beispiel:

- Erfindung der Dampflock
- Gast fragt: Was wenn die Dampflock mal am Ende ihrer Entwicklung steht?
- ICE...
- Ende der Damplock Entwicklung
- Flugzeuge oder so...

Gast
2006-01-19, 21:05:31
Mit einem Verkehrsmittel vergleichen kann man das leider nicht. Denn die können gar nicht schnell und groß genug sein, denn der Weltraum ist riesig. ;)

Bei Prozessoren ist die Sache klar, dort wird zusätzliche Leistung immer für irgendetwas genutzt werden können - sei es nur die "KI".

Nur was kann bei Grafikkarten verbessert werden, wenn sie den beschriebenen Punkt erreicht haben?

Der normale Monitor wird dann wahrscheinlich ausgedient haben, ich denke mal, das die Bilder dann frei im Raum dargestellt werden können. Nur dann gäbe es da auch eine Grenze: Den sichtbaren Bereich. Ein "Monitor" mit einer größe von 100x100m wäre für das menschliche Auge schon ziemlich groß. ;)

Kladderadatsch
2006-01-19, 21:07:15
Die Chipdesigner werden zu VR-Designern. Wer soll denn den Content schaffen, der zwar virtuell ist, aber so real aussieht, dass er nicht mehr von der Realität unterschieden werden kann?
Man wird dann auch zunehmend auf Systeme setzen müssen, die direkt im menschlichen Gehirn ansetzen und somit das Gehirn selbst zum bilderzeugenden System werden lassen. Dann sollte man wohl auch mit einigen Tricks viel Arbeit bei der Contenterstellung sparen können. Allerdings sehen mit solchen Tricks dann die Spiele bei jedem etwas anders aus. ;)
zu viel matrix geguckt?;)


bis es so weit ist, dass der erfolg eines games nicht mehr von seiner technik abhängig ist, dürfte sich der pc wohl so weit etabliert haben, dass vielleicht z.b. autoren vom medium buch auf dieses umsteigen. kaum auszumalen, wie genial es wäre, ein gutes buch vor den eigenen augen zu erleben;)

M2-Master
2006-01-19, 21:19:32
Hey das Thema ist doch wirklich mal genial :) .
Vielleicht ist es ja sogar so,das wenn man zu einem Ende in der Entwicklung gekommen ist, dass plötzlich alle die Lust an sowas verlieren und sich Menschen wieder mehr im richtigen Leben treffen :) .

PatkIllA
2006-01-19, 21:26:08
Mit einem Verkehrsmittel vergleichen kann man das leider nicht. Denn die können gar nicht schnell und groß genug sein, denn der Weltraum ist riesig. ;)Und genauso ist die Realität unglaublich komplex.
Und da man auf einer kleinen Chipfläche auch nicht mehr darstellen als bestenfalls den Chip selbst kann ich mir kein Szenario vorstellen wo die Entwicklung aufhören sollte.

RLZ
2006-01-19, 21:34:01
Die Chipdesigner werden zu VR-Designern. Wer soll denn den Content schaffen, der zwar virtuell ist, aber so real aussieht, dass er nicht mehr von der Realität unterschieden werden kann?
Man wird dann auch zunehmend auf Systeme setzen müssen, die direkt im menschlichen Gehirn ansetzen und somit das Gehirn selbst zum bilderzeugenden System werden lassen. Dann sollte man wohl auch mit einigen Tricks viel Arbeit bei der Contenterstellung sparen können. Allerdings sehen mit solchen Tricks dann die Spiele bei jedem etwas anders aus. ;)
Klingt nach Otherland.
Hoffen wir nur, dass diese Art der Prozessoren nie genutzt wird. :usad:

Sagen wir mal so: Die Darstellung der Realität muss man als Grenzwert sehen, den man nie erreichen wird.

tokugawa
2006-01-19, 22:35:50
Solang die Rendering Equation in all ihrer Pracht nicht mal annäherend berechenbar ist mit heutigen Computationalen Mitteln, wird die Entwicklung von Grafikchips auch nicht enden.

Und davon sind wir noch meilenweit entfernt, und es ist nicht mal sicher ob das erreichbar ist.


Es ist halt Faktum dass heutige Computergrafik einfach nur sehr viel Faking ist... gerade das macht es aber so genial, wenn man einen Effekt berechnet, der fast so gut aussieht wie die physikalische Berechnung der optischen und energetischen Vorgänge, aber um einiges weniger Rechenzeit benötigt.

catamaran
2006-01-20, 09:06:11
Es muss mehr Ansätze geben hin zu einer dynamischen Content-Entwicklung.

Aktuell ist es doch so: Je detailierter die virtuelle Welt ist, um so mehr Aufwand muss betrieben werden diese zu erschaffen.

lance201
2006-01-20, 10:59:42
Wie wärs mit echtem 3d, sprich holographischer Darstellung? Die Projektoren für sowas müssen ihren input ja auch irgendwo her bekommen... das wären mal echte 3d-Beschleuniger :-)

Lance

Palpatin
2006-01-20, 13:15:35
Sagen wir mal so wir nähern uns bereits dem Ende der ransanten Grafikkartenentwicklung da die Leistungsaufnahme bald einen Punkt erreicht den sie nicht überschreiten kann.... Bei den CPUs erreichte der Prescott diesen Punkt der bei 3,8 GHZ zu ende war aber leicht 50% mehr takt gekonnt hätte wenn die Kühlung kein Problem gewesen währe.

Coda
2006-01-20, 13:20:58
Ist bei Grafikkarten unkritisch, da man da über die Einheiten statt über den Takt skalieren kann.

Monger
2006-01-20, 13:53:58
Die Ein- und Ausgabegeräte sind doch von der Grafikkarte völlig unabhängig.

Das ist fast so wie: "Wenn wir den perfekten Verbrennungsmotor entwickelt haben, machen wir uns an die Karosserie."


Ich vermute, dass (wie in jedem anderen IT Bereich auch) langfristig die Entwicklung der Software im Vordergrund stehen wird. Wenn Grafikkarten erstmal so flexibel sind, dass man per Programmierung den oder den Bereich entsprechend definieren kann, wird sich ein wesentlich größerer Teil um die Entwicklung der Software drehen als um die Hardware.

Genau sowas kann man ja bei den Shadersprachen beobachten, und ich vermute das wird in den nächsten Jahren noch wesentlich komplexer werden.


Okay, irgendwie ist das ein bißchen an den Haaren herbei gezogen, weil es gibt wahrscheinlich gar nicht so viele verschiedene Wege, Grafik zu erzeugen, so dass eine starke Spezialisierung Sinn machen würde. Aber vielleicht ja doch...

PatkIllA
2006-01-20, 14:58:51
Die Ein- und Ausgabegeräte sind doch von der Grafikkarte völlig unabhängig.Wieso das? Die heutigen Grafikkarten sind zu 100% dazu gemacht die 3D Welt auf eine flache Ebene zu projezieren. Wenn man ein echtes 3D Ausgabegerät hätte geht das so nicht mehr. (Damit meine ich nicht die 3D Brillen, die für uns 3D erzeugen indem sie die Ansicht einzeln als flaches Bild für jedes Auge berechnen)

Monger
2006-01-20, 19:26:07
Wieso das? Die heutigen Grafikkarten sind zu 100% dazu gemacht die 3D Welt auf eine flache Ebene zu projezieren. Wenn man ein echtes 3D Ausgabegerät hätte geht das so nicht mehr. (Damit meine ich nicht die 3D Brillen, die für uns 3D erzeugen indem sie die Ansicht einzeln als flaches Bild für jedes Auge berechnen)

Gute Frage: wie erzeugt man eigentlich Projektionen für echte 3D Displays?

Egal: die Projektion war doch noch nie das Problem. Das Problem bestand eher daran, bestimmte Vorgänge (Lichtreflexionen usw.) in Formeln zu packen. Aus welcher Kameraperspektive man das sieht, ist doch letztendlich egal.
Die intern berechnete 3D Welt ist ja im Gegensatz zu perspektivischem Zeichnen kein Trick, sondern "real". Wir schauen halt zufällig mit unserem Monitor drauf.

paul.muad.dib
2006-01-20, 22:08:25
Ich glaube nicht, dass wir jemals einen Chip haben werden, der in Echtzeit Grafiken berechnen kann, die sich von der Realität nicht mehr unterscheiden lassen.

Nehmen wir als Beispiel mal die Animationsfilme. hier rendern ganze serverfarmen stundenlang an einem Bild. Daher ist hier der Rechenaufwand pro Bild um den Faktor einer Million oder mehr vergrößert.

Trotzdem sind die produzierten Bilder immer noch ganz eindeutig als Computeranimationen zu erkennen. D.h. selbst wenn wir einen Chip hätten, der in der Lage ist, im Bruchteil einer Sekunde die Rechenleistung einer Serverfarm in 4 Stunden zu bringen, hätten wir noch keine Realitätnahe Grafik.


Dazu kommt, dass alle Effekte heute relativ billige optische Täuschungen sind. Wer genau hinschaut, sieht wie stark sich z.B. Licht- und Schattenfall selbst in den fortschrittlichsten Spielen von der Realität unterscheiden Hinzu kommt, dass es keine runden oder gebogenen Oberflächen gibt, sondern nur Ecken. Keine Enginge könnte darstellen, was passiert, wenn man zwei Spiegel gegenüber aufstellt und ein wenig hin und herbewegt.


interessant fände ich aber die Frage, was mit GPUs passiert, wenn sie immer universeller werden. Wie weit kann sich eine PS 5.0 ALU noch von einer CPU ALU unterscheiden?

dmxfighter
2006-01-20, 23:38:00
Ich glaube nicht, dass wir jemals einen Chip haben werden, der in Echtzeit Grafiken berechnen kann, die sich von der Realität nicht mehr unterscheiden lassen.

Nehmen wir als Beispiel mal die Animationsfilme. hier rendern ganze serverfarmen stundenlang an einem Bild. Daher ist hier der Rechenaufwand pro Bild um den Faktor einer Million oder mehr vergrößert.

Trotzdem sind die produzierten Bilder immer noch ganz eindeutig als Computeranimationen zu erkennen. D.h. selbst wenn wir einen Chip hätten, der in der Lage ist, im Bruchteil einer Sekunde die Rechenleistung einer Serverfarm in 4 Stunden zu bringen, hätten wir noch keine Realitätnahe Grafik.


Dazu kommt, dass alle Effekte heute relativ billige optische Täuschungen sind. Wer genau hinschaut, sieht wie stark sich z.B. Licht- und Schattenfall selbst in den fortschrittlichsten Spielen von der Realität unterscheiden Hinzu kommt, dass es keine runden oder gebogenen Oberflächen gibt, sondern nur Ecken. Keine Enginge könnte darstellen, was passiert, wenn man zwei Spiegel gegenüber aufstellt und ein wenig hin und herbewegt.


interessant fände ich aber die Frage, was mit GPUs passiert, wenn sie immer universeller werden. Wie weit kann sich eine PS 5.0 ALU noch von einer CPU ALU unterscheiden?


Das ist genau der punkt wo ich mir auch gedanken mache

Gast
2006-01-21, 03:10:53
Allerdings sehen mit solchen Tricks dann die Spiele bei jedem etwas anders aus. ;)
ALLES sieht bei jeden IMMER etwas anders aus!

tokugawa
2006-01-21, 03:21:13
Die Ein- und Ausgabegeräte sind doch von der Grafikkarte völlig unabhängig.


Nicht ganz. Ein "echtes" dreidimensionales Ausgabegerät bräuchte echte Volumendaten von der Grafikkarte.

Heute liefert die Grafikkarte ja nur fertige auf 2D projezierte "Screen-Space" Images.

Gute Frage: wie erzeugt man eigentlich Projektionen für echte 3D Displays?


Kommt darauf an was du mit "echten 3D-Displays" meinst. Für mich sind "echte 3D-Displays" welche die die Ausgabe im 3D-Raum ansiedeln. Das schließt "Projektion" schon aus, da bei "echtem" (Real-World) 3D die Projektion durch deine eigenen Augen passiert.


Egal: die Projektion war doch noch nie das Problem. Das Problem bestand eher daran, bestimmte Vorgänge (Lichtreflexionen usw.) in Formeln zu packen. Aus welcher Kameraperspektive man das sieht, ist doch letztendlich egal.
Die intern berechnete 3D Welt ist ja im Gegensatz zu perspektivischem Zeichnen kein Trick, sondern "real". Wir schauen halt zufällig mit unserem Monitor drauf.

Nicht ganz, in der Computergrafik geht es auch darum, dass diese 3D-Welt letztendlich auf 2D projeziert wird - in Form der Transformation Pipeline.

Dadurch fällt auch eine Menge weg... es wird nicht jeder Punkt im 3D-Raum berechnet, sondern letztendlich nur eine kleinere Menge davon projeziert im Screen-Space.

Mal abgesehen davon dass man heute auch sehr viel von der Szene "wegschneidet" (cullt), um die Performance zu verbessern.

Bei einem echten 3D-Ausgabegerät, bei dem man quasi die Szene gleichzeitig (also, von mehreren Personen) aus verschiedenen Blickwinkeln sehen kann, kann man natürlich nicht mehr von einer einzigen "View Space" ausgehen und dort cullen, wie es heute der Fall ist.

Im günstigsten Fall muß man von "multiplen View Spaces" (also "multiplen Kamera-Perspektiven", so viele wie halt Leute da sind die es betrachten) ausgehen... im schlimmsten Fall kann man gar nicht mehr cullen.

Ailuros
2006-01-21, 06:49:21
Grosse Animations-Studios wie Pixar rendern in HDTV Aufloesungen und kombinieren mit 64x stochastic SSAA und motion blur. Entgeht Euch vielleicht etwas?

paul.muad.dib
2006-01-21, 12:13:47
Wenn es das Ziel ist, perfekte Cmputergrafik zu berechnen, dann wäre solche Methoden wohl auch angebracht. Beim AA-Level könnte man wohl noch Kompromisse machen, weil das Ausgabebild kleiner ist als auf einer Kinoleinwand. Andererseits wäre es ja immerhin möglich, dass jemand auf einem Beamer oder sonstigem Projektor spielt und dafür braucht man dann wieder höhere AA-Level.

Ailuros
2006-01-21, 14:52:30
Wenn es das Ziel ist, perfekte Cmputergrafik zu berechnen, dann wäre solche Methoden wohl auch angebracht.

So oder so solche Aufloesungen mit derartiger Anzahl von AA samples und natuerlich auch derartige Szenen-Komplexitaet, ist sowieso auf keinen Fall moeglich auf heutiger PC Hartware zu realisieren. Grosse Studios benutzen auch gigantische clusters um das Ganze zu bearbeiten.

Beim AA-Level könnte man wohl noch Kompromisse machen, weil das Ausgabebild kleiner ist als auf einer Kinoleinwand.

Uhmmm angenommen wir wuerden AA und motion blur komplett weglassen, waere es moeglich etwas vom Nivaeu wie Finding Nemo in Echtzeit auf einem PC mit akzeptabler Leistung zu rendern?

Es war lediglich ein Beispiel um zu zeigen wie es in anderen Maerkten aussieht, bevor man erst von angeblicher Stagnation reden koennte.

Andererseits wäre es ja immerhin möglich, dass jemand auf einem Beamer oder sonstigem Projektor spielt und dafür braucht man dann wieder höhere AA-Level.

Eine andere These waere dass die Groesse der zukuenftigen Bildschirme nicht mehr ueber 30" steigt in der Zukunft, aber dass die Aufloesungen weiterhin skalieren. Bei verrueckt hohen Aufloesungen >2048*XXXX, koennte man sogar mit sehr wenigen AA samples davonkommen. Je kleiner der dpi Wert, desto weniger bemerkt man aliasing (nicht alle Formen natuerlich).

Bildschirme koennten zwar theoretisch unendlich gross werden, aber der Wohnplatz wird nicht zur gleichen Zeit unendlich wachsen.

RLZ
2006-01-21, 15:03:56
Uhmmm angenommen wir wuerden AA und motion blur komplett weglassen, waere es moeglich etwas vom Nivaeu wie Finding Nemo in Echtzeit auf einem PC mit akzeptabler Leistung zu rendern?
Ich würde mal mit nein antworten, da reine Rasterisierung bei manchen Effekten an seine Grenzen kommt.
Man sollte allerdings nie vergessen, dass in Spielen vieles zeitaufwändig vorberechnet wird. Wenn mit Filmen vergleichen will, müsste man diese Zeit irgendwie mit einrechnen.

Ailuros
2006-01-21, 15:19:09
Ich würde mal mit nein antworten, da reine Rasterisierung bei manchen Effekten an seine Grenzen kommt.
Man sollte allerdings nie vergessen, dass in Spielen vieles zeitaufwändig vorberechnet wird. Wenn mit Filmen vergleichen will, müsste man diese Zeit irgendwie mit einrechnen.

Bei einem Film handelt es sich nur um quasi Wiedergabe, wobei man in einem 3D Spiel natuerlich auch "Interaktivitaet" mitberechnen sollte. Eins der Gruende warum wahres motion blur auf dem PC entweder sehr spaet oder auch nie erscheinen koennte.

Nichtdestominder wurde aber 3D Animation konstant fortschrittlicher und obwohl im Fall vom Film-Markt um einiges weiter vorne liegt, gibt es irgendwo wohl schon eine Parallele des konstanten Fortschritts beider Maerkte. Ich lese schon seit Jahren von angeblicher "Stagnation" oder imaginaeren "Schwellen" die nicht theoretisch ueberwaeltigt werden koennen; Loesungen scheint es aber immer bis jetzt zu geben.

Coda
2006-01-21, 15:26:31
Schonmal das Project-Offset-Video gesehen? Da gibts überall Motion-Blur und es sieht sau geil aus :)

RLZ
2006-01-21, 15:29:45
Bei einem Film handelt es sich nur um quasi Wiedergabe, wobei man in einem 3D Spiel natuerlich auch "Interaktivitaet" mitberechnen sollte. Eins der Gruende warum wahres motion blur auf dem PC entweder sehr spaet oder auch nie erscheinen koennte.
Vorberechnung kann auch bei einer einfachen Wiedergabe zu einer deutlichen Beschleunigung führen.
Die Filmindustrie erschlägt aber vieles einfach mit Rechenleistung.

Nichtdestominder wurde aber 3D Animation konstant fortschrittlicher und obwohl im Fall vom Film-Markt um einiges weiter vorne liegt, gibt es irgendwo wohl schon eine Parallele des konstanten Fortschritts beider Maerkte. Ich lese schon seit Jahren von angeblicher "Stagnation" oder imaginaeren "Schwellen" die nicht theoretisch ueberwaeltigt werden koennen; Loesungen scheint es aber immer bis jetzt zu geben.
Beide nähern sich an einen Grenzwert an. Dass der Unterschied zwischen beiden Märkten schrumpft ist somit klar.
Diese oft genannten Grenzen werden sich durch neue Erkenntnisse auch weiterhin verschieben. Das ist aber ja in allen Forschungsrichtungen der Fall. ;)

Gast
2006-01-21, 15:43:09
Uhmmm angenommen wir wuerden AA und motion blur komplett weglassen, waere es moeglich etwas vom Nivaeu wie Finding Nemo in Echtzeit auf einem PC mit akzeptabler Leistung zu rendern?



ich würde mal sagen, dass man für heutige bildschirme (mit entsprechenden auflösungen) einige szenen durchaus in echtzeit so rendern könnte dass man sie mit freien auge praktisch nicht unterscheiden könnte.

man müsste natürlich sehr viel optimieren, was aber garnicht so schwer ist, da ein film nicht interaktiv ist und die kamerabewegung vorgegeben ist. dadurch kann man schon mal die details entfernterer objekte deutlich reduzieren, ohne dass es groß auffällt.

meines erachtens können aktuelle tech-demos von ati und NV qualitativ schon locker mit diversen renderfilmen alá monster-ag mithalten.

Ailuros
2006-01-21, 15:58:49
Schonmal das Project-Offset-Video gesehen? Da gibts überall Motion-Blur und es sieht sau geil aus :)


Natuerlich hab ich's gesehen; ist das Zeug wirklich motion blur oder motion trail?

Ailuros
2006-01-21, 16:03:02
ich würde mal sagen, dass man für heutige bildschirme (mit entsprechenden auflösungen) einige szenen durchaus in echtzeit so rendern könnte dass man sie mit freien auge praktisch nicht unterscheiden könnte.

man müsste natürlich sehr viel optimieren, was aber garnicht so schwer ist, da ein film nicht interaktiv ist und die kamerabewegung vorgegeben ist. dadurch kann man schon mal die details entfernterer objekte deutlich reduzieren, ohne dass es groß auffällt.

meines erachtens können aktuelle tech-demos von ati und NV qualitativ schon locker mit diversen renderfilmen alá monster-ag mithalten.


Da ich Finding Nemo als Beispiel benutzt habe, schau Dir mal das Filmchen bei Gelegenheit nochmal genauer an.

Und nein ich mein jetzt nicht einen gigantischen Cluster mit zahllosen Quadro/FireXL nebeneinander, sondern einen bezahlbaren mainstream PC.

Gast
2006-01-21, 19:49:36
Kommt drauf an, wie weit man Grafikkartenentwicklung fasst.

Die Grafikkarte vom grundsätzlichen Prinzip, wie sie heute existiert wird sicher irgendwann ausgediehnt haben. Dann sehen Bilder auf dem Monitor so aus, wie auf einem gestochen scharfen Fernseher, der nichts zeigt, als die blanke Realität, die wir als Realität bezeichnen. Nur dass die Bilder dann interaktiv sind. Dieses Ziel mit der Mathematischen Grenzwert-Betrachtung zu vergleichen halte ich nicht für angebracht, weil es hier ja nicht um das erreichen der Grenzen der Natur (wie es beim Erreichen der lokalen Lichtgeschwindigkeit der Fall ist) geht, sondern um das bloße kopieren der Natur. Zwar lässt sich diese nicht perfekt bis in alle Einzelheiten kopieren (und das wäre dann das Erreichen der natürlichen Grenze), aber der Makrokosmus und zum Teil der Mikrokosmus, sprich alles, dass wir sehen, lässt sich, wenn auch schon mit recht physikalischen Formeln, mit zukünftigen Grafikkarten realitätsgetreu nachbilden.
Was aber dann folgt, ist der subjektive Eindruck, der subjektive Einfluss auf die Bilder. Jeder Mensch nimmt seine Natur anders wahr und spätestens dann, wenn die Entwickler auf Basis von psychologischen Daten solche Einflüsse mit in ihre Spiele einbauen wollen, hat die traditionelle Grafikkarte ausgediehnt. Dann kommen die Geräte, die direkt im Gehirn die Bilder erzeugen.

Gast
2006-01-21, 21:31:27
Da ich Finding Nemo als Beispiel benutzt habe, schau Dir mal das Filmchen bei Gelegenheit nochmal genauer an.

Und nein ich mein jetzt nicht einen gigantischen Cluster mit zahllosen Quadro/FireXL nebeneinander, sondern einen bezahlbaren mainstream PC.


bereits die geforce4 konnte eine (natürlich stark vereinfachte) szene von final fantasy so rendern dass man sie kaum von der originalszene unterscheiden konnte.

ich glaube nicht dass man da stehen geblieben ist ;)

du wirst natürlich niemals mit einer consumerkarte die datenmengen einer renderfarm verarbeiten können, allerdings durchaus eine stark optimierte szene, die von der originalen praktisch nicht zu unterscheiden ist.

um irgendwelche optimierungen machen sich die pixar-leute natürlich keine gedanken um irgendwelche optimierungen, ob da noch der eine oder andere tag zum rendern dazukommt spielt nicht wirklich eine rolle.

kharthax
2006-01-22, 13:42:10
Wenn ich heutige CGIs in Filmen betrachte, sind wir wirklich einige Jahre davon entfernt realistische Bilder in Echtzeit auf dem Monitor rendern zu lassen.
Man denke nur an den Versuch lebendige Objekte zu animieren ... ok, bei versch. Monstern, Aliens, King Kongs usw. klappt es einigermaßen gut ... mir fällt jedoch kein Beispiel bei dem eine Person (richtig lebensecht) gerendert wurde.
Auf dem PC fallen mir: Riddick und F.E.A.R. (insbesondere der Vorspann) ein, da glaubte ich mit den echten Personen zu interagieren.
Jetzt mal 1000 was die Polygonenzahl (bzw. irgendwelche Kurvenalgorythmen ... siehe Quake3) angeht und ebenfalls 1000 für die Texturgröße (bzw. dynamische Texturgenerierung wäre da um einiges besser) ... und alles sieht echter aus.

Die Problematik der Programmierung wurde schon angesprochen, wenn die Programmierer nicht (was natürlich sehr schwierig ist) die ganze Leistung der Karten/CPUs ausnutzen ... werde ich mit konventioneller Transisortechnik keine "virtuelle Realität" erleben.

Weiteres Problem ist der Suchtfaktor solcher virtueller Realitäten ... im StarTrek-Universum wurde die Holodeck-Sucht in paar Folgen thematisiert.

Hmmm.... was mir zur Mensch/Meschine-Schnittstelle gerade einfällt: um die Rechenleistung einzusparen, vorausgesetzt unser Gehirn ist zu 100% erforscht, könnte man bestimmt die bereits abgespeicherte Objekte aus dem Gehirn aufrufen ... Strasse, Baum (mit vielen sich im Wind bewegenden Blättern), Fluss ... und da hat man bereits 99% des Rechenaufwands gespart ... dann kommen noch die Gegner, die auf dem Objekt (BöserMann#2) basieren und fertig ... ok Schatten, Reflektionen, Physik. Das wären individuelle Spiele, die auch dann anders ... je nach Anwender aussehen.

Ich warte auf die Quantencomputer.

PS: was heutige Spiele unrealistisch macht ist die hohe Auflösung, um den Kinoeffekt zu erzeugen. DeusEx2 hatte eine Option zur Entfernungsunschärfe (wurde sofort realistischer) ... ich zocke deswegen mit hohem AA-Faktor dafür in 800er Auflösung.
PPS: die Interaktion mit der Umgebung ist ein weitere Problem ... bei Area51 konnte man einige Säulen demolieren .... die anderen nicht ... so was ist kontraproduktiv ... in der Hinsicht war F.E.A.R. ein Schritt nach vorne ... die Dogfights fand ich sehr geil ... die Rauch-/Staubentwicklung nach den kurzen Salven, wieder abwarten bis man was sieht ... schon nicht schlecht gewesen (bis auf die Handlung ... kenne wahrscheinlich zu viele japanische Filme :) )

Sphinx
2006-01-23, 08:19:02
http://www.gamershell.com/news/27536.html

^^ LoL

Palpatin
2006-01-29, 19:44:27
Also Animationsfilme find ich schon lange nicht mehr beeindruckend und die Techdemos ATI/NV kommen da schon nah ran .... Vorallem der Vortschritt bei solchen Filmen ist recht flau. Ich konnt z.b bei Kleine Haie große Fische keinen großen Vortschritt zu den Pionier Filmen wie ANTS feststellen. Der erste Animatrix Film fällt mir als positives Beispiel ein der lies die PIXAR Dreamworks Teile richtig alt aussehen. Auch die animierten Teile in HdR StarWars KingKong sind schon sehr beeindrucked und da ist der PC dann doch noch recht weit entfernt. Der Grund warum man Aliens darstellen kann doch solche Probleme hat Menschen realistisch darzustellen ist einfach das die Menschliche Haut durchsichtig ist. Die Haare sind auch net ganz einfach.

up¦²
2006-01-29, 19:49:54
zur info ...
http://projectoffset.com/downloads.html

Old_Player
2006-02-03, 09:59:21
In naher Zukunft sehe ich den neuartigen Beamer ,den das Frauenhofer Institut entwickelt hat, als Ausgabegerät. Er ist schon jetzt in der Lage, die Farben der Tapete, Ecken, Möbel etc, vor dem Abspielen von Filmen zu analysieren und technisch so abzugleichen, das der Film in der Ecke als Fläche, ohne störenden Hintergrund, zu sehen ist.
Dann stelle ich mir den Beamer als Rundumprojektionsgerät an der Decke vor, wo man dann die Spielewelt, rundum im Zimmer projektieren kann. Das mit Höchstauflösung und nahezu realistische Qualität.

Aber ich denke, das bis dahin noch ca. 15-20 Jahre ins Land gehen.

Asmodeus
2006-02-03, 11:06:23
...
Eine andere These waere dass die Groesse der zukuenftigen Bildschirme nicht mehr ueber 30" steigt in der Zukunft, aber dass die Aufloesungen weiterhin skalieren. Bei verrueckt hohen Aufloesungen >2048*XXXX, koennte man sogar mit sehr wenigen AA samples davonkommen. Je kleiner der dpi Wert, desto weniger bemerkt man aliasing (nicht alle Formen natuerlich).
...

Auch das wird wohl noch eine Menge Zeit und Entwicklungsarbeit in Anspruch nehmen. Bei 3840x2400 und einer Pitchgröße von 0.12 bringt AA > 4x auf jeden Fall noch eine sichtbare visuelle Verbesserung. Würde die Pitchgröße nochmals halbiert werden und die Auflösung nochmal verdoppelt, dann könnte 4xAA vielleicht schon ausreichend sein. Gut, also 7680x4800 und 0.06 Pitchgröße, naja, kann sich bestimmt jeder selbst denken, in wie viel Jahren das mal Mainstream ist. ;) Somit bin auch ich der Meinung, dass von einem Ende der Entwicklung im Grafikkartenmarkt noch lange nicht die Rede sein kann.

Gruss, Carsten.

Coda
2006-02-03, 11:23:03
Natuerlich hab ich's gesehen; ist das Zeug wirklich motion blur oder motion trail?Nach dem Slow-Mo sollte es eigentlich Blur sein.

tokugawa
2006-02-04, 06:42:37
Denkt doch nicht so konservativ.


Die Rendering Equation ist das Ziel!

aths
2006-02-04, 08:49:59
Ich glaube nicht, dass wir jemals einen Chip haben werden, der in Echtzeit Grafiken berechnen kann, die sich von der Realität nicht mehr unterscheiden lassen.

Nehmen wir als Beispiel mal die Animationsfilme. hier rendern ganze serverfarmen stundenlang an einem Bild. Daher ist hier der Rechenaufwand pro Bild um den Faktor einer Million oder mehr vergrößert.Ja und. Angenommen, die Grafik-Rechenleistung verdoppelt sich pro Jahr. (Tatsächlich steigt die Leistung schneller.) Dann dauert es nur knapp 20 Jahre, und wir haben eine Million mal mehr Leistung.

In 10 Jahren entspräche das einer Vertausenfachung. Vor 10 Jahren gabs als modernsten Chip vielleicht die Voodoo Graphics. Die hatte 50 Megatexel und 200 Millionen mathematische MAD-Ops in 32-Bit-Genauigkeit pro Sekunde. Heute gibt es einzelne Karten mit 13200 Megatexel (ok, nur das 264-fache) und 105600 Millionen MAD-Ops, allerdings in 128 Bit, also das über 2000-fache. ATIs X1900 XTX schafft sogar 124800 Millionen MAD-Ops in 128 Bit, also ca. das 2500-fache der Voodoo Graphics. Dabei zähle ich nur den Pixelshader, der Vertexshader steuert weitere 26000 Millionen MADs bei.

paul.muad.dib
2006-02-04, 09:17:11
mmh, das ist ein Argument. 2 Sachen würde ich aber zu bedenken geben:

Zum einen ist nicht gesagt, dass die Entwicklung bei der Grafikkarten immer so weitergeht. Seit der Anfangszeit hat sich doch die Geschwindigkeit doch schon mehrklich abgeschwächt. Wenn wir nach wie vor eine Verdopplung pro Jahr hätte, müssten wir jetzt die 16-fache Leistung des r300 haben. Dazu kommen andere Größen wie die Speicherbandbreite und -Menge, die sich weit weniger dynamisch entwickleln.

Irgendwie fällt es mir schwer zu glauben, dass das Tempo die nächsten 20 Jahre beibehalten wird. Und, wie ich geschrieben habe, sind die filme slebst mit der Millionenfachen Leistung noch alles andere als realistisch.

Als zweites zitiere ich dich mal selber:

Die GeForce 256 mit gleich vier Pixelpipes setzte das Konzept fort. Dabei handelt es sich (wie wohl auch schon bei der Riva TNT) um eine Quad-Pipeline, die immer ganze 2x2-Pixelblöcke rendert. Auch wenn man wie bei der GeForce2 MX nur zwei Pixel-Pipelines hat, bleibt das Quad-Konzept, dann braucht jede Operation auf ein Quad eben zwei Takte. Doch rendert man keine einzelnen Pixel mehr, sondern Pixelblöcke, kommt es am Rand von Dreiecken zwangsläufig zum "Verschnitt". Die Effizienz ist nicht so gut, als hätte man echte unabhängige Pixel-Pipelines. Solche Kompromisse wurden aber nötig, um die große Zahl an Pixel-Pipelines überhaupt realisieren zu können – einmal mehr ein Kompromiss zu Lasten der Effizienz. Die deutlich erhöhte Rohleistung macht das aber mehr als wett.

Will heießen, die gestiegende Rohleistung kann nicht 1:1 in Leistung umgesetzt werden, weil mit der Steigerung meistens auch Effizienzverschlechterungen einhergehen.

aths
2006-02-05, 02:30:37
mmh, das ist ein Argument. 2 Sachen würde ich aber zu bedenken geben:

Zum einen ist nicht gesagt, dass die Entwicklung bei der Grafikkarten immer so weitergeht. Seit der Anfangszeit hat sich doch die Geschwindigkeit doch schon mehrklich abgeschwächt. Wenn wir nach wie vor eine Verdopplung pro Jahr hätte, müssten wir jetzt die 16-fache Leistung des r300 haben. Dazu kommen andere Größen wie die Speicherbandbreite und -Menge, die sich weit weniger dynamisch entwickleln.

Irgendwie fällt es mir schwer zu glauben, dass das Tempo die nächsten 20 Jahre beibehalten wird. Und, wie ich geschrieben habe, sind die filme slebst mit der Millionenfachen Leistung noch alles andere als realistisch.

Als zweites zitiere ich dich mal selber:

Will heießen, die gestiegende Rohleistung kann nicht 1:1 in Leistung umgesetzt werden, weil mit der Steigerung meistens auch Effizienzverschlechterungen einhergehen.Der R300 kam vor knapp 4 Jahren, die 4 Jahre sind noch nicht ganz rum. Die 9700 Pro kam mit 325 MHz, und 8 ALUs im PS (96 Bit). Macht 10400 Millionen 96-Bit-MAD-Instruktionen. Die X1900 XTX hat wie gesagt 124800 Millionen. Das ist das 12-fache, aber in 128 Bit. Verrechnet man die Bittiefe mit, stieg die Leistung um genau Faktor 16.

Dass die Speicherbandbreite langsamer steigt ist nicht so schlimm, wenn man viel rechnen will. Die Effizienz steigt auf der anderen Seite zusätzlich noch. Man siehe zum Beispiel Dynamic Branching oder ein größeres Ressourcen-Limit als früher.

Am PC oder der Konsole ist keine Kino-Qualität nötig. Man kann erheblich Details weglassen und immer noch ein sehr gutes Bild erzeugen.

paul.muad.dib
2006-02-05, 12:13:03
Es ging doch darum, dass Graphikkarten Fotorealistische Bilder in Echtzeit berechnen können. Dass sich die Bilder verbessern, ist unstrittig.

Für die Rechnung hast du dir jetzt einen Faktor herausgegriffen, der so stark gestiegen ist. Zugegeben, es ist wohl der wichtigste ;-), aber was ist mit den anderen? Braucht man nicht für durchgehend extrem hochauflösende Fototexturen und höhere Polygonzahlen auch mehr Füllrate?

Bei der Effizienz bin ich noch nicht ganz überzeugt. Mit der größeren Anzahl an Rechenwerken steigt doch auch die W'keit, dass eines nicht ausgelastet ist, Wenn z.b. ein Quad gerade ein Polygon ohne aufwendige Shader rechnet.

aths
2006-02-05, 14:04:18
Es ging doch darum, dass Graphikkarten Fotorealistische Bilder in Echtzeit berechnen können. Dass sich die Bilder verbessern, ist unstrittig.

Für die Rechnung hast du dir jetzt einen Faktor herausgegriffen, der so stark gestiegen ist. Zugegeben, es ist wohl der wichtigste ;-), aber was ist mit den anderen? Braucht man nicht für durchgehend extrem hochauflösende Fototexturen und höhere Polygonzahlen auch mehr Füllrate?

Bei der Effizienz bin ich noch nicht ganz überzeugt. Mit der größeren Anzahl an Rechenwerken steigt doch auch die W'keit, dass eines nicht ausgelastet ist, Wenn z.b. ein Quad gerade ein Polygon ohne aufwendige Shader rechnet.Auf dem Monitor brauchen wir zunächst keinen Fotorealismus, TV-Realismus sollte vorerst genügen. Durch Dynamic Branching (jedenfalls auf R520/580-Niveau) können die Units der GPU besser ausgelastet werden als ohne, schön CPU-schonend. Wenn du Fotorealismus als Ziel hast, sind fast alle Pixel aufwändig zu "shaden", sei es nur für die dynamische Beleuchtung. Dass wir in 10 Jahren Grafikkarten haben werden, die Faktor 1000 stärker sind als die heutigen, halte ich für gut möglich. Selbst wenn wir eine Verlangsamung der Leistungsentwicklung unterstellen, und die Vertausendfachung geschlagene 15 Jahre dauern sollte – wenn man bedenkt, was der Gamecube zeigen kann (Resident Evil 4), wie wenig die heutigen Top-Karten genutzt werden und wozu sie eigentlich imstande wären, sollte die tausendfache Leistung locker hinreichen, extrem gute Bilder zu rendern die dem Fotorealismus sehr nahe kommen.

Mit D3D10 und den Nachfolgern wird die Grafikberechnung auf Hardware-Ebene ohnehin etwas anders werden, was wieder der Effizenz zugute kommt. Und nebenbei auch Leistungssteigerung vereinfacht (Unified-Shader-Konzept. Wird von D3D10 noch nicht gefordert, aber das ist die Zukunft.) Textur-Handling wird mit virtualisiertem Speicher und der Möglichkeit von Texture-Arrays auch verbessert.

paul.muad.dib
2006-02-05, 17:48:14
Wäre schön, wenn du recht hast. das wäre wirklich eine spannende Zeit. Und eines Tages können wir dann unseren Kindern erzählen, wie es früher war, als wir noch über so Sachen wie Kantenglättung und matschige Texturen diskutiert haben oder dass das erste Shaderwasser wie Quecksilber ausgesehen hat.

Gast
2006-02-05, 19:25:51
Der Beitrag erübrigt sich doch von selbst.
Nichts ist auch nur ANSATZWEISE am Ende.
Wenn ich mir den Flight Sumulator X anschaue der Dual Core und 7800 GTX empfiehlt, dann denk ich zwar "ganz nett", aber nach REALITÄT SIEHT DAS NICHT AUS.
Und um 1:1 durch Satellitenfotos fliegen zu können, ja da muss noch eine ganze Weile weiterentwickelt werden, lieber Threadstarter ;)

Demirug
2006-02-05, 19:34:08
Der Beitrag erübrigt sich doch von selbst.
Nichts ist auch nur ANSATZWEISE am Ende.
Wenn ich mir den Flight Sumulator X anschaue der Dual Core und 7800 GTX empfiehlt, dann denk ich zwar "ganz nett", aber nach REALITÄT SIEHT DAS NICHT AUS.
Und um 1:1 durch Satellitenfotos fliegen zu können, ja da muss noch eine ganze Weile weiterentwickelt werden, lieber Threadstarter ;)

Nur fehlt es da in erster Linie gar nicht mal so sehr an der Rechenleistung. Die Entwickler von FSX geben an das es vorallem an mehr Speicher fehlt.

Asmodeus
2006-02-06, 09:02:49
Nur fehlt es da in erster Linie gar nicht mal so sehr an der Rechenleistung. Die Entwickler von FSX geben an das es vorallem an mehr Speicher fehlt.

Auch in der Informatik gilt irgendwie das Gesetz der Physik: "Was Du an Arbeit einsparen willst, dass musst Du an Weg zusetzen." oder eben auf die Informatik umgesetzt. "Was Du an Rechenleistung einsparen willst, dass musst Du an Speicher zusetzen." Und so wird es bei FSX wie vielen anderen Dingen auch sein. Die Rechenleistung ist einfach nicht vorhanden, um alle Dinge "on the fly" zu berechnen, also müssen so viele Sachen wie möglich vorberechnet und abgespeichert werden. Nur ab einer gewissen Komplexität wird dann eben auch der Speicherverbrauch sehr groß. Also ist fehlender Speicher eigentlich immer auf fehlende Rechenleistung indirekt zurückzuführen.

Gruss, Carsten.

Neomi
2006-02-06, 11:28:24
Nur ab einer gewissen Komplexität wird dann eben auch der Speicherverbrauch sehr groß. Also ist fehlender Speicher eigentlich immer auf fehlende Rechenleistung indirekt zurückzuführen.

Das gilt aber nur sehr eingeschränkt. Viele Daten müssen einfach vorhanden sein, die kann man auch durch noch so viel Rechenzeit nicht kompensieren. Es gibt zwar auch Dinge, die man prozedural ermitteln kann, aber die sind doch sehr eingeschränkt.

aths
2006-02-06, 12:11:18
Das gilt aber nur sehr eingeschränkt. Viele Daten müssen einfach vorhanden sein, die kann man auch durch noch so viel Rechenzeit nicht kompensieren. Es gibt zwar auch Dinge, die man prozedural ermitteln kann, aber die sind doch sehr eingeschränkt.Naja. Wenn man einen Flugsimulator realisieren möchte, der tatsächlich existierende Gebiete mit hohem Detailgrad bieten soll, braucht man natürlich massenhaft digitalisiertes Rohmaterial. Ansonsten könnte man mit ausgefuchstem Tiling realistische Szenen auch mit deutlich weniger Speicherverbrauch realisieren. Im Prinzip bin ich ein Befürworter für mehr Speicherplatz auf Grakas. 2 GiB halte ich trotz Texturkompression nicht für übertrieben, wenn man dem Fotorealismus nahe kommen möchte. Und Texturen zu samplen wird noch auf sehr lange Zeit deutlich schneller sein, als Material zu berechnen. Zumal man vieles, wie du ja auch gesagt hast, nicht sinnvoll berechnen kann.

Asmodeus
2006-02-06, 12:57:45
Das gilt aber nur sehr eingeschränkt. Viele Daten müssen einfach vorhanden sein, die kann man auch durch noch so viel Rechenzeit nicht kompensieren. Es gibt zwar auch Dinge, die man prozedural ermitteln kann, aber die sind doch sehr eingeschränkt.

Nur wäre gerade in Bezug auf einen Flugsimulator wie FSX interessant zu wissen, welche Daten genau so viel Speicher benötigen und nicht wärend der Darstellung gestreamt werden können.

Gruss, Carsten.

Gast
2006-02-06, 13:24:59
Nur fehlt es da in erster Linie gar nicht mal so sehr an der Rechenleistung. Die Entwickler von FSX geben an das es vorallem an mehr Speicher fehlt.

Also sind 512MB VRAM und 2GB RAM für anspruchsvolle Anwendungen eben doch nur Pipifax, und die Reviews und User die sagen das wäre mehr als genug BÖSE TECHNIKBREMSEN DIE MIR DEN FLUGSPASS werderben, um es mal etwas ironisch zu sagen.

Demirug
2006-02-06, 13:27:39
Also sind 512MB VRAM und 2GB RAM für anspruchsvolle Anwendungen eben doch nur Pipifax, und die Reviews und User die sagen das wäre mehr als genug BÖSE TECHNIKBREMSEN DIE MIR DEN FLUGSPASS werderben, um es mal etwas ironisch zu sagen.

Für die Texturen die enthalten sind reicht es ja. Die Entwickler meinte das sie bessere Bodentexturen hätten die aber aufgrund der Speichersituation keinen Sinn machen.

RLZ
2006-02-06, 14:00:18
Nur wäre gerade in Bezug auf einen Flugsimulator wie FSX interessant zu wissen, welche Daten genau so viel Speicher benötigen und nicht wärend der Darstellung gestreamt werden können.
Streamen wird man alles in irgendeiner Form können.
Übel sind wohl vorallem Terraintexturen+Normalmap.
Zum Speicherverbrauch des Clipmappings wurden in Hoppes Paper glaub ich Angaben gemacht, die afaik durch Streaming und Komprimierung nicht allzu hoch waren.

Ansonsten bleibt ja nicht mehr soviel übrig. Die Objektdetails sind ja relativ überschaubar....

Asmodeus
2006-02-06, 14:11:45
Ist schon bekannt, in welcher Rasterauflösung die Terraindaten (Geometrie- und Texturdaten) bei FSX vorliegen?

Gruss, Carsten.

Gast
2006-02-06, 14:30:55
Für die Texturen die enthalten sind reicht es ja. Die Entwickler meinte das sie bessere Bodentexturen hätten die aber aufgrund der Speichersituation keinen Sinn machen.

ja eben...man muss aber erst die Hardware auf den Markt werfen und dann zieht die Software nach.
Darum finde ich diese "256MB reichen momentan"-Diskussion völlig schwachsinnig aus.
Vor 10 Jahren hat ein 386er auch völlig ausgereicht...was wäre passiert wenn man auf diese IQ-70 Leute gehört hätte und die Entwicklung des 486ers eingestellt hätte...
....ganz genau...."640KB RAM sind für jeden genug...."

Also diese "Der Grafikkartenmarkt soll stagnieren" und "512MB VRAM, wo soll das hinführen?"-Debatte kann man ganz getrost mit "Aufen auf, klappe zu" beantworten.
Trotzdem nehme ich mich dieser Leute an, und verkaufe ihnen gerne meine alte Geforce 2 MX mit 32MB RAM für 100 Euro Freundschaftspreis, dann könnt ihr ja eure Pixelspiele mit Freude spielen.

paul.muad.dib
2006-02-06, 15:41:04
ja eben...man muss aber erst die Hardware auf den Markt werfen und dann zieht die Software nach.
Darum finde ich diese "256MB reichen momentan"-Diskussion völlig schwachsinnig aus.
Vor 10 Jahren hat ein 386er auch völlig ausgereicht...was wäre passiert wenn man auf diese IQ-70 Leute gehört hätte und die Entwicklung des 486ers eingestellt hätte...
....ganz genau...."640KB RAM sind für jeden genug...."

Also diese "Der Grafikkartenmarkt soll stagnieren" und "512MB VRAM, wo soll das hinführen?"-Debatte kann man ganz getrost mit "Aufen auf, klappe zu" beantworten.
Trotzdem nehme ich mich dieser Leute an, und verkaufe ihnen gerne meine alte Geforce 2 MX mit 32MB RAM für 100 Euro Freundschaftspreis, dann könnt ihr ja eure Pixelspiele mit Freude spielen.

Es geht doch meistens nicht darum, dass 512 MB generell abgelehnt werden. Nur muss man eben entscheiden, wann es sinnvoll ist und wann nicht. Eine X1300 pro mit 512 MB VRam ist absoluter Blödsinn.

Als rational denkender Käufer stellt man sich halt die Frage, welche Feature oder Zusatzleistung einem welchen Aufpreis wert ist. Deinen Vergleich finde ich ehrlich gesagt schwachsinnig. Es gab sicher Zeiten, wo ein 386 ausgereicht hat. "ausreichen" bedeutet natürlich nicht "optimal sein", aber es war eben damals für viele das beste Produkt in Punkto P/L. Durch Fortschritte in Produktion- und Entwicklung sinken die Preise, wodurch sich die Gewichtung dessen, was in Punkto P/L optimal ist, weiter verschiebt.

Anders gesagt, wäre es zu 386 Zeiten einfach Blödsinn gewesen, heutige Software zu benutzen und dementsprechende Hardware zu kaufen, dann hätten wir wieder Kleiderschrank-PCs gehabt.

Demirug
2006-02-06, 20:56:55
Ist schon bekannt, in welcher Rasterauflösung die Terraindaten (Geometrie- und Texturdaten) bei FSX vorliegen?

Gruss, Carsten.

Ich habe derzeit nur Angaben zur neuen Textureauflösung. Von 256*256 für ~1KM² (~5 Meter pro Pixel) bei FS 2004 auf 1024*1024 (~1m pro Pixel) für FSX.

Gast
2006-02-06, 21:22:28
Ich habe derzeit nur Angaben zur neuen Textureauflösung. Von 256*256 für ~1KM² (~5 Meter pro Pixel) bei FS 2004 auf 1024*1024 (~1m pro Pixel) für FSX.

wenn ich mir google-earth in den USA ansehe ist dort aber eine wesentlich höhere texturauflösung vorhanden, dort fehlt zwar leider noch die möglichkeit für texturierte 3d-gebäude, aber es sieht schonmal nicht schlecht aus.

zusätzlich kann man in google-earth noch verdammt schnell große strecken überbrücken und die texturen werden verdammt schnell in den VRAM gestreamt (sofern sie im festplattencache sind)

letzteres hätte eine flugsimulation eigentlich garnicht nötig (bzw. deutlich mehr zeit), so schnell fliegt ein flugzeug auch wieder nicht ;)

warum sind den im flugsimulator nicht deartige texturauflösungen möglich?

Asmodeus
2006-02-07, 08:19:03
wenn ich mir google-earth in den USA ansehe ist dort aber eine wesentlich höhere texturauflösung vorhanden, dort fehlt zwar leider noch die möglichkeit für texturierte 3d-gebäude, aber es sieht schonmal nicht schlecht aus.

zusätzlich kann man in google-earth noch verdammt schnell große strecken überbrücken und die texturen werden verdammt schnell in den VRAM gestreamt (sofern sie im festplattencache sind)

letzteres hätte eine flugsimulation eigentlich garnicht nötig (bzw. deutlich mehr zeit), so schnell fliegt ein flugzeug auch wieder nicht ;)

warum sind den im flugsimulator nicht deartige texturauflösungen möglich?

Wenn mich nicht alles täuscht ist dafür doch die Terrainauflösung im 3D Modus von Google Earth extrem niedrig, oder?

Gruss, Carsten.

aths
2006-02-07, 10:41:02
Nicht niedriger als im 2D-Modus, soweit ich das sehe. Wie nah man rankommt (also neue Details sieht) hängt vom Gebiet ab, ob es dafür schon Highres-Material gibt oder nicht.

Asmodeus
2006-02-07, 11:07:26
Nicht niedriger als im 2D-Modus, soweit ich das sehe. Wie nah man rankommt (also neue Details sieht) hängt vom Gebiet ab, ob es dafür schon Highres-Material gibt oder nicht.

Hmm, sicher, dass wir vom gleichen reden? Im 2D-Modus gibt es doch überhaupt kein Terrainmodell, wozu auch, ist ja nur 2D. Ich meine den Detailgrad der Terraindaten, nicht den Detailgrad der Texturdaten.

Gruss, Carsten.

RLZ
2006-02-07, 11:10:32
Wenn mich nicht alles täuscht ist dafür doch die Terrainauflösung im 3D Modus von Google Earth extrem niedrig, oder?
Auf jeden Fall wesentlich niedriger wie die Texturauflösung.
Wird aber wohl auch mit dem Quellmaterial bzw den Kosten dafür zu tun haben.

aths
2006-02-07, 11:35:49
Hmm, sicher, dass wir vom gleichen reden? Im 2D-Modus gibt es doch überhaupt kein Terrainmodell, wozu auch, ist ja nur 2D. Ich meine den Detailgrad der Terraindaten, nicht den Detailgrad der Texturdaten.

Gruss, Carsten.Ach so, sorry. Ja, die 3D-Daten reichen aber aus, um größere Berge einigermaßen darzustellen. Für den Flugsimulator von MS kaufte ich noch ein spezielles Terrain-Pack, welches nur ein engeres Gitternetz für die Höheninformation bietet, aber die Landschaft deutlich verbessert.

Gast
2006-02-11, 18:58:35
Wenn mich nicht alles täuscht ist dafür doch die Terrainauflösung im 3D Modus von Google Earth extrem niedrig, oder?

Gruss, Carsten.

ich würde mal sagen ausreichend, die texturauflösung ist wesentlich wichtiger.

Asmodeus
2006-02-13, 07:24:54
ich würde mal sagen ausreichend, die texturauflösung ist wesentlich wichtiger.

Ja, bei Google Earth schon ;) aber eben nicht bei einem Flugsimulator, wo die Geometrieauflösung des Terrains schon eine etwas größere Rolle spielt, vor allem bei einem Titel wie FS von Microsoft, der ja durchaus einen realistischen Anspruch hat.

Gruss, Carsten.

aths
2006-02-13, 13:34:17
Ja. Das größte Problem dürfte dabei geometrisches LOD sein. Während man Texturen wunderbar mippen kann, sieht das bei für Displacement Mapping eingesetzten Heightmaps nicht immer korrekt aus.

RLZ
2006-02-13, 14:55:46
Ja. Das größte Problem dürfte dabei geometrisches LOD sein.
Das sieht MS wahrscheinlich anders.
Schliesslich hat H.Hoppe Monate seiner wertvollen Arbeitszeit mit der Entwicklung des Clipmappings verbracht. Und ein Flugsimulator ist imo eines der wenigen Einsatzgebieten, wo die Algo auch wirklich funktioniert.
Während man Texturen wunderbar mippen kann, sieht das bei für Displacement Mapping eingesetzten Heightmaps nicht immer korrekt aus.
Das ist immer eine Frage des relativen Fehlers.
Verschiebt man den Übergang soweit nach hinten, dass der Fehler <~1 Pixel liegt sieht man auch keinen Fehler.
[kleines Video] (ftp://ftp.research.microsoft.com/users/hhoppe/videos/geomclipmap.wmv)

Geomipmapping zB nutzt nur Pointfiltering und schaltet erst das LOD des Patchs um, wenn der Fehler klein genug ist. In seiner Grundform ist es aber zu Batchlastig um solch grosse Terrains darzustellen.

Gast
2006-03-06, 12:22:47
Hey das Thema ist doch wirklich mal genial :) .
Vielleicht ist es ja sogar so,das wenn man zu einem Ende in der Entwicklung gekommen ist, dass plötzlich alle die Lust an sowas verlieren und sich Menschen wieder mehr im richtigen Leben treffen :) .

Haha, der war gut! :)

aths
2006-03-06, 16:20:15
Das sieht MS wahrscheinlich anders.
Schliesslich hat H.Hoppe Monate seiner wertvollen Arbeitszeit mit der Entwicklung des Clipmappings verbracht. Und ein Flugsimulator ist imo eines der wenigen Einsatzgebieten, wo die Algo auch wirklich funktioniert.

Das ist immer eine Frage des relativen Fehlers.
Verschiebt man den Übergang soweit nach hinten, dass der Fehler <~1 Pixel liegt sieht man auch keinen Fehler.
[kleines Video] (ftp://ftp.research.microsoft.com/users/hhoppe/videos/geomclipmap.wmv)

Geomipmapping zB nutzt nur Pointfiltering und schaltet erst das LOD des Patchs um, wenn der Fehler klein genug ist. In seiner Grundform ist es aber zu Batchlastig um solch grosse Terrains darzustellen.Wenn du von sanften Hügeln sprichst, ist Displacement Mapping generell natürlich recht unproblematisch. Anders gesagt kann man bei sehr kontrastarmen, unscharfen Farbtexturen auch falsch filtern, ohne dass es gleich negativ auffällt.

Wenn du Displacementmapping nutzt, um zum Beispiel ein Riffelblech geometrisch darzustellen, ist beim geometrischen LOD kaum ein "poppen" zu verhindern. Erst bei Dreiecken < 1 Pixel umzuschalten killt jede Pipeline. G70 z. B. ist darauf optimiert, mindestens 2x2 Pixel große Dreiecke zu haben, wobei allerdings die durchschnittliche Größe eines Dreiecks bei ca. 50 Pixeln liegen sollte.

Vermutlich wird uns zunächst ohnehin erst mal Parallax Mapping beglücken. Das löst erst mal das Dreiecksgrößen-Problem, aber führt natürlich neue Darstellungsfehler ein.

RLZ
2006-03-06, 18:45:16
Wenn du von sanften Hügeln sprichst, ist Displacement Mapping generell natürlich recht unproblematisch. Anders gesagt kann man bei sehr kontrastarmen, unscharfen Farbtexturen auch falsch filtern, ohne dass es gleich negativ auffällt.
Falsche Filterung bei Landschaften fällt erfahrungsgemäß sehr übel aus. X-D
Landschaften haben halt ein paar besondere statistische Eigenschaften, die man ausnutzen kann.

Wenn du Displacementmapping nutzt, um zum Beispiel ein Riffelblech geometrisch darzustellen, ist beim geometrischen LOD kaum ein "poppen" zu verhindern.
Man kann die LOD-Stufen sanft überblenden. Dann fallen auch etwas größere Fehler nicht auf.
Es ging ursprünglich aber ja ausschließlich um Landschaften.

Erst bei Dreiecken < 1 Pixel umzuschalten killt jede Pipeline.
Bei einem Fehler von 1 Pixel umzuschalten entspricht meistens nicht einer Dreiecksgröße von 1 Pixel.
Die Dreiecke werden normal wesentlich größer sein.

Vermutlich wird uns zunächst ohnehin erst mal Parallax Mapping beglücken. Das löst erst mal das Dreiecksgrößen-Problem, aber führt natürlich neue Darstellungsfehler ein.
Leider ja.
Für mich ist zukünftig Cone Step Mapping ein heißer Kandidat für solche Dinge.

Für Landschaften wird man aber weiterhin auf hohe Dreieckszahlen angewiesen sein.

Gouvernator
2006-03-08, 23:22:26
Warum machen die GraKa Hersteller nicht mal RAMDAC schneller ??? Seit 9800Pro will ich mehr davon weil horizontal Auflösung dadurch recht limitiert wird. Sonst hätte ich bereits jetzt 3840x2300@50Hz

Gast
2006-03-19, 02:02:20
Hey das Thema ist doch wirklich mal genial :) .
Vielleicht ist es ja sogar so,das wenn man zu einem Ende in der Entwicklung gekommen ist, dass plötzlich alle die Lust an sowas verlieren und sich Menschen wieder mehr im richtigen Leben treffen :) .

Oder dass dieses ganze "Grafik hier Grafik da"-Gelaber ein Ende nimmt und die Leute wieder mehr auf den Inhalt schauen. :(

Gast
2006-03-20, 00:15:13
Der R300 kam vor knapp 4 Jahren, die 4 Jahre sind noch nicht ganz rum. Die 9700 Pro kam mit 325 MHz, und 8 ALUs im PS (96 Bit). Macht 10400 Millionen 96-Bit-MAD-Instruktionen. Die X1900 XTX hat wie gesagt 124800 Millionen. Das ist das 12-fache, aber in 128 Bit. Verrechnet man die Bittiefe mit, stieg die Leistung um genau Faktor 16.

Dass die Speicherbandbreite langsamer steigt ist nicht so schlimm, wenn man viel rechnen will. Die Effizienz steigt auf der anderen Seite zusätzlich noch. Man siehe zum Beispiel Dynamic Branching oder ein größeres Ressourcen-Limit als früher.

Am PC oder der Konsole ist keine Kino-Qualität nötig. Man kann erheblich Details weglassen und immer noch ein sehr gutes Bild erzeugen.

Wie schon erwähnt sind das nur theorethische Werte,auch gerne mal vom Marketing verwendet,die mit der FPS-Zahl auf meinem Monitor in keinem Verhältnis stehen.

Oder vervierfacht sich die Performance bei Quad-SLI?

Nehmen wir zB.ein System mit GF3,Celeron733Mhz und nur 64MB Unified-Ram,also eine X-Box1,lege OutRun2 ein und wundere sich wohin eigentlich die Leistung einer GF6 verpufft.

aths
2006-03-20, 02:14:31
Die verpufft doch nicht. Mit der GF6 kannst du in deutlich höheren Auflösungen und BQ-Settings spielen.

Ailuros
2006-03-20, 02:38:49
Die verpufft doch nicht. Mit der GF6 kannst du in deutlich höheren Auflösungen und BQ-Settings spielen.

640*480 + SchmierCunx(tm) (im besten Fall) + 1xAF ;)

Spasstiger
2006-03-20, 02:41:42
640*480 + SchmierCunx(tm) (im besten Fall) + 1xAF ;)
Hö? Also Quake 3 sollte mit einem P3 733 ausreichend schnell laufen und man kann sich mit einer schnellen Grafikkarte dann auch noch 16xS AA und 16:1 AF gönnen.
Oder man spielt das MMORPG Guild Wars, ist in Sachen Prozessorleistung ziemlich anspruchslos, benötigt nur eine halbwegs aktuelle Grafikkarte. Und sieht trotzdem anständig aus.

Ailuros
2006-03-20, 02:45:23
Hö? Also Quake 3 sollte mit einem P3 733 ausreichend schnell laufen und man kann sich mit einer schnellen Grafikkarte dann auch noch 16xS AA und 16:1 AF gönnen.
Oder man spielt das MMORPG Guild Wars, ist in Sachen Prozessorleistung ziemlich anspruchslos, benötigt nur eine halbwegs aktuelle Grafikkarte. Und sieht trotzdem anständig aus.

Das waren uebliche XBox1 settings oben ;)

Gasthaus
2006-03-20, 22:13:22
Die verpufft doch nicht. Mit der GF6 kannst du in deutlich höheren Auflösungen und BQ-Settings spielen.

Jetzt nehm ichs mal streng,

wenn ich eine GF4 herannehme und GameX in 800x600,Max AF,keinAA!Dann hab ich zB.50FPS.

Nun bezweifle ich stark,das die Framezahl einer GF6 entsprechend der Rohleistung mitskaliert.Ich spreche von genau den gleichen Settings wie bei der GF4.Von der Filter-Qualität ganz zu schweigen,denn könnte man eine GF6 dazu zwingen sähs noch düsterer aus.

Das ich in höheren Auflösungen entsprechend schneller zocken kann ist eher Beiwerk,denn Performance ist vorrangig FPS und Quali,zumindest für mich.Die Rohleistung kann in niedrigeren Auflösungen gar nicht in Performance umgewandelt werden.Was sagen TFT limitierte Anwender dazu?

Da ist noch viel zu tun,wir sind lange nicht am Ende der Entwicklung.

Die kriegen angeblich kein 512bittiges SI hin(zu teurer,bla bla...).Aber"billige"900Mhz Samsungs verbauen,und die GPUs so dermassen hochtakten+Lüfterlärm,lachhaft.

Da wird bewusst ausgebremst.Denn mit so einem Interface würden PC-Games endlich weniger FPS-Schwankungen haben.Plötzlich gewinnen 512MB-Vram auch an Bedeutung.Schöne und viele hochaufgelöste Texturen die sich NICHT durch ein 256bitSI quetschen müssen.

turboschlumpf
2006-03-20, 22:23:33
@ Gasthaus

Sei doch so nett und setze hinter ein Satz- auch ein Leerzeichen. Das liest sich sonst echt schrecklich.

Gast
2006-04-11, 18:18:29
Ist euch schon aufgefallen, das die Auflösungen stetig angestiegen sind und dabei sogar noch die Performance verbessert wurde?

Heutige High-End Karten schaffen bei eigentlich jedem Game mindestens 1280x1024 ohne AA flüssig darzustellen, was sich auch bei zukünftigen Games kaum ändern wird.
Vor ein paar Jahren war das noch undenkbar, da war man froh, 1024x768 ohne AA flüssig darstellen zu können.
Heute stellt diese Auflösung selbst mit hohem AA und AF kein Problem mehr dar und es nimmt noch kein Ende.

Die nächsten paar Grafikkartengeneration werden wieder ein paar Prozentpunkte drauflegen und höhere Auflösungen flüssig ermöglichen.

Nur langsam stellt sich ein Problem ein. Wenn bald jede Grafikkarte in der Lage sein wird, eine Auflösung von 2048x1536 mit 6xAA/16xAF darzustellen, ohne stark einzubrechen, wo bleiben dann die passenden Ausgabegeräte?

Da hat sich leider wenig getan in den letzten paar Jahren. Schon damals gab es 21-24" Monitore, die diese Auflösung unterstützt haben.
Was gibt es heute? Immer noch die selben 21-24" Monitore und erste TFTs, die in diese Regionen vorrücken.
Die 24" TFT sind sogar eine herbe Enttäuschung muss ich sagen, da ich 1920x1200 fast schon als Rückschritt sehe.

Wirklich interessant wird erst der Sprung auf 2560x1600, welches derzeit von unbezahlbaren 30" TFTs geboten wird.

Allerdings haben diese bereits eine Bildfläche von 76cm und dieser Bereich lässt sich nicht ewig weiter vergrößern, da entweder das menschliche Sichtfeld oder der Platzbedarf an die Grenzen stößt.

Wie geht es weiter? Wäre es denkbar, das modernere Bildschirme eine weitaus höhere Auflösung bei ansonsten gleicher Bildfläche bieten um den Fortschritt bei den Grafikkarten etwas entgegen zu setzen?

Gouvernator
2006-04-11, 19:04:12
Solang es geht holt man sich nen billigen gebrauchten 21-22 Zöller und lässt die Finger vor überteuerten High-End Displays.

The_Invisible
2006-04-11, 19:08:33
ich selber finde als computermonitor gerade noch 24" ergonomisch, bei größeren geräten verliert man meiner meinung nach die übersicht (vor allem bei normalen desktopbetrieb)... optimal wären soe 21-24" Monitor mit 2560x1600 + vektorbasierenden OS (bei linux geht ja schon ganz gut). wenn der monitor dann interpolieren muss fällt das auch nicht mehr so stark auf bei der auflösung, man müsste halt 24" 0,20mm masken recht günstig herstellen können

mfg

PatkIllA
2006-04-11, 19:18:59
Ich könnte mir mittlerweile auch mehr als 24" gut vorstellen. Ich hab selbst den 17" als Zweitmonitor behalten.
Gegen eine Erhöhung der Auflösung pro Fläche hätte ich aber auch nichts, wenn die Software denn ordentlich mitspielt.

@Gast
da ist aber noch ein wenig hin. Mit 1600x1200 kriegt man bei aktuellen Games immer noch jede Graka ans Limit. Die Spieleentwickler werden auch noch problemlos Wege finden die Grakas auszulasten, wenn sie denn entsprechend verbreitet sind.
Mir kommt es auch so vor, als ob zwischen LowEnd und HighEnd ein immer größerer Spalt klafft.

Gast
2006-04-11, 22:16:36
Die nächsten paar Grafikkartengeneration werden wieder ein paar Prozentpunkte drauflegen und höhere Auflösungen flüssig ermöglichen.



darauf würd ich nicht wetten, neuere effekte sind sehr hardwarefordernd, da wird die mögliche auflösung in zukunft nicht so wahnsinnig stark ansteigen, wenn man nicht auf die neuen effekte verzichten will.

Gast
2006-04-13, 13:42:57
was mich interessiert ist wie sich die Rendering-Leistung verbessert hat.
Also die Filmindustrien setzen ja riesen Render-Farmen ein (schon immer). Wie hat sich jetzt aber die Leistung verbessert.
Wenn man z.B. mal auf nem P3 1000 Mhz was gerendert hat, und das selbe jetzt auf nem Athlon 4000+.
Oder eben ältere Multicore-Systeme und ein 8*fach- Opteron System.

Coda
2006-04-13, 15:53:20
Die kriegen angeblich kein 512bittiges SI hin(zu teurer,bla bla...).Aber"billige"900Mhz Samsungs verbauen,und die GPUs so dermassen hochtakten+Lüfterlärm,lachhaft.
Das ist definitiv billiger.

Asmodeus
2006-04-17, 16:30:44
was mich interessiert ist wie sich die Rendering-Leistung verbessert hat.
Also die Filmindustrien setzen ja riesen Render-Farmen ein (schon immer). Wie hat sich jetzt aber die Leistung verbessert.
Wenn man z.B. mal auf nem P3 1000 Mhz was gerendert hat, und das selbe jetzt auf nem Athlon 4000+.
Oder eben ältere Multicore-Systeme und ein 8*fach- Opteron System.

Im selben Maße, wie sich die Rechenleistung der Renderfarmen verbessert hat, haben sich auch die Qualität und Effekte der CGI-Filme/Animationen verbessert. Sicher, ein Film von der Qualität von "Toy Story" würden heutige Rechner viel schneller berechnen können. Aber Filme mit Effekten wie "Die Unglaublichen" dauern dann eben auch heute sicher noch genauso lange was die Renderzeit anbelangt, wie damals eben "Toy Story" auf der damals aktuellen Hardware.

Gruss, Carsten.