PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mit PS.2 keine "Scherenschnitt-Kanten" mehr?


Gast
2003-09-23, 00:25:59
Ich meine die Ecken und Kanten, die Ati einst mit Truform verhindern wollte...
Nun bei UT3k4 sind sie noch voll da ==> Visier, Haare usw. (genau wie bei Doom3!!!, wenn nicht bei den bots dann beim Enviroment)

http://games.tiscali.cz/images/ut2004/bmg6.jpg

zeckensack
2003-09-23, 02:31:13
Das einzige was gegen Kanten hilft, sind mehr Polygone. Mit dem PS hat das überhaupt nichts zu tun :)

Kampf Ameise
2003-09-23, 02:43:43
pixel shader macht ja ncur die oberfläche und nicht die form

vertex shader macht nurdie bewegungen .. und truform macht die form... aber da die deppen es ja aus der hardware rausnehmen mussten und dann software daraus gemacht haben denkt natürlich niemand mehr drann es in spiele zu implementieren.. da der geschwindigkeitsverlust viel zu stark wär

vielleicht ist es ja auch nur strategisch... die xbox 2 wird vielleicht truform in hardware unterstützen und damit extrem gute objekte liefern können ...

während auf dem pc nur software zur verfügung steht... ein deal von ati und microsoft.. und wenn microsoft will das nvidia untergeht... da nvidia microsoft etwas mit den preisen für den xbox chip verarscht hat..... ausserdem kann microsoft ati insider informationen über dx 10 geben oder dx 9 so kann ati einen vorsprung haben und nvidia wird immer hinterherrennen...

Aquaschaf
2003-09-24, 19:25:32
so "böse" dürfte auch MS nicht sein ;)

del_4901
2003-09-28, 09:34:16
Original geschrieben von Kampf Ameise
vertex shader macht nurdie bewegungen .. und truform macht die form... aber da die deppen es ja aus der hardware rausnehmen mussten und dann software daraus gemacht haben denkt natürlich niemand mehr drann es in spiele zu implementieren.. da der geschwindigkeitsverlust viel zu stark wär

Das ist so nicht richtig, der VS macht die Transformationsarbeit zwischen den "Spaces" (Objektspace -> Eyespace). Ausserdem ist er für die Lichtberrechnung "mit" zuständig. Man kann ihn auch dazu benutzen objekte zu bewegen, aber das ist nicht seine Hauptaufgabe.
Truform ist müll, dadurch verfälscht man die Geometriedaten. Denn der Fragmentshader kennt nur echte Geometrie und nicht die True"ge"formte. Das kann im schlimmsten Fall zu hässlichen Artefakten kommen. Carmack kann ein lied davon singen.
Original geschrieben von Kampf Ameise
vielleicht ist es ja auch nur strategisch... die xbox 2 wird vielleicht truform in hardware unterstützen und damit extrem gute objekte liefern können ...

während auf dem pc nur software zur verfügung steht... ein deal von ati und microsoft.. und wenn microsoft will das nvidia untergeht... da nvidia microsoft etwas mit den preisen für den xbox chip verarscht hat..... ausserdem kann microsoft ati insider informationen über dx 10 geben oder dx 9 so kann ati einen vorsprung haben und nvidia wird immer hinterherrennen...
Das glaub ich nicht wenn dann werden die NURBS- rendering pushen, und somit echte runde Geometrie benutzen. Trueform ist TOT! PS: die Psx3 soll ja angeblich mit NURBS rechnen können.

Dunkeltier
2003-09-28, 13:08:41
Ähm, NURBS beherrscht doch nur der Intel Pentium 4, oder nicht? Dann würde ja das Transform wieder auf die CPU zurückfallen, oder wie? Rückschritt?

Fragman
2003-09-28, 13:11:48
nurbs rendering beherrscht auch schon die ps2 und es koennen alle prozessoren, die frage ist nur, ob sie dafuer optimiert sind. kann man sse2 zur beschleunigung benutzen?

Xmas
2003-09-28, 13:14:37
Original geschrieben von AlphaTier
Das glaub ich nicht wenn dann werden die NURBS- rendering pushen, und somit echte runde Geometrie benutzen. Trueform ist TOT! PS: die Psx3 soll ja angeblich mit NURBS rechnen können.
Ich glaube eher an Subdivision Surfaces in Spielen denn an NURBS. Es wird aber wohl nicht mehr allzu lange dauern, bis beides in Hardware möglich ist.

del_4901
2003-09-28, 14:24:57
Dunkeltier:ähm Alle skalar und Vektorechner CPUs sind prinzipiell für NURBS geeignet. Also auch der Athlon und nicht nur der P4 dasselbe gilt für Sparcs, es handelt sich hierbei nur um ein anderes Modell. GPUs sind aber noch nicht soweit programmierbar. Da bedarf es einiger Änderungen am immernoch fest verdrahtetten Rasterizer

Fragman:und nein die PS2 beherscht kein NURBS rendering die PS2 kann nur unglaublich hoch trianguliern (deswegen die geilen Rundungen)

klar wird ISSE2 dazu benutzt das ganze flotter ablaufen zu lassen.

Xmas: Subdivision Surfaces ist ja Truform. Truform ist eine einfache Art davon. Die Gewichtungspunkte liegen hier in den vertexpunkten. Und wenn Sony das mit dem Cell einhält, sowie die Ausage das das Teil mit NURBS umgehen kann, dann werden wohl alle darauf Abspringen. ;) Ausserdem läst sich mit NURBS leichter rechnen als mit Subdivisions

Xmas
2003-09-28, 15:15:31
Original geschrieben von AlphaTier
Xmas: Subdivision Surfaces ist ja Truform. Truform ist eine einfache Art davon. Die Gewichtungspunkte liegen hier in den vertexpunkten. Und wenn Sony das mit dem Cell einhält, sowie die Ausage das das Teil mit NURBS umgehen kann, dann werden wohl alle darauf Abspringen. ;) Ausserdem läst sich mit NURBS leichter rechnen als mit Subdivisions
TruForm ist kein Subdivision Surfaces, sondern verkappte dreieckige Bézier-Patches. Bei Subdivision Surfaces werden "Connectivity"-Informationen, also die benachbarten Vertices benötigt.
Was mich an NURBS etwas stört ist dass die Evaluierung am einfachsten als rechteckiges Grid erfolgt, was u.U. weit mehr Polygone als nötig produziert.
Aber das eigentlich Wichtigste ist IMO nicht mal die Art der Surfaces, sondern adaptive LOD-Berechnung in Hardware.

del_4901
2003-09-29, 02:14:54
Original geschrieben von Xmas
TruForm ist kein Subdivision Surfaces, sondern verkappte dreieckige Bézier-Patches. Bei Subdivision Surfaces werden "Connectivity"-Informationen, also die benachbarten Vertices benötigt.
Was mich an NURBS etwas stört ist dass die Evaluierung am einfachsten als rechteckiges Grid erfolgt, was u.U. weit mehr Polygone als nötig produziert.
Aber das eigentlich Wichtigste ist IMO nicht mal die Art der Surfaces, sondern adaptive LOD-Berechnung in Hardware.

Wenn's nach mir geht, soll das gar keine Polys produziern, sondern nur Splines. mit dem LOD währ kewl, fehlt noch nen effektiver Nurbs-Cull. mit Raytrace-Cull ;)

Gast
2003-10-16, 00:02:59
Mensch Leute, ich hab's endlich kapiert! =)
Jetzt ist mir auch klar warum Truform nicht weiterentwickelt wurde (HW!).
Alles sieht super rund und detailliert aus, sobald mit Displacement Mapping gearbeitet wird!=)
Beispiel:
http://home.arcor.de/spasstiger/artikel/dis-mapping.jpg
Hatte ich irgendwie noch nicht gepackt...
Aber dann stellt sich die Frage: Wann kommen Spiele mit BM?
Hardware ist ja vorhanden: neben Matrox eben die Ati's seit 9700.

up

Gast
2003-10-16, 00:06:57
Sorry, ganz vergessen:
Ein lieber Mensch hat sich die m¨he gemacht mal den ganzen DX9-Kram zu veranschaulichen:
Für wen's interessiert, hier der Link: DX9 (http://home.arcor.de/spasstiger/artikel/dx9_info.html)

up

betasilie
2003-10-16, 00:08:05
Original geschrieben von Gast
Mensch Leute, ich hab's endlich kapiert! =)
Jetzt ist mir auch klar warum Truform nicht weiterentwickelt wurde (HW!).
Alles sieht super rund und detailliert aus, sobald mit Displacement Mapping gearbeitet wird!=)
Beispiel:
http://home.arcor.de/spasstiger/artikel/dis-mapping.jpg
Hatte ich irgendwie noch nicht gepackt...
Aber dann stellt sich die Frage: Wann kommen Spiele mit BM?
Hardware ist ja vorhanden: neben Matrox eben die Ati's seit 9700.

up
Nur leider können die VS2.0 Karten noch kein DPM. :(

Bis DisplacementMapping eingesetzt wird dauert es bestimmt noch 2-3 Jahre. Da wäre es schön gewesen bis dahin noch TruForm zu haben, imho.

Demirug
2003-10-16, 00:08:31
Original geschrieben von Gast
Hatte ich irgendwie noch nicht gepackt...
Aber dann stellt sich die Frage: Wann kommen Spiele mit BM?
Hardware ist ja vorhanden: neben Matrox eben die Ati's seit 9700.

up

Die Radeons bitte gleich wieder streichen. Das DM dort ist für die Tonne.

Matrox kannst du auch streichen weil man sich dort nicht in der Lage sieht endlich einen Treiber zu schreiben mit dem man es auch nutzen kann.

Ergo: Keine Hardware vorhanden.

betasilie
2003-10-16, 00:14:39
Original geschrieben von Gast
Sorry, ganz vergessen:
Ein lieber Mensch hat sich die m¨he gemacht mal den ganzen DX9-Kram zu veranschaulichen:
Für wen's interessiert, hier der Link: DX9 (http://home.arcor.de/spasstiger/artikel/dx9_info.html)

up
Ist zwar nicht soo ausführlich, aber doch ganz schön zusammengefasst. :up:

Gast
2003-10-16, 00:29:06
Dann wird es mit DM wohl so gehn, wie mit HW T&L, das auch erst mit der 4. Generation (?) gerade angefangen hat zu funzen =)

up

betasilie
2003-10-16, 01:00:03
Original geschrieben von Gast
Dann wird es mit DM wohl so gehn, wie mit HW T&L, das auch erst mit der 4. Generation (?) gerade angefangen hat zu funzen =)

up
Das wird wahrscheinlich so kommen. Afaik ist es je nach Einsatzgebiet schwer ein Spiel mit und ohne den DM zu gestalten, so dass es Spiele mit massiven Einsatz von DM erst geben wird, wenn die installierte Basis von Grafikkarten, die DM beherrschen, ausreichend hoch ist, was wohl einige zeit dauern wird.

Daher würde mich mal interessieren, wieviele Transistoren vernünftiges und komplettes Displcemantmapping nach VS3.0 ca. verbrauchen würde. ... Kann da jemand von euch eine Prognose machen?

ow
2003-10-16, 09:28:36
.

Gast
2003-10-16, 10:47:06
@OW:
Na so dolle warn das aber nicht mit T&L...
T&L - das nicht eingelöste Versprechen (http://www.3dcenter.de/artikel/t_und_l/index8.php)
=)

up

ow
2003-10-17, 09:51:19
.

aths
2003-10-17, 13:24:16
Na, es werden auch objektive Fakten aufgeführt. Die Schlussfolgerung ansich ist imo auch gültig, erst mit der Vertex-Shader-Generation werden langsam die Marketing-Versprechen erfüllt, die Nvidia bereits mit dem NV10 in die Welt setzte.

Quake3 profitierte wohl auch von T&L, aber auch von speziellen Q3-Optimierungen in den Detonatoren.

Quasar
2003-10-17, 13:46:11
Nicht Quake3 und nicht "Versprechungen, die mit dem nV10 in die Welt gesetzt wurden".

Alle OpenGL-Applikationen konnten HW-TnL nutzen und Quake3 ist bei weitem nicht die einzige App dieser Art.

Und was mit einem Feature geschieht, welches groß angekündigt wird (und vielleicht auch nette Möglichkeiten hat), dann aber zu keiner nennenswerten Marktdurchdringung gelangt, weißt du ja selbst.

Ohne ausreichend große 'installed user base' bringt ein Feature, wenn es denn umfassend genutzt werden soll, oder von seiner Art her so angelegt ist, daß es von einem Produkt unter D3D entweder 'umfassend' oder so gut wie gar nicht genutzt wird (im Gegensatz zu PS, wo man nachträglich schnell noch ein paar Quecksilberpfützen einfügen kann), einem Entwickler ausser Kosten nichts ein.

- Wann kamen nochmal Titel, die großflächig auf Bump-Mapping setzten?
- Wie schaut's mit TruForm-Support in aktuellen Games aus?

Mr. Lolman
2003-10-17, 14:25:25
Original geschrieben von Quasar
- Wann kamen nochmal Titel, die großflächig auf Bump-Mapping setzten?
- Wie schaut's mit TruForm-Support in aktuellen Games aus?

Aber mit diesen Features wurde nie so ein aggressives Marketing betreiben. Wenn doch, dann hätten jetzt alle User Radeons, und die R3x0 Owner würden sich bei jede neuem Spiel extrem giften, und die Radeon 8500 wäre der Leistungsking...

Quasar
2003-10-17, 14:37:30
Ja und?

Schalt' doch mal HW-TnL bei UT2003 ab, dann kannst du dir ein Bild davon machen, was du dem "aggressiven Marketing" verdankst.

Nur weil 3dfx es zu 'Lebzeiten' nicht gebacken bekommen hat, HW-TnL marktreif zu basteln, muss man es doch nicht verdammen. An ihrem Tod sind sie allein Schuld und nicht nVidia.

edit:
Im Grunde bestätigst du jedoch meine Argumente, wie ich beim zweiten Lesen erkannte.

ow
2003-10-17, 18:40:31
.

betasilie
2003-10-17, 19:55:45
Original geschrieben von Quasar
Nicht Quake3 und nicht "Versprechungen, die mit dem nV10 in die Welt gesetzt wurden".

Alle OpenGL-Applikationen konnten HW-TnL nutzen und Quake3 ist bei weitem nicht die einzige App dieser Art.

Und was mit einem Feature geschieht, welches groß angekündigt wird (und vielleicht auch nette Möglichkeiten hat), dann aber zu keiner nennenswerten Marktdurchdringung gelangt, weißt du ja selbst.

Ohne ausreichend große 'installed user base' bringt ein Feature, wenn es denn umfassend genutzt werden soll, oder von seiner Art her so angelegt ist, daß es von einem Produkt unter D3D entweder 'umfassend' oder so gut wie gar nicht genutzt wird (im Gegensatz zu PS, wo man nachträglich schnell noch ein paar Quecksilberpfützen einfügen kann), einem Entwickler ausser Kosten nichts ein.

- Wann kamen nochmal Titel, die großflächig auf Bump-Mapping setzten?
- Wie schaut's mit TruForm-Support in aktuellen Games aus?
Full Ack.

Die Hardware T&L-Einheiten von NV10 und NV15 leisten ja schon was, wie man an dem einen oder anderen aktuellen Game sehen kann. Von daher ist imho NV kein Vorwurf zu machen, denn die Developer (ggf. auch die Publisher) entscheiden doch letztendlich wann der Aufwand betrieben wird solche neuen Technologien zu unterstützen.

Demirug
2003-10-17, 20:19:24
Ich glaube ich muss hier mal wieder partei für meine Kollegen ergreifen. HT&L erlaubt zwar die Verwendung von mehr Polygonen nur leicher gibt es da einen kleinen Harken bei der Verteilung dieser zusätzlichen Polys. Man kann mit diesen zusätzlichen Polys nicht einfach mehr Objekte auf den Bildsachirm bringen (Objektanzahl hängt stark von der CPU ab). Daher bleibt nur die möglichkeit übrig die Objekte detailierter zu machen. Als HT&L verfügbar war hatten aber alle auf Low-Poly gearbeitet und mal schnell auf mehr Polys umsteigen ist da leider nicht drin ohne nochmal von vorne anzufangen.

Quasar
2003-10-17, 20:31:16
Genau das meinte ich mit "umfassend oder gar nicht" ....

Und wie's aussieht, wenn von diesen Möglichkeiten Gebrauch gemacht wird (UT2003) und man kein HW-TnL hat, sieht man ja an dessen Frameraten, wenn man mal HW-TnL abstellt.

Wer hätte sich so ein Spiel im Jahre 2000 gekauft? Kaum jemand und Daniel Vogel wäre heute arbeitslos und müsste seinen Körper an Gabe Newell verkaufen. ;)

aths
2003-10-18, 03:53:17
Original geschrieben von Quasar
Alle OpenGL-Applikationen konnten HW-TnL nutzen und Quake3 ist bei weitem nicht die einzige App dieser Art.Sie benutzen es, und nutzen es doch nicht aus...
Original geschrieben von Quasar
- Wann kamen nochmal Titel, die großflächig auf Bump-Mapping setzten?
- Wie schaut's mit TruForm-Support in aktuellen Games aus? TruForm?? Isch 'abe keine ATI, isch 'abe keine TrüFörm.

Viel Bumpmapping... Doom3 wird da wohl das erste Spiel sein.

aths
2003-10-18, 03:56:09
Original geschrieben von ow
Im übrigen gebe ich auch zu Bedenken, dass NV mit der GF richtig im Sektor professioneller Grakas eingestiegen ist.
Bei den dort vorkommenden Polygonzahlen ist HWTL Pflicht und wurde schon lange vor GF von 3dlabs, IBM, u.a. eingeführt. Aus genau diesem Grunde hat NV ja auch T&L entwickelt — für die Quadros. Anschließend haben sie das Feature aggressiv auch für die GeForce-Karten vermarktet, und hierfür Märchen in die Welt gesetzt, die (leider) beinahe jeder geglaubt hat. T&L halte ich für _das_ Parade-Beispiel, wie Marketing Dinge in Köpfe bringt, die dann einfach geglaubt werden, weil die Leute es glauben wollen.

aths
2003-10-18, 04:11:52
Original geschrieben von betareverse
Full Ack.

Die Hardware T&L-Einheiten von NV10 und NV15 leisten ja schon was, wie man an dem einen oder anderen aktuellen Game sehen kann. Die T&L vom NV10 ist schon lange von jeder gängigen CPU überholt.
Original geschrieben von Quasar
Schalt' doch mal HW-TnL bei UT2003 ab, dann kannst du dir ein Bild davon machen, was du dem "aggressiven Marketing" verdankst.UT2003 ist ein Spiel, das T&L nicht nur benutzt, sondern quasi ausnutzt :) (Wenn auch das Spiel ohne T&L noch läuft, siehe Kyro...) Allerdings macht UT2003 wenig Spaß, wenn die Karte zu schwachbrüstig ist, T&L hin oder her.

Was L betrifft, soweit ich weiß, ist Unreal/UT auch deshalb so CPU-lastig, weil die Beleuchtung praktisch nur von der CPU gemacht wird.

Vielleicht darf ich mal in die Runde werfen, überhaupt nicht traurig zu sein, einen sog. Dual-"Vertex Shader" auf dem Chip zu haben.

Quasar
2003-10-18, 09:39:30
Original geschrieben von aths
Sie benutzen es, und nutzen es doch nicht aus...
TruForm?? Isch 'abe keine ATI, isch 'abe keine TrüFörm.
aths oh aths, was wäre denn, wenn sofort mit dem Erscheinen der GF256 alle neu erscheinenden Games TnL _ausnugenutzt_ hätten?

Wer hätte diese Games dann noch spielen können? Welche Developer wären nicht sofort von ihrem Publisher rausgeworfen worden, weil das Spiel sich nicht verkaufte?


Das mit TruForm hast du trotz deiner flapsigen Antwort aber schon verstanden, willst aber nicht näher drauf eingehen, weil's deine Argumentation torpedieren würde, gell?

Original geschrieben von aths
Viel Bumpmapping... Doom3 wird da wohl das erste Spiel sein.

Doom3? Erscheint wann? Nächstes Jahr?
Nun, ich denke, X² wird früher da sein und ebenfalls großflächig verbeult sein, davor gab's vielleicht noch Giants und Evolva sowie Expendable (jeweils mit Patch).

Hm, und wann wurde das (Bumpmapping) denn noch großspurig angekündigt und beworben?
O je... das war ja gar nicht nVidia, und trotzdem dauerte es so lange, bis es großflächig eingesetzt wird....

Vielleicht solltest du mal auf die Argumente eingehen, die da besagen, daß solch ein Feature erst im Markt vorhanden sein muss, bevor Devs es nutzen, anstatt, wie mit deinem flapsigen "isch habe kein Ati" abzulenken.

So entsteht mehr und mehr der Eindruck, der HW-TnL Artikel basiert mehr auf persönlichen Ressentiments wegen der Verschwindens von 3dfx und von enttäuschter Erwartungshaltung, die du aufgrund mangelnden Verständnisses für das Funktionieren des Marktes hast.

Quasar
2003-10-18, 09:44:04
Original geschrieben von aths
Die T&L vom NV10 ist schon lange von jeder gängigen CPU überholt.

Ja? Wenn ich mir so die Unterschiede in ein paar Tests anschaue zwischen Hard- und Software-TnL, kann ich das kaum glauben...

Original geschrieben von aths
UT2003 ist ein Spiel, das T&L nicht nur benutzt, sondern quasi ausnutzt :) (Wenn auch das Spiel ohne T&L noch läuft, siehe Kyro...) Allerdings macht UT2003 wenig Spaß, wenn die Karte zu schwachbrüstig ist, T&L hin oder her.

Stell' dir vor, UT2003 wäre (ohne tolle Texturen und ohne PS-Effekte zur Passreduktion) im Jahre 2000 erschienen....
(Das ist es doch, worüber du dich beschwerst, oder?)

Original geschrieben von aths
Was L betrifft, soweit ich weiß, ist Unreal/UT auch deshalb so CPU-lastig, weil die Beleuchtung praktisch nur von der CPU gemacht wird.

Vielleicht darf ich mal in die Runde werfen, überhaupt nicht traurig zu sein, einen sog. Dual-"Vertex Shader" auf dem Chip zu haben.

Und wer macht das "T"?
Und was ist mit TruForm?
Und was ist mit Soft-TnL - schalt' doch mal ein!

ow
2003-10-18, 09:56:04
.

robbitop
2003-10-18, 10:52:38
@Quasar
wie aths bereits sagt war HTNL mehr PR als nützlich seiner Zeit..und solche Sachen hat man aus Prinzip nicht mitgemacht. Siehe 32bit Spiele damals (kein Sichtbarer unterschied aber riesen Performancedrop)..
Das ist ja auch alles Transistorensverschwendung. Man dachte sich wenn schon denn schon und wollte gleich auf VS PS hinaus...
Aber wie das nun mal in der Realität ist: die Masse der Kunden sind dumm und brauchen eben Propaganda ...naja
3dfx adee

Zum Thema DM:
Afak soll mit dem VS 3.0 sehr ähnliches drin sein. Und der ist ja auch nicht mehr soo weit entfernt.

Aber DM ist natürlich deutlich schwieriger zu implementieren als TrueForm.

betasilie
2003-10-18, 12:17:19
Original geschrieben von ow
Wo siehst du denn da den Unterschied gegenüber aktuellem Marketing? Paradebeispiel PS2.0.
Games mit PS2.0 kommen/kamen ja sogar echt schnell, weil man DX8-Games schnell mal optional ein paar PS2.0-Effekte einbauen kann.

... Aber was ist mit dem Martketing rund um die GeForce3-Serie und ihren tollen PS nach DX8? Es hat imo länger gedauert bis diese PS genutzt wurden, als wie T&L genutzt wurde.

Im grunde genommen kommen erst seit kurzem "DX8-Games", die die PS überhaupt richtig nutzen. Das hat also mehere Jahre gedauert.


@aths
.... Ich verstehe einfach nicht, was der Chipentwickler dafür kann, wenn die Developer Funktionen einens Chips erst verzögert nutzen. ... Wieso machst Du NV da einen Vorwurf und nicht den Entwicklern von Gamesoftware?

Quasar
2003-10-18, 12:42:14
Original geschrieben von robbitop
@Quasar
wie aths bereits sagt war HTNL mehr PR als nützlich seiner Zeit..und solche Sachen hat man aus Prinzip nicht mitgemacht. Siehe 32bit Spiele damals (kein Sichtbarer unterschied aber riesen Performancedrop)..
Das ist ja auch alles Transistorensverschwendung. Man dachte sich wenn schon denn schon und wollte gleich auf VS PS hinaus...
Aber wie das nun mal in der Realität ist: die Masse der Kunden sind dumm und brauchen eben Propaganda ...naja
3dfx adee[...]

Auch für dich nochmal:

Wenn es keine installierte HW-Basis gibt, wird kein Dev auf der Welt sowas einbauen, da keine potentielle Kundschaft vorhanden ist.

Henne-Ei-Problem und einer muss den Anfang machen. Klar, wenn 3dfx dann nach vier Jahren auf den TnL-Zug aufgesprungen wäre, hätt's geheißen, dass dann die Zeit reif gewesen wäre... Aber von wessen Vorarbeit man profitiert hat, das wäre verschwiegen worden.

Früher war das anders, da hat ein Richard Garriot oder Chris Roberts drauf gesch***en, ob man sich für sein Game einen neuen Rechner kaufen musste, aber da waren die Budgets noch ganz andere und man war nicht gleich tot, wenn ein Game floppte (siehe Ultima VIII).

robbitop
2003-10-18, 12:47:24
Mit dem Henne Ei Problem magst du generell Recht haben, allerdings ist es nicht so als wolle 3dfx nicht das Ei für die Henne liefern und damit eine "Technologiebremse" sein.
Man wollte lediglich das Feature erst implementieren, wenn de GPUs schnell genug dafür währen (sprich ein oder 2 Generationen weiter). Und HWTNL ist nicht annähernd so sinnig wie frei Programierbare Licht und Schatten Einheiten..somit hat man das übersprungen. Das ist imo etwas anderes als eine Technologie bremse zu bauen. 3dfx wollte lediglich nutzbare Dinge implementieren um Transistoren und Dev Zeiten zu kürzen. Und zu der Zeit war 32bit eben einfach noch unsinn. AFAIR erst ab der Geforce3 gab es keine Performance Drops mehr...

betasilie
2003-10-18, 14:04:41
Original geschrieben von robbitop
Mit dem Henne Ei Problem magst du generell Recht haben, allerdings ist es nicht so als wolle 3dfx nicht das Ei für die Henne liefern und damit eine "Technologiebremse" sein.
Man wollte lediglich das Feature erst implementieren, wenn de GPUs schnell genug dafür währen (sprich ein oder 2 Generationen weiter). Und HWTNL ist nicht annähernd so sinnig wie frei Programierbare Licht und Schatten Einheiten..somit hat man das übersprungen. Das ist imo etwas anderes als eine Technologie bremse zu bauen. 3dfx wollte lediglich nutzbare Dinge implementieren um Transistoren und Dev Zeiten zu kürzen. Und zu der Zeit war 32bit eben einfach noch unsinn. AFAIR erst ab der Geforce3 gab es keine Performance Drops mehr...
Imo sollten Hardwarefeatures schon vor einer wirklich sinnvollen Nutzung in die Hardware eingebaut werden, so auch bei 32bit, damit sich die Hardware- und Softwareentwickler schonmal mit der Thematik beschäftigen können. Klar war 32bit eine üble Marketingverarsche zu diesem Zeitpunkt, aber an sich ist es doch nicht verwerflich, dass ein Hersteller schonmal Technologien integriert, die noch nicht nutzbar sind.

...
Übrigens:
Man wollte lediglich das Feature erst implementieren, wenn die GPUs schnell genug dafür gewesen wären. ;)

ow
2003-10-18, 14:14:36
.

betasilie
2003-10-18, 14:32:23
Original geschrieben von ow
PS2.0 ist derzeit auch nur Maketing, brauchen tut das keiner. Ich habe noch keinen Effekt gesehen, der zwingend auf PS2.0 angewiesen ist.
Schau mal hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1289059#post1289059) .
Das könnte ein PS2.0-only Effekt sein.

PS2.0-Effekte sind vielleicht nicht zwingend, aber wenn z.B. das Wasser in HL2 mit PS2.0 besser aussieht, als mit PS1.1, handelt es sich schon um ein handfestes Argument für DX9-Karten. Du kannst ja nicht erwarten, dass für PS2.0 sofort alles neu erfunden wird. Mehr Präzision sieht man halt mehr oder weniger, je nach Effekt.

Aquaschaf
2003-10-18, 15:14:38
Ich würde PS2 und HWTL in der Hinsicht auch nicht gleichsetzen, HWTL dient ja "nur" dazu Dinge zu beschleunigen während PS2 ja wirklich neue Effekte ermöglicht.

ow
2003-10-18, 17:30:32
Original geschrieben von betareverse
Schau mal hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1289059#post1289059) .
Das könnte ein PS2.0-only Effekt sein.

PS2.0-Effekte sind vielleicht nicht zwingend, aber wenn z.B. das Wasser in HL2 mit PS2.0 besser aussieht, als mit PS1.1, handelt es sich schon um ein handfestes Argument für DX9-Karten. Du kannst ja nicht erwarten, dass für PS2.0 sofort alles neu erfunden wird. Mehr Präzision sieht man halt mehr oder weniger, je nach Effekt.


Die Frage ist doch: Sieht es wirklich besser aus oder will und das Marketing das nur suggerieren?

ow
2003-10-18, 17:32:23
.