Archiv verlassen und diese Seite im Standarddesign anzeigen : Die Shader-3-Lüge
Sentionline
2007-01-25, 04:38:49
1. Aussage: Im Februar 2004 erscheint die NV40 alias GeForce 6800 Ultra, und die ersten Tec-Demos der neuen Unreal Engine 3 alias Shader Model 3 flimmern über die Bildschirme und machen einem zu glauben, das wir "schon bald" solche Grafiken genießen dürfen.
Antwort: falsch - die NV40 wird Spiele mit dieser Technik wegen mieser Programmierarbeit nicht flüssig darstellen.
2. Aussage: Im Jahr 2005 kommt die PCIe und AGP wird für Tod erklärt. Keine weiteren Techniken werden von nun an für AGP hergestellt. Jedem wird geraten auf PCIe umzusteigen.
Antwort: falsch - Selbst die G71 & R5xx werden aktuell auch für AGP angeboten und hergestellt
3. Aussage: Mit der einführung der G70 alias GeForce 7 reihe wird die Shader 2.0 Technik des R4xx alias X800 für Tod erklärt. Jedem wird empfohlen für die Zukunft Shader 3.0 Hardware zu kaufen.
Antwort: falsch- 98% der aktuellen Spiele laufen auf Shader 2.0 Hardware
4. Aussage: Stranglehold (http://www.gamestar.de/magazin/preview/action/stranglehold/1465555/stranglehold.html) wieder verschoben (http://www.gamestar.de/news/pc/spiele/action/stranglehold/1467652/stranglehold.html) (Unreal Engine 3), und somit erscheint das erste Spiel mit der Unreal Engine 3 auf dem PC 3,5 Jahre nach den ersten Tec-Demo.
Antwort: richtighttp://img164.imageshack.us/img164/6244/tilgeangelighedkrone8ss.gif - neue Technik schnell verfügbar (4 Jahre später)
Somit stellt sich die frage, wann Shader 4 Technik auf der G80 einsatz findet. Jahr 2011?
Und wenn die Lügner nicht gestorben sind, dann leben sie noch heute. (---> Und das tun sie:rolleyes: )
Nachtrag: Die Tec-Demos (http://www.youtube.com/watch?v=1m7T5ay_8DI) die im Jahre 2004 mit der Unreal Engine 3 (http://www.unrealtechnology.com/html/technology/ue30.shtml) gezeigt wurden, kommen heute in dem Spiel "Gears of War (http://www.xbox.com/de-ch/games/g/gearsofwar/)" zum einsatz. Exklusivtitel für die XboX-360. Und die PC umsetzung?: "Nicht geplant...":mad:
wrdaniel
2007-01-25, 05:37:12
heisst das jetzt ich darf nicht mehr jedem werbeversprechen trauen? ;(
Spasstiger
2007-01-25, 05:43:26
1. UT2007 wird man mit Sicherheit auch auf einer GeForce 6800 Ultra einigermaßen flüssig laufen sehen. Nicht auf maximalen Details, aber wohl schon in einer ähnlichen Qualität wie damals gezeigt (es wurden ja nur Techdemos auf Basis des Gears-of-War-Materials gezeigt, wobei damals kein konkretes Spiel versprochen wurde). Natürlich wird man nicht in der Qualität wie auf den späteren UT2007-Screenshots spielen können.
2. Bei PCIe hast du die wesentlich größere Auswahl und günstigere Preise. Außerdem gibts jeweils aktuelle High-End-Karten seit geraumer Zeit nur noch für PCIe und dieses Forum wird zu einem verhältnismäßig großem Anteil von High-Endlern besucht.
3. Spiele laufen auch mit Shader-2.0-Hardware noch, aber man muss inzwischen in sehr vielen Spielen optische Einschränkungen hinnehmen, seien es fehlendes HDR, schlechteres Lighting in anderer Form, fehlende Schatten, schlechteres Wasser, fehlendes Motionblur, fehlende Tiefenunschärfe oder fehlende Bumpmapping-Shader für Tiefeneffekte (Steep Parallax Mapping, Relief Mapping, Parallax Occlusion Mapping). Und selbst der Acrobat Reader benötigt eine SM3-Karte für Hardwarebeschleunigung.
4. Was ist daran außergewöhnlich, wenn Spiele deutlich später erscheinen als die zugehörigen Engine-Techdemos? War bei Doom 3 nicht anders, erste öffentliche Vorführung schon 2001, fertiges Spiel erst 2004.
Und wann Shader-4.0-Technik auf dem G80 Einsatz findet? Bereits jetzt in einer der NV-Techdemos. Manchen Leuten soll es ja sogar gefallen, Techdemos anzuschauen.
tombman
2007-01-25, 06:14:56
HighEnd Grakas kauft man sich wegen mehr performance UND wegen neuer features. Hätten sie NUR die neuen features würden sie kaum gekauft werden...
VooDoo7mx
2007-01-25, 06:16:08
Was für ein dummer Quark.
1. Aussage: Im Februar 2004 erscheint die NV40 alias GeForce 6800 Ultra, und die ersten Tec-Demos der neuen Unreal Engine 3 alias Shader Model 3 flimmern über die Bildschirme und machen einem zu glauben, das wir "schon bald" solche Grafiken genießen dürfen.
Antwort: falsch - die NV40 wird Spiele mit dieser Technik wegen mieser Programmierarbeit nicht flüssig darstellen.
Unsinn, Epic hat selber damals schon behauptet, dass 1. Spiele auf Unreal Engine3 erst 2006 kommen. Und obwohl 2 Jahre in der IT Welt ziemlich schwer einzuschätzen sind, haben sie Recht behalten.
Hier mal eine alte News (http://gameswelt.de/pc/news/detail.php?item_id=41168)
2. Aussage: Im Jahr 2005 kommt die PCIe und AGP wird für Tod erklärt. Keine weiteren Techniken werden von nun an für AGP hergestellt. Jedem wird geraten auf PCIe umzusteigen.
Antwort: falsch - Selbst die G71 & R5xx werden aktuell auch für AGP angeboten und hergestellt
Was hat ein Sandard für diskrete Steckkarten mit Shader Model 3 zu tuen?
Nichts oder?
Aber auch wenn das mit dem Thema rein gar nix zu tuen hat, muss ich trotzdem dieses geballte Unwissen berichtigen.
1. Kamen die ersten PCIe Boards schon 2004 raus. Die ersten dafür erhältlichen Grafikkarten waren sogar noch auf der Vorgängergeneration basierend.
(GF PCX5900=NV35+Bridge, GF PCX5700=NV36 + Bridge und X300&X600 RV370 und RV380 = RV350 mit nativen PCIe)
2. Werden keine Chips mehr für AGP "hergestellt". Alle aktuellen Chips von ATi und nVidia haben ein PCIe Interface. Der letzte native AGP Chip war der NV44A.
3. Und was ist daran so schlimm im Jahre 2005 PCIe zu empfehlen? Seit dem G7X und dem R5XX haben AGP User eigentlich nur noch die Arschkarte.
Modelle mit Bridge Chip kommen meist gar nicht oder nur in winzigen Stückzahlen auf dem Markt. Bei der AGP 7800GS hat sich die Preisspirale teilweise so hochgeschraubt, dass solch eine Karte teurer als eine schnellere PCIe Variante war. Von den aktuellen High End Krams gibts eigentlich gar nichts für AGP. Das einzige was heute noch nennenswert ist, ist die 1950Pro AGP aber selbst die ist meilenweit von High End entfernt und als Kunde darf man noch gerne mal nen netten 50-80€ AGP Aufschlag berappen.
Aber AGP ist ja soooooooooo toll. Bloß keine neue Technologie. Fortschritt ist ja gewissermaßen scheiße!
3. Aussage: Mit der einführung der G70 alias GeForce 7 reihe wird die Shader 2.0 Technik des R4xx alias X800 für Tod erklärt. Jedem wird empfohlen für die Zukunft Shader 3.0 Hardware zu kaufen.
Antwort: falsch- 98% der aktuellen Spiele laufen auf Shader 2.0 Hardware
Wer hat wen für tot erklärt?
Zum Zeitpunkt von G7X und R5XX war allein schon aus Performancesicht der R4XX nicht mehr zukunftssicher.
Und wieso sollte man keine Shader 3.0 Hardware kaufen. Selbst wenn es nur wenige Spiele bisher gab die es zum Start vorraussetzen, so nutzen doch schon unzählige Titel Shader 3.0. Einige teilweise sogar nur zur Speedverbesserung.
Quasi: sieht nicht besser aus als mit Shader 2.0, läuft aber deutlich schneller.
Aber Shader Model 3.0 ist ja soooooooooo böse. Bloß keine neue Technologie. Fortschritt ist ja gewissermaßen scheiße!
4. Aussage: Stranglehold wieder verschoben (Unreal Engine 3), und somit erscheint das erste Spiel mit der Unreal Engine 3 auf dem PC 3,5 Jahre nach den ersten Tec-Demo.
Antwort:
Ähm das erste Unreal Engine 3 Spiel kam schon letztes Jahr für den PC auf den Markt. (RainbowSix Vegas)Dies geschah ca 2 1/2 Jahre nach der Demonstration der Unreal Engine 3 zusammen mit dem NV40.
Somit stellt sich die frage, wann Shader 4 Technik auf der G80 einsatz findet. Jahr 2011?
2007.
Edit: Rechtschreibfehler beseitigt.
Was für ein dummer Quark.
Unsinn, Epic hat selber damals schon behauptet, dass 1. Spiele auf Unreal Engine3 erst 2006 kommen. Und obwohl 2 Jahre in der IT Welt ziemluich schwer einzuschätzen sind, haben sie Recht behalten.
Hier mal eine alte News (http://gameswelt.de/pc/news/detail.php?item_id=41168)
Was hat ein Sandard für diskrete Steckkarten mit Shader Model 3 zu tuen?
Nichts oder?
Aber auch wenn das mit dem Thema rein gar nix zu tuen hat, muss ich trotzdem dieses geballte Unwissen berichtigen.
1. Kamen die ersten PCIe Boards schon 2004 raus. Die ersten dafür erhältlichen Grafikkarten haben sogar noch auf der letzten Generation basiert.
(GF PCX5900=NV35+Bridge, GF PCX5700=NV36 + Bridge und X300&X600 RV370 und RV380 = RV350 mit nativen PCIe)
2. Werden keine Chips mehr für AGP "hergestellt". Alle aktuellen Chips von ATi und nVidia haben ein PCIe Interface. Der letzte native AGP Chip war der NV44A.
3. Und was ist daran so schlimm im Jahre 2005 PCIe zu empfehlen? Seit dem G7X und dem R5XX haben AGP User eigentlich nur noch die Arschkarte.
Modelle mit Bridge Chip kommen meist gar nicht oder nur in winzigen Stückzahlen auf dem Markt. Bei der AGP 7800GS hat sich die Preisspirale teiwleise so hochgeschraubt das solch eine Karte teurer als eien schnellere PCIe Variante war. Von den aktuellen High End Krams gibts eigentlich gar nichts für AGP. Das einzige was noch nennenswert ist, istd die 1950Pro AGP aber selbst die ist meilenweit von High End entfernt und als Kunde darf man noch gerne mal nen netten 50-80€ AGP Aufschlag berappen.
Aber AGP ist ja soooooooooo toll. Bloß keine neue Technologie. Fortschritt ist ja gewissermaßen scheiße!
Wer hat wen für Tod erklärt?
Zum Zeitpunkt von G7X und R5XX war allein schon aus performancesicht der R4XX nicht mehr zukunftssicher.
Und wieso sollte man keien Shader 3.0 Hardware kaufen. Selbst wenn es nur wenige Spiele bisher gab die es zum Start vorraussetzen Nutzen doch schon unzählige Titel Shader 3.0. Einige teilweise sogar nur zur Speedverbesserung.
Quasi sind nicht besser aus als mit Shader 2.0, läuft aber deutlich schneller.
Aber Shader Model 3.0 ist ja soooooooooo böse. Bloß keine neue Technologie. Fortschritt ist ja gewissermaßen scheiße!
Ähm das erste Unreal Engine 3 Spiel kam schon letztes Jahr für dem PC raus. (RainbowSix Vegas)In etwa 2 1/2 Jahre nach der Demonstration der Unreal Engine 3 zusammen mit dem NV40.
2007.
Und du hast den Sinn verstanden.
Es geht daraum, das die Industrie Features teuer verkaufen will, die absolut keiner bei erschrinung gebrauchen kann.
Eine Shader 3 GF6800 GT ist heutzutage für die ersten only Shader 3 Games unbrauchbar.
Aber dafür haben wir ja Shader 4 schon, dabei setzt sich Shader 3 erst so langsam durch.
Was lernt uns das?
Wenn Shader 4 gebraucht wird, wird eine 8800 GTS absolut veraltet sein.
Am besten die kommenden 2-3 Jahre mit einer X1950 XT verbringen (ich).
VooDoo7mx
2007-01-25, 07:43:59
Und du hast den Sinn verstanden.
Es geht daraum, das die Industrie Features teuer verkaufen will, die absolut keiner bei erschrinung gebrauchen kann.
Eine Shader 3 GF6800 GT ist heutzutage für die ersten only Shader 3 Games unbrauchbar.
Aber dafür haben wir ja Shader 4 schon, dabei setzt sich Shader 3 erst so langsam durch.
Was lernt uns das?
Wenn Shader 4 gebraucht wird, wird eine 8800 GTS absolut veraltet sein.
Am besten die kommenden 2-3 Jahre mit einer X1950 XT verbringen (ich).
Wo soll ich den Sinn verstehen wenn kein Sinn da ist?
Und wo werden Features teuer verkauft?
Den Prozentwert den beispielsweise eine 8800GTS/GTX mehr kostet als Vorgänger High-End wird in genauso viel Prozent in Mehrleistung umgesetzt.
Tombman hat es schön gesagt. In erster Linie sind die neusten High End 3D Beschleuniger immer schneller. Die neuen Features nimmt der willige High End Spieler immer gern als Bonus.
Und im März wird es dann auch Shader 4.0 Karten zumindestens von NV für den 100€ Bereich geben.
Wo wird denn da also was teuer verkauft?
Und Shader 4.0 Software wird es genügend im Jahre 2007 genug geben. Genau dann wirst du mit deiner X1950XT in die Röhre gucken. denn für Crysis beispielsweise wird die selbst ohne Shader 4.0 einfach zu langsam für eine anständige Bildqualität sein während eine 8800GTS genügend Rohleistung für das Spiel hat und zusätzlich auch noch Shader 4.0 Eyecandy darstellen kann.
Und wenn ich ehrlich bin, kann ich dieses dumme Gesabbel nicht mehr lesen.
Wenn ihr keinerlei Fortschritt wollt, bittesehr. Geht euch Keulen schnitzen und bezieht die nächste Wohnhöhle in der Eifel.
Aber bitte bitte lasst die anderen Menschen, die hier noch klar Denken können, mit dem Gesülze in Ruhe. Im Endeffekt juckt das in einen High-End Technikforum sowieso keine Sau.
Probiers mal im Computerbild Forum.
LovesuckZ
2007-01-25, 07:57:55
3. Aussage: Mit der einführung der G70 alias GeForce 7 reihe wird die Shader 2.0 Technik des R4xx alias X800 für Tod erklärt. Jedem wird empfohlen für die Zukunft Shader 3.0 Hardware zu kaufen.
Antwort: falsch- 98% der aktuellen Spiele laufen auf Shader 2.0 Hardware
Dumm nur, dass die 2% genau die Spiele sind, welche gehyped(t) werden.
Splinter Cell und Las Vegas waren die Themen im abgelaufenen Jahr. Ohne SM3.0 Hardware kein Starten.
Und der Trend wird sich fortsetzen. C&C wird auf SM3.0 schöner aussehen. HDR - L (FP) gibt es nur in Verbindung mit dem SM3.0, auch wenn es ohne auch möglich wäre.
Mit dem G70 ist die zweite Generation von SM3.0 Hardware am Markt gewesen. Wer da noch SM2.x Hardware gekauft hat, war selbst schuld.
AnarchX
2007-01-25, 07:59:55
@Sentionline
Wie war das nochmal mit "In Zeiten von SM3 und SM4 wird AA an Bedeutung verlieren" (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=331418), also bitte das nächste, wenn du hier irgendwelche Theorien aufstellst, mal intensiver mit der Materie beschäftigen und nicht nur so oberflächlich, da wie du siehst deine Argumente recht schnell entkräftet werden.
Die NV4x-Serie mag zwar nicht der größten Nutzen mit SM3.0 für den Spieler bringen, aber trotzdem war es im Gesamten sinnvoll.
So können eben viele auf ihrer Radeon X1...., GF7, GF8 heute Spiele mit SM3.0-Pfad spielen, weil eben mit dem NV4x schon 2004 SM3.0-HW für die Entwickler verfügbar war.
Und auch so erlebt halt der Besitzer einer SM3.0 schon seit 2004 gewisse Eye-Candies die man auf einer SM2.x Karte nie erleben wird.
TobiWahnKenobi
2007-01-25, 08:21:37
ich kann gut nachvollziehen, dass es für einige absurd erscheint, alles schon bei release mit aussicht auf die zukunft kaufen zu wollen.
400-500€ für eine graka, 200-400€ für ein neues betriebssystem und nochmal 40-60€ für ein spiel.. das macht mal schnell crysis für 600-800€.. wem es das wert ist - > OK - aber wer mit seinem geld haushalten muss, sollte wirklich lieber warten, bis es nicht mehr anders geht.
auf ATI-basis (SM3) sind jetzt erst kürzlich karten mit zwei GPUs auf einer platine vorgestellt worden. so ganz wichtig, kann der unified shader atm jedenfalls nicht sein. bis das im mainstream pflicht wird, geht auch 2007 noch ins land. bis dahin ist das eigentlich nur "nice2have".
(..)
mfg
tobi
mapel110
2007-01-25, 08:22:52
Wer warten kann, kauft ohnehin kein High End. :|
James Ryan
2007-01-25, 08:53:51
Und du hast den Sinn verstanden.
Es geht daraum, das die Industrie Features teuer verkaufen will, die absolut keiner bei erschrinung gebrauchen kann.
Eine Shader 3 GF6800 GT ist heutzutage für die ersten only Shader 3 Games unbrauchbar.
Aber dafür haben wir ja Shader 4 schon, dabei setzt sich Shader 3 erst so langsam durch.
Was lernt uns das?
Wenn Shader 4 gebraucht wird, wird eine 8800 GTS absolut veraltet sein.
Am besten die kommenden 2-3 Jahre mit einer X1950 XT verbringen (ich).
Sorry, aber das war in der IT-Welt bisher immer so! :|
Wo ist eigentlich dein Problem? Willst du keinen Fortschritt?
Viel Spaß mit deiner SM2-AGP-Karte!
MfG :cool:
Sorry, aber das war in der IT-Welt bisher immer so! :|
Wo ist eigentlich dein Problem? Willst du keinen Fortschritt?
Viel Spaß mit deiner SM2-AGP-Karte!
MfG :cool:
Äh, woraus schließt du, das ich ne SM2 AGP habe?
Ich kann mir jetzt sofort zwei 8800 GTXen kaufen...
NE, bin momentan mit meiner X1950 XT sehr zufrieden, nachdem ich diese gegen meine X1950 pro gewehselt habe.
Wieso müssen immer irgendwelche eine Neid-Debatte daraus machen?
Es ging eingentlich nur darum, das außer der "Zusatzleistung", Features wie SM4 und sonstiges eher nebensächlich sind. Wenn es denn mal eine Rolle spielt, ist die aktuelle Hardware selbstverständlich veraltet.
Was hält mich von den 8800er fern? Na der hohe Idle Stromverbrauch, absolut nicht mehr zeitgemäß, das ist definitiv der falsche Weg. Und nein, es geht nicht um die Kosten des Stromverbrauchs, sondern um die Umwelt, wo kommen wir denn hin, wenn der Stromverbrauch weiter so rasannt ansteigt? Wie schon gesagt, schlimm an den 8800ern ist der Idle Stromverbrauch. Während die Prozessoren immer weniger verbrauchen, ziehen die Grafikkarten diese Ersparnis doppelt und dreifach wieder zurück.
Netzteile mit 1KW, das ist K.R.A.N.K und symptomatisch für eine energieverschwendende Gesellschaft. Kein Wunder, das immer mehr sinnlose und sinnbefreite SUVs unsere Straßen verpesten, dabei darf man mit den Dingern bei uns nicht mal in nen Waldweg biegen, geschweige denn über Wiesen fahren.
James Ryan
2007-01-25, 09:22:06
Es ging eingentlich nur darum, das außer der "Zusatzleistung", Features wie SM4 und sonstiges eher nebensächlich sind. Wenn es denn mal eine Rolle spielt, ist die aktuelle Hardware selbstverständlich veraltet.
Willkommen im Jahr 2007! Das war speziell bei Grafikkarten immer so. Verstehe jetzt dein Problem und diesen Thread samt reißerischen Titel nicht so ganz.
MfG :cool:
haifisch1896
2007-01-25, 09:31:45
...
Das dieser Thread voll in die Hose geht, war Dir aber bewusst, oder?! :rolleyes:
der_roadrunner
2007-01-25, 09:33:06
Die X1950 kann aber 3.0. :wink:
der roadrunner
Godmode
2007-01-25, 09:38:51
Meine Meinung dazu: Ich habe in den Zeiten des NV40 immer fest daran geglaubt, dass man durch die SM3.0 Features noch zu Lebzeiten profitieren wird.
Leider kam es aber dann doch anders. Die Gründe dafür sehe ich in folgenden Punkten:
1. R4xx bot kein SM3, dadurch war es für die meisten Spieleentwickler einfacher, auf SM3 zu verzichten, anstatt verschiedene Renderingpfade zu implementieren.
2. Dynamic Branching ist auf NV4x bis G7x scheiss langsam, dh in der Praxis nicht wirklich gut einzusetzen.
3. Als nun R5xx mit schnellem DB daherkam, aber G7x dabei immernoch scheiss langsam war, wieder keine durchsetzung von SM3
Und zu SM4.0 kann ich nur folgendes Sagen: Wird von einem der beiden IHVs SM4 wieder nur Checklistenmäßig implementiert, dann werden wir das selbe wie mit SM3 erleben!
LovesuckZ
2007-01-25, 09:47:46
1. R4xx bot kein SM3, dadurch war es für die meisten Spieleentwickler einfacher, auf SM3 zu verzichten, anstatt verschiedene Renderingpfade zu implementieren.
Warum sollten Spieleentwickler auf etwas verzichten, was ihre Arbeit erleichtert?
Das das SM3.0 nicht plötzlich da war, liegt doch an der langen Entwicklungszeit von den Engines.
3. Als nun R5xx mit schnellem DB daherkam, aber G7x dabei immernoch scheiss langsam war, wieder keine durchsetzung von SM3
:confused:
Das größte Problem an alles über 2.0 ist, dass nicht alle "Features" notwendig waren. Hätte MS hier genauso gehandelt wie bei D3D10 dann wäre es nicht so chaotisch gewesen.
Ansonsten spielt Leistung eine untergeordnete Rolle für den Entwickler. Der User kann immer noch über Regler die Leistung regeln.
Und zu SM4.0 kann ich nur folgendes Sagen: Wird von einem der beiden IHVs SM4 wieder nur Checklistenmäßig implementiert, dann werden wir das selbe wie mit SM3 erleben!
Nö.
Eine Hardware verfügt über das SM4.0 oder nicht.
Gaestle
2007-01-25, 10:29:43
Das dieser Thread voll in die Hose geht, war Dir aber bewusst, oder?! :rolleyes:
Ich glaube, es war irgendwie auch beabsichtigt.
Auch ich finde, dass die Thesen von Sentionline vor allem von schlechter Recherche und fehlendem Verständnis für technologische Entwicklung zeugen.
Siehe auch den HDR-Thread vom "Leuchtturm der Wahrheit".
Das Eingangsposting strotzt vor Trollerei und danach kommt vom Threadstarter seichtes und widersprüchliches Zurückrudern im Thread.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=345174
Allerdings finde ich den HDR-Fall beschissener, weil die Diskussion schon mehrfach mit dem Threadstarter gelaufen ist und es offenbar nur um Stichelei ging.
Die meisten Entiwckler wollen Geld mit dem Spieleverkauf verdienen, es sei denn, sie verdienen ihr Geld über Hardware-Firmen, die so erreichen wollen, das die Nutzer ihr Geld für neue Hardware ausgeben.
Ok, jetzt setzt sich so langsam Shader 3 durch. Es wird wohl ca. 3 Jahre dauern, bis Shader 4 nötig ist. Dann gibt es schon die Geforce 9950 GTX, mit shader 4.2 Unterstützung und HDR-XXL. Eine 9950 Gt, die ungefähr 2,5 mal so schnell ist wie eine jetzige 8800 GTS, dürfte dann für 250 Euronen zu haben sein. Da sie dann vielleicht nur in 45 nm produziert wird, wird der Stromverbrauch unter der 8800 GTS leigen.
Die meisten Entiwckler wollen Geld mit dem Spieleverkauf verdienen, es sei denn, sie verdienen ihr Geld über Hardware-Firmen, die so erreichen wollen, das die Nutzer ihr Geld für neue Hardware ausgeben.
Ok, jetzt setzt sich so langsam Shader 3 durch. Es wird wohl ca. 3 Jahre dauern, bis Shader 4 nötig ist. Dann gibt es schon die Geforce 9950 GTX, mit shader 4.2 Unterstützung und HDR-XXL. Eine 9950 Gt, die ungefähr 2,5 mal so schnell ist wie eine jetzige 8800 GTS, dürfte dann für 250 Euronen zu haben sein. Da sie dann vielleicht nur in 45 nm produziert wird, wird der Stromverbrauch unter der 8800 GTS leigen.
P.S. Scheiss Tastatur
LovesuckZ
2007-01-25, 10:42:36
Ok, jetzt setzt sich so langsam Shader 3 durch. Es wird wohl ca. 3 Jahre dauern, bis Shader 4 nötig ist.
Und auf welcher Hardware sollten die Engines erstellt werden, die das SM4.0 verwenden, wenn es keine Hardware gibt, die das SM4.0 unterstützt?
Anscheinend habe manche Leute noch nicht verstanden, dass Spiele eben nicht auf Bäumen wachsen und dann abgepflückt werden.
Gaestle
2007-01-25, 10:46:03
Die meisten Entiwckler wollen Geld mit dem Spieleverkauf verdienen, es sei denn, sie verdienen ihr Geld über Hardware-Firmen, die so erreichen wollen, das die Nutzer ihr Geld für neue Hardware ausgeben.
Ok, jetzt setzt sich so langsam Shader 3 durch. Es wird wohl ca. 3 Jahre dauern, bis Shader 4 nötig ist. Dann gibt es schon die Geforce 9950 GTX, mit shader 4.2 Unterstützung und HDR-XXL. Eine 9950 Gt, die ungefähr 2,5 mal so schnell ist wie eine jetzige 8800 GTS, dürfte dann für 250 Euronen zu haben sein. Da sie dann vielleicht nur in 45 nm produziert wird, wird der Stromverbrauch unter der 8800 GTS leigen.
Trotzdem ist eine jetztige 8800GTS rein vom Speed her immer noch schneller als eine jetzige 7950GTX oder eine X1950XTX. In Spielen der Vergangenheit, in aktuellen Spielen und wahrscheinlich auch in demnächst erscheinenden Spielen.
Während man so eine Karte bei Spielen der Vergangenheit gar nicht braucht (weil dafür schon die Leistung von Mainstrem-Karten ausreicht), ist es für einige aktuelle Spiele sinnvoll (GR:AW, R6: Las Vergas, SC: DA, FEAR etc.) und wird für die nächsten 12 Monate sicherlich immer nützlicher sein. Nur rein vom Speed her.
Ansonsten habe ich eine GF6800 und habe den SM3 - Support (z.T. im HDR-Bundle) bei mindestens folgenden Sachen genutzt:
- Oblivion
- FarCry
- AoE3
- SC:CT
- SC: DA
- Gothic3
Vielleicht hab' ich noch was vergessen...
rokko
2007-01-25, 11:03:02
Wer warten kann, kauft ohnehin kein High End. :|
Eben. Von daher kann man die Sache ganz entspannt angehen. Ausserdem freuts mich wenn die Entwicklung rasant fortschreitet.
So merkt man wenigestens alle 4 Jahre auch mal was.
SavageX
2007-01-25, 11:09:38
Irgendwann und irgendwie müssen neue Features eingeführt werden. Im Falle für SM 3.0 was das mit dem NV40 der Fall. Die Karten waren teuer - aber auch sehr schnell für ältere Spiele. Somit war der NV40 auch dann ein guter Chip wenn seine neuen Features nicht genutzt wurden.
Wieder einmal sehe ich das Problem nicht. Ja, die Hoch-Zeit von SM 3.0 hat der NV40 eigentlich nicht mehr als aktiver Posten gesehen. Spieleentwicklung braucht halt seine Zeit - das ist nichts, was man Nvidia anlasten könnte. Und wer uneingeschränkt auf Marketinggeblubb hört hat so oder so früher oder später ein Problem. Fakt ist, dass man mit einer 6800 heute Spiele so spielen kann, wie man es für eine Karte diesen Alters erwarten darf - vielleicht sogar einen Tacken besser im Vergleich zu SM 2.0 Hardware.
Mr. Lolman
2007-01-25, 11:13:02
Wieder einmal sehe ich das Problem nicht. Ja, die Hoch-Zeit von SM 3.0 hat der NV40 eigentlich nicht mehr als aktiver Posten gesehen. Spieleentwicklung braucht halt seine Zeit - das ist nichts, was man Nvidia anlasten könnte. Und wer uneingeschränkt auf Marketinggeblubb hört hat so oder so früher oder später ein Problem. Fakt ist, dass man mit einer 6800 heute Spiele so spielen kann, wie man es für eine Karte diesen Alters erwarten darf - vielleicht sogar einen Tacken besser im Vergleich zu SM 2.0 Hardware.
Wenn, dann aber nur wegen der Kompatibilität. In der Leistung ziehen ihnen die R4x0 Karten mittlerweile tw. davon.
BTW: Rainbow:Six ist afaik UE 2.x.
Spiele die ein Shadermodell voraussetzen != Spiele die von einem Shadermodell profitieren
Da solltet ihr schon besser differenzieren.
LovesuckZ
2007-01-25, 11:14:47
Wenn, dann aber nur wegen der Kompatibilität. In der Leistung ziehen ihnen die R4x0 Karten mittlerweile tw. davon.
Ja?
Hast du Beispiele, welche gleiche Rahmenbedingungen haben?
Eine 6800GT gegen eine X800pro in heutigen Spielen wäre interessant.
BTW: Rainbow:Six ist afaik UE 2.x.
Nein UE3, auch wenn es nicht unbedingt danach ausschaut.
Einfach mal in die ini schauen, dort kann man die Engine-Version sehen. ;)
Sentionline
2007-01-25, 11:18:07
Unsinn, Epic hat selber damals schon behauptet, dass 1. Spiele auf Unreal Engine3 erst 2006 kommen. Und obwohl 2 Jahre in der IT Welt ziemlich schwer einzuschätzen sind, haben sie Recht behalten.
Egal. Trotzdem kam der Titel auf den Demos (übrigens gerendert worden mit einer NV40) nur für XBoX-360. Ich hatte mich darauf gefreut...:rolleyes:
Eine Shader 3 GF6800 GT ist heutzutage für die ersten only Shader 3 Games unbrauchbar.
So siehst aus...;)
Es geht daraum, das die Industrie Features teuer verkaufen will, die absolut keiner bei erschrinung gebrauchen kann.
Und wo werden Features teuer verkauft?
PCIe, DDR2, SATA, G80, AM2...DX10@Vista...usw.
Splinter Cell und Las Vegas waren die Themen im abgelaufenen Jahr. Ohne SM3.0 Hardware kein Starten.
Der fortschritt...:rolleyes:
Das dieser Thread voll in die Hose geht, war Dir aber bewusst, oder?! :rolleyes:
Sicher. Aber ich wollte mal Dampf ablassen.:biggrin:
Die Industrie regt mich so langsam auf mit ihrer ach so tollen Technik und fortschritt...
Auch ich finde, dass die Thesen von Sentionline vor allem von schlechter Recherche und fehlendem Verständnis für technologische Entwicklung zeugen.
Für "sinnvolle" und wirklich erforderliche umstellung der Technik hab ich nichts gegen. Aber einfach den Grundaufbau der PC Hardware um einpaar Pins zu verändern und dafür mehr Geld haben wollen find ich echt hammer. Ist ja nicht so das man sich neue Hardware kaufen muss...Der ganze PC muss für teures Geld umgestellt werden, um später festzustellen das auf einem 1000€ rechner Gothic 3 beispielsweise nicht vernünftig läuft.
Bei neuen Mainboards beispielsweise trifft man nur Sata & DDR2 an. Die frage lautet jetzt: "warum?". DDR2 soll weniger strom verbrauchen. Super, dafür gönnt sich die neue Grafikkarte 50 Watt mehr...der fortschitt...
Und auf welcher Hardware sollten die Engines erstellt werden, die das SM4.0 verwenden, wenn es keine Hardware gibt, die das SM4.0 unterstützt?
Shader 3 Hardware ist schon seid Jahren verfügbar. Immernoch nichts brauchbares aufm Markt...
Anscheinend habe manche Leute noch nicht verstanden, dass Spiele eben nicht auf Bäumen wachsen und dann abgepflückt werden.
Ich denke heutige Spiele mit dem ach so tollen SM3 kann man in die Tonne treten. Solange keine gescheiten Programierer am werk sind, kommt so eine grütze wie Gothic 3 raus...Willste vernünftig Spielen kauf dir 4GB Ram und eine G80...Haloo:crazy2:
Ansonsten habe ich eine GF6800 und habe den SM3 - Support (z.T. im HDR-Bundle) bei mindestens folgenden Sachen genutzt:
- Oblivion
- FarCry
- AoE3
- SC:CT
- SC: DA
- Gothic3
Und natürlich hast du Frameraten von recht flüssigen 40fps erzielt...:ucoffee:
Spiele die ein Shadermodell voraussetzen != Spiele die von einem Shadermodell profitieren
Da solltet ihr schon besser differenzieren.
:ulove3:
Im Grunde ist mir vollkommen bewusst das besitzer einer PCIe & Co. ihr Hardware verteidigen. Mich hat man damals angelockt...und heute darf ich in die Röhre schauen, weil ich nichts an meinem Rechner "sinnvoll" aufrüsten kann...Und selbst wenn ich die neuste Hardware habe, muss ich mich mit schlecht programieren Spielen rumschlagen und alle 8 Std. nach einem Patch umsehen.
Gleichzeitig darf ich neidisch auf die Konsoleros mit "Gears of War" auf ihren Bildschirmen betrachten, während ich mich mit der aufgebohrten grütze (HDR, Low-Res Textures) Source- & Unreal Engine 2 rumschlagen...Die auch noch gerne abstürzen...
deekey777
2007-01-25, 11:35:53
Eine Shader 3 GF6800 GT ist heutzutage für die ersten only Shader 3 Games unbrauchbar.
Eine fast drei Jahre alte Grafikkarte ist für die ersten "SM 3.0 only"-Spiele" (was immer das auch sein mag) unbrauchbar? Was für ein Wunder...
Und was ist mit SC3? Das Spiel kam im Frühling 2005 heraus.
Zu UE 3.0:
Was Epic vor Äonen gesagt hat, war, dass man für Spiele, die UE 3.0 nutzen, eine Grafikkarte braucht, die 500 GFlop/s schafft. Eine 6800 Ultra schafft das nicht.
Mr. Lolman
2007-01-25, 11:42:37
Eine fast drei Jahre alte Grafikkarte ist für die ersten "SM 3.0 only"-Spiele" (was immer das auch sein mag) unbrauchbar? Was für ein Wunder...
Mich wunderts nicht, aber vll alle anderen, die sich damals eine 6800GT mit dem Auge auf SM3.0 Support gekauft haben. Die schauen mittlerweile genauso durch die Röhre (ok mit 640x480 oder 800x600 vll doch nicht so ganz ;)) wie die R4x0 Käufer.
Godmode
2007-01-25, 11:49:48
Warum sollten Spieleentwickler auf etwas verzichten, was ihre Arbeit erleichtert?
Das das SM3.0 nicht plötzlich da war, liegt doch an der langen Entwicklungszeit von den Engines.
:confused:
Das größte Problem an alles über 2.0 ist, dass nicht alle "Features" notwendig waren. Hätte MS hier genauso gehandelt wie bei D3D10 dann wäre es nicht so chaotisch gewesen.
Ansonsten spielt Leistung eine untergeordnete Rolle für den Entwickler. Der User kann immer noch über Regler die Leistung regeln.
Nö.
Eine Hardware verfügt über das SM4.0 oder nicht.
zu Punkt1: Die meisten haben darauf verzichtet weil ATI es zu dieser Zeit nicht angeboten hat und Dynamicbranching bei NVwar scheiss langsam!
zu SM4: Demirug sagte mal was in diese Richtung, ich weiß aber nicht wie es mit der Performance aussieht. Wenn ATI für DB eine Batchsize von 100 Pixel hat und Nvidia von 10, dann sind wir wieder dort wo wir bei SM3.0 DB auch waren. Ich weiß aber nicht ob das jetzt spezifiert ist, welche Batchsize eine SM4 Beschleuniger maximal haben darf, oder wie wieviel Takte ein Branch kosten darf. :confused:
edit: ich bin mir sicher wenn ATI und Nvidia zur gleichen Zeit SM3.0 ordentlich unterstützt hätten, dann wären die Spiele von heute schon weiter!
Armaq
2007-01-25, 11:55:17
Mich wunderts nicht, aber vll alle anderen, die sich damals eine 6800GT mit dem Auge auf SM3.0 Support gekauft haben. Die schauen mittlerweile genauso durch die Röhre (ok mit 640x480 oder 800x600 vll doch nicht so ganz ;)) wie die R4x0 Käufer.
In die Röhre ist ja brutal, aufs Flatpanel vll.
Aber recht hast. Mit meiner 6800gt@ultra bleib ich bei DoDS, CSS und WC3. Anno und Age 3 gehen zwar, aber vom Maximumregler hab ich mich derweil verabschiedet.
edit: splintercell 3 läuft super auf einer 6800ultra in 1280.
deekey777
2007-01-25, 11:56:41
Mich wunderts nicht, aber vll alle anderen, die sich damals eine 6800GT mit dem Auge auf SM3.0 Support gekauft haben. Die schauen mittlerweile genauso durch die Röhre (ok mit 640x480 oder 800x600 vll doch nicht so ganz ;)) wie die R4x0 Käufer.
Und weiter? Soll ich jetzt einen Thread eröffnen, dass Call of Duty 2 auf meiner 9800Pro beschissen läuft? Oder FEAR? Oder GRAW? Ich kann auch bestimmte Spiele nicht spielen oder nur mit verringerten Einstellungen. Nochmal: Die 6800 kam vor fast 3 Jahren auf den Markt. Sie war und ist in den meisten Fällen ausreichend. Dass man mit einer X800XT bestimmte Spiele besser spielen kann, liegt nicht an SM 2.0 oder SM 3.0, sondern einzig und allein an dem deutlich höherem Takt. Gerade Far Cry zeigt, wie stark die X800XTX von scheinbar unterlegenem SM-2.X-Renderpfad profitiert.
VooDoo7mx hatte in seinem Posting das Thema auf den Punkt gebracht: was für ein dummer Quark.
Ich frag mich wirklich, ob Leute, bevor sie einen Thread mit so einem Titel eröffen, sich die Mühe machen, die SuFu zu nutzen: Es wäre ja möglich, das zu diesem Thema schon was gesagt wurde. Auch frage ich mich, ob man eine gewisse Reife (nicht Alter, sondern technische Kenntnisse) hat, um in diesem Bereich des Forums so einen Thread zu eröffnen.
Dazu kommen noch die Parallelen zum Thread über HDRR...
zu Punkt1: Die meisten haben darauf verzichtet weil ATI es zu dieser Zeit nicht angeboten hat und Dynamicbranching bei NVwar scheiss langsam!
Die "Überlegenheit" gibt es nur beim dynamischen Branching im Pixelshader, beim statischen Branching ist da mindestens Gleichstand (ich glaub, die Grünen sind da besser). Und über das dynamische Branching im VS brauche ich gar nichts zu sagen, denn der G70 ist auf Grund der MIMD-Architektur klar im Vorteil und schneller.
Wolfram
2007-01-25, 12:21:01
Dazu kommen noch die Parallelen zum Thread über HDRR....
Als ich auf diesen Thread klickte, habe ich, offen gestanden, mit dem gleichen Threadersteller gerechnet.
Ansonsten trifft's das hier am besten:
heisst das jetzt ich darf nicht mehr jedem werbeversprechen trauen? ;(
:up:
Fairerweise muß man sagen, daß sich Ähnliches wie dieser Thread auf 3dc auch schon in Artikelform fand: http://www.3dcenter.org/artikel/t_und_l/
:biggrin:
zu Punkt1: Die meisten haben darauf verzichtet weil ATI es zu dieser Zeit nicht angeboten hat und Dynamicbranching bei NVwar scheiss langsam!
Vielleicht solltest du mal aufhören, SM3 mit dynamic branching gleichzusetzen, dann käme vileicht nicht soviel Mist bei deinen Postings raus. SM3 ist wesentlich mehr als nur das DB Feature.
LovesuckZ
2007-01-25, 12:28:46
zu Punkt1: Die meisten haben darauf verzichtet weil ATI es zu dieser Zeit nicht angeboten hat und Dynamicbranching bei NVwar scheiss langsam!
Was du immer mit deinem DB hast...
Es ist ein Teil vom SM3.0. Es gibt noch viel mehr Erleichterungen, die die Entwickler/Programmierer/Whatever erhalten.
Und wenn ATi zur damaligen Zeit eine SM3.0 Karte vorgestellt hätten, eine zeitliche Verbesserung hätte es in geringen Maße gegeben.
zu SM4: Demirug sagte mal was in diese Richtung, ich weiß aber nicht wie es mit der Performance aussieht. Wenn ATI für DB eine Batchsize von 100 Pixel hat und Nvidia von 10, dann sind wir wieder dort wo wir bei SM3.0 DB auch waren.
Es ist doch erstmal egal, wie schnell es ist. Nur ohne Hardware wird es auch nicht umgesetzt werden.
Hätte Nvidia bei 2.a bleiben und erst mit dem G80 vollständige Untersützung für das SM3.0 bringen sollen?
Wir können Nvidia nur danken, dass sie CineFX dahin aufgebohrt haben.
deekey777
2007-01-25, 12:33:11
Als ich auf diesen Thread klickte, habe ich, offen gestanden, mit dem gleichen Threadersteller gerechnet.
Von ihm gibt es diese Kreation: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=206525
Godmode
2007-01-25, 12:37:01
Vielleicht solltest du mal aufhören, SM3 mit dynamic branching gleichzusetzen, dann käme vileicht nicht soviel Mist bei deinen Postings raus. SM3 ist wesentlich mehr als nur das DB Feature.
Mir ist eigentlich schon klar dass das Shadermodel 3.0 mehr bietet als nur DB. Ich hebe es deshalb immer wieder heraus, weil ich denke es ist eines der wichtigsten Features!
Was du immer mit deinem DB hast...
Es ist ein Teil vom SM3.0. Es gibt noch viel mehr Erleichterungen, die die Entwickler/Programmierer/Whatever erhalten.
Und wenn ATi zur damaligen Zeit eine SM3.0 Karte vorgestellt hätten, eine zeitliche Verbesserung hätte es in geringen Maße gegeben.
Es ist doch erstmal egal, wie schnell es ist. Nur ohne Hardware wird es auch nicht umgesetzt werden.
Hätte Nvidia bei 2.a bleiben und erst mit dem G80 vollständige Untersützung für das SM3.0 bringen sollen?
Wir können Nvidia nur danken, dass sie CineFX dahin aufgebohrt haben.
Ich will eigentlich nur darauf hinaus, dass alle Hersteller die selbe Unterstützung für bestimmte Features liefern müssten, damit sich solche Features durchsetzen können. Mir ist das Henne-Ei Problem völlig klar, dass dabei besteht! Ich fand es fantastisch das Nvidia zu dieser Zeit den ersten Schritt getan hat!
Gaestle
2007-01-25, 12:37:05
Und natürlich hast du Frameraten von recht flüssigen 40fps erzielt...:ucoffee:
Nein, habe ich (außer in FarCry) nicht. Brauche ich aber für die genannten Spiele auch nicht.
Ich denke heutige Spiele mit dem ach so tollen SM3 kann man in die Tonne treten. Solange keine gescheiten Programierer am werk sind, kommt so eine grütze wie Gothic 3 raus...Willste vernünftig Spielen kauf dir 4GB Ram und eine G80...Haloo:crazy2:
Typisch. Nach der neuesten Technik schreien, aber nicht einsehen wollen, dass dazu auch HW notwendig ist und offenbar keine Ahnung haben, was im Hintergund alles notwendig ist.
Bei neuen Mainboards beispielsweise trifft man nur Sata & DDR2 an. Die frage lautet jetzt: "warum?". DDR2 soll weniger strom verbrauchen. Super, dafür gönnt sich die neue Grafikkarte 50 Watt mehr...der fortschitt...
Dir ist aber schon klar, dass die GraKa mit dem höheren Stromverbauch auch mehr Output liefert? Genau das meinte ich, als ich von einem Mangel an Verständis geschrieben habe. Hast Du den Stromverbrauch mal in Relation zu den erreichten fps gesetzt? hast Du dieses Verhältnis mal mit einer älteren GraKa verglichen?
Mir ist eigentlich schon klar dass das Shadermodel 3.0 mehr bietet als nur DB. Ich hebe es deshalb immer wieder heraus, weil ich denke es ist eines der wichtigsten Features!
Die Shader dürfen auch mehr Befehle enthalten. Finde ich auch sehr wichtig.
Mr. Lolman
2007-01-25, 12:38:06
Fairerweise muß man sagen, daß sich Ähnliches wie dieser Thread auf 3dc auch schon in Artikelform fand: http://www.3dcenter.org/artikel/t_und_l/
:biggrin:
Der Artikel war gut und notwendig :|
Nein, habe ich (außer in FarCry) nicht. Brauche ich aber für die genannten Spiele auch nicht.
In Farcry wohl aber auch nur mit 1024x768...
deekey777
2007-01-25, 12:40:08
Die Shader dürfen auch mehr Befehle enthalten.
Und was hat man beim Übergang vom R300 zum R420 als erstes gemacht? ;)
mapel110
2007-01-25, 12:43:39
Und was hat man beim Übergang vom R300 zum R420 als erstes gemacht? ;)
Den F-Buffer in den Treiber eingebaut? :ugly: (Oder war das zu einem anderen Zeitpunkt?!)
Ach, ich glaub das war beim R350 oder so. Hat ja iirc nie funktioniert, diese Softwarelösung.
Imo hat man das hauptsächlich deswegen gemacht, weils am einfachsten war, dranzuklatschen. Nicht unbedingt, weil der Nutzen höher ist als beim dyn branch
LovesuckZ
2007-01-25, 12:44:32
Ich will eigentlich nur darauf hinaus, dass alle Hersteller die selbe Unterstützung für bestimmte Features liefern müssten, damit sich solche Features durchsetzen können.
Nicht die Hersteller sind schuld, sondern der jenige, welche die Vorraussetzung schafft.
Hier hat MS einfach Mist gebaut, da sie einfach Zwischenschritte zu gelassen haben.
Dies gibt es beim SM4.0 nicht mehr. Entweder die Karte untersützt das SM4.0 oder sie macht es nicht. Nach Leistung kannst du nicht gehen, da sie nicht wirklich von Bedeutung ist für den Entwickler.
Spiele laufen auch mit Shader-2.0-Hardware noch, aber man muss inzwischen in sehr vielen Spielen optische Einschränkungen hinnehmen, seien es fehlendes HDR, schlechteres Lighting in anderer Form, fehlende Schatten, schlechteres Wasser, fehlendes Motionblur, fehlende Tiefenunschärfe oder fehlende Bumpmapping-Shader für Tiefeneffekte (Steep Parallax Mapping, Relief Mapping, Parallax Occlusion Mapping). Und selbst der Acrobat Reader benötigt eine SM3-Karte für Hardwarebeschleunigung.
Also du meinst NFS Carbon, jetzt rate mal wieso es auf der PS2 auch Blur hat und Blur ist auch ein 10jahre alter Effekt. Hosianna, ein Wunder - Shader3 in Software auf der PS2
Wolfram
2007-01-25, 12:48:42
Der Artikel war gut und notwendig :|
Der Artikel ist mir halt sofort eingefallen. Gut mag er sein, aber auch aths echauffiert sich in extenso über Marketinglügen.
DrumDub
2007-01-25, 13:00:31
Imo hat man das hauptsächlich deswegen gemacht, weils am einfachsten war, dranzuklatschen. Nicht unbedingt, weil der Nutzen höher ist als beim dyn branch der nutzen war zu lebzeiten höher. ps 2.0b hat performacetechnisch ne ganze menge gebracht. hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_sapphire_radeon_x800_x800_xl/9/#abschnitt_far_cry)lief z.b. die x800 xt nur mit ps 2.0. die langsamere x800xl mit der taktung 400/490 bei ps2.0b war 18-19% schneller als die x800xt bei 500/500 mit ps 2.0.
Gaestle
2007-01-25, 13:15:16
In Farcry wohl aber auch nur mit 1024x768...
Ja, natürlich. Manchmal sogar nur 800x600 (wie Oblivion oder Gothic3). Aber ich kann doch nicht erwarten, mit einer Upper-Maistream-Karte alle aktuellen Titel mit allem PiPaPo in 1600x1200 + AA/AF zu zocken (ich weiss, dass AA mit HDR auf NV40 nicht funzt). Klar wäre eine höhere Auflösung und alles schön gewesen, aber da hätte ich halt mehr investieren müssen und das war's mir nicht wert. Ich konnte mir ALLE Effekte ansehen, die die Entwickler eingebaut hatten und genau dafür habe ich auch bezahlt. Dass ich mich mit dieser Karte bei den Auflösungen auch beschränken muss, war mir auch klar, aber ich konnte sie wenigsten grundsätzlich ansehen und mir eine eigene Meinung darüber machen. Und ich persönlich finde, dass es sich (für mich) gelohnt hat, trotz der erwähnten Abstriche. Ich würde es auch wieder so machen (und werde es wohl auch).
mapel110
2007-01-25, 13:20:24
der nutzen war zu lebzeiten höher. ps 2.0b hat performacetechnisch ne ganze menge gebracht. hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_sapphire_radeon_x800_x800_xl/9/#abschnitt_far_cry)lief z.b. die x800 xt nur mit ps 2.0. die langsamere x800xl mit der taktung 400/490 bei ps2.0b war 18-19% schneller als die x800xt bei 500/500 mit ps 2.0.
hrhr, Farcry lass ich nicht gelten.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=158013&highlight=farcry+pferd
Godmode
2007-01-25, 13:24:52
Die Shader dürfen auch mehr Befehle enthalten. Finde ich auch sehr wichtig.
Ja, das hab ich gar nicht erwähnt weil ich dachte, dass das sowiso jedem klar ist. Aber natürlich völlige Zustimmung!
Nach Leistung kannst du nicht gehen, da sie nicht wirklich von Bedeutung ist für den Entwickler.
Das sehe ich etwas anders, weil wenn die Leistung nicht stimmt, dann muss der Entwickler viel Arbeit investieren, um eventuell die Leistung zu verbessern, indem er vielleicht die Berechnung anders macht!
LovesuckZ
2007-01-25, 13:27:13
Das sehe ich etwas anders, weil wenn die Leistung nicht stimmt, dann muss der Entwickler viel Arbeit investieren, um eventuell die Leistung zu verbessern, indem er vielleicht die Berechnung anders macht!
Nein, außer man heißt Valve...
Der Spieler hat immernoch die Möglichkeit durch Einstellung die Leistung zu steigern.
Armaq
2007-01-25, 13:31:58
Nein, außer man heißt Valve...
Der Spieler hat immernoch die Möglichkeit durch Einstellung die Leistung zu steigern.
Das musst mal erklären, ich steh aufm Schlauch?!
Hier war von der Unreal Enginge Version 3 die Rede, die U3 Engine wird doch von Vanguard genutzt, welches ab 30. Live geht oder irre ich mich da? SM3 ist auch implementiert, bietet aber keine Vorteile in der Darstellungsqualität (fand ich zumindest).
Ich glaube, wir müssen uns einfach daran gewöhnen, dass die Grafik nicht mehr Feature für Feature besser wird, so wie es zu DX5,6,7 Zeiten war, sondern nurnoch durch mehr Speed und damit mehr Details.
LovesuckZ
2007-01-25, 13:38:53
Das musst mal erklären, ich steh aufm Schlauch?!
Meines Wissen waren Valve die einzigen, die so explizit einen herstellerfreundlichen Shaderpfad angepriesen haben (Herbst 2003).
Was daraus geworden ist, ist ja bekannt. Sie haben ihn einfach gekickt.
Aber ansonsten sind mir keine weiteren Spiele bekannt, die Spiele nicht anhand ihres Shadermodels sondern des Namens einordnen.
Armaq
2007-01-25, 13:48:13
Meines Wissen waren Valve die einzigen, die so explizit einen herstellerfreundlichen Shaderpfad angepriesen haben (Herbst 2003).
Was daraus geworden ist, ist ja bekannt. Sie haben ihn einfach gekickt.
Aber ansonsten sind mir keine weiteren Spiele bekannt, die Spiele nicht anhand ihres Shadermodels sondern des Namens einordnen.
Herstellerunfreundlich ist der Code von Source ja nun nicht. Was die Grafikkarte angeht, sogar sehr dankbar. Aber ich weiss wovon du sprichst. Danke.
Spasstiger
2007-01-25, 13:50:24
Also du meinst NFS Carbon, jetzt rate mal wieso es auf der PS2 auch Blur hat und Blur ist auch ein 10jahre alter Effekt. Hosianna, ein Wunder - Shader3 in Software auf der PS2
Wie kommst du drauf, dass ich speziell NfS Carbon meine? Ich meine alle möglichen Spiele, unter anderem auch Carbon (beim Punkt Motionblur), aber auch etliche andere Spiele und Grafikmods.
Btw. ist Motionblur nicht gleich Motionblur. Echtes Motionblur sollte zeitliches AntiAliasing (nicht zu verwechseln mit Temporal-AA von ATI) darstellen, das zeitliche Detail soll also erhöht werden. In der Praxis wird aber meist einfach nur zwischen mehreren Bildern rumgematscht bzw. es werden Bilder überlagert, das zeitliche Detail erhöht sich nicht. Echtes Motionblur bzw. fachlich gesprochen "zeitliches AntiAliasing" ist halt nur sehr rechenaufwändig und erfordert Rücksprünge beim Rendering. Und das ist mit SM3.0 leichter zu implementieren. Ob NfS Carbon aber schon eine fortgeschrittene Motionblur-Technik auf dem PC verwendet, kann ich mangels SM3.0-Grafikkarte nicht beurteilen.
Mr. Lolman
2007-01-25, 14:01:15
BTW: Eine technisch (also featuremässig) schwache HW Basis bremst bei weitem nicht so die Entwicklung wie immer propagiert wird.
Die ganzen Shadergeschichten kommen (neben einer Möglichkeit zur Auslastung von Highend-HW) tw. bloß der Faulheit der Artists zu gute. Da hat man eine polygonarme, schnell hingepfuschte Szenerie (ist das nicht seltsam wie viele rechte Winkel immernoch in Spielen vorkommen? Wohl nicht, wenn man weiss, dass es für den Artist einfacher ist, alles ans Grid auszurichten ;)) - wertet die aber zB mit Parallaxmapping (was so gut wie immer so aussieht, als würde sich hätte einer der Artists eine Quecksilberaffinität) und Bloom auf.
Oder überhaupt Bumpmapping ansich. Der Effekt ist imo nur bei bewegten Objekten oder Lichtern praktisch. So ists zwar schön, wenn der Boden bei ner Kamerabewung unterschiedlich reflektiert, aber bei ner statischen Beleuchtung, brauch ich zB kein Bumpmapping in Ziegelmauern. Klar für den Artists ists einfacher, und die Beleuchtung wird auch berechnet, aber die Struktur zB direkt in die Textur eingearbeitet, kann man mit schnödem Multitexturing oft ähnlich gute dafür aber weitaus performantere Ergebnisse erzielen.
BTW: Bloom kann wohl spätestens jede DX6 Karte darstellen. Motionblur und Bumpmapping auch. Merkt ihr, dass wir momentan Spiele mit einer Grafik spielen, die uns schon vor ~6 Jahren mit vollmundigen Werbeversprechungen verkauft wurden? Toy-Story und Final Fantasy in Realtime auf ner GeForce3?
Jetzt haben wir Grafik die sich schön langsam ans Niveau von FF oder TS annähert, aber inzwischen 10-20x schnellere HW. Was merkt man? Die Features auf der HW sind im Normalfall für die Katz - zumindest für die durchschnittliche Nutzungsdauer von 2-3 Jahren.
Man hilft zwar mit, die HW-Basis zu vergrössern, aber Konsolenentwickler schaffens genauso, bei gleichbleibender HW, die Grafik zu verbessern. Im Gegensatz zur PC-HW (deren Basis ja kontinuierlich mitwächst), muss man die Konsolen HW halt besser ausnutzen.
Vll. ists echt nur in meinem Sinne, dass meine HW optimal genutzt wird, und nicht bloß mit billig drangeklatschten Effekten protzt. Die meisten anderen hier haben sich sich wohl schon verinnerlicht, durch teure featureprotzende Highend Hardware, die Faulheit der Entwickler zu unterstützen.
Bspw: Wenn ich sehe, dass FP16 MDRR + Tonemapping die Leistung auf tw. deutlich weniger als die Hälfte einbrechen lässt, dann nehm ich doch SM2.0 kompatibles FX12 LDR und hab auch die Möglichkeit zu Tonemapping, eine höhere Performance und untersütze gleichzeitig auch ne größere HW Basis.Ist wie gesagt, nur meine persönliche Meinung. Aber mir gefällt eine Spieltechnik wie sieh Flatout(2) zB hat weitaus besser als die eines Rainbow:six. Die Engine dahinter mag zwar durchaus fortschrittlich sein, aber es hat imo keinen besonderen Nutzen zB Radiositylighting zu nutzen/unterstützen, wenn sich aktuelle HW selbst in Techdemos damit plagt. Das Spiel rennt so auf Highend HW relativ bescheiden, unterstüzt kein AA und bleibt einem großen Teil der Spiel wegen SM3.0 Zwang vorenthalten.
Die Engine dahinter ist natürlich fortschrittlich, keine Frage, aber imo macht man sichs zu einfach, wenn man die ganze Lastgen HW ausperrt - v.a. weil mans auch nicht mit der notwendigen Konsqeuenz macht. Zusammengefasst heisst das:
1. Solang aktuelle Highend HW 5x flotter ist als Lowend-HW, ists natürlich praktisch, die Highend-HW Leistungsfressende Feature wie zB zB FP16 HDRR rechnen zu lassen, während Low-End HW das nicht macht. Dies ist aber bei weitem nicht das was man sich unter einer vernünftigen Nutzung von Rohleistung vorstellt. (salopp formuliert: Ein bisschen mehr Farbe und Kontrast kostet mich soviel wie eine 200€ GraKa)*
*will hier nicht gegen HDRR wettern, HDRR ist die Zukunft. FP16 HDRR ist aber immernoch wohl ähnlich notwendig, wie 32bit zu TNT2 Zeiten.
2. Man sperrt einfach ältere HW aus. Problem: Macht man das anhand der Featurebasis, wird zB. ne ausreichend flotte X800XT ausgesperrt, während eine 7300GS vorsich hinruckeln darf.
3. Man sperrt generell zu schwache HW aus. - Das wär die Lösung, aber mach das mal jemand bitte (Attention: Your graphics card supports all important SM 3.0 features, but it's simply to slow, to render them in a satisfying framerate. The Game will now exit) :naughty:
Dem IHV ists ja wurscht, ob die Features der HW zu lebzeiten brachliegen, der würde euch auch extra heisslaufende WintersaisongraKas mit mitgeliefertem Sockenwärmer verkaufen, wenn er könnte. Der ewig Featurehype spricht aber wieterhin für ihn.
Deswegen gabs ne 32bit Lüge, ne TnL Lüge, ne CineFX Lüge, ne SM3.0 Lüge und die nächste Lüge steht auch schon vor der Tür.
Wer sich also der ganzen Umstände bewusst ist, und sich seine Highend HW immernoch deswegen kauft, weil der denkt, dass die Features bald(iger) in Spielen zu sehen sind, ist imo selbst schuld.
Antwort: falsch - die NV40 wird Spiele mit dieser Technik wegen mieser Programmierarbeit nicht flüssig darstellen.
Das ist Unsinn. SM3-Shader laufen auf NV4x auf jeden Fall schneller als entsprechende SM2-Shader.
BTW: Eine technisch (also featuremässig) schwache HW Basis bremst bei weitem nicht so die Entwicklung wie immer propagiert wird.
Aha. Auf was beruht diese Aussage?
Oder überhaupt Bumpmapping ansich. Der Effekt ist imo nur bei bewegten Objekten oder Lichtern praktisch. So ists zwar schön, wenn der Boden bei ner Kamerabewung unterschiedlich reflektiert, aber bei ner statischen Beleuchtung, brauch ich zB kein Bumpmapping in Ziegelmauern. Klar für den Artists ists einfacher, und die Beleuchtung wird auch berechnet, aber die Struktur zB direkt in die Textur eingearbeitet, kann man mit schnödem Multitexturing oft ähnlich gute dafür aber weitaus performantere Ergebnisse erzielen.
Half-Life 2 würde ohne Bumpmaps ziemlich viel schlechter aussehen.
mapel110
2007-01-25, 14:06:22
Und wer glaubt, dass eine Grafikkarte wegen 20 % mehr Rohleistung eine längere Verweildauer im Rechner hat als eine Karte die einen ganzen Feature-Techlevel besser ist, ist auch selbst schuld. :P
Mr. Lolman
2007-01-25, 14:15:54
Ob NfS Carbon aber schon eine fortgeschrittene Motionblur-Technik auf dem PC verwendet, kann ich mangels SM3.0-Grafikkarte nicht beurteilen.
Das würdest du auch so schwer beurteilen können. Denn soviel anders schaut korrektes Motionblur auch nicht aus, als Motiontrail. Andererseits könnte man eigentlich auch gleich drauf pfeifen und sich nen TFT mit ner hohen Responsetime holen - zumindest für jemanden der nur Rennspiele spielt (und sichs auf Blur steht) wär das doch viel vernünftiger, als sich zuerst nen teuren TFT mit ner hohen zeitlichen Auflösung zu kaufen, und dann ne teuere GraKa die in jedes Bild korrekt zeitliches AA einberechnet und damit erst wieder alles bewegte 'unscharf' macht. X-D
Mr. Lolman
2007-01-25, 14:25:11
Und wer glaubt, dass eine Grafikkarte wegen 20 % mehr Rohleistung eine längere Verweildauer im Rechner hat als eine Karte die einen ganzen Feature-Techlevel besser ist, ist auch selbst schuld. :P
Zumindest hat er 20% mehr Leistung überall abrufbar. Ist hatl die Frage wie leidensfähig man ist. Hat man sich damals ne 6800 Ultra geleistet hat man heute wohl eher keinen Bock drauf R:Six in 640x480 zu spielen. SM2.0 Spiele kann man dafür mit ner X800XT zT viel besser spielen. SC:CT, GTR/GTL...
Außerdem gabs auch div. die von ner X1900XTX auf ne 7900GX2 aufgerüstet haben, welche ja in hohen Auflösungen auch nur ~20% flotter ist. Für den wirklichen Freak sind 20% genauso wichtig, wie ein paar HW Features. Nur blöd wenn man sich zw. beiden entscheiden muss. (Aber da halfen die IHVs mit kleinen Filtertricks ja auch schon mal gern das ein oder andere mal nach ;))
Lolman, mich würde mal interessieren, wie deine Meinung zu diesem Thema aussehen würde, wenn die Situation umgekehrt wäre und ATI als erster IHV SM3-Hardware gebracht hätte. ;)
Wolfram
2007-01-25, 14:30:40
Deswegen gabs ne 32bit Lüge, ne TnL Lüge, ne CineFX Lüge, ne SM3.0 Lüge und die nächste Lüge steht auch schon vor der Tür.
Aber es gab keine SM 2.0-Lüge und keine SLI/Crossfire-Lüge. Nicht alles ist Lüge!X-D
Im Ernst: Wer würde in Abrede stellen, daß es solche Marketinglügen gibt? Die Frage ist nur, warum der Threadstarter sich so darüber aufregt. Wer wirklich glaubt, daß Ariel weißer als weiß wäscht, der hat andere Probleme als schmutzige Socken...
LovesuckZ
2007-01-25, 14:31:27
SM2.0 Spiele kann man dafür mit ner X800XT zT viel besser spielen. SC:CT, GTR/GTL...
Und auf einer X800Pro im Vergleich zur 6800GT?
Wie sieht es eigentlich mit den X700pro Usern auf, deren Karte nicht nur langsamer sondern auch technisch rückständiger war? Spielen die "SM2.0 Spiele" auch "viel besser"?
Außerdem gabs auch div. die von ner X1900XTX auf ne 7900GX2 aufgerüstet haben, welche ja in hohen Auflösungen auch nur ~20% flotter ist.
In 90% ist sie deutlich schneller, in 8% gleichschnell wie die X1900XT und in 2% langsamer. :P
Ob NfS Carbon aber schon eine fortgeschrittene Motionblur-Technik auf dem PC verwendet, kann ich mangels SM3.0-Grafikkarte nicht beurteilen.
Jedenfalls ists ein Musterbeispiel für die Shaderlüge, wenn sie es auf Karten Sh3.0- ersatzlos weglassen und auf PS2, PSP, NDS?, GBA? bringen
Wieviel Spiele gibts jetzt eigentlich schon mit Subsurface Scattering auf PC oder Konsole. Der Effekt wurde ja auch schon mit der 6x00 im Dawn-Demo eingeführt.
Mr. Lolman
2007-01-25, 14:36:40
Aha. Auf was beruht diee Aussage?
Auf die darunterliegenden Ausführungen. Kurzum: Solang Lowend-HW verkauft wird, ists egal, obs auf Midrange- (oder gar Highend-HW) gibt, die diese Features nicht haben, da der ISV ja sowieso den Fallback auf Lowend einplanen muss und das einbauen der Features meist solange dauert, dass die Highend-Hw zum Release ohnehin nicht mehr Highend ist.
Bei meiner 6800GT hatte ich eben genau solang das Gefühl dass sie Highend-HW ist, bis ich die ersten SM3.0 Spiele damit gespielt hab ;)
Half-Life 2 würde ohne Bumpmaps ziemlich viel schlechter aussehen.
Das stimmt. Allerdings gibts div. Texturen, die in Hl² ganz ohne Bumpmaps auskommen, und auch gut aussehen...
Gaestle
2007-01-25, 14:44:53
und das einbauen der Features meist solange dauert, dass die Highend-Hw zum Release ohnehin nicht mehr Highend ist.
Ich finde, Du unterschlägst an dieser Stelle die zwei Wochen, die für die Entwicklung des restlichen Spieles und die Features drumrum benötigt werden.
Mr. Lolman
2007-01-25, 14:49:26
Lolman, mich würde mal interessieren, wie deine Meinung zu diesem Thema aussehen würde, wenn die Situation umgekehrt wäre und ATI als erster IHV SM3-Hardware gebracht hätte. ;)
Genau gleich. Weil ich 3dfx-geschädigt bin. Bei 3dfx HW hab ich gewusst, dass die Transistoren zT nicht nur Wärme produzieren, sondern auch tatsächlich eingesetzt werden.
Ich hab auch nix davon gehalten, dass meine 9700p DX9 kompatibel war und ne GF4 nicht (auch wenn sichs da noch am ehesten gelohnt haben mag).
Denn auch wenn die obigen Ausführungen meine persönliche Meinung darstellen, soll mal jemand herkommen und ähnlich ausführlich erklären, warums doch sinnvoll ist, immer alle Features an Board zu haben (und dafür halt den jew. Aufpreis zu zahlen)
Mir fällt da nur ein, dass ich bezügl. Kompatibilität auf der sicheren Seite bin, womit ich mich aber erst wieder dem Diktat der ISVs unterwerfen würde. Damit mein ich die, die ihre Supportgrenze sinnigerweise am Techlevel fixieren, anstatt an der Rohleistung. (Wär R:Six kein Multiplattformtitel, wär der Zwang zu SM3.0 Highendhw finanziell wohl ohnehin nicht dringewesen)
DrumDub
2007-01-25, 14:56:19
hrhr, Farcry lass ich nicht gelten.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=158013&highlight=farcry+pferd es gibt halt praktisch keinen unterschied zwischen dem ps2.b- und dem ps3.0-pfad. das war mir auch bekannt. inwieweit der ps2.0-pfad noch hätte optimiert werden können und wieviel schneller er wäre, ist an hand der aussage von demirug aber imho nicht nachvollziehbar. tatsache ist, dass der ps2.0b- und der ps3.0-pfad geschwindigkeitsvorteile bringen und das nicht zu knapp...
Denn auch wenn die obigen Ausführungen meine persönliche Meinung darstellen, soll mal jemand herkommen und ähnlich ausführlich erklären, warums doch sinnvoll ist, immer alle Features an Board zu haben (und dafür halt den jew. Aufpreis zu zahlen) Man zahlt ja nicht unbedingt einen Aufpreis dafür. Beim Vergleich 6600GT vs. x700pro hat man eine schnellere Karten mit mehr Features zum gleichen Preis bekommen. Auch x800pro und 6800GT waren gleich teuer und auch ungefähr gleich schnell. Man hat SM3 quasi kostenlos obendrauf bekommen. Warum sollte man in diesem Fall zur "veralteten" Karte greifen?
Genau gleich. Weil ich 3dfx-geschädigt bin. Bei 3dfx HW hab ich gewusst, dass die Transistoren zT nicht nur Wärme produzieren, sondern auch tatsächlich eingesetzt werden.
Dann versteh ich dich nicht was NV4x angeht. Bis auf die wohl äußerst spärliche Logik um dyn. Branching zu erlauben sind da eigentlich alle Transistoren sehr sinnvoll eingesetzt, auch was SM2 angeht.
Arbitary Swizzling: Hilft auch bei SM2.
Unendliches Programm durch nachladen des Programms direkt aus dem Speicher: Spart den Instructions-Cache auf dem Chip (den R5xx immer noch hat)
Keine Interpolatoren sondern ausrechnen des Interpolanten nur wenn man ihn braucht: Spart Logik.
Usw. usf. Ich sehe nicht was an der Architektur so schrecklich auf SM3 getrimmt wurde ;)
Das SM3 marketingtechnisch ausgeschlachtet wird ist doch klar, aber die Architektur hätte auch wenn sie bloß SM2 unterstützt hätte im nicht viel schlanker ausgesehen (das einzige was man sich wirklich hätte sparen können was Transistoren angeht ist die Dyn-Branching-Logik und die Rechengenauigkeit von 32-Bit).
Mr. Lolman
2007-01-25, 14:59:36
Aber es gab keine SM 2.0-Lüge und keine SLI/Crossfire-Lüge. Nicht alles ist Lüge!X-D
SM2 Lügen gabs wohl nicht, weil der R300 vgl. zum NV25 auch in DX8 noch flott genug war, und SGMSAA als interessantes und überall nutzbares Feature mitbrachte.
SLI und CF Lügen gibts deswegen nicht, weil die Dinger auch nur das mehr können, was die Benchmarkbalken zusätzlich anzeigen. Außerdem lassen sich da auch kleine Lügen finden.
In vielen Reviews steht, dass AFR performanceseitig praktischer ist. Dass dadurch ein Lag ensteht, hab ich noch nirgends gelesen. Mit 4-Way AFR hat man in Q4 Multiplayer so zB automatisch einen Lag von 67ms. Dazu vll noch nen TFT mit Overdrive und man braucht sich auch mit nem Ping von 0 nicht mehr wundern, warum man nix trifft. Das wär zB eine Lüge (in Form von Verschweigen der Wahrheit ;))
Genau gleich. Weil ich 3dfx-geschädigt bin. Bei 3dfx HW hab ich gewusst, dass die Transistoren zT nicht nur Wärme produzieren, sondern auch tatsächlich eingesetzt werden.
Wir wollen doch nicht vergessen, dass es aus genau diesem Grund 3dfx nicht mehr gibt: null technischer Fortschritt!
Neu entwickelte Features liegen nämlich immer eine zeitlang brach, bis die passende Software verfügbar ist.
mapel110
2007-01-25, 15:00:29
es gibt halt praktisch keinen unterschied zwischen dem ps2.b- und dem ps3.0-pfad. das war mir auch bekannt. inwieweit der ps2.0-pfad noch hätte optimiert werden können und wieviel schneller er wäre, ist an hand der aussage von demirug aber imho nicht nachvollziehbar. tatsache ist, dass der ps2.0b- und der ps3.0-pfad geschwindigkeitsvorteile bringen und das nicht zu knapp...
Aussage von Demirug in dem Thread war letztenendes, dass die meisten Geschwindigkeitsoptimierungen auch mit ps2.0-non-a-non-b hätte realisiert werden können (Also R300-PS2.0).
Mr. Lolman
2007-01-25, 15:21:26
Man zahlt ja nicht unbedingt einen Aufpreis dafür. Beim Vergleich 6600GT vs. x700pro hat man eine schnellere Karten mit mehr Features zum gleichen Preis bekommen. Auch x800pro und 6800GT waren gleich teuer und auch ungefähr gleich schnell. Man hat SM3 quasi kostenlos obendrauf bekommen. Warum sollte man in diesem Fall zur "veralteten" Karte greifen?
IdF gibts auch keinen Grund dafür. Sind die Features quasi gratis (und produzieren auch nicht gleich mehr Wärme und/oder Stromverbrauch), sehe ich keinen Grund, warum man drauf verzichten sollte.
Hab ich aber die Wahl zw. Features und Performance nehm ich immer zweiteres.
Dann versteh ich dich nicht was NV4x angeht. Bis auf die wohl äußerst spärliche Logik um dyn. Branching zu erlauben sind da eigentlich alle Transistoren sehr sinnvoll eingesetzt, auch was SM2 angeht.
Arbitary Swizzling: Hilft auch bei SM2.
Unendliches Programm durch nachladen des Programms direkt aus dem Speicher: Spart den Instructions-Cache auf dem Chip (den R5xx immer noch hat)
Keine Interpolatoren sondern ausrechnen des Interpolanten nur wenn man ihn braucht: Spart Logik.
Usw. usf. Ich sehe nicht was an der Architektur so schrecklich auf SM3 getrimmt wurde ;)
Das SM3 marketingtechnisch ausgeschlachtet wird ist doch klar, aber die Architektur hätte auch wenn sie bloß SM2 unterstützt hätte im nicht viel schlanker ausgesehen (das einzige was man sich wirklich hätte sparen können was Transistoren angeht ist die Dyn-Branching-Logik und die Rechengenauigkeit von 32-Bit).
Ich seh den NV4x auch nicht als Fehlentwicklung an (sonst hätt ich ihn mir wohl kaum gekauft). Allerdings wird er performanceseitig tw.deutlich von nem R4x0 abgezogen.
Außerdem gibts wohl sehr wenig Tests, die unter vergleichbaren Bedingungen entstanden sind. Und wenn ich dann sehen musste, dass HQ in UT2004 tw. um >40% einbricht, und dass damit praktisch nichtmehr die in den Reviews beworbene Leistung erreicht wird (denn damals war ja NV default offiziell noch mit ATi default vergleichbar) - dann schmälert das halt die Freude an der HW.
Wär der ganze BQ-Schmarrn nicht gewesen (sondern mit HQ Qualität die Leistung von NV-default) und hätt ich auch keinen Stress mit Treibern/videoprozessor und Overlay gehabt, wär ich mit dem NV40 wahrscheinlich rundum zufrieden gewesen.
Wir wollen doch nicht vergessen, dass es aus genau diesem Grund 3dfx nicht mehr gibt: null technischer Fortschritt!
Neu entwickelte Features liegen nämlich immer eine zeitlang brach, bis die passende Software verfügbar ist.
Nicht deswegen, sondern weil ihnen das zu hart angelastet wurde. Lies dir mal das 3dfx Voodoo5 6000 Review durch. Schau dir die 4xAA 16bit-Screenshots an. Überleg dir dann, ob du auf ner GF4 mit 4xS und 16bit spielen hättest wollen. Dann vergleich zB mal die 16bit 4xAA Benchmarks der Voodoo5 mit den 32bit 4xS der Ti4200.
Man merkt die Speed war mehr als da, und die Bildqualität passte auch. Pfeif doch auf die Features, wenn UT2004 zB auf ner DX6 (1998) Techlevelkarte genausogut aussieht, wie zB auf ner DX9 Karte (2003)
Bei meiner 6800GT hatte ich eben genau solang das Gefühl dass sie Highend-HW ist, bis ich die ersten SM3.0 Spiele damit gespielt hab ;)
Und sobald die Karte nicht mehr High-End ist, wird sie unbrauchbar? Das finde ich genauso unverständlich wie Leute die sich darüber aufregen dass sie auf ihrer ein Jahr alten "High-End-Karte" nicht mehr mit "maximalen Details" in höchster Auflösung spielen können. Ja was wollen sie denn, dass die Spieleentwickler die Maximaleinstellungen einfach weglassen?
Das würdest du auch so schwer beurteilen können. Denn soviel anders schaut korrektes Motionblur auch nicht aus, als Motiontrail. Andererseits könnte man eigentlich auch gleich drauf pfeifen und sich nen TFT mit ner hohen Responsetime holen - zumindest für jemanden der nur Rennspiele spielt (und sichs auf Blur steht) wär das doch viel vernünfter, zuerst nen teuren TFT mit ner hohen zeitlichen Auflösung zu kaufen, und dann ne teuere GraKa die in jedes Bild korrekt zeitliches AA einberechnet und damit erst wieder alles bewegte 'unscharf' macht. X-D
Um Motion Trail nicht von Motion Blur unterscheiden zu können, muss man wohl blind sein.
Oder überhaupt Bumpmapping ansich. Der Effekt ist imo nur bei bewegten Objekten oder Lichtern praktisch. So ists zwar schön, wenn der Boden bei ner Kamerabewung unterschiedlich reflektiert, aber bei ner statischen Beleuchtung, brauch ich zB kein Bumpmapping in Ziegelmauern. Klar für den Artists ists einfacher, und die Beleuchtung wird auch berechnet, aber die Struktur zB direkt in die Textur eingearbeitet, kann man mit schnödem Multitexturing oft ähnlich gute dafür aber weitaus performantere Ergebnisse erzielen.
Bumpmapping spart Texturspeicher weil man damit Texturen in unterschiedlichen Beleuchtungssituationen wiederverwenden kann. Das ginge mit vorberechnetem Bump-Lighting nicht. Außerdem kostet Bumpmapping auf heutigen Karten kaum Leistung.
Es ist auch nicht sinnvoll zu sagen, man solle doch SM2.0 erst mal "voll ausnutzen" bevor man zu SM3.0 übergeht. Das ist vergleichbar damit dass man doch erst einmal die Dampfmaschine "voll ausnutzen" sollte bevor man zum Verbrennungsmotor übergeht.
Asmodeus
2007-01-25, 16:00:54
Ich finde die Diskussion aus einem ganz bestimmten Grund lustig. Bisher wurden neue "Shader-Versionen" immer mit neuen Möglichkeiten bei der Effektgenerierung verbunden und beworben. Nun gibt es wie an diesem Thread zu sehen, Leute, die dann bemängeln, dass diese Effekte zum Zeitpunkt der Veröffentlichung der entsprechenden Hardware sowieso nie performant in Spielen eingesetzt werden, da diese neuen Effekte erst ein oder zwei Genertionen später in Spielen auftauchen und die ursprüngliche Hardware dann schon zu alt ist. Mit Shader 4.0 kommt nun eine Erweiterung, die durch ihre neuen Möglichkeiten in erster Linie keine neuen Effekte bietet, sondern primär durch die Implementation neuer Ansätze die Geschwindigkeit erhöht/den Szenendetailreichtum wachsen lässt. Und das oft schon durch relativ kleine, überschaubare Änderungen am Programmcode. Tja und was ist, schon motzen andere Leute in einem anderen Thread: "Shader 4.0, was hab ich denn jetzt davon, ich seh ja gar nichts." :rolleyes:
Also die einen regen sich drüber auf, wenn zu viel auf "Effekthascherei" gesetzt wird und diese Effekte dann in echten Spieleszenarien nicht performant ausgeführt werden können. Und setzt man mit einem neuen Shadermodell vordergründig auf Performanceverbesserung, dann jammern andere, dass man ja gar nichts neues sieht. Und was lernen wir daraus, wie man es macht, macht man es verkehrt und recht machen kann man es sowieso nie allen. ;)
Gruss, Carsten.
Hö und? Wir sind in Deutschland, was hast du erwartet? Allerdings hat uns die Nörglerei auch zu einen der technisch besten Nationen gemacht. Nur wundern sollte man sich nicht. Nicht jedenfalls, wenn man in diesem Land groß gewarden ist.
Mr. Lolman
2007-01-25, 18:19:18
Und sobald die Karte nicht mehr High-End ist, wird sie unbrauchbar? Das finde ich genauso unverständlich wie Leute die sich darüber aufregen dass sie auf ihrer ein Jahr alten "High-End-Karte" nicht mehr mit "maximalen Details" in höchster Auflösung spielen können. Ja was wollen sie denn, dass die Spieleentwickler die Maximaleinstellungen einfach weglassen?
Nein, unbrauchbar wird sie nicht. Allerdings ist die Hardware, die den Techlevel erhöht, meistens nur mehr Mittelklasse wenn der Techlevel dann tatsächlich genutzt wird. Wollte man möglichst günstig immer im oberen Performancebereich mitspielen, empfohl es sich in der Vergangenheit schon ein paar mal, eher die GraKa mit der besten Leistung (Performance+BQ) als die mit dem höchsten Techlevel zu kaufen. (denn gratis sind die Features ja auch nicht)
Um Motion Trail nicht von Motion Blur unterscheiden zu können, muss man wohl blind sein.
Sicher? Worin unterscheidet sich optisch ein gut implementiertes Motion Trail, von einem eben so gut implementiertem Motion blur?
Bumpmapping spart Texturspeicher weil man damit Texturen in unterschiedlichen Beleuchtungssituationen wiederverwenden kann. Das ginge mit vorberechnetem Bump-Lighting nicht. Außerdem kostet Bumpmapping auf heutigen Karten kaum Leistung.
Es ist auch nicht sinnvoll zu sagen, man solle doch SM2.0 erst mal "voll ausnutzen" bevor man zu SM3.0 übergeht. Das ist vergleichbar damit dass man doch erst einmal die Dampfmaschine "voll ausnutzen" sollte bevor man zum Verbrennungsmotor übergeht.
Es ist aber genauso unsinnig sich gleich den 1. Wagen mit verbrennungsmotor zu kaufen und zu denken, man sei für die Autobahnen der Zukunft gerüstet.
Und ja, heutzutage ist Bumpmapping durchaus sinnvoll einsetzbar. Das Feature gibts aber auch schon seit geraumer Zeit.
Man sollte vielleicht berücksichtigen, dass es hier 2 unterschiedliche Interessen gibt. Die einen wollen eine Technologie einführen. Ohne Hardwarebasis benutzt die kaum ein Programmierer. Also muss man erst mal eine schaffen.
Dann gibt es immer noch die Nutzer. Zugegeben, die meisten haben keinen Schimmer von dem, was die da kaufen, wozu gibt es Marketing ;). Aber als Konsument steht es einem frei, sein Geld so auszugeben, wie man es für richtig hält und sich zu informieren. Wenn man das Gebaren der Industrie kennt, ebenso wie die zeitlichen Abläufe, dann darf man bei wirtschaftlicher Überlegung (nur das eigene Konto betrachtet) niemals die stärkste aktuelle Hardware kaufen. Für die aktuellen Spiele sind die Steigerungen meist irrelevant, weil man schon mit einer Generation davor schon ausreichend spielen kann. Für zukünftige Spiele sind die aktuellen Topprodukte allerdings schon fast wieder zu lahm. Stimmt schon aber so läufts nun mal. Aber wie man nun sein Geld ausgibt, steht einem doch frei?
Zum Glück gibt es ja mittlerweilse das Netz, aus dem man sich alle Information saugen kann. Früher hätte ich deinen Einwand unterschrieben, da wurde man ja größtenteils von den Zeitschriften und den Marketingabteilungen der Firmen verarscht, dass es nicht mehr feierlich war. Sich richtig zu informieren, war auch nicht möglich. Ich glaube auch, dass einige diesen Zeiten hinterherweinen.
Man sollte vielleicht berücksichtigen, dass es hier 2 unterschiedliche Interessen gibt. Die einen wollen eine Technologie einführen. Ohne Hardwarebasis benutzt die kaum ein Programmierer. Also muss man erst mal eine schaffen.
Dann gibt es immer noch die Nutzer. Zugegeben, die meisten haben keinen Schimmer von dem, was die da kaufen, wozu gibt es Marketing ;). Aber als Konsument steht es einem frei, sein Geld so auszugeben, wie man es für richtig hält und sich zu informieren. Wenn man das Gebaren der Industrie kennt, ebenso wie die zeitlichen Abläufe, dann darf man bei wirtschaftlicher Überlegung (nur das eigene Konto betrachtet) niemals die stärkste aktuelle Hardware kaufen. Für die aktuellen Spiele sind die Steigerungen meist irrelevant, weil man schon mit einer Generation davor schon ausreichend spielen kann. Für zukünftige Spiele sind die aktuellen Topprodukte allerdings schon fast wieder zu lahm. Stimmt schon aber so läufts nun mal. Aber wie man nun sein Geld ausgibt, steht einem doch frei?
Zum Glück gibt es ja mittlerweilse das Netz, aus dem man sich alle Information saugen kann. Früher hätte ich deinen Einwand unterschrieben, da wurde man ja größtenteils von den Zeitschriften und den Marketingabteilungen der Firmen verarscht, dass es nicht mehr feierlich war. Sich richtig zu informieren, war auch nicht möglich. Ich glaube auch, dass einige diesen Zeiten hinterherweinen.
jepp !
Wer Genug Geld und den Willen hat, kann sich ja immer SLI oder Crossfire mit den Top-Grafikkarten kaufen.
Trotzdem finde ich den Energieverbrauch der 8800er in IDLe absolut nicht mehr zeitgemäß und feierlich. Unter Last nicht so wichtig, aber unter IDLe ist so ein Stromverbrauch einfach nur pervers und zeigt in die falsche Richtung.
Tigerchen
2007-01-25, 18:56:34
Es ist aber genauso unsinnig sich gleich den 1. Wagen mit verbrennungsmotor zu kaufen und zu denken, man sei für die Autobahnen der Zukunft gerüstet.
Genau das wird hier aber immer und immer wieder suggeriert.
tokugawa
2007-01-25, 19:04:32
Genau das wird hier aber immer und immer wieder suggeriert.
Nö.
Zum Originalposter: Bisserl mehr vorausdenken!
Ohne die NV40 gäbe es SM3-Spiele noch viel später. Sie war schon wichtig für die Etablierung von SM3 in Spielen.
Es ist immer wieder erstaunlich, wie unglaublich enstirnig manche Leute sein können und in welchem engen geistigen Horizont sie sich bewegen... mehr ist dazu nicht zu sagen.
Die ersten Karten mit einer bestimmten Technologie sind Pioniere - sie sind wichtig damit die Research-Sparte sowie die Entwickler mal was anstarten können. Für den Spieler ist dies nur indirekt relevant. Für den zählen die Features die aktuell für ihn nutzbar sind.
ABER, und hier ist der große Denkfehler: Bloß weil es nur eine indirekte Relevanz ist, heißt das nicht dass die Features "unnütz" sind, vor allem nicht wenn die jeweiligen Karten trotzdem performant genug sind bei aktuell nutzbaren Techniken (die NV40 war ja nicht langsam, die G80 ist es auch nicht, nur bei der NV30 war dieser Faktor sehr diskutabel).
Natürlich wird selbst der kleinste und indirekteste Vorteil vom Marketing aufgeblasen. Aber keiner kann guten Gewissens behaupten dass SM3 und SM4 als zentrales Werbemerkmal verwendet wurde. Das zentrale, was beworben wird, ist die Performance in aktueller Technologie - SM3 und SM4 wurde zwar beworben, aber nicht als das Killerfeature schlechthin ohne dem nichts mehr geht.
Selbst wenn eine Grafikkarte einen guten Geruch hätte und Duft versprüht, würde das auf der Packung stehen. Ist es deswegen das zentral beworbene Feature? Nein.
Nein, unbrauchbar wird sie nicht. Allerdings ist die Hardware, die den Techlevel erhöht, meistens nur mehr Mittelklasse wenn der Techlevel dann tatsächlich genutzt wird. Wollte man möglichst günstig immer im oberen Performancebereich mitspielen, empfohl es sich in der Vergangenheit schon ein paar mal, eher die GraKa mit der besten Leistung (Performance+BQ) als die mit dem höchsten Techlevel zu kaufen. (denn gratis sind die Features ja auch nicht)
Ja, wer sich als Spieler alle 18 Monate eine neue High-End-Grafikkarte kauft braucht sich um das Featureset in der Regel keine großen Gedanken zu machen. In seltenen Fällen muss man dann eben damit leben, dass man nicht alles zu sehen bekommt.
Sicher? Worin unterscheidet sich optisch ein gut implementiertes Motion Trail, von einem eben so gut implementiertem Motion blur?
Motion Trail zieht nach, es wirkt unnatürlich. Motion Blur dagegen nicht, sobald ein Objekt still steht ist es sofort scharf.
Es ist aber genauso unsinnig sich gleich den 1. Wagen mit verbrennungsmotor zu kaufen und zu denken, man sei für die Autobahnen der Zukunft gerüstet.
Das Hirn sollte man beim Kauf schon einschalten. Das heißt aber nicht, dass man von den Vorteilen des Verbrennungsmotors nichts zu sehen bekommt.
Und ja, heutzutage ist Bumpmapping durchaus sinnvoll einsetzbar. Das Feature gibts aber auch schon seit geraumer Zeit.
Und es war schon von Anfang an sinnvoll einsetzbar.
haifisch1896
2007-01-25, 20:24:49
Ganz ehrlich:
Diese Diskussion führt doch zu nichts, da die Meinungen scheinbar zu fest in den Köpfen der Teilnehmer verankert zu sein scheinen.
Sentionline
2007-01-25, 21:00:42
Neu entwickelte Features liegen nämlich immer eine zeitlang brach, bis die passende Software verfügbar ist.
Hab ich gemerkt. Das Spiel auf das ich mich gefreut habe gibts jetzt für die XboX, aber nicht für den PC. Aber einem mit den Demos erstmal den Mund wässrig machen...und demnach den willigen Käufer anlocken und das Geld aus der Tasche ziehen...:deal:
Und sobald die Karte nicht mehr High-End ist, wird sie unbrauchbar? Das finde ich genauso unverständlich wie Leute die sich darüber aufregen dass sie auf ihrer ein Jahr alten "High-End-Karte" nicht mehr mit "maximalen Details" in höchster Auflösung spielen können...
Naja, die Spiele laufen schon noch. Aber die Qualität der Spiele macht eine Talfahrt. Zuminderst auf dem PC, somit ist es vollkommen egal ob man eine High-End Karte hat oder nicht. Die Spiele an sich sind unspielbar geworden durch etliche Bugs, Lags...:udown:
...Es ist auch nicht sinnvoll zu sagen, man solle doch SM2.0 erst mal "voll ausnutzen" bevor man zu SM3.0 übergeht.
Doch, im Grunde schon, denn sonst komme ich mir als Kunde veräppelt vor (ist ja ganz was neues im PC Segment:rolleyes: ). Ich hab mir die schnellste Karte für AGP vor einem Jahr gekauft, denn alle haben geschrien "Boah, die macht ja jedes Spiel für die nächsten Jahre mit..."
...jetzt schon alt? Man darf jetzt aber nicht Äpfel mit Birnen vergleichen. Chefentwickler Cevat Yerli über die Systemvoraussetzung von CrySis: "...minderstens eine Shader 2.0 Grafikkarte..."
Sollte sich rausstellen das das besagte Spiel mit meiner X850XT-PE (die leistungsfähigste Shader 2.0b Grafikkarte) annehmbar läuft, müssen sich die Spieleentwickler den Schuh anziehen nicht mit "Hirn" zu programmieren.
Für die aktuellen Spiele sind die Steigerungen meist irrelevant, weil man schon mit einer Generation davor schon ausreichend spielen kann.
Das schon, da gebe ich dir recht...
Für zukünftige Spiele sind die aktuellen Topprodukte allerdings schon fast wieder zu lahm.
Naja, "zu lahm" würd ich nicht sagen. Die Leistung steigt ja nur exorbitant an, um die Bugs im Hintergrund "gerade zu Rechnen":ugly:
Ich bin auch keiner der Jährlich Teile für seinen Rechner kauft...wenn ich aber in zukunft etwas kaufe/n (muss), dann will ich aber wissen wofür...
mapel110
2007-01-25, 21:05:23
Doch, im Grunde schon, denn sonst komme ich mir als Kunde veräppelt vor (ist ja ganz was neues im PC Segment:rolleyes: ) Man darf jetzt aber nicht Äpfel mit Birnen vergleichen. Chefentwickler Cevat Yerli über die Systemvoraussetzung von CrySis: "...minderstens eine Shader 2.0 Grafikkarte..."
Sollte sich rausstellen das das besagte Spiel mit meiner X850XT-PE (die leistungsfähigste Shader 2.0b Grafikkarte) annehmbar läuft, müssen sich die Spieleentwickler den Schuh anziehen nicht mit "Hirn" zu programmieren.
:
Die Logik versteh ich nicht.
Aber generell kann man nicht von Spiele-Beispielen auf SM2 und SM3 als Techniken zurückschließen, weil eben der Content zu stark entscheidend dafür ist, was man mit welcher Performance zu sehen bekommt.
Ich bin auch keiner der Jährlich Teile für seinen Rechner kauft...wenn ich aber in zukunft etwas kaufe/n (muss), dann will ich aber wissen wofür...
Dann kannst du eben keine Zukunftsfeatures kaufen. Zwar gabs in letzter Zeit wenig Standards, die sich nicht durchgesetzt haben, aber spontan fällt mir da BTX ein, RDRAM und so weiter.
Naja, die Spiele laufen schon noch. Aber die Qualität der Spiele macht eine Talfahrt. Zuminderst auf dem PC, somit ist es vollkommen egal ob man eine High-End Karte hat oder nicht. Die Spiele an sich sind unspielbar geworden durch etliche Bugs, Lags...:udown:
Das finde ich jetzt nicht, aber was hat das mit dem Thema zu tun?
Doch, im Grunde schon, denn sonst komme ich mir als Kunde veräppelt vor (ist ja ganz was neues im PC Segment:rolleyes: ). Ich hab mir die schnellste Karte für AGP vor einem Jahr gekauft, denn alle haben geschrien "Boah, die macht ja jedes Spiel für die nächsten Jahre mit..."
...jetzt schon alt? Man darf jetzt aber nicht Äpfel mit Birnen vergleichen. Chefentwickler Cevat Yerli über die Systemvoraussetzung von CrySis: "...minderstens eine Shader 2.0 Grafikkarte..."
Sollte sich rausstellen das das besagte Spiel mit meiner X850XT-PE (die leistungsfähigste Shader 2.0b Grafikkarte) annehmbar läuft, müssen sich die Spieleentwickler den Schuh anziehen nicht mit "Hirn" zu programmieren.
Da schließe ich mich mapel an: Die Logik verstehe ich nicht.
tokugawa
2007-01-25, 22:09:52
Ganz ehrlich:
Diese Diskussion führt doch zu nichts, da die Meinungen scheinbar zu fest in den Köpfen der Teilnehmer verankert zu sein scheinen.
Da hast du recht.
Aber ich seh das so: manche hier reden aus Erfahrung aus der breiten Realität der Anwender von Computergrafik-Hardware, andere nur aus ihren begrenzten Horizont.
Ersteren wage ich eher zu glauben als letzteren.
ScottManDeath
2007-01-25, 22:25:58
Es gibt genügend Vielfalt im Markt, so dass sich jeder nach seinem Willen und Wissen kaufen kann was er will, angefangen von älteren SM2.0 Karten bishin zu (aktuellen) high end SM4.0 Karten. Wer denkt, dass er keine aktuellen Features zum Zeitpunkt X benötigt, bitte, es gibt genügend andere Alternativen. Allerdings setzt dieses eine hinreichend ausgeprägte Reflektionsfähigkeit über vorhandende und zukünftige Bedürfnisse und Angebote voraus ...
Warum also das Pipi in den Augen:redface:
(ohne jetzt die letzten Seiten alle durchgelesen zu haben)
Auf welcher Hardware sollen denn bitte Games entwickelt werden, die die neuen Technologien nutzen? Das ist das klassische Henne/Ei-Problem.
Die Graka-Hersteller _müssen_ mit der Hardware vorlegen. Und um die auch dem Normalverbraucher schmackhaft zu machen wird halt damit geworben, dass die sich jetzt noch in der Entwicklung befindlichen Games die Features nutzen werden (wobei sie ja gar nicht mal unrecht haben). Das heutige Games mit Multimillionen-Dollar-Budgets mal um ein (paar) Jahr(e) verrutschen können ist auch nix neues. Somit kann sich jeder selbst ausrechnen, dass die Games nicht direkt zum Launch verfügbar sein werden (wie auch).
Und wer sich von der Industrie beschissen fühlt kann sich ja 'ne gute alte Matrox G400 bei eBay schießen. Kostet fast nix, analoge Bildquali und TV-Out sind exzellent und man muss sich keine Gedanken über irgendwelche Shader-Lügen machen.
In diesem Sinne...
elianda
2007-01-25, 23:12:57
Es laeuft doch eher so:
Beim Grafikchip Hardwarehersteller steht ein Ingeneur im Entwicklungslabor und designed eine neue 'Generation'. Durch neue Fertigungstechnologien ist Platz auf dem Die nicht nur mehr Pipelines sondern auch neue Features zu integrieren.
Er redet mit Softwareentwicklern/Theoretikern um herauszufinden, welche Funktionen in Hardware praktisch waeren. Nur mal als Beispiel TnL, oder P/V Shader oder unified Shader...
Die Firma redet mit MS, ob sie es in DirectX integrieren werden. Das ist wichtig, denn wenn keine API da ist, wird niemand die Funktionen nutzen (koennen).
Der Ingeneur bauts in die Hardware ein und es wird produziert. Zu dem Zeitpunkt weiss noch niemand, ob diese Funktionalitaet jemals grossartig eingesetzt wird. Wenn sie aber sinnvoll war ist die Chance gross.
Auf der anderen Seite sitzt der Spieleentwickler, der (angenommen) an einem Spieleprojekt sitzt, um in 4 Jahren ein aktuelles Spiel rauszubringen. Er hat aber nur die Technik von heute. Also nimmt er das, was heute brandneu ist und reizt es exzessiv aus, da er weiss, dass auch neue Karten die heutigen Funktionen in Zukunft unterstuetzen und das sogar schneller. Zum Releasezeitpunkt haben die neuen Karten natuerlich auch schon neue Features, die in seinem Spiel noch nicht zum Einsatz kommen.
Hat da nun irgendwer einen groben Fehler begangen?
Piffan
2007-01-25, 23:36:02
Dieser Ganze Thread ist in diesem Unterforum mehr als deplaziert. Hier gehts nicht um Technologie, sondern um Motzerei über Marketing und die ewige Abzockspirale in der Marktwirtschaft und darum, dass manche dem Wahn verfallen sind, dass die Technikentwicklung gefälligst still stehen muss, weil ihre eigene Hardware ja wohl gut sei und kein Mensch mehr benötige....:rolleyes:
"Nötig" ist vieles nicht......jedem steht es frei, jederzeit auszusteigen. Hey, wisst ihr, dass ihr zu Hause Werte rumstehen habt, für die in manchen Ländern eine Familie ein Jahr überleben kann? Dieses willige Verschwenden von Geld und das gleichzeitige Jammern darüber kotzt mich an. :mad:
Die neuen Features nimmt der willige High End Spieler immer gern als Bonus.
ein Bonus der Dir außer bei Tech-Demos 0,0 bringt!? :cool:
Vll. ists echt nur in meinem Sinne, dass meine HW optimal genutzt wird, und nicht bloß mit billig drangeklatschten Effekten protzt. Die meisten anderen hier haben sich sich wohl schon verinnerlicht, durch teure featureprotzende Highend Hardware, die Faulheit der Entwickler zu unterstützen.
eben eben eben - ordentlich programmiert wäre Windows höchstens halb so groß und mindestens doppelt so schnell, das war zu Zeiten der 8 und 16 Bit Computer noch völlig anders
Auch x800pro und 6800GT waren gleich teuer und auch ungefähr gleich schnell. Man hat SM3 quasi kostenlos obendrauf bekommen. Warum sollte man in diesem Fall zur "veralteten" Karte greifen?
unter der Annahme von gleich teuer und gleich schnell könnte man sich natürlich überlegen das mehr an Features zu nehmen. Wenn dann ein neues Spiel auf der 6800 mit SM3 läuft, gut aussieht aber unspielbar langsam ist, dann wäre man mit der X800 vermutlich besser bedient gewesen, sieht vielleciht nicht ganz so hübsch aus, hat aber brauchbare Frameraten
eben eben eben - ordentlich programmiert wäre Windows höchstens halb so groß und mindestens doppelt so schnell, das war zu Zeiten der 8 und 16 Bit Computer noch völlig anders
Ja ne is klar... :hammer:
Hakkerstiwwel
2007-01-26, 08:13:32
...
Ansonsten habe ich eine GF6800 und habe den SM3 - Support (z.T. im HDR-Bundle) bei mindestens folgenden Sachen genutzt:
- Oblivion
- FarCry
- AoE3
- SC:CT
- SC: DA
- Gothic3
Vielleicht hab' ich noch was vergessen...
Oblivion wuerde ich in dieser Liste mal weglassen, es laeuft auf nV Karten standardmaessig im SM2.a, auf Atis im SM2.b Modus.
1. Aussage: Im Februar 2004 erscheint die NV40 alias GeForce 6800 Ultra, und die ersten Tec-Demos der neuen Unreal Engine 3 alias Shader Model 3 flimmern über die Bildschirme und machen einem zu glauben, das wir "schon bald" solche Grafiken genießen dürfen.
Antwort: falsch - die NV40 wird Spiele mit dieser Technik wegen mieser Programmierarbeit nicht flüssig darstellen.Woher weißt du denn heute schon, dass Unreal 3 auf dem NV40 nicht flüssig darstellen wird?? Und wer hat diese "Aussage" überhaupt als solche getroffen? Ich habe mit eigenen Augen einen Unreal-3-Engine-Zwischenstand auf einer 6800-Ultra-SLI sehr flüssig laufen gesehen. Ich kenne keine offizielle Aussage weder von Epic noch von Nvidia, dass NV40 als Singlekarte Unreal 3 garantiert flüssig darstellen können wird.
2. Aussage: Im Jahr 2005 kommt die PCIe und AGP wird für Tod erklärt. Keine weiteren Techniken werden von nun an für AGP hergestellt. Jedem wird geraten auf PCIe umzusteigen.
Antwort: falsch - Selbst die G71 & R5xx werden aktuell auch für AGP angeboten und hergestellt
Quelle der Aussage? Zumindest von NV habe ich (zu NV40-Zeiten) noch ganz anderes gehört, dass man je nach Bedarf auch NV50, 60 und 70 noch für AGP ausliefern könne.
3. Aussage: Mit der einführung der G70 alias GeForce 7 reihe wird die Shader 2.0 Technik des R4xx alias X800 für Tod erklärt. Jedem wird empfohlen für die Zukunft Shader 3.0 Hardware zu kaufen.
Antwort: falsch- 98% der aktuellen Spiele laufen auf Shader 2.0 HardwareNa solange die Mehrheit der Spieler bestenfalls überhaupt gerade mal DX9-konform sind, aber kein Shader Model 3 unterstützen, werden natürlich auch die Spiele in der Mehrheit noch auf SM2-HW laufen.
4. Aussage: Stranglehold (http://www.gamestar.de/magazin/preview/action/stranglehold/1465555/stranglehold.html) wieder verschoben (http://www.gamestar.de/news/pc/spiele/action/stranglehold/1467652/stranglehold.html) (Unreal Engine 3), und somit erscheint das erste Spiel mit der Unreal Engine 3 auf dem PC 3,5 Jahre nach den ersten Tec-Demo.
Antwort: richtighttp://img164.imageshack.us/img164/6244/tilgeangelighedkrone8ss.gif - neue Technik schnell verfügbar (4 Jahre später)
Somit stellt sich die frage, wann Shader 4 Technik auf der G80 einsatz findet. Jahr 2011?2007. Natürlich noch nicht großflächig. Das würde auch die Käuferwut aufsichziehen, wenn alle einen G80 oder R600 kaufen müssten, um neue Spiele überhaupt starten zu können.
Und wenn die Lügner nicht gestorben sind, dann leben sie noch heute. (---> Und das tun sie:rolleyes: )Was du "Lüge" nennst, halte ich eher für ein Missverständnis von deiner Seite.
Meine Meinung dazu: Ich habe in den Zeiten des NV40 immer fest daran geglaubt, dass man durch die SM3.0 Features noch zu Lebzeiten profitieren wird.
Leider kam es aber dann doch anders. Die Gründe dafür sehe ich in folgenden Punkten:
1. R4xx bot kein SM3, dadurch war es für die meisten Spieleentwickler einfacher, auf SM3 zu verzichten, anstatt verschiedene Renderingpfade zu implementieren.
2. Dynamic Branching ist auf NV4x bis G7x scheiss langsam, dh in der Praxis nicht wirklich gut einzusetzen.
3. Als nun R5xx mit schnellem DB daherkam, aber G7x dabei immernoch scheiss langsam war, wieder keine durchsetzung von SM3Häääää??
SM 3.0 bietet gegenüber SM 2.0 sehr viel mehr Vorteile als die Möglichkeit zum dynamic branching im Pixelshader. Jenes Feature ist nur eine von vielen Optionen, das 3D-Rendering im Vergleich zu SM-2.0-Technologie zu beschleunigen.
Mir ist eigentlich schon klar dass das Shadermodel 3.0 mehr bietet als nur DB. Ich hebe es deshalb immer wieder heraus, weil ich denke es ist eines der wichtigsten Features!Es ist ein wichtiges Feauture, aber langsames PS-DB macht SM3 à la NV40/G70 nicht nutzlos. Mehr Interpolatoren, die neuen Befehle, längere Programme – so sind auch schon mit SM2 mögliche Effekte mit weniger Befehlen oder weniger Passes zu rendern, und es sind auch einige neue Sachen machbar, die mit SM 2 gar nicht (oder nicht in sinnvoller Geschwindigkeit) realisierbar sind. Die Frage vom PS-SB in SM3 ist eine reine Performance-Frage. Das macht die Features von SM3 nicht irgendwie unwichtiger.
Das Gute ist: Der HLSL-Shader für einen bestimmten Effekt lässt sich für das SM3-Profil kompilieren, so dass bestimmte mögliche Optimierungen automatisch eingebaut werden, ohne dass der Entwickler noch mal irgendwie Hand anlegen muss.
BTW: Eine technisch (also featuremässig) schwache HW Basis bremst bei weitem nicht so die Entwicklung wie immer propagiert wird. Doch, leider.
Die ganzen Shadergeschichten kommen (neben einer Möglichkeit zur Auslastung von Highend-HW) tw. bloß der Faulheit der Artists zu gute. Da hat man eine polygonarme, schnell hingepfuschte Szenerie (ist das nicht seltsam wie viele rechte Winkel immernoch in Spielen vorkommen? Wohl nicht, wenn man weiss, dass es für den Artist einfacher ist, alles ans Grid auszurichten ;)) - wertet die aber zB mit Parallaxmapping (was so gut wie immer so aussieht, als würde sich hätte einer der Artists eine Quecksilberaffinität) und Bloom auf. Die ersten Pixelshader waren eigentlich nur "unified Multitexturing-Setups". Gut für den Entwickler: Er kann darauf vertrauen, dass jede spezifizierte Combiner-Operation garantiert vorhanden ist. Dies gibt Entwicklungssicherheit. Spätere Shader wurden mehr und mehr "richtig" programmierbar. Das ermöglicht dem Artist viel mehr Freiheiten.
Dass man einige Effekte wie Ölbumpmapping oder Overbright-Blur übermäßig einsetzt liegt nicht zuletzt auch am Wunsch vieler Spiele, Effekte zu sehen. Wie oft wird auch hier im Forum gemeckert, dass man jetzt zwar die neue Karte hätte aber keine neuen Effekte in Spielen sehen würde, wie sie doch in den Techdemos propagiert wurden?
Oder überhaupt Bumpmapping ansich. Der Effekt ist imo nur bei bewegten Objekten oder Lichtern praktisch. So ists zwar schön, wenn der Boden bei ner Kamerabewung unterschiedlich reflektiert, aber bei ner statischen Beleuchtung, brauch ich zB kein Bumpmapping in Ziegelmauern. Klar für den Artists ists einfacher, und die Beleuchtung wird auch berechnet, aber die Struktur zB direkt in die Textur eingearbeitet, kann man mit schnödem Multitexturing oft ähnlich gute dafür aber weitaus performantere Ergebnisse erzielen. Da sich der Winkel Betrachter - Oberfläche ändert, kann Bumpmapping auch bei feststehender Lichtposition sinnvoll sein. Siehe Option "Geländehervorhebungen" in World of Warcraft, was technisch Specular Bumpmapping ist.
BTW: Bloom kann wohl spätestens jede DX6 Karte darstellen. Motionblur und Bumpmapping auch. Merkt ihr, dass wir momentan Spiele mit einer Grafik spielen, die uns schon vor ~6 Jahren mit vollmundigen Werbeversprechungen verkauft wurden? Toy-Story und Final Fantasy in Realtime auf ner GeForce3?
Jetzt haben wir Grafik die sich schön langsam ans Niveau von FF oder TS annähert, aber inzwischen 10-20x schnellere HW. Was merkt man? Die Features auf der HW sind im Normalfall für die Katz - zumindest für die durchschnittliche Nutzungsdauer von 2-3 Jahren. Du sprichst Contentprobleme an, die natürlich durch bessere Technik nur unzureichend übertüncht werden. Content zu erstellen ist nun mal teurer, als die Effekte zu programmieren. Da sowohl Presse als auch Käuferschaft oft mit Effekten zu beeindrucken sind, richten sich die Entwickler entsprechend ein, um den Profit zu maximieren. Neue Features sind aber nicht "für die Katz". Beispiele:
- Antialiasing: Sofort nutzbar
- Anisotrope Filterung: Sofort nutzbar
- TruForm: Die Revolution blieb aus, aber in einigen Spielen wurde es genutzt. Der Geometry Shader bei D3D10 ist zwar recht limitiert, aber bei weitem besser als TruForm.
- Shader 1: Endlich Sicherheit: Jede DX8-Karte muss qua definitionem jeden gültigen Shader 1.0 (später 1.1) ausführen können. Kein Gezitter mehr, ob auch dies oder jenes unterstützt wird.
- Shader 2: Zu Lebzeiten des R300 genügend oft genutzt. Auch kleine Karten (Radeon 9600) profitieren davon.
- Shader 3: Erhöht bei komplexen Effekten die Performance pro Takt und Pipeline. Daher gerade auch auf kleineren Karten sinnvoll.
- Shader 4: Weitere Steigerung der Leistung pro Takt und Pipe, endlich einigermaßen strenge Anforderungen an die Präzision. Daher generell sinnvoll.
Dabei nimmt die Tendenz zu, wirklich nur noch sinnvolle Features zu integrieren, die – sofern nicht schon geschehen – dann auch von der Konkurrenz geboten werden.
Man hilft zwar mit, die HW-Basis zu vergrössern, aber Konsolenentwickler schaffens genauso, bei gleichbleibender HW, die Grafik zu verbessern. Im Gegensatz zur PC-HW (deren Basis ja kontinuierlich mitwächst), muss man die Konsolen HW halt besser ausnutzen.Zwar sind gute Entwickler wichtiger als modernste Technik, wenn man ein gutes Spiel schaffen will. Aber gerade wenn es um Konsolen geht sollte man auch sehen, dass ohne die Forschung und Entwicklung im PC-Bereich die Konsolen heute technisch deutlich weiter zurückhängen würden. Deshalb wären die Spiele nicht unbedingt schlechter. Aber viele Leute wollen ja auch eine schnelle Entwicklung.
Mir machten Spiele auf einem ZX Spectrum unheimlich viel Spaß, trotz der schwachen Hardware (keine 5 MHz, gerade mal 48 KiB RAM, ...) Die Spieleindustrie will Geld verdienen und muss dazu alle Aspekte eines Spieles verbessern. Der technische Aspekt gehört zu den am leichtesten verkaufbaren.
Der "Spielspaß pro Transistor" nimmt beständig ab. Aber meine aktuellen Lieblingsspiele wären auf einem ZX Spectrum prinzipiell nicht möglich gewesen. Die schnelle HW-Entwicklung ist nun mal da. Warum darauf verzichten?
Vll. ists echt nur in meinem Sinne, dass meine HW optimal genutzt wird, und nicht bloß mit billig drangeklatschten Effekten protzt. Die meisten anderen hier haben sich sich wohl schon verinnerlicht, durch teure featureprotzende Highend Hardware, die Faulheit der Entwickler zu unterstützen. Das halte ich nun für sehr gewagt. Entwickler haben mit steigenden Shader-Versionen mehr Möglichkeiten, ihre Ideen umzusetzen. Zu warten, bis zum Beispiel ein Shader-Level 'erst mal ausgenutzt ist', wäre unsinnig, da ein höheres Shader-Level komplexe Effekte bei weniger Rohperformance rendern kann. Warum sollte man auf Effizienz verzichten und Entwickler zum Tricksen zwingen? Sie müssen dann tricksen und ggf. auf teureren Content zurückgreifen, wenn es die Hardware sonst nicht hergibt. Warum sollte dies erstrebenswerter sein, als den Entwicklern ständig mehr Freiheiten zu geben?
Bspw: Wenn ich sehe, dass FP16 MDRR + Tonemapping die Leistung auf tw. deutlich weniger als die Hälfte einbrechen lässt, dann nehm ich doch SM2.0 kompatibles FX12 LDR und hab auch die Möglichkeit zu Tonemapping, eine höhere Performance und untersütze gleichzeitig auch ne größere HW Basis.Ist wie gesagt, nur meine persönliche Meinung. Aber mir gefällt eine Spieltechnik wie sieh Flatout(2) zB hat weitaus besser als die eines Rainbow:six. Die Engine dahinter mag zwar durchaus fortschrittlich sein, aber es hat imo keinen besonderen Nutzen zB Radiositylighting zu nutzen/unterstützen, wenn sich aktuelle HW selbst in Techdemos damit plagt. Das Spiel rennt so auf Highend HW relativ bescheiden, unterstüzt kein AA und bleibt einem großen Teil der Spiel wegen SM3.0 Zwang vorenthalten. FX12-LDR mit SM2-HW – wo?
D3D10 Shader 4 verlangt zum Beispiel neue MDR-taugliche 32-Bit-Formate. Mit D3D10 kann man viele Szenen, die vorher pro Pixel 64 Bit (4x FP16) brauchten, mit 32 Bit pro Pixel berechnen. Ein gutes Beispiel, wie neue Technik und höhere Shader-Versionen die Effizienz steigern, und dass gerade auch Mittelklasse-Karten von modernsten Features profitieren.
Die Engine dahinter ist natürlich fortschrittlich, keine Frage, aber imo macht man sichs zu einfach, wenn man die ganze Lastgen HW ausperrt - v.a. weil mans auch nicht mit der notwendigen Konsqeuenz macht. Zusammengefasst heisst das:
1. Solang aktuelle Highend HW 5x flotter ist als Lowend-HW, ists natürlich praktisch, die Highend-HW Leistungsfressende Feature wie zB zB FP16 HDRR rechnen zu lassen, während Low-End HW das nicht macht. Dies ist aber bei weitem nicht das was man sich unter einer vernünftigen Nutzung von Rohleistung vorstellt. (salopp formuliert: Ein bisschen mehr Farbe und Kontrast kostet mich soviel wie eine 200€ GraKa)*
*will hier nicht gegen HDRR wettern, HDRR ist die Zukunft. FP16 HDRR ist aber immernoch wohl ähnlich notwendig, wie 32bit zu TNT2 Zeiten. Ich glaube nicht, dass sich durchgehendes FP16-HDR-Rendering durchsetzen wird, da mit D3D10 wie gesagt effizientere Datenformate zur Verfügung stehen. Die sind zwar ein wenig ungenauer als FP16, aber liefern optisch praktisch gleichwertige Ergebnisse.
2. Man sperrt einfach ältere HW aus. Problem: Macht man das anhand der Featurebasis, wird zB. ne ausreichend flotte X800XT ausgesperrt, während eine 7300GS vorsich hinruckeln darf.
3. Man sperrt generell zu schwache HW aus. - Das wär die Lösung, aber mach das mal jemand bitte (Attention: Your graphics card supports all important SM 3.0 features, but it's simply to slow, to render them in a satisfying framerate. The Game will now exit) :naughty:Letzteres würde den Kunden wohl erzürnen, während das obere Beispiel einfach die Folge technischer Limitierung wäre.
Dem IHV ists ja wurscht, ob die Features der HW zu lebzeiten brachliegen, der würde euch auch extra heisslaufende WintersaisongraKas mit mitgeliefertem Sockenwärmer verkaufen, wenn er könnte. Der ewig Featurehype spricht aber wieterhin für ihn.
Deswegen gabs ne 32bit Lüge, ne TnL Lüge, ne CineFX Lüge, ne SM3.0 Lüge und die nächste Lüge steht auch schon vor der Tür. Dass sich 32 Bit gegenüber 16 Bit durchsetzen würden, war keine Lüge sondern jedem klar. Auch 3dfx, die nur aus Marketinggründen andere Prioritäten ausgaben: 60 fps. Wobei das mit aktiviertem AA von der Voodoo 5 ja nicht mehr gehalten wurde. Da heißt es also, immer so zu reden, wie es gerade passt, bei ausnahmslos jedem IHV. Ein bisschen Recht hat jeder, voll und ganz Recht hat keiner.
Die T&L-"Lüge" war auch keine, abgesehen von Fantasiezahlen bezüglich der Transformationsleistung. Schon um den AGP-Verkehr zu entlasten ist T&L notwendig (ohne T&L ergeben Vertexbuffer keinen Sinn.) Es war zwar peinlich, wie auch in seriösen Zeitschriften Nicht-T&L-Grakas das fehlende T&L trotz mangelnder Praxisrelevanz penetrant angekreidet wurde. Doch T&L zu haben ist (bei ansonsten identischem Chip) natürlich besser, als es nicht zu haben. Dass T&L nicht so viel brachte wie eigentlich möglich ist aber auch Microsoft zu verdanken, die ihr D3D so designten, dass HW-T&L explizit von der Applikation unterstützt werden muss (und dass überhaupt mindestens Version 7 genutzt werden muss.) OpenGL kann bei Vorhandensein HW-T&L nutzen ohne dass die Applikation modifiziert werden muss. Das das Marketing um T&L in einen Hype ausartete ist imo größtenteils die Schuld der Redakteure, die die NV-White-Paper für bare Münze nahmen.
Inwiefern wurde bei CineFX gelogen? Die Features sind ja sehr gut und gehen in Richtung SM-3-Niveau. Dass die Performance nicht reicht, um Kinofilme in Echtzeit zu rendern, war auch jedem klar, NV sprach auch nur von "Dawn" des "Cinematic Computing".
Wer hat bei SM3 gelogen?
Wer sich also der ganzen Umstände bewusst ist, und sich seine Highend HW immernoch deswegen kauft, weil der denkt, dass die Features bald(iger) in Spielen zu sehen sind, ist imo selbst schuld. Das ist eben das Missverständnis. Viele Features sind in Spielen nicht mehr als Feature zu sehen, sie dienen nur der Effizienz. Gerade weil aber viele Spieler was sehen wollen, haben wir Ölbumpmapping und massives Overbright-Blur.
Man kann nicht vom Hersteller verlangen "macht dies und das", man sollte vom Spieler verlangen "achtet mehr auf die inneren Werte!"
Das würdest du auch so schwer beurteilen können. Denn soviel anders schaut korrektes Motionblur auch nicht aus, als Motiontrail. Doch, sogar sehr viel anders.
Zumindest hat er 20% mehr Leistung überall abrufbar.... außer bei den Sachen, die die Graka gar nicht kann und dort insgesamt 0% Leistung bietet. Ansonsten ist die Framerate ja noch über die Auflösung skalierbar. Geringe Auflösung ist immernoch besser als gar kein Bild. Man kann nicht alles auf einmal wollen: Beste Grafik bei alter Technik und dann noch in bester Performance.
Aber es gab keine SM 2.0-Lüge und keine SLI/Crossfire-Lüge. Nicht alles ist Lüge!X-D
Im Ernst: Wer würde in Abrede stellen, daß es solche Marketinglügen gibt? Die Frage ist nur, warum der Threadstarter sich so darüber aufregt. Wer wirklich glaubt, daß Ariel weißer als weiß wäscht, der hat andere Probleme als schmutzige Socken...Ariel wäscht – wie jedes Weißwaschmittel – tatsächlich weißer als weiß, weil ein Blaumacher drin ist :)
Wir wollen doch nicht vergessen, dass es aus genau diesem Grund 3dfx nicht mehr gibt: null technischer Fortschritt!
Neu entwickelte Features liegen nämlich immer eine zeitlang brach, bis die passende Software verfügbar ist.Der Fortschritt war nicht Null, nur sehr gering.
Aussage von Demirug in dem Thread war letztenendes, dass die meisten Geschwindigkeitsoptimierungen auch mit ps2.0-non-a-non-b hätte realisiert werden können (Also R300-PS2.0).2.0 ist qua definitionem "non-a-non-b". Ansonsten wäre es 2.X mit Profil 2.A oder 2.B (bzw. 2_A, 2_B.)
eben eben eben - ordentlich programmiert wäre Windows höchstens halb so groß und mindestens doppelt so schnell, das war zu Zeiten der 8 und 16 Bit Computer noch völlig andersDas mit Windows ist eine Behauptung, die du mal so vom Stapel lässt.
Zu 8-Bit-Zeiten waren die Softwareprojekte in der Regel deutlich kleiner und die Hardware war noch nicht so modular.
Aber nehmen wir an, Windows könnte tatsächlich hab so groß und doppelt so schnell sein. Was brächte das? Fast nichts. Ob nun ein paar hundert MB mehr oder weniger ist heute nicht mehr entscheidend. Das was Windows von der Gesamt-CPU-Leistung nutzt ist so wenig, dass eine Halbierung der durch Windows verursachten Last kein einziges Spiel fühlbar beschleunigen würde. Die Entwicklung von Windows wäre aber sehr viel teurer. Der Preis für die Software wäre entsprechend höher. Es ist billiger, eine CPU-Klasse schneller und eine HDD-Größe größer zu kaufen und den entsprechenden Strom zu verheizen, als bis auf Teufel-komm-raus Software zu optimieren.
Wo wir bei Ariel und Konsorten sind: es ist nicht wirklich ein Blaumacher, sondern Farbstoffe, welche ultraviolettes Licht in den sichtbaren Bereich wandeln, ähnlich wie bei Leuchtstoffröhren.
Piffan
2007-01-26, 12:36:25
Wo wir bei Ariel und Konsorten sind: es ist nicht wirklich ein Blaumacher, sondern Farbstoffe, welche ultraviolettes Licht in den sichtbaren Bereich wandeln, ähnlich wie bei Leuchtstoffröhren.
Genau so und nicht anders. Wer das Märchen von den Blaumachern in die Welt gesetzt hat ist egal, bezeichnend ist aber, wie sich so eine einleuchtende und bequeme Theorie als Tatsache ausbreitet. :redface:
Meist ist die Sache doch wesentlich komplexer als man sich das so vorstellt.
Leute, die unqualifizierte Kommentare zu neuen Techniken loslassen, sollten auch die Luft anhalten. Wenn es nach manchen Kleingeistern geht, hätten wir heute noch 16 bit- Grafik, die reicht doch dicke. :| :|
Edit: Ach ja, wie wir alle wissen, ist die heutige Technik eh overpowered. Mehr als 24 Bilder pro Sekunde brauchen wir nicht.:| :wink:
Plissken
2007-01-26, 13:46:12
Seitdem nVidia aths an die Wäsche gelassen hat, ist er ja echt zum verliebten Fanboy mutiert (T&L anyone?)
Motion Trail kann sich jeder ansehen im Max Payne 2 Demo gleich am Anfang mit der Fahrt auf Max, braucht maximal Sh 1.4. Einen geilen RadialBlur hatte z.B. NFS U1, Sh 1.1. Wo bleibt denn jetzt Subsurface Scattering, schon vor 4 Jahren von nVidia gezeigt, nada in Games. Lolman hat schon recht, Bumpmapping da wo mans nur mit dem Mikroskop erkennt, ist Schwachsinn, richtig auffällig wars nur in D3-like-Spielen oder Giants Kabuto nicht Far Cry, da nur verschwendete Perf. Auch Effekte wie die durchscheinenden Blätter aus Bug's Life (schon bei Voodoo angekündigt) kommen erst in Crysis.
Also auch wenn's total OT ist: Was zur Hölle soll ein Blaumacher überhaupt sein?
Das optische Aufheller im Weißwaschmittel drin ist war mir ja bekannt...
Auch als Wäscheblau bekannt:
http://de.wikipedia.org/wiki/W%C3%A4scheblau
Genug OT, bitte zurück zum Thema.
Lolman hat schon recht, Bumpmapping da wo mans nur mit dem Mikroskop erkennt, ist Schwachsinn, richtig auffällig wars nur in D3-like-Spielen oder Giants Kabuto nicht Far Cry, da nur verschwendete Perf.
Bumpmapping muss keineswegs "richtig auffällig" sein. Oftmals ist es so dass "Effekte" die man erst bemerkt wenn man sie abschaltet die Besten sind.
Und wie ich schon schrieb, man kann Bumpmapping einsetzen um Texturspeicher zu sparen.
unter der Annahme von gleich teuer und gleich schnell könnte man sich natürlich überlegen das mehr an Features zu nehmen. Wenn dann ein neues Spiel auf der 6800 mit SM3 läuft, gut aussieht aber unspielbar langsam ist, dann wäre man mit der X800 vermutlich besser bedient gewesen, sieht vielleciht nicht ganz so hübsch aus, hat aber brauchbare FrameratenDann könnte man beim NV40 einige Details abschalten, so dass es ebenfalls nicht ganz so hübsch aussieht, man aber brauchbare Frameraten hat. Wenn zwei Karten vergleichbare Leistung haben, aber eine davon mehr Features, ist die mit mehr Features natürlich vorzuziehen. Dann hat man neben der Effekte-Reduzierung auch die Option bei allen Effekten lediglich die Auflösung zu reduzieren.
Seitdem nVidia aths an die Wäsche gelassen hat, ist er ja echt zum verliebten Fanboy mutiert (T&L anyone?)Da spricht wohl der Experte.
Motion Trail kann sich jeder ansehen im Max Payne 2 Demo gleich am Anfang mit der Fahrt auf Max, braucht maximal Sh 1.4. Einen geilen RadialBlur hatte z.B. NFS U1, Sh 1.1. Wo bleibt denn jetzt Subsurface Scattering, schon vor 4 Jahren von nVidia gezeigt, nada in Games. Lolman hat schon recht, Bumpmapping da wo mans nur mit dem Mikroskop erkennt, ist Schwachsinn, richtig auffällig wars nur in D3-like-Spielen oder Giants Kabuto nicht Far Cry, da nur verschwendete Perf. Auch Effekte wie die durchscheinenden Blätter aus Bug's Life (schon bei Voodoo angekündigt) kommen erst in Crysis.Nur die Spiegel-Effekte sind in MP2 mit Pixelshader 1.4 realisiert.
Motion Blur (zeitliches Antialiasing) ist deutlich besser als Motion Trail (Wisch-Effekt.)
Subtiles Bumpmapping ist in der Regel besser als allzu auffälliges Bumpmapping. Einerseits hätte man sonst schnell wieder den Ölfilm-Effekt, andererseits (wie zum Beispiel in Doom 3) das Problem bei bestimmten Betrachtungswinkeln, dass der Tiefeneindruck verschwindet und man Bumpmapping sofort als Fake erkennt.
haifisch1896
2007-01-26, 20:27:21
.
Mr. Lolman
2007-01-26, 20:47:41
Doch, leider.
Naja, imo nicht, da Lowendhw mit hohem Techlevel die Entwicklung min. genauso bremst. (Backfall für user von Lowendhw).
Die ersten Pixelshader waren eigentlich nur "unified Multitexturing-Setups". Gut für den Entwickler: Er kann darauf vertrauen, dass jede spezifizierte Combiner-Operation garantiert vorhanden ist. Dies gibt Entwicklungssicherheit. Spätere Shader wurden mehr und mehr "richtig" programmierbar. Das ermöglicht dem Artist viel mehr Freiheiten.
Dass man einige Effekte wie Ölbumpmapping oder Overbright-Blur übermäßig einsetzt liegt nicht zuletzt auch am Wunsch vieler Spiele, Effekte zu sehen. Wie oft wird auch hier im Forum gemeckert, dass man jetzt zwar die neue Karte hätte aber keine neuen Effekte in Spielen sehen würde, wie sie doch in den Techdemos propagiert wurden?
Wenn der Effekt nur eingesetzt wird, um damit zu protzen, dann kann man sich ihn gleich sparen. Anderersetis gehts mir nicht um die Effekte prinzipiell, sondern um den Umstand, dass man sich eben viele Effekte hätte sparen können. Fear zB läuft für die gebotene Optik imo eindeutig zu langsam und Riddick würde mit Verzicht auf die meisten Flimmerbumpmaps auch nicht viel schlechter aussehen (bei dementsprechenden Texturen halt)
Da sich der Winkel Betrachter - Oberfläche ändert, kann Bumpmapping auch bei feststehender Lichtposition sinnvoll sein. Siehe Option "Geländehervorhebungen" in World of Warcraft, was technisch Specular Bumpmapping ist.
Ich trau mich fast wetten dass die Geländevorhebungen sich nicht abhängig vom Betrachterwinkel ändern. Und das hiesse wiederum, dass man den Effekt einfach in eine Textur rendern könnte.
Du sprichst Contentprobleme an, die natürlich durch bessere Technik nur unzureichend übertüncht werden. Content zu erstellen ist nun mal teurer, als die Effekte zu programmieren. Da sowohl Presse als auch Käuferschaft oft mit Effekten zu beeindrucken sind, richten sich die Entwickler entsprechend ein, um den Profit zu maximieren. Neue Features sind aber nicht "für die Katz". Beispiele:
Natürlich sprech ich Contentprobleme an. Dass man aus der UE3 zB mehr als ein Roboblitz rausholen kann ist mir bewusst. Und genau darüber ärgere ich mich. Auch die billigen Häusertexturen in HL² ärgern mich. Das kann doch nicht so ein Problem sein, pro Haus 100 - 200 Polygone mehr zu investieren.
- Antialiasing: Sofort nutzbar
- Anisotrope Filterung: Sofort nutzbar
- TruForm: Die Revolution blieb aus, aber in einigen Spielen wurde es genutzt. Der Geometry Shader bei D3D10 ist zwar recht limitiert, aber bei weitem besser als TruForm.
- Shader 1: Endlich Sicherheit: Jede DX8-Karte muss qua definitionem jeden gültigen Shader 1.0 (später 1.1) ausführen können. Kein Gezitter mehr, ob auch dies oder jenes unterstützt wird.
- Shader 2: Zu Lebzeiten des R300 genügend oft genutzt. Auch kleine Karten (Radeon 9600) profitieren davon.
- Shader 3: Erhöht bei komplexen Effekten die Performance pro Takt und Pipeline. Daher gerade auch auf kleineren Karten sinnvoll.
- Shader 4: Weitere Steigerung der Leistung pro Takt und Pipe, endlich einigermaßen strenge Anforderungen an die Präzision. Daher generell sinnvoll.
Dabei nimmt die Tendenz zu, wirklich nur noch sinnvolle Features zu integrieren, die – sofern nicht schon geschehen – dann auch von der Konkurrenz geboten werden.
Das hab ich auch schon mit großer Freude festgestellt.
Zwar sind gute Entwickler wichtiger als modernste Technik, wenn man ein gutes Spiel schaffen will. Aber gerade wenn es um Konsolen geht sollte man auch sehen, dass ohne die Forschung und Entwicklung im PC-Bereich die Konsolen heute technisch deutlich weiter zurückhängen würden. Deshalb wären die Spiele nicht unbedingt schlechter. Aber viele Leute wollen ja auch eine schnelle Entwicklung.
Das ist mir als reiner PC Spieler so ziemlich egal. Ich finanzier doch nicht mit meiner teuren HW die Konsolenentwicklung und freu mich dann noch darüber. Gerade Anbetracht der aktuellen Konsolenspiele wundert man sich ja, warum PC-Spiele (oder gerade Konsolenportierungen) nicht so gut aussehen.
Mir machten Spiele auf einem ZX Spectrum unheimlich viel Spaß, trotz der schwachen Hardware (keine 5 MHz, gerade mal 48 KiB RAM, ...) Die Spieleindustrie will Geld verdienen und muss dazu alle Aspekte eines Spieles verbessern. Der technische Aspekt gehört zu den am leichtesten verkaufbaren.
Naja, solang das Spiel gut aussieht, ists dem Durchschnittsspieler wohl komplett schnurz welche Technik dahinter eingesetzt wird
Der "Spielspaß pro Transistor" nimmt beständig ab. Aber meine aktuellen Lieblingsspiele wären auf einem ZX Spectrum prinzipiell nicht möglich gewesen. Die schnelle HW-Entwicklung ist nun mal da. Warum darauf verzichten?
Nicht verzichten, sondern vernünftig nutzen.
Das halte ich nun für sehr gewagt. Entwickler haben mit steigenden Shader-Versionen mehr Möglichkeiten, ihre Ideen umzusetzen. Zu warten, bis zum Beispiel ein Shader-Level 'erst mal ausgenutzt ist', wäre unsinnig, da ein höheres Shader-Level komplexe Effekte bei weniger Rohperformance rendern kann. Warum sollte man auf Effizienz verzichten und Entwickler zum Tricksen zwingen? Sie müssen dann tricksen und ggf. auf teureren Content zurückgreifen, wenn es die Hardware sonst nicht hergibt. Warum sollte dies erstrebenswerter sein, als den Entwicklern ständig mehr Freiheiten zu geben?
Die Entwickler nehmen sich die Freiheit doch selbst. Gerade bei Multiplattformtitel braucht man oft "State of the Art"-HW um das Spiel optimal nutzen zu können. Ohne Konsolenversion, wäre Ubisoft bei SC:CT nur schwer mit der Reduktion auf SM1.1 und SM3 durchgekommen.
FX12-LDR mit SM2-HW – wo?
In der "The Project"-Demo von Crytek zB. Oder HL²-LC macht das "HDRR" auf SM2 Karten afaik auch nach dem Prinzip.
D3D10 Shader 4 verlangt zum Beispiel neue MDR-taugliche 32-Bit-Formate. Mit D3D10 kann man viele Szenen, die vorher pro Pixel 64 Bit (4x FP16) brauchten, mit 32 Bit pro Pixel berechnen. Ein gutes Beispiel, wie neue Technik und höhere Shader-Versionen die Effizienz steigern, und dass gerade auch Mittelklasse-Karten von modernsten Features profitieren.
Das ist auch eine Entwicklung die ich sehr begrüße.
Ich glaube nicht, dass sich durchgehendes FP16-HDR-Rendering durchsetzen wird, da mit D3D10 wie gesagt effizientere Datenformate zur Verfügung stehen. Die sind zwar ein wenig ungenauer als FP16, aber liefern optisch praktisch gleichwertige Ergebnisse.
Letzteres würde den Kunden wohl erzürnen, während das obere Beispiel einfach die Folge technischer Limitierung wäre.
Und genau deswegen bremsen eben Karten mit veraltetem Featureset nicht die Entwicklung. Wenn sie stören werden sie sowieso ausgesperrt. Aber der neue SM3 Kracher muss trotzdem irgendwie auf SM3 Lowend-HW spielbar sein.
Dass sich 32 Bit gegenüber 16 Bit durchsetzen würden, war keine Lüge sondern jedem klar. Auch 3dfx, die nur aus Marketinggründen andere Prioritäten ausgaben: 60 fps. Wobei das mit aktiviertem AA von der Voodoo 5 ja nicht mehr gehalten wurde. Da heißt es also, immer so zu reden, wie es gerade passt, bei ausnahmslos jedem IHV. Ein bisschen Recht hat jeder, voll und ganz Recht hat keiner.
Die T&L-"Lüge" war auch keine, abgesehen von Fantasiezahlen bezüglich der Transformationsleistung. Schon um den AGP-Verkehr zu entlasten ist T&L notwendig (ohne T&L ergeben Vertexbuffer keinen Sinn.) Es war zwar peinlich, wie auch in seriösen Zeitschriften Nicht-T&L-Grakas das fehlende T&L trotz mangelnder Praxisrelevanz penetrant angekreidet wurde. Doch T&L zu haben ist (bei ansonsten identischem Chip) natürlich besser, als es nicht zu haben. Dass T&L nicht so viel brachte wie eigentlich möglich ist aber auch Microsoft zu verdanken, die ihr D3D so designten, dass HW-T&L explizit von der Applikation unterstützt werden muss (und dass überhaupt mindestens Version 7 genutzt werden muss.) OpenGL kann bei Vorhandensein HW-T&L nutzen ohne dass die Applikation modifiziert werden muss. Das das Marketing um T&L in einen Hype ausartete ist imo größtenteils die Schuld der Redakteure, die die NV-White-Paper für bare Münze nahmen.
Ich streite nicht den prinzipiellen Nutzen der Features ab. Nur den Umstand, dass dem User diese so verkauft werden, dass er sie jetzt und sofort haben muss, damit er auch noch im nächsten Jahr seine Spiele schön genießen kann.
Inwiefern wurde bei CineFX gelogen? Die Features sind ja sehr gut und gehen in Richtung SM-3-Niveau. Dass die Performance nicht reicht, um Kinofilme in Echtzeit zu rendern, war auch jedem klar, NV sprach auch nur von "Dawn" des "Cinematic Computing".
Das war ja damals nichtmal dir klar. Alle haben auf die FX Reihe gewartet. Gerade wegen CineFX. Und als die ersten Benchmarks gezeigt haben, dass die Performance zwar ok ist, aber nicht mit ATI konkurrenzfähig war, wars plötzlich eine Treibergeschichte und die Featurekeule wurde umso mehr geschwungen. Erst nach weiteren 3-4 Monaten war dann den meisten klar, dass das nix mehr wird.
Deswegen wurde auch erst die 9800pro der Verkaufsschlager und nicht die 9700pro, dies schon mehr als ein halbes Jahr früher gab.
Wer hat bei SM3 gelogen?
Derjenige der behauptet hat, dass man mit nem NV40 besser für die Zukunft gerüstet ist, als mit nem R420.
Das ist eben das Missverständnis. Viele Features sind in Spielen nicht mehr als Feature zu sehen, sie dienen nur der Effizienz. Gerade weil aber viele Spieler was sehen wollen, haben wir Ölbumpmapping und massives Overbright-Blur.
Das Bloom mag ich ja auch, und gegen Ölbumpmapping hab ich auch nix. Allerdings kann man Bloom mit DX6 Karten basteln und damals wurde uns auch schon Bumpmapping als das neue Killerfeature verkauft. Tatsächlich musste man aber locker noch 2-3 Jahre warten, bis das Feature schön langsam auch eingesetzt wurde (und erst nach ~6 Jahren waren die Karten wohl stark genug das auch wirklich konsequent zu nutzen)
Man kann nicht vom Hersteller verlangen "macht dies und das", man sollte vom Spieler verlangen "achtet mehr auf die inneren Werte!"
Man aber zB. kann zumindest erwarten, dass die Konsolenumsetzung auf SM3.0 HW min. genausogut aussieht, wie auf der Konsole.
Dann könnte man beim NV40 einige Details abschalten, so dass es ebenfalls nicht ganz so hübsch aussieht, man aber brauchbare Frameraten hat. Wenn zwei Karten vergleichbare Leistung haben, aber eine davon mehr Features, ist die mit mehr Features natürlich vorzuziehen. Dann hat man neben der Effekte-Reduzierung auch die Option bei allen Effekten lediglich die Auflösung zu reduzieren.
das ist eben so eine Sache. Wieso ein größeres Featuresset kaufen um es dann danach wieder abzuschalten. Zumindest mit nem TFT Monitor ist eine heruntergesetzte Auflösung nicht unbedingt die beste Wahl, bei einem CRT der Switch von 1280 auf 1024 ein gangbarer Weg.
Das mit Windows ist eine Behauptung, die du mal so vom Stapel lässt.
Zu 8-Bit-Zeiten waren die Softwareprojekte in der Regel deutlich kleiner und die Hardware war noch nicht so modular.
es gibt auch 32 Bit Betriebsysteme die klein und schnell, effizient und leistungsstark sind und mit verschiedenster Hardware klarkommen.
...Es ist billiger, eine CPU-Klasse schneller und eine HDD-Größe größer zu kaufen und den entsprechenden Strom zu verheizen, als bis auf Teufel-komm-raus Software zu optimieren.
eben, Strom verheizen, manche Leute haben den Knall immer noch nicht gehört. Zur Neige gehende Rohstoffe, Klimaerwärmung, etc. Autos verbauchen weniger Sprit trotz Klimaanlage und immer mehr Technik, Waschmaschinen mit weniger Wasser sauberer, etc usw, nur die Computer brauchen immer mehr für immer weniger...
Der "Spielspaß pro Transistor" nimmt beständig ab. Aber meine aktuellen Lieblingsspiele wären auf einem ZX Spectrum prinzipiell nicht möglich gewesen. Die schnelle HW-Entwicklung ist nun mal da. Warum darauf verzichten?
so ist es nun mal, wenn ich des Wochenends bei meinen Eltern bin spiele ich ständig Civilization in 320*256*256. Auf dem C64 hab ich wochenlang in den Ferien 9-22 Uhr Bards Tale gespielt, etc
kenne kein aktuelles Spiel das auch nur annähernd so fesselnd ist, egal wie genial die Grafik auch aussieht...
haifisch1896
2007-01-26, 21:05:45
Man kann aber nicht vom Hersteller verlangen "macht dies und macht das", man sollte vom Spieler verlangen "achtet mehr auf die inneren Werte".
Weder noch. Ich kann als Spieler, der Spiel xyz gekauft nicht, zwar nicht verlangen, dass z.B. alle Texturen naturgetreu nachempfunden sind. Allerdings kann auch keiner (weder Hersteller noch sonstwer) verlangen, dass mich interessiert, wie was umgesetzt wird.
Siehts gut aus, ist in Ordnung. Siehts nicht so gut aus, dann auch. Schließlich habe ich von dem Spiel ja schon Grafiken gesehen, und bin mir dessen dann bewusst, da ich kein Spiel kaufe, ohne auf die Rückseite der Packung zu sehen.
Demirug
2007-01-26, 21:24:08
Und genau deswegen bremsen eben Karten mit veraltetem Featureset nicht die Entwicklung. Wenn sie stören werden sie sowieso ausgesperrt. Aber der neue SM3 Kracher muss trotzdem irgendwie auf SM3 Lowend-HW spielbar sein.
Performance Skalierung ist einfacher (=billiger) als Technologieskalierung. Vor allem da bei der minimalen Hardware mit FPS Werten und Auflösungen kalkuliert wird die euch die Tränen in die Augen treiben würden.
Godmode
2007-01-26, 21:46:56
800x600 15FPS? :D
Also ich hätte mir eigentlich noch weniger vorgestellt. 640 * 480 @ 15 Fps
Demirug
2007-01-26, 21:50:21
Abhängig von Genre und der Zielgruppe kann beides stimmen. Ich werde euch jetzt natürlich nicht die Zahlen und die entsprechenden Hardware nennen auf die wir eingeschworen werden auch wenn der entsprechende Rechner unter meinen Schreibtisch steht.
Mr. Lolman
2007-01-26, 22:12:41
Abhängig von Genre und der Zielgruppe kann beides stimmen. Ich werde euch jetzt natürlich nicht die Zahlen und die entsprechenden Hardware nennen auf die wir eingeschworen werden auch wenn der entsprechende Rechner unter meinen Schreibtisch steht.
Aber vielleicht machts ja ein Gast :naughty:
Naja, imo nicht, da Lowendhw mit hohem Techlevel die Entwicklung min. genauso bremst. (Backfall für user von Lowendhw).Viele Features auf Lowend-HW bremsen die Entwicklung nicht. Wenn überhaupt, gibt es einen gegenteiligen Effekt, selbst wenn der Spieler letztlich von den Features nicht zu sehen bekommt. Dazu hat tokugawa (in anderen Threads) schon mehr als genug geschrieben, dass ich das nicht noch mal wiederholen muss.
Außerdem: Lowend-HW wird immer gekauft. Egal welches Techlevel im Lowend geboten wird. Für modernste Spiele reicht Lowend-Leistung eh nicht aus. Das ist ein Brems-Effekt, der durch ein hohes Tech-Level natürlich nicht wettgemacht werden kann. Für nicht so anspruchsvolle Spiele kann es reichen, und hier ist ein höheres Techlevel niemals schlechter, jedoch manchmal besser als ein niedriges Techlevel. Immerhin wird auch die Effizienz gesteigert, weshalb auch schwache Karten von einem hohen Techlevel profitieren können. Selbst wenn das nicht der Fall ist, gibt es durch das Techlevel keinen bremsenden Effekt, nur durch die geringe Rohleistung.
Wenn der Effekt nur eingesetzt wird, um damit zu protzen, dann kann man sich ihn gleich sparen. Anderersetis gehts mir nicht um die Effekte prinzipiell, sondern um den Umstand, dass man sich eben viele Effekte hätte sparen können. Fear zB läuft für die gebotene Optik imo eindeutig zu langsam und Riddick würde mit Verzicht auf die meisten Flimmerbumpmaps auch nicht viel schlechter aussehen (bei dementsprechenden Texturen halt) Fear habe ich noch nicht gesehen. Vielleicht tritt hier der Effekt des abnehmenden Grenzertrages zutage. Beim Pixelshading lässt sich zum Beispiel die pixelgenaue Entfernungsberechnung zur Lichtquelle von der vertexgenauen (und pro Pixel nur interpolierten) optisch kaum unterscheiden. Trotzdem ist die pixelgenaue Methode besser. Sie kostet aber auch zusätzliche Leistung. Vielleicht sieht Fear auch nur deshalb so schlecht aus, weil die Texturen nicht besonders toll sind (wie gesagt, ich kenne das Spiel nicht.) Woher soll aber der Engine-Programmierer vorher wissen, wie gut die Artwork-Abteilung arbeitet? Es gibt auch immer in alle Richtungen einzelne Beispiele: Hervorrande Optik trotz Low-Tech, miese Optik und/oder miese Performance statt Hig-Tech … Einzelfälle zeigen gar nichts. Man kann sie höchstens benutzen, um Pauschalurteile zu widerlegen (da reicht ja ein einziges Beispiel zur Widerlegung.)
Ich trau mich fast wetten dass die Geländevorhebungen sich nicht abhängig vom Betrachterwinkel ändern. Und das hiesse wiederum, dass man den Effekt einfach in eine Textur rendern könnte. Die Geländehervorhebungen ändern sich mit dem Winkel Lichtquelle - Gelände - Betrachter. Da sowohl sich der Betrachterwinkel als auch der Lichtquellenwinkel ändern kann, ist die Bumpmapping-Realisierung sinnvoll. Das wären sie auch dann, wenn die Lichtquelle immer in gleicher Position sein würde. Lediglich der Diffuse-Light-Anteil ließe sich bei statischer Lichtquelle vorberechnen. Aber auch dann ist Bumpmapping zu gebrauchen. Ansonsten bräuchte man für jede Textur eine einzelne Lightmap in hoher Auflösung. Mit Bumpmapping lassen sich Basemap und Normalmap beliebig kombinieren. Massiv Texturspeicher zu sparen ist wesentlich sinnvoller, als die paar ALU-Anweisungen zum Bumpmapping einzusparen.
Außerdem kostet dieser "Shader-Effekt" (auf DX8-Niveau) auch auf DX8-Karten praktisch keine Leistung. Ob nun ledliglich eine zusätzliche "Hervorhebungstextur" gesampelt wird, oder mit einer Normalmap noch ein Bumpmapping-Effekt appliziert wird, nimmt sich nicht viel.
Man braucht nicht überall Bumpmapping. Sinnvoll genutzt ist Bumpmapping jedoch ein Segen und erweitert die Möglickeiten von reinem MAD-Combining um ein Vielfaches. Dass ein Spiel bei guten Texturen mit Singletexturing besser aussehen kann als ein Spiel mit schlecht genutztem Bumpmapping, ist klar. Ein Spiel wird nicht grafisch gut nur weil es Bumpmapping nutzt. Aber um ein Spiel gut aussehen zu lassen kann Bumpmapping in vielen Sitationen hilfreich sein, effizient die Optik zu steigern.
Natürlich sprech ich Contentprobleme an. Dass man aus der UE3 zB mehr als ein Roboblitz rausholen kann ist mir bewusst. Und genau darüber ärgere ich mich. Auch die billigen Häusertexturen in HL² ärgern mich. Das kann doch nicht so ein Problem sein, pro Haus 100 - 200 Polygone mehr zu investieren.Das Problem bei HL2 war, dass es für einen früheren Releasezeitpunkt designt wurde. Noch mal die ganzen Level und Objekte durch einen Verfeinerungsprozess zu schicken ist sehr teuer. Bei Max Payne 1 ärgere ich mich zum Beispiel, dass von der Spielfigur ansich nicht auch ein Highpoly-Modell (mit rundem Kopf) angefertigt wurde. Enginemäßig wäre es praktisch kein Aufwand, neben dem Standard-Max noch einen Highpoly-Max zu unterstützen. Aber das Spiel war fertig, für damals gut genug – nachträglich sich Arbeit machen, wenn dafür keiner bezahlt, ist marktwirtschaftlich unsinnig. So ärgert mich bei Max Payne 2, dass der Tonemapping-Effekt ohne Antialiasing gemacht wird, obwohl viele Karten Antialiasing bei solchen Effekten unterstützen.
Das hab ich auch schon mit großer Freude festgestellt. Insofern frage ich mich, warum heute noch immer erst mal über die angebliche Nutzlosigkeit von Features gelästert wird, die im Moment nur die Nicht-Lieblingsfirma anbietet. Hier sehe ich das Verhalten durchscheinen, die eigene Hardware zu verteidigen. Das gilt natürlich auch umgekehrt für diejenigen, deren Karte technisch die aktuellste ist, obwohl sie von den Feautures noch nicht sehen. Doch seit längerem sind alle neuen Features nur noch welche, die über kurz oder lang auch von der Konkurrenz geboten werden.
Das ist mir als reiner PC Spieler so ziemlich egal. Ich finanzier doch nicht mit meiner teuren HW die Konsolenentwicklung und freu mich dann noch darüber. Gerade Anbetracht der aktuellen Konsolenspiele wundert man sich ja, warum PC-Spiele (oder gerade Konsolenportierungen) nicht so gut aussehen.Auch du finanzierst (in kleinem Maßstab) indirekt die Konsolenentwicklung mit =).
Naja, solang das Spiel gut aussieht, ists dem Durchschnittsspieler wohl komplett schnurz welche Technik dahinter eingesetzt wird
Nicht verzichten, sondern vernünftig nutzen. Was ist "vernünftig"? Viele Spieler wollen nunmal grafische Effekte sehen. Wenn fast jedes Spielprinzip schon mal da war, wie versucht man sich dann abzuheben? Grafik ist ein wichtiges Verkaufsargument, für Packungs-Screenshots, für die Presse, für den Spieler. Die Diskussion dass "nur die Grafik" eines Spieles gut sei, gab es schon zu 2D-Zeiten als man noch einen 286-er hatte und schon zu Zeiten, als die Homecomputer modern waren (und man auf PCs kaum spielte.)
Die HW-Entwicklung ist nunmal da. Als sich die CD durchsetzte, mit ca. 450-facher Disketten-Kapazität, wie hätte man es "vernünftig nutzen" sollen? Gleich 650 MB Content produzieren, aber bitte hochwertigen – ohne, dass die Preise für ein Spiel extrem in die Höhe steigen? Oder, wenn das Spiel nur 28 MB einnahm, hätte man es dann auf 20 Disketten ausliefern sollen – weil eine CD mit gerade mal 4% Kapazitätsnutzung nicht "vernünftig" genutzt sein würde?
Du schreibst "Naja, solang das Spiel gut aussieht, ists dem Durchschnittsspieler wohl komplett schnurz welche Technik dahinter eingesetzt wird" was natürlich stimmt. Aber stell dir vor, bei Doom 3 wären die Details allesamt geometrisch statt mit Normalmapping gerendert worden. Wie würde das performen? Obwohl es besser aussehen würde als mit den trotz Bumpmapping ja weiterhin flachen Polygonen wäre es unspielbar. Neue Technik ermöglicht entweder, Effekte effizienter zu realisieren, oder bisher nicht mögliche Effekte überhaupt in Echtzeit zu realisieren. Neue Technik ist damit grundsätzlich wünschenswert. Dass die Zeit noch nicht reif sei für eine Technik ist ein grundsätzlich unsinniges Argument. Wer baut schon Transistoren für Sachen ein, die das Produkt nur auf dem Papier besser aussehen lassen? Die IHVs setzen eben unterschiedliche Prioritäten. So war ATI mit dem R100 und mit dem R200 sehr fortschrittlich, was Combiner bzw. Pixelshader angeht. War das umsonst? Natürlich nicht.
Die Entwickler nehmen sich die Freiheit doch selbst. Gerade bei Multiplattformtitel braucht man oft "State of the Art"-HW um das Spiel optimal nutzen zu können. Ohne Konsolenversion, wäre Ubisoft bei SC:CT nur schwer mit der Reduktion auf SM1.1 und SM3 durchgekommen. Das ist jetzt mal so ein Spiel. Einzelbeispiel braucht man imo nicht groß zu diskutieren. Auch wenn hier bei dem einen Spiel die SM2-Karten-Besitzer heulen: Haben sie wirklich ATIs Versprechen geglaubt, dass man alles was mit SM3 möglich ist, auch mit SM2 realisieren kann? (Warum hat ATI dann überhaupt SM3-Karten herausgebracht?) Und andersherum: Welcher NV40-Käufer hat geglaubt, alle Spiele die irgendwie SM3 nutzen, in hoher Auflösung und flüssig mit dieser Karte spielen zu können?
In der "The Project"-Demo von Crytek zB. Oder HL²-LC macht das "HDRR" auf SM2 Karten afaik auch nach dem Prinzip.
Das ist auch eine Entwicklung die ich sehr begrüße. Wo hast du einen Framebuffer mit FX12? Das wären bei RGB ja 36 Bit.
Man kann natürlich fragen, warum nicht schon der NV40 die 32-Bit-MDR-Formate unterstützt hat. Die Antwort ist, dass man dafür wieder Transistoren bräuchte, man aber auch ohne RGBE 9995 bzw. RGB f10-f10-f9 schon mal HDR- oder MDR-Lighting realisieren kann. Als Matrox mit EMBM herausrückte war doch auch klar, dass nicht alle zukünftigen Spiele, die diesen Effekt nutzen, auf der G400 mit maximaler Performance (oder überhaupt noch) laufen würden.
Während man Spiel-Grafik oft auch verbessern kann, ohne neue Feautures zu benutzen, wollen viele Kunden aber ihre neuen Graka-Features genutzt sehen. Dem kommen viele ISV gerne nach.
Und genau deswegen bremsen eben Karten mit veraltetem Featureset nicht die Entwicklung. Wenn sie stören werden sie sowieso ausgesperrt. Aber der neue SM3 Kracher muss trotzdem irgendwie auf SM3 Lowend-HW spielbar sein.Du denkst "falsch herum".
Zu GF4-Ti-Zeiten wurde den Entwicklern bewusst, dass man langsam doch mal breit auf T&L setzen könnte, weil es kaum noch Leute mit einer TNT2 gibt. Wenn das Techlevel festgelegt wird, guckt man, was da ist. Mit der Verbreitung der FX 5200, die so manche GeForce 2 MX ablöste, wurde DX9 breiter verfügbar als rein mit ATIs Produktpolitik.
Erweist sich dann beim Spiel-Test mit dem fertigen Content die Performance auf einer 5200 als so schwach, dass es auch in 640x480 eine Zumutung ist, kann man überlegen, der 5200 den DX9-Pfad gleich zu verwehren. Trotzdem half sie mit, dass erst mal überhaupt ein DX9-Pfad eingebaut wurde. Für die (im Vergleich) wenigen Spieler die eine Radeon 9700 oder 5800 haben, hätte man sonst vielleicht nur einen Trost-Effekt eingebaut, irgendeinen Postfilter mit DX9 oder so.
Ich streite nicht den prinzipiellen Nutzen der Features ab. Nur den Umstand, dass dem User diese so verkauft werden, dass er sie jetzt und sofort haben muss, damit er auch noch im nächsten Jahr seine Spiele schön genießen kann. Das suggeriert das Marketing. Jede TV-Werbung suggeriert mindestens ebenso falsche Sachen. Viele Zeitschriften-Anzeigen suggerieren Dinge, die beim Kauf des Produktes dann natürlich doch nicht eintreffen. Worüber reden wir? Dass die IHVs ihre Produkte hochloben und sich als Technik-Vorreiter präsentieren?
Was ist mit der "Tech-Level-Lüge" von ATI, welche eine DX8-Karte als Radeon 9200 verkaufte? Was ist Nvidias "same-functionality"-Lüge, von der beim GF4-Launch in Bezug auf die GF4 MX im Vergleich mit einer GF3 gesprochen wurde?
Das war ja damals nichtmal dir klar. Alle haben auf die FX Reihe gewartet. Gerade wegen CineFX. Und als die ersten Benchmarks gezeigt haben, dass die Performance zwar ok ist, aber nicht mit ATI konkurrenzfähig war, wars plötzlich eine Treibergeschichte und die Featurekeule wurde umso mehr geschwungen. Erst nach weiteren 3-4 Monaten war dann den meisten klar, dass das nix mehr wird.
Deswegen wurde auch erst die 9800pro der Verkaufsschlager und nicht die 9700pro, dies schon mehr als ein halbes Jahr früher gab.Für DX9-Spiele ist eine Radeon 9700 (ohne Pro oder irgendwas) besser als eine 5900 Ultra. Insofern hat sich NV blamiert. Das Marketing um die FX war einfach nur peinlich, dazu kamen dann die miesen Treiber-Cheats, die Senkung der Texturfilter-Qualität und so weiter. Was ich persönlich (rein technisch) am entäuschendsten fand war aber nicht der PS2-Speed, sondern dass es beim 4x-AA nur eine OG-Maske gab.
Bei der FX gab es anfangs nur schlecht optimierte Treiber. Der HLSL-Shader-Compiler von DX9 war voll auf die Radeon ausgelegt. NV hat später mit einem verbesserten Treiber, der Befehle umsortiert (und teilweise zusammenfasst) etwas herausholen können, außerdem wurde von MS ein 2_A-Compilerprofil nachgeliefert, welches bessere Ergebnisse liefert. Das half der FX zwar, aber brachte sie trotzdem nicht mal in die Nähe der 9700. Dazu hätte es schon der Erlaubsnis bedurft, entsprechende Shader-Teile in FX12-Genauigkeit zu berechnen. Somit wäre die 9700 zwar höchsten dank des höheren Chiptaktes des NV30 überboten worden (wenn überhaupt), aber man wäre ingesamt konkurrenzfähiger. Für viele Shader-Teile hätte FX12 ausgereicht. Man kann aber NV durchaus vorwerfen, mit der FX12-FP16-FP32-Sache und den komplizierten Optimierungsregeln für CineFX dem Entwickler eine Menge Zusatzarbeit aufzuhalsen wo ATI zeigt, dass man auch durchgehend schnell sein kann.
Derjenige der behauptet hat, dass man mit nem NV40 besser für die Zukunft gerüstet ist, als mit nem R420.Es gibt Spiele, die auf einem NV40 dank seinem SM3-Support mehr zeigen als ein R420.
Das Bloom mag ich ja auch, und gegen Ölbumpmapping hab ich auch nix. Allerdings kann man Bloom mit DX6 Karten basteln und damals wurde uns auch schon Bumpmapping als das neue Killerfeature verkauft. Tatsächlich musste man aber locker noch 2-3 Jahre warten, bis das Feature schön langsam auch eingesetzt wurde (und erst nach ~6 Jahren waren die Karten wohl stark genug das auch wirklich konsequent zu nutzen)Hätte man damals denn die Bumpmapping-Fähigkeiten gar nicht erst einbauen sollen?
Man aber zB. kann zumindest erwarten, dass die Konsolenumsetzung auf SM3.0 HW min. genausogut aussieht, wie auf der Konsole.Da weiß ich jetzt nicht, welchen Titel du meinst. Bei Ports kann man aber meiner Erfahrung keineswegs erwarten, dass es auf technisch besserer Hardware "mindestens" so gut aussieht.
das ist eben so eine Sache. Wieso ein größeres Featuresset kaufen um es dann danach wieder abzuschalten. Zumindest mit nem TFT Monitor ist eine heruntergesetzte Auflösung nicht unbedingt die beste Wahl, bei einem CRT der Switch von 1280 auf 1024 ein gangbarer Weg.Warum nicht das größere Featureset kaufen, wo es dies doch ohne spürbare Mehrkosten obendrauf gibt?
Es ist auch nicht gesagt, dass man es sowieso abschalten muss.
Außerdem hat man die Möglichkeit, entweder über Effekt-Details oder über die Auflösung zu skalieren. Mit einer technisch nicht so fortschrittlichen Karte hat man diese Möglichkeit dann nicht mehr.
es gibt auch 32 Bit Betriebsysteme die klein und schnell, effizient und leistungsstark sind und mit verschiedenster Hardware klarkommen.Das sind aber keine Betriebssysteme, die massenweise von Privatkunden (Otto Normalverbraucher) eingesetzt werden.
eben, Strom verheizen, manche Leute haben den Knall immer noch nicht gehört. Zur Neige gehende Rohstoffe, Klimaerwärmung, etc. Autos verbauchen weniger Sprit trotz Klimaanlage und immer mehr Technik, Waschmaschinen mit weniger Wasser sauberer, etc usw, nur die Computer brauchen immer mehr für immer weniger...Eine Software komplett auszuoptimieren kostet auch Ressourcen. Außerdem dauert es länger.
so ist es nun mal, wenn ich des Wochenends bei meinen Eltern bin spiele ich ständig Civilization in 320*256*256. Auf dem C64 hab ich wochenlang in den Ferien 9-22 Uhr Bards Tale gespielt, etc
kenne kein aktuelles Spiel das auch nur annähernd so fesselnd ist, egal wie genial die Grafik auch aussieht...Schön für dich.
Außerdem hat man die Möglichkeit, entweder über Effekt-Details oder über die Auflösung zu skalieren. Mit einer technisch nicht so fortschrittlichen Karte hat man diese Möglichkeit dann nicht mehr.
wie gesagt, eine "ungünstige" Auflösung auf einem TFT verschlechtert dann die Bildqualität
Eine Software komplett auszuoptimieren kostet auch Ressourcen. Außerdem dauert es länger.
lol, Benzin-Direkteinspritzer oder Diesel-Common-Rail wurden auch nicht an einem Tag erfunden. Turbo-Motoren oder Düsenantriebe oder alles was hochdrehende Turbinen besitzt wurde nicht an einem Tag entwickelt. Da musste auch viel Zeit und Geld investiert werden bis das richtige Material gefunden etc wurde.
So gesehen ist Software-Optimierung sogar eher leichter möglich. Zum einen kann Software schon mal durch den Compiler auf eine CPU optimiert werden - die Spiele/Anwedungs CD /DVD ist nur halb voll? Dann pack ein paar rechenintensive exes bzw. dlls in einer "Standard" Version drauf und dann eine für P4, Core Duo, XP, A64, etc drauf.
Man kann auch schon im "First Pass" sehr guten Code schreiben, das ist etwas das ein Programmierer lernen kann. Früher konnte ich 3,4,5 mal über einen Quelltext drüber gehen und habe immer wieder optimierbare Stellen gefunden. Über die Zeit hab ich einen Teil der sonst nachträglich eingefügten Optimierungen schon beim ersten Runterschreiben eingebaut.
Wie gesagt, das ist eine Frage des Lernens.
Ist die X800 bis jetzt tot? Nö.
Braucht man bis jetzt uunbedingt eine SM3-Karte zum Spielen? Auch nicht.
Ist die Grafikpracht auf auch einer X800 noch toll? Jawoll, vor allem wenn sich diese Entwickler:| mal die Mühe gemacht haben, die vorhandenen Features auch gut auszunutzen (siehe z.B. HL2).
Haben also die, die SM3 zu NV40-Zeiten gehyped haben mal wieder maßlos übertrieben? Klares Ja!
Wenn die Spiele ordentlich verkauft werden sollen, werden die Entwickler nicht darum herum kommen, mindenstens das vorherige Shadermodell zu unterstützen, auch nicht, wenn alle Hersteller gleichzeitig das neue SM eingeführt haben, denn der Hardwarebestand ändert sich nicht so schnell.
Was aus Entwicklersicht wünschenswert wäre und was aus Kundensicht optimal wäre sind nun mal zwei Paar Schuhe.
Und da die Entwickler letztendlich für die Spieler programmieren, haben sie sich auch nach deren Wünschen und Möglichkeiten zu richten und nicht umgekehrt.
Dazu gehört auch, die Leistungsfähigkeit älterer Hardware nicht einfach brachliegen zu lassen, weil die Damen und Herren lieber nur mit dem neuen "Spielzeug" spielen wollen - auch wenn die Projekte immer umfangreicher und komplizierter werden.
Die Effizienz einer Karte lässt sich außerdem nicht hauptsächlich am unterstützten Shadermodell festmachen.
Was nimmt eigentlich zur Zeit den meisten Entwicklungsaufwand in Anspruch, die Erstellung des Contents oder die Entwicklung der Engine/Anpassung des Contents auf eine Engine?
Also ich kenn nur ein Shader-3-Lüge und die ist, dass ATI behauptet, sie hätten schon Shader-3-Hardware, wo doch der VS der X1x00 gar keine Texturen verarbeiten kann.
Mr. Lolman
2007-01-27, 11:56:04
Viele Features auf Lowend-HW bremsen die Entwicklung nicht. Wenn überhaupt, gibt es einen gegenteiligen Effekt, selbst wenn der Spieler letztlich von den Features nicht zu sehen bekommt. Dazu hat tokugawa (in anderen Threads) schon mehr als genug geschrieben, dass ich das nicht noch mal wiederholen muss.
Außerdem: Lowend-HW wird immer gekauft. Egal welches Techlevel im Lowend geboten wird. Für modernste Spiele reicht Lowend-Leistung eh nicht aus. Das ist ein Brems-Effekt, der durch ein hohes Tech-Level natürlich nicht wettgemacht werden kann. Für nicht so anspruchsvolle Spiele kann es reichen, und hier ist ein höheres Techlevel niemals schlechter, jedoch manchmal besser als ein niedriges Techlevel. Immerhin wird auch die Effizienz gesteigert, weshalb auch schwache Karten von einem hohen Techlevel profitieren können. Selbst wenn das nicht der Fall ist, gibt es durch das Techlevel keinen bremsenden Effekt, nur durch die geringe Rohleistung.
Genau. Und deswegen baut man Backfalls. So dass die 7300GS in 640x480 noch 15 fps anzeigt. Dafür darf sie aber nicht mehr allzuviele SM3 Effekte anzeigen. Ich hab auch nicht behauptet, dass ein höhere Techlevel schlechter wär, aber in der Vergangenheit sah ich die Effizienzsteigerung von neuen Features oft nur im geringerem Entwicklungsaufwand.
Das Problem bei HL2 war, dass es für einen früheren Releasezeitpunkt designt wurde. Noch mal die ganzen Level und Objekte durch einen Verfeinerungsprozess zu schicken ist sehr teuer. Bei Max Payne 1 ärgere ich mich zum Beispiel, dass von der Spielfigur ansich nicht auch ein Highpoly-Modell (mit rundem Kopf) angefertigt wurde. Enginemäßig wäre es praktisch kein Aufwand, neben dem Standard-Max noch einen Highpoly-Max zu unterstützen. Aber das Spiel war fertig, für damals gut genug – nachträglich sich Arbeit machen, wenn dafür keiner bezahlt, ist marktwirtschaftlich unsinnig. So ärgert mich bei Max Payne 2, dass der Tonemapping-Effekt ohne Antialiasing gemacht wird, obwohl viele Karten Antialiasing bei solchen Effekten unterstützen.
Dann ists also wiedermal Pfusch der Contentdesigner. Denn nach Möglichkeit designe ich gleich mit maximal möglichen Details und rechne dann für die am Releasezeitpunkt verfügbare HW runter - und deswegen bin ich immernoch der Meinung, dass Lowtech Highend die Entwicklung nicht so viel stärker als Hightech Lowend bremsen kann. Denn designed wird ohnehin auf der HW mit dem höchsten Techlevel. Und wenn man gut designed (also nicht alles nach heutigem Ermessen, im Hoffen dass das Spiel nach 2 Jahren fertig ist, und der Engineprogrammierer dann noch schnell ein paar neue Effekte bereitstellt) muss man sich ohnehin um einen Backfall kümmern (Modelle runter rechnen. shader vereinfachen,...). Dass aktuell in der R:Six SM2 Karten ausgesperrt werden kann ich da noch eher verstehen, als zB in der Vergangenheit, wo man die HWTnL-losen Voodookarten ausgesperrt hat (zB Farcry)
Insofern frage ich mich, warum heute noch immer erst mal über die angebliche Nutzlosigkeit von Features gelästert wird, die im Moment nur die Nicht-Lieblingsfirma anbietet. Hier sehe ich das Verhalten durchscheinen, die eigene Hardware zu verteidigen. Das gilt natürlich auch umgekehrt für diejenigen, deren Karte technisch die aktuellste ist, obwohl sie von den Feautures noch nicht sehen. Doch seit längerem sind alle neuen Features nur noch welche, die über kurz oder lang auch von der Konkurrenz geboten werden.
Wie gesagt. Die Entwicklung geht in ein gute Richtung. Aber in der Vergangenheit, hat sich ein GraKahersteller (ua. auch) dadurch das Genick gebrochen.
Auch du finanzierst (in kleinem Maßstab) indirekt die Konsolenentwicklung mit =).
Das ist mir aber im besten Falle egal. Freuen tuts mich sicher nicht.
Was ist "vernünftig"? Viele Spieler wollen nunmal grafische Effekte sehen. Wenn fast jedes Spielprinzip schon mal da war, wie versucht man sich dann abzuheben? Grafik ist ein wichtiges Verkaufsargument, für Packungs-Screenshots, für die Presse, für den Spieler. Die Diskussion dass "nur die Grafik" eines Spieles gut sei, gab es schon zu 2D-Zeiten als man noch einen 286-er hatte und schon zu Zeiten, als die Homecomputer modern waren (und man auf PCs kaum spielte.)
zB Farcry machte das im Großen und Ganzen vernünftig. Reizte eine 9700p komplett aus (und selbst aktuelle Karten kämpfen tw. noch mit der Performance bei HDR + AA), war aber auch auf einer GF2 spielbar. Warum man da die Voodoo5 ausgesperrt hat, bleibt mir trotzdem ein Rätsel.
Da wär ne Warnung im Sinne von, dass die Karte nicht kompatibel ist und deswegen uU Grafikfehler produziert werden besser gewesen. (für die Community, die das schon irgendwie hingebogen hätte, um eine Spielbarkeit zu erreichen)
Die HW-Entwicklung ist nunmal da. Als sich die CD durchsetzte, mit ca. 450-facher Disketten-Kapazität, wie hätte man es "vernünftig nutzen" sollen? Gleich 650 MB Content produzieren, aber bitte hochwertigen – ohne, dass die Preise für ein Spiel extrem in die Höhe steigen? Oder, wenn das Spiel nur 28 MB einnahm, hätte man es dann auf 20 Disketten ausliefern sollen – weil eine CD mit gerade mal 4% Kapazitätsnutzung nicht "vernünftig" genutzt sein würde?
Imo regelt das der Markt. Die Spieleentwicklung wird immer teurer und aufwändiger, aber gleichzeitig wächst der potentielle Absatzmarkt auch mit.
Du schreibst "Naja, solang das Spiel gut aussieht, ists dem Durchschnittsspieler wohl komplett schnurz welche Technik dahinter eingesetzt wird" was natürlich stimmt. Aber stell dir vor, bei Doom 3 wären die Details allesamt geometrisch statt mit Normalmapping gerendert worden. Wie würde das performen? Obwohl es besser aussehen würde als mit den trotz Bumpmapping ja weiterhin flachen Polygonen wäre es unspielbar. Neue Technik ermöglicht entweder, Effekte effizienter zu realisieren, oder bisher nicht mögliche Effekte überhaupt in Echtzeit zu realisieren. Neue Technik ist damit grundsätzlich wünschenswert. Dass die Zeit noch nicht reif sei für eine Technik ist ein grundsätzlich unsinniges Argument. Wer baut schon Transistoren für Sachen ein, die das Produkt nur auf dem Papier besser aussehen lassen? Die IHVs setzen eben unterschiedliche Prioritäten. So war ATI mit dem R100 und mit dem R200 sehr fortschrittlich, was Combiner bzw. Pixelshader angeht. War das umsonst? Natürlich nicht.
Andererseits hätte id in der Engine einen Backfall für alte HW einbauen können, wo man einfach die Bumpamps statisch in die Diffusemaps eingerechnet hätte. Vom Aufwand her minimal, mit dem Lohn einer weitaus besseren Optik auf Lowend-HW. So sah D3 ohne Bumpmaps tw. einfach nur bescheiden aus.
Das ist jetzt mal so ein Spiel. Einzelbeispiel braucht man imo nicht groß zu diskutieren. Auch wenn hier bei dem einen Spiel die SM2-Karten-Besitzer heulen: Haben sie wirklich ATIs Versprechen geglaubt, dass man alles was mit SM3 möglich ist, auch mit SM2 realisieren kann? (Warum hat ATI dann überhaupt SM3-Karten herausgebracht?) Und andersherum: Welcher NV40-Käufer hat geglaubt, alle Spiele die irgendwie SM3 nutzen, in hoher Auflösung und flüssig mit dieser Karte spielen zu können?
Wohl die meisten, die sich damals nen NV40 gekauft haben. (Denn SM3 erhöht ja die Effizienz, weswegen bei gleicher Last mehr Effekte möglich sind ;))
Außerdem hats ja für SC:CT ja eh nen SM2-Patch von ATi gegeben, der gezeigt hat, dass die Effekte eben doch mit ner SM2 Karte möglich sind...
Wo hast du einen Framebuffer mit FX12? Das wären bei RGB ja 36 Bit.
Stimmt. In The Project wars afaik FX10 und in HL²-LC ists int16.
Du denkst "falsch herum".
Zu GF4-Ti-Zeiten wurde den Entwicklern bewusst, dass man langsam doch mal breit auf T&L setzen könnte, weil es kaum noch Leute mit einer TNT2 gibt. Wenn das Techlevel festgelegt wird, guckt man, was da ist. Mit der Verbreitung der FX 5200, die so manche GeForce 2 MX ablöste, wurde DX9 breiter verfügbar als rein mit ATIs Produktpolitik.
Breiter verfügbar aber nicht nutzbar. Der IHV hat imo nix von einer großen Techbasis, wenn sich die Lowend-HW dabei schon in 640x480 mit <5 fps kaputtruckelt.
Erweist sich dann beim Spiel-Test mit dem fertigen Content die Performance auf einer 5200 als so schwach, dass es auch in 640x480 eine Zumutung ist, kann man überlegen, der 5200 den DX9-Pfad gleich zu verwehren. Trotzdem half sie mit, dass erst mal überhaupt ein DX9-Pfad eingebaut wurde. Für die (im Vergleich) wenigen Spieler die eine Radeon 9700 oder 5800 haben, hätte man sonst vielleicht nur einen Trost-Effekt eingebaut, irgendeinen Postfilter mit DX9 oder so.
Die FX5200 half nicht mit, das war dann schon die FX5800 (wobei in HL² eher die 9700p mithalf), die FX Karten durften ja alle nicht DX9 rendern.
Das suggeriert das Marketing. Jede TV-Werbung suggeriert mindestens ebenso falsche Sachen. Viele Zeitschriften-Anzeigen suggerieren Dinge, die beim Kauf des Produktes dann natürlich doch nicht eintreffen. Worüber reden wir? Dass die IHVs ihre Produkte hochloben und sich als Technik-Vorreiter präsentieren?
Nein, sondern darüber, dass sich viele Redakteuere gerade in der Verangenheit zum verlängerten Arm des Marketings machen haben lassen.
Was ist mit der "Tech-Level-Lüge" von ATI, welche eine DX8-Karte als Radeon 9200 verkaufte? Was ist Nvidias "same-functionality"-Lüge, von der beim GF4-Launch in Bezug auf die GF4 MX im Vergleich mit einer GF3 gesprochen wurde?
Genauso frech und eine Irreleitung ggü dem Kunden. Das haben die (meisten) Redakteuere aber wenigstes auch erkannt.
Für DX9-Spiele ist eine Radeon 9700 (ohne Pro oder irgendwas) besser als eine 5900 Ultra. Insofern hat sich NV blamiert. Das Marketing um die FX war einfach nur peinlich, dazu kamen dann die miesen Treiber-Cheats, die Senkung der Texturfilter-Qualität und so weiter. Was ich persönlich (rein technisch) am entäuschendsten fand war aber nicht der PS2-Speed, sondern dass es beim 4x-AA nur eine OG-Maske gab.
So seh ich das auch. Auch wenn die FX Reihe ohne übermächtige Radeon Gegner durchaus gut dagestanden wär.
Bei der FX gab es anfangs nur schlecht optimierte Treiber. Der HLSL-Shader-Compiler von DX9 war voll auf die Radeon ausgelegt. NV hat später mit einem verbesserten Treiber, der Befehle umsortiert (und teilweise zusammenfasst) etwas herausholen können, außerdem wurde von MS ein 2_A-Compilerprofil nachgeliefert, welches bessere Ergebnisse liefert. Das half der FX zwar, aber brachte sie trotzdem nicht mal in die Nähe der 9700. Dazu hätte es schon der Erlaubsnis bedurft, entsprechende Shader-Teile in FX12-Genauigkeit zu berechnen. Somit wäre die 9700 zwar höchsten dank des höheren Chiptaktes des NV30 überboten worden (wenn überhaupt), aber man wäre ingesamt konkurrenzfähiger. Für viele Shader-Teile hätte FX12 ausgereicht. Man kann aber NV durchaus vorwerfen, mit der FX12-FP16-FP32-Sache und den komplizierten Optimierungsregeln für CineFX dem Entwickler eine Menge Zusatzarbeit aufzuhalsen wo ATI zeigt, dass man auch durchgehend schnell sein kann.
Und trotzdem war die FX-Reihe immernoch des Entwickler lieb Kind (konnte sie doch viel komplexere Shader darstellen als die 9x00 Karten.
Es gibt Spiele, die auf einem NV40 dank seinem SM3-Support mehr zeigen als ein R420.
Mit spielbaren fps aber oft nur in unzeitgemäßen Auflösungen.
Hätte man damals denn die Bumpmapping-Fähigkeiten gar nicht erst einbauen sollen?
Doch. Aber ich dachte mir schon zu Voodoo2-Zeiten, dass die bald konsequente Nutzung der Features meine 3dfx-Karte zu nem alten Stück HW macht. Und wenn in den Reviews schon dafür gewarnt wurde, sich ne Voodoo3 zu kaufen, da diese auf veraltete Technik baut, dann glaubt man das erstmal. Bis man sich wundert, dass die Features 3 Jahre später immernoch nur sehr rudimentär genutzt werden - wohl einfach weil die Leistung noch nicht da war, was aber genau der Aspekt ist, der von den meisten Reviews unterschlagen wurde..
Da weiß ich jetzt nicht, welchen Titel du meinst. Bei Ports kann man aber meiner Erfahrung keineswegs erwarten, dass es auf technisch besserer Hardware "mindestens" so gut aussieht.
So ziemlich alle EA-Sports Titel.
Ist die X800 bis jetzt tot? Nö.Naja, es gibt immerhin schon Spiele, die auf einer x800 nicht einmal mehr starten. In sehr vielen Spielen muss man auf Details verzichten.
Braucht man bis jetzt uunbedingt eine SM3-Karte zum Spielen? Auch nicht.Es gibt genug Leute, die jetzt noch mit einer Geforce 4 spielen und dabei auch noch Spaß haben. Natürlich braucht man nicht unbedingt eine SM3-Karte zum Spielen, aber es ist trotzdem von Vorteil.
Außerdem hats ja für SC:CT ja eh nen SM2-Patch von ATi gegeben, der gezeigt hat, dass die Effekte eben doch mit ner SM2 Karte möglich sind...Der aber optisch nicht gleichwertig zum SM3-Pfad mit HDR-Rendering war. Trotzdem sah er natürlich deutlich besser als der 1.1-Pfad aus.
Es hat ja auch niemand behauptet, dass ähnliche Effekte nicht auch mit SM2 möglich wären. Aber es hätte für die Entwickler eben zusätzliche Arbeit bedeutet. Bei einem Spiel zählt, dass es auf möglichst vielen Rechner läuft (-> PS1.1-Pfad) und dass es auf High-End-Rechnern möglichst gute Grafik zu bieten hat (-> SM3-Pfad). High-End-Grafik ist eben für Grafikkarten mit einem High-End-Featureset. ;)
Mit spielbaren fps aber oft nur in unzeitgemäßen Auflösungen.Das würde ich so nicht sagen. Eine 6800 Ultra ist schon recht leistungsstark und die wenigen damaligen Spiele, die SM3 oder andere NV40-Features nutzen, liefen auch alle sehr gut. Auch in Far Cry und SCCT durfte man HDR-Rendering genießen, was R420-Besitzern nicht möglich war. Selbst in heutigen SM3-Spielen schlägt sich ein NV40 für sein Alter noch recht gut, wenn man auf hohe Auflösungen, Antialiasing und hochwertige Texturfilterung verzichten kann. Im Gegensatz zu R420-Besitzern hat man immerhin die Wahl ob man ein Spiel mit maximalen Details und niedriger Auflösung ohne AA/AF spielen möchte oder lieber die Details runterdreht um auch in höheren Auflösungen flüssig spielen zu können.
Mr. Lolman
2007-01-27, 12:40:38
Der aber optisch nicht gleichwertig zum SM3-Pfad mit HDR-Rendering war. Trotzdem sah er natürlich deutlich besser als der 1.1-Pfad aus.
Es hat ja auch niemand behauptet, dass ähnliche Effekte nicht auch mit SM2 möglich wären. Aber es hätte für die Entwickler eben zusätzliche Arbeit bedeutet. Bei einem Spiel zählt, dass es auf möglichst vielen Rechner läuft (-> PS1.1-Pfad) und dass es auf High-End-Rechnern möglichst gute Grafik zu bieten hat (-> SM3-Pfad). High-End-Grafik ist eben für Grafikkarten mit einem High-End-Featureset. ;)
Das "HDR" wurde ein bisschen dünkler dargestellt, stimmt.
Das würde ich so nicht sagen. Eine 6800 Ultra ist schon recht leistungsstark und die wenigen damaligen Spiele, die SM3 oder andere NV40-Features nutzen, liefen auch alle sehr gut. Auch in Far Cry und SCCT durfte man HDR-Rendering genießen, was R420-Besitzern nicht möglich war. Selbst in heutigen SM3-Spielen schlägt sich ein NV40 für sein Alter noch recht gut, wenn man auf hohe Auflösungen, Antialiasing und hochwertige Texturfilterung verzichten kann. Im Gegensatz zu R420-Besitzern hat man immerhin die Wahl ob man ein Spiel mit maximalen Details und niedriger Auflösung ohne AA/AF spielen möchte oder lieber die Details runterdreht um auch in höheren Auflösungen flüssig spielen zu können.
Naja in, R:Six dürfte sie (ausgehend (http://www.tomshardware.co.uk/graphics/charts.html?modelx=33&model1=519&model2=547&chart=204) von ~20% Mehrperformance zur 7600GS) in 1024x768 mit LOW Details knapp an die 20fps avg kratzen. Mit HIGH Details geht sich das nichtmal in 800x600 aus. Und 20fps avg sind imo mit gutem Willen geradenoch spielbar, richtig Spaß hat man im Durchschnitt wohl aber erst ab 30 fps avg.
Von daher seh ich den Nutzen nicht unbedingt. Denn SC:CT hätte sich den SM3 Pfad eigentlich sparen können und sich auf SM2 beschränken. Und ein damaliger Käufer einer 6800 Ultra hat wohl nicht allzuviel Bock, aktuelle SM3 Kracher in 640x480 spielen, schätz ich mal...
http://www.anandtech.com/video/showdoc.aspx?i=2895&p=5
Ok, dass die allerneusten Spiele derart viel Grafikleistung verlangen, hätte ich jetzt nicht gedacht.
Trotzdem war in meinen Augen ein NV40 die bessere Wahl gegenüber einem R420. Aber das hängt natürlich auch von den eigenen Ansprüchen ab. Ich habe mich damals für die 6600GT entschieden. Diese war schneller als vergleichbare ATI-Produkte und SM3 gabs als Bonus noch obendrauf.
Also mit der GF4MX wurde auch viel verhindert. Dagegen ist die R9200 harmlos, die hat wenigstens Shader 1.3, die GF4mx sprang 2 Gens in der Entwicklung zurück, das ist ja wie der Wii. Altes für Neu verkaufen.
Und mein Cousin hat vor 2 Jahren einen Kplsystem gekauft mit 2,5GHz aber keinen einzigen Shader. Der kann jetzt nur Unreal mit 900fps spielen. Ist also nicht so, das Kenner das wußten.
Mr.Magic
2007-01-27, 13:06:14
Um auch mal meinen Senf dazuzugeben.
Auf meinem Laptop mit GoForce 6200 sieht bei SC:CT der SM3-Pfad nicht nur besser aus als der 1.1er, es läuft auch schneller - 1024x800 1024x640 ist mit SM1.1 unspielbar und unter SM3 erträglich. Sicher wäre damals die SM3-Grafik auch ungefähr unter SM2 möglich gewesen, aber mit größerem Aufwand und gleichzeitig geringerer Performance. Welcher Entwickler/Publisher macht sich freiwillig mehr Arbeit bzw. bezahlt den Mehraufwand (Arbeitszeit kostet Geld)?
Mal von einem Laien für Laien ausgedrückt. SM3 war/ist wie SM4 vor allem eine Arbeitserleichterung für Programmierer. Das Zusammenfassen von Befehlen und Shadern bringt darüber hinaus mehr Geschwindigkeit (durch geringeren Overhead und weniger Pipelinepasses), diese freigewordenen Ressourcen kann man dann z.B. in neue Effekte investieren.
Das wurde zwar alles bereits angesprochen, da hier aber sowieso im Kreis disutiert wird dürfte das aber gar nicht weiter auffallen.
Tigerchen
2007-01-27, 13:38:12
Aber nehmen wir an, Windows könnte tatsächlich hab so groß und doppelt so schnell sein. Was brächte das? Fast nichts. Ob nun ein paar hundert MB mehr oder weniger ist heute nicht mehr entscheidend. Das was Windows von der Gesamt-CPU-Leistung nutzt ist so wenig, dass eine Halbierung der durch Windows verursachten Last kein einziges Spiel fühlbar beschleunigen würde. Die Entwicklung von Windows wäre aber sehr viel teurer. Der Preis für die Software wäre entsprechend höher. Es ist billiger, eine CPU-Klasse schneller und eine HDD-Größe größer zu kaufen und den entsprechenden Strom zu verheizen, als bis auf Teufel-komm-raus Software zu optimieren.
Das Wichtigste an Windows ist für Spieler wohl DirectX. Da hat ja Microsoft selbst bewiesen daß man es besser machen kann und den Overhead der neuen Version durch von dir verteufelte Optimierung deutlich reduziert. Man hätte sich also die Kosten dafür sparen können? Ich bin anderer Meinung.
Tigerchen
2007-01-27, 13:45:14
Ok, dass die allerneusten Spiele derart viel Grafikleistung verlangen, hätte ich jetzt nicht gedacht.
Trotzdem war in meinen Augen ein NV40 die bessere Wahl gegenüber einem R420. Aber das hängt natürlich auch von den eigenen Ansprüchen ab. Ich habe mich damals für die 6600GT entschieden. Diese war schneller als vergleichbare ATI-Produkte und SM3 gabs als Bonus noch obendrauf.
Die 6600 war ja auch gut zu ihrer Zeit. ATI hatte ja in der Preisklasse damals nichts zu bieten. Allerdings werden und wurden ganz andere nV-Granaten der damaligen Zeit "aus Entwicklersicht moderne Designs" verteidigt. Nur weil sie mit Ach und Krach SM 3 konnten.
Aquaschaf
2007-01-27, 14:20:01
Das Wichtigste an Windows ist für Spieler wohl DirectX. Da hat ja Microsoft selbst bewiesen daß man es besser machen kann und den Overhead der neuen Version durch von dir verteufelte Optimierung deutlich reduziert. Man hätte sich also die Kosten dafür sparen können? Ich bin anderer Meinung.
Wo ist da der Zusammenhang? Windows und DirectX sind zwei paar Schuhe.
wie gesagt, eine "ungünstige" Auflösung auf einem TFT verschlechtert dann die BildqualitätIch kann auf meinem TFT recht gut in nicht-nativer Auflösung spielen.
lol, Benzin-Direkteinspritzer oder Diesel-Common-Rail wurden auch nicht an einem Tag erfunden. Turbo-Motoren oder Düsenantriebe oder alles was hochdrehende Turbinen besitzt wurde nicht an einem Tag entwickelt. Da musste auch viel Zeit und Geld investiert werden bis das richtige Material gefunden etc wurde.
So gesehen ist Software-Optimierung sogar eher leichter möglich. Zum einen kann Software schon mal durch den Compiler auf eine CPU optimiert werden - die Spiele/Anwedungs CD /DVD ist nur halb voll? Dann pack ein paar rechenintensive exes bzw. dlls in einer "Standard" Version drauf und dann eine für P4, Core Duo, XP, A64, etc drauf.
Man kann auch schon im "First Pass" sehr guten Code schreiben, das ist etwas das ein Programmierer lernen kann. Früher konnte ich 3,4,5 mal über einen Quelltext drüber gehen und habe immer wieder optimierbare Stellen gefunden. Über die Zeit hab ich einen Teil der sonst nachträglich eingefügten Optimierungen schon beim ersten Runterschreiben eingebaut.
Wie gesagt, das ist eine Frage des Lernens.Zu schade, dass du nicht in der Software-Entwicklung arbeitest.
Und dass du wenig Ahnung von großen Softwareprojekten hast. Anders kann ich mir dein großes Gerede nicht erklären.
[COLOR="#000099"]
Das Wichtigste an Windows ist für Spieler wohl DirectX. Da hat ja Microsoft selbst bewiesen daß man es besser machen kann und den Overhead der neuen Version durch von dir verteufelte Optimierung deutlich reduziert. Man hätte sich also die Kosten dafür sparen können? Ich bin anderer Meinung. Da hast du dir wohl wieder einmal nicht die Mühe gemacht, ein anderes Posting verstehen zu wollen. Bei deinem geringen Wissen in Dingen 3D-Technologie oder 3D-Software (oder Software-Entwicklung allgemein) ist eine Diskussion mit dir in diesen Bereichen ohnehin wenig sinnvoll. Im Gegensatz zu anderen bist du ja nicht bereit, Neues zu lernen, wie auch ein kürzlich von dir erstellter Thread zeigt. Außerdem kann man Leute, die nicht wie alle anderen auch die Postings in der Normalfarbe zu schreiben, ohnehin nicht besonders ernst nehmen.
Ist die X800 bis jetzt tot? Nö.
Braucht man bis jetzt uunbedingt eine SM3-Karte zum Spielen? Auch nicht.
Ist die Grafikpracht auf auch einer X800 noch toll? Jawoll, vor allem wenn sich diese Entwickler:| mal die Mühe gemacht haben, die vorhandenen Features auch gut auszunutzen (siehe z.B. HL2).
Haben also die, die SM3 zu NV40-Zeiten gehyped haben mal wieder maßlos übertrieben? Klares Ja!Das ist eine mögliche Sicht der Dinge. Wer Sachen "hypt" (nicht "hyped"), übertreibt natürlich grundsätzlich. Jetzt hängst du noch ein "maßlos" ran, weil du es so empfindest.
Andere Leute sind möglicherweise froh, dass ihre 6600 GT SM3 unterstützt.
Wenn die Spiele ordentlich verkauft werden sollen, werden die Entwickler nicht darum herum kommen, mindenstens das vorherige Shadermodell zu unterstützen, auch nicht, wenn alle Hersteller gleichzeitig das neue SM eingeführt haben, denn der Hardwarebestand ändert sich nicht so schnell.
Was aus Entwicklersicht wünschenswert wäre und was aus Kundensicht optimal wäre sind nun mal zwei Paar Schuhe.
Und da die Entwickler letztendlich für die Spieler programmieren, haben sie sich auch nach deren Wünschen und Möglichkeiten zu richten und nicht umgekehrt.
Dazu gehört auch, die Leistungsfähigkeit älterer Hardware nicht einfach brachliegen zu lassen, weil die Damen und Herren lieber nur mit dem neuen "Spielzeug" spielen wollen - auch wenn die Projekte immer umfangreicher und komplizierter werden.Entwickelt wird "für den Markt", so wie er von den Entwicklern eingeschätzt wird. Entwickelt wird nicht speziell für SM3-Hyper oder SM2-Freaks. Warum sollte ein profitorientiertes Unternehmen noch groß auf SM2 setzen, wenn sie dafür (angesichts der Budget-Grenze) an SM3-Sachen sparen müssten? Weil SM2-Hardware weiter verbreitet ist als SM3-Hardware? SM1-Hardware ist noch weiter verbreitet. So argumentiert müsste man erst mal DX8 "ausnutzen" und dürfe noch nicht mal groß was für SM2 machen.
Die Effizienz einer Karte lässt sich außerdem nicht hauptsächlich am unterstützten Shadermodell festmachen.Das stimmt natürlich, aber das Shadermodell hat einen wesentlichen Einfluss darauf.
Was nimmt eigentlich zur Zeit den meisten Entwicklungsaufwand in Anspruch, die Erstellung des Contents oder die Entwicklung der Engine/Anpassung des Contents auf eine Engine?Anpassung gehört letztlich mit zur Erstellung.
Ich hab jetzt nicht alles gelesen aber werde dennoch mal ein paar Dinge in den Raum werfen.
- Dem Threadersteller gings vermutlich darum das das Marketing zu Zeiten des NV40 (denn daher stammt ATIs letzte sm2 Hardware) publizierte das man unbedingt eine SM3 Karte kaufen muss weil das soviel besser und toller ist und SM2 (respektive 2.x) Hardware der damaligen Zeit für die Tonne ist. Nun ist es zwar im Sinne jedes Unternehmens Werbung zu machen doch ist der nicht so bewanderte Kunde ziemlich hilflos. Man stelle sich vor man geht in ein Geschäft und möchte etwas kaufen womit man sich absolut nicht auskennt....im Prinzip geht man meistens mit dem Produkt raus welches einen dr Händler aufschwatzt.
- Features können nicht schaden...Der NV40 nimmt durch sein SM3 Feature keinen "Schaden" allerdings ist er eben ein gutes Stück langsamer als ähnliche SM2 Hardware.
- ohne Hardware keine Software....natürlich brauchten Entwickler schon damals SM3 Hardware um dieses Feature auch für uns Kunden verfügbar zu machen..nur ist die Entwicklungszeit eines Spiels nicht gerade kurz. Im Prinzip kann man sagen das der Entwickler sich das kaufen soll was die meisten Features hat (NV hatte früh SM3 schön für den Kunden das Entwickler darauf entwickeln können) der Kunde konnte sich noch SM2 Hardware kaufen welche sich für gleichen Preis meist schneller herausstellte. Hier kommen wir zum Frust einer Leute die viel Geld in eine 6800Ultra steckten weil ihnen das Marketing suggerierte sie bräuchten unbedingt eine SM3 Karte und nun im Lebenszyklus sahen das eine X800XT-PE meistens deutlich schneller ist mit einer ähnlichen Detailgenauigleit da SM3 Spiele sogut wie nicht verfügbar waren/sind
Also das Wechseln von einer X800XT auf eine X1950pro hat mir featuremässig in nur wenigen Spielen bisher was gebracht...das was mir am meisten gebracht hat ist das gute AF und das kleine Performanceplus bei neuen Spielen
Andererseits hätte id in der Engine einen Backfall für alte HW einbauen können, wo man einfach die Bumpamps statisch in die Diffusemaps eingerechnet hätte. Vom Aufwand her minimal, mit dem Lohn einer weitaus besseren Optik auf Lowend-HW. So sah D3 ohne Bumpmaps tw. einfach nur bescheiden aus.
Fallback, nicht Backfall.
Hätte man das so gemacht, wäre wahrscheinlich der Texturspeicher nicht ausreichend gewesen, oder die Beleuchtung völlig falsch. Wieso ignorierst du dieses Argument ständig?
lol, Benzin-Direkteinspritzer oder Diesel-Common-Rail wurden auch nicht an einem Tag erfunden. Turbo-Motoren oder Düsenantriebe oder alles was hochdrehende Turbinen besitzt wurde nicht an einem Tag entwickelt. Da musste auch viel Zeit und Geld investiert werden bis das richtige Material gefunden etc wurde.
Und hätte man deswegen in der Zwischenzeit "unoptimierte" Motoren gar nicht erst bauen sollen?
Ich kann auf meinem TFT recht gut in nicht-nativer Auflösung spielen.
man kann auch auf ein Graka mit weniger Features recht gut spielen ;)
Zu schade, dass du nicht in der Software-Entwicklung arbeitest.
wird auch besser sein, sonst hätte vermutlich schon mehrfache Magengeschwüre
Und dass du wenig Ahnung von großen Softwareprojekten hast. Anders kann ich mir dein großes Gerede nicht erklären.
ob gross oder klein, auch ein kleines Programm kann "modular" aufgebaut sein, schon eine einzige Schleife kann doppelt so viel CPU brauchen, oder auch nicht. Es gibt auch grosse Projekte die flott und effizient laufen, es gibt auch kleine uneffiziente Programme - so what...
Als MP3 am kommen waren und das Abspielen dieser 50-90% der CPU Leistung gekostet haben, da haben die WinAMP Entwickler und die von einem anderen Player gewetteifert wer mehr Quali mit weniger CPU schafft. Kleine Projekte, aber mit entscheidender Optimierung, ein PC der 90% fürs Musik abspielen braucht kann nebenher schliesslich nicht mehr fürs Arbeiten genutzt werden.
Morphos, quasi ein AmigaOS Nachfolger für PPC Amigas, AmigaOS 3 kompatibel (!) dank PPC schnell genug für MP3, Video, etc, ist in wenigen Minuten installiert, in wenigen Sekunden gebootet und braucht gerade mal ein paar Dutzend MiB (20?) auf der Festplatte. Woher kommts? bzw woher kommts dass Windows so viel braucht?
Und hätte man deswegen in der Zwischenzeit "unoptimierte" Motoren gar nicht erst bauen sollen?
Äpfel und Birnen um genau zu sien
die Motoren werden stetig verbessert i.e. "schneller". Computer Software wird im Gegensatz dazu immer langsamer d.h. die Motoren werden also optimiert und die Software wird immer unoptimierter
Piffan
2007-01-27, 15:14:39
Das Problem ist doch nicht neu. Schon immer werden den Kunden Gurkengrakas angedreht mit toller, neuester Technologie, die nur einen kleinen Fehler haben: Die Performance ist für genussvollens Spielen zu schlecht. Noch dreister die Sauerei mit der Geforce 4 MX. Eigentlich schon Betrug.
Warum jetzt so einen Aufriss darüber? Haben die Leute, die gerade eben erst eine Radeon 1950XT, evtl. Crossfire,(Sinngemäß NV-SLI) gekauft haben, Angst, dass demnächst Spiele rauskommen, wo ihnen was entgeht?
Gerade jetzt ist es doch so, dass erst mal bei Shader 3 vorerst Ruhe einkehrt. Der Grund ist die Xbox und die Parallelentwicklung. Nur so kann Ubisoft sich die "Dreistigkeit" erlauben, ein SM3- Only Spiel rauszuhauen. Für andere Projekte wie Crysis scheint der Publisher nicht so leichtfertig zu sein einen großen Kundenkreis auszusperren. Crytek sitzt zur Zeit nach, das Game für ältere Hardware zu optimieren. Guter Dienst am Kunden, den ich auch mit klingender Münze honorieren würde, wenn mich das Spiel anspricht. Teil 1 hat mich und eine große Fangemeinde sehr gut unterhalten und der Publisher scheint zu wissen, dass man seine FAns nicht veräppeln sollte. Der Unmut kocht sonst zu schnell über (siehe die überzogenen Reaktionen auf Gothic 3, wo man die ausgetretenen Pfade verlassen musste und dann die Fans noch mit Bugs gequält hat.)
Schön für mich, dass mich weder Vegas noch der kastrierte PC- Fischer interessieren. Das letzte Beispiel zeigt, wie infam Ubisoft mit PC- Spielern umgeht. Sind das Vorzeichen, dass der PC als Spieleplattform ein Auslaufmodell ist?
edit: Valve interessiert wie eigentlich alle Publisher der wirtschafltiche Erfolg: Ergo bringen sie ihre Spiele so, dass sie für einen möglichst guten Kundenkreis erschwinglich sind und die Optik dennoch den meisten Spielern gefällt. Natürlich kommen sich Besitzer von High- End- Hardware auch veralbert vor angesichts mancher grafischer Sünden, aber immerhin ist dank High-End Linderung möglich durch brachiale FSAA- Verfahren. Bleiben noch die merkwürdigen Schatten......Übrigens: HL2 performt selbst auf meiner ollen X800XT trotz AF und AAA recht sauber bei 1240x1024. Wie Vegas laufen würde, wenn es auf SM2 optimiert werden würde, will ich lieber nicht wissen. Zumal ich nicht erkennen kann, was an der Grafik nun so dolle ist...
Mr. Lolman
2007-01-27, 15:25:50
Fallback, nicht Backfall.
Hätte man das so gemacht, wäre wahrscheinlich der Texturspeicher nicht ausreichend gewesen, oder die Beleuchtung völlig falsch. Wieso ignorierst du dieses Argument ständig?
Aja Fallback, hoppla. Eine völlig falsche Beleuchtung ist immernoch besser, als garkeine (ja ich hab für D³ ~50 Texturen händisch umgebaut, und es sah weitaus besser aus, als nur mit Diffusemaps alleine). Jedenfalls, hat das nichtmal ein Byte mehr Texturspeicher gekostet, da ja die Anzahl an verwendeten Texturen gleich geblieben ist)
Außerdem gibts ja, wie man in der Vergangenheit an unzähligen Spielen sah, auch Texturen die ohne Bumpmapping eine schöne Struktur aufweisen. Warum also dem Spieler seine HW älter aussehen lassen, als es sein muss?
Piffan
2007-01-27, 15:53:05
Außerdem gibts ja, wie man in der Vergangenheit an unzähligen Spielen sah, auch Texturen die ohne Bumpmapping eine schöne Struktur aufweisen. Warum also dem Spieler seine HW älter aussehen lassen, als es sein muss?
Faulheit oder Zeitmangel könnte eine Rolle spielen, aber sicher spielen auch Ati und NV da eine Rolle......Ein Spiel, das nur auf neuer Hardware vernünftig aussieht, ist bei entsprechender Qualität ein Kaufanreiz für neue Hardware.
Ich glaube aber, dass man beim Design von DoomIII sich entschieden hat, den Schatten höchste Priorität zu geben, ergo musste man bei den Polygonen radikal sparen. Polygonarme Grafik kann nur begrenzt durch gute Texturen gerettet werden.
Wahrscheinlich wäre es sauberer gewesen, wenn es gar nicht die Option gäbe, ohne Bumps zu zocken.
Ein gutes Beispiel ist Gothic 3: Es ist auch auf betagter Hardware noch gut zu spielen, wenn man Shader 1.4 wählt. Das hat zur Folge, dass der Großteil der Bumps fehlt und der Speicherhunger des Spieles drastisch sinkt. Was aber dennoch bleibt und die Grafik hübsch macht, ist der Detailreichtum und die hohe Polygonzahl der Objekte und die guten Texturen. Dynamische Schatten sind dann allerdings passe...
Genau. Und deswegen baut man Backfalls. So dass die 7300GS in 640x480 noch 15 fps anzeigt. Dafür darf sie aber nicht mehr allzuviele SM3 Effekte anzeigen. Ich hab auch nicht behauptet, dass ein höhere Techlevel schlechter wär, aber in der Vergangenheit sah ich die Effizienzsteigerung von neuen Features oft nur im geringerem Entwicklungsaufwand.Fallback, nicht Backfall.
Neue Shader erlauben in der Regel bei komplexen Effekten Pass-Reduzierung. Wenn der Effekt nicht komplex genug ist, braucht man auch nicht die höhere Shader-Version dafür. Dass höhere Shader durch das Angebot an mehr Ressourcen die Entwicklung vereinfachen ist natürlich auch günstig.
Bei 3D-Chips ist es oft so, dass im Shader (oder Multitexturing-Setup) die Ressourcen ausgehen obwohl noch Rohleistung da ist. GeForce 1 bis 4 trifft es hier besonders hart, bei nur 2 bzw. 4 Texturen pro Pass. Auch wenn Lowend-Hardware eh nur geringe Rohleistung hat, ist es nicht sinnvoll, künstlich die Ressourcen zu beschneiden. Nicht umsonst wurde die GeForce 4 MX als Technologiebremse beschimpft.
Eine 5200 auf DX8-Level wäre keine FX mehr, und mit den gesparten Transistoren hätte man auch nicht sooo viel machen können. Auch wenn der Chip etwas schlanker gewesen wäre, wäre die gesamte Karte wäre nur unerheblich günstiger gekommen. Da ist es dann besser, lieber die Features zu bieten. Zumal (auf dieser Sache reite ich gerne herum) sich mit der FX 5200 auch die Shader-Effekte vom MPC nutzen lassen. Es ist nicht sinnvoll, alles an "Spiele-Tauglichkeit" zu messen, nur weil es gerade opportun erscheint. Außerdem steht mit der FX 5200 eine kostengünstige Möglichkeit zur Verfügung, Vistas 3D-Spielereien zu nutzen. (Longhorn sollte ja ursprünglich früher kommen. Von ATI hätte man gleich eine Radeon 9600 kaufen müssen, die ein gutes Stück teurer war als eine FX 5200.)
Dann ists also wiedermal Pfusch der Contentdesigner. Denn nach Möglichkeit designe ich gleich mit maximal möglichen Details und rechne dann für die am Releasezeitpunkt verfügbare HW runter - und deswegen bin ich immernoch der Meinung, dass Lowtech Highend die Entwicklung nicht so viel stärker als Hightech Lowend bremsen kann. Denn designed wird ohnehin auf der HW mit dem höchsten Techlevel. Und wenn man gut designed (also nicht alles nach heutigem Ermessen, im Hoffen dass das Spiel nach 2 Jahren fertig ist, und der Engineprogrammierer dann noch schnell ein paar neue Effekte bereitstellt) muss man sich ohnehin um einen Backfall kümmern (Modelle runter rechnen. shader vereinfachen,...). Dass aktuell in der R:Six SM2 Karten ausgesperrt werden kann ich da noch eher verstehen, als zB in der Vergangenheit, wo man die HWTnL-losen Voodookarten ausgesperrt hat (zB Farcry)(Bitte: designt, nicht designed.)
Modelle einfach mal herunterzurechen ist nicht so einfach. (Geometrie-Probleme wie Löcher oder so, wenn man eine Objekt mit einem Lowpoly-Modell ersetzt dürften dir bekannt sein.) Nicht umsonst zieren sich viele Entwickler, mehrere Geometriedetailstufen anzubieten. Das ist möglich, aber aufwändig. Shader zu vereinfachen ist auch nicht immer so einfach möglich. Am ehesten lässt man bestimmte Effekte einfach komplett weg.
T&L ist erst mal via CPU relativ leicht emulierbar. Aber ohne T&L lassen sich auch keine Vertexbuffer nutzen. Wird ein Spiel mit viel statischer Geometrie designt und nutzt dafür Vertexbuffer, kann man imo ruhig entscheiden T&L-lose Hardware auszusperren. Soll denn ewig für Uralt-HW entwickelt werden? Mit den dafür erforderlichen Zusatzkosten hätte man beim dem mit T&L möglichen höher aufgelösten Content irgendwo sparen müssen. Das wollen natürlich die Leute nicht, die die neue Technik schon im PC haben. Dass sich T&L bzw. T&L-fähige Nachfolger (Vertexshader) durchsetzen würden, war auch von Beginn an klar. Das macht nicht jede T&L-Karte zum Knaller, aber jede T&L-lose Karte über kurz oder lang zum alten Eisen.
Wie gesagt. Die Entwicklung geht in ein gute Richtung. Aber in der Vergangenheit, hat sich ein GraKahersteller (ua. auch) dadurch das Genick gebrochen.
Das ist mir aber im besten Falle egal. Freuen tuts mich sicher nicht.
zB Farcry machte das im Großen und Ganzen vernünftig. Reizte eine 9700p komplett aus (und selbst aktuelle Karten kämpfen tw. noch mit der Performance bei HDR + AA), war aber auch auf einer GF2 spielbar. Warum man da die Voodoo5 ausgesperrt hat, bleibt mir trotzdem ein Rätsel. Mir nicht: X-Isle wurde original für die GeForce entwickelt, nicht für T&L-lose Voodoos.
Da wär ne Warnung im Sinne von, dass die Karte nicht kompatibel ist und deswegen uU Grafikfehler produziert werden besser gewesen. (für die Community, die das schon irgendwie hingebogen hätte, um eine Spielbarkeit zu erreichen)
Imo regelt das der Markt. Die Spieleentwicklung wird immer teurer und aufwändiger, aber gleichzeitig wächst der potentielle Absatzmarkt auch mit. Ohne T&L gäbe es wohl keine Grafikfehler, aber eine absolut unbrauchbare Performance. Dass Voodoos nicht unterstützt wurden, könnte auch an den nicht so flexiblen Combinern der Voodoo gelegen haben.
Es ergibt keinen Sinn, das Übergehen zu neuer Technik erst dann zu "erlauben", wenn die alte Technik vollständig ausgereizt ist. Die neue Technik bietet ja tatsächlich Vorteile. Die Spiele sollen vom Kunden auch bezahlbar sein. Der Kunde kann nicht verlangen, dass da auf jeden Sonderwunsch (Content-Downskalierung für Voodoo-Karten oder so) Rücksicht genommen wird. Einige Spiele werden auch für ein bestimmtes Tech-Level designt. Far Cry mindestens für GeForce.
Andererseits hätte id in der Engine einen Backfall für alte HW einbauen können, wo man einfach die Bumpamps statisch in die Diffusemaps eingerechnet hätte. Vom Aufwand her minimal, mit dem Lohn einer weitaus besseren Optik auf Lowend-HW. So sah D3 ohne Bumpmaps tw. einfach nur bescheiden aus. Das Spiel ist dafür gedacht, auf jeden Fall mit Bumpmapping zu laufen. Die Basemaps sind entsprechend so gestaltet, dass sie mit Bumpmapping zum Einsatz kommen und nicht, dass sie solo angezeigt werden.
Den Diffuse-Anteil statisch reinzurechnen hätte massiv zusätzliche Texturen gebraucht. Das Spiel hätte nicht mehr auf 3 CDs gepasst und würde jeden Grafik-Speicher, erst recht den von den alten nicht Dot3-fähigen Karten, völlig überfordern.
Bei Doom 3 hätte man zwar theoretisch schon Ersatz-Basemaps mitliefern können. Aber wozu? Wenn man das weiterdenkt, müssten Spiele letztlich auch noch voll Voodoo-1-kompatibel sein oder einen Software-Modus anbieten ...
Wohl die meisten, die sich damals nen NV40 gekauft haben. (Denn SM3 erhöht ja die Effizienz, weswegen bei gleicher Last mehr Effekte möglich sind ;))
Außerdem hats ja für SC:CT ja eh nen SM2-Patch von ATi gegeben, der gezeigt hat, dass die Effekte eben doch mit ner SM2 Karte möglich sind... Sind es genau die gleichen Effekte oder nur ähnliche Effekte? So oder so, im SM2-Pfad dürfte der NV40 (sofern es wirklich die gleichen Effekte sind) langsamer sein. Also profitiert er von SM3. Der R420 wäre mit SM3 in vielen modernen Spielen schneller.
Stimmt. In The Project wars afaik FX10 und in HL²-LC ists int16.
Breiter verfügbar aber nicht nutzbar. Der IHV hat imo nix von einer großen Techbasis, wenn sich die Lowend-HW dabei schon in 640x480 mit <5 fps kaputtruckelt.
Die FX5200 half nicht mit, das war dann schon die FX5800 (wobei in HL² eher die 9700p mithalf), die FX Karten durften ja alle nicht DX9 rendern. Der IHV hat schon was davon, er hat sein Produkt verkauft während die Konkurrenz nicht zum Zuge kam.
Auch die FX 5200 half mit, Spiele-Entwickler zu bewegen, DX9-Effekte einzubauen. Obwohl man auf der FX 5200 (zumindest bei den mir bekannten DX9-Spielen) keine "DX9-Effekte" sieht. Die 5200 als DX8-Karte zu betrachten ist eine Entscheidung, die am Ende der Spielentwicklung getroffen wurde. Zunächst wurde sie beim Betrachten der installierten DX9-Basis mit berücksichtigt.
Dass man einem Interessenten, der sich eine Graka für DX9-Spiele aussucht, natürlich keine FX 5200 empfiehlt, liegt (neben der bescheidenen PS2-Leistung bei CineFX 1) an der geringen Rohleistung dieses Entry-Level-Produktes. Dass man nicht mit jeder DX9-Karte jedes DX9-Spiel (und in voller Pracht) zocken kann, ist doch nichts erstaunliches – aber macht, wie eingangs ausgeführt, die Implementierung von DX9 nicht wertlos.
Nein, sondern darüber, dass sich viele Redakteuere gerade in der Verangenheit zum verlängerten Arm des Marketings machen haben lassen.
Genauso frech und eine Irreleitung ggü dem Kunden. Das haben die (meisten) Redakteuere aber wenigstes auch erkannt.Solche Namens-Spielchen, darunter auch "9800 SE" für die 128-Bit-Version mit halber Pipeline-Breite, oder "FX 5200" für 64-Bit-Versionen, regen mich sehr viel mehr auf als wenn ein Hersteller mit dem unterstützten Shader Model als unverzichtbares Zukunftsfeatures wirbt. Denn die Shader-Features werden sich garantiert durchsetzen. Dass man sie nun unbedingt hier und jetzt braucht, ist ja nicht gesagt. Aber man hat die Option. Bei einer Karte auf geringerem Techlevel hat man die Option nicht. So wich meine Ti 4600 zeitweilig der Radeon 9600. Aber nicht, weil ich mit der Leistung oder BQ der 4600 unzufrieden gewesen wäre. Die 9600 erlaubte trotz geringerer Rohleistung mehr Spielspaß in einigen Games und vor allem bessere Qualität dank DX9-Shadern.
So seh ich das auch. Auch wenn die FX Reihe ohne übermächtige Radeon Gegner durchaus gut dagestanden wär.
Und trotzdem war die FX-Reihe immernoch des Entwickler lieb Kind (konnte sie doch viel komplexere Shader darstellen als die 9x00 Karten. Ja, sowohl die FX als auch die Radeon 9700 trugen jeweils viel zum Erfolg von DX9 bei. Die FX 5200 mit 64-Bit-Interface kann komplexere Shader abarbeiten als eine Radeon X800. Die Radeon 9600 (ohne Pro) bereitet in so manchem DX9-Spiel mehr Freude bereiten als eine FX 5800 Ultra.
Mit spielbaren fps aber oft nur in unzeitgemäßen Auflösungen.Man hat mehr Optionen wenn man die Features hat als wenn man sie nicht hat. Ich hatte ja nur einen NV43 – die 6600 GT – unter anderem, weil eine X800 nicht infrage kam: Zu teuer für das Techlevel. Die X700 war zu dem Zeitpunkt noch nicht für AGP verfügbar, wenn ich mich recht entsinne. Nun habe ich inzwishen eine 7600 GT und noch immer kein Spiel, was SM3 braucht. Aber konnte ich das vorher wissen? Die zusätzlichen Features machen ja die Grafikkarte ingesamt nicht wesentlich teurer. Warum sich dann noch mit alter Technik zufrieden geben? Was in diesem Falle für die X700 gesprochen hätte, wäre 6x Multisampling (und nicht das Argument, SM3 bräuchte man noch nicht.)
Doch. Aber ich dachte mir schon zu Voodoo2-Zeiten, dass die bald konsequente Nutzung der Features meine 3dfx-Karte zu nem alten Stück HW macht. Und wenn in den Reviews schon dafür gewarnt wurde, sich ne Voodoo3 zu kaufen, da diese auf veraltete Technik baut, dann glaubt man das erstmal. Bis man sich wundert, dass die Features 3 Jahre später immernoch nur sehr rudimentär genutzt werden - wohl einfach weil die Leistung noch nicht da war, was aber genau der Aspekt ist, der von den meisten Reviews unterschlagen wurde..Die Probleme liegen tiefer. Die GeForce 2 kann pro Pass nur zwei Texturen sampeln. Für Bumpmapping mit Normalisierung (via Cubemap-Zugriff) ist das nicht ausreichend, da man mindestens noch eine Basemap braucht. Das wären dann schon zwei Passes. Ohne Normalisierung wiederum sieht es nicht besonders gut aus. Außerdem setzte sich Bumpmapping-fähige Hardware nicht so schnell durch, so dass erst mal weiterhin für normales Multitexturing entwickelt wurde.
Aber das Gegenteil wäre ja auch nicht richtig, also im Review zu schreiben "Leute, kauft diese Karte. Die kann zwar kein Bumpmapping, aber das wird ja eh nicht genutzt" – dies verlängert ja nur die Zeit, bis wir dann mal Bumpmapping zu sehen bekommen. Insofern ist mir nicht ganz klar, was du möchtest.
Im PC-Bereich gibt es einen fließenden Übergang. GF1: Tolle Combiner, doch relativ schwache 32-Bit-Leistung: Mit DDR-RAM war die deutlich besser. GF2: Gestiegene Rohleistung. GF3: Endlich 4 Texturen pro Pass, und nochmals deutlich höhere 32-Bit-Leistung. Engines die zum Beispiel anfangs auf einer GeForce 1 entwickelt wurden, waren dann vielleicht erst mit der GeForce 3 spielbar schnell. Aber der Spieler möchte doch, dass neue Technik auch ausgenutzt wird und dass neue Hardware auch mal bis zur Grenze ausgefahren wird. Du bist ja auch sauer, wenn auf einer SM2-ATI-Karte von einem Spiel nur SM1 genutzt wird.
Die Spielefirma Origin ist noch zu 2D-Zeiten dafür bekannt gewesen, auch Highend-PCs auszulasten. Dort stimmte aber meistens auch das Gameplay. Dass es auch Fälle gibt, wo das Gameplay nicht stimmt obwohl es wichtiger ist, als irgendwelche Shader, wäre nicht im Zusammenhang mit einer angeblichen "Shader-3-Lüge" zu diskutieren.
So ziemlich alle EA-Sports Titel.Wenn ich "EA" höre, bekomme ich Ausschlag. Trotzdem (also trotz schlecht bedienbarem Menü und oft schlecht portierter Spiele, die grauenhaft performen) ist EA wirtschaftlich erfolgreich.
MikeB
2007-01-27, 15:56:36
Es ist ein wichtiges Feature, aber langsames PS-DB macht SM3 à la NV40/G70 nicht nutzlos. Mehr Interpolatoren ...
Häääää??
Mehr Interpolatoren ? Hab ich da was verpasst ? Ich hatte schon den Spass 2.b Shader auf 3.0 nicht kompilieren zu können... Effektiv gesehen hat 3.0 sogar einen Interpolator weniger, erst nach entfernen des FOG-Interpolators war der Shader wieder compilierbar.
Die Shaderleistung vom NV40 ist so niedrig, dass SM3 auf diesem tatsächlich wenig sinnvoll ist, als ich mit den SM3 Erweiterungen für meine Engine fertig war, war die Performance auf einer 1600pro doppelt so hoch wie auf einer 6800GT, und das ohne DB benutzt zu haben.
Die SM3 Performance des NV40 errinert mich schwer an die SM2 Performance der FX-Serie. (lange nicht soo katastrophal)
Was allerdings an SM3 wirklich geil ist und die Performance boosten kann, ist die Verfügbarkeit von Geometry-instancing. (Ist an SM3 gekoppelt)
Michael
man kann auch auf ein Graka mit weniger Features recht gut spielen ;) Bei vergleichbarer Leistung und BQ ist die Graka mit mehr Features besser. Daran gibt es nicht zu rütteln. Bei der Frage X800 oder 6800 können Aspekte wie die BQ eine Rolle spielen, hier hat die X800 Pluspunkte. In Dingen Feautures hat die 6800 Vorteile, die auch relevant sind. Was für den Käufer wichtiger ist, muss er selbst entscheiden. Es gibt keinen Grund, die Begrenzung auf SM2 bei der X800 schönzureden.
wird auch besser sein, sonst hätte vermutlich schon mehrfache MagengeschwüreOder wärst schnell wieder gefeuert, da du zwar klug redest, aber nicht gut genug programmierst.
ob gross oder klein, auch ein kleines Programm kann "modular" aufgebaut sein, schon eine einzige Schleife kann doppelt so viel CPU brauchen, oder auch nicht. Es gibt auch grosse Projekte die flott und effizient laufen, es gibt auch kleine uneffiziente Programme - so what...
Als MP3 am kommen waren und das Abspielen dieser 50-90% der CPU Leistung gekostet haben, da haben die WinAMP Entwickler und die von einem anderen Player gewetteifert wer mehr Quali mit weniger CPU schafft. Kleine Projekte, aber mit entscheidender Optimierung, ein PC der 90% fürs Musik abspielen braucht kann nebenher schliesslich nicht mehr fürs Arbeiten genutzt werden.
Morphos, quasi ein AmigaOS Nachfolger für PPC Amigas, AmigaOS 3 kompatibel (!) dank PPC schnell genug für MP3, Video, etc, ist in wenigen Minuten installiert, in wenigen Sekunden gebootet und braucht gerade mal ein paar Dutzend MiB (20?) auf der Festplatte. Woher kommts? bzw woher kommts dass Windows so viel braucht?Woher kommts, dass Windows viel mehr mitliefert als AmigaOS? Sachen, die von vielen Käufern auch eingesetzt werden?
Das letzte Beispiel zeigt, wie infam Ubisoft mit PC- Spielern umgeht. Sind das Vorzeichen, dass der PC als Spieleplattform ein Auslaufmodell ist?Solange der PC so weit verbreitet ist, bleibt er als Spieleplattform interessant. Für den PC wurden anfangs keine Spiele entwickelt weil er besser gewesen wäre als die Konkurrenz (Homecomputer) sondern weil er so stark verbreitet war.
Häääää??
Mehr Interpolatoren ? Hab ich da was verpasst ? Ich hatte schon den Spass 2.b Shader auf 3.0 nicht kompilieren zu können... Effektiv gesehen hat 3.0 sogar einen Interpolator weniger, erst nach entfernen des FOG-Interpolators war der Shader wieder compilierbar.Hrm? Bei SM2 sind es 8+2, bei SM3 10. Die freie Benutzbarkeit ist von Vorteil. Statt 8 frei verwendbaren sind es 10.
Die Shaderleistung vom NV40 ist so niedrig, dass SM3 auf diesem tatsächlich wenig sinnvoll ist, als ich mit den SM3 Erweiterungen für meine Engine fertig war, war die Performance auf einer 1600pro doppelt so hoch wie auf einer 6800GT, und das ohne DB benutzt zu haben.
Die SM3 Performance des NV40 errinert mich schwer an die SM2 Performance der FX-Serie. (lange nicht soo katastrophal)Hää? SM2- oder SM3-Performance ist beim NV40 doch kein Unterschied.
Was allerdings an SM3 wirklich geil ist und die Performance boosten kann, ist die Verfügbarkeit von Geometry-instancing. (Ist an SM3 gekoppelt)Jopp, wobei es ja eigentlich auch mit SM2 möglich wäre, sofern es in D3D entsprechend definiert worden wäre.
Morphos, quasi ein AmigaOS Nachfolger für PPC Amigas, AmigaOS 3 kompatibel (!) dank PPC schnell genug für MP3, Video, etc, ist in wenigen Minuten installiert, in wenigen Sekunden gebootet und braucht gerade mal ein paar Dutzend MiB (20?) auf der Festplatte. Woher kommts? bzw woher kommts dass Windows so viel braucht?
Und was kann dieses Morphos im Vergleich zu Windows? Bzw., was bietet es nicht?
Äpfel und Birnen um genau zu sien
Keineswegs. Es ist häufig nützlich, Software früh und weniger optimiert als voll optimiert (auf was überhaupt?) und dafür spät zu veröffentlichen.
die Motoren werden stetig verbessert i.e. "schneller". Computer Software wird im Gegensatz dazu immer langsamer d.h. die Motoren werden also optimiert und die Software wird immer unoptimierter
Software wird immer komplexer. Damit sinkt die Gesamteffizienz häufig, obwohl die Effizienz der Teilsysteme hoch ist. Software wird nicht immer unoptimierter.
Die SM3 Performance des NV40 errinert mich schwer an die SM2 Performance der FX-Serie. (lange nicht soo katastrophal)
Hm. Wie Aths schon sagte, die SM3- und SM2-Performance ist auf NV4x identisch, wenn man die gleichen Sachen rechnet (SM3 eher bisschen schneller). Insofern komische Aussage.
MikeB
2007-01-27, 16:32:03
Hrm? Bei SM2 sind es 8+2, bei SM3 10. Die freie Benutzbarkeit ist von Vorteil. Statt 8 frei verwendbaren sind es 10.
Hää? SM2- oder SM3-Performance ist beim NV40 doch kein Unterschied.
Wie es aussieht, waren es bei SM2 8+2+1. Hatte mich auch schwerst gewundert. Und die 2 interpolierten Farbwerte brauch ich immer noch.
Was ich meinte, ohne DB ist SM3 vor allem für längere Shader interessant, dann bricht der NV40 aber komplett weg, vor allem wahrscheinlich wegen zu wenig internen temp-registern. Die Shader waren aber höchstens ~50% gewachsen, knapp über dem 64 Instruktionen Limit von SM2.
Vor den Umstellungen hatte die 6800GT noch die 1600pro schlicht degradiert.
Der Performance-einbruch hat wie du sagst wohl wenig mit SM3 direkt zu tun.
Ohne DB und Shadergrössen >64 kann man dann aber eigentlich problemlos bei SM2.x bleiben.
Michael
pancho
2007-01-27, 16:33:41
die Motoren werden stetig verbessert i.e. "schneller". Computer Software wird im Gegensatz dazu immer langsamer d.h. die Motoren werden also optimiert und die Software wird immer unoptimierter
Und die Autos werden auch immer "unoptimerter"? Heute braucht es 100 PS, wozu früher noch 75 ausreichend waren (rein fahrleistungsmäßig). Sind heutige Autos schlechter? Nein. Sie leisten an anderer Stelle mehr. Sicherheit. Komfort.
Genauso das AmigaOS. Es war sehr fortschrittlich (und ich lieb(t)e es), kann heute aber nicht mit Windows oder Linux verglichen werden. Simples Beispiel gefällig? Welchen TCP/IP-Stack hast Du denn bei deinem Windows laufen? Also bei AmigaOS hatte man die Auswahl zwischen mehreren, die man händisch nachinstallieren musste. Bis man das AmigaOS 3.1 so aufpoliert hatte, bis es einige der heute selbstverständlichen Funktionen hatte, war es auch nicht mehr so schlank (oder gar stabil).
Aja Fallback, hoppla. Eine völlig falsche Beleuchtung ist immernoch besser, als garkeine (ja ich hab für D³ ~50 Texturen händisch umgebaut, und es sah weitaus besser aus, als nur mit Diffusemaps alleine). Jedenfalls, hat das nichtmal ein Byte mehr Texturspeicher gekostet, da ja die Anzahl an verwendeten Texturen gleich geblieben ist)
Außerdem gibts ja, wie man in der Vergangenheit an unzähligen Spielen sah, auch Texturen die ohne Bumpmapping eine schöne Struktur aufweisen. Warum also dem Spieler seine HW älter aussehen lassen, als es sein muss?id hätte das Game wirklich auch mit völliger falscher Alternativbeleuchtung releasen sollen?
Es wäre möglich, sagen wir pro Wand eine aus drei vorausberechnete Texturen zu nutzen. Zusammen mit dem Helligkeitsverlauf einer zusätzlichen Lightmap sähe das sehr gut aus. Man könnte es auf den ersten Blick für richtiges Bumpmapping halten.
Aber Doom 3 ist für echtes Bumpmapping, also tatsächlich pixelgenaue Beleuchtung entwickelt, und auch für Specular Lighting, was sich mit vorausberechneten Bildtexturen in keinem Fall lösen lässt. Was hast du dagegen, dass schon lange (seit GeForce 256) bestehende Technologie endlich mal genutzt wird?
Wer hätte die Erstellung eines Alternativ-Contents für die wenigen Hanseln mit Voodoo-Karten bezahlen sollen?
Hää? SM2- oder SM3-Performance ist beim NV40 doch kein Unterschied.
Er meinte wohl damit das die SM3 Performance des NV40 verglichen mit dem R520 z.b. ziemlich mies ist genau wie die SM2 Performance des NV30 verglichen mit dem R300
nur das der R300 im gegensatz zum R520 vor seinem Gegenstück aus dem hause NVidia da war.
Allerdings muss man sagen das es auch hauptsächlich daran liegt das die Gesamtperformance eines NV40 verglichen mit einem R420/480 relativ schlecht ist. Aber eben das ist der Punkt wieso ein Kunde (kein Entwickler) mit einem R420 besser gefahren ist. Das hat nichts damit zutun das man das Fehlen von SM3 als positiv verkaufen will ausser man argumentiert bezüglich eines schlanken Designs und daraus resultierenden hohen Taktraten. Aber genauso wenig kann man halt argumentieren das das vorhandensein beim NV40 ein grosses plus gegenüber dem R420 für den Kunden (nicht Entwickler) war ausser man argumentiert das der kunde ja für HDRR oder bessere Schatten (welche Teilweise nur auf SM3 Karten in Spielen auswählbar sind) die restlichen details herunterregeln kann oder mit einer schlechten performance zufrieden sein kann...
Nun eine Glaskugel haben wir alle nicht, aber Erfahrung kann uns lehren das es eben seine Zeit dauert bis neue Hardwarefeatures in der Praxis für den Spieler zum einsatz kommen. Daher sollte man sich nicht zu sehr von diesen leiten lassen sondern ein Auge auf die Performance und den Preis werfen.
Man muss (aus Kundensicht) so ein Produkt einfach als Gesamtwerk sehen und abwägen was es in der Praxis taugt.
*edit* kommas etc. möge man sich hinzudenken *:D
MikeB
2007-01-27, 16:38:31
Hm. Wie Aths schon sagte, die SM3- und SM2-Performance ist auf NV4x identisch, wenn man die gleichen Sachen rechnet (SM3 eher bisschen schneller). Insofern komische Aussage.
Da hast du mit sicherheit Recht, intern werden die 2.x Shader sicherlich als 3.0 ausgeführt und von den Treibern auch dahingehend optimiert.
Folglich sollte einundderselbe Shader unter 2.x und 3.0 kompiliert im normalfall gleich schnell sein.
Aber was nützt SM3, wenn die Komplexität der Shader so niedrig gehalten werden muss, dass sie auch als 2.x umsetzbar wären?
Michael
Wie es aussieht, waren es bei SM2 8+2+1. Hatte mich auch schwerst gewundert. Und die 2 interpolierten Farbwerte brauch ich immer noch.
Was ich meinte, ohne DB ist SM3 vor allem für längere Shader interessant, dann bricht der NV40 aber komplett weg, vor allem wahrscheinlich wegen zu wenig internen temp-registern. Die Shader waren aber höchstens ~50% gewachsen, knapp über dem 64 Instruktionen Limit von SM2.
Vor den Umstellungen hatte die 6800GT noch die 1600pro schlicht degradiert.
Der Performance-einbruch hat wie du sagst wohl wenig mit SM3 direkt zu tun.
Ohne DB und Shadergrössen >64 kann man dann aber eigentlich problemlos bei SM2.x bleiben.
MichaelWas sollte der "+1"-Interpolator bei SM2 sein? SM3 bietet nicht weniger Interpolatoren als SM2. Kein Wunder, da sowohl bei ATI als auch bei NV zunächst SM2-Hardware entwickelt wurde und man für SM3 nicht irgendwo ein Interpolator-Register sparte. SM3 umfasst qua definitionem auch das gesamte SM2.X-Featureset mit allen Caps auf Maximum. Das Handling der Interpolator-Register hat sich allerdings geändert, um von der 8+2-Struktur wegzukommen. Du kannst weiterhin deine zwei Farbinterpolaren nutzen, bleiben in SM3 noch 8 Interpolatoren übrig.
Der NV40 läuft nur dann "fullspeed", wenn nur bis zur vier Temp-Register gleichzeitig genutzt werden. (Bei durchgehender FP16-Nutzung sind es acht, bei Mischnutzung entsprechend ein Wert zwischen 4 und 8.) Hast du dort, wo möglich, _PP genutzt?
Eigentlich sorgt der Treiber dafür, dass der Shader-Code so optimiert wird, dass die Temp-Register sparsam genutzt werden.
Mr. Lolman
2007-01-27, 16:41:42
Wer hätte die Erstellung eines Alternativ-Contents für die wenigen Hanseln mit Voodoo-Karten bezahlen sollen?
Der Alternativcontent hätte sich automatisiert erstellen lassen. Das passende Tool dazu hätte id Software in wohl <2h proggen können. Zum Rest schreib ich vll. später noch was.
- Features können nicht schaden...Der NV40 nimmt durch sein SM3 Feature keinen "Schaden" allerdings ist er eben ein gutes Stück langsamer als ähnliche SM2 Hardware.Das trifft aber höchstens auf den Vergleich 6800 Ultra vs. x800xt-pe zu. Bei den anderen Karten wie z.b. 6800GT vs. x800pro war die Geschwindigkeit vergleichbar. Bei widerrum anderen Karten war sogar der NV4x-Abkömmling schneller (6600GT vs. x700pro).
tokugawa
2007-01-27, 16:42:38
Maaaa, jetzt fangen die Leut auch wieder mit dem "heutige Spiele sind so unoptimiert"-Unsinn an.
Irgendwann reicht's dann, oder? :)
Das wurde alles schon so oft durchgekaut, und letztendlich haben die kompetenteren Leute folgende Punkte festgelegt:
- Es gibt zwar schlecht optimierte Spiele, aber die Mehrheit heutzutage ist nicht schlechter optimiert als früher
- Es gibt durchaus vernünftige Trade-Offs zwischen Optimieren um den letzten Zyklus rauszuquetschen und "vernünftig optimieren". Bei letzteren spielen Aspekte rein wie "nur soweit optimieren solang die Engine wiederverwendbar, flexibel, und wartbar bleibt". Letzteres wird heute in der Mehrheit gemacht
- Die Shader 3 Lüge ist keine Lüge, denn:
- SM 3 Hardware war wichtig, um SM3 zu etablieren. Henne-Ei-Problem. Es muß entweder die Henne oder das Ei irgendwann mal da sein, sonst gibt's beides nicht.
- Dasselbe gilt für SM4
- Es wurde niemals suggeriert dass SM3 oder SM4 das Merkmal schelchthin ist, warum man sich Hardware X kaufen sollte. Es stand nur zusätzlich dabei, als zusätzliches Zuckerl. Nie als Hauptargument. Und ein zusätzliches Zuckerl ist es schon.
Alles klar?
Er meinte wohl damit das die SM3 Performance des NV40 verglichen mit dem R520 z.b. ziemlich mies ist genau wie die SM2 Performance des NV30 verglichen mit dem R300
nur das der R300 im gegensatz zum R520 vor seinem Gegenstück aus dem hause NVidia da war.R300 war bei Ausführung von 2.0-er Pixelshadern ca. 3x so schnell wie der NV30. Außerdem ist der R520 eine Leistungs-Generation weiter und muss sich mit dem G70 messen.
Allerdings muss man sagen das es auch hauptsächlich daran liegt das die Gesamtperformance eines NV40 verglichen mit einem R420/480 relativ schlecht ist.Das wüsste ich.
Demirug
2007-01-27, 16:55:19
Maaaa, jetzt fangen die Leut auch wieder mit dem "heutige Spiele sind so unoptimiert"-Unsinn an.
Irgendwann reicht's dann, oder? :)
Wieso? Die Fragen sind doch durchaus berechtigt.
Jeder der schon etwas länger programmiert wird auch zugeben müssen dass man früher noch mehr um die CPU Takte gekämpft hat als heute. Heute optimiert man nicht mehr auf Performances sondern auf Flexibilität. Die Programmierer beugen sich eben den Anforderungen von Art und Design. Wobei sich Art und Design natürlich auch wiederum der durch die Programmierung vorgegebenen Technik beugen muss. Aber du weißt ja sicherlich selbst was für ein Geschrei das gibt wenn man dort zu restriktiv ist. Also opfert man Performances und optimiert eben nicht auf Meshs mit genau 4096 Verticen.
Wer’s nicht glaubt kann sich ja mal gerne eine paar Spiele aus der „guten alten“ Zeit anschauen. Ein genauer Blick verrät schnell das dort doch viele Dinge eine feste Größe hatte auf die man dann natürlich auch gut die Performance hin optimieren konnte.
Wie es aussieht, waren es bei SM2 8+2+1.
Man muss den Fog bei SM3.0 selber berechnen. Das ist korrekt.
Das trifft aber höchstens auf den Vergleich 6800 Ultra vs. x800xt-pe zu. Bei den anderen Karten wie z.b. 6800GT vs. x800pro war die Geschwindigkeit vergleichbar. Bei widerrum anderen Karten war sogar der NV4x-Abkömmling schneller (6600GT vs. x700pro).
X800pro ist ungefähr so schnell wie die X800XL und liegt zwischen 6800GT und 6800Ultra niveau
in neueren Spielen oft sogar über der 6800Ultra
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating_qualitaet
Demirug
2007-01-27, 17:04:22
Man muss den Fog bei SM3.0 selber berechnen. Das ist korrekt.
So wie bei SM4 jetzt auch noch den Alphatest. Nur als Ergänzung und Fingerzeig das neue Shadermodele immer mehr fixed functions übernehmen.
MikeB
2007-01-27, 17:05:20
aths, ich bin mit _pp (bzw. half) vertraut, bei komplexeren Shadern wird das aber immer weniger brauchbar, da die Rundungsfehler deutlich ins Auge springen. Dementsprechend wenig ist _pp vorhanden.
R4x0 und NV40 seh ich auf ähnlichem Niveau, aber R5x0 (mit 3 shadern pro pipeline) ist in Sachen Shaderleistung NV40 und auch immer noch G70 so deutlich überlegen, dass bei komplexeren Shadern nvidia etwas schlecht dasteht. Mit dem G80 sieht das inzwischen ja wieder völlig anders aus, da kann man dann endlich SM3 wirklich einsetzen.
NV30 und R300 unter SM2 sind ein anderes Thema, wenn eine 9600(nonpro) eine FX5900XT stehen lässt, ist etwas im argen.
Michael
Oder wärst schnell wieder gefeuert, da du zwar klug redest, aber nicht gut genug programmierst.
nun, würde ich bei meiner jetzigen Arbeit einfach nur so über den Daumen irgendwie arbeiten, dann würde ich gefeuert werden. Lieber etwas mehr Zeit investieren und 6 statt 5 Stunden brauchen, als nach 5 Stunden alles wieder wegschmeissen zu können und nochmal 5 Stunden wieder von vorne anzufangen.
Auf Programmieren bezogen: von Anfang an sorgfältig gearbeitet, spart hintenraus viel Zeit z.B. beim Debuggen und dann eben beim Kunden wenn die Software etwas schneller und vor allen Dingen fehlerfrei läuft.
Woher kommts, dass Windows viel mehr mitliefert als AmigaOS? Sachen, die von vielen Käufern auch eingesetzt werden?
Und was kann dieses Morphos im Vergleich zu Windows? Bzw., was bietet es nicht?
redete mehr von Morphos (alternativ OS4 bzw bei OS3.5 ist auch mehr dabei), ansonsten kommts drauf an was man so möchte. Wenn etwas fehlt ist das für Einsteiger natürlich schwieriger das runterzuladen und nach zu installieren. Und selbst wenn man diese fehlenden Programme mit auf die CD packt und mitinstalliert und spätestens dann die gleiche Funktionalität vorhanden ist, selbst dann ist dieses OS immer noch nur ein Bruchteil so gross wie Windows.
(nicht zu vergessen dass ein 15 Jahre altes OS3.0 Dinge kann die ein Windows wohl nie können wird)
Keineswegs. Es ist häufig nützlich, Software früh und weniger optimiert als voll optimiert (auf was überhaupt?) und dafür spät zu veröffentlichen.
jou, und so entstehen Bananenversionen - Vista ist noch nicht einmal da und schon wird ein SP1 angekündigt...
Software wird immer komplexer. Damit sinkt die Gesamteffizienz häufig, obwohl die Effizienz der Teilsysteme hoch ist. Software wird nicht immer unoptimierter.
heutzutage wird eigentlich jede Technologie immer komplexer
Und die Autos werden auch immer "unoptimerter"? Heute braucht es 100 PS, wozu früher noch 75 ausreichend waren (rein fahrleistungsmäßig). Sind heutige Autos schlechter? Nein. Sie leisten an anderer Stelle mehr. Sicherheit. Komfort.
zum kleinen Teil ja, zum grossen Teil nein: das 100 PS Auto von heute braucht weniger Sprit als das 75 PS Auto von gestern. Obwohl der Motor von heute weniger Hubraum hat, hat er mehr PS.
_das_ alles sind Optimierungen
Genauso das AmigaOS. Es war sehr fortschrittlich (und ich lieb(t)e es), kann heute aber nicht mit Windows oder Linux verglichen werden. Simples Beispiel gefällig? Welchen TCP/IP-Stack hast Du denn bei deinem Windows laufen? Also bei AmigaOS hatte man die Auswahl zwischen mehreren, die man händisch nachinstallieren musste. Bis man das AmigaOS 3.1 so aufpoliert hatte, bis es einige der heute selbstverständlichen Funktionen hatte, war es auch nicht mehr so schlank (oder gar stabil).
mein OS3.1 (bzw OS3.5) hat zig "Optimierungs-Patches" drauf, alles eigentlich sehr kritisches Zeugs wenn man sich in Systemfunktionen einklingt, der Rechner läuft (sofern ich beim Programmieren keinen Scheiss bau) einen Tag lang in einem Stück durch.
die Wahl zwischen mehreren Programmen z.B. TCP Stacks zu haben hat auch seine Vorteile, die Leute nutzen ja auch IE, Firefox und Opera etc als Browser. Wieso eigentlich, bei Windows ist doch alles dabei ;)
- Die Shader 3 Lüge ist keine Lüge, denn:
- SM 3 Hardware war wichtig, um SM3 zu etablieren. Henne-Ei-Problem. Es muß entweder die Henne oder das Ei irgendwann mal da sein, sonst gibt's beides nicht.
- Dasselbe gilt für SM4
- Es wurde niemals suggeriert dass SM3 oder SM4 das Merkmal schelchthin ist, warum man sich Hardware X kaufen sollte. Es stand nur zusätzlich dabei, als zusätzliches Zuckerl. Nie als Hauptargument. Und ein zusätzliches Zuckerl ist es schon.
Alles klar?
Vom HErsteller und vielen Händlern sowie Leuten die anderen bei der Kaufberatung "halfen" wurde damals schon suggeriert das SM3 unabdingbar ist.
SM3 ist wichtig keine Frage, verschärfend SM3 in Hardware ist auch wichtig ohne Frage....aber deshalb ist es trotzdem nicht kritisch das zum Zeitpunkt des aufkommens erster SM3 Hardware sich jeder Kunde diese zulegt nur um eine sofortige Marktdurchdringung zu erzielen. Jeder Softwareentwickler wusste das wenn Microsoft DirectX 9.1 (DX9 mit SM3 wie man es auch betiteln will) spezifiziert wird es auch in Hardware beider IHVs vorliegen. Wenn nicht in "dieser" Generation dann in der nächsten. Die Entwicklungszeit wird das locker kompensieren.
Gleiches gild für SM4...selbst wenn der Mainstream erstmal nur mit "alter" SM3 highendhardware bedient werden würde gefährdet das SM4 nicht gleich.
Soll Crysis wirklich Sh2.0 supporten, das macht ja Ubi schon nicht mehr und die Unreal3 auch nicht
R300 war bei Ausführung von 2.0-er Pixelshadern ca. 3x so schnell wie der NV30. Außerdem ist der R520 eine Leistungs-Generation weiter und muss sich mit dem G70 messen.
Darum hatte er ja geschrieben das es beim NV40 nicht so extrem war und ich hatte geschrieben das der R520 (mit ähnlichem techlevel wie der NV40) erst später kam. Tut dem kein Abbruch das SM3 selbst jetzt für den Spieler noch relativ "unwichtig" ist.
Es war sehr fortschrittlich (und ich lieb(t)e es), kann heute aber nicht mit Windows oder Linux verglichen werden. .
Vor allem kann man Windows nicht mit Linux/MacOS vergleichen
AnarchX
2007-01-27, 17:35:19
Soll Crysis wirklich Sh2.0 supporten, das macht ja Ubi schon nicht mehr und die Unreal3 auch nicht
Crysis ist primär eine PC-Game, deshalb auch der Fallback, die UnrealEngine3 hat auch einen SM2.0 Fallback, der z.B in UT3 mit vorhanden sein wird.
Das neuere Ubisoft-Games nur mit SM3.0-Renderer daherkommen liegt halt daran, dass es primär Konsolengames sind und die Einnahmen durch den PC-Port bei weitem nicht so sehr von Interesse sind.
nun, würde ich bei meiner jetzigen Arbeit einfach nur so über den Daumen irgendwie arbeiten, dann würde ich gefeuert werden. Lieber etwas mehr Zeit investieren und 6 statt 5 Stunden brauchen, als nach 5 Stunden alles wieder wegschmeissen zu können und nochmal 5 Stunden wieder von vorne anzufangen.
Du hast du irgendwie falsche Zeitvorstellungen was Programmieren angeht.
Optimieren und Debuggen machen keinen Bruchteil der Zeit des eigentlichen Programmierens aus, sondern kosten ein Vielfaches der Zeit.
pancho
2007-01-27, 17:42:05
zum kleinen Teil ja, zum grossen Teil nein: das 100 PS Auto von heute braucht weniger Sprit als das 75 PS Auto von gestern. Obwohl der Motor von heute weniger Hubraum hat, hat er mehr PS.
_das_ alles sind Optimierungen
Jain. Es kommt drauf an. Nicht alle 100 PS Autos von Heute brauchen weniger Sprit als alle 75 PS Autos von gestern. Ich habe relativ willkürliche Zahlen verwendet. Ein 100 PS Golf von heute hat im Alltag nicht die selben Fahrleistungen wie ein Golf II mit 75 PS. Dieser ganze Auto-PC Vergleich hinkt mit allen Beinen, die er hat. Der Verbrennungsmotor an sich ist zu komplex, als dass man derart naive Vergleiche als sinnvoll bezeichnen könnte.
Der Hubraum hat mit der Leistung erstmal sehr wenig zu tun. Vgl. Motorradmotor mit >250 PS/l und Automotor mit <80 PS/l. Eine große Literleistung ist in erster Linie eine Konzeptentscheidung. Außerdem liegt ein großer Teil der Optimierungen an gesetzlichen Vorschriften. Könnte man für die Kombination Rechner/Software eine Arbeitseinheit festlegen (gefahrene km) und den Energieverbrauch dafür gesetzlich festlegen, gäbe es sicherlich optimiertere Software. Allerdings auch zu einem höheren Preis.
mein OS3.1 (bzw OS3.5) hat zig "Optimierungs-Patches" drauf, alles eigentlich sehr kritisches Zeugs wenn man sich in Systemfunktionen einklingt, der Rechner läuft (sofern ich beim Programmieren keinen Scheiss bau) einen Tag lang in einem Stück durch.
die Wahl zwischen mehreren Programmen z.B. TCP Stacks zu haben hat auch seine Vorteile, die Leute nutzen ja auch IE, Firefox und Opera etc als Browser. Wieso eigentlich, bei Windows ist doch alles dabei ;)
Dass die freie Wahl auch Vorteile hat, habe ich nicht bestritten. Das sehe ich auch so. Allerdings fehlt eben eine Menge "Standard-Kram", der bei heute verbreiteten Betriebssystemen schon dabei ist. Folglich ist der direkte Vergleich sinnlos.
Du hast du irgendwie falsche Zeitvorstellungen was Programmieren angeht.
Optimieren und Debuggen machen keinen Bruchteil der Zeit des eigentlichen Programmierens aus, sondern kosten ein Vielfaches der Zeit.
ja, eben!
das Ziel sollte daher doch sein gleich weniger Fehler zu machen als zig Fehler hinterher auszumerzen, das kostet nämlich so richtig Zeit und Geld. Nicht nur bei der Softwarefirma, sondern auch beim Kunden.
Jain. Es kommt drauf an. Nicht alle 100 PS Autos von Heute brauchen weniger Sprit als alle 75 PS Autos von gestern....
ja, das ist schon klar - es ist aber zumindest zu erkennen wo die ganze Leistung verloren geht und wieso man trotz weniger Sprit und Hubraum plötzlich mehr Leistung zu Verfügung steht ist auch nachvollziehbar. Aber bei Windows frag ich mich ständig wo die Power von 3 GHz und 1 GiB verloren geht!?
Dass die freie Wahl auch Vorteile hat, habe ich nicht bestritten. Das sehe ich auch so. Allerdings fehlt eben eine Menge "Standard-Kram", der bei heute verbreiteten Betriebssystemen schon dabei ist. Folglich ist der direkte Vergleich sinnlos.
ja, schon richtig - man könnte wie bei den Linux Distris die fehlenden Sachen mit auf die CD packen und gleich mitinstallieren. Es ist ja nicht so, dass es all die Software nicht gibt.
Andererseits, wie viele WIndows Sicherheitslücken könnte man umgehen wenn man einen alternativen TCP Stack, etc usw hätte. Wieso nutzt man einen anderen Browser, eine andere FireWall, ...
Ansonsten entscheidend ist doch das Endprodukt, auch mit TCP, Mail, Browser USB (!), Brenner, Multimedia, usw wäre/ist ein OS3.1/3.5 oder MorphOS bzw AOS 4.0 immer noch erheblichst kleiner und effizienter als jedes Windows.
aths, ich bin mit _pp (bzw. half) vertraut, bei komplexeren Shadern wird das aber immer weniger brauchbar, da die Rundungsfehler deutlich ins Auge springen. Dementsprechend wenig ist _pp vorhanden.
R4x0 und NV40 seh ich auf ähnlichem Niveau, aber R5x0 (mit 3 shadern pro pipeline) ist in Sachen Shaderleistung NV40 und auch immer noch G70 so deutlich überlegen, dass bei komplexeren Shadern nvidia etwas schlecht dasteht. Mit dem G80 sieht das inzwischen ja wieder völlig anders aus, da kann man dann endlich SM3 wirklich einsetzen.MichaelImo eine recht komische Betrachtung. R420 erlaubt Programme mit bis zu 512 Instruction Slots. Welche Shader sind dann noch schnell genug? – Folgt man deiner Argumentation, ist R420 für Shader 2.X Profil 2_B nicht zu gebrauchen.
Tatsächlich aber bietet die Passreduktion durch die möglichen längeren Shader in einigen Spielen einen netten Boost durch einen Patch, der 2_B-Shader nachliefert.
Streng genommen wäre 2.0 für die Radeon 9700 unbrauchbar – sofern man zum Beispiel tatsächlich 16 Texturen im Shader filtern möchte.
nun, würde ich bei meiner jetzigen Arbeit einfach nur so über den Daumen irgendwie arbeiten, dann würde ich gefeuert werden. Lieber etwas mehr Zeit investieren und 6 statt 5 Stunden brauchen, als nach 5 Stunden alles wieder wegschmeissen zu können und nochmal 5 Stunden wieder von vorne anzufangen.
Auf Programmieren bezogen: von Anfang an sorgfältig gearbeitet, spart hintenraus viel Zeit z.B. beim Debuggen und dann eben beim Kunden wenn die Software etwas schneller und vor allen Dingen fehlerfrei läuft.Ach nee – meinst du, darauf sind die bei Microsoft oder anderen großen Softwarefirmen noch nicht drauf gekommen?
redete mehr von Morphos (alternativ OS4 bzw bei OS3.5 ist auch mehr dabei), ansonsten kommts drauf an was man so möchte. Wenn etwas fehlt ist das für Einsteiger natürlich schwieriger das runterzuladen und nach zu installieren. Und selbst wenn man diese fehlenden Programme mit auf die CD packt und mitinstalliert und spätestens dann die gleiche Funktionalität vorhanden ist, selbst dann ist dieses OS immer noch nur ein Bruchteil so gross wie Windows.
(nicht zu vergessen dass ein 15 Jahre altes OS3.0 Dinge kann die ein Windows wohl nie können wird)Ein aktuelles Windows kann sehr viel mehr als dieses 15 Jahre alte OS. Es unterstützt auch eine wesentlich breitere Palette an Hardware.
jou, und so entstehen Bananenversionen - Vista ist noch nicht einmal da und schon wird ein SP1 angekündigt...Wie lange sollte das Release denn noch auf sich warten lassen? Wenn es "perfekt" ist, will es auch keiner mehr haben, da es dann schon veraltet ist.
Wie oft willst du noch übersehen, dass es sinnvoll ist, Software früher zu releasen als sie zunächst nach menschlichem Ermessen völlig bugfrei zu bekommen? WoW zum Beispiel wäre dann heute noch nicht zu kaufen.
Darum hatte er ja geschrieben das es beim NV40 nicht so extrem war und ich hatte geschrieben das der R520 (mit ähnlichem techlevel wie der NV40) erst später kam. Tut dem kein Abbruch das SM3 selbst jetzt für den Spieler noch relativ "unwichtig" ist.Das ist zwar richtig, aber liegt nicht zuletzt an ATIs Technologiebremse namens R420.
tokugawa
2007-01-27, 18:09:04
Vom HErsteller und vielen Händlern sowie Leuten die anderen bei der Kaufberatung "halfen" wurde damals schon suggeriert das SM3 unabdingbar ist.
Das halte ich für ein Gerücht.
Ich glaube das ist nur so interpretiert worden - aber da täte ich lieber die Wahrnehmungsfähigkeit derer, die das so interpretiert haben, ankreiden.
SM3 ist wichtig keine Frage, verschärfend SM3 in Hardware ist auch wichtig ohne Frage....aber deshalb ist es trotzdem nicht kritisch das zum Zeitpunkt des aufkommens erster SM3 Hardware sich jeder Kunde diese zulegt nur um eine sofortige Marktdurchdringung zu erzielen. Jeder Softwareentwickler wusste das wenn Microsoft DirectX 9.1 (DX9 mit SM3 wie man es auch betiteln will) spezifiziert wird es auch in Hardware beider IHVs vorliegen. Wenn nicht in "dieser" Generation dann in der nächsten. Die Entwicklungszeit wird das locker kompensieren.
Gleiches gild für SM4...selbst wenn der Mainstream erstmal nur mit "alter" SM3 highendhardware bedient werden würde gefährdet das SM4 nicht gleich.
SM3 und SM4 sind ja auch nicht die "Opfer" die gefährdet wären, sondern mir persönlich zumindest geht es etwa um neueste Effekte die grad im Research-Sektor erfunden und publiziert wurden und manchmal eben SM3 oder SM4 erfordern (sh. www.gametools.org).
Spieleentwickler zögern immer diese Effekte einzusetzen, wenn die Basis nicht da ist. Klar wird das oft durch die Entwicklungszeit kompensiert, aber die Entwicklungszeit fängt für viele Entwickler auch später an wenn die Marktpenetration auch erst später erfolgt.
Alles in allem kann man sagen dass dieses Thema extrem vielschichtig ist, mit vielen Perspektiven drauf. Ich sage auch nicht dass die Ansichten von anderen "falsch" wären, sondern was ich ankreide ist, wenn manche Leute ihre Ansicht als die einzige darstellen, und andere Ansichten - die nicht mal Widersprüche wären - als "Shader 3 Lüge" bezeichnen.
Das halte ich für ein Gerücht.
Ich glaube das ist nur so interpretiert worden - aber da täte ich lieber die Wahrnehmungsfähigkeit derer, die das so interpretiert haben, ankreiden.
SM3 und SM4 sind ja auch nicht die "Opfer" die gefährdet wären, sondern mir persönlich zumindest geht es etwa um neueste Effekte die grad im Research-Sektor erfunden und publiziert wurden und manchmal eben SM3 oder SM4 erfordern (sh. www.gametools.org).
Spieleentwickler zögern immer diese Effekte einzusetzen, wenn die Basis nicht da ist. Klar wird das oft durch die Entwicklungszeit kompensiert, aber die Entwicklungszeit fängt für viele Entwickler auch später an wenn die Marktpenetration auch erst später erfolgt.
Alles in allem kann man sagen dass dieses Thema extrem vielschichtig ist, mit vielen Perspektiven drauf. Ich sage auch nicht dass die Ansichten von anderen "falsch" wären, sondern was ich ankreide ist, wenn manche Leute ihre Ansicht als die einzige darstellen, und andere Ansichten - die nicht mal Widersprüche wären - als "Shader 3 Lüge" bezeichnen.Deine Postings finde ich oft so gut, dass ich mich gar nicht mehr traue, noch was dazu zu sagen – weil deine Ausführungen trotz der Kürze thematisch erschöpfend sind =)
Dennoch möchte ich gerne einen von dir angesprochenen Punkt unterstreichen. Fast jeder hat mit seiner Aussage teilweise recht, praktisch keiner hat mit seiner Aussage vollständig recht. Worüber wir uns streiten sind leider weniger die technischen Sachen. Nur eine handvoll Leute im Forum entwickeln auch und haben die entsprechende Fachkenntnis, wie Demirug oder du. Der Rest, darunter ich, kann sich als Noob betrachten. Wir reden Seite um Seite, und am Ende hat jeder gesagt was ihm auf der Seele brennt, und da jeder auch von irgendjemandem Unterstützung bekommt, fühlen sich am Ende alle bestätigt.
Ein aktuelles Windows kann sehr viel mehr als dieses 15 Jahre alte OS. Es unterstützt auch eine wesentlich breitere Palette an Hardware.
Voooorsicht - Glatteis!
es gibt eine Reihe von z.B. Grafik und Soundkarten für den Amiga. Es gibt Systemaufsätze (Picasso und AHI z.B.) die diese 100% sauber und transparent ins System einbinden (in ein System dass gar nicht für so was gedacht war!). Diese Programme bestehen aus wenigen exes und dlls dito die Treiber für die Karten => geil schnell, geil kompatibel und genial stabil! Man kann mit dem WinUAE Amiga Emulator und Picasso + AHI die PC Grafik und Soundkarte als Amiga Grafik und Soundkarte nutzen!
Und das beste: egal ob eine, zwei oder drei Grafikkarten + die Original Amiga Grafik - man kann mit 0.0 Problemen alle gleichzeitig benutzen ! Das gleiche gilt für den Soundkarten, egal ob eine oder zwei + Original Amiga Sound, man kann alle Hardware gleichzeitig ohne Probleme nutzen.
Keinen Affentanz und Ärger und Stress wie mit Windows...
Wie oft willst du noch übersehen, dass es sinnvoll ist, Software früher zu releasen als sie zunächst nach menschlichem Ermessen völlig bugfrei zu bekommen? WoW zum Beispiel wäre dann heute noch nicht zu kaufen.
hat man ja bei der USB Vorstellung von Bill Gates gesehen. Er steckt ein Gerät an und Windows schmiert ab. So ein Auto möchte ich haben, Radio einschalten und der Airbag geht los :rolleyes:
so richtig nutzbar war USB (um beim Beispiel zu bleiben) mit Win98. NT konnte nie mit USB (gab ein paar Spezialtreiber für die ein paar Erweiterungen unterstützten, gabs aber nur für einen Hardwareausrüster) umgehen. XP brauchte ein SP1 um richtig mit USB 2.0 umgehen zu können.
In meinen 15 Jahre alten A1k2 kann ich USB 2.0 einbauen ("natürlich" nicht fullspeed, der Bus an dem die Karte angeschlossen wurd ist halt zu langsam) und kann USB-Geräte mit diesem 15 Jahre alten OS nutzen. USB-Stack installiert und gut ist!
Zeig mir einen 15 Jahre alten PC + 15 Jahre alten OS der das kann! Siehe oben, W95 stürzt im besten Fall ab, NT kann es überhaupt nicht und XP braucht erst ein Service Pack...
ich kann mir echt nicht helfen, irgendwas ist in der Windows Welt doch mehr als nur oberfaul !?
Voooorsicht - Glatteis!
es gibt eine Reihe von z.B. Grafik und Soundkarten für den Amiga. Es gibt Systemaufsätze (Picasso und AHI z.B.) die diese 100% sauber und transparent ins System einbinden (in ein System dass gar nicht für so was gedacht war!). Diese Programme bestehen aus wenigen exes und dlls dito die Treiber für die Karten => geil schnell, geil kompatibel und genial stabil! Man kann mit dem WinUAE Amiga Emulator und Picasso + AHI die PC Grafik und Soundkarte als Amiga Grafik und Soundkarte nutzen!
Und das beste: egal ob eine, zwei oder drei Grafikkarten + die Original Amiga Grafik - man kann mit 0.0 Problemen alle gleichzeitig benutzen ! Das gleiche gilt für den Soundkarten, egal ob eine oder zwei + Original Amiga Sound, man kann alle Hardware gleichzeitig ohne Probleme nutzen.
Keinen Affentanz und Ärger und Stress wie mit Windows...Windows unterstützt trotzdem sehr viel mehr Hardware als jedes Amiga-OS. Auch bietet ein aktuelles Windows sehr viel mehr Software-Schnittstellen bzw. Standard-Datenaustausch-Schnittstellen.
hat man ja bei der USB Vorstellung von Bill Gates gesehen. Er steckt ein Gerät an und Windows schmiert ab. So ein Auto möchte ich haben, Radio einschalten und der Airbag geht los :rolleyes:
so richtig nutzbar war USB (um beim Beispiel zu bleiben) mit Win98. NT konnte nie mit USB (gab ein paar Spezialtreiber für die ein paar Erweiterungen unterstützten, gabs aber nur für einen Hardwareausrüster) umgehen. XP brauchte ein SP1 um richtig mit USB 2.0 umgehen zu können.
In meinen 15 Jahre alten A1k2 kann ich USB 2.0 einbauen ("natürlich" nicht fullspeed, der Bus an dem die Karte angeschlossen wurd ist halt zu langsam) und kann USB-Geräte mit diesem 15 Jahre alten OS nutzen. USB-Stack installiert und gut ist!
Zeig mir einen 15 Jahre alten PC + 15 Jahre alten OS der das kann! Siehe oben, W95 stürzt im besten Fall ab, NT kann es überhaupt nicht und XP braucht erst ein Service Pack...
ich kann mir echt nicht helfen, irgendwas ist in der Windows Welt doch mehr als nur oberfaul !?Du hast dir jetzt ein Beispiel herausgegriffen. Einzelne Beispiele belegen aber praktisch gar nichts. An Windows kann man zurecht eine ganze Menge kritisieren. Dazu gehört auch der Umfang der Software-Installation wie die mangelnde Stabilität. Aber man muss auch sehen, dass Windows (leider) das Standard-OS für PCs ist und eine extrem breite Hardware-Palette abdecken muss wie eine extrem große Bandbreite an Anforderungen seitens der User zu erfüllen hat. Die Komplexität nimmt dabei nicht linear zu, sondern exponentiell. Das unterschätzt du permanent. Deutlich stabilere Betriebssystem sind entweder bei weitem nicht so komfortabel, oder laufen auf einer wesentlich überschaubareren Hardware-Basis, oder richten sich nur an eine kleine Nutzergruppe.
Ich frage mich allerdings, was deine "Windows-ist-Mist"-Diskussion in diesem Thread verloren hat.
Das halte ich für ein Gerücht.
Ich glaube das ist nur so interpretiert worden - aber da täte ich lieber die Wahrnehmungsfähigkeit derer, die das so interpretiert haben, ankreiden.
Dazu braucht man sich hier nur einmal ältere Beiträge im Kaufberatungsforum ansehen. Selbst hier, wo die meisten informierter als der Durchschnitt sein sollten, wurde gehäuft 2004 und 2005 dem potentiellen Käufer suggeriert das SM3 ein "must to have" ist.
Bei Händlern ist dieses Phänomen noch häufiger anzutreffen gewesen.
NVidias Marketing ist da wirklich Top.
SM3 und SM4 sind ja auch nicht die "Opfer" die gefährdet wären, sondern mir persönlich zumindest geht es etwa um neueste Effekte die grad im Research-Sektor erfunden und publiziert wurden und manchmal eben SM3 oder SM4 erfordern (sh. www.gametools.org).
Spieleentwickler zögern immer diese Effekte einzusetzen, wenn die Basis nicht da ist. Klar wird das oft durch die Entwicklungszeit kompensiert, aber die Entwicklungszeit fängt für viele Entwickler auch später an wenn die Marktpenetration auch erst später erfolgt.
Dann sind das aber sehr dumme Spieleentwickler. Etablierte Softwareschmieden haben mindestens seit G80 release (wenn nicht schon meist etwas länger) so ein Teil und setzen natürlich alles daran DX10 zu nutzen. "Fallbacks" für SM2/3 müssen sie sowieso implementieren von daher ist deine Vermutung nach Angst auf ungenügende Marktdurchdringung unbegründet.
Eins meiner Lieblingsspiele (Company of Heroes) macht derzeit schon damit aufmerksam einen DX10 Patch nachzuliefern. Auch wenn dies wie bei Farcry ablaufen wird scheuen sich Unternehmen nicht davor damit zu werben bzw. DX10 auch mal zu benutzen. Nur ob der Kunde dann mit DX9 Hardware gleich schlechter gestellt ist steht auf einem anderen Blatt. Marketing ist heutzutage alles und auch Crytek nutze den pseudo "SM3 patch" um von sich reden zu machen.
Windows unterstützt trotzdem sehr viel mehr Hardware als jedes Amiga-OS. Auch bietet ein aktuelles Windows sehr viel mehr Software-Schnittstellen bzw. Standard-Datenaustausch-Schnittstellen.
um so mehr Grund genug genau diese Schnittstellen sorgfältigst zu programmieren und mindestens 99,9% fehlerfrei zu machen, die Schnittstellen bestens zu dokumentieren, damit Treiberprogrammierer das dann auch richtig umsetzen können. Gerade weil es beim Amiga ein Hack ist musste doppelte und dreifache Sorgfalt aufgewendet werden und gerade deswegen ist es so stabil. Da könnte sich Windows echt ne Scheibe abschneiden (MS kopiert doch sonst auch überall alles zusammen)
Ich frage mich allerdings, was deine "Windows-ist-Mist"-Diskussion in diesem Thread verloren hat.
in der Tat, nun ist es nur noch OT - aber so ist's meistens im Leben, ein Thema in einem Gespräch/Diskussion/whatever driftet oftmals Schritt für Schritt immer mehr ab... oder kommt es nie vor wenn Du mit Freunden über Fussball redest am Ende man sich über Biersorten streitet ? (setze mal vorraus dass Du hin und wieder Fussball schaust und Bier trinks)
tokugawa
2007-01-27, 19:38:30
Dazu braucht man sich hier nur einmal ältere Beiträge im Kaufberatungsforum ansehen. Selbst hier, wo die meisten informierter als der Durchschnitt sein sollten, wurde gehäuft 2004 und 2005 dem potentiellen Käufer suggeriert das SM3 ein "must to have" ist.
OK, wir kommen der Sache näher. "Suggerieren". Das ist schon sehr schwammig.
So wie ich das sehe haben viele einfach gepostet "Das Teil ist schnell, und kann (als Bonus) noch SM3". Als Bonus. Als Extrazuckerl das man nicht braucht, aber "nice to have" ist.
Wenn man den Satz jetzt so interpretiert, dass "und kann noch SM3" betont wird, und das dann hervorstreicht, kommt eben sowas heraus wo Leute wahrnehmen zu glauben dass einem SM3 als Killerfeature schlechthin verkauft wird.
Allerdings wirst du hier auch erkennen dass dies eine Fehlinterpretation der LESER ist, und nicht der Schreiber.
Bei Händlern ist dieses Phänomen noch häufiger anzutreffen gewesen.
NVidias Marketing ist da wirklich Top.
Wie es bei Händlern ist, weiß ich nicht, aber MediaMarkt-Fuzzis frag ich sowieso nicht, und mir ist auch relativ egal, was diese anpreisen.
Auch NVIDIAs Marketing versteift sich nicht darauf, dass SM3 oder SM4 das Killerfeature schlechthin wäre, nein. Die sind schon gefinkelt genug, dass sie tausende Dinge anpreisen, unter anderem SM3/4. Aber nicht als Zentralfeature. Eh klar. Wieso auch nicht? Man listet natürlich jeden noch so minimalen Vorteil der Karte auf.
Dann sind das aber sehr dumme Spieleentwickler. Etablierte Softwareschmieden haben mindestens seit G80 release (wenn nicht schon meist etwas länger) so ein Teil und setzen natürlich alles daran DX10 zu nutzen.
Das ist ziemlich blauäugig und naiv was du da schreibst.
Klar, eine große, berühmte Spieleschmiede müsste sich da keine Sorgen machen. Geld haben sie ja.
Die Mehrheit der Studios selbst sind aber nicht in der Lage, ein solches Risiko für ein Projekt einzugehen (diejenigen die das machen sind meistens jene, die es dann bald nicht mehr gibt, weil sie sich verschätzt haben).
Diese Mehrheit der Studios die kein großes Projektrisiko eingehen dürfen und wollen produzieren auch hochqualitative Spiele. Aber sie können nicht einfach auf gut Glück Budget in etwas stecken, was dann die wenigsten wirklich haben.
Dumme Spieleentwickler sind eher die, die Risiken eingehen wie dieses. Gerade in dieser sporadischen und schwierigen Branche ist es keine schlechte Idee einen etwas konservativeren Kurs zu fahren (bzw. mehrgleisig zu fahren).
"Fallbacks" für SM2/3 müssen sie sowieso implementieren von daher ist deine Vermutung nach Angst auf ungenügende Marktdurchdringung unbegründet.
Wie gesagt, das gilt für die vielleicht 5% der Studios, hinter denen riesige Publisher stehen, mit Multimillionen-Budgets.
Ich sehe es eher realistisch, auf der Ebene der sonst üblichen Studiogrößen und Budgets.
Eins meiner Lieblingsspiele (Company of Heroes) macht derzeit schon damit aufmerksam einen DX10 Patch nachzuliefern. Auch wenn dies wie bei Farcry ablaufen wird scheuen sich Unternehmen nicht davor damit zu werben bzw. DX10 auch mal zu benutzen. Nur ob der Kunde dann mit DX9 Hardware gleich schlechter gestellt ist steht auf einem anderen Blatt. Marketing ist heutzutage alles und auch Crytek nutze den pseudo "SM3 patch" um von sich reden zu machen.
Und dann gibt es auch Studios, die qualitative Spielesoftware erstellen wollen, und auch auf's Budget schauen müssen.
Demirug
2007-01-27, 19:46:42
Dann sind das aber sehr dumme Spieleentwickler. Etablierte Softwareschmieden haben mindestens seit G80 release (wenn nicht schon meist etwas länger) so ein Teil und setzen natürlich alles daran DX10 zu nutzen. "Fallbacks" für SM2/3 müssen sie sowieso implementieren von daher ist deine Vermutung nach Angst auf ungenügende Marktdurchdringung unbegründet.
Du liegst damit sowas von falsch. Alles was derzeit mit D3D10 in Verbindung gebracht wird sind die Ausnahmen welche die Regel bestätigten. Die Unterstützung von D3D10 ist nicht billig und in den meisten Budgets ist keine Luft für sowas. Für einige sind ja selbst SM2 und SM3 Pfade zu teuer. Aber diese Latenz sollte doch mittlerweile von jeder vorhergehenden Generation bekannt sein. Für die breite Masse an Entwicklern wird ein Shadermodel erst dann interessant wenn sie davon ausgehen können das es beim Erscheinen des Spiels eine ausreichenden Verfügbarkeit haben. Die Prognosen werden aber aufgrund von aktuellen Marktzahlen und nicht den Wunschvorstellungen irgendwelcher IHVs erstellt.
Du liegst damit sowas von falsch. Alles was derzeit mit D3D10 in Verbindung gebracht wird sind die Ausnahmen welche die Regel bestätigten. Die Unterstützung von D3D10 ist nicht billig und in den meisten Budgets ist keine Luft für sowas. Für einige sind ja selbst SM2 und SM3 Pfade zu teuer. Aber diese Latenz sollte doch mittlerweile von jeder vorhergehenden Generation bekannt sein. Für die breite Masse an Entwicklern wird ein Shadermodel erst dann interessant wenn sie davon ausgehen können das es beim Erscheinen des Spiels eine ausreichenden Verfügbarkeit haben. Die Prognosen werden aber aufgrund von aktuellen Marktzahlen und nicht den Wunschvorstellungen irgendwelcher IHVs erstellt.
Ich dachte dabei ja auch nicht an Spiele die kurz vor dem Release stehen sondern an Projekte die jetzt begonnen werden bzw. noch nicht weit im Entwicklungszyklus vorrangeschritten sind. Die Entwicklung eines Spiels dauert schonmal Jahre aber ein von Microsoft festgesetzter Standard wird bis dahin mit ziemlicher Sicherheit Marktdurchdringung erreichen. Es sollte mich wundern wenn ich da jetzt so falsch liege und die meisten Projekte die jetzt gestartet werden nicht auf DX10 Unterstützung geplant sind.
tokugawa
2007-01-27, 20:22:29
Ich dachte dabei ja auch nicht an Spiele die kurz vor dem Release stehen sondern an Projekte die jetzt begonnen werden bzw. noch nicht weit im Entwicklungszyklus vorrangeschritten sind. Die Entwicklung eines Spiels dauert schonmal Jahre
"Jahre" dauern wenn dann nur die absoluten Top-Triple-A-Blockbuster-Titel.
Das Gros der (qualitativ durchaus hochwertigen) Spiele, die kein Multimillionenbudget haben - und das sind genau die Entwickler die Demirug und ich meinen - haben eher Entwicklungszyklen von ca. 1 Jahr (manchmal sogar drunter, manchmal leicht drüber).
Ein Spieleprojekt, das 2 Jahre lang dauert, ist in der Spiele-Industrie schon ein relativ langes (und risikoreiches) Projekt.
Erst mit dieser Perspektive sieht man im Übrigen was die 10 Jahre von DNF eigentlich für eine Dimension ist.
aber ein von Microsoft festgesetzter Standard wird bis dahin mit ziemlicher Sicherheit Marktdurchdringung erreichen.
Der Standard und die API ja, aber abhängig ist das noch immer von vielen Faktoren, wie etwa NVIDIA und ATI. Je mehr Faktoren es gibt, desto höher das Risiko.
Das Risiko ist einfach zu hoch. Klar wird es mal eine Marktdurchdringung haben, aber der Zeitpunkt ist nicht vorraussehbar.
Es sollte mich wundern wenn ich da jetzt so falsch liege und die meisten Projekte die jetzt gestartet werden nicht auf DX10 Unterstützung geplant sind.
Dann wunder dich. Jetzt zu diesem Zeitpunkt Resourcen in DX10-Entwicklung zu setzen kommt für Firmen wie etwa der in der ich arbeite (und die hat durchaus gute Budgets) nicht in Frage. In 1 Jahr könnte es dagegen schon anders ausschauen. Bis dahin entwickelt aber eine Firma wie meine aber schon mindestens 5 Titel.
OK, wir kommen der Sache näher. "Suggerieren". Das ist schon sehr schwammig.
So wie ich das sehe haben viele einfach gepostet "Das Teil ist schnell, und kann (als Bonus) noch SM3". Als Bonus. Als Extrazuckerl das man nicht braucht, aber "nice to have" ist.
Wenn man den Satz jetzt so interpretiert, dass "und kann noch SM3" betont wird, und das dann hervorstreicht, kommt eben sowas heraus wo Leute wahrnehmen zu glauben dass einem SM3 als Killerfeature schlechthin verkauft wird.
Allerdings wirst du hier auch erkennen dass dies eine Fehlinterpretation der LESER ist, und nicht der Schreiber.
Naja da wurde eher geschrieben:
Jetzt ist der R420 vielleicht noch schneller wenn dann erstmal die ganzen SM3 spiele bald kommen sieht der R420 keinen Stich mehr gegenüber dem NV40 weil man mit SM3 soviele Speedoptimierungen machen wird. Ausserdem bekommt man die ganzen neuen SM3 Effekte (was das auch immer sein soll ^^) nicht zu sehen. Ich habe auch schon Aussagen gelesen das man Spiele nur noch im DX7 Fallback erleben darf weil die Entwickler sich nur noch auf SM3 versteifen und sich nicht mehr um SM2 kümmern sondern nur noch einen DX7 Fallback für alte Hardware anbieten. Genauso hat man immer wieder gelesen "der NV40 ist viel Zukunftssicherer" und das im Jahr2004....nun haben wir 2007 also das sollte ja schon einigermassen in der Zukunft liegen ^^.
Demirug
2007-01-27, 20:42:54
Ich dachte dabei ja auch nicht an Spiele die kurz vor dem Release stehen sondern an Projekte die jetzt begonnen werden bzw. noch nicht weit im Entwicklungszyklus vorrangeschritten sind. Die Entwicklung eines Spiels dauert schonmal Jahre aber ein von Microsoft festgesetzter Standard wird bis dahin mit ziemlicher Sicherheit Marktdurchdringung erreichen. Es sollte mich wundern wenn ich da jetzt so falsch liege und die meisten Projekte die jetzt gestartet werden nicht auf DX10 Unterstützung geplant sind.
Solange es von ATI noch gar nichts und von nVidia keine D3D10 Hardware für das mittlere und untere Preissegment gibt musst du als Budgetverantwortlicher schon einen sehr guten Grund haben um D3D10 auf die Liste zu setzten. Das gilt auch für AAA Titel mit Millionenbudgets den man kann das Geld und die Zeit auch in etwas anders pumpen.
Demirug
2007-01-27, 20:55:10
Naja da wurde eher geschrieben:
Jetzt ist der R420 vielleicht noch schneller wenn dann erstmal die ganzen SM3 spiele bald kommen sieht der R420 keinen Stich mehr gegenüber dem NV40 weil man mit SM3 soviele Speedoptimierungen machen wird. Ausserdem bekommt man die ganzen neuen SM3 Effekte (was das auch immer sein soll ^^) nicht zu sehen. Ich habe auch schon Aussagen gelesen das man Spiele nur noch im DX7 Fallback erleben darf weil die Entwickler sich nur noch auf SM3 versteifen und sich nicht mehr um SM2 kümmern sondern nur noch einen DX7 Fallback für alte Hardware anbieten. Genauso hat man immer wieder gelesen "der NV40 ist viel Zukunftssicherer" und das im Jahr2004....nun haben wir 2007 also das sollte ja schon einigermassen in der Zukunft liegen ^^.
Verschiebungen im Markt. Der PC-Spielemarkt hat sich inzwischen massive geteilt. Neben dem klassischen Markt aus dem „wir“ unsere Spiele beziehen hat sich ein zweiter etabliert. Dieser Casual Gamer Markt deckt nun den Bereich der Lowtech (Intel) Hardware ab. Entsprechend nehmen sich die klassischen Entwickler die Freiheit System mit dieser Ausstattung zunehmen zu ignorieren. Das Intel nun endlich technologisch bessere (ich rede nicht von Performance) IGPs liefert macht die Entscheidung alles unter SM2 zu verwerfen ebenfalls leichter. Damit wird SM2 zum neuen Minimal Level. Wie schon erwähnt sind die Kosten für D3D10 als Maximal Level aber zu hoch als das viele dazu bereit sind sich darauf einzulassen. Deswegen SM3 als maximal Level bei vielen Spielen.
Häääää??
Mehr Interpolatoren ? Hab ich da was verpasst ? Ich hatte schon den Spass 2.b Shader auf 3.0 nicht kompilieren zu können... Effektiv gesehen hat 3.0 sogar einen Interpolator weniger, erst nach entfernen des FOG-Interpolators war der Shader wieder compilierbar.
Wobei es dann allerdings nicht mehr derselbe Shader ist. Effektiv gesehen hat 3.0 eine Interpolatorkomponente mehr, dank 2D-vPos-Register. Warum dies allerdings nicht 4D wie in OpenGL ist, ist mir schleierhaft. Letztlich kann ja auch jede SM3.0-Karte die 2.b-Shader plus Fog ausführen.
Aber was nützt SM3, wenn die Komplexität der Shader so niedrig gehalten werden muss, dass sie auch als 2.x umsetzbar wären?
Predication und Gradienten sind auch ganz nützlich (auch wenn es jene mit 2_a schon gab, aber dann eben mit FX-Performance).
redete mehr von Morphos (alternativ OS4 bzw bei OS3.5 ist auch mehr dabei), ansonsten kommts drauf an was man so möchte. Wenn etwas fehlt ist das für Einsteiger natürlich schwieriger das runterzuladen und nach zu installieren. Und selbst wenn man diese fehlenden Programme mit auf die CD packt und mitinstalliert und spätestens dann die gleiche Funktionalität vorhanden ist, selbst dann ist dieses OS immer noch nur ein Bruchteil so gross wie Windows.
(nicht zu vergessen dass ein 15 Jahre altes OS3.0 Dinge kann die ein Windows wohl nie können wird)
Das ist reine Spekulation deinerseits. Ich glaube nicht dass du den vollen Funktionsumfang von Windows überhaupt kennst (darunter auch Dinge, die kein anderes Betriebssystem bietet).
jou, und so entstehen Bananenversionen - Vista ist noch nicht einmal da und schon wird ein SP1 angekündigt...
Frühe Verfügbarkeit ist ein Wert an sich. Und Vista ist keineswegs unbenutzbar.
MikeB
2007-01-27, 21:20:02
Imo eine recht komische Betrachtung. R420 erlaubt Programme mit bis zu 512 Instruction Slots. Welche Shader sind dann noch schnell genug? – Folgt man deiner Argumentation, ist R420 für Shader 2.X Profil 2_B nicht zu gebrauchen.
Tatsächlich aber bietet die Passreduktion durch die möglichen längeren Shader in einigen Spielen einen netten Boost durch einen Patch, der 2_B-Shader nachliefert.
Streng genommen wäre 2.0 für die Radeon 9700 unbrauchbar – sofern man zum Beispiel tatsächlich 16 Texturen im Shader filtern möchte.
Eigentlich wollte ich nur Dampf ablassen über meine Enttäuschung zum NV40, kaum will man sich mal ein bischen in den Shadern austoben, ist jegliche Performance weg.
Natürlich ist Profil 2_B interessant, immerhin erlaubt es static branching. Die 512 slots sind ganz witzig...
Man kann natürlich nur soviel shader-resourcen benutzen wie es die Performance zulässt, aber genau da kommt die Frage nach der Sinnhaftigkeit von SM3 auf NV40. Dynamic branching schliesst sich ja aus, static branching geht auch auf SM2.x.
Ich bin kein ATI-fan, der fehlende FP16-texturfilter auf ATI ist genauso ein Schlag ins Gesicht wie die shaderpower von nvidia < G80.
Natürlich sind meine Shader zu dick geraten wenn eine 1600pro doppelt so schnell wird wie eine 6800GT...
Michael
Ich glaube nicht dass du den vollen Funktionsumfang ... überhaupt kennst
ob Betriebssystem, Handy oder DVD-Player/Rekorder, überall hat es einen Funktionsumfang der kaum zu überblicken ist und oftmals werden gerade mal 10% der Funktionen überhaupt genutzt. Wenn dann aber die 10% auf die es wirklich ankommt nicht wirklich richtig zuverlässig funktionieren...
(darunter auch Dinge, die kein anderes Betriebssystem bietet).
z.B. ?
Frühe Verfügbarkeit ist ein Wert an sich. Und Vista ist keineswegs unbenutzbar.
wer profitiert von einer frühen Verfügbarkeit ausser Microsoft weil sie dann wieder was neues verkaufen können?
mit einem halbgaren Produkt wird ein Kunde nichts anfangen können, höchstens vielleicht "in größter Not". Aber so gross z.B. auf Vista nicht ein wenig warten zu kömmen wird die Not wohl nicht sein.
was ist das eigentlich für ein Qualitätsgedanke wenn man genau weiss, in 3 Monaten muss es einen allumfassendes Update geben!?
auf meiner Arbeit werde ich ständig auf den Qualitätsgedanken und Kundenzufriedenheit "getrimmt", scheint wohl Branchenspezifisch in der Softwareindustrie nicht so zu sein!?
wenn wir nicht rechtzeitig die Menge / Qualität dem Kunden liefern können, dann geben wir dem Bescheid und er kann entscheiden ob er noch etwas wartet, sich zunächst mit der kleineren Menge begnügt oder ob er fürs erste auch mit einer etwas geringeren Qualität leben kann.
wenn jemand ein neues Produkt auf den Markt bringt gehe ich davon aus, dass dieses in Ordnung ist (ok, so naiv bin ich auch wieder nicht), anderenfalls müsste der Hersteller deutlichst darauf hinweisen, dass es eigentlich eine beta-Version ist. Doch dann würde kein Mensch mehr dieses Produkt kaufen.
vielleicht sollte man solche Hersteller viel mehr in Regress nehmen und auch wegen "Kleinigkeiten" auf Schadensersatz zu verklagen, vielleicht kapieren sie es dann
MikeB
2007-01-27, 21:24:53
Jetzt ist der R420 vielleicht noch schneller wenn dann erstmal die ganzen SM3 spiele bald kommen sieht der R420 keinen Stich mehr gegenüber dem NV40 weil man mit SM3 soviele Speedoptimierungen machen wird.
Wohl kaum, diese Speed-Optimierungen benötigen ein performant funkionierendes dynamic branching... Wenn diese Optimierungen kommen wirds ganz ganz arg traurig für den G7x vs R5x0.
Lasst uns doch alle freuen auf r600 und g80, mal gucken wie die noch performen wenn man dann endlich SM4.0 benutzt.
Michael
LovesuckZ
2007-01-27, 21:27:48
Eigentlich wollte ich nur Dampf ablassen über meine Enttäuschung zum NV40, kaum will man sich mal ein bischen in den Shadern austoben, ist jegliche Performance weg.
Und das trifft auf anderen Karten des gleichen Lebenszeitraumes nicht zu?
Hast du den gleichen "Shader" auch mal auf einen r420 ausgeführt?
MikeB
2007-01-27, 21:36:07
Effektiv gesehen hat 3.0 eine Interpolatorkomponente mehr, dank 2D-vPos-Register.
Predication und Gradienten sind auch ganz nützlich (auch wenn es jene mit 2_a schon gab, aber dann eben mit FX-Performance).
Okay, die 2 Punkte gehen an SM3... :D
Das vPos ist wirklich einiges wert. Wird ohne sehr schwierig einen Tiefenbuffer beim Rendern zu benutzen. Supergenial für trübes Wasser. Mit SM2.x fast nicht machbar.
Michael
Natürlich sind meine Shader zu dick geraten wenn eine 1600pro doppelt so schnell wird wie eine 6800GT...
Ich weiß jetzt nicht wie der Shader aussieht, aber das ist ja eher komisch. 500Mhz * 12 ALUs ist nicht viel mehr als 350Mhz * 16 ALUs.
Verwendest du zwischendrin viele Texture-Lookups die die ALUs auf der nVIDIA stallen könnte?
MikeB
2007-01-27, 22:03:03
Und das trifft auf anderen Karten des gleichen Lebenszeitraumes nicht zu?
Hast du den gleichen "Shader" auch mal auf einen r420 ausgeführt?
Nein, hab leider gleich die ganze Engine auf SM3 umgestellt...
http://hardware.thgweb.de/charts/grafikkarten.html?modelx=33&model1=581&model2=566&chart=206
Siehe X800XT... oberhalb 7950GT in einem shaderlastigen Spiel. ;D
Coda, die Shader haben viele texreads, 3 normalmaps, 4 texturlayer, eine 2048er R32F CSM, durch percentage closer auch 4 reads.
Dann noch eine ganze Menge Arithmetik für falloffshader, reflective lighting, alphablending zwischen den Layern, bumpmap tangenten... Bis zu 80 slots grosse shader.
Optimierungen kommen noch, wie extra zpass, dynamic branching um texreads zu sparen.
Die Engine ist für Release in ~2 Jahren geplant, muss hoffentlich keinen NV40 mehr sehen.
Rechnerisch sollte die shadingpower fast gleich sein (1600pro<->6800gt), vielleicht zuviele temps oder andere stalls...
Michael
LovesuckZ
2007-01-27, 22:24:50
Nein, hab leider gleich die ganze Engine auf SM3 umgestellt...
Mit dem NV40 die Engine auf SM3.0 gebracht?
Keine Chance das ganze noch so umzuschreiben, dass es auf dem r420 läuft?
http://hardware.thgweb.de/charts/grafikkarten.html?modelx=33&model1=581&model2=566&chart=206
Siehe X800XT... oberhalb 7950GT in einem shaderlastigen Spiel. ;D
Indoor ist meines Wissen nach anspruchsvoller, wenn es um die "Shaderlästigkeit" geht. Da ist die 7950GT deutlich schneller (gleiche Seite).
Ich schätze, die nächsten 4 Jahre gibts ne Shader4-Lüge. Denn alles über der aktuellen Konsolengeneration ist wieder mal überflüssig. Dazu kommt die "Geht nur auf PC" Lüge
MikeB
2007-01-27, 22:43:49
Mit dem NV40 die Engine auf SM3.0 gebracht?
Keine Chance das ganze noch so umzuschreiben, dass es auf dem r420 läuft?
Hmm, entwickeln tu ich im Moment auf der 1600pro, deswegen hab ich das nv40-problem auch erst hinterher gemerkt.
Leider ist SM3 ein bischen ganz oder garnicht, da ja PS3.0 auch von VS3.0 versorgt werden muss... Das vPos wird nur von wenigen Shadern benutzt, aber das geometry instancing los zu werden ist schwierig.
Ich prüf das nächste Woche, hier auf meinem Heimrechner läuft da ja garnichts.
Würde mich auchmal interessieren was eine x800 dazu sagt.
Michael
dargo
2007-01-27, 23:32:53
Ich schätze, die nächsten 4 Jahre gibts ne Shader4-Lüge. Denn alles über der aktuellen Konsolengeneration ist wieder mal überflüssig. Dazu kommt die "Geht nur auf PC" Lüge
Naja, ich weiß nicht. D3D10 bringen NV und ATI in etwa zeitgleich. Zeitgleich deswegen weil die für die Masse eher interessanteren Mainstream-Grakas fast zu gleichen Zeit erscheinen sollen. Bei SM3.0 war es eine ganz andere Ausgangssituation. Ich gehe mal davon aus, wir würden viel früher mehr SM3.0 Titel sehen hätte der R4x0 SM3.0 Features Onboard.
LovesuckZ
2007-01-27, 23:39:48
Ich gehe mal davon aus, wir würden viel früher mehr SM3.0 Titel sehen hätte der R4x0 SM3.0 Features Onboard.
Nein, das würden wir nicht.
Du kannst die zeitliche Komponente nicht außer acht lassen.
dargo
2007-01-27, 23:57:37
Du kannst die zeitliche Komponente nicht außer acht lassen.
Bei den Non-SM3.0 Titeln war nicht die Zeit ausschlaggebend sondern imho die schlecht verbreiteten SM3.0 Grakas. Ich als Spieleentwickler würde mir aus Kostengründen keinen extra SM3.0 Pfad einbauen wenn ich weiß, dass beide Hersteller den SM2.0 Pfad beherschen.
tokugawa
2007-01-28, 02:36:28
Naja da wurde eher geschrieben:
Jetzt ist der R420 vielleicht noch schneller wenn dann erstmal die ganzen SM3 spiele bald kommen sieht der R420 keinen Stich mehr gegenüber dem NV40 weil man mit SM3 soviele Speedoptimierungen machen wird. Ausserdem bekommt man die ganzen neuen SM3 Effekte (was das auch immer sein soll ^^) nicht zu sehen. Ich habe auch schon Aussagen gelesen das man Spiele nur noch im DX7 Fallback erleben darf weil die Entwickler sich nur noch auf SM3 versteifen und sich nicht mehr um SM2 kümmern sondern nur noch einen DX7 Fallback für alte Hardware anbieten. Genauso hat man immer wieder gelesen "der NV40 ist viel Zukunftssicherer" und das im Jahr2004....nun haben wir 2007 also das sollte ja schon einigermassen in der Zukunft liegen ^^.
Blödsinn wird immer verzapft, da kann ich leider auch nichts dagegen tun.
SM2 und SM3 sind Teil derselben API (DX9), und nur die Shader auszuwechseln, die jetzt eben SM2 verwenden und nicht SM3 ist relativ einfach (so gesehen ist DX10 eine ganz andere Ebene, da da die API-Veränderung mit hineinspielt, es ist also nicht nur ein reiner Shader-Wechsel).
Was du schreibst ist allerdings nicht der Kanon der Mehrheit derer die etwas empfohlen haben. Klar gab's einige Stimmen die auch sowas geschrieben haben. Aber eben nicht die Mehrheit (und auch nicht die kompetentesten).
Obwohl sich - zumindest für mich - die Zukunftssicherheit des NV40 bewahrheitet hat. Ich verwende auf meiner GeForce Go 6600 SM3 durchaus exzessiv; mit einer R300-basierten SM2.0b-Karte hätte ich weniger Freude.
StefanV
2007-01-28, 03:02:39
mit einer R300-basierten SM2.0b-Karte hätte ich weniger Freude.
Du meinst sicher R4x0 bzw RV4x0, oder?
Wobei dich die Performance sicher nicht soo sehr interessiert wie z.B. mich...
Eigentlich wollte ich nur Dampf ablassen über meine Enttäuschung zum NV40, kaum will man sich mal ein bischen in den Shadern austoben, ist jegliche Performance weg.
Natürlich ist Profil 2_B interessant, immerhin erlaubt es static branching. Die 512 slots sind ganz witzig...
Man kann natürlich nur soviel shader-resourcen benutzen wie es die Performance zulässt, aber genau da kommt die Frage nach der Sinnhaftigkeit von SM3 auf NV40. Dynamic branching schliesst sich ja aus, static branching geht auch auf SM2.x.
Ich bin kein ATI-fan, der fehlende FP16-texturfilter auf ATI ist genauso ein Schlag ins Gesicht wie die shaderpower von nvidia < G80.
Natürlich sind meine Shader zu dick geraten wenn eine 1600pro doppelt so schnell wird wie eine 6800GT...Als 2.X-Shader mit 2_B-Profil dürften die Shader auf der 6800 nicht schneller sein. Die Zahl der Instruktionsslot von 2_B und 3_0 ist gleich. Insofern frage ich mich, warum du die 6800-er Shaderperformance auf SM3 beziehst. Man kann auch eine 9700 mit SM2.0 so auslasten, dass die Performane unbrauchbar ist. Trotzdem ist die 9700 für SM2 gut geeignet.
NV40 und G70 benutzen beim Texturzugriff die erste ALU, um die Perpektivkorrektur abzuschließen (sie brauchen das MUL.) Beim G70 kenne ich die Readport-Limits nicht, NV40 hat da durchaus einige Flaschenhälse, die bei der X1600 durch Threading versteckt werden können.
Was berechnen deine Shader? Geht es zum Beispiel um Normalisierung mit FP16-Genauigkeit, dürfte der NV40 seine Stärken ausspielen (0 Takte auf NV40, 3 Takte auf X1600.)
Der NV40 war der erste SM3-Chip. Dass spätere Mittelklasse-Karten schneller sind (so hat selbst meine 7600 GT mehr ALU-Leistung als eine 6800 GT) verwundert doch nicht. Die ALU-Performance vom NV40 war zwar seinerzeit beeindruckend, aber ist heutiger Sicht natürlich ziemlich mager. Nutzt man die bei SM2.0 möglichen 16 Texturen, die man auch noch jeweils 2x sampelt, bekäme man auch die 9700 mit SM2 in den Keller – trotzdem ist die 9700 keine schlechte SM2-Karte.
um so mehr Grund genug genau diese Schnittstellen sorgfältigst zu programmieren und mindestens 99,9% fehlerfrei zu machen, die Schnittstellen bestens zu dokumentieren, damit Treiberprogrammierer das dann auch richtig umsetzen können. Gerade weil es beim Amiga ein Hack ist musste doppelte und dreifache Sorgfalt aufgewendet werden und gerade deswegen ist es so stabil. Da könnte sich Windows echt ne Scheibe abschneiden (MS kopiert doch sonst auch überall alles zusammen)MS ist sorgfältiger, als du denkst. Dass trotzdem einiges schiefgeht, liegt an der Komplexität der Software. Du übersiehst, dass in Windows der allergrößte Teil funktioniert und vernünftig ist.
in der Tat, nun ist es nur noch OT - aber so ist's meistens im Leben, ein Thema in einem Gespräch/Diskussion/whatever driftet oftmals Schritt für Schritt immer mehr ab... oder kommt es nie vor wenn Du mit Freunden über Fussball redest am Ende man sich über Biersorten streitet ? (setze mal vorraus dass Du hin und wieder Fussball schaust und Bier trinks)What is all the fuss about? Das ist kein Grund, die Diskussion ins OT gleiten zu lassen.
ob Betriebssystem, Handy oder DVD-Player/Rekorder, überall hat es einen Funktionsumfang der kaum zu überblicken ist und oftmals werden gerade mal 10% der Funktionen überhaupt genutzt. Wenn dann aber die 10% auf die es wirklich ankommt nicht wirklich richtig zuverlässig funktionieren...Du bist nicht der einzige Kunde. Viele wollen einen größeren Funktionsumfang als du.
wer profitiert von einer frühen Verfügbarkeit ausser Microsoft weil sie dann wieder was neues verkaufen können?
mit einem halbgaren Produkt wird ein Kunde nichts anfangen können, höchstens vielleicht "in größter Not". Aber so gross z.B. auf Vista nicht ein wenig warten zu kömmen wird die Not wohl nicht sein.
was ist das eigentlich für ein Qualitätsgedanke wenn man genau weiss, in 3 Monaten muss es einen allumfassendes Update geben!?Du argumentierst einseitig. Vista ist auch in der Auslieferungsversion benutzbar. Zwar stimmt es, dass man oft das Gefühl hat, dass man die Software beim Kunden reifen lässt. Es gab in der Vergangenheit eine Reihe mehr oder weniger krasser Beispiele (besonders krass: Gothic 3, und das ist nicht von Microsoft) wo Software zu früh auf den Markt gebracht wurde.
Wäre es genau andersherum und jeder ISV würde Software so lange zurückhalten, bis jeder Bug getilgt ist, ginge die Diskussion in die andere Richtung: Die SW solle entlich releast werden.
Alles perfekt machen zu wollen hat auch schon manches Entwicklerstudio in den Ruin getrieben bzw. nicht mal das erste Spiel zur Marktreife bringen lassen. Andere Unternehmen, wie EA, machen die Software nicht perfekt aber bekommen sie immerhin auf den Markt. EA ist ein großes Unternehmen, was zwar entsprechend auch in Kritik steht (welches große Unternehmen steht nicht in Kritik?). Doch wären alle deiner Ansicht, müssten EA oder Microsoft längst pleite sein.
auf meiner Arbeit werde ich ständig auf den Qualitätsgedanken und Kundenzufriedenheit "getrimmt", scheint wohl Branchenspezifisch in der Softwareindustrie nicht so zu sein!?Doch, das ist auch dort so. Ich weiß nicht wie oft ich noch wiederholen soll, dass du die Schwierigkeiten bei komplexer Software unterschätzt.
vielleicht sollte man solche Hersteller viel mehr in Regress nehmen und auch wegen "Kleinigkeiten" auf Schadensersatz zu verklagen, vielleicht kapieren sie es dannVielleicht würdest du nach einer Vielzahl verlorener Prozesse auch kapieren, dass deine persönliches Anforderungsprofil nicht der allgemeingültige Maßstab ist.
Wir drehen uns im Kreis. Du stellst Ansprüche, die die Mehrzahl der Kunden nicht hat. Natürlich kannst du weiterhin deine Ansprüche stellen, aber du unterschätzt die Kosten und Entwicklungszeiten für die Produkte, die du forderst.
Der Alternativcontent hätte sich automatisiert erstellen lassen. Das passende Tool dazu hätte id Software in wohl <2h proggen können. Hätten sie nicht.
Ehrlich gesagt weiß ich nicht, was du willst. Erst schreibst du, schon bei der Voodoo2 befürchtet zu haben, dass sie mangels Bumpmapping-Fähigkeit technisch überholt sein könnte, und dann beklagst du, dass Doom 3 die Voodoo5 aussperrt. Sollte Bumpmapping-Fähigkeit einer Karte denn nie vorausgesetzt werden, oder erst dann, wenn die 10 Jahre Garantie auf die Voodoo5 abgelaufen sind?
Noch ein oder zwei zusätzliche CDs mit in die Packung legen, nur damit das Spiel auch auf technischer Uralt-Hardware noch vernünftig aussieht? So viel Aufwand (und erhöhten Texturspeicher-Verbrauch, was bei den ca. 32 MB für Texturen bei Voodoos kritisch ist) um das Spiel dann doch deutlich schlechter aussehen zu lassen? (Kein Specular Bumpmapping, kein dynamisches Diffuse Bumpmapping, stark reduzierte Texturauflösung, ohnehin schwache Leistung durch die Schatten, Voodoos beherrschen ja auch kein Early-Z.) Wann wäre denn deiner Meinung nach der Zeitpunkt, endlich mal Dot3-Fähigkeit bei Grakas vorauszusetzen?
JC hat die Doom-3-Engine anfangs bewusst auf einem NV10 entwickelt. 3dfx wusste, was Doom 3 braucht. Was kann JC dafür, wenn 3dfx trotzdem weiterhin auf Dot3-Combiner verzichtet?
Tigerchen
2007-01-28, 08:10:11
Naja da wurde eher geschrieben:
Jetzt ist der R420 vielleicht noch schneller wenn dann erstmal die ganzen SM3 spiele bald kommen sieht der R420 keinen Stich mehr gegenüber dem NV40 weil man mit SM3 soviele Speedoptimierungen machen wird. Ausserdem bekommt man die ganzen neuen SM3 Effekte (was das auch immer sein soll ^^) nicht zu sehen. Ich habe auch schon Aussagen gelesen das man Spiele nur noch im DX7 Fallback erleben darf weil die Entwickler sich nur noch auf SM3 versteifen und sich nicht mehr um SM2 kümmern sondern nur noch einen DX7 Fallback für alte Hardware anbieten. Genauso hat man immer wieder gelesen "der NV40 ist viel Zukunftssicherer" und das im Jahr2004....nun haben wir 2007 also das sollte ja schon einigermassen in der Zukunft liegen ^^.
Genau so wurde es vonden einschlägig bekannten Experten dargestellt. Wer da was gegen sagt wurde und wird dann gnadenlos mit technischen Spitzfindigkeiten niedergeschrien.
by Togawara
OK, wir kommen der Sache näher. "Suggerieren". Das ist schon sehr schwammig.
So wie ich das sehe haben viele einfach gepostet "Das Teil ist schnell, und kann (als Bonus) noch SM3". Als Bonus. Als Extrazuckerl das man nicht braucht, aber "nice to have" ist.
Wenn man den Satz jetzt so interpretiert, dass "und kann noch SM3" betont wird, und das dann hervorstreicht, kommt eben sowas heraus wo Leute wahrnehmen zu glauben dass einem SM3 als Killerfeature schlechthin verkauft wird.
Allerdings wirst du hier auch erkennen dass dies eine Fehlinterpretation der LESER ist, und nicht der Schreiber.
Das ist ja mal der Knüller. War alles nicht so gemeint wie?
Wir drehen uns im Kreis. Du stellst Ansprüche, die die Mehrzahl der Kunden nicht hat. Natürlich kannst du weiterhin deine Ansprüche stellen, aber du unterschätzt die Kosten und Entwicklungszeiten für die Produkte, die du forderst.
Das forderst ausgerechnet du dem Kosten und Entwicklungszeiten mitunter völlig egal sind? Wie sehr hätte sich der R300 wohl verspätet und wie teuer wäre er (auch für die Kunden) wohl geworden wenn all das eingebaut worden wäre was du gefordert hast? Die Mehrzahl der Kunden waren winkelabhängiges AF oder FP24 ja auch egal.
[COLOR="#000099"]
Genau so wurde es vonden einschlägig bekannten Experten dargestellt. Wer da was gegen sagt wurde und wird dann gnadenlos mit technischen Spitzfindigkeiten niedergeschrien.
[COLOR="#000099"]
Das ist ja mal der Knüller. War alles nicht so gemeint wie? Wer für den technischen Fortschritt ist, lästert bei der GeForce 4 Ti über den alten Pixelshader, aber eben auch bei der X800 über mangelnden Fortschritt (abgesehen vom Instruction-Count hat sich am Shader ja nix gebessert.) Wer damit beschäftigt ist, seine Postings farbig zu markieren, hat offenbar nicht so die Zeit, andere Texte zu verstehen.
Während sich einige – natürlich auch ich – schon mal fachlich irren, lässt du jede Ahnung vom Fach vermissen. Deine offensichtliche Weigerung, dich mit der Materie zu beschäftigen, erweckt den Eindruck als meintest du bereits alles nötige zu wissen. Doch dies steht im krassen Gegensatz zur Inhalt deiner Äußerungen hier im Forum.
Ich finde es ziemlich dreist, tokugawas Anmerkung, dass viele Leute Anmerkungen zur Technik falsch auffassen, jetzt als nachträgliches "Schuldeingeständis" oder gar Herausreden zu bewerten. Dir mangelt es von A bis Z auch am grundlegendsten Technik-Verständnis. Nur schade, dass du dich ungeachtet deiner Wissenslücken immer wieder einmischst. Und fachlich nichts dazulernst.
[COLOR="#000099"]
Das forderst ausgerechnet du dem Kosten und Entwicklungszeiten mitunter völlig egal sind? Wie sehr hätte sich der R300 wohl verspätet und wie teuer wäre er (auch für die Kunden) wohl geworden wenn all das eingebaut worden wäre was du gefordert hast? Die Mehrzahl der Kunden waren winkelabhängiges AF oder FP24 ja auch egal. FP32-ALUs hätten den Chip spürbar vergrößert, ein besseres AF wäre hingegen nicht sooo teuer geworden. FP32-ALUs hätten die Entwicklungszeit aber nicht verlängert.
Zwar stimmt es, dass man oft das Gefühl hat, dass man die Software beim Kunden reifen lässt.
das ist heutzutage bei immer mehr Produkten so d.h. nicht nur Software
Wäre es genau andersherum und jeder ISV würde Software so lange zurückhalten, bis jeder Bug getilgt ist, ginge die Diskussion in die andere Richtung: Die SW solle entlich releast werden.
Wegen was braucht jemand jetzt sofort und schon am besten gestern Windows Vista (um mal bei dem Beispiel zu bleiben). Ob nun die neue Office, ein neues Corel, ein neues Nero, ein neues what ever nun ein Monat früher oder später kommt. Es dürfte wohl eher selten der Fall sein, dass heutzutage eine neue Version _das_ Feature mitbringt das von der ganzen Welt dringenst gebaucht wird?
Doch, das ist auch dort so. Ich weiß nicht wie oft ich noch wiederholen soll, dass du die Schwierigkeiten bei komplexer Software unterschätzt.
Unterschätze ich nicht, mein Ein-Mann-17000-Zeilen-Projekt musste ich auch immer wieder umbauen, weil es "zu gross" i.e. unübersichtlich bzw. komplex wurde. Von einem Milliarden-Weltunternehmen erwarte ich etwas mehr Planung bei der Erstellung einer Software. Oder fing Vista auch mit einem 100 Zeilen Konvertierungs-Tool an, aus dem dann unkontroliert ohne jeglichen Sinn und Verstand eine grosse Anwendung wurde? Ich würde mal sagen, Vista war von Anfang an als Betriebsystem geplant.
Nicht nur die Software Industrie ist komplex, sie ist quasi sogar in gewisser Weise "vorhersehbar" und sehr "flexibel" d.h. man kann viel "experimentieren" ohne dass gleich alles zur Sau geht und die Arbeit von Monaten für die Katz war. Eine neue Turbine aus neuen Materialen kann jeder Zeit zu Staub verfallen, die Software stürzt nur ab. Hier ist nur die Arbeitszeit der Leute für die Sau, aber kein immenser Materialschaden und man muss nicht alles nocheinmal aufbauen. Bei der Software muss man "nur" eine fehlerhafte Code-Zeile austauschen. In der Chemie kann eine Reaktion 1000 mal problemlos funktionieren, beim 1001 Mal findet man die Anlage unter einer anderen Adresse wieder, im bestens Fall entsteht nicht die gewünschte Substanz sondern nur ein schwarzer Schlamm.
Vielleicht würdest du nach einer Vielzahl verlorener Prozesse auch kapieren, dass deine persönliches Anforderungsprofil nicht der allgemeingültige Maßstab ist.
zum Glück laufen Flugzeuge nicht mit Windows und stürzen nur äußerst selten ab - ach, bin ich dumm, ich vergaß, ein Flugzeug ist ja nicht komplex und bewegt sich im Gegensatz zu Windows an den Grenzen der Physik... :rolleyes:
MS ist quasi Monopolist, man hat kaum ne andere Wahl. Gut Boeing und Airbus sind auch quasi Monopolisten, doch wenn denen nachgewiesen wird, dass wegen ("absichtlichen") Pfusch 200 Menschen gestorben sind, dann kostet die das viel viel Geld - aber ich hab ja mein eigenes Anforderungsprofil. Dir würde es ja nix ausmachen wenn Du oder nahe Verwandte wegen eines Flugzeug Crash draufgehen und Entschädigung würdest Du auch nicht verlangen.
Aquaschaf
2007-01-28, 12:02:09
Nicht nur die Software Industrie ist komplex, sie ist quasi sogar in gewisser Weise "vorhersehbar" und sehr "flexibel" d.h. man kann viel "experimentieren" ohne dass gleich alles zur Sau geht und die Arbeit von Monaten für die Katz war. Eine neue Turbine aus neuen Materialen kann jeder Zeit zu Staub verfallen, die Software stürzt nur ab. Hier ist nur die Arbeitszeit der Leute für die Sau, aber kein immenser Materialschaden und man muss nicht alles nocheinmal aufbauen. Bei der Software muss man "nur" eine fehlerhafte Code-Zeile austauschen. In der Chemie kann eine Reaktion 1000 mal problemlos funktionieren, beim 1001 Mal findet man die Anlage unter einer anderen Adresse wieder, im bestens Fall entsteht nicht die gewünschte Substanz sondern nur ein schwarzer Schlamm.
Was soll dieser Vergleich? Software-Herstellung unterscheidet sich in so vielen Aspekten grundlegend von Maschinenbau und Chemie, da gewinnt man mit Analogien genau gar nichts.
Was soll dieser Vergleich? Software-Herstellung unterscheidet sich in so vielen Aspekten grundlegend von Maschinenbau und Chemie, da gewinnt man mit Analogien genau gar nichts.
Lass ihn doch. Es gab schon viele Unternehmer, die genauso wie er dachten, die Softwareentwickler wären blöd und sie führen jetzt mal ordentlich Ingenieursplanung dort ein. Seltsamerweise waren solche Firmen immer alle sehr sehr schnell vom Markt verschwunden.
Tigerchen
2007-01-28, 12:35:50
Wer für den technischen Fortschritt ist, lästert bei der GeForce 4 Ti über den alten Pixelshader, aber eben auch bei der X800 über mangelnden Fortschritt (abgesehen vom Instruction-Count hat sich am Shader ja nix gebessert.) Wer damit beschäftigt ist, seine Postings farbig zu markieren, hat offenbar nicht so die Zeit, andere Texte zu verstehen.
Während sich einige – natürlich auch ich – schon mal fachlich irren, lässt du jede Ahnung vom Fach vermissen. Deine offensichtliche Weigerung, dich mit der Materie zu beschäftigen, erweckt den Eindruck als meintest du bereits alles nötige zu wissen. Doch dies steht im krassen Gegensatz zur Inhalt deiner Äußerungen hier im Forum.
Ich finde es ziemlich dreist, tokugawas Anmerkung, dass viele Leute Anmerkungen zur Technik falsch auffassen, jetzt als nachträgliches "Schuldeingeständis" oder gar Herausreden zu bewerten. Dir mangelt es von A bis Z auch am grundlegendsten Technik-Verständnis. Nur schade, dass du dich ungeachtet deiner Wissenslücken immer wieder einmischst. Und fachlich nichts dazulernst.
Deine Ahnung von der Materie ist sicher sehr groß. Sehr nett das du daraus ableitest nur mit einem derartigen Background dürfe man in einem öffentlichen Forum mitdiskutieren.
Immerhin gestehst du hier mal ein daß am Ende was anderes raus kommen kann als die technischen Daten vermuten lassen. Damit solltest du dir ruhig mal die Frage stellen ob es so sinnvoll ist immer nur auf die technischen Daten zu pochen.
In welcher Farbe ich poste hat dich gar nicht zu interessieren. Immerhin bist du für solchen Spam schon mal verwarnt worden. Scheint dich aber nicht zu interessieren.
FP32-ALUs hätten den Chip spürbar vergrößert, ein besseres AF wäre hingegen nicht sooo teuer geworden. FP32-ALUs hätten die Entwicklungszeit aber nicht verlängert.
Die Konkurrenz hatte das ja. Was ich gesehen habe ist das die kaum fertig wurden mit dem Chip und daß der schwer zu kühlen war. Der Fönlüfter ist ja legendär. Es schien mir schon so daß da viel Geld verbraten wurde ohne Nutzen für die Mehrzahl der Kunden.
Von außen, als normaler Mensch, scheint es da eben so daß Kosten und Nutzen bei ATI besser waren. Nicht für jeden können Features und feinste Details die man nur am Rande wahrnimmt im Mittelpunkt des Interesses stehen. Und viele, viele zufriedene R300 Nutzer können nicht alle zu blöd sein die Wahrheit zu erkennen.
Demirug
2007-01-28, 12:35:52
Nicht nur die Software Industrie ist komplex, sie ist quasi sogar in gewisser Weise "vorhersehbar" und sehr "flexibel" d.h. man kann viel "experimentieren" ohne dass gleich alles zur Sau geht und die Arbeit von Monaten für die Katz war. Eine neue Turbine aus neuen Materialen kann jeder Zeit zu Staub verfallen, die Software stürzt nur ab. Hier ist nur die Arbeitszeit der Leute für die Sau, aber kein immenser Materialschaden und man muss nicht alles nocheinmal aufbauen. Bei der Software muss man "nur" eine fehlerhafte Code-Zeile austauschen. In der Chemie kann eine Reaktion 1000 mal problemlos funktionieren, beim 1001 Mal findet man die Anlage unter einer anderen Adresse wieder, im bestens Fall entsteht nicht die gewünschte Substanz sondern nur ein schwarzer Schlamm.
zum Glück laufen Flugzeuge nicht mit Windows und stürzen nur äußerst selten ab - ach, bin ich dumm, ich vergaß, ein Flugzeug ist ja nicht komplex und bewegt sich im Gegensatz zu Windows an den Grenzen der Physik... :rolleyes:
Ich hoffe du kannst noch gut schlafen wenn ich dir jetzt sage das in einem sehr großen Teil der deutschen Industrieanlagen Windows die Basis für die Leitwartensoftware ist. Ein Fehler in Windows oder der Leitwartensoftware kann da sehr schnell ebenso zu Verlusten in Millionenhöhe und durchaus auch zu Materialschäden an der Anlage selbst führen.
So gibt es auch noch andere Beispiele wo eine Fehlerhafte Software massive wirtschaftliche Schäden verursachen kann. Stell dir vor in der Software für die New Yorker Börse (Läuft auch mit Windows und dem Microsoft SQL Server) ist ein Fehler der Aktienpackte unauffindbar verschwinden lässt.
Ich kann neben diesem dramatischen theoretischen Beispiel auch Dinge aufführen die nur aufgrund glücklicher Umstände nicht zu schweren Personenschäden geführt haben.
Auch die Steuersoftware für Flugzeuge ist anfällig obwohl sie im Vergleich zu einem Betriebssystem für PCs wirklich geradezu simpel ist. Allerdings werden dort trotzdem ganz besondere Maßnahmen bezüglich der Redundanz getroffen um zu verhindern das bei einem Softwarefehler das Flugzeug nicht mehr steuerbar ist. Gerade bei Airbus die ja Fly by Wire haben ist das sehr wichtig. Die Unterhaltungselektronik an Bord gehört übrigens nicht zu diesem Sicherheitskonzept und dementsprechend habe ich sie schon abstürzen gesehen. Aber selbst diese Systeme sind weniger gefährdet als ein Windows da sie sowohl was die Hardware wie auch die komplette Installation angeht fest definiert sind. Ein Luxus den sich ein PC Betriebssystem nicht leisten kann.
Ich will dir nicht die Kompetenz absprechen ein 1 Mann Projekt zu überschauen aber solange du nicht mindestens in einem Team gearbeitet hast kannst du die Komplexität eines Projekts das Teams von Teams erfordert nicht einschätzen. Windows Vista ist per dato das größte Softwareprojekt aller Zeiten. Setzt man dazu die von IBM einmal angefertigte Studie zum Thema Fehler in Softwaresystemen in Relation dürfte es eigentlich aufgrund seiner Größe überhaupt nicht funktionieren. Offensichtlich hat Microsoft aber einen Weg gefunden die von IBM prognostizierte exponentielle Fehlerkurve nach unten zu durchbrechen.
MS ist quasi Monopolist, man hat kaum ne andere Wahl. Gut Boeing und Airbus sind auch quasi Monopolisten, doch wenn denen nachgewiesen wird, dass wegen ("absichtlichen") Pfusch 200 Menschen gestorben sind, dann kostet die das viel viel Geld - aber ich hab ja mein eigenes Anforderungsprofil. Dir würde es ja nix ausmachen wenn Du oder nahe Verwandte wegen eines Flugzeug Crash draufgehen und Entschädigung würdest Du auch nicht verlangen.
In dem Fall werden die Airlines eher wegen mangelnder Wartung belangt. Es gab ja schon zig technische Probleme in den älteren Boings, wo z.B. irgendwelche Stromkreise das Kersoin zum explodieren gebracht haben usw. Abstürze mit vielen Toten wegen solchen Problemen gab's alles schon vielfach.
Sorry, aber in Leitwarten kritischer Anlagen gibts kein Windows. Das weiss ich aus realer Besichtigung. Wäre auch nicht vertretbar.
Speziell bei NV4xx gegen R4xx gab es allerdings einige hier im Forum, welche trotz besseren Wissen behaupteten, dass SM3.0 die Überlebensfrage schlecht hin einer Graka wäre. Technische Einwände, das wäre bei Benutzen dieses Pfades alles zu langsam, wurden in der Tat abgeschmettert. Eine neutrale Kaufempfehlung war das bestimmt nicht, da stand interesse dahinter, kann ja auch nur Fortschrittswille gewesen sein. Wie man allerdings sieht, ist SM2 durch Intel nun Standard und nicht wegen ATI oder NVidia. Wie man sieht, wird einer der wichtigesten Anbieter meist gar nicht berücksichtigt. Man sollte die Schauklappe ablegen und den Gesamtmarkt betrachten.
Ausserdem, wer die Specs von 3.0 und 2.0 kennt und mit ein wenig Phantasie erkennt, was und wie programmiert werden muss, damit der Unterschied sichtbar wird, der wusste, dass 3.0 auf der damaligen Hardware nicht sauber performen würde. Bleibt nur Technikverliebtheit um den Programmierern eine Hardwarebasis zu schaffen.
Was ich mir wünschen würde, wären Artikel, in welchen die Technik der Allgemeinheit dargestellt wird und die Möglichkeiten ausgeleuchtet werden. Dann dieses mit vorhandener Hardware gegenüberstellen.
MikeB
2007-01-28, 13:18:29
Obwohl sich - zumindest für mich - die Zukunftssicherheit des NV40 bewahrheitet hat. Ich verwende auf meiner GeForce Go 6600 SM3 durchaus exzessiv; mit einer R300-basierten SM2.0b-Karte hätte ich weniger Freude.
Da hast du absolut Recht, für Software-Entwickler war die Erscheinung des NV40 ein Schätzchen, endlich mit SM3 in Hardware experementieren...
Sorry, aber in Leitwarten kritischer Anlagen gibts kein Windows. Das weiss ich aus realer Besichtigung. Wäre auch nicht vertretbar.
Weil du mal irgend etwas besichtigt hast, schließt das jetzt alles andere aus? :|
Was soll dieser Vergleich? Software-Herstellung unterscheidet sich in so vielen Aspekten grundlegend von Maschinenbau und Chemie, da gewinnt man mit Analogien genau gar nichts.
ein Teil des Unterschied scheint wohl zu sein, halbfertige Produkte ungestraft beim Kunden abliefern zu können ;)
Ich hoffe du kannst noch gut schlafen wenn ich dir jetzt sage das in einem sehr großen Teil der deutschen Industrieanlagen Windows die Basis für die Leitwartensoftware ist. Ein Fehler in Windows oder der Leitwartensoftware kann da sehr schnell ebenso zu Verlusten in Millionenhöhe und durchaus auch zu Materialschäden an der Anlage selbst führen.
nein Demirug, so naiv bin ich dann doch nicht zu denken der OP-Roboter der mir ein neues Herz einbaut würde _nicht_ mit Windows laufen ;)
wie Du schon selbst sagst, die Leitsoftware! Auf so einem Steuerrechner läuft meist nur diese eine Software und sonst nix, kein Videorendern oder Emule oder MP3 hören. Die Leitsoftware nutzt nur einen geringen Teil der Windows-Funktionen. Wenn nun die Leitsoftware "fehlerfrei" ist und die genutzten Windows-Funktionen ebenfalls und nebenher niemand auf diesem Rechner surft, dann wird das Teil vermutlich jahrelang durchlaufen.
Sind nun die Windows-Funktionen fehlerhaft, so wird man das vermutlich merken wenn die Leitsoftware (hoffentlich) auf Herz und Nieren durchgetestet wird.
So gibt es auch noch andere Beispiele wo eine Fehlerhafte Software massive wirtschaftliche Schäden verursachen kann. Stell dir vor in der Software für die New Yorker Börse (Läuft auch mit Windows und dem Microsoft SQL Server) ist ein Fehler der Aktienpackte unauffindbar verschwinden lässt.
im Gegensatz zu einem Flugzeugabsturz wo man feststellen kann ob ein Bauteil von Airbus zu schwach ausgelegt wurde oder von Lufthansa nicht gewartet wurde. Bei einen "Software-Schaden" wird es wohl schwierig werden herauszufinden ob es nun an der Software oder am Betriebsystem lag. Dafür müssten z.B. die Ermittler ja vollen Zugriff auf den Code des OS und der Software haben um dann auf Fehlersuche gehen zu können.
Auch die Steuersoftware für Flugzeuge ist anfällig obwohl sie im Vergleich zu einem Betriebssystem für PCs wirklich geradezu simpel ist.
Simpel ist immer relativ. Damals ist die neue Ariane-Rakete ja auch nur abgesürzt weil eine 16 Bit Variable übergelaufen ist. Noch einfacher ist ein Totalschaden wohl nicht mehr zu produzieren, könnte auch in einem Flugzeug passieren.
In dem Fall werden die Airlines eher wegen mangelnder Wartung belangt. Es gab ja schon zig technische Probleme in den älteren Boings, wo z.B. irgendwelche Stromkreise das Kersoin zum explodieren gebracht haben usw. Abstürze mit vielen Toten wegen solchen Problemen gab's alles schon vielfach.
es hat schon "Designfehler" bei Flugzeugen gegeben
Ich bin in der Branche tätig. Ich kenne auch die Sicherheitstechnik der größten gängigen Konzerne.
Demirug
2007-01-28, 13:36:11
Sorry, aber in Leitwarten kritischer Anlagen gibts kein Windows. Das weiss ich aus realer Besichtigung. Wäre auch nicht vertretbar.
Ab wann ist eine Anlage als kritisch anzusehen.
-Arzneimittel?
-Produktion von leicht brennbaren Stoffen?
-Produktion von als Sprengstoff geeigneter Mittel?
-Atomkraftwerke?
Wie man allerdings sieht, ist SM2 durch Intel nun Standard und nicht wegen ATI oder NVidia. Wie man sieht, wird einer der wichtigesten Anbieter meist gar nicht berücksichtigt. Man sollte die Schauklappe ablegen und den Gesamtmarkt betrachten.
Bei dem Großteil der Spielen für dich sich die meisten hier Interessieren spielt Intel keine Rolle mehr. Die SM2 IGPs haben die Entwicklung zwar noch etwas begünstigt werden allerdings von der Mehrzahl der Studios nicht mehr ernst genommen. Das Gamedesign ist einfach nicht mehr bereit die daraus entstehenden Limitierungen zu akzeptieren. Die Schere zwischen Highend und den IGPS ist einfach zu groß geworden. Wenn man böse ist könnte man sagen dass Microsofts Entscheidung für Vista SM2 zu fordern mehr Einfluss hatte.
MikeB
2007-01-28, 13:38:46
Als 2.X-Shader mit 2_B-Profil dürften die Shader auf der 6800 nicht schneller sein. Die Zahl der Instruktionsslot von 2_B und 3_0 ist gleich. Insofern frage ich mich, warum du die 6800-er Shaderperformance auf SM3 beziehst. Man kann auch eine 9700 mit SM2.0 so auslasten, dass die Performane unbrauchbar ist. Trotzdem ist die 9700 für SM2 gut geeignet.
NV40 und G70 benutzen beim Texturzugriff die erste ALU, um die Perpektivkorrektur abzuschließen (sie brauchen das MUL.) Beim G70 kenne ich die Readport-Limits nicht, NV40 hat da durchaus einige Flaschenhälse, die bei der X1600 durch Threading versteckt werden können.
Was berechnen deine Shader? Geht es zum Beispiel um Normalisierung mit FP16-Genauigkeit, dürfte der NV40 seine Stärken ausspielen (0 Takte auf NV40, 3 Takte auf X1600.)
Der NV40 war der erste SM3-Chip. Dass spätere Mittelklasse-Karten schneller sind (so hat selbst meine 7600 GT mehr ALU-Leistung als eine 6800 GT) verwundert doch nicht. Die ALU-Performance vom NV40 war zwar seinerzeit beeindruckend, aber ist heutiger Sicht natürlich ziemlich mager. Nutzt man die bei SM2.0 möglichen 16 Texturen, die man auch noch jeweils 2x sampelt, bekäme man auch die 9700 mit SM2 in den Keller – trotzdem ist die 9700 keine schlechte SM2-Karte.
Okay, da hast du mich erwischt... Ich hatte primär shaderlänge/komplexität mit SM3 gleichgestellt. :rolleyes:
SM3 hat auch ohne DB und lange Shader Vorteile.
Der Vergleich mit 16 Texturen auf r300 hinkt etwas, schliesslich geht es um Shaderperformance, nicht TMUs/Speicher.
Ich hatte auf der 9800pro shader mit maximaler Länge am laufen, sie hat sich nicht sonderlich beklagt.
Normalisierungen sind in den Shadern natürlich auch vorhanden, aber nicht exzessiv. Mit mehr _pp lässt sich da bestimmt noch was rausholen.
Michael
Demirug
2007-01-28, 13:45:01
nein Demirug, so naiv bin ich dann doch nicht zu denken der OP-Roboter der mir ein neues Herz einbaut würde _nicht_ mit Windows laufen ;)
Da wäre ich mir nicht so sicher. Die Embeded Versionen von Windows erfreuen sich auch in der Medizintechnik zunehmender Beliebtheit. Man sieht diesen Kisten nun mal nicht immer an was drin steckt.
wie Du schon selbst sagst, die Leitsoftware! Auf so einem Steuerrechner läuft meist nur diese eine Software und sonst nix, kein Videorendern oder Emule oder MP3 hören. Die Leitsoftware nutzt nur einen geringen Teil der Windows-Funktionen. Wenn nun die Leitsoftware "fehlerfrei" ist und die genutzten Windows-Funktionen ebenfalls und nebenher niemand auf diesem Rechner surft, dann wird das Teil vermutlich jahrelang durchlaufen.
Oder auch nicht. Ich sage nur Firmennetzwerke und Windows Sicherheitslöcher.
Simpel ist immer relativ. Damals ist die neue Ariane-Rakete ja auch nur abgesürzt weil eine 16 Bit Variable übergelaufen ist. Noch einfacher ist ein Totalschaden wohl nicht mehr zu produzieren, könnte auch in einem Flugzeug passieren.
In dieser Form sehr unwahrscheinlich. Aufgrund der Redundanz müssten zwei Teams den genau gleichen Fehler gemacht haben. Bei einer Rakete geht es um Gewicht da spart man natürlich an der Redundanz.
tokugawa
2007-01-28, 13:58:57
Genau so wurde es vonden einschlägig bekannten Experten dargestellt. Wer da was gegen sagt wurde und wird dann gnadenlos mit technischen Spitzfindigkeiten niedergeschrien.
Das ist ja mal der Knüller. War alles nicht so gemeint wie?
Deine Wahrnehmungsfähigkeit ist getrübt, wenn du das wirklich so interpretiert hast.
Ich hab auch jetzt nicht geschrieben "war alles nicht so gemeint" (wo liest du das raus? Schon das allein beweist dass du anscheinend gern zwischen den Zeilen liest wo nichts zu lesen ist).
Also: angesichts dessen dass du jetzt auch schon Dinge rausliest die nicht dastehen täte es mich nicht wundern wenn die "SM3-Empfehlung" damals ebenfalls einfach nur deiner Wahrnehmung entsprang.
Mal abgesehen davon dass du scheinbar nicht lesen kannst :) Schreib erst mal meinen Nick richtig.
Du meinst sicher R4x0 bzw RV4x0, oder?
Ist für mich gleichwertig mit "R300-Klasse".
Wobei dich die Performance sicher nicht soo sehr interessiert wie z.B. mich...
Da wage ich zu widersprechen. Aber mir ist eben auch das wichtig was ich auf dem Bildschirm zu sehen kriege. Schnelle Pixel sind nicht alles, ich lege viel Wert auf jeden einzelnen Pixel (und dessen Komplexität der Berechnung).
Mir geht's also im Prinzip um beides, ich gewichte die Performance eben genauso wichtig. Und wenn ein Chip beides hat, so bin ich zufrieden. Und wenn der Chip der beides hat auch geringfügig langsamer ist als die Konkurrenz die nur Performance hat, dann ist mir auch der der einen guten Kompromiss hat lieber.
Kritische Anwendung sind überall dann anzutreffen, wenns um Ausfallsicherheit und deren Bewertbarkeit geht. Sprich, wenns durch Fehlfunktionen oder ähnlichem zu Personen- oder Sachschäden, als auch einfach finanziellen Schäden führt. In diesem Bereichen muss Software bewertet werden (SIL). Wie soll das angestellt werden, wenn die Software nicht offen gelegt wird? Ich hab in diesem Bereich jedenfalls noch nie was anderes gesehen, als offene Software und werde es auch nicht sehen. Das ergeben wohl die Anforderungen.
Wie soll das angestellt werden, wenn die Software nicht offen gelegt wird?
Welche offenen Systeme in kritischen Umgebungen kennst du denn stattdessen?
Tigerchen
2007-01-28, 15:52:37
Deine Wahrnehmungsfähigkeit ist getrübt, wenn du das wirklich so interpretiert hast.
Ich hab auch jetzt nicht geschrieben "war alles nicht so gemeint" (wo liest du das raus? Schon das allein beweist dass du anscheinend gern zwischen den Zeilen liest wo nichts zu lesen ist).
Also: angesichts dessen dass du jetzt auch schon Dinge rausliest die nicht dastehen täte es mich nicht wundern wenn die "SM3-Empfehlung" damals ebenfalls einfach nur deiner Wahrnehmung entsprang.
Mal abgesehen davon dass du scheinbar nicht lesen kannst :) Schreib erst mal meinen Nick richtig.
Wenn du dir den Thread mal durchliest wirst du feststellen daß der eine oder andere durchaus zu ähnlichen Schlüssen gelangt ist. Wiw schrieb doch einer? "Technikverliebt". Das trifft es wohl.
1. UT2007 wird man mit Sicherheit auch auf einer GeForce 6800 Ultra einigermaßen flüssig laufen sehen. Nicht auf maximalen Details, aber wohl schon in einer ähnlichen Qualität wie damals gezeigtJa wird man. Nur was nützt es? Kommt es bei dieser Art von Spielen nicht auf die fps? Wie nennt man dann seinen Charakter? Jesus?
Da wäre ich mir nicht so sicher. Die Embeded Versionen von Windows erfreuen sich auch in der Medizintechnik zunehmender BeliebtheitNur bei der Visualisierung.
Nur bei der Visualisierung.
Beispiele, Fakten, Quellen?
Okay, da hast du mich erwischt... Ich hatte primär shaderlänge/komplexität mit SM3 gleichgestellt. :rolleyes:
SM3 hat auch ohne DB und lange Shader Vorteile.
Der Vergleich mit 16 Texturen auf r300 hinkt etwas, schliesslich geht es um Shaderperformance, nicht TMUs/Speicher.
Ich hatte auf der 9800pro shader mit maximaler Länge am laufen, sie hat sich nicht sonderlich beklagt.Ok, dann nehme ich als Beispiel 2.X mit 2_B-Profil der X800 – bei ein paar hundert ALU-Anweisungen pro Pixel dürfte die Karte auch keine vernünftige Performance mehr liefern.
Unterschätze ich nicht, mein Ein-Mann-17000-Zeilen-Projekt musste ich auch immer wieder umbauen, weil es "zu gross" i.e. unübersichtlich bzw. komplex wurde. Von einem Milliarden-Weltunternehmen erwarte ich etwas mehr Planung bei der Erstellung einer Software. Oder fing Vista auch mit einem 100 Zeilen Konvertierungs-Tool an, aus dem dann unkontroliert ohne jeglichen Sinn und Verstand eine grosse Anwendung wurde? Ich würde mal sagen, Vista war von Anfang an als Betriebsystem geplant.Ein Einmannprojekt und Software wie Windows (XP, Vista) oder andere große Mehrmannprojekte sind von der Komplexität her überhaupt nicht zu vergleichen. Auch auf den Rest deines Postings wurde schon von anderen genug gesasgt.
[COLOR="#000099"]
Deine Ahnung von der Materie ist sicher sehr groß. Sehr nett das du daraus ableitest nur mit einem derartigen Background dürfe man in einem öffentlichen Forum mitdiskutieren. Ich leite daraus ab, dass man ein gewisses Interesse mitbringen sollte. Beispielsweise ist Lolman gerade in einer Phase, wo sich ein Missverständnis nach dem anderen zeigt. Aber he – in so einer Phase war ich auch mal (und bin auch noch, nur auf anderem Level.) Bei dir habe ich nicht mal das Gefühl, dass du Sachen missverstehst, sondern eher, dass du gar nichts verstehst. So geht das nun schon seit Jahren.
[COLOR="#000099"] Immerhin gestehst du hier mal ein daß am Ende was anderes raus kommen kann als die technischen Daten vermuten lassen. Damit solltest du dir ruhig mal die Frage stellen ob es so sinnvoll ist immer nur auf die technischen Daten zu pochen.
In welcher Farbe ich poste hat dich gar nicht zu interessieren. Immerhin bist du für solchen Spam schon mal verwarnt worden. Scheint dich aber nicht zu interessieren.Natürlich ist es auch eine Frage, wie man sich im Forum gibt. Wer ständig mit blauer Schrift aus der Rolle fällt, muss damit leben, dass ihm das vorgehalten wird. Mit dem Argument "Wenn das alle machen würden sähe er hier aus wie Kraut und Rüben." Du scheinst nicht dich nur gegen jegliche Wissensaufnahme (z. B. was HDR-Rendering betrifft) zu wehren, sondern auch auszublenden, dass dein Auftritt mit farbiger Schrift eine permanente Zumutung ist. Du wirkst damit aufmerksamkeitsheischend. So als ob du ein Posting geschrieben hättest, was keiner der mitdiskutierenden übersehen sollte.
Es ist schon sinnvoll, die technischen Daten zu kennen und bewerten zu können. Kommt man zu falschen Prognosen, hat man entweder die technischen Daten nicht gut genug gekannt und/oder nicht gut genug bewerten können. Nur weil der Pfad der Wissenvermehrung lang, beschwerlich, und voller (zwischenzeitlicher) Irrtümer ist, macht dies den Wissenserwerb nicht überflüssig.
Wenn ich mich im Forum (oder Artikeln) irre – was natürlich vorkommt – dann, weil ich wieder mal was missverstanden habe. Immer noch besser als Unsinn zu schreiben weil man gar nichts verstanden hat.
[COLOR="#000099"]
Die Konkurrenz hatte das ja. Was ich gesehen habe ist das die kaum fertig wurden mit dem Chip und daß der schwer zu kühlen war. Der Fönlüfter ist ja legendär. Es schien mir schon so daß da viel Geld verbraten wurde ohne Nutzen für die Mehrzahl der Kunden.
Von außen, als normaler Mensch, scheint es da eben so daß Kosten und Nutzen bei ATI besser waren. Nicht für jeden können Features und feinste Details die man nur am Rande wahrnimmt im Mittelpunkt des Interesses stehen. Und viele, viele zufriedene R300 Nutzer können nicht alle zu blöd sein die Wahrheit zu erkennen. Als "normaler" Mensch? Ist dein Anforderungsprofil jetzt das "normale"? Der normale Spieler mit durchschnittlichem Anforderungsprofil war mit der 9700 besser bedient als mit der 5800, aber da zählt auch das 256-Bit-SI mit rein, die bessere TMU-Auslastung und so weiter.
Soweit ich weiß, war die 5800 ganz vernünftig gekühlt, nur die Ultra sehr laut.
Speziell bei NV4xx gegen R4xx gab es allerdings einige hier im Forum, welche trotz besseren Wissen behaupteten, dass SM3.0 die Überlebensfrage schlecht hin einer Graka wäre. Technische Einwände, das wäre bei Benutzen dieses Pfades alles zu langsam, wurden in der Tat abgeschmettert. Eine neutrale Kaufempfehlung war das bestimmt nicht, da stand interesse dahinter, kann ja auch nur Fortschrittswille gewesen sein. Hast du da Links zu entsprechenden Postings oder schreibst du aus dem Gedächtnis?
Ausserdem, wer die Specs von 3.0 und 2.0 kennt und mit ein wenig Phantasie erkennt, was und wie programmiert werden muss, damit der Unterschied sichtbar wird, der wusste, dass 3.0 auf der damaligen Hardware nicht sauber performen würde. Bleibt nur Technikverliebtheit um den Programmierern eine Hardwarebasis zu schaffen. Ich würde es so formulieren: Wer die 2.0-er und 3.0-er Specs kennt und ein wenig Ahnung hat, der wusste, dass man mit der SM3-Implementation der damaligen Hardware auch viele "2.0-Niveau-Effekte" beschleunigen kann. Meine Folgerung: SM3 auf dem NV40 ist gut für den NV40. Die Begrenzung auf SM2 auf dem R420 ist nicht gut für den R420. Natürlich sind Shaderfeatures bei weitem nicht das einzige Merkmal einer Graka, für die allerwenigstens dürfte es das wichtigste Merkmal sein. Und was ATI auf die Schnelle tun konnte, den maximalen Instruction Count anzulegen, hat ATI auch getan, wodurch Passreduktion im Vergleich zu 2.0-Lösungen möglich wurde.
Sorry, aber in Leitwarten kritischer Anlagen gibts kein Windows. Das weiss ich aus realer Besichtigung. Wäre auch nicht vertretbar.Hast du alle existenten Leitwarten besichtigt? Aber worüber reden wir? Um Spezialeinsätze oder um ein allgemeines OS welches sich an Privatkunden wie an viele Branchen der Wirtschaft richtet? Da gibt es doch ganz unterschiedliche Anforderungsprofile.
Wie man allerdings sieht, ist SM2 durch Intel nun Standard und nicht wegen ATI oder NVidia. Wie man sieht, wird einer der wichtigesten Anbieter meist gar nicht berücksichtigt. Man sollte die Schauklappe ablegen und den Gesamtmarkt betrachten. Intels SM2-Lösung ist für DX9-Spiele nur begrenzt brauchbar (ich glaube, da gibts nicht mal einen Hardware-Vertexshader) und zählt insofern nicht unbedingt mit. Immerhin wird à la FX 5200 die installierte DX9-Basis vergrößert. Ich würde aber nicht sagen, dass Intel jetzt einen Standard gesetzt hätte der dazu führte, dass für DX9 (fast) alle nur noch SM2 betrachten. Die Entwicklung zeigt, dass immer mehr SM3 genutzt wird.
Bezüglich der Empfehlungen in diesem Forum vor wahrscheinlich über 2 Jahren: nein, kann ich dir nicht nennen, keine Lust 100 Seiten und mehr durchzusuchen. Masochismus kennt Grenzen ;).
Zu Leitwarten: natürlich habe ich nicht alle Leitwarten dieser Welt besucht, wie auch. Was ich nur sagen kann ist, dass die, die ich besucht habe, kein Windows laufen hatten. Die Argumente dagegen sind jedenfalls einleuchtend. Aber dass heisst nicht, dass das irgend jemand doch tun würde.
Demirug
2007-01-30, 20:27:15
Zu Leitwarten: natürlich habe ich nicht alle Leitwarten dieser Welt besucht, wie auch. Was ich nur sagen kann ist, dass die, die ich besucht habe, kein Windows laufen hatten. Die Argumente dagegen sind jedenfalls einleuchtend. Aber dass heisst nicht, dass das irgend jemand doch tun würde.
Das tun inzwischen recht viele weil die aktuellen Leitsysteme der großen Hersteller (Siemens, ABB, Honeywell, …) durchweg Windows auf der Leitebene einsetzten. Die darunter liegende Steuerebene (PNKs) nutz weiterhin proprietäre Systeme. Das nutzt allerdings nur begrenzt was wenn man bei einem Ausfall der Leitebene plötzlich einen Blindflug machen müsste. Vor allem da tendenziell immer mehr Funktionen in die Leitebene verlagert werden.
Ja das Siemens auf Windows steht, hab ich schon mehrfach mitbekommen, auch von Mitarbeitern / Entwicklern bei Siemens selbst. Die sind auch immer ganz angetan vom Support. Einblick, was der Code überall macht, ist aber auch bei denen nicht vorhanden.
Aber in Sicherheitskritischen Anlagenteilen darf Windows max. eine mögliche Ebene sein. Kritische Funktionen dürfen / sollten nicht davon abhängen.
Demirug
2007-01-30, 21:07:07
Aber in Sicherheitskritischen Anlagenteilen darf Windows max. eine mögliche Ebene sein. Kritische Funktionen dürfen / sollten nicht davon abhängen.
Tun sie aber manchmal. Wenn dann auch meist auf eine so undurchsichtige Art und Weise das der TÜV das gar nicht erkennen kann. Aber man braucht überhaupt kein Windows um eine Anlage in die Luft zu jagen. Das haben wir auch schon mal fast mit guter alter Leittechnik aus dem 80er geschafft.
Letzten Endes war jedoch jedes Problem das ich in den letzten 10 Jahren in Verbindung mit Windowssysteme und Leittechnik erlebt habe nicht auf Windows sondern auf Fehler in der Leittechniksoftware oder der entsprechend Anwendersoftware zurück zu führen.
Selbst das Windows 95 (Kein Schreibfehler) mit dem wir damals das Kraftwerk gemacht haben hat nie Ärger gemacht.
Du redest jetzt aber nicht von nem AKW, oder? :|
Demirug
2007-01-30, 21:26:33
Du redest jetzt aber nicht von nem AKW, oder? :|
Gas und Öl für Strom und Fernwärme. Wobei wir auch Anlagen gemacht haben die wesentlich Explosionsgefährdeter waren.
Für AKWs sind die Genehmigungsverfahren ja dermaßen langwierig das wir gar kein Windows 95 mehr bekommen hätten wenn es endlich durch die Instanzen gelaufen wäre. Aber die Genehmigungspolitik dafür ist sowieso etwas schizophren. Du darfst nämlich nur exakt das einbauen was genehmigt wurde selbst wenn es zwischenzeitlich nachweißbar zuverlässigere aber ansonsten identische Komponenten gibt.
Sag mal, arbeitest du gerade nicht in einer Spieleschmiede und entwirfst ne zukünftige Engine? Vorher hast du Kraftwerke betreut? Also dass du nicht flexibel wärest kann man dir wohl kaum vorwerfen, Respekt :D.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.