Archiv verlassen und diese Seite im Standarddesign anzeigen : Neue Nvidia Treiber ??? (20.80)
Skinner
2001-08-13, 10:22:09
Schaut euch mal diese Seite an, bzw den Artikel dort ;)
http://www.anandtech.com/video/showdoc.html?i=1516
Wenn man es glauben kann, dann sag ich nur RESPEKT Nvidia für diese hervorragenden Treiber (Haben will :D)!
gruss
Skinner
Wheeew! Irgendwie war ich immer der Ansicht das sich da noch was rausholen lässt :D
Ich hoffe nur, das ganze ist
(a) kein Fake
(b) keine Fehlinformation
*FROI* ;)
Nachtrag: Scheint echt zu stimmen die Sache ... ausserdem gibt's auch auf GF2-MX Karten auch noch nen saftigen Schub voran. Wir GF3-User können uns zumindest in den höhren Auflösungen auf 15 - 30 % Mehrleistung freuen ... und die schreiben ja auch das die Optimierungen noch nicht "final" mit dem neuen Detonator sind ;)
Ceiser Söze
2001-08-13, 11:38:08
Mal was anderes: Wo sind eigentlich die regelmässigen Treiberupdates von nVidia geblieben. Zu TNT2-Zeiten gab es praktisch monatlich neue offizielle(!!) Treiber, jetzt scheint man den 6-monatigen Produktionszyklus jedoch auch in der Treiberabteilung übernommen zu haben.
Oder veröffentlicht nVidia neuerdings nur noch Treiber, wenn sie auch wirklich müssen?
Detonator 3: Release im Sommer 2000, 10-20% mehr Geschwindigkeit als zuvor. Hmmm, war das nicht praktisch gleichzeitig zum Radeon-Launch?
v12.41: Release im Frühling 2001. Zufälligerweise praktisch zur gleichen Zeit, als der Kyro2 in die Läden kam...
Detonator 4: Release in den nächsten 1-2 Wochen (vermute ich mal). Hmmmm, R200-Launch?
Nicht, das diese Strategie nicht clever wäre (das ist sie nämlich), aber leider geht diese PR-Aktion wieder einmal auf Kosten des Kundensupports. Alle 4-6 Wochen ein offizielles Treiberupdate (Leaks werden von mir konsequent ignoriert) wäre mir persönlich lieber...
Aber vielleicht bin ich auch nur paranoid ;)
Nein, Du hast Recht :) Mir ist die Politik sicher auch aufgefallen, aber da ich an der Leistung meiner GF3 bisher nix zu meckern hatte ... was solls ???
Bin halt froh das andere Konkurenzprodukte entwickeln - ansonsten würde sich Nvidia nämlich zurücklehnen und keine neuen Treiber basteln, oder nich? ;) (Wenn die Treiber nicht schon längst bei denen in der Schublade gelegen - und auf den Release der ATI Karte gewartet haben.
Originally posted by Ceiser Söze
Mal was anderes: Wo sind eigentlich die regelmässigen Treiberupdates von nVidia geblieben. Zu TNT2-Zeiten gab es praktisch monatlich neue offizielle(!!) Treiber, jetzt scheint man den 6-monatigen Produktionszyklus jedoch auch in der Treiberabteilung übernommen zu haben.
Oder veröffentlicht nVidia neuerdings nur noch Treiber, wenn sie auch wirklich müssen?
Detonator 3: Release im Sommer 2000, 10-20% mehr Geschwindigkeit als zuvor. Hmmm, war das nicht praktisch gleichzeitig zum Radeon-Launch?
v12.41: Release im Frühling 2001. Zufälligerweise praktisch zur gleichen Zeit, als der Kyro2 in die Läden kam...
Detonator 4: Release in den nächsten 1-2 Wochen (vermute ich mal). Hmmmm, R200-Launch?
Nicht, das diese Strategie nicht clever wäre (das ist sie nämlich), aber leider geht diese PR-Aktion wieder einmal auf Kosten des Kundensupports. Alle 4-6 Wochen ein offizielles Treiberupdate (Leaks werden von mir konsequent ignoriert) wäre mir persönlich lieber...
Aber vielleicht bin ich auch nur paranoid ;)
Um's kurz zu machen.
Nach wie vor sind AUSSCHLIESSLICH die KARTENHERSTELLER fuer Treibersupport zustaendig. NVidia braucht eigentlich GAR KEINE Treiber zu veroeffentlichen.
Ceiser Söze
2001-08-13, 13:23:38
Originally posted by ow
Nach wie vor sind AUSSCHLIESSLICH die KARTENHERSTELLER fuer Treibersupport zustaendig. NVidia braucht eigentlich GAR KEINE Treiber zu veroeffentlichen.
Aber nVidia entwickelt die Treiber - und die Kartenhersteller bringen gewöhnlich nur dann neue Treiber raus, wenn nVidia wieder einmal WHQL-geprüfte veröffentlicht.
Ich glaube jedenfalls nicht, dass nVidia wie letztes Jahr ATI die Show stehlen kann (Radeon war vor dem Treiberrelase etwas schneller als die GTS, danach wieder langsamer - DAS war der Hammer!). Denn auch mit neuen Treibern unterstützt die GF3 kein TruForm und kein adaptives FSAA. Beim letzten Mal hatte ATI "nur" das Enviromental BumpMapping der Konkurrenz voraus - dieses Mal ist es mehr.
Ich frage mich zudem, wann ATI endlich mal auch offiziell mit den 3D-Texutren und dem anisotropischen Filtering herausrückt. Theoretisch unterstützt die GF3 diese Features ja, aber ohne Tweaking oder Beta-Treiber kann man sie ja nicht aktivieren. Naja, man braucht halt für die GF3 Ultra noch ein Paar "neue" Features zum hypen ;)
Unregistered
2001-08-13, 13:53:00
Originally posted by Ceiser Söze
Aber nVidia entwickelt die Treiber - und die Kartenhersteller bringen gewöhnlich nur dann neue Treiber raus, wenn nVidia wieder einmal WHQL-geprüfte veröffentlicht.
Nein. Von Hercules zB. gab es schon 7.52 Det. als NV noch den 6.50 im Angebot hatte.
Uebrigens lassen die meisten Kartenhersteller ihre Treiber WHQL zertifizieren, es gibt weit mehr WHQL Treiber als es offizielle Referenztreiber von NV gibt.
-ow-
Originally posted by Ceiser Söze
Aber nVidia entwickelt die Treiber - und die Kartenhersteller bringen gewöhnlich nur dann neue Treiber raus, wenn nVidia wieder einmal WHQL-geprüfte veröffentlicht.
Ich glaube jedenfalls nicht, dass nVidia wie letztes Jahr ATI die Show stehlen kann (Radeon war vor dem Treiberrelase etwas schneller als die GTS, danach wieder langsamer - DAS war der Hammer!). Denn auch mit neuen Treibern unterstützt die GF3 kein TruForm und kein adaptives FSAA. Beim letzten Mal hatte ATI "nur" das Enviromental BumpMapping der Konkurrenz voraus - dieses Mal ist es mehr.
Ich frage mich zudem, wann ATI endlich mal auch offiziell mit den 3D-Texutren und dem anisotropischen Filtering herausrückt. Theoretisch unterstützt die GF3 diese Features ja, aber ohne Tweaking oder Beta-Treiber kann man sie ja nicht aktivieren. Naja, man braucht halt für die GF3 Ultra noch ein Paar "neue" Features zum hypen ;)
Wenn die GeForce3 Features praktisch noch längere Zeit keine Anwendung in modernen Games finden, finden TruForm und Co. erst Recht keine. Du weißt ja wie die Spiele-Hersteller sich auf Nvidia stürzen. Wenn Features implementiert werden, dann als allererstes mal die, die Nvidia eingebracht hat - seien sie auch noch so unnütz.
Ceiser Söze
2001-08-13, 18:38:53
Originally posted by Kai
Wenn die GeForce3 Features praktisch noch längere Zeit keine Anwendung in modernen Games finden, finden TruForm und Co. erst Recht keine. Du weißt ja wie die Spiele-Hersteller sich auf Nvidia stürzen. Wenn Features implementiert werden, dann als allererstes mal die, die Nvidia eingebracht hat - seien sie auch noch so unnütz.
Falsch. Features werden integriert, wenn sie etwas bringen und wenig Mehraufwand benötigen. Enviromental BumpMapping ist z.B. definitiv kein von nVidia gehyptes Feature: 1999 in der G400 von Matrox, 2000 im Radeon von ATI und erst 2001 mit grosser Verspätung auch in einem nVidia-Chip. Und trotzdem gibt es bereits über 40 Spiele am Markt, die das Feature unterstützen. Zudem kam ein Grossteil dieser Titel kam bereits vor dem Radeon-Relase in die Läden - obwohl die G400 wohl in den wenigsten Rechnern steckte...
Und wieso? Weil es eben leicht und ohne grossen Zeitaufwand zu implementieren ist. Gleiches gilt für TruForm: Wenn ein Hobby-Programmierer(!) an einem Wochenende(!!) TruForm-Unterstützung in GL-Quake, also nicht selber programmierter Code(!!!), implementieren kann, sollte das auch für professionelle Entwickler kaum ein Problem sein. Ich halte es daher für mehr als nur wahrscheinlich, dass wir in der näcshten Zeit einige Spiele mit TruForm-Unterstützung sehen werden. Im Gegenstatz zu nVidias T&L-Revolution, die uns ja schon seit bald zwei Jahren versprochen wurde, gell? ;)
StefanV
2001-08-13, 19:04:19
@Kai
Siehe meinem vorredner...
Ich sage doch auch immer wieder, daß der VS kaum benutzt werden wird...
Warum??
Weil der Code dafür in Assembler geschrieben werden muß (den PC-Programmierern läuft es bei diesem Wort eiskalt den Rücken runter, nicht wahr Pushkin??)...
Dann noch den 'Wischiwaschi' C++ und Assembler Code in der Engine, dann viel spaß...
Bei Truform muß ein Objekt, daß Truform 'runder' machen soll 'nur' Markiert werden...
Und das sollte wohl kein Problem sein, oder???
Ergo:
Truform sollte in fast JEDEM neuen Spiel unterstütz werden...
Im gegensatz zu dem anderem Verfahren, das NVidia benutzt, weil es zu bestehender HW inkompatibel ist...
Und welche SINNVOLLEN FEATURES hat uns NVidia beschert???
Ich kann mich an keins erinnern...
hmm, vielleicht vor einiger Zeit T&L??!! Das finde ich das einzig nützliche, der Rest ist nur schnickschnak und Zeug das man so gut wie nie braucht, na ja die ham halt manchmal Zukunftsvisionen...
StefanV
2001-08-13, 19:48:55
@007
Gegenfrage:
Und was hat T&L gebracht??
Und in welchem Spiel bringt es wirklich was??
Eben, hab ich mir auch so gedacht ;)...
Ein 'Must Have Feature', daß bei der derzeitigen Geschwindigkeit der CPUs nichts mehr bringt...
Es hat hier wohl noch keiner die Performance von NVidias T&L in Profi(CAD)-Benchmarks gesehen (Viewperf, Indy3D, 3DSMax (App),...)??
Wenn die CPUs mal 5GHz erreicht haben, dann könnten sie die pure T&L Power von NVs T&L erreichen, vorher ist da nix zu machen.
In Spielen ist die T&L eher nebensächlich, weil Spiele IMMER füllratenlimitiert sind.
Ihr schweift wieder in die Theorie ab! Wenn ich T&L bei Max Payne oder bei Operation Flashpoint disable - dann gute N8 ... in Aussenarealen sacken die Frames dann ordentlich runter.
Nochmals ne Gegenfrage --> Welche grandiosen Engines wird es denn in der Zukunft geben die TruForm, VS usw. unterstützen? Keine, richtig! Bis wir Doom3 und Quake4 haben (welche sowieso an jede Grafikkarte exorbitant angepasst werden) brauchen wir uns über Features sowieso keine Köppe zu machen.
Ich kann euch an einer Hand abzählen, welche Engines für die nächsten eineinhalb Jahre in der Mache sind.
* Unreal2 (lach - ich dachte wir reden von Engines :D )
* LithTech 3.0 - wobei dieses eigentlich schon fertig ist.
* Doom3 ... ansonsten (und das wissen wir alle) wird sowieso nur Müll produziert.
Hypet mal diese Featureliste nicht hoch und runter - wir wissen wie das ins Auge gehen kann. Ihr habt's selbst gesagt - bisher hatt nur EMBM nen ansehnlichen "Durchbruch" ... und das ist in meinen Augen langsam ein veraltetes Relikt. Dot³ sieht (auch wenn's schwieriger zu implementieren sein mag) wesentlich cooler aus.
Originally posted by Ceiser Söze
Falsch. Features werden integriert, wenn sie etwas bringen und wenig Mehraufwand benötigen.
So? Wenn sie etwas bringen :D Was meinst Du, warum ich trotz der guten FSAA-Performance selbiges abschalte? Richtig, weil's einfach zu sehr an den Kräften zehrt - und Gerüchten zu folge soll TruForm auch ziemlich an der Performance nagen ... wir werden's sehn ;)
Ich bin ja mal gespannt wann das erste Spiel rauskommen soll das TruForm unterstützt. Selbst wenn ich ne R200 hätte, würde ich mir nicht Megabyteweise TruForm Patches laden ... immerhin müssen sämtliche Meshes der Modelle neu bearbeitet werden - und das ist ein Arsch voll Daten ....
Ceiser Söze
2001-08-13, 22:00:17
A) Dot3 Product BumpMapping ist dem Enviromental BumpMapping nicht überlegen und genauso wenig ist das Gegenteil der Fall. Die Verfahren sind viel zu verschieden, als dass man sie in einen Topf werfen können. Dot3 wird bevorzugt für matte, unbewegte Objekte verwendet. Aber sobald es z.B. eine realistisch animierte Wasseroberfläche oder reflektierendes Glas bzw. Metall oder ähnliches sein soll, kommst du mit Dot3 nicht mehr weiter. Dafür muss dann schon Enviromental BumpMapping herhalten.
B)TruForm-Patches: Ich glaube, du verwechselst das Ganze mit polynominellen Flächen - dafür müssen neue Meshes erstellt werden, weil die Dinger inkompatibel mit gewöhnlichen Meshes sind. Beim TruForm muss lediglich - wie bereits gesagt wurde - das betreffende Objekt für TruForm-Rendering freigegeben werden. Und das resultiert im Optimalfall in einer einzigen zusätzlichen Codezeile pro TruForm-Mesh. Dass solche Patches besonders umfangreich sein sollen, wage ich daher mal zu bezweifeln.
C)Aus demselben Grund wird TruForm auf mehr Unterstützung als Vertex- und Pixel-Shading hoffen können: Es ist sogar einfacher zu implementieren als Enviromental BumpMapping...
D)TruForm zum Dritten: Abgesehen von einer extrem kleinen zusätzlichen Belastung der AGP-Bandbreite (je 1 Vektor pro Vertex eines TruForm-Meshes --> Absolut vernachlässigbar) und der Transformation-Unit (für pure Transformation-Aufgaben ist die sowieso in jedem Spiel akut unterfordert) kommt bei TruForm überhaupt nichts mehr dazu - Performanceverluste sollten sich in Grenzen halten bzw. kaum bemerkbar sein...
D)FSAA: Wieso vergleichst du FSAA als ein von Spielentwicklern absolut unabhängiges Feature mit solchen, die von Entwicklern explizit unterstützt werden müssen? Die Logik verstehe ich nicht...
E)T&L: Eigentlich war das Feature ja nicht gedacht, um 110 statt 100 Frames pro Sekunde zu liefern, sondern um einen möglichst hohen Polygon-Count zu erreichen. In dieser Beziehung hat das Feature zumindest in den letzten 2 Jahren komplett versagt...
Ok, wieder ich :D
a) TruForm wird bald sowieso kein Thema mehr sein. Bei den nächsten Spielegenerationen werden derart viele Polys in ein Model integriert (Unreal2 z.B.) das TruForm absolut unnötig werden wird. In jetzigen Spielen - ok - aber wo willste was runden, was schon rund ist?
b) *soifz* Wir reden doch hier eigentlich über die neuen Nvidia Deto's, oder? ;)
c) Ich halte mich ab dieser Stelle zum Thema R200 zurück! Ich besitze nicht genügend Insider-Wissen um über die Features zu debattieren, soviel ist klar. Ich kann nur immer wieder sagen - ich bin Praktiker - kein Theoretiker.
WYSIWYG Prinzip also ... :) Warten wir's doch einfach mal ab.
Ceiser Söze
2001-08-13, 22:45:32
Originally posted by Kai
a) TruForm wird bald sowieso kein Thema mehr sein. Bei den nächsten Spielegenerationen werden derart viele Polys in ein Model integriert (Unreal2 z.B.) das TruForm absolut unnötig werden wird. In jetzigen Spielen - ok - aber wo willste was runden, was schon rund ist?
Und auch ich muss wieder meinen (ausnahmsweise mal kurz gefassten) Senf dazu geben :D
Man kann nie genug Polygone haben! Was Unreal bietet, reicht noch lange nicht aus (stellt euch vor, man hätte zu Quake1-Zeiten gesagt: "So, jetzt haben wir genug Polygone...") Und TruForm war schon immer als Übergangslösung gedacht. Ideal wären natürlich NURBS, aber mit aktueller Hardware ist das nie und nimmer möglich. Also muss man halt nach günstigeren Alternativen suchen - TruForm ist sicher die beste davon...
Originally posted by Stefan Payne
[BIch sage doch auch immer wieder, daß der VS kaum benutzt werden wird...
Warum??
Weil der Code dafür in Assembler geschrieben werden muß (den PC-Programmierern läuft es bei diesem Wort eiskalt den Rücken runter, nicht wahr Pushkin??)...
Dann noch den 'Wischiwaschi' C++ und Assembler Code in der Engine, dann viel spaß...
Bei Truform muß ein Objekt, daß Truform 'runder' machen soll 'nur' Markiert werden...
Und das sollte wohl kein Problem sein, oder???
Ergo:
Truform sollte in fast JEDEM neuen Spiel unterstütz werden...
Im gegensatz zu dem anderem Verfahren, das NVidia benutzt, weil es zu bestehender HW inkompatibel ist...
Und welche SINNVOLLEN FEATURES hat uns NVidia beschert???
Ich kann mich an keins erinnern... [/B]
Vertex Shader werden sicher benutzt. Assembler ist hier kein Hindernis, da es nur wenige Instruktionen gibt und die Shader kurz und linear sind. Es ist schwerer, eine mathematische Formel zu finden die das gewünschte Ergebnis bringt als diese Formel in VS-Assembler umzusetzen.
Und mir läuft es bei dem Wort "Assembler" auch nicht eiskalt den Rücken runter... ;-)
'Wischiwaschi' C++... das musst du mir jetzt mal erklären.
Um TruForm voll zu verwenden reicht es nicht aus, Objekte zu markieren. Manche Models sollten zwar runder sein, sind aber für TruForm schlicht nicht brauchbar. Man kann zwar eine einfache Unterscheidung "sieht mit TruForm gut/nicht gut aus" machen, aber damit verschenkt man viel Potenzial von TruForm. Einige Objekte müssen anders gestaltet werden, um von TruForm zu profitieren.
Polynomial Surfaces haben ganz andere Vorteile und Nachteile als N-Patches, sind aber deutlich flexibler. Beides zusammen zu verwenden wäre das Beste.
Sinnvolle Features von NVidia (oder auch Features, die mit NVidia-Karten erst sinnvoll wurden) sind - meiner Meinung nach - 32 Bit Rendering, Dot3 Bumpmapping, Cube Mapping, T&L, Shader, Polynomial Surfaces, Register Combiners, anisotropic Filtering (das wird zwar einige verwundern, aber das ist IMHO erst ab GF3 brauchbar)
samX
Originally posted by Ceiser Söze
Und auch ich muss wieder meinen (ausnahmsweise mal kurz gefassten) Senf dazu geben :D
Ok, ich auch - aber das letzte mal! :D Nie genug Polygone? Kommt wohl ganz auf den persönlichen Geschmack an, oder? Wenn ich Unreal2 sehe bin ich schon "very pleased". Wenn ich dann wieder als "Praktiker" daherkomme muss ich sagen - hey, bis wir über Unreal2 raus sind hat von uns sowieso jeder ein völlig neues System+GraKa.
StefanV
2001-08-13, 23:05:58
@Xmas
32bit Rendering war damals mit der G200 auch schon brauchbar ;)...
Zumal sie nicht so sehr eingebrochen ist...
Teilweise konnte die G200 in 32bit recht gut mit einer TNT mithalten...
Tja, brauchbar ist eben ein ziemlich schwammiger Begriff, und für jeden anders ;-) Es ist also vielleicht nicht ganz so sinnvoll, einer Firma zu unterstellen, keine sinnvollen Features zu liefern, nur weil man sie im Moment selbst nicht braucht.
samX
Originally posted by Ceiser Söze
D)TruForm zum Dritten: Abgesehen von einer extrem kleinen zusätzlichen Belastung der AGP-Bandbreite (je 1 Vektor pro Vertex eines TruForm-Meshes --> Absolut vernachlässigbar) und der Transformation-Unit (für pure Transformation-Aufgaben ist die sowieso in jedem Spiel akut unterfordert) kommt bei TruForm überhaupt nichts mehr dazu - Performanceverluste sollten sich in Grenzen halten bzw. kaum bemerkbar sein...
E)T&L: Eigentlich war das Feature ja nicht gedacht, um 110 statt 100 Frames pro Sekunde zu liefern, sondern um einen möglichst hohen Polygon-Count zu erreichen. In dieser Beziehung hat das Feature zumindest in den letzten 2 Jahren komplett versagt...
D)Und die Triangle Setup Engine??
E)Ist die T&L Einheit nur deshalb nutzlos, weil sie in Spielen extrem unterfordert ist?
Ceiser Söze
2001-08-14, 09:37:09
Originally posted by ow
D)Und die Triangle Setup Engine??
E)Ist die T&L Einheit nur deshalb nutzlos, weil sie in Spielen extrem unterfordert ist?
D) Auch kein Problem. Das TriangleSetup lässt sich leicht paralellisieren und wird sich kaum zu einem Flaschenhals entwickeln können. Flaschenhälse waren und sind Bandbreite und Füllrate. Ich kenne kein Spiel, bei dem sich die T&L-Unit oder das Triangle-Setup als Bremsfaktor erwiesen hat.
E)Die T&L-Unit wird nicht aus zwei Gründen nicht genutzt:
-Die Lighting-Unit auf aktuellen Chips ist zu lahm (werden Lichtquellen eingesetzt, sackt die maximale Dreiecksleistung stark nach unten).
-Festverdrahtetes T&L ist für die Entwickler zu unflexibel.
T&L-Units könnten THEORETISCH schon einen anständigen Dreiecksrate bieten. Sie wird nur nicht genutzt bzw. Spiele werden nicht darauf optimiert, da man halt immer noch die Leute ohne GraKa mit T&L-Unit berücksichtigen muss (und das sind viele). Wieso also nicht die ungenutzte Leistung für N-Patches verwenden...
PS: Im September erscheint ein TruForm-Patch für Counterstrike ;)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.