PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Detos 50.xx coming very soon


auki
2003-08-27, 23:08:33
Warp2search (http://www.warp2search.net/modules.php?name=News&file=article&sid=14091)

Mal sehen was die bringen?

BlackArchon
2003-08-27, 23:11:22
Diese schwammige Aussage hat den Informationsgehalt der Bild-Zeitung.

Raff
2003-08-27, 23:28:05
Was die Treiber bringen? Massive Shader-"Optimierungen" mit mehr Speed als Resultat. Mal sehen, ob die Qualität leidet und ob alle Anwendungen davon profitieren. Außerdem würds mich interessieren, ob auch User von Pre-FX-Chips einen Nutzen aus den Treibern ziehen können. Wäre jedenfalls wünschenswert, wenn auch etwas unwahrscheinlich.

MfG
Raff

Wallman
2003-08-28, 00:01:39
Hab ich da richtig gelesen?

....NV38 und NV38-U(Ultra)!!!
Hab gar nicht gewusst dass da wieder 2 Versionen rauskommen....
Dachte immer es würde ein NV35 mit höherer Taktung!
Bei zwei Chips eher wunderlich!

Gast
2003-08-28, 00:07:12
Original geschrieben von Wallman
Hab ich da richtig gelesen?

....NV38 und NV38-U(Ultra)!!!
Hab gar nicht gewusst dass da wieder 2 Versionen rauskommen....
Dachte immer es würde ein NV35 mit höherer Taktung!
Bei zwei Chips eher wunderlich!

Wieso wunderlich? Das wird auch nur mehr Takt.
Der NV35 wird bis auf den Value aus dem Programm fallen und durch den NV38 ersetzt.

Das heisst FX5900 Ultra und Non Ultra fallen raus. FX5900 SE wird bleiben, wenn sie denn mal in die Läde kommt.

Wallman
2003-08-28, 00:15:06
Original geschrieben von Gast
Wieso wunderlich? Das wird auch nur mehr Takt.
Der NV35 wird bis auf den Value aus dem Programm fallen und durch den NV38 ersetzt.

Das heisst FX5900 Ultra und Non Ultra fallen raus. FX5900 SE wird bleiben, wenn sie denn mal in die Läde kommt.

Eigentlich würde es mich wundern wenn FX5900 Ultra und Non Ultra
komplett wegfallen würden......

Gast
2003-08-28, 00:24:55
würde mich gar nicht, weil die neuen Chips bzw. Respins eine bessere Ausbeute haben werden. Natürlich könnte man die niedriger takten und als FX5900 verkaufen aber wozu?
Damit der Preis weiter fällt und ich als Firma weniger verdiene?

Wieso hat dann ATI den R300 eingestellt als der R350 rauskam? :)
Genau aus dem selben Grund.

Die Preise fallen stetig und irgendwann kommt der Punnkt wo die Marge einfach zu sehr der eines Low Cost Produkts gleicht bzw. nicht mehr vorhanden ist.
Dann lässt man das Produkt - in dem Fall die GPU - auslaufen und verkauft die neue zu dem ursprünglichen Anfangspreis der vorherigen Version.
Denn auch hier gilt, was der Kunde nicht kaufen kann (R300, R350, NV30 und NV35) mit dem kann der Kunde auch kein Schnäppchen machen :)
Schnäppchen die durch neue Produkte hervorgerufen werden, weil die alten fallen im Preis sind nicht im Sinne einer Firma die Geld einfahren will.
Da verkauft man schnell noch das Inventory und das wars.
Wirst sehen, wenn der NV38 kommen sollte, wird der NV35 von Nvidias Order Liste verschwinden. Das heisst die Grakahersteller und OEMs können keinen mehr bestellen und nur noch die fertigen Restkarten im Supply Channel abverkaufen.

Was machen denn Intel und AMD mit CPUs die zu billig werden?
Genau die streichen die aus dem Programm.
Jeder Hersteller macht das. Ich habs heute selber miterlebt.

Wollte einen DSL Wireless Router von Netgear. Hab ihn bestellt, weil er günstig war. War zwar nicht auf Lager, stand aber auf Nachbestellung beim Hersteller.
Heute bekomm ich die Mail, dass Netgear das Produkt hat auslaufen lassen und durch ein Nachfolgemodell ersetzt hat. Tja und das kostet gleich wieder etwas mehr, fast soviel wie der ursprüngliche Erstpreis des Vorgängers.
Und in diesem Fall bewegen wir uns im Sub 120 Euro Bereich.
Kannst dir ja denken, wie schnell ATI und NV Chips einstellen, die auf einer Karte raufgeklebt normalerweise ab 400 Euro den Besitzer wechseln.

Wenn die Respins kommen, werden die alten sofort rausfliegen, bis eventuell auf die Value Version.

Wallman
2003-08-28, 00:31:16
Okay klingt ganz einleuchtend!
Aber irgendein Abkömmllich vom NV35 wird wohl überleben!
Sonst wäre der Leistungsabstand zwischen FX5600
(5800er gibts ja auch nicht mehr wirklich)und NV38 zu groß!
Aber wie du schon sagtest wird da wohl die FX5900SE
das Licht der Welt erblicken...

Sephiroth
2003-08-28, 01:39:02
Nunja, die Versionsummer einer DLL für den Installer und die Version des Treibers halte ich für 2 total verschiedene Dinge.
Sicher klingt es interessant, wenn die Installer-DLL und der Treiber die gleiche Versionsnummer tragen, das muß jedoch nix heißen.
Somal wird hier bezug auf die WDM Capture Treiber genommen und die Version des Treibers(nicht WDM) ist noch ein ganzes Stück entfern von der der Installer-DLL.

Wie dem auch sei, ich bin zwar skeptisch, aber tät mich durchaus freuen wenn der 50er Deto in einem Monat oder 1 1/2 erscheint und ich dann auch noch von ihm einen Nutzen habe. Ehrlich gesagt ist es mir wurscht welche Version er trägt, er kann auch 48.01 oder sonst wie heißen, solange er sich als gut herausstellt.

BlueRaven
2003-08-28, 12:01:04
werden auch die GeForceFX 5800/Ultra von der Deto 50xx profitieren.




BlueRaven

Raff
2003-08-28, 12:09:33
Klar, alle Karten mit ner "3" im Codenamen (an erster Stelle) auf jeden Fall.

MfG
Raff

BlueRaven
2003-08-28, 12:15:02
hmm.. wäre es auch möglich das man mit den neuen Treiber die bugs in der GeForceFX 5900 weg bekommt.

Keel
2003-08-28, 12:22:43
Original geschrieben von auki
Warp2search (http://www.warp2search.net/modules.php?name=News&file=article&sid=14091)

Mal sehen was die bringen?
Bla, Blubb, Sülz. Das hat ein gewisser Uttar schon vor ner ganzen Weile behauptet, genauso wie mit der Aussage, der NV38 würde sehr viel früher kommen als erwartet. Nix da. Pustekuchen. Obwohl eine Aussage wie "viel früher als erwartet" natürlich recht dehnbar ist. ;)
Original geschrieben von BlueRaven
werden auch die GeForceFX 5800/Ultra von der Deto 50xx profitieren.




BlueRaven
Sicher, nur wird ein NV35 davon mehr profitieren, da er eine leicht bessere Architektur hat.

Razor@Work
2003-08-28, 12:37:15
Original geschrieben von Keel
Bla, Blubb, Sülz. Das hat ein gewisser Uttar schon vor ner ganzen Weile behauptet, genauso wie mit der Aussage, der NV38 würde sehr viel früher kommen als erwartet. Nix da. Pustekuchen. Obwohl eine Aussage wie "viel früher als erwartet" natürlich recht dehnbar ist. ;)
Nun ja... ich finde es schon intressant, dass beide Kontrahenten (also ATI und nVidia ;-) ihre Respins wohl am selben Tag präsentieren werden (15.8.) und nVidia stünde es gut zu Gesicht, auch gleich einen passenden Treiber zu präsentieren, der u.U. erhebliche PS2.0-Schwächen im derzeitigen Treiber ausmerzt und die neuen Karten dann auch offiziell unterstützt.
Original geschrieben von Keel
Sicher, nur wird ein NV35 davon mehr profitieren, da er eine leicht bessere Architektur hat.
Die Architektur des NV35 ist nicht unbedingt 'besser', sondern vielmehr 'anders'. Während der NV30 noch eine INT12-Einheit beherbergt, fehlt diese beim NV35 gänzlich, während beim Letztgenannten dafür im gegenzug die FP-Einheit 'erweitert' wurde.

Aber klar, sollte die PS2.0-Perofrmance generell verbessert werden, profitiert der NV35 vermutlich mehr davon (wohl aber nicht gleich doppelt so stark... obwohl... warten wir es einfach ab ;-).

Razor

Keel
2003-08-28, 12:58:24
Original geschrieben von Razor@Work
Nun ja... ich finde es schon intressant, dass beide Kontrahenten (also ATI und nVidia ;-) ihre Respins wohl am selben Tag präsentieren werden (15.8.) und nVidia stünde es gut zu Gesicht, auch gleich einen passenden Treiber zu präsentieren, der u.U. erhebliche PS2.0-Schwächen im derzeitigen Treiber ausmerzt und die neuen Karten dann auch offiziell unterstützt.
Was findest du daran so interessant? Dass ATI und NV ihre Respins sehr kurz hintereinander oder womöglich sogar gleichzeitig launchen würden, war doch klar (seit ner ganzen Weile schon). Und dass der Deto50 mit dem NV38 kommen würde, war auch schon (seit geraumer Zeit) klar.
Original geschrieben von Razor@Work
Die Architektur des NV35 ist nicht unbedingt 'besser', sondern vielmehr 'anders'. Während der NV30 noch eine INT12-Einheit beherbergt, fehlt diese beim NV35 gänzlich, während beim Letztgenannten dafür im gegenzug die FP-Einheit 'erweitert' wurde.

Aber klar, sollte die PS2.0-Perofrmance generell verbessert werden, profitiert der NV35 vermutlich mehr davon (wohl aber nicht gleich doppelt so stark... obwohl... warten wir es einfach ab ;-).

Razor
Ja, ok, "anders". Aber diese "Umverteilung" dürfte doch eher positiv zu Gunsten des NV35 sein, denn an der Shaderperformance besteht Verbesserungsbedarf.
Dass mit der doppelten PS-Performance kommt nur in theoretischen Situation zum Tragen und hat praktisch keine Prasixrelevanz. Aber ich hätte absolut nichts dagegen, hier eines besseren belehrt zu werden. :)
Hier noch ein interessantes Statement von Demirug @ NFI:
I am not surprised that other people tell you similar things because I am 100% sure that I am having the correct document about the CineFX pixelpipeline. Sure I can not find the name "CineFX" in the whole document but it is written from the technial group of nVidia and not from the marketing. I will share this document as soon as possible with everyone who is interested in it. Unfortunately I have to wait for an event that I am not able to control directly.

That is the main reason why I am only can give small pieces of information at the moment.

After reading the whole paper more than one time and compare it with some older papers form nVidia I can say that they have done an excellent job in reusing many parts of the NV25 Pixelpipeline in NV3X.
Würde mich mal interessieren, wie NV das hinbekommen hat.

Keel
2003-08-28, 13:44:03
Phew, ich hoffe dringend für NV, dass sich bei der PS-Performance so einiges getan hat mit dem Deto50. Denn was man hier so liest...
http://www.beyond3d.com/forum/viewtopic.php?t=7512

Winter[Raven]
2003-08-28, 14:05:30
Keel, würdest du dein IRONISCHE postings bitte unterlassen, bis HL2 kommt hatt Nvidia gunung zeit sich was einfallen zulassen und mit den Det.50.xx werden sie es auch tun.

Und ständig dieses Gehype von HL2 nervt wirklich.

nggalai
2003-08-28, 14:18:06
Hola,
Original geschrieben von Winter[Raven]
Keel, würdest du dein IRONISCHE postings bitte unterlassen, bis HL2 kommt hatt Nvidia gunung zeit sich was einfallen zulassen und mit den Det.50.xx werden sie es auch tun.Err, HL2 soll in 3 Wochen Gold gehen. Soviel Zeit hat NV echt nicht mehr, besonders, da die Treibermutze schon seit geraumer Zeit wie die Blöden Überstunden schieben, und irgendwann haben die auch keine Energie mehr. Sind auch nur Menschen.

93,
-Sascha.rb

BlueRaven
2003-08-28, 14:57:28
Original geschrieben von nggalai
Hola,
Err, HL2 soll in 3 Wochen Gold gehen. Soviel Zeit hat NV echt nicht mehr, besonders, da die Treibermutze schon seit geraumer Zeit wie die Blöden Überstunden schieben, und irgendwann haben die auch keine Energie mehr. Sind auch nur Menschen.

93,
-Sascha.rb


dennoch nvidia schaft es vielleicht haben die es schon fertig und wollen es nocht nicht veröffentlichen kann auch sein oder...

Gast
2003-08-28, 16:11:35
Original geschrieben von BlueRaven
dennoch nvidia schaft es vielleicht haben die es schon fertig und wollen es nocht nicht veröffentlichen kann auch sein oder...

wie alt bist du? deine sätze sind wie zicke zacke hühner kacke :D

BlueRaven
2003-08-28, 16:14:29
Original geschrieben von Gast
wie alt bist du? deine sätze sind wie zicke zacke hühner kacke :D


8 Jahre :O

Gast
2003-08-28, 16:18:06
ok, dann wirst du es noch lernen ;)

sorry :)

Tigerchen
2003-08-28, 16:24:32
Original geschrieben von Winter[Raven]
Keel, würdest du dein IRONISCHE postings bitte unterlassen, bis HL2 kommt hatt Nvidia gunung zeit sich was einfallen zulassen und mit den Det.50.xx werden sie es auch tun.

Und ständig dieses Gehype von HL2 nervt wirklich.

Nun ja.Andere verweisen ständig auf die überragende Doom 3 Performance mit FX-Grafikkarten.

Winter[Raven]
2003-08-28, 17:00:15
Ja, willst du jetzt ne Oscar Tiger ?

Wenigstes Optimiert ID nicht auf Nvidia, wie es Valve tut !

Das sind 2 unterschiedliche dinge die nicht vergleichbar sind.

Tigerchen
2003-08-28, 17:21:28
Original geschrieben von Winter[Raven]
Ja, willst du jetzt ne Oscar Tiger ?

Wenigstes Optimiert ID nicht auf Nvidia, wie es Valve tut !

Das sind 2 unterschiedliche dinge die nicht vergleichbar sind.

Ich könnte jetzt die Worte "Stalker" oder "Splinter Cell" fallen lassen.Splinter Cell wird ja auch gerne erwähnt um die Großartigkeit nVIDIA's hervorzustreichen.Das da ein Spielehersteller den Konkurrenten bevorzugt scheint dich ja mächtig zu wurmen.Aber neutral wie du bist stört dich die Splinter Cell Optimierung bestimmt auch.

Razor@Work
2003-08-29, 09:23:00
Ist echt ein Kindergarten geworden... hier...

Razor

reunion
2003-08-29, 09:27:23
Original geschrieben von Winter[Raven]
Ja, willst du jetzt ne Oscar Tiger ?

Wenigstes Optimiert ID nicht auf Nvidia, wie es Valve tut !

Das sind 2 unterschiedliche dinge die nicht vergleichbar sind.

*lol* und ob ID auf NV optimiert...
Die ganze NV3x Familie bekommt sogar einen eigenen Pfad währen der R3xx mit einen Standartpfad auskommen muss.

Razor@Work
2003-08-29, 09:41:38
Original geschrieben von reunion
*lol* und ob ID auf NV optimiert...
Die ganze NV3x Familie bekommt sogar einen eigenen Pfad währen der R3xx mit einen Standartpfad auskommen muss.
Tja...
Wenn ATI damals nicht die Alpha geleaked hätte...
:D

Allerdings werden bei Doom3 wohl keine DX9-artigen Sahder zum Einsatz kommen. Insofern sich bei ATI von R200 (ist auch ein spezialisierter Pfad) zu R300 doch nicht viel geändert hat, oder ?
???

Razor

Exxtreme
2003-08-29, 09:45:09
Original geschrieben von Razor@Work
Allerdings werden bei Doom3 wohl keine DX9-artigen Sahder zum Einsatz kommen. Insofern sich bei ATI von R200 (ist auch ein spezialisierter Pfad) zu R300 doch nicht viel geändert hat, oder ?
???

Razor
Also es gibt schon Verbesserungspotenzial, nur ist dieses so klein, daß es sich wohl nicht lohnt, einen R300-Pfad einzubauen.

Radeonator@Work
2003-08-29, 10:23:36
Also so derbe sind die Optimierungen anscheinend nicht...

THG (http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-11.html)

OK thg´s Texte bitte sanft überlesen ;)

Aber in High Quality ziehen die Radeons gleich.
In SC bremst die Tolle Optimierung die Frames bis auf 20fps runter, also auch fürn Anus...wenn das so weiter geht, können sixh die Hersteller ihre tollen Optimierungen dahin stecken, wo die Sonne nie scheint... ;)

Demirug
2003-08-29, 10:42:16
Original geschrieben von Exxtreme
Also es gibt schon Verbesserungspotenzial, nur ist dieses so klein, daß es sich wohl nicht lohnt, einen R300-Pfad einzubauen.

Dumme Frage. Wie soll JC einen R300 Pfad bauen wenn ATI gar keine eigene Extension für das Pixelshading beim R300 hat?

Quasar
2003-08-29, 10:42:58
Geil, mit 4xFSAA und High-Quality schlägt sogar meine FX5800u eine R9800p mit 256MB....
Wenn ich da erst auf 2xAA runtergehe... *sabber*

Razor@Work
2003-08-29, 10:46:00
Original geschrieben von Demirug
Dumme Frage. Wie soll JC einen R300 Pfad bauen wenn ATI gar keine eigene Extension für das Pixelshading beim R300 hat?
Und genau DAS würde mich auch interessieren...

Razor

Exxtreme
2003-08-29, 10:48:11
Original geschrieben von Demirug
Dumme Frage. Wie soll JC einen R300 Pfad bauen wenn ATI gar keine eigene Extension für das Pixelshading beim R300 hat?
Da gab's AFAIK auch noch eine andere Optimierungsmöglichkeit. Hatte was mit HSR zu tun.

Quasar
2003-08-29, 10:56:23
Original geschrieben von Exxtreme
Da gab's AFAIK auch noch eine andere Optimierungsmöglichkeit. Hatte was mit HSR zu tun.

Meinst du das HSR, dass durch den Z-Pass-First weitestgehend unnötig wird? (BTW, wenn ich mir FX5900u und FX5800u bei THG so anschaue, glaube ich, das Ultra-Shadow in der Build der D3-Engine noch gar nicht integriert war...)

Akira20
2003-08-29, 11:46:32
Original geschrieben von reunion
*lol* und ob ID auf NV optimiert...
Die ganze NV3x Familie bekommt sogar einen eigenen Pfad währen der R3xx mit einen Standartpfad auskommen muss.
Na ja, bei Valve sehe ich das aber ein bisschen kritischer.
Valve optimiert nicht nur für Ati, sondern programmiert sein Produkt noch nicht mal richtig für andere Grafikkarten. Wobei ich denke, dass die Meldung“Auf FX-Karten läuft kein AA“ nur Werbung für Ati, auf billigste Weise war.
Dass sich das Problem nach ein paar Tagen in Luft aufgelöst hat war schon SEHR komisch.
Doom3 bzw. Id macht so einen sch*** bei den Ati-Grafikkarten nicht, da wird nicht einfach behauptet, dass einige "optische" Schmankerl auf Ati-Karten nicht funktionieren.
Optimieren ist ok, aber Inkompatibilität einzubauen ist nicht mehr ok!

Mfg
Akira20

Tigerchen
2003-08-29, 15:44:30
Original geschrieben von Quasar
Geil, mit 4xFSAA und High-Quality schlägt sogar meine FX5800u eine R9800p mit 256MB....
Wenn ich da erst auf 2xAA runtergehe... *sabber*

Hat eigentlich schon mal einer Doom3 mit AF getestet?

Winter[Raven]
2003-08-29, 16:08:52
Ja ... frisst sau viel leistung insbesondere bei den GF 4 moddelen geht die Framerate ganz shcön in die Knie !

Stone187
2003-08-29, 16:33:48
Also die Behauptung, das irgendein Hersteller von Spielesoftware bestimmte Grafikkartenfirmen bevorzugt, finde ich schon etwas abwegig.

Valve oder irgendeine andere Firma will doch die grösstmögliche Anzahl an Exemplaren verkaufen, da machts einfach NULL Sinn die Karte für Nvidia oder Ati zu "optimieren".

Jeder Programmier, der keine Lust hat, die Software ordentlich zu programmieren, würde ich entlassen als Firmenchef.

Exxtreme
2003-08-29, 16:36:17
Original geschrieben von Stone187
Jeder Programmier, der keine Lust hat, die Software ordentlich zu programmieren, würde ich entlassen als Firmenchef.
Das ist nicht das Problem. :)

Das sind eher die Chefs, die die Software erst beim Kunden mittels Patches reifen lassen. ;)

Demirug
2003-08-29, 16:50:38
Original geschrieben von Exxtreme
Das sind eher die Chefs, die die Software erst beim Kunden mittels Patches reifen lassen. ;)

Würdest du einem Spiel mehr trauen wenn ein "Entwickelung zertifiziert nach ISO 9001" Aufkleber auf der Packung ist?

Exxtreme
2003-08-29, 16:52:47
Original geschrieben von Demirug
Würdest du einem Spiel mehr trauen wenn ein "Entwickelung zertifiziert nach ISO 9001" Aufkleber auf der Packung ist?
Nein. Wir sind nämlich zertifiziert und ich sehe trotzdem wie es bei uns im Geschäft abläuft. :D

Aber grösseren (öffentlichen) Betatests steht normalerweise nichts im Wege, oder?

Demirug
2003-08-29, 16:58:06
Original geschrieben von Exxtreme
Nein. Wir sind nämlich zertifiziert und ich sehe trotzdem wie es bei uns im Geschäft abläuft. :D

hehe dann weisst du sicher auch das man sich sogar diese Bannenpolitik (Produkt reift beim Kunden) nach 9001 zertifizieren lassen kann.

Aber grösseren (öffentlichen) Betatests steht normalerweise nichts im Wege, oder?

Ja aber dabei könnte man ja erkennen welcher schrott da teilweise produziert wird bevor man es gekauft hat. Zudem ist ein solcher Test auch nicht ganz billig.

Razor
2003-08-30, 08:52:35
Original geschrieben von Tigerchen

Hat eigentlich schon mal einer Doom3 mit AF getestet?
Im "High-Quality"-Mode ist 8°AF automatisch aktiv...

Razor