PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wunder-Treiber? oder das Ende des NV35


FX-ProUser
2003-09-19, 00:47:41
Hallo Leutz, Ich bin mehr oder weniger stolzer Besitzer einer Geforce FX 5900 Ultra von ASUS. Ich wollte mal einfach euere Meinung zum kommenden Deto wissen. Tja also was die vorherige woche angeht, bin ich ziehmlich niedergeschlagen(Aquamark). Dennoch Hoffe ich es das der neue Deto es noch reißen wird. Auch wenn es (vieleicht) an der Hardware liegt, was ich natürlich nicht glaube(n)/(will). Ich habe das Gefühl das das noch ne richtiger HAMMER kommen wird. < Der alles wegputzt was sich in dieser Klasse gegen ihn stellen wird. *gg* Ich weiß, ist ziehmlich weit hergehollt, aber ich bin voller Hoffnung.

Ich bitte nur NV-Besitzer ihre Meinung hier zu Posten, da ich auf keinen hier Chaos und Streit anfangen möchte.

Mfg

Al-CAlifAX
2003-09-19, 00:58:56
iin bezug auf DX9 und PS2?

Hmm also mal meine meinung. In spielen wo sich NV kümmern wird, wie stalker, werden sie etwas reissen können. auf dem normalen standardpfad, glaube ich ertsmal no chance. Mit 2.0A + Cg vllt etwas näher rankommen. aber des problem liegt mehr in den treibern. Und da haben sie sich nicht grade mit Ruhm bekleckert und ich sehe es seit dem 61.75 sehr skeptisch das da nen Wunder passiert. Deswegen habe ich meine Erwartungen in der Hinsicht zurück geschraubt. Mich interessieren keine Benchmakr oder sowas. Ich will keine 6000 Punkte in 3Dmark2k3. Ich will für DX9 ein relativ angenehmen verhältnis zu Ati. auch wenn Ati da noch gewinnen sollte. Aber 50% is mir zuviel. Da muss NV was tun. Da aber im 51.75 mehr Optimierungen für benchmarks und AF zurückschraubungen, werde ich da halt immer skeptischer. Cg scheint auch noch net so des gelbe vom ei zu sein. Obwohl ich die wassereffekte im überarbeitenden BREED auf der GC scho geil fand. und der Hersteller meint das sie extra fürs spiel Cg eingebaut hätten. Was auch immer das heissen soll. naja gab danns creenshots. und um ehrlich zu sein sehen die um einiges besser aus als was im demo noch gezeigt wurde. ergo kimmt auch nochmal nen Demo zu dem game. was ich sagen will. Vllt wirds ja was mit dem Cg wenn einige hersteller aufspringen. aber ich bin skeptisch solange keine beweise dafür da sind. Aber ich denke mal Schadensbegrenzung werden sie hinbekommen. Vllt nicht in HL² aber in kommenden Shaderspielen. Wobei es mir jetzt schon graut vor den optimierungen im HL² benchmark. wobei ich denke das da ATi durch ihre Partnerschaft eh schon vorteile haben, das sie den code einsehen konnten. aber deswgen grauts mir ja, nun wird wohl NV da puschen bis zum AF abfall (suspekt) wie auch immer. der letzte treiber 45.23 war soweit i.o. auch vom speed. was imho fehlt sind die PS2.0 optimierungen. Also ranklotzen NV ;)

jeka26
2003-09-19, 02:11:10
Hey Leute !!

Bleit bei NV das sage ich als Hercules 9800pro besitzer!

wenn ihr naturlich akzent auf FARBEN qualität setzt!

ich finde das meine alte gute ASUS7100pro mx400 besser in 2d modus und Farbspektrum ist! Habe verglichen!

Last euch nicht verarschen!
die grakka fur viel geld soll nicht nur um 10 frames schneller sein, die soll noch mit farben und bild qualität überzeugen können!

meine pers. meinung!
danke
mfg!

DarKShadoW
2003-09-19, 02:13:16
hi
also ich hatte mir damals auch mehr erhoft aber was will man machen wenn noch kein anständiger treiber drausen is auser den 45.33 wo endlich das flackern ein ende hat und die karte zugar schneller geworden ist!!! (habs in vielen benchmarks und spielen gemerkt und getestet, bis zu 30 fps mehr) das was half-life angeht wünsch ich nur das Valve gut aus die fresse fällt und sie nur 1/3 verkaufen als sie sich erwartet haben!!! finde egal welches spiel es ist und welcher hersteller man sollte es so machen das es bei allen karten fast gleich schnell läuft(auf 3-10 fps kann ich pfeifen)!!! find das nähmlich ne schweinerrei das man gleich ausgegrenzt wird vom spiel weil man net die karte von dem hersteller hat die es gesponsert haben!!! denke das die meisten das auch so sehen !?!? was mir auch nicht gefällt ist die ganze cheater rei auf beiden seiten was man dann OPTIMIERUNG nennt und der kunde am ende verarscht wird!!! keiner weis doch heut zu tage überhaupt wo er mit seiner karte wircklich dran is , bei dem spiel is die besser beim nächsten wieder die andere , warum bauen die net gleich 2 agpx8 ports aufs board damit man sich gleich 2 karten kaufen kann und immer die benutzt die am besten für das spiel is!!! ich denke auch das nvidia erst wenn die neuen karten kommen die richtigen treiber bringt die viel mehr power haben , sie wollen sicher das ati nicht weiss wie schnell sie wircklich sind , wäre ja zu einfach für die dann ,wüsten sich ja wie schnell sie sie machen müsten!!

bye
DArKShadoW

Gast
2003-09-19, 02:37:58
Entschuldigt mch Freunde wenn ihr könnt!
ABER!

Ich bin soooooooooooooooo wütent!!!!!!!!!!!!
seit 1996 suche ich die warcheit!
Entschuldigt mich leute Bitte!
aber ich muss los werden!
verzeit mich bitte die Moderatoren von diesem tollem Forum!


also ich scheis auf Spielle,grakkas auf NV und ATI
ich mache mir Motorad fürerschein nextes jahr und spiele nieeeeeeeeeeeee wieder dieses scheis dreck HL2,domm,stalker und alles was danach kommt noch rauskommt!

alles nur optische verarschung!!!!


ATI und NVIDEA ihr könnt mich mal!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
ID und Valve und die anderen gurus- ihr sollt im nexten leben genau so blas und unscharf aussehen und dabei noch häftig ruckeln wie eure scheis Engine und grakkas-ATI und NV!!!

stekt euch eure karten und spiele ins Hintern und läst dabei eure lüfter laufen auf volle lautschstärke!


schlüs -ende-


noch mal entshuldigung!

Razor
2003-09-19, 05:47:20
Wieso entschuldigst Du Dich für etwas, was Du auch einfach hättest unterdrücken können ?
Mann, mann, mann...

Mach Deinen Führerschein und laß die Leutz hier diskutieren.

Wie dem auch sei:

Die 45.23 waren äusserst gut und ausser beim 'Blinky' blinkte bei mir nichts. Auch der 51.75 ist recht gut, die erzwungene AF-Optimierung natürlich nicht. Die Bugs werden schon beseitigt werden und damit wird die Sache schon werden.

Die Performance in 'Games' ala HL2 interessiert mich solange nicht, bis ich dieses selber nachvollziehen kann. Ein 'klinischer' Test unter der Aufsicht des Hauptkonkurrenten hat für mich rein gar keinen Aussagewert.

Ansonsten performen die Treiber (45.23, 45.33, 5175) sehr gut und laufen absolut stabil mit den Games der neuesten Generation ala MBWR, Tron2, MC2 etc... Grafikfehler konnte ich da (gerade und insbesondere mit dem 51.75) nicht entdecken.

Also Leute, was wollt Ihr eigentlich ?
Treiber, die in einem Phantasie-Scenario super-gut laufen, dann aber Probleme mit der Real-World haben, oder eher ungekehrt ?

Entscheidet Euch !
Ich warte auf jeden Fall gespannt auf den 'echten' 5x.xx...
(und laß den 'beta' erst mal drauf' ;-)

Razor

J@NuS
2003-09-19, 07:43:01
dem kann ich nur beipflichten!

derzeit läuft auch bei mir mit der 5900er alles super gutschi. ich zogg alles auf 1600*1200 und hab da keine probs mit (Ravenshield, WC3, UT2K, BF1942 etc.)
das läuft alles super genial. Und ob ich mir jetzt die hirnborke weichdenke, ob und warum im "BENCHMARK" von hl2 meine 5900ultra nur 42fps anstelle von 84 hat...phaaaa...mir derzeit völlig schnurz...sozusagen: ungelegte eier!

anderseits denke ich auch ganz gern an die zeiten zurück, in denen mehr für opengl anstatt von d3d entwickelt wurde. ..ja...und damals noch....als es 3dfx-glide gab....pischi in die augen krich!

also leutz: spielt die spiele.....bis es anfängt zu ruckeln fliesst noch viel wasser durchs klo!

gruss
timo aka j@nus

Mephisto
2003-09-19, 08:10:17
Original geschrieben von Gast
ich mache mir Motorad fürerschein nextes jahr Dann hättest Du ja noch genug Zeit, vorher einen Deutschkurs zu besuchen.

The One
2003-09-19, 08:45:28
Hi Leute

Ich habe mir vor einem Monat eine Asus V9950 Ultra geholt, welche aber nur zwei Stunden in meinem PC lief. Danach habe ich sie wieder zurückgebracht, da sie defekt war. Nun warte ich seit fünf Wochen auf meine neue Karte (schei$$ Asus Support). Nun spiele ich mit dem Gedanken die Geforce FX einzutauschen und eine ATI Radeon 9800 Pro zu holen (wäre auch günstiger). Was meint ihr? Lohnt sich das?

MFG

The One

FX-ProUser
2003-09-19, 09:31:22
Tuh was du tuhen must, aber diskutiert wird hier übern kommenden Deto Bitte...

Hier Leute auch ein interesanter Treiber
http://www.scale.hjem.wanadoo.dk/Starstorm/

Mfg

The One
2003-09-19, 09:55:03
Original geschrieben von FX-ProUser
Tuh was du tuhen must, aber diskutiert wird hier übern kommenden Deto Bitte...

Hier Leute auch ein interesanter Treiber
http://www.scale.hjem.wanadoo.dk/Starstorm/

Mfg

Tja, sorry dass ich deinen Thread beschmuzt habe. Asche auf mein Haupt!

:P

Ganz nebenbei: Tolle Rechtschreibung!

The_Invisible
2003-09-19, 12:10:10
also ich bin schon seit TNT2 bei nvidia und habe viele Höhen und Tiefen miterlebt und werde da auch bleiben

mir ist beste Kompatibilität und AF Qualität wichtig, auch die Bildqualität ist sehr gut.

nvidia hat sich immer wieder aus irgendwelchen problemen befreit und wird es auch diesmal schaffen, vielleicht nicht ganz so glanzvoll aber es geht

mfg

Byteschlumpf
2003-09-19, 13:13:22
Original geschrieben von The One
Hi Leute

Ich habe mir vor einem Monat eine Asus V9950 Ultra geholt, welche aber nur zwei Stunden in meinem PC lief. Danach habe ich sie wieder zurückgebracht, da sie defekt war. Nun warte ich seit fünf Wochen auf meine neue Karte (schei$$ Asus Support). Nun spiele ich mit dem Gedanken die Geforce FX einzutauschen und eine ATI Radeon 9800 Pro zu holen (wäre auch günstiger). Was meint ihr? Lohnt sich das?

MFG

The One
Und ob sich das lohnt!!!

FX-ProUser
2003-09-19, 13:33:50
LoL wenn interesiert hier die Rechtschreibung, ich weiss das man Deutsch grottenschlecht ist und... Wer will das wissen, Wir wollen lieber wissen wann/ und wie gut der Deto sein wird.

Mal was anderss, währe doch echt geil wenn man die PCI Express mit der an der AGP Schnittstelle bündeln kann... Doppelte Leistung währe vieleicht drin, und vieleicht würde sich was in Effekten/Bildquali was ändern... LOl ich weiss hab ne blühende fantasie, deshalb keine dummen kommentare dazu.

Mfg

Kai
2003-09-19, 13:45:31
Original geschrieben von jeka26
Hey Leute !!

Bleit bei NV das sage ich als Hercules 9800pro besitzer!

wenn ihr naturlich akzent auf FARBEN qualität setzt!

ich finde das meine alte gute ASUS7100pro mx400 besser in 2d modus und Farbspektrum ist! Habe verglichen!

Last euch nicht verarschen!
die grakka fur viel geld soll nicht nur um 10 frames schneller sein, die soll noch mit farben und bild qualität überzeugen können!

meine pers. meinung!
danke
mfg!

Das hatten wir schonmal besprochen. Du hast nen Bug mit dem Treiber. Nimm den 3.6 oder warte auf den 3.8!

Byteschlumpf
2003-09-19, 14:22:56
Original geschrieben von FX-ProUser
LoL wenn interesiert hier die Rechtschreibung, ich weiss das man Deutsch grottenschlecht ist und... Wer will das wissen, Wir wollen lieber wissen wann/ und wie gut der Deto sein wird.

Mal was anderss, währe doch echt geil wenn man die PCI Express mit der an der AGP Schnittstelle bündeln kann... Doppelte Leistung währe vieleicht drin, und vieleicht würde sich was in Effekten/Bildquali was ändern... LOl ich weiss hab ne blühende fantasie, deshalb keine dummen kommentare dazu.

Mfg
Mich interessiert es und die ganzen Personalabteilungen aller nur erdenklichen Firmen!

Es ist oftmals lohnenswert, seinen Text, den man in ein Forum einbringen möchte, zuvor von einem Office-Programm "kompilieren" zu lassen, um andere Forums-Nutzer, die der Forums-Sprache mächtig sind, nicht zu "beleidigen"!

Markiert bspw. Office XP nichts rot, darf der Text als korrekt angesehen werden.

FX-ProUser
2003-09-19, 14:47:25
Original geschrieben von Byteschlumpf
Mich interessiert es und die ganzen Personalabteilungen aller nur erdenklichen Firmen!

Es ist oftmals lohnenswert, seinen Text, den man in ein Forum einbringen möchte, zuvor von einem Office-Programm "kompilieren" zu lassen, um andere Forums-Nutzer, die der Forums-Sprache mächtig sind, nicht zu "beleidigen"!

Markiert bspw. Office XP nichts rot, darf der Text als korrekt angesehen werden.

LOL

Byteschlumpf
2003-09-19, 15:11:30
Original geschrieben von FX-ProUser
LOL
Säbler LOL, odher waß klaupst Duh dän!

][immy
2003-09-19, 15:27:25
bei PC-Games online gibt es ein zitat von John Carmack

"Unglücklicherweise werden sie (die Benchmarks) wahrscheinlich repäsentativ für die meisten DX9-Spiele sein. Doom 3 hat ein spezielles Back End (Renderpfad) für FX-Karten, das eine niedrigere Genauigkeit beinhaltet (FX12- oder FP16-Modus für FX-Karten), aber wenn man Standard-Shaderprogramme wie bei Ati laufen lässt, ist die Performance viel niedriger. Die Genauigkeit ist nicht wirklich wichtig für Doom 3, aber das dürfte keine sinnvolle Option für künftige Spiele sein, die DX9-Hardware als minimale Voraussetzung nutzen."

also ich glaub kaum das nvidia mit den derzeitigen FX chips noch viel machen kann. die qualität gezwungenermaßen runterzuschrauben find ich für einen high-end chip ziemlich lächerlich
hoffen wir mal das die nächste FX karte wenigstens nicht auf dem alten design basiert, denn sonst hat nVidia bei DirectX 9 nicht viel zu lachen. wäre doch ein wenig lächerlich wenn der NV40 es nicht schaffen würd HL2 und Doom 3 mit den Standart-renderpfad flüssig zum laufen zu bringen

Byteschlumpf
2003-09-19, 16:40:37
Original geschrieben von ][immy
bei PC-Games online gibt es ein zitat von John Carmack



also ich glaub kaum das nvidia mit den derzeitigen FX chips noch viel machen kann. die qualität gezwungenermaßen runterzuschrauben find ich für einen high-end chip ziemlich lächerlich
hoffen wir mal das die nächste FX karte wenigstens nicht auf dem alten design basiert, denn sonst hat nVidia bei DirectX 9 nicht viel zu lachen. wäre doch ein wenig lächerlich wenn der NV40 es nicht schaffen würd HL2 und Doom 3 mit den Standart-renderpfad flüssig zum laufen zu bringen
Bisherige Geforce-Chips haben immer Elemente der Vorgänger übernommen gehabt, weshalb man wohl kaum von komplett neuen Chip-Design reden kann.

Der Gf2 GTS ist ein optimierter Gf1 ... Gf FX ist ein optimierter ... optimierter Gf1!
Somit schließt sich der Kreis wieder.

Bei Ati dürfte es allerdings nicht so viel anders aussehen, wobei sich der R200 und R300 IMHO komplett im Layout unterscheiden dürften.

Razor
2003-09-19, 17:07:22
Original geschrieben von Byteschlumpf
Und ob sich das lohnt!!!
Wofür ?
???

Razor

Byteschlumpf
2003-09-19, 17:14:55
Original geschrieben von Razor
Wofür ?
???

Razor
Alleine schon wegen der Preisersparnis und der deutlich besseren AA-Leistung!

Razor
2003-09-19, 17:17:33
Original geschrieben von Byteschlumpf
Alleine schon wegen der Preisersparnis und der deutlich besseren AA-Leistung!
Was gibt's an der AA-Leistung nVidia's auszusetzen ?
Und 'ne R9800p mit 256MB ist nicht günstiger...

Razor

Byteschlumpf
2003-09-19, 17:26:39
Original geschrieben von Razor
Was gibt's an der AA-Leistung nVidia's auszusetzen ?
Und 'ne R9800p mit 256MB ist nicht günstiger...

Razor
Laut diesem Review ist die AA Leistung der FX5900 recht passabel - aber:
http://www.rojakpot.com/showarticle.aspx?artno=54&pgno=8

Desweiteren hat er eine Ati Radeon 9800Pro geschrieben wobei die Zahl 256 nirgendwo auftaucht !

Razor
2003-09-19, 17:35:16
Original geschrieben von Byteschlumpf
Desweiteren hat er eine Ati Radeon 9800Pro geschrieben wobei die Zahl 256 nirgendwo auftaucht !
Eine R9800p256 für eine 5900u, eine R9800p128 für eine 5900... Du verstehst ?
Ergo: Nix dolle Preisersparnis !
;-)

Razor

Razor
2003-09-19, 17:37:47
Original geschrieben von Byteschlumpf
Laut diesem Review ist die AA Leistung der FX5900 recht passabel - aber:
http://www.rojakpot.com/showarticle.aspx?artno=54&pgno=8
Da ist mir doch glatt was entwischt...
:D

Du meinst also ernsthaft, dass man jetzt eine 5900u gegen irgend eine R9800p tauschen soll, nur weil ATI mit dem HL2-Dingens krasses Marketing betrieben hat ?

Oh mann...

Razor

Al-CAlifAX
2003-09-19, 17:56:29
Original geschrieben von Razor
Da ist mir doch glatt was entwischt...
:D

Du meinst also ernsthaft, dass man jetzt eine 5900u gegen irgend eine R9800p tauschen soll, nur weil ATI mit dem HL2-Dingens krasses Marketing betrieben hat ?

Oh mann...

Razor

Tauschen halte ich auch für schmarrn, es sei denn man heisst Bill Gates ;) Dann sollte man abwägen was einem wichtig ist. Wenn man eine Nv35 hat wäre tauschen sinnig. ;)

LovesuckZ
2003-09-19, 18:02:00
Original geschrieben von Byteschlumpf
Bei Ati dürfte es allerdings nicht so viel anders aussehen, wobei sich der R200 und R300 IMHO komplett im Layout unterscheiden dürften.

Aussehen? Ne, eigentlich net... :D

doom1
2003-09-19, 18:03:23
Ich selbst bin wieder beim 44.67 gelandet der 50.xx wirft mir die Maus raus (USB)warum auch immer ?? Auch ist mir die Inf. etwas eigenartig =Datum ,fehlende 5900er Karten warten wir auf den finalen ,bin aber auch so rundherum zufrieden ,was soll ich mir den Kopf wegen einem Spiel zerbrechen das sowieso erst im Februar 2004 auf den Markt kommt :D

Gast
2003-09-19, 18:18:06
Die FX-Reihe ist nicht das Gelbe vom Ei, "unoptimierte" Games wie Enclave, Preatorians, Splinter Cell usw. sprechen da eine deutliche Sprache. Und diese nutzen noch nicht einmal DX9 Shader.

The_Invisible
2003-09-19, 18:27:40
Original geschrieben von Gast
Die FX-Reihe ist nicht das Gelbe vom Ei, "unoptimierte" Games wie Enclave, Preatorians, Splinter Cell usw. sprechen da eine deutliche Sprache. Und diese nutzen noch nicht einmal DX9 Shader.

Also Enclave und Splinter Cell konnte ich mit meiner GF4 Ti4600 schon flüssigst spielen in 1280x960, glaubst etwa die fps sind bei der FX weniger geworden, aber probieren kann ich es ja mal

mfg

Byteschlumpf
2003-09-19, 18:35:15
Bitte löschen! ;)

Byteschlumpf
2003-09-19, 18:35:36
Original geschrieben von Al-CAlifAX
Tauschen halte ich auch für schmarrn, es sei denn man heisst Bill Gates ;) Dann sollte man abwägen was einem wichtig ist. Wenn man eine Nv35 hat wäre tauschen sinnig. ;)
Da haben einige wohl was in den falschen Hals bekommen, denn "The One" hat eine defekte FX5900/Ultra von Asus und wartet nun schon einige Zeit auf Ersatz.
Jetzt har er in Erwägung gezogen, auf eine 9800Pro zu wechseln!

"Hi Leute

Ich habe mir vor einem Monat eine Asus V9950 Ultra geholt, welche aber nur zwei Stunden in meinem PC lief. Danach habe ich sie wieder zurückgebracht, da sie defekt war. Nun warte ich seit fünf Wochen auf meine neue Karte (schei$$ Asus Support). Nun spiele ich mit dem Gedanken die Geforce FX einzutauschen und eine ATI Radeon 9800 Pro zu holen (wäre auch günstiger). Was meint ihr? Lohnt sich das?

MFG

The One"



Wer eine aktuelle HighEnd-Karte von Ati oder nVidia hat, sollte wegen des großen Wertverlustes keineswegs auf eine Karte des jeweils anderen Herstellers wechseln!

Al-CAlifAX
2003-09-19, 19:37:05
Original geschrieben von Byteschlumpf
Da haben einige wohl was in den falschen Hals bekommen, denn "The One" hat eine defekte FX5900/Ultra von Asus und wartet nun schon einige Zeit auf Ersatz.
Jetzt har er in Erwägung gezogen, auf eine 9800Pro zu wechseln!

"Hi Leute

Ich habe mir vor einem Monat eine Asus V9950 Ultra geholt, welche aber nur zwei Stunden in meinem PC lief. Danach habe ich sie wieder zurückgebracht, da sie defekt war. Nun warte ich seit fünf Wochen auf meine neue Karte (schei$$ Asus Support). Nun spiele ich mit dem Gedanken die Geforce FX einzutauschen und eine ATI Radeon 9800 Pro zu holen (wäre auch günstiger). Was meint ihr? Lohnt sich das?

MFG

The One"



Wer eine aktuelle HighEnd-Karte von Ati oder nVidia hat, sollte wegen des großen Wertverlustes keineswegs auf eine Karte des jeweils anderen Herstellers wechseln!

Ich hatte auf razpr geantwortet. siehe Quote, und war seine frage:

Da ist mir doch glatt was entwischt...


Du meinst also ernsthaft, dass man jetzt eine 5900u gegen irgend eine R9800p tauschen soll, nur weil ATI mit dem HL2-Dingens krasses Marketing betrieben hat ?

Oh mann...

Razor


Und ich sage mal Geld kackt wo keiner von uns. Wer ne 5900 hat kann die auch behalten. man jungs ich habe meine Voodoo 3/3000 bis zum jahr 2001 behalten. und trotzdem konnte ich spiele spielen. ;)

Byteschlumpf
2003-09-19, 20:08:25
Sorry, ich hatte Razor beim Quoten verfehlt und stattdessen Dich erwischt!:banghead:

Szilard
2003-09-19, 20:20:13
Ich will meine FX5900nu nach 2 Wochen wieder verkaufen und eine Radeon 9700/9800 Serie kaufen :asshole:

MfG

Szilard

nachtrag: ich glaube auch nicht an diese wunder-treiber.

Byteschlumpf
2003-09-19, 20:23:54
Original geschrieben von Szilard
Ich will meine FX5900nu nach 2 Wochen wieder verkaufen und eine Radeon 9700/9800 Serie kaufen :asshole:

MfG

Szilard
Diesen Blödsinn hat hier wohl niemand verlangt!

Szilard
2003-09-19, 20:27:07
Original geschrieben von Byteschlumpf
Diesen Blödsinn hat hier wohl niemand verlangt!

Sagt genau der richtige!

nachtrag: ausserdem passt das schon, da die nv anhänger schrieben, wer eine fx5900 hat brauch nicht wechseln aber zur zeit sieht die leistung bei nvidia einfach nicht sehr gut aus!

Byteschlumpf
2003-09-19, 20:48:23
Original geschrieben von Szilard
Sagt genau der richtige! Ati-Fanatiker..... (sich bestimmt heimlich aufgeilt).
Tret man auf die Bremse und hole ganz tieeef Luft!

Ich bin Besitzer von diesen Grafikkarten:
- S3 Trio 64 2MB (Aldi PC 1997)
- Matrox Mystique220 4 MB + RainbowRunner Studio (Aufrüsung)
- Ati Rage Pro 8MB PCI (PCI-Ersatzkarte)
- Ati Rage 128 32MB (Siemens PC 1999)
- Voodoo 1
- Voodoo 2 12MB
- Elsa ErazorIII Pro ViVo 32MB (Ersatz für Rage128)
- Asus V7700 Deluxe 32MB (Ersatz für TNT2 Pro)
- Asus V8200 Ti200 Deluxe @220/500 (war Ende 2001 das, was meine 9700np seit Feb 2003 für mich ist)
- PNY Ti4600 (nur 7Tage)
- Sapphire 9500Pro (nur 7Tage)
- Sapphire 9700np

Die Mystique220, ErazorIII Pro, Gf3 Ti200 und die 9700np sind derzeit in Verwendung.


Ich habe mich für die 9700np entschieden, da mir diese sehr viel besser AA-Performance bietet, als die nur wenige Tage zuvor erworbene Ti4600, wobei die 9500Pro nur ein "Experiment" war, um zu sehen, ob Ati überhaupt was taugt!
Ich war vor der 9500Pro übrigens auch ein übler Ati-Flameboy! ;)

Die FX5900/Ultra hat damals höchstens auf dem Papier existiert, sonst hätte ich mir wohl auch noch die 5900 non-Ultra testhalber geholt.
Falls mir die FX besser zusagen würde, müßte die 9700np ihren Platz für diese wieder räumen - so wie es der Ti4600 auch ergangen ist.


Damit möchte ich zum Ausdruck bringen, dass ich mir das zum Kaufzeitpunkt jeweils bessere Produkt zulege - die nächste Karte könnte durchaus wieder eine nVidia sein! ;)

Jagdpanther
2003-09-19, 20:59:50
mann mann mann, immer artet ein jeder thread bzgl. fragen zu grakas immer in eine streiterei ati vs. nvidia aus, der ein mault mal hier, der andere mal da.

habe selber ne ultra und bin auch nicht gerade erbaut über die ersten benchmarks von hl2 nur:

ist das spiel noch nicht fertig und man kennt noch nicht mal nen termin

hatte ati viel geld hingeblättert damit das logo aufs spiel kommt und vor allem damit auf dessen hardware hauptsächlich entwickelt wird (da kann sich ein jeder seinen reim draus machen).

ist zwar der 51.75 geleakt worden, aber das ist wohl noch nicht der wirklich versprochene deto (trotz mehrperformance), zumal der älter als z.B. der 45.33er ist, ausserdem sind bei vielen (auch mir) z.B. der Geräusch Bug wieder da, das hätte nvidia wohlweisslich korrigiert bei einem aktuellen.

die im internet und auch von nvidia angekündigten wunder detos sollten wohl mal 50.xx heissen, und dass glaub ich auch nach wie vor.

die PS 1.4 + 2.0 performance einbrüche sollte nvidia zumindest im grössten masse in den griff bekommen (im hinblick auf optimierungen bzw. ressourcenfreigaben auf cinefx I/II). ob dieser bereich (was nicht unbedingt der einzige teil der gesamtperformance ist) an ati rankommt oder nicht wird man sehen müssen, vor allem in user tests.

man sollte sich nicht auf vorab benches, eines von ati gestützen spiele projekts, unter aufsicht atis verlassen.

also wart ma mal auf nen offiziellen det. und auf das game, dann schau ma weiter.

][immy
2003-09-19, 22:24:24
Original geschrieben von Jagdpanther
mann mann mann, immer artet ein jeder thread bzgl. fragen zu grakas immer in eine streiterei ati vs. nvidia aus, der ein mault mal hier, der andere mal da.

habe selber ne ultra und bin auch nicht gerade erbaut über die ersten benchmarks von hl2 nur:

ist das spiel noch nicht fertig und man kennt noch nicht mal nen termin

hatte ati viel geld hingeblättert damit das logo aufs spiel kommt und vor allem damit auf dessen hardware hauptsächlich entwickelt wird (da kann sich ein jeder seinen reim draus machen).

ist zwar der 51.75 geleakt worden, aber das ist wohl noch nicht der wirklich versprochene deto (trotz mehrperformance), zumal der älter als z.B. der 45.33er ist, ausserdem sind bei vielen (auch mir) z.B. der Geräusch Bug wieder da, das hätte nvidia wohlweisslich korrigiert bei einem aktuellen.

die im internet und auch von nvidia angekündigten wunder detos sollten wohl mal 50.xx heissen, und dass glaub ich auch nach wie vor.

die PS 1.4 + 2.0 performance einbrüche sollte nvidia zumindest im grössten masse in den griff bekommen (im hinblick auf optimierungen bzw. ressourcenfreigaben auf cinefx I/II). ob dieser bereich (was nicht unbedingt der einzige teil der gesamtperformance ist) an ati rankommt oder nicht wird man sehen müssen, vor allem in user tests.

man sollte sich nicht auf vorab benches, eines von ati gestützen spiele projekts, unter aufsicht atis verlassen.

also wart ma mal auf nen offiziellen det. und auf das game, dann schau ma weiter.

les dir nochmal das Statement von John Carmack durch das ich gepostet hab (auf seite 1 dieses threads), also viel optimieren kann nvidia da wohl nicht um dann noch die volle qualität zu erreichen. qualitätsverlust muss man wohl derzeit hinnehmen
das problem haben die FX-grafikkarten allgemein bei DirectX 9 shadern. und wie carmack schon sagte, auf dauer immer einen extra renderpfad zu schreiben, dürfte wohl keine dauerhafte lösung für nvidia-grafikkarten sein, da muss nvidia erstmal handeln

hoffen kann man da aber ansich nur, das ati auch seinen vorsprung ausnutzt und sich nicht jetzt etwa in der entwicklung neuer chips zurückhält da man ja bei standart DirectX 9 schon sehr viel schneller ist als die hauptkonkurenz.

ich schätze mal, als ati ihren r300 chip auslieferten war nvidia noch lange nicht fertig mit der chipentwicklung, drum musst man die entwicklung vorzeitig beenden und hat den den nv30 auf den markt geschmissen. dann war der chip irgendwann doch mal so entwickelt wie er zunächst sein sollte (in etwa) und der hieß dann nv35. allerdings über ein halbes jahr zu spät. nunja... sowas kann passieren, war ja bis vor ein paar jahren bei ati auch nicht anders, derzeit ist halt ati am zug, das wird aber immer hin und hergehen. vielleicht kommt ja bald mal wieder S3 mit einem wirklich guten chip.. ok der deltachrome wohl nicht ^^.. aber was ich damit ansich sagen wollte, vielleicht kommt ja mal ein hersteller mit einem wirklich neuen guten grafikchip so das die beiden hauptunternehmen sich auch wieder mühe geben müssen, und nicht dauernd nur leichte refreshes ihrer chips rausbringen

Radeonator
2003-09-19, 22:54:29
Gibt es eigentlich schon irgend eine Annährung für das release Datum offizieller 5er Dets ???

Gibt es irgendwo eine Stellungnahme NV´s zur derzeitigen Situation ???

Winter[Raven]
2003-09-19, 22:59:26
Also DER Det. 5.xx wird wohl gleich mit dem NV38 vorgstellt, das soll bei der nächsten Messe sein, also am entweder am 26 oder 28 Sept.

OdeR ?

Scose
2003-09-19, 23:09:52
Nunja, bin selbst stolzer Besitzer einer 59 Ultra aber weder Fanatiker oder Nvidiot.

Bis auf das inwzischen behobene geflimmer war und bin ich wirklich zufrieden mit der Karte. Ob's dann nun ein anderes Produkt von Ati gibt das in gewissen Spielen ein paar Frames mehr oder ein fünkchen bessere Bild-Qualität hat geht mir echt am A.... vorbei.

Solange ich alle meine Games in hoher Auflösung und 2xAA und 8xAF in 1280x1024 oder 1600x1200 zocken kann und mir sagen kann: Gott sieht das geil aus, also was will ich mehr? Und ob da nun was optimiert ist oder nicht, solange es gut aussieht und keine Fehler drin hat bin ich zufrieden.

Irgendwie geht mir das ganze Thema so langsam aber sicher so tierisch auf den Sack.

Nun mit vorraussichtlichen Hardware-Krachern wie HL2, D3 und Lock On wird's dann wahrscheinlich sowieso vorbei sein mit meinen bevorzugten Settings. Na und? Soll ich jetzt heulen weils die Ati Karte vielleicht schafft näher an das Optimum ranzukommen?

Der 3d-Markt ist hart umkämpft und es geht wie praktisch überall in der Wirtschaft um's Geld. Wie sind die armen User und die Firmen kämpfen um Profit, Marktanteile etc.
Natürlich wird da gemoggelt aber ich verstehe wirklich nicht was ein paar FPS unterschied ausmachen können.

Ausserdem ist der riesen Hype um HL2 doch die beste Werbung. Allerdings will mir eines nicht einleuchten. Wenn HL2 wirklich so grottenschlecht auf NV performen soll, warum veröffentlicht Valve die Zahlen dann bevor das Game rauskommt? Schliesslich ist das auch nicht gerade verkaufsfördernd wenn alle potentiellen Käufer und NV Besitzer im voraus wissen das das Game scheisse auf ihrer Hardware performt? Ich glaub kaum das die Leute aus diesem Grund auf ATI umsteigen werden. Höchstens bei einem ohnehin geplanten Neukauf.

Und Wunder erwarte ich vom neuen DT 50 Series auch keine. Der ganze Hype wiederum ist doch auch nur eins, Werbung für das eigene Produkt. Mag ja sein das er einwenig mehr aus der Hardware hohlt. Und wenn er dann tatsächlich der Überflieger sein wird, umso besser.

----------------------------------------------------

Also, seit zufrieden mit eurer Graka's. Und wer seine Karte für "künftige" Hardwarefresser im voraus kauft ist meiner Meinung nach selbst schuld. Ich würde warten bis alle Fakten auf dem Tisch sind, und dann zuschlagen.

The One
2003-09-20, 00:24:37
Danke für die Antworten!

Ich bin immer noch unschlüssig. Die GF FX 5900 Ultra ist eine gute Karte, doch sie ist verbugt (Flimmern und Surren). Ausserdem sind die Treiber nicht ausgereift (mittlerweile schlimmer als bei ATI) und die Performance wird durch cheaten erreicht. Wieso sollte ich also mehr für weniger bezahlen? Die Hercules 9800 Pro wäre eine Alternative. Wenn ich sie umtauschen kann, dann nehme ich eine ATI. Sonst behalte ich halt die Asus. Schlecht ist sie ja nicht.

MFG

The One

Met@systoX
2003-09-20, 01:01:02
Ich hab die Asus V9950 zurück geschickt und mir die Radeon 9800Pro gekauft. Bis Dato hatte ich ne GF2GTS und ne GF4TI4600 und war rundum zufrieden damit... Aber die FX5900-Serie ist zu teuer dafür dass sie nicht ausgereift ist... Bei SOF2 hatte ich auf meinem 150HZ Monitor Flimmern und keinen Nebel, dafür aber Geräusche der Spannungswandler (ich bin nicht sehr empfindlich)... Mit dem Deto 44.03 war der Nebel Prima, aber das Flimmern extrem, mit dem 45.33 hatte ich nur noch Nebel... Hab über Zehn Tage versucht das in den Griff zu bekommen... Treiber runter, ATI rein, Treiber rauf, Refreshfix drauf und alles bestens, sogar Passiv gekühlt... Gut die Ati war 60,-€ Teurer, aber nachdem ich die ersten AM3 Benches gesehen hab, war ich froh getauscht zu haben... Endlich komme ich mir nicht mehr wie ein Betatester vor...

Das ist nur meine Persönliche Meinung, also bitte nicht als Flame verstehen!

P.S: Seit über einem Jahr warte ich auf vernünftige nForce2 IDE-Treiber...

Gast
2003-09-20, 01:50:02
nvidia muss sich beeilen nen halbwegs vernünftigen treiber zu releasen bevor hl2 da ist...dem dem aktuellen ist es nämlich essig mit High-Dynamic-Range Effekten.

"Hi guys,

OK, I've only just got back home in the UK from Shader day and am beginning to catch up on the aftermath of Gabes statements.

I've not read all this thread so I don't know if this has been mentioned before, but I see that NVIDIA are suggesting using PS1.4 for many effects and there will be limited visual difference. There is a problem with this though.

Whilst Valve were there they displayed that they had implemented higher dynamic range into the engine. HDR will be available in the game to those that support its requirements, however it is not currently implemented in the benchmark. HDR needs the a higher range, and PS1.4 only has -8, 8 range which is probably not enough - the HDR effects also require float buffers which none of the current NVIDIA drivers support. There is also dramatic visual differences between HDR being enabled and disabled.

HDR is currently not in the benchmark mode because NVIDIA don't support float buffers at the moment and the benchmark was designed to render equally on all systems."

quelle: beyond3d

Razor
2003-09-20, 05:24:02
Original geschrieben von Jagdpanther
also wart ma mal auf nen offiziellen det. und auf das game, dann schau ma weiter.
Danke.

Razor
2003-09-20, 05:32:46
Original geschrieben von Met@systoX
P.S: Seit über einem Jahr warte ich auf vernünftige nForce2 IDE-Treiber...
OT: Was gibt es an der jetzigen INF auszusetzen ?
???

Razor

Razor
2003-09-20, 05:40:15
Original geschrieben von Gast
nvidia muss sich beeilen nen halbwegs vernünftigen treiber zu releasen bevor hl2 da ist...dem dem aktuellen ist es nämlich essig mit High-Dynamic-Range Effekten.

"Hi guys,

OK, I've only just got back home in the UK from Shader day and am beginning to catch up on the aftermath of Gabes statements.

I've not read all this thread so I don't know if this has been mentioned before, but I see that NVIDIA are suggesting using PS1.4 for many effects and there will be limited visual difference. There is a problem with this though.

Whilst Valve were there they displayed that they had implemented higher dynamic range into the engine. HDR will be available in the game to those that support its requirements, however it is not currently implemented in the benchmark. HDR needs the a higher range, and PS1.4 only has -8, 8 range which is probably not enough - the HDR effects also require float buffers which none of the current NVIDIA drivers support. There is also dramatic visual differences between HDR being enabled and disabled.

HDR is currently not in the benchmark mode because NVIDIA don't support float buffers at the moment and the benchmark was designed to render equally on all systems."

quelle: beyond3d
Hast Du gewußt, dass Du hiermit den eindeutigen Beweis gebracht hast, dass Valve ausschließlich auf ATI optimiert hat ? ATI ist in der Lage, über die Spezifikationen von PS1.4 hinaus zu gehen, insbesondere, was den Wertebereich angeht (Stichwort: Overbright Lightning).

Damit verlassen sie aber die PS1.4-Spezifikation und somit müssen Apps, die davon Gebrauch machen als Hardware-spezifisch ausgerichtet bezeichnet werden.

Warum sie für solche Effekte keinen PS2.0 benutzt haben, wird Valve uns wohl nicht verraten, aber eines scheint somit Fakt: Wenn HDR von Valve wirklich auf PS1.4 basiert (was an sich schon ein Unding ist !) und dort einen größeren Wertebereich benutzt, als von D3D vorgegeben, dann basiert dieses 'Feature' auf einer Hardware-spezifischen Eigenschaft eines einzigen Herstellers am Markt und ist damit für den breiten Markt unbrauchbar.

So viel dazu.
DAS hat ATI also mit den 8mio gekauft !
:D

Razor

Gast
2003-09-20, 11:14:14
Original geschrieben von Razor
Hast Du gewußt, dass Du hiermit den eindeutigen Beweis gebracht hast, dass Valve ausschließlich auf ATI optimiert hat ? ATI ist in der Lage, über die Spezifikationen von PS1.4 hinaus zu gehen, insbesondere, was den Wertebereich angeht (Stichwort: Overbright Lightning).

Damit verlassen sie aber die PS1.4-Spezifikation und somit müssen Apps, die davon Gebrauch machen als Hardware-spezifisch ausgerichtet bezeichnet werden.

Warum sie für solche Effekte keinen PS2.0 benutzt haben, wird Valve uns wohl nicht verraten, aber eines scheint somit Fakt: Wenn HDR von Valve wirklich auf PS1.4 basiert (was an sich schon ein Unding ist !) und dort einen größeren Wertebereich benutzt, als von D3D vorgegeben, dann basiert dieses 'Feature' auf einer Hardware-spezifischen Eigenschaft eines einzigen Herstellers am Markt und ist damit für den breiten Markt unbrauchbar.

So viel dazu.
DAS hat ATI also mit den 8mio gekauft !
:D

Razor

vielleicht weil das game auf ati und nvidia karten unspielbar wäre mit allen hdr effekten als PS2.0 ?

Gast
2003-09-20, 11:16:05
Original geschrieben von Gast
vielleicht weil das game auf ati und nvidia karten unspielbar wäre mit allen hdr effekten als PS2.0 ?

add:

bin dafür alle hdr effekte auch nvidia karten zugänglich zu machen damit razor nix mehr zu meckern hat...als PS2.0 versionen´...wär gespannt auf die performance :baeh2:

ow
2003-09-20, 11:55:24
Original geschrieben von Razor
Hast Du gewußt, dass Du hiermit den eindeutigen Beweis gebracht hast, dass Valve ausschließlich auf ATI optimiert hat ? ATI ist in der Lage, über die Spezifikationen von PS1.4 hinaus zu gehen, insbesondere, was den Wertebereich angeht (Stichwort: Overbright Lightning).

Damit verlassen sie aber die PS1.4-Spezifikation und somit müssen Apps, die davon Gebrauch machen als Hardware-spezifisch ausgerichtet bezeichnet werden.



Razor

Das ist beides falsch.
Der Wertebereich ist völlig unabhängig von der Shaderversion, er gilt für alle 1.x Shader und ist Teil der Spezifikation. Es gibt dafür einen gesonderten Eintrag unter den Caps Bits.


/edit (Ergänzung): falsch ist dein 2. Satz bzgl. des Verlassens der Spec, HW-spezifisch sind solche Apps schon, weil derzeit nur ATi den grösseren Wertebereich unterstützt.

ow
2003-09-20, 12:00:43
Original geschrieben von Gast
add:

bin dafür alle hdr effekte auch nvidia karten zugänglich zu machen damit razor nix mehr zu meckern hat...als PS2.0 versionen´...wär gespannt auf die performance :baeh2:

HDR Effekte gehen eingeschränkt auch mit PS1.1 und dem kleinenren Wertebereich von NV.

S.pic, die DX8.1 version der HDR Demo.

a)HDR:

ow
2003-09-20, 12:05:30
b) LDR:

Gast
2003-09-20, 12:08:48
Original geschrieben von ow
HDR Effekte gehen eingeschränkt auch mit PS1.1 und dem kleinenren Wertebereich von NV.

S.pic, die DX8.1 version der HDR Demo.

a)HDR:

ahh thx..wieder schlauer ;)

ich denke aber mal dass nvidia das gebacken kriegt mit dem treiber den sie zum hl2 release herausbringen werden...

...sonst wärs wirklich schade ;/

Jagdpanther
2003-09-20, 14:37:54
Original geschrieben von Razor
Hast Du gewußt, dass Du hiermit den eindeutigen Beweis gebracht hast, dass Valve ausschließlich auf ATI optimiert hat ? ATI ist in der Lage, über die Spezifikationen von PS1.4 hinaus zu gehen, insbesondere, was den Wertebereich angeht (Stichwort: Overbright Lightning).

Damit verlassen sie aber die PS1.4-Spezifikation und somit müssen Apps, die davon Gebrauch machen als Hardware-spezifisch ausgerichtet bezeichnet werden.

Warum sie für solche Effekte keinen PS2.0 benutzt haben, wird Valve uns wohl nicht verraten, aber eines scheint somit Fakt: Wenn HDR von Valve wirklich auf PS1.4 basiert (was an sich schon ein Unding ist !) und dort einen größeren Wertebereich benutzt, als von D3D vorgegeben, dann basiert dieses 'Feature' auf einer Hardware-spezifischen Eigenschaft eines einzigen Herstellers am Markt und ist damit für den breiten Markt unbrauchbar.

So viel dazu.
DAS hat ATI also mit den 8mio gekauft !
:D

Razor

so ist es.
haste recht.
genau meine meinung.

und dann bevor das game überhaupt fertig ist schon so über nvidia drüberzufahren ohne dass ihnen noch ausrechend zeit gelassen wird dementsprechende treiber rauszubringen die dem entgegensteuern zumal sie von vornherein gesagt haben dass bis das game released worden ist, nvidia einen der leistung der fxén gerechten / angepassten deto veröffentlicht haben wird.

StefanV
2003-09-20, 14:45:25
Original geschrieben von Razor
Hast Du gewußt, dass Du hiermit den eindeutigen Beweis gebracht hast, dass Valve ausschließlich auf ATI optimiert hat ? ATI ist in der Lage, über die Spezifikationen von PS1.4 hinaus zu gehen, insbesondere, was den Wertebereich angeht (Stichwort: Overbright Lightning).

Damit verlassen sie aber die PS1.4-Spezifikation und somit müssen Apps, die davon Gebrauch machen als Hardware-spezifisch ausgerichtet bezeichnet werden.

Warum sie für solche Effekte keinen PS2.0 benutzt haben, wird Valve uns wohl nicht verraten, aber eines scheint somit Fakt: Wenn HDR von Valve wirklich auf PS1.4 basiert (was an sich schon ein Unding ist !) und dort einen größeren Wertebereich benutzt, als von D3D vorgegeben, dann basiert dieses 'Feature' auf einer Hardware-spezifischen Eigenschaft eines einzigen Herstellers am Markt und ist damit für den breiten Markt unbrauchbar.

So viel dazu.
DAS hat ATI also mit den 8mio gekauft !
:D

Razor

Was glaubst wohl, wie lange HL2 in der Entwicklung ist??

Und wie hätten sie vor 1,5 Jahren HDR auf PS2.0 machen können, wenns dafür weder die Spezi, die API oder die HW gibt??

In diesem Fall kanns ja auch sein, daß Valve davon ausgegangen ist, daß alle PS1.4 Implementierungen so ausschauen wies die der R200 ausschaut...

In dem Fall pech für nV, thats life, mal gewinnt man, mal gewinnen andere...

Nur wirds für nV problematisch/blöd, wenn andere (SIS, S3/VIA) einen DX9 Chip bringen, bei dem der PS1.4 denen der 8500 entspricht...
Dann würde nV ja etwas dumm dastehen, wenn sie die einzigen sind, die kein Overbright Lightning bei PS1.4 können, der Rest aber...

PS: außerdem stehts nV frei, das ganze per Treiber nachzuliefern...

ow
2003-09-20, 15:23:36
Stefan:

Hast du nicht verstanden, was ich oben geschrieben habe??

Das hat mit der PS-Version nichts zu tun, sondern ist ein davon unabhängiges optionales Feature unter DX.

Gast
2003-09-20, 17:03:32
Original geschrieben von Jagdpanther
so ist es.
haste recht.
genau meine meinung.

und dann bevor das game überhaupt fertig ist schon so über nvidia drüberzufahren ohne dass ihnen noch ausrechend zeit gelassen wird dementsprechende treiber rauszubringen die dem entgegensteuern zumal sie von vornherein gesagt haben dass bis das game released worden ist, nvidia einen der leistung der fxén gerechten / angepassten deto veröffentlicht haben wird.

lies mal was ow geschrieben hat...falls du das schaffst :deal:

alfons
2003-09-20, 21:13:45
Original geschrieben von Razor

So viel dazu.
DAS hat ATI also mit den 8mio gekauft !
:D

Razor


Man Razor, das ist ja wie bei der B*LD-Zeitung. Versuch mal nicht ständig solche Vermutungen/Unterstellungen/Gerüchte als Tatsache hinzustellen.

Überhaupt: "...dann basiert dieses 'Feature' auf einer Hardware-spezifischen Eigenschaft eines einzigen Herstellers am Markt und ist damit für den breiten Markt unbrauchbar."

Als wenn du dich schonmal über sowas augeregt hättest, wenn solch ein Feature von der Firma mit den sechs(evil :|) Buchstaben gekommen ist/wäre. Mal ganz abgesehen von der Erklärung ow's warum dem nicht so ist.

Deswegen... mal wieder heiße Luft :zzz:

Razor
2003-09-21, 09:17:17
Nun ja, meine Formulierung mag ja wohl nicht korrket gewesen sein (siehe hierzu ow's Post), aber wenn Du eben diesen Post (ow) richtig gelesen hast, dürftest Du auch festgestellt haben, dass ich mit meiner Denkrichtung gar nicht mal ansatzweise verkehrt lag.

Fakt ist, dass 'dank' HDR die Engine von HL2 hardware-spezifische Eigenschaften mitbringt, die derzeit nur ein einziger Anbieter erfüllt: ATI. Und da dieser nun auch noch satte 8mio in dieses Projekt steckte, braucht man nur noch 1+1 zusammen zählen...

...was soooo schwer ja nicht sein dürfte.
:D

Razor

Gast
2003-09-21, 13:01:13
Original geschrieben von Razor
....

Und da dieser nun auch noch satte 8mio in dieses Projekt steckte, braucht man nur noch 1+1 zusammen zählen...

...was soooo schwer ja nicht sein dürfte.
:D

Razor

Lies bitte nochmal das obige posting.

Gast
2003-09-21, 16:05:04
man bräuchte jetzt noch STALKER für diesem vergleich :D
da man stalker am besten mit hl2 vergleichen kann ;)

also warten wir auf ein stalker bench...

Crossfade
2003-09-21, 20:01:55
der sowieso frühestens dann kommt wenn der NV40 von NVidia schon draußen ist!

Gast
2003-09-21, 23:58:55
Original geschrieben von FAG
der sowieso frühestens dann kommt wenn der NV40 von NVidia schon draußen ist!

Da wär ich mal vorsichtig mit STALKER, was angeblich toll läuft auf ner GeForce FX. Genauso wie Halo auf einer GF2 rockt. Jetzt schau mal einer auf die ersten Benchmrks.

Ich kann mich noch gut an das Video dafür auf den Heft-CDs errinnern. So nen Halo-Männchen hält eine GeForce 2 hoch und faselt wie toll die Karte für Halo sein wird. Und das ganze war vor über 3 Jahren!

Sowas ist ganz schön arm.

mirovb
2003-09-22, 00:01:42
gehört normalerweise alles in Speku Forum...

CU

Miro

r@w
2003-09-22, 13:41:28
Original geschrieben von Gast
Lies bitte nochmal das obige posting.
Wozu ?
???

Von HL2 genutzter Wertebereich: -8/8 (optionales 'Feature' von DX8.1)
Von nVidia (und anderen Herstllern) gebotener Wertebereich: -2/2

Ergo: Na was wohl...

Razor

Gast
2003-09-22, 14:12:57
Original geschrieben von r@w
Wozu ?
???

Von HL2 genutzter Wertebereich: -8/8 (optionales 'Feature' von DX8.1)
Von nVidia (und anderen Herstllern) gebotener Wertebereich: -2/2

Ergo: Na was wohl...

Razor

Das mag durchaus sein, war aber auch nicht gemeint.

Original geschrieben von alfons
Man Razor, das ist ja wie bei der B*LD-Zeitung. Versuch mal nicht ständig solche Vermutungen/Unterstellungen/Gerüchte als Tatsache hinzustellen.


...in deinem nächsten Post gehts genau so weiter im Text. "8 Mio, bla bla bla, ist doch klar, usw". Wir verstehen uns?

Razor
2003-09-22, 17:34:06
Auch wenn ich das bestimmt schon 1000x geschrieben habe...

- die einzige Tests eines nicht erschienenen Games wurden unter Aufsicht und auf Systemplattformen durchgeführt, die von dem Hauptkonkurrenten gestellt wurden
- begrenzete Zeit jedes Testers (90min)
- gewaltige monetäre Unterstützung des Entwicklers durch den Hauptkonkurrenten
- nachgewiesenermaßen Hardware-spezifische Engine-Implementierungen (HDR)
- Kopplung des Games mit demnächst erscheinender Hardware eben dieses Hauptkonkurrenten

Soll ich weiter machen ?

Wem das nicht zumindest zu denken gibt, der tut mir wirklich leid.

Razor

P.S.: Und daraus das "Ende" einer Chip-Generation abzuleiten ist noch sehr viel sinnfreier...

][immy
2003-09-22, 18:01:25
Original geschrieben von Razor
Auch wenn ich das bestimmt schon 1000x geschrieben habe...

- die einzige Tests eines nicht erschienenen Games wurden unter Aufsicht und auf Systemplattformen durchgeführt, die von dem Hauptkonkurrenten gestellt wurden
- begrenzete Zeit jedes Testers (90min)
- gewaltige monetäre Unterstützung des Entwicklers durch den Hauptkonkurrenten
- nachgewiesenermaßen Hardware-spezifische Engine-Implementierungen (HDR)
- Kopplung des Games mit demnächst erscheinender Hardware eben dieses Hauptkonkurrenten

Soll ich weiter machen ?

Wem das nicht zumindest zu denken gibt, der tut mir wirklich leid.

Razor

P.S.: Und daraus das "Ende" einer Chip-Generation abzuleiten ist noch sehr viel sinnfreier...

schonmal sorry, aber des muss ich jetz schreiben
Razor, du bist nen dickkopf ;)

zu der testzeit? wie lang willst du denn testen, meinst du an den benchmarkwerten würd sich irgendwas verändern wenn man nicht nur 90 minuten sondern 6 stunden testet?
natürlich wurden die system vom hauptkonkurenten gestellt, da es ja auch der ATi shaderday war. allerdings hatten alle systeme bis auf die grafikkarte die gleichen komponenten. und wenn eine grafikkarte bei einer komponente die ihr nicht passt schon "aufgibt" dann sollte sich diese grafikkarte bestimmt noch nicht auf dem freien markt befinden (also auch dieser grund ist kein grund)

Hardwarespezifische algorithmen, ok, mag es vielleicht geben, aber vergess nicht das es auch einen renderpfad für Geforce FX karten gibt (mixed mode) und ganz nebenbei will ich nochmal auf das statement von john carmack hinweisen. nvidia hat nunmal den entwicklern was aufzwingen wollen (mit ihrem etwas anderen design), aber wird dieses design nicht von microsoft in die standarts aufgenommen, werden auch nicht viele programmierer dafür programmieren (man bedenke dabei, das 3Dfx voodoo 1 quasi direct3D 1 standart wurde, da es halt die bis dahin beste 3D-hardware auf dem markt war)

OEM hat damit hoffentlich überhaupt nix zu tun. ok du kannst das nicht beweisen, aber wir können auch keine gegenbeweise liefern. und in der rechtssprechung ist jeder so lange unschuldige bis beweise für seine schuld gefunden wurde, und nunja... bitte zeig diese beweise erstmal
aber ganz abgesehen davon will ich jetzt mal nicht wissen, wie viele spiele auf nvidia hardware schon optimiert wurden

Razor
2003-09-22, 18:34:04
Original geschrieben von ][immy
schonmal sorry, aber des muss ich jetz schreiben
Razor, du bist nen dickkopf ;)
Ich weiß... ;)
Und no Prob', da absolut nachvollziehbar.
Original geschrieben von ][immy
zu der testzeit? wie lang willst du denn testen, meinst du an den benchmarkwerten würd sich irgendwas verändern wenn man nicht nur 90 minuten sondern 6 stunden testet?
Na dann frag' mal unsere Reviewer hier...
Meinen Bench-Parcour bekomm' ich in 90min auf jeden Fall nicht hin.
Original geschrieben von ][immy
natürlich wurden die system vom hauptkonkurenten gestellt, da es ja auch der ATi shaderday war. allerdings hatten alle systeme bis auf die grafikkarte die gleichen komponenten. und wenn eine grafikkarte bei einer komponente die ihr nicht passt schon "aufgibt" dann sollte sich diese grafikkarte bestimmt noch nicht auf dem freien markt befinden (also auch dieser grund ist kein grund)
Darum geht es nicht... primär geht es um die 'sterile' Umgebung.

Z.Bsp. scheint HL2 massiv CPU-limitiert zu sein. So wäre es doch ganz interessant gewesen, wie sich HL2 bei den Kontrahenten auf 'normalen' Systemen macht. Vermutlich wäre da der Unterschied nicht ganz so groß. Auch wäre eine Analyse der genutzten Shader sicherlich sehr interessant gewesen, einfach nur um den Punkt der einseitigen Optimierung auszuschließen...

Wie gesagt, es sind einfach zu viele Fragen offen.
Original geschrieben von ][immy
Hardwarespezifische algorithmen, ok, mag es vielleicht geben, aber vergess nicht das es auch einen renderpfad für Geforce FX karten gibt (mixed mode)...
Und wie genau der aussieht, weiß keiner so richtig.
Mich würde eine Analyse dessen wirklich sehr interessieren...
Original geschrieben von ][immy
... und ganz nebenbei will ich nochmal auf das statement von john carmack hinweisen. nvidia hat nunmal den entwicklern was aufzwingen wollen (mit ihrem etwas anderen design), aber wird dieses design nicht von microsoft in die standarts aufgenommen, werden auch nicht viele programmierer dafür programmieren (man bedenke dabei, das 3Dfx voodoo 1 quasi direct3D 1 standart wurde, da es halt die bis dahin beste 3D-hardware auf dem markt war)
Im Tech-Forum gibt's gerade einen sehr interessanten Beitrag zu diesem Themengebiet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=95400
Original geschrieben von ][immy
OEM hat damit hoffentlich überhaupt nix zu tun. ok du kannst das nicht beweisen, aber wir können auch keine gegenbeweise liefern. und in der rechtssprechung ist jeder so lange unschuldige bis beweise für seine schuld gefunden wurde, und nunja... bitte zeig diese beweise erstmal
Wie soll ein solcher Beweis aussehen ?
ATI oder Valve geben das zu... richtig... und reichlich unwahrscheinlich.

Wir werden weiter sehen, wenn das Game (oder zumindest der Bench) erst einmal draußen ist. Würde mich nicht wundern, wenn HL2 dann erst einmal gegen den 3DA 'gefeit' wäre (was selbstredend reine Speku ist !). Aber selbst das dürfte keine unüberwindbare Hürde darstellen. Und wenn man dann wirklich überprüfen kann, wie die Hardware durch was angesteuert wird, dann wird es auch dafakto-Aussagen dazu geben. Und die Möglichkeit, dass mich dies wiederlegt ist durchaus gegeben...
Original geschrieben von ][immy
aber ganz abgesehen davon will ich jetzt mal nicht wissen, wie viele spiele auf nvidia hardware schon optimiert wurden
Das dürften so einige sein... aber darum geht es primär nicht. Dieses Game (oder besser der integrierte Bench) wird derzeit für Marketing-Zwecke genutzt. Auch wird mit diesem versucht, eine generelle Aussage über DX9-Performance abzuleiten. Der verlinkte Kleinartikel spricht hier Bände. So scheint HL2 zwar viele, dafür aber äusserst einfach Shader zu benuzen, was der R3x0-Archtektur sehr zuträglich ist, dafür die NV3x-Architektur aber hart unterfordert (hat was mit der Pipeline-Länge zu tun) und ihr deswegen Probleme bereitet.

Wie dem auch sei, die Dinge sind eben nicht schwarz/weiß, sondern irgendwie 'grau'.
Ich lehne es allerdings ab, ein Fazit zu ziehen, wenn gezeigte Ergebnisse in keinster Weise nachvollzogen werden können und auch nicht mit Hintergrund belegt sind. Und wenn das ganze dann auch noch unter Aufsicht des Hauptkonkurrenten durchgeführt wurde, nehme ich mir das Recht heraus hier sogar äusserst skeptisch zu sein...

Und klar, ich kann damit auch völlig falsch liegen...
Oder auch nicht... wer weiß ?
;-)

Razor

Demirug
2003-09-22, 18:57:56
Original geschrieben von ][immy
man bedenke dabei, das 3Dfx voodoo 1 quasi direct3D 1 standart wurde, da es halt die bis dahin beste 3D-hardware auf dem markt war

Wer erzählt den sowas? Servan Keondjian wird dir da was ganz anderes erzählen wenn du ihn danach fragst.

FX-ProUser
2003-09-24, 14:43:32
Noch ein paar Tage, dann sehen wa mal ob sich da was geändert hat... *freu

Mfg

Ikon
2003-09-24, 15:54:05
Leute, Leute, es gibt doch mittlerweile genug Artikel, Kommentare und Postings zum Thema CineFX. Und dass die NV3x-Hardware mit PS>1.3 gewisse Performance-Probleme hat wurde auch hinreichend dargelegt (siehe u.a. Technologieforum, bitte :) ).

Wenn ihr an einen Wundertreiber glauben wollt -> bittesehr (würde ich auch, wenn ich ein paar hunderter für meine Graka bezahlt hätte). Vom "Ende des NV35" zu sprechen ist dennoch mit Sicherheit sehr übertrieben. Aber auf einen plötzlichen Sprung an die Spitze aller Benchmarks zu hoffen ist ein Wunschtraum.

Al-CAlifAX
2003-09-24, 17:39:37
Original geschrieben von Ikon
Leute, Leute, es gibt doch mittlerweile genug Artikel, Kommentare und Postings zum Thema CineFX. Und dass die NV3x-Hardware mit PS>1.3 gewisse Performance-Probleme hat wurde auch hinreichend dargelegt (siehe u.a. Technologieforum, bitte :) ).

Wenn ihr an einen Wundertreiber glauben wollt -> bittesehr (würde ich auch, wenn ich ein paar hunderter für meine Graka bezahlt hätte). Vom "Ende des NV35" zu sprechen ist dennoch mit Sicherheit sehr übertrieben. Aber auf einen plötzlichen Sprung an die Spitze aller Benchmarks zu hoffen ist ein Wunschtraum.

wer daran glaubt sollte wirklich mal ne Anti-NV kur machen *ggg* Aber die wenigen vernünftigen erhoffen sich zum. einen besser abstand als faktor 2 oder gar fast 3 abstand. bsp.: HL² 80 frames Ati, 30 frames NV (reiner DX9pfad)
wenn an da an 50 kommen würde gegen 80 wäre des scho wieder besser. und auch im angesicht eines mixed modes. NV hat die Krone verloren und des wird so bleiben bis sie was neues bringen was dies ändert ;)

Gast
2003-09-24, 17:59:42
Original geschrieben von Razor
Na dann frag' mal unsere Reviewer hier...
Meinen Bench-Parcour bekomm' ich in 90min auf jeden Fall nicht hin.


Wie ich schonmal sagte: 90 Minuten sind etwas wenig, wenn man ein komplett neues Game vorgesetzt bekommt und man noch nicht mal Hand an das System anlegen darf um evtl. die Einstellungen zu checken, in die .ini zu schauen oder Screenshots zu vergleichen.

Für einen kompletten Durchlauf durch meinen Testparcours braucht eine einzige Karte mittlerweile schon geschlagene zwei Tage (2x 14-16 Std.) ununterbrochenes Dauerbenchen....

Dazu noch der spassige Irrtum, daß in den überhaupt nicht identischen Systemen (High-End und Mid-Range hatten IIRC unterschiedliche CPUs), angeblich eine FX5600u werkelte, die sich dann als normale FX5600 herausstellte.


Was ich damit sagen will: Ich traue keinem Benchmark, den ich nicht selbst manipuliert habe.

Gast
2003-09-24, 18:58:50
Original geschrieben von Gast
Wie ich schonmal sagte: 90 Minuten sind etwas wenig, wenn man ein komplett neues Game vorgesetzt bekommt und man noch nicht mal Hand an das System anlegen darf um evtl. die Einstellungen zu checken, in die .ini zu schauen oder Screenshots zu vergleichen.

Für einen kompletten Durchlauf durch meinen Testparcours braucht eine einzige Karte mittlerweile schon geschlagene zwei Tage (2x 14-16 Std.) ununterbrochenes Dauerbenchen....

Dazu noch der spassige Irrtum, daß in den überhaupt nicht identischen Systemen (High-End und Mid-Range hatten IIRC unterschiedliche CPUs), angeblich eine FX5600u werkelte, die sich dann als normale FX5600 herausstellte.


Was ich damit sagen will: Ich traue keinem Benchmark, den ich nicht selbst manipuliert habe.

So wie die r9600 die auf einmal eine 9600Pro war LOL.

Quasar
2003-09-24, 19:04:18
Original geschrieben von Gast
So wie die r9600 die auf einmal eine 9600Pro war LOL.

Das auch noch? :rofl:

Naja, so genau, wie die's schon mit ihrer Sys-Config genommen haben.

Wie waren die Unterschiede gleich nochmal?

FX5600 325/275
-ultra +25/+75

R9600 325/200
-pro +75/+100

So etwa, oder?

Gast
2003-09-24, 19:37:32
Also wenn sie da schon Fehler gemacht haben, wer weiss wo noch.
Vielleicht war die 5900u bloss eine 5800u.;)

StefanV
2003-09-24, 19:51:52
Original geschrieben von Quasar
Wie waren die Unterschiede gleich nochmal?

FX5600 325/275
-ultra +25/+75

So etwa, oder?

nö, eher +75/+125...

r@w
2003-09-25, 13:34:48
Original geschrieben von Gast
Was ich damit sagen will: Ich traue keinem Benchmark, den ich nicht selbst manipuliert habe.
That's it !
:bier:

Razor

Quasar
2003-09-25, 15:24:11
Original geschrieben von Stefan Payne
nö, eher +75/+125...

Quelle? Wo steht, dass es eine rev2.0-ultra war?

del_4901
2003-09-27, 04:08:14
Original geschrieben von ][immy
schonmal sorry, aber des muss ich jetz schreiben
Razor, du bist nen dickkopf ;)

zu der testzeit? wie lang willst du denn testen, meinst du an den benchmarkwerten würd sich irgendwas verändern wenn man nicht nur 90 minuten sondern 6 stunden testet?
natürlich wurden die system vom hauptkonkurenten gestellt, da es ja auch der ATi shaderday war. allerdings hatten alle systeme bis auf die grafikkarte die gleichen komponenten. und wenn eine grafikkarte bei einer komponente die ihr nicht passt schon "aufgibt" dann sollte sich diese grafikkarte bestimmt noch nicht auf dem freien markt befinden (also auch dieser grund ist kein grund)

Hardwarespezifische algorithmen, ok, mag es vielleicht geben, aber vergess nicht das es auch einen renderpfad für Geforce FX karten gibt (mixed mode) und ganz nebenbei will ich nochmal auf das statement von john carmack hinweisen. nvidia hat nunmal den entwicklern was aufzwingen wollen (mit ihrem etwas anderen design), aber wird dieses design nicht von microsoft in die standarts aufgenommen, werden auch nicht viele programmierer dafür programmieren (man bedenke dabei, das 3Dfx voodoo 1 quasi direct3D 1 standart wurde, da es halt die bis dahin beste 3D-hardware auf dem markt war)

OEM hat damit hoffentlich überhaupt nix zu tun. ok du kannst das nicht beweisen, aber wir können auch keine gegenbeweise liefern. und in der rechtssprechung ist jeder so lange unschuldige bis beweise für seine schuld gefunden wurde, und nunja... bitte zeig diese beweise erstmal
aber ganz abgesehen davon will ich jetzt mal nicht wissen, wie viele spiele auf nvidia hardware schon optimiert wurden

Dieses "andere neue Design"der NV Karten hat seinen Grund. Mit der einführung von VS und PS 3.0 Hardware werden alle Hersteller dieses, oder ein ähnliches Design für ihre Hardware verwenden müssen. Für den Leihen ausgedrückt: Ein R300 mit PS/Vs3.0 würde Transistorenmäßig aus allen näten platzen. Mit DX9 und VS/PS2.0 mag eine eine parallele Pipeline Architektur Performancetechnisch und Transistorenanzahlsmäßig gerede noch reallisierbar sein. Die neuen FX karten unterstützen mehr als die Standart 2.0 Funktionen. Allein schon das Dynamic Branching der NV3x Serie setzt ein solches Design eines PPP (Primitive Pixel Processor) vorraus. VS/PS3.0 Hardware muss wegen der TEXTURE Fetch Möglichkeit der VS etc. immer mehr in Richtung NV35 /NV40 .. gehen. Dabei verschmelzen die VS/PS beim NV40 komplett. Beim NV35 Arbeiten die Einheiten des VS teilweise auch für den PS. Alles in allem ist die NV3x Serie ein Designtest für den kommenden NV40.