Archiv verlassen und diese Seite im Standarddesign anzeigen : Geforce FX = Keine entäuschung!!!
Unregistered
2003-01-26, 22:47:23
hallo
nachdem ich die ersten bechns gesehen habe und die ersten negativen berichte über die karte, kann ich nur sagen das es derzeit viel zu früh ist etwas über die wahre performence der karte zu schreiben!! Egal wie morgen die Benchns aussehen werden ( wahrscheinlich nicht so gut für die FX) und man über die karte schreiben wird! Mann sollte bedenken das NV eine weile brauchen wird vernüftige treiber für die karte rauszubringen. Das war schon immer so!!! Irgendwann bringt NV einenen neuen Deto. raus der so etwa 15 % schnelle sein wird als die derzeitigen treiber für die FX! Ich denke man sollte Neutral (bin kein NV fan) bleiben und er FX noch eine chance geben bis es gute treiber gibt!
P.S ich kann mich an zeiten erinnern, wo die GF3 bei den ersten Benchs kaum schneller oder gar langsamer war als eine GF2 Ultra!!!
Eternity
2003-01-26, 22:51:07
Klar man sollte bever man voreilige Entschlüsse zieht auch erstmal
die neuen Treiber und Serienkarten abwarten!
StefanV
2003-01-26, 22:57:14
@guest
'damals' war aber keine Konkurenz zur GF2U/GF3 in Sicht, heute ist die Konkurenz schon da...
Mit der Radeon 9700 muß sich die GF FX messen, nicht umgekehrt :)
Unregistered
2003-01-26, 23:08:28
Schön gesagt Payne
Unregistered
2003-01-26, 23:09:00
Originally posted by Stefan Payne
@guest
'damals' war aber keine Konkurenz zur GF2U/GF3 in Sicht, heute ist die Konkurenz schon da...
Mit der Radeon 9700 muß sich die GF FX messen, nicht umgekehrt :)
das stimmt ja alles, dennoch meine ich das man erst nach einigen angepassten deto. ernsthaft vergleichen sollte. Habe zwar keinen 9700er, denke aber das der seit dem er draußen ist bestimmt durch neuere treiber um einiges schneller geworden ist als bei seiner einführung
StefanV
2003-01-26, 23:14:18
Originally posted by Unregistered
das stimmt ja alles, dennoch meine ich das man erst nach einigen angepassten deto. ernsthaft vergleichen sollte. Habe zwar keinen 9700er, denke aber das der seit dem er draußen ist bestimmt durch neuere treiber um einiges schneller geworden ist als bei seiner einführung
Und dann ??
Kaum eine GraKa wird mit 'optimierten' Treibern getestet, weder von ATI (naja, die 128MB Radeon 8500 ev. schon), noch von NV!!
Die Tests werden gemacht, wenn man die Karte hat, man kann nicht erst noch ein halbes Jahr auf einen optimierten Treiber warten...
Es ist also nicht soo sinnvoll, was du verlangst...
BTW: NV hatte genug Zeit für optimierungen am Treiber, oder ?? :)
Also für DEN Preis - und mit DER Leistung kauf ich mir keine FX. Hört sich komisch an wenn das ein nVidia Fanboy sagt, he? ;)
Meine 9700 ist schon so gut wie bestellt wenn die Sache so ausgehen wird. Dann wird die erstmal schön ne Woche lang ausgiebig getestet - und sollte sie Schrott sein, kann ich sie ja immernoch zurückgeben.
Unregistered
2003-01-26, 23:19:15
zwei sinnvolle postings von sp?
wasn jetzt los???
StefanV
2003-01-26, 23:23:27
Originally posted by Unregistered
zwei sinnvolle postings von sp?
wasn jetzt los???
Tjo, sowas solls geben :)
Nur 'leider' sind die meisten davon im ATI Forum verborgen *eg*
Muhahaha, ich glaub da hat sich NV nen Eigentor geschossen. ;) Und was soll das mit den 75 Watt unter Vollast? Hallooooo? ...gehts noch? Wo soll das noch hinführen?!
cu
BUG
Lethargica
2003-01-27, 00:12:23
Hört sich jetzt vieleicht komisch an, aber wenn die Kühlaperatur, und die Leistungsaufnahme soviel Krach versprechen, wie es aussiht, kommt das Ding nicht in meinem PC.
Naja werd noch 1-2 Monate mit der TI4200 rumgurken, und dann zu ner (hoffentlich noch günstigen) r9700 kreifen.
Labberlippe
2003-01-27, 00:15:09
Originally posted by Stefan Payne
Tjo, sowas solls geben :)
Nur 'leider' sind die meisten davon im ATI Forum verborgen *eg*
Wo ??? *eg*
Gruss Labberlippe
MadManniMan
2003-01-27, 01:52:01
Originally posted by Unregistered
Mann sollte bedenken das NV eine weile brauchen wird vernüftige treiber für die karte rauszubringen.
naja, is ja erst fast n halbes jahr nach dem r300 :eyes:
naja, ich sehe im moment für die fx im grunde nur zwei vorteile: immernoch ists der name GF, der die entwickler aufhorchen läßt. und dann sind da noch die supersampling modi.
sehen affengeil aus(auf meiner ti200, erst recht mit gamma-korrektur wird das geil), sind aber pervers lahm - zumindest UNTER ner FX. also mal schaun.
ansonsten spricht aber wirklich alles(alles, nicht jeder. i.e. razor wohl net) für ati
Unregistered
2003-01-27, 07:40:16
Originally posted by Unregistered
Mann sollte bedenken das NV eine weile brauchen wird vernüftige treiber für die karte rauszubringen. Das war schon immer so!!! Irgendwann bringt NV einenen neuen Deto. raus der so etwa 15 % schnelle sein wird als die derzeitigen treiber für die FX!
Das mag sein, nur wer spielt den ganzen Tag 3DMark 2001 SE/2003 ? Bisher gab es nur dort die versprochenen Steigerungen. Im Real World Bereich ist der Treiber ausgereizt und so dämlich ist die Treiberabteilung bei Nvidia nun wirklich nicht, dass sie einen völlig vergurkten ersten Treiber für die FX produzieren. Der 42.63 der jetzt mit den ersten Testsamples mitgeliefert wurde steht sicher im Großen und Ganzen für das Leistungsvermögen der FX, denn schließlich wird der die Grundlage für alle ersten Benchmarks sein und überleg mal wenn dort noch 15% oder mehr Performance schlummern würde wären sämtliche Benches ein riesiger Nachteil für Nvidia. Nee, nee...ich denk mal an eine Treiberoptimierung kann man sich hier auch nicht mehr klammern, die FX wird allem Anschein nach ein Desaster. Warten wir mal noch 1 1/2 Stunden, dann wissen wir es endgültig.
Grüße
Lolman
2003-01-27, 08:29:13
Keine Enttäuschung ?
Doch: http://www.extremetech.com/article2/0,3973,846380,00.asp
BlackBirdSR
2003-01-27, 08:38:14
Originally posted by Lolman
Keine Enttäuschung ?
Doch: http://www.extremetech.com/article2/0,3973,846380,00.asp
seht euch mal die Füllraten, Vertex Tests, Nature etc an..
warum hab ich immer das Gefühl das irgenwas ganz dumm gelaufen ist,
die FX sieht ja gar kein Licht..
gut das ist 1600x1200 4xAA 4xAF und wir haben noch iemmer keinen Gesamtüberblick.. aber trotzdem.. was zum geier ist da los:O
chicki
2003-01-27, 08:44:07
Originally posted by MadManniMan
ansonsten spricht aber wirklich alles(alles, nicht jeder. i.e. razor wohl net) für ati
sei nicht so blauäugig!
Man haue die GF GX in ein mini atx alu case, nen p4 mit HT dazu, 80er Lüfter mit schlauch direkt nach aussen, 500watt psu, plasma tv dran und man hat nen fön der auch dvd's und divx abspielen kann, noch msn mesenger auf die platte und es wäre das ideal gerät für weibliche wesen wie meine schwester, die bis zu 3 stunden am tag im bad verbringen ;)
Unregistered
2003-01-27, 09:00:03
Jup, allerdings fehlt dann noch das männliche Ebenbild zum Dawn Demo, dann gibt es endlich denn super Luxus-Fön für die moderne Frau ! :D
Unregistered
2003-01-27, 09:58:21
schaut schon nahc einer enttäuschung aus :)
http://www.tecchannel.de/hardware/1109/index.html
desto höher man klettert desto tiefer kann man fallen :D
Legende
2003-01-27, 10:03:57
Originally posted by BUG
Muhahaha, ich glaub da hat sich NV nen Eigentor geschossen. ;) Und was soll das mit den 75 Watt unter Vollast? Hallooooo? ...gehts noch? Wo soll das noch hinführen?!
cu
BUG
Mit der Wärme, welche die Karte "WAHRSCHEINLICH" erzeugen wird, kannst du ja einen kleinen Thermogenerator betreiben. Der liefert dir dann genug Strom :D
2b-maverick
2003-01-27, 12:05:13
Ich frage mich bloss, welcher Entwickler mit dieser Karte arbeiten will?
14 Std. am Tag mit nem Düsenjet im Zimmer?
no, thx....
strauch
2003-01-27, 12:58:15
Ich denke mal bei der Verspätung, die die GeforceFX hat, hatten die Treiberprogrammierer mehr als genug Zeit einen ordentlichen Treiber zu programmieren. So wie die bisherigen Tests aussehen, ein knapper Vorsprung für die FX, es sei denn man setzt AF/AA ein, dann verliert sie und wenn jetzt noch die R350 kommt ist das ein KO-schlag.
Exxtreme
2003-01-27, 13:00:12
Originally posted by strauch
Ich denke mal bei der Verspätung, die die GeforceFX hat, hatten die Treiberprogrammierer mehr als genug Zeit einen ordentlichen Treiber zu programmieren. So wie die bisherigen Tests aussehen, ein knapper Vorsprung für die FX, es sei denn man setzt AF/AA ein, dann verliert sie und wenn jetzt noch die R350 kommt ist das ein KO-schlag.
Also die Treiber scheinen sowieso gar nicht so der Hit zu sein. Texturfehler, nicht funktionierendes 2x AA bei manchen Spielen und mit Fog scheint es auch Schwierigkeiten zu geben...
Sind aber normale Kinderkrankheiten.
nagus
2003-01-27, 13:01:25
Originally posted by Kai
Also für DEN Preis - und mit DER Leistung kauf ich mir keine FX. Hört sich komisch an wenn das ein nVidia Fanboy sagt, he? ;)
Meine 9700 ist schon so gut wie bestellt wenn die Sache so ausgehen wird. Dann wird die erstmal schön ne Woche lang ausgiebig getestet - und sollte sie Schrott sein, kann ich sie ja immernoch zurückgeben.
nein, hört sich nciht komisch an. hört sich sehr vernünfitg an.
nagus
2003-01-27, 13:03:46
Originally posted by Unregistered
hallo
nachdem ich die ersten bechns gesehen habe und die ersten negativen berichte über die karte, kann ich nur sagen das es derzeit viel zu früh ist etwas über die wahre performence der karte zu schreiben!! Egal wie morgen die Benchns aussehen werden ( wahrscheinlich nicht so gut für die FX) und man über die karte schreiben wird! Mann sollte bedenken das NV eine weile brauchen wird vernüftige treiber für die karte rauszubringen. Das war schon immer so!!! Irgendwann bringt NV einenen neuen Deto. raus der so etwa 15 % schnelle sein wird als die derzeitigen treiber für die FX! Ich denke man sollte Neutral (bin kein NV fan) bleiben und er FX noch eine chance geben bis es gute treiber gibt!
P.S ich kann mich an zeiten erinnern, wo die GF3 bei den ersten Benchs kaum schneller oder gar langsamer war als eine GF2 Ultra!!!
*würg*
ich glaub kaum, dass nvidia aus der GFFX 50 mehr leistung zaubern könne. 50% drauchen sie nämlich mehr um mit der Radeon 9700PRO und max-settings (6xFSAA/8XFSAA) mithalten zu können!!
schau dir mal auf hard-ocp die screenshots mit max-settings an. die gffx ultra hat die hälfte an frames und das 8xfsaa schaut noch dazu beschissen aus im vergleich zu 6xfsaa von ati!!!
nagus
2003-01-27, 13:06:18
Originally posted by 2b-maverick
Ich frage mich bloss, welcher Entwickler mit dieser Karte arbeiten will?
14 Std. am Tag mit nem Düsenjet im Zimmer?
no, thx....
naja, wenn man frisör ist ... :D ( oder kampfpilot ;)
ElHive
2003-01-27, 13:09:45
Originally posted by nagus
naja, wenn man frisör ist ... :D ( oder kampfpilot ;)
Hm, ein Frisör wird seine neuesten Frisuren sicher nicht am Rechner designen ;D
Und man stelle sich die GFFX während eines Einsatzes vor: Der Pilot kriegt nix mehr gebacken, weil das HUD fehlerhaft dargestellt wird *ggg*
Unregistered
2003-01-27, 13:27:11
Originally posted by nagus
*würg*
ich glaub kaum, dass nvidia aus der GFFX 50 mehr leistung zaubern könne. 50% drauchen sie nämlich mehr um mit der Radeon 9700PRO und max-settings (6xFSAA/8XFSAA) mithalten zu können!!
schau dir mal auf hard-ocp die screenshots mit max-settings an. die gffx ultra hat die hälfte an frames und das 8xfsaa schaut noch dazu beschissen aus im vergleich zu 6xfsaa von ati!!!
Rechnen "setzen, 6" wohl eher 100%, schließlich muss die GFfx doppelt so schnell werden, um mithalten zu können. :D :D
nagus
2003-01-27, 13:49:29
Originally posted by Unregistered
Rechnen "setzen, 6" wohl eher 100%, schließlich muss die GFfx doppelt so schnell werden, um mithalten zu können. :D :D
du hast recht :)
ich wollte es etwas "abmildern", sonst hätts mir auf anhieb keiner geglaubt.
Unregistered
2003-01-27, 18:34:40
Meine Lieblingszeile beim extremetech review:
"The other painfully noticeable factor here is fan noise. The GeForceFX has already been nicknamed in some site forums as The DustBuster"
Oh Mann,als alter Nvidia "Jünger" sind die Reviews wirklich eine herbe Enttäuschung.Aber Nvidia tut dieser Tiefschlag ganz gut und ATI reibt sich die Hände.Bin mal gespannt,wie die R350 sich gegen "The DustBuster" schlägt (oder besser andersrum).
Greetings from SlamJam78!
modelkiller
2003-01-27, 19:07:31
Eigentlich gehöre ich ja auch mehr zur NVidia Fraktion, mit ATI habe ich in der Vergangenheit (letzte war eine R8500) nicht so pralle Erfahrungen gemacht.
Aber um Bezug zu nehmen auf den Threadtitel:
Natürlich ist die FX eine Enttäuschung !
Selbst wenn Sie so leistungsfähig wäre, wie es der horrende Preis verlangt, was bitte würde selbst dann diese Lautstärke rechtfertigen ?
Der Trend geht zum Flüster PC, weil alle ihre lauten Rechner satt haben, und die schustern eine Mischung aus AEG Vampyr und Moulinette zusammen.
Was wirklich noch interessant wäre, die Karte auf WaKü zu modden.
Bin mal gespannt, wann es darüber was zu berichten gibt (wenn die Karte denn auch irgendwann in den Handel kommt und es dazu Leute gibt, die das Teil kaufen. Vielleicht wird sie ja Preis/Leistungssieger in der ComputerBild :-D
Anonym_001
2003-01-27, 19:14:13
Originally posted by modelkiller
Vielleicht wird sie ja Preis/Leistungssieger in der ComputerBild :-D
Ich schätze so naiv ist nicht mal die CB.
robbitop
2003-01-27, 19:26:25
Wenn man sich bei AnandTech mal die Benches anguckt wird einem doch glatt suggeriert, dass die R9700PRO schneller ist als die GF FX bei 4xMS AA 8xAF (welche AA Qualli es hat is ne andere sache aber der Aufwand wäre in etwa der gleiche).
Doch wenn man mal GENAU hinschaut steht da eindeutig in den oberen Beiden Balken (R9700PRO) immer Perf. AF ...tja was ist denn das?
das ist der bilineare AF. Wobei der Vergleich doch recht hinfällig ist, denn der GF FX macht trilineares AF und etwas geringeres ist von der quallität nicht empfehlenswert. Vergleich bei R9700PRO Quality zu suchen. Was kommt da raus?? wenn sie auch triAF macht?
10-20% Performance Vorteil für die GF FX. Natürlich wird die Bandbreite knapp, denn bei 2xAA waren es noch 30% Vorteil.
Und ausserdem ist das 4X AA Verfahren von NV fast genauso wie das 2xAA. Da ersteres OG ist (wer auch immer sich diesen scheiss aus gedacht hat von NV). Damit also nicht empfehlenswert.
Von der AA Qualli ist ATi also uneingeschränkter Sieger.
Aber diese Schwarzmalerei von der performance her verstehe ich nicht.
(auch sehr witzig wie sich THG über den Sieg in punkto Fillrate der R9700 bei 3DMark wundert ...denn man hat bewiesen dass es in Wahrheit ein Bandbreitentest ist).
Somit steht die GF FX nicht mehr ganz so schlecht dar. Natürlich kommt der Staubsauger hinzu (wer Wakü hat, den stört das nicht, oder ein grösserer Heatsink drauf) und der hohe Einführunggspreis.
Den hatte die R300 zum Anfang auch.
Nvidia hat unnötig 400MIO $ Verschärbelt (für die ganze NV3x Familie mit Mobile chip) an Entwicklung un Zeitnachteil. Die Kohle muss über die NV3x Familie wieder rein.
Ich sehe den Preis und das AA als grössten Nachteil, doch wer @1280 und 2xAA so wie ich gamed, wird das nicht so sehr stören.
robbitop
2003-01-27, 19:29:47
Quallitative Vergleiche sind aber vom Rechenaufwand unfair und können nicht verglichen werden. Hybriden mit reinem MS.
Natürlich sieht das AA von ATi besser aus, (die Hybriden glätten auch alpha Texturen) aber man darf nicht Äpfel mit Birnen Vergleichen.
also 2xAA oder 4xAA gegeneinender auch wenn letzteres vonner Qualli nur unwesendlich besser als 2xMSAA ist und sichn icht lohnt.
Originally posted by robbitop
Ich sehe den Preis und das AA als grössten Nachteil, doch wer @1280 und 2xAA so wie ich gamed, wird das nicht so sehr stören.
Dazu hast du ja deine R9700, oder willst du allen Ernsten davon zur FX wechseln???
Unregistered
2003-01-27, 19:30:56
erm und wenn du hinsiehst ist NV´s agressive AF schlechter,also musst du dort auch das balanced nehmen,und schwupps is NV wieder hinten.
robbitop
2003-01-27, 19:33:31
http://www.anandtech.com/video/showdoc.html?i=1779&p=14
das ist NUR ballanced
btw bringt aggreessive viel Performance und wieviel Qualli kostet es?
Unregistered
2003-01-27, 19:35:42
Originally posted by robbitop
http://www.anandtech.com/video/showdoc.html?i=1779&p=14
das ist NUR ballanced
btw bringt aggreessive viel Performance und wieviel Qualli kostet es?
oh, sry hasst recht, bei dem ganzen bal,qual und perf wird man ja ganz kirre im kopf :D
robbitop
2003-01-27, 19:37:16
muss man ja auch ..aber echt im Bereich AA hat DK bei NV echt scheisse gebaut, man hatte doch die 3dfx AA Expedden dabei..das kommt daebi herraus wenn man dasselbe seit dem NV20 beibehält...naja wie gesagt -> 1280x2xAAx8xAF
wrdaniel
2003-01-27, 19:52:55
die tests sind doch ok bezueglich AF, ist ja auch der QualityMode mit getestet.
Razor
2003-01-27, 20:13:05
Originally posted by MadManniMan
ansonsten spricht aber wirklich alles(alles, nicht jeder. i.e. razor wohl net) für ati
Nun mal nicht rumstänkern, Manni...
Oder kannst Du nicht lesen ?
:D
Razor
robbitop
2003-01-27, 20:16:31
ja stimmt schon dass alles drin ist, aber man muss sehr genau hinschauen um zu merken, dass die GF FX bei GLEICHEN BEDINGUNGNE schneller ist...der Bench suggeriert eben...
naja is ja auch von Borst ;-)
Razor
2003-01-27, 20:17:22
Originally posted by Exxtreme
Also die Treiber scheinen sowieso gar nicht so der Hit zu sein. Texturfehler, nicht funktionierendes 2x AA bei manchen Spielen und mit Fog scheint es auch Schwierigkeiten zu geben...
Sind aber normale Kinderkrankheiten.
Hatte selbst mit dem 42.70 (ist neuer ;-) auf 'ner gf3 (OK, ist vielleicht nicht unbedingt vergleichbar ;-) massivste Schwierigkeiten. Irgendwie schaut es so aus, als ob sie in letzter Minute da irgend etwas zusammen gezimmert hätten...
Wie gesagt, schaut so aus... muss aber nicht.
Die Jet-Kühlung ist auf jeden Fall das Letzte !
Schaun' wir mal, was da noch so kommt, gell ?
;-)
Razor
Originally posted by Stefan Payne
BTW: NV hatte genug Zeit für optimierungen am Treiber, oder ?? :)Ohne Hardware?
LovesuckZ
2003-01-27, 20:24:26
Originally posted by robbitop
http://www.anandtech.com/video/showdoc.html?i=1779&p=14
das ist NUR ballanced
btw bringt aggreessive viel Performance und wieviel Qualli kostet es?
Ich weiß nich, wo ich es gesehen habe, doch der Aggressive Modus sah deutlich schlechter aus als der Balanced Modus. Eher wie eine Stufe runtergeschaltet...
Originally posted by LovesuckZ
Ich weiß nich, wo ich es gesehen habe, doch der Aggressive Modus sah deutlich schlechter aus als der Balanced Modus. Eher wie eine Stufe runtergeschaltet... Ich vermute, <Spekulation> viel mehr als runterschalten bewirkt diese Option auch nicht </Spekulation>.
Razor
2003-01-27, 20:27:47
Originally posted by LovesuckZ
Ich weiß nich, wo ich es gesehen habe, doch der Aggressive Modus sah deutlich schlechter aus als der Balanced Modus. Eher wie eine Stufe runtergeschaltet...
Kann ich mit meiner gf3 nicht bestätigen...
Klar mag dies ev bei gf4ti/gf5 anders sein, aber irgendwie mag ich das nicht glauben, zumal ich das auf einer gf4ti ebenfalls nicht nachvollziehen konnte. Der Performance-Unterschied zwischen aggr. und bal. ist allerdings auch nicht gerade wild, insofern hier eine nähere Betrachtung bezüglich der gffx noch aussteht.
Schaun' wir mal ! Wir sind ja nicht... oder doch ?
;-)
Razor
robbitop
2003-01-27, 20:29:01
ist aggressive das adaptive AF und balanced das originale wie seit NV2x bekannt? oder wo kann man das einstellen? wenn ja ist aggressvie mit ATi zu vergleichen da nach Winkeln bestimmt und wesendlich schneller?
LovesuckZ
2003-01-27, 20:30:36
Originally posted by Razor
Der Performance-Unterschied zwischen aggr. und bal. ist allerdings auch nicht gerade wild, insofern hier eine nähere Betrachtung bezüglich der gffx noch aussteht.
Der Unterschied ist zu groß, um keinen Unterschied zwischen beiden Methoden sehen zu koennen!
/edit: Bei der normalen Karte ist 8AF Ag. 30% schneller als Balanced. Hier schön zu sehen (http://www.anandtech.com/video/showdoc.html?i=1779&p=10)
LovesuckZ
2003-01-27, 20:34:08
Originally posted by robbitop
ist aggressive das adaptive AF und balanced das originale wie seit NV2x bekannt? oder wo kann man das einstellen? wenn ja ist aggressvie mit ATi zu vergleichen da nach Winkeln bestimmt und wesendlich schneller?
Balanced ist das normale seit der NV20 bekannte Verfahren. Agr. dagegen ist das neue. Doch eher wuerde hier zu 'gut' optimiert. Da ein Unterschied von 30% nicht einfach nur durch Optimierung am Verfahren rauszuholen sind.
robbitop
2003-01-27, 20:36:07
gibt es genaue Quallitests? denn das NV2x Verfahren ist auch hier wieder etwwas "unfair" da aufwendiger...
Unregistered
2003-01-27, 20:36:07
Originally posted by robbitop
ist aggressive das adaptive AF und balanced das originale wie seit NV2x bekannt? oder wo kann man das einstellen? wenn ja ist aggressvie mit ATi zu vergleichen da nach Winkeln bestimmt und wesendlich schneller?
nur,daß das beispiel auf anand auf ner horizontal liegen textur zu sehen ist, und dort dürfte sich ja grade nix ändern durch den winkel, ich glaube da wird mehr geschraubt, sieht wirklich fast so aus als würde weniger gefiltert als eingestellt.
--> kann man dann wohl mit der tollen option texturschärfung wieder rückgängig machen , rofl, "etwas" verwirrend die nv treiben im moment.
robbitop
2003-01-27, 20:43:51
ich denke vom Verfahren her sollte man sich ersteinmal die Performance AF von NV angucken und mit dem adaptiven TriAF der Radeon Vergleichen.
8x beide.
Denn beide sind das selbe Verfahren Adaptiv und TriAF (das performance AF von ATI lassen wir raus da biAF wirklich nicht mehr auf der höhe der Zeit ist)...wenn es vergleichbar ist, sieht die sache wieder anders aus.
Zum Performance/Taktverhältnis...tja man mekrt bei den Benches dass die Bandbreite der FX nicht reicht.
Logischer schritt: schnellerer DDR2 Ram oder 256bit DDR in der nächsten Version und evl 2TMUs Pro Pipe und ein vernünftiges Grid...
so nun zu den Treibern...die GFFX is auch nur ne Weiterentwicklung so wie die R300 ne weiterentwicklung ist (wenn auch ziemlich stark)...aber keine NEUENTWICKLUNG.
Wo finde ich etw. zu den Treiberbugs...nunja und ich denke die dürften wohl recht schnell gefixt sein.
Alles in Allem ist sie nicht so schlecht, wie man sie verkauft, wenn man nur fair bencht und die AA Quality vernachtlässigt, denn die is ab 4xAA scheisse...aber Hybridverfahren zu vergleichen ist ebenfalls unangebracht.
Legende
2003-01-28, 01:25:42
Dahinter stecken bestimmt die Leute von 3dfx. Die haben sich gerächt für den Aufkauf :D
skampi
2003-01-28, 02:03:07
Originally posted by robbitop
ich denke vom Verfahren her sollte man sich ersteinmal die Performance AF von NV angucken und mit dem adaptiven TriAF der Radeon Vergleichen.
8x beide.
Denn beide sind das selbe Verfahren Adaptiv und TriAF (das performance AF von ATI lassen wir raus da biAF wirklich nicht mehr auf der höhe der Zeit ist)...wenn es vergleichbar ist, sieht die sache wieder anders aus.
Zum Performance/Taktverhältnis...tja man mekrt bei den Benches dass die Bandbreite der FX nicht reicht.
Logischer schritt: schnellerer DDR2 Ram oder 256bit DDR in der nächsten Version und evl 2TMUs Pro Pipe und ein vernünftiges Grid...
so nun zu den Treibern...die GFFX is auch nur ne Weiterentwicklung so wie die R300 ne weiterentwicklung ist (wenn auch ziemlich stark)...aber keine NEUENTWICKLUNG.
Wo finde ich etw. zu den Treiberbugs...nunja und ich denke die dürften wohl recht schnell gefixt sein.
Alles in Allem ist sie nicht so schlecht, wie man sie verkauft, wenn man nur fair bencht und die AA Quality vernachtlässigt, denn die is ab 4xAA scheisse...aber Hybridverfahren zu vergleichen ist ebenfalls unangebracht.
Lies dir doch mal den gesamten Test auf http://www.anandtech.com durch. Der hat sehr viel Wert auf Qualy-Vergleiche gelegt. Mehr als so manch anderes Review. IMHO ist "Application" das alte NV-AF-Verfahren.
Originally posted by aths
Ohne Hardware?
Die Hardwarehersteller haben natürlich Emulatoren die bspw. eine GFFX simulieren, um Treiber zu entwickeln. Oder glaubste die warten jedesmal bis das Teil Silizium ist und dann fangen se an? Das würde den Verkauf um Monate verzögern.
Originally posted by Arkh
Die Hardwarehersteller haben natürlich Emulatoren die bspw. eine GFFX simulieren, um Treiber zu entwickeln. Oder glaubste die warten jedesmal bis das Teil Silizium ist und dann fangen se an? Das würde den Verkauf um Monate verzögern. Ich zweifle, dass mit Emulatoren vernünftige Optimierungen möglich sind. In den paar Wochen wo sie echte HW haben, ist auch klar, dass sie nicht sehr viel bereißen konnten.
Demirug
2003-01-28, 08:01:09
Originally posted by robbitop
so nun zu den Treibern...die GFFX is auch nur ne Weiterentwicklung so wie die R300 ne weiterentwicklung ist (wenn auch ziemlich stark)...aber keine NEUENTWICKLUNG.
Wo finde ich etw. zu den Treiberbugs...nunja und ich denke die dürften wohl recht schnell gefixt sein.
Dem würde ich so nicht ganz zustimmen. Der NV30 ist seit langen mal ein wieder ein NVIDIA Chip bei dem wirklich mal massiv neuentwicklungen eingeflossen sind. Sowohl der Vertex wie auch der Pixelshader sind vollkommen neue Einheiten. Mit dem was in der NV1x und NV2x Rheie verbaut wurde könnte man auch durch aufbohren das Featureset nicht erreichen.
Bei R300 dagegen wurde im wesentlichen das R200 Desgin übernommen was die Vertex und Pixelshader angeht. Der Vertexshader wurde im wesentliche vervierfacht und minimal erweitert. Die Pixelshader wurden auf FP umgestellt und haben ein paar neue Instruktionen und mehr Phasen bekommen. Und natürlich wurde das FSAA überarbeitet.
In Summe dürfte aber für NVIDIA der Schritt zu den VS und PS 3.0 wesentlich einfacher als für ATI sein da ATI neue Vertex und Pixel-Shader bauen muss und NVIDIA dagegen nur erweitern muss.
Demirug
2003-01-28, 08:05:40
Originally posted by aths
Ich zweifle, dass mit Emulatoren vernünftige Optimierungen möglich sind. In den paar Wochen wo sie echte HW haben, ist auch klar, dass sie nicht sehr viel bereißen konnten.
Optimieren kann man mit Hardwareemulatore eigentlich ganz gut. Teilweise sogar besser als mit echter Hardware weil man sich alles in Zeitlupe anschauen kann. Da die Emulatoren aber viel langsamer laufen als die echten Chips ist es sehr Zeitaufwendig einen Benchmark komplett durchlaufen zu lassen um die Stellen zu suchen wo es noch hängt und Timingprobleme zwischen Treiber und Chip kann man nur mit den echten Chips finden.
Aquaschaf
2003-01-28, 16:43:05
Originally posted by Demirug
Dem würde ich so nicht ganz zustimmen. Der NV30 ist seit langen mal ein wieder ein NVIDIA Chip bei dem wirklich mal massiv neuentwicklungen eingeflossen sind. Sowohl der Vertex wie auch der Pixelshader sind vollkommen neue Einheiten. Mit dem was in der NV1x und NV2x Rheie verbaut wurde könnte man auch durch aufbohren das Featureset nicht erreichen.
Bei R300 dagegen wurde im wesentlichen das R200 Desgin übernommen was die Vertex und Pixelshader angeht. Der Vertexshader wurde im wesentliche vervierfacht und minimal erweitert. Die Pixelshader wurden auf FP umgestellt und haben ein paar neue Instruktionen und mehr Phasen bekommen. Und natürlich wurde das FSAA überarbeitet.
In Summe dürfte aber für NVIDIA der Schritt zu den VS und PS 3.0 wesentlich einfacher als für ATI sein da ATI neue Vertex und Pixel-Shader bauen muss und NVIDIA dagegen nur erweitern muss.
der R300 war auch eine Neuentwicklung , mit dem R200 hat er nichts gemeinsam .
Demirug
2003-01-28, 17:01:05
Originally posted by Aquaschaf
der R300 war auch eine Neuentwicklung , mit dem R200 hat er nichts gemeinsam .
Ich will dir ja deinen Glauben nicht nehmen. ;) Aber wenn man sich die Details von R200 und R300 anschaut erkennt man sehr viele Dinge an denen der R300 den R200 beerbt hat. Bei der kurzen Lebenszeit eines Grafikchips kann man sich gar keine komplette neuentwicklung für jeden Chip leisten.
Aquaschaf
2003-01-28, 20:16:23
gabs da nicht mal sowas , ati hat sich irgendwann mal ein neues team fürs chipdesign angeworben , die haben erst den flipper chip für den Gamecube und dann den R300 designt . Das team das an der 8500 gearbeitet hat arbeitet momentan am R400 . Sicher hat er sachen seiner vorgänger geerbt , aber sicher nicht mehr als der NV30 .
Denn man kann es sich ja bei der kurzen lebenszeit nicht leisten einen chip von grund auf neu zu entwickeln ;)
robbitop
2003-01-28, 20:31:29
so wie demi schon sagte, das meiste war vorher schon da..artX Team hat dies eben erweitert und zwar sehr stark. Muss man sagen.
Aber beim NV30 ist mehr wirklich neues seit jahren mal.
Doch auch altes ist vorhanden..siehe AA
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.