Archiv verlassen und diese Seite im Standarddesign anzeigen : AF Unterschiede (5900/9800) sichtbar?
Pitman
2003-07-20, 19:03:22
Hallo !
Würde gerne wissen ob es wirklich deutlich, sichtbare
Unterschiede im AF gibt? Bin am Überlegen ob ich von
meiner GF4400 MSI auf ne Radeon9800 wechseln soll.
Würde den Wechsel nur wagen wenn das AF gegenüber
meiner Nvidia-Karte nicht sichtbar schlechter ist.
Ich weiss meine Frage ist bestimmt schon häufiger
diskutiert worden, nur interessiert mich nicht der
technische Aspekt sondern nur der rein objektive
sichtbare Unterschied auf dem Monitor !
Pitman
Mr. Lolman
2003-07-20, 19:18:56
Schau dir den Gamescreenshot Thread an. Alle meine UT2003 Bilder wurden mit dem "schlechten" (:balla: ) Performance AF meiner ATi gemacht. (auch die "fps" angucken :))
Iceman346
2003-07-20, 19:23:49
Aufgefallen sind mir Unterschiede bisher nur bei Anarchy Online. Dort gibt es recht viele schiefe Geländeteile die vom ATi AF nicht voll gefiltert werden. Abgesehen davon habe ich noch kein Spiel gefunden wo mir das ATi AF negativ aufgefallen wäre.
reunion
2003-07-20, 19:24:48
Original geschrieben von Pitman
Hallo !
Würde gerne wissen ob es wirklich deutlich, sichtbare
Unterschiede im AF gibt? Bin am Überlegen ob ich von
meiner GF4400 MSI auf ne Radeon9800 wechseln soll.
Würde den Wechsel nur wagen wenn das AF gegenüber
meiner Nvidia-Karte nicht sichtbar schlechter ist.
Ich weiss meine Frage ist bestimmt schon häufiger
diskutiert worden, nur interessiert mich nicht der
technische Aspekt sondern nur der rein objektive
sichtbare Unterschied auf dem Monitor !
Pitman
Gegenüber deiner G4 wird es vermutlich etwas schlechter sein...
Der Unterschied dürfte allerdings im Spiel kaum auffallen
LovesuckZ
2003-07-20, 19:46:31
Original geschrieben von Pitman
Würde gerne wissen ob es wirklich deutlich, sichtbare
Unterschiede im AF gibt? Bin am Überlegen ob ich von
meiner GF4400 MSI auf ne Radeon9800 wechseln soll.
Würde den Wechsel nur wagen wenn das AF gegenüber
meiner Nvidia-Karte nicht sichtbar schlechter ist.
Der Umstieg von einer TI4400 auf eine 9800 lohnt sich wegem dem AF in keinster Weise.
mapel110
2003-07-20, 19:50:41
Original geschrieben von LovesuckZ
Der Umstieg von einer TI4400 auf eine 9800 lohnt sich wegem dem AF in keinster Weise.
irgendwie unterschlägst du den aspekt "performance zu qualität verhältnis" :|
LovesuckZ
2003-07-20, 19:54:41
Original geschrieben von mapel110
irgendwie unterschlägst du den aspekt "performance zu qualität verhältnis" :|
Eine 5900 kostet genauso viel wie eine 9800 pro. Hat aber (bis auf UT2003) überall das bessere Quality und Performance AF. Warum also, sollte er sich eine 9800pro wegen AF kaufen, wenn er für's selbe Geld die bessere Qualitaet bekommen kann?
Nicht falsch verstehen, wer auf die zur zeit perfekte IQ in Games steht, kommt an eine r350 Karte nicht herum, aber in bezug auf AF muss es eben zur zeit ne Nvidiakarte (NV30/5) sein.
mapel110
2003-07-20, 19:57:15
Original geschrieben von LovesuckZ
Eine 5900 kostet genauso viel wie eine 9800 pro. Hat aber (bis auf UT2003) überall das bessere Quality und Performance AF. Warum also, sollte er sich eine 9800pro wegen AF kaufen, wenn er für's selbe Geld die bessere Qualitaet bekommen kann?
Nicht falsch verstehen, wer auf die zur zeit perfekte IQ in Games steht, kommt an eine r350 Karte nicht herum, aber in bezug auf AF muss es eben zur zeit ne Nvidiakarte (NV30/5) sein.
ja, das ist klar. aber du hattest in deinem vergleich die 4400er mit der 9800er verglichen. so gehts nicht :nono:
LovesuckZ
2003-07-20, 20:02:37
Original geschrieben von mapel110
ja, das ist klar. aber du hattest in deinem vergleich die 4400er mit der 9800er verglichen. so gehts nicht :nono:
Hat er nach dem Speed oder nach der IQ gefragt? Oder wollte er das ""performance zu qualität verhältnis" wissen?
Eigentlich nicht, daher habe ich ihm kurze die richtige Antwort gegeben.
Mr. Lolman
2003-07-20, 20:10:27
Geh er hat doch nur gesagt, dass er sich eine Radeon9800pro kauft, wenn dass AF nicht sichtbar schlechter ist. Und nicht, dass er sich wegen dem AF eine Radeon9800pro kaufen will.
LovesuckZ
2003-07-20, 20:13:09
Original geschrieben von Mr. Lolman
Geh er hat doch nur gesagt, dass er sich eine Radeon9800pro kauft, wenn dass AF nicht sichtbar schlechter ist. Und nicht, dass er sich wegen dem AF eine Radeon9800pro kaufen will.
Würde den Wechsel nur wagen wenn das AF gegenüber
meiner Nvidia-Karte nicht sichtbar schlechter ist.
Wenn er den Wechsel vom AF abhaengig mache, dann ist ein Wechsel wohl nicht zustimmbar.
Und ja, ich kann lesen...
Pitman
2003-07-20, 20:17:23
@Lolman
Genau mir kommt es nur auf das AF an ! Es sollte
nicht sichtbar schlechter bzw. sollte nur gering
schlechter sein als meine GF4.
Nebenbei möchte ich natürlich noch eine Karte, die
schneller ist und für die zukünftigen DX9 Spiele
gerüstet ist.
@LovesuckZ
Wie gross sind denn die Unterschiede? Sind sie deutlich
sichtbar oder nur im direkten Vergleich erkennbar ?
Danke hier geht ja die Post ab
Pitman
mapel110
2003-07-20, 20:54:21
Original geschrieben von LovesuckZ
Hat er nach dem Speed oder nach der IQ gefragt? Oder wollte er das ""performance zu qualität verhältnis" wissen?
Eigentlich nicht, daher habe ich ihm kurze die richtige Antwort gegeben.
du hast gesagt "in keinster weise"!!!!!!!!!!!!!!111111
darum gehts!
*plenkenversuchtabzugewöhnen*
/edit
es spielt ja wohl auch eine Rolle, ob man AF bei 100 fps sieht oder bei 40 fps.
Gil-galad
2003-07-20, 21:00:57
@ Pitman
LovesuckZ solltest Du wegen sowas nicht fragen. Er ist absoluter NV Fanatiker :P
Nun zu Deiner Frage:
"Würde gerne wissen ob es wirklich deutlich, sichtbare
Unterschiede im AF gibt? Bin am Überlegen ob ich von
meiner GF4400 MSI auf ne Radeon9800 wechseln soll.
Würde den Wechsel nur wagen wenn das AF gegenüber
meiner Nvidia-Karte nicht sichtbar schlechter ist."
Einen kleinen Unterschied gibt es, der dürfte aber nicht auffallen. Und von "deutlich, sichtbar" kann man da in keinster Weise sprechen.
LovesuckZ
2003-07-20, 21:12:42
Original geschrieben von Pitman
@LovesuckZ
Wie gross sind denn die Unterschiede? Sind sie deutlich
sichtbar oder nur im direkten Vergleich erkennbar ?
Dies haengt stark von deinen bevorzugten Spielen ab. Meine Spiele (Skispringen 2003, Will Rock Demo, Battlefield Demo) zum Schluss mit der 9700 haben die AF Schwaeche gezeigt. In anderen Spielen (UT2003) faellt es dagegen kaum bis gar nicht auf.
du hast gesagt "in keinster weise"!!!!!!!!!!!!!!111111
Er fragt nach der IQ. Und dabei lohnt es sich in keinster weise.
LovesuckZ solltest Du wegen sowas nicht fragen. Er ist absoluter NV Fanatiker
Stimmt, dafür duerfte ich das AF der ATi karte auch kennen lernen.
Endorphine
2003-07-20, 21:53:11
Original geschrieben von Pitman
Hallo !
Würde gerne wissen ob es wirklich deutlich, sichtbare
Unterschiede im AF gibt? Bin am Überlegen ob ich von
meiner GF4400 MSI auf ne Radeon9800 wechseln soll.
Würde den Wechsel nur wagen wenn das AF gegenüber
meiner Nvidia-Karte nicht sichtbar schlechter ist.
Ich weiss meine Frage ist bestimmt schon häufiger
diskutiert worden, nur interessiert mich nicht der
technische Aspekt sondern nur der rein objektive
sichtbare Unterschied auf dem Monitor !
Pitman Rein subjektiv hat die Texturfilterqualität bei AF-Einsatz für mich beim Umstieg GeForce -> Radeon deutlich abgenommen. Nur meine Erfahrung.
Wer auf AF Wert legt sollte IMHO bei nVidia bleiben. Wem AA wichtiger ist der sollte schleunigst wechseln.
Mr. Lolman
2003-07-20, 22:00:18
Ich würde mal versuchen, das ATi AA Live zu Gesicht zu bekommen. Die Gamescreenshots zeigen bei UT2003 imho NULL Unterschied zw. NV App. AF und ATIs Performance AF... also eigentlich ein Pluspunkt für ATi.
Endorphine meint jedoch , dass die subjektive AF Qualität deutlich abgenommen hat.
Also such dir am besten wem der eine ATi Radeon (ab 9500) hat, und betrachte mal selbst das AF.
Birdman
2003-07-20, 22:33:32
Also das ATI AF ist bei den meisten Games sehr gut, nur bei einigen fällt die starke Winkelabhängigkeit sehr auf - dazu zählen vor allem solche wo es viele schräge Flächen zu sehen gibt. Extrembeispiele sind hier z.B, Motorradrennen und Flugsims.
Ansonsten merkt man den Unterschied kaum...und Speedmässig naja, also eine FX ist in AF auch nix mehr langsamer als die ATI Karten, von daher würd ich darauf nicht achten.
Razor
2003-07-20, 22:51:45
Original geschrieben von Pitman
Würde gerne wissen ob es wirklich deutlich, sichtbare
Unterschiede im AF gibt? Bin am Überlegen ob ich von
meiner GF4400 MSI auf ne Radeon9800 wechseln soll.
Würde den Wechsel nur wagen wenn das AF gegenüber
meiner Nvidia-Karte nicht sichtbar schlechter ist.
Wenn man Wert auf AF legt, ist der Unterschied sichtbar.
Das ATI AF ist recht winkelabhängig (d.h. man bekommt den eingestellten AF-Level nur bei bestimmten winkeln) und machmal (eher selten) ist ein leichtes Banding zu erkennen. Besonders deutlich habe ich es bei UT2003 'empfunden', andere aber wieder auch nicht... who knows ?
;-)
Wenn Du auf die gute AF-Quality nicht verzichten möchtest, solltest Du nicht zu ATI wechseln, denn dann tauscht Du Qualität gegen Leistung (ausgehend von Deiner 4400). Ob der Unterschied erheblich ist, hängt von dem Betrachter ab. Bei mir war es (mit) ein Grund, von einer ATI-Lösung abzusehen...
Razor
P.S.: Bei UT2003 bekommst Du das 'gute' AF derzeit auch von nVidia nicht (beta Deto >= 44.6x)...
Mr. Lolman
2003-07-20, 23:21:09
ATi Radeon 9700pro, 4xAA, 16x Performance AF (http://www.dodstudios.net/uploads/uploads/Shot00106.jpg) (Originaltakt: 53 fps; Nonprotakt: 45fps - @XP2400+)
FX 5900 Ultra, 4xAA, 8x, Quality AF (http://staff.withingames.net/iceman/4x8x.jpg) (@ PIV 2.53GHz)
(Stimmt, die NV BQ ist bei UT2003 etwass schlechter geworden, dafür sind die fps ~30% höher als mit älteren Detos.)
Lightning
2003-07-20, 23:44:47
Ich hab zwar keine FX5900 zum Vergleichen - aber am AF meiner Radeon 9700Pro habe ich kaum etwas auszusetzen. Schnell und schön, die Winkelabhängigkeit bemerkt man nur sehr selten.
Quasar
2003-07-21, 00:28:37
Wenn man wirklich mal Äpfel mit Äpfeln vergleicht (wenn auch vielleicht "rote" mit "grünen" [passt hier auch in doppeltem Sinne]), dann sieht man schon einen nicht zu verachtenden Unterschied zwischen den beiden AF-Arten.
Die "Probleme" dabei sind folgende:
a) Der Unterschied wird immer geringer, je länger zurück die Vergleichsmöglichkeit liegt
b) Der IQ-Unterschied wird mit einem deutlichen Leistungsunterschied erkauft. 145,21fps zu 101,28fps bei R9800p (380/340) vs. FX5900GS (440/450-Taktung) im UT2003-Demo Flyby mit r-Tool-AF (d.h. alle Stages tri-AF gefiltert) bzw. mit Unwinders Anti-Detection-Scripts (d.h. keinerlei Optimierungen mehr auf UT2003, die bei ATi noch vorhanden sein könnten.
Wenn dir also der Verzicht auf 45% Leistungsplus sowie auf das bessere FSAA das bessere AF wert ist, ist nV der Chip deiner Wahl, ansonsten eher ATi.
Pitman
2003-07-22, 11:32:34
Original geschrieben von Quasar
Wenn man wirklich mal Äpfel mit Äpfeln vergleicht (wenn auch vielleicht "rote" mit "grünen" [passt hier auch in doppeltem Sinne]), dann sieht man schon einen nicht zu verachtenden Unterschied zwischen den beiden AF-Arten.
Die "Probleme" dabei sind folgende:
a) Der Unterschied wird immer geringer, je länger zurück die Vergleichsmöglichkeit liegt
b) Der IQ-Unterschied wird mit einem deutlichen Leistungsunterschied erkauft. 145,21fps zu 101,28fps bei R9800p (380/340) vs. FX5900GS (440/450-Taktung) im UT2003-Demo Flyby mit r-Tool-AF (d.h. alle Stages tri-AF gefiltert) bzw. mit Unwinders Anti-Detection-Scripts (d.h. keinerlei Optimierungen mehr auf UT2003, die bei ATi noch vorhanden sein könnten.
Wenn dir also der Verzicht auf 45% Leistungsplus sowie auf das bessere FSAA das bessere AF wert ist, ist nV der Chip deiner Wahl, ansonsten eher ATi.
Mein Problem ist ja das ich mich nicht entscheiden kann !
Nur wer nimmt mir die Entscheidung ab, wenn ich nicht die
Möglichkeit habe beide Karten direkt nebeneinander in
Aktion zu sehen.
Also es sollte eine Karte sein die nicht mehr als 380 Ecken
kostet schnell genug ist für die nachfolgenden Spiele. Die
9800Pro ist deutlich schneller als eine 5900 (o. ultra) nur
werde ich mich über das AF ärgern ??
Spiele zur Zeit mit meiner GF4 4XAF im Ausgeglichenen Modus
z.B sehr gerne Medal of Honour (Spearhead). Welche Einstellung
muesste ich dann bei der Radeon vornehmen um eine entsprechende
Bildqualität zu bekommen ?
Hat jemand die Möglichkeit auch mal von Medal of Honour ein
Vergleichsbild Online zu stellen ??
Pitman
Mr. Lolman
2003-07-22, 11:43:54
Original geschrieben von Pitman
Spiele zur Zeit mit meiner GF4 4XAF im Ausgeglichenen Modus
z.B sehr gerne Medal of Honour (Spearhead). Welche Einstellung
muesste ich dann bei der Radeon vornehmen um eine entsprechende
Bildqualität zu bekommen ?
Pitman
ATis 4x Quality AF. Und nein, gerade beim 4xAF und Quality/Ausgeglichen wirst du keinen Unterschied merken.
LovesuckZ
2003-07-22, 11:54:50
Original geschrieben von Mr. Lolman
ATis 4x Quality AF. Und nein, gerade beim 4xAF und Quality/Ausgeglichen wirst du keinen Unterschied merken.
Wenn Texturen in den unguenstigen Winkel liegen, dann merkt er den Unterschied schon. Denn der Sprung von 4AF auf 8AF ist von der Wahrnehmung deutlich geringere als von 2 auf 4.
Mr. Lolman
2003-07-22, 11:58:16
Glaub ich nicht. V.a wird das mit den ungünstigen Winkeln immer so dargestellt, als würde es einen Hacker machen, und genau dort die Texturqualität offensichtlich schlechter sein.
Das dem nicht so ist, kann man ja an den Winkeln in den UT2003 Screenshots erkennen, auf der vorigen Seite. Das wirkts fast so als wäre der Winkeln auch für die FX ziemlich ungünstig.
LovesuckZ
2003-07-22, 12:22:22
Original geschrieben von Mr. Lolman
Glaub ich nicht. V.a wird das mit den ungünstigen Winkeln immer so dargestellt, als würde es einen Hacker machen, und genau dort die Texturqualität offensichtlich schlechter sein.
So ist es auch.
Beispiel battlefield Demo: Ich glaube Wake the Island Map oder so. Da sind die Haeuserdaecher genau in den Winkeln, wo das AF nur noch mit 2AF gefiltert wird. Du hast einen perfekt gefilterten Boden, aber musst, um diese Qualitaet an den Daechern zu erreichen sehr nah an diese heran. Es sieht so aus als ob da irgendwas anders laeuft.
Und auch in em Spiel faellt der Sprung von 4 auf 8 AF kaum auf. Jedoch 2 zu 4 sieht man an en Daechern deutlich.
Mr. Lolman
2003-07-22, 12:25:05
Original geschrieben von LovesuckZ
So ist es auch.
Beispiel battlefield Demo: Ich glaube Wake the Island Map oder so. Da sind die Haeuserdaecher genau in den Winkeln, wo das AF nur noch mit 2AF gefiltert wird. Du hast einen perfekt gefilterten Boden, aber musst, um diese Qualitaet an den Daechern zu erreichen sehr nah an diese heran. Es sieht so aus als ob da irgendwas anders laeuft.
Und auch in em Spiel faellt der Sprung von 4 auf 8 AF kaum auf. Jedoch 2 zu 4 sieht man an en Daechern deutlich.
Hast nen Screenshot? Battlefield hab ich (noch) nicht...
Iceman346
2003-07-22, 13:06:24
Original geschrieben von Mr. Lolman
Hast nen Screenshot? Battlefield hab ich (noch) nicht...
http://staff.withingames.net/iceman/BF1942.PNG (2,09 MB)
4x AA + 16x AF über rTool geforced in 1280x960x32. Ich stehe extra auf dem Panzer damit man die Dächer besser sehen kann ;). Beim bewegen sieht man einen Moiré Effekt auf den Dächern aber abgesehen davon ist imo hier der Unterschied kleiner als Suckie ihn machen will ;)
Exxtreme
2003-07-22, 13:13:29
Original geschrieben von Iceman346
Beim bewegen sieht man einen Moiré Effekt auf den Dächern
Moiré bekommt man mit dem AF nicht weg. Nur Supersampling mit (pseudo)zufälligen Samplemuster kann es wirksam beseitigen.
Omnicron
2003-07-22, 13:40:23
Original geschrieben von Iceman346
http://staff.withingames.net/iceman/BF1942.PNG (2,09 MB)
4x AA + 16x AF über rTool geforced in 1280x960x32. Ich stehe extra auf dem Panzer damit man die Dächer besser sehen kann ;). Beim bewegen sieht man einen Moiré Effekt auf den Dächern aber abgesehen davon ist imo hier der Unterschied kleiner als Suckie ihn machen will ;)
Ist das vom Dach hier denn ein Grafikfehler, oder folge der schlechten Filterung ?
betasilie
2003-07-22, 13:47:06
Original geschrieben von Exxtreme
Moiré bekommt man mit dem AF nicht weg. Nur Supersampling mit (pseudo)zufälligen Samplemuster kann es wirksam beseitigen.
Moire bekommt man mit entspechender Einstellung des LOD beim Mipmapping weg und ggf. in Kambination mit AF, afaik.
Quasar
2003-07-22, 13:47:33
Linke Hälfte des Daches: 16xAF, die beiden rechten Dächer: 2xAF oder weniger, schätze ich.
Iceman346
2003-07-22, 14:14:09
Original geschrieben von Omnicron
Ist das vom Dach hier denn ein Grafikfehler, oder folge der schlechten Filterung ?
Das dürfte die Folge der schlechten Filterung sein.
Nen Screenie von ner GFFX schieb ich nachher noch nach. Aber erst nach dem Mittagessen ;)
Exxtreme
2003-07-22, 14:30:37
Original geschrieben von betareverse
Moire bekommt man mit entspechender Einstellung des LOD beim Mipmapping weg und ggf. in Kambination mit AF, afaik.
Nein.
Moiré ist nämlich ein Aliasing-Effekt.
P.S. Doch. :D
Moiré KANN auch durch einen falschen LOD-Bias verursacht werden.
Iceman346
2003-07-22, 14:59:23
Hier der FX Screenie. Ist mit 4x AA und 8x (Quality) AF gemacht:
http://staff.withingames.net/iceman/BF1942FX.PNG (2,11 MB)
Exxtreme
2003-07-22, 15:05:02
Original geschrieben von Iceman346
Hier der FX Screenie. Ist mit 4x AA und 8x (Quality) AF gemacht:
http://staff.withingames.net/iceman/BF1942FX.PNG (2,11 MB)
Sorry, aber so viele Unterschiede sehe ich da nicht... :|
Iceman346
2003-07-22, 15:07:28
Am hinteren Hausdach ist bei der Radeon ein deutlicher Moiré Effekt aber das vordere Hausdach sieht kaum unterschiedlich aus.
Edit: Ausserdem erkennt man hier gut wie scheisse (tschuldigung) das 4x AA von Nvidia ist. Man achte nur mal auf die Giebel der Häuser, die Schiessstände und die Hügel im Hintergrund.
LovesuckZ
2003-07-22, 15:10:22
Original geschrieben von Iceman346
Beim bewegen sieht man einen Moiré Effekt auf den Dächern aber abgesehen davon ist imo hier der Unterschied kleiner als Suckie ihn machen will ;)
Je niedriger die Aufloesung, umso schlechter sieht die Stelle aus. Und auch erst in Bewegung stoert diese Stelle sehr, da es hier flimmert. Und wenn du ein Stueckchen nach hinten gehen wuerdest, dann waere auch das vordere rechte Dach deutlich schlechter gefiltert.
Zu den Bildervergleich: Abgesehen von den Daechern siehst es so aus als ob das Nvidiaverfahren im Hintergrund deutlich schaerfer ist. Auch recht an der Hauswand. Bist du dir sicher, dass du beim ATi Bild 16 AF genommen hast?
Iceman346
2003-07-22, 15:32:10
Original geschrieben von LovesuckZ
Zu den Bildervergleich: Abgesehen von den Daechern siehst es so aus als ob das Nvidiaverfahren im Hintergrund deutlich schaerfer ist. Auch recht an der Hauswand. Bist du dir sicher, dass du beim ATi Bild 16 AF genommen hast?
Auf die Gefahr hin dich enttäuschen zu müssen: Ich kann beim besten Willen keinen deutlichen Schärfeunterschied fesstellen. Und solange das rTool keinen Mist gebaut hat war 16x AF aktiv.
Omnicron
2003-07-22, 15:32:17
Original geschrieben von Iceman346
Edit: Ausserdem erkennt man hier gut wie scheisse (tschuldigung) das 4x AA von Nvidia ist. Man achte nur mal auf die Giebel der Häuser, die Schiessstände und die Hügel im Hintergrund.
Ich bezweifle das du da überhaupt 2xAA an hast, 4xAA sieht bei mir jedenfalls so aus : http://www.dodstudios.net/uploads/uploads/BF1942FX.jpg
LovesuckZ
2003-07-22, 15:34:00
Original geschrieben von Iceman346
Auf die Gefahr hin dich enttäuschen zu müssen: Ich kann beim besten Willen keinen deutlichen Schärfeunterschied fesstellen. Und solange das rTool keinen Mist gebaut hat war 16x AF aktiv.
Hinten am Haus und an der weißen Stelle. Und dann am 2. Haus rechts an der Hauswand. Die Stellen sehen schlechter aus.
Exxtreme
2003-07-22, 15:34:53
Original geschrieben von Omnicron
Ich bezweifle das du da überhaupt 2xAA an hast, 4xAA sieht bei mir jedenfalls so aus : http://www.dodstudios.net/uploads/uploads/BF1942FX.jpg
Hmm, ist die Schrift immer so unleserlich?
Iceman346
2003-07-22, 15:39:25
Original geschrieben von Omnicron
Ich bezweifle das du da überhaupt 2xAA an hast, 4xAA sieht bei mir jedenfalls so aus : http://www.dodstudios.net/uploads/uploads/BF1942FX.jpg
Du hast halb recht ;) 4x AA ist zwar aktiv, aber dank der Technik die Nvidia verwendet um das finale Bild zu mixen kann man davon keinen Screenie machen. Ergo ist die AA Qualität des Bildes != der AA Qualität im Spiel. Diese sieht stark nach deinem Bild aus.
Edit: @Exxtreme Die Schrift ist immer so unlerserlich, ja
Mr. Lolman
2003-07-22, 15:42:02
editiert
Omnicron
2003-07-22, 15:42:12
Original geschrieben von Iceman346
Du hast halb recht ;) 4x AA ist zwar aktiv, aber dank der Technik die Nvidia verwendet um das finale Bild zu mixen kann man davon keinen Screenie machen. Ergo ist die AA Qualität des Bildes != der AA Qualität im Spiel. Diese sieht stark nach deinem Bild aus.
Edit: @Exxtreme Die Schrift ist immer so unlerserlich, ja
Hmm das ich einen Shot vom AA machen kann liegt dann entweder am verwendeten Treiber, oder an der BF Version.
(Ich hab 1.4 dt., du die eng. Demo ?)
Iceman346
2003-07-22, 15:43:11
Original geschrieben von LovesuckZ
Hinten am Haus und an der weißen Stelle.
Kann ich mir ehrlich gesagt nichts drunter vorstellen, kannst dus aus den Screenies ausschneiden und zusammengeschnitten hier posten?
Und dann am 2. Haus rechts an der Hauswand. Die Stellen sehen schlechter aus.
Jo, hier kann ich eine gewisse Unschärfe bei der ATi Karte wahrnehmen. Von einem deutlichen Unterschied ist das imo aber weit entfernt.
Iceman346
2003-07-22, 15:44:35
Original geschrieben von Omnicron
Hmm das ich einen Shot vom AA machen kann liegt dann entweder am verwendeten Treiber, oder an der BF Version.
(Ich hab 1.4 dt., du die eng. Demo ?)
Ich nutze den 44.03 Treiber und hab die Battlefield Version 1.31 (von der letzten Lan noch ;))
Exxtreme
2003-07-22, 15:44:47
Original geschrieben von Mr. Lolman
Und gegen Moiré (falls es jemanden wirklich stört), gibts ja den TexutreLODRegler im ATi Treiber
Ist in diesem Spiel auch ziemlich nötig. Die Designer hatten wohl null Plan bezüglich LOD-Bias & Co.
Gast_Troll ;)
2003-07-22, 15:51:53
Original geschrieben von Mr. Lolman
Ich würde mal versuchen, das ATi AA Live zu Gesicht zu bekommen. Die Gamescreenshots zeigen bei UT2003 imho NULL Unterschied zw. NV App. AF und ATIs Performance AF... also eigentlich ein Pluspunkt für ATi.
Hier mal gucken :
http://www.beyond3d.com/forum/viewtopic.php?t=6981&sid=1167d9b797aac164654a6d5cd52b9c56
Ich dachte NVIDIA macht dieses spezielle Downsampling bei 4xAA (oder wie auch immer das hieß*g*) nur bei den 256MB Modellen. Omnicron hat afais "nur" die 128MB Variante der FX5900.
Iceman346
2003-07-22, 16:12:24
Original geschrieben von kami
Ich dachte NVIDIA macht dieses spezielle Downsampling bei 4xAA (oder wie auch immer das hieß*g*) nur bei den 256MB Modellen. Omnicron hat afais "nur" die 128MB Variante der FX5900.
Wenn dem so ist, dann wäre das wohl geklärt ;) Ich hab hier ne 5900 Ultra mit 256 MB im PC stecken.
BTW: Kann jemand mal versuchen in Morrowind mit ner FX AA zu aktivieren? Mit dem 44.03 Treiber kriege ich mit der Karte keinerlei AA. Bei 4xS scheint wenigstens noch der Supersampling Anteil dargestellt zu werden. Bei 4x garnichts.
Mr. Lolman
2003-07-22, 16:13:26
Original geschrieben von Gast_Troll ;)
Hier mal gucken :
http://www.beyond3d.com/forum/viewtopic.php?t=6981&sid=1167d9b797aac164654a6d5cd52b9c56
Mir gings zwar um das AF, aber mit dem nv35-R350 vergleich, merkt man einem enormen Unterschied bei den AA Qualitäten. Also ist der Review-Quote in LS Sig nicht unbedingt für voll zu nehmen...
Gast_Troll ;)
2003-07-22, 16:15:27
Original geschrieben von Mr. Lolman
Glaub ich nicht. V.a wird das mit den ungünstigen Winkeln immer so dargestellt, als würde es einen Hacker machen, und genau dort die Texturqualität offensichtlich schlechter sein.
Das dem nicht so ist, kann man ja an den Winkeln in den UT2003 Screenshots erkennen, auf der vorigen Seite. Das wirkts fast so als wäre der Winkeln auch für die FX ziemlich ungünstig.
100% zustimm!
Bei der R9800Pro ist der schlechteste Winkel 22,5°; bei den NV3x-Karten 45°.
Shixx ich finde jetzt gerade keinen Link. Sorry
edit :
ziemliche alte Screenies von einer FX5800:
Aggressive :
http://www.beyond3d.com/previews/nvidia/gffxu/filtering/aggr_8x.gif
Balanced :
http://www.beyond3d.com/previews/nvidia/gffxu/filtering/bal_8x.gif
Application (hier aber nur sehr wenig ) :
http://www.beyond3d.com/previews/nvidia/gffxu/filtering/app_8x.gif
Was neueres von einer NV31 :
http://www.beyond3d.com/previews/nvidia/nv31/index.php?p=4 (sieht genauso aus)
Also entweder _ziemlich_ langsam, oder häßliicher als bei einer ATi-Karte.
Omnicron
2003-07-22, 16:25:52
Original geschrieben von Iceman346
Wenn dem so ist, dann wäre das wohl geklärt ;) Ich hab hier ne 5900 Ultra mit 256 MB im PC stecken.
BTW: Kann jemand mal versuchen in Morrowind mit ner FX AA zu aktivieren? Mit dem 44.03 Treiber kriege ich mit der Karte keinerlei AA. Bei 4xS scheint wenigstens noch der Supersampling Anteil dargestellt zu werden. Bei 4x garnichts.
Bei mir geht AA in Morrowind, welche Auflösung meinst du denn ?
Edit: Versuch doch mal den 44.71 Treiber, der läuft sehr gut bei mir.
Quasar
2003-07-22, 16:26:13
Leider falsch. Weder ist das AF so langsam, wie du es darstellen willst, noch ist es so häßlich, wie du behauptest.
Iceman346
2003-07-22, 16:26:33
Original geschrieben von Omnicron
Bei mir geht AA in Morrowind, welche Auflösung meinst du denn ?
Ich habs in 1024er Auflösung laufen. AA/AF ganz normal über den Treiber aktiviert. Ich versuchs mal mit dem aTuner.
Edit: Auch mit dem aTuner das Gleiche. Keinerlei AA. AF funktioniert aber.
Nen anderen Treiber hab ich momentan keine Lust zu installieren. Die Benches die ich mache bzw. gemacht habe hab ich mit dem 44.03 gemacht weils der letzte offizielle Treiber von Nvidia ist. Irgendwelche Betatreiebereien werde ich hier nicht anfangen.
Mr. Lolman
2003-07-22, 16:30:50
Original geschrieben von Quasar
Leider falsch. Weder ist das AF so langsam, wie du es darstellen willst, noch ist es so häßlich, wie du behauptest.
Den Spruch kann man an manchen Leuten zu 100% zurückgeben. ;)
Aber "ihr NV User" verwendet doch auch (fast) alle Balanced AF**, weil der bQ Verlust (zum App.) in keiner Relation zum Leiostungsgewinn steht. Und Balanced AF sieht (je nach Situation) kaum, bis etwas schlechter (manchmal auch besser) aus als ATi Quality AF.
**was ja eigenlich fast ein bisschen idiotisch ist. Da kauft man sich eine Karte wegen dem AF, und dann nutzt mans nicht, weil Balanced kaum schlechter aussieht, und dafür ~30% schneller ist.
Iceman346
2003-07-22, 16:35:00
Noch eine Frage: Mein Testmuster hat die seltsame Angewohnheit ein leicht Flackerndes Bild auf den Monitor zu bringen bei manchen Spielen, vor allem wenn viel AA und AF angeschaltet ist. Hat das noch jemand mit der FX oder ists einfach ein schlechtes Muster? Sieht etwa so aus wie Wellenberge verschiedener Helligkeit die über den Bildschirm laufen.
Quasar
2003-07-22, 16:44:05
Original geschrieben von Mr. Lolman
Den Spruch kann man an manchen Leuten zu 100% zurückgeben. ;)
Aber "ihr NV User" verwendet doch auch (fast) alle Balanced AF**, weil der bQ Verlust (zum App.) in keiner Relation zum Leiostungsgewinn steht. Und Balanced AF sieht (je nach Situation) kaum, bis etwas schlechter (manchmal auch besser) aus als ATi Quality AF.
**was ja eigenlich fast ein bisschen idiotisch ist. Da kauft man sich eine Karte wegen dem AF, und dann nutzt mans nicht, weil Balanced kaum schlechter aussieht, und dafür ~30% schneller ist.
Andere Leute in Schubladen zu stecken vereinfacht vieles, oder?
Ich habe, ausser mal für fünf Minuten zum Testen hier auf meiner FX5200, noch keine andere Option als Quality-AF angerührt, auch wenn ich es in UT2003 anscheinend nicht bekommen könnte.
Quasar
2003-07-22, 16:45:35
Original geschrieben von Iceman346
Noch eine Frage: Mein Testmuster hat die seltsame Angewohnheit ein leicht Flackerndes Bild auf den Monitor zu bringen bei manchen Spielen, vor allem wenn viel AA und AF angeschaltet ist. Hat das noch jemand mit der FX oder ists einfach ein schlechtes Muster? Sieht etwa so aus wie Wellenberge verschiedener Helligkeit die über den Bildschirm laufen.
Ja, das scheint bei manchen FX5900 aufzutreten. Ich konnte es bislang erst auf einer Karte beobachten (dem nVidia-Referenzsample, welches noch das alte, lange Layout hatte).
Iceman346
2003-07-22, 16:49:57
grml, ich verzweifel gerade. Eigentlich wollte ich Screenshots anfertigen auf denen man die BQ vergleichen kann, aber weder vom 4x AA noch vom 4xS lassen sich ordentliche Screenies machen.
Edit: Ich liebe Fraps, damit gehts. Im Gegensatz zu Hypersnap.
DrumDub
2003-07-22, 17:16:49
quasar
zu dem wellen/flimmerproblem gibt schon nen thread im nvidia-forum. könnte vielleicht nen ähnliches problem sein wie auf manchen radeons (spannungswandler?), vermute ich einfach mal: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=83130
betasilie
2003-07-22, 17:51:34
Original geschrieben von Iceman346
Jo, hier kann ich eine gewisse Unschärfe bei der ATi Karte wahrnehmen. Von einem deutlichen Unterschied ist das imo aber weit entfernt.
Genau so sieht es nämlich aus. ... Man kann an einigen Stellen in wenigen Spielen so etwas beobachten, aber lovesucks Darstellungen sind dermaßen übertrieben, dass er sich imo nur noch lächerlich macht.
Mr. Lolman
2003-07-22, 21:45:13
Wisst ihr woher der Bug kommt? Das ist eine Eigenschaft der RAMDAC Multisampling FSAA Technik der FX. Es werden leicht unterschiedliche freames überlagert, und durch den Unterschied scheints anmanchen Monitoren zu flimmern (durch die Halbierung der Refreshrate für den "jew. Blickwinkel" Bild.
Lösung: Hz erhöhen, oder anderen Monitor kaufen...
LovesuckZ
2003-07-22, 21:46:36
Original geschrieben von Mr. Lolman
Wisst ihr woher der Bug kommt? Das ist eine Eigenschaft der RAMDAC Multisampling FSAA Technik der FX. Es werden leicht unterschiedliche freames überlagert, und durch den Unterschied scheints anmanchen Monitoren zu flimmern (durch die Halbierung der Refreshrate für den "jew. Blickwinkel" Bild.
Hm, dann muesste dieses Flackern doch auch bei den GF4TI karten auffallen, weil dort doch bei 2AA die selbe Technik zum Einsatz kommt?
Quasar
2003-07-22, 21:55:05
Original geschrieben von Mr. Lolman
Wisst ihr woher der Bug kommt? Das ist eine Eigenschaft der RAMDAC Multisampling FSAA Technik der FX. Es werden leicht unterschiedliche freames überlagert, und durch den Unterschied scheints anmanchen Monitoren zu flimmern (durch die Halbierung der Refreshrate für den "jew. Blickwinkel" Bild.
Lösung: Hz erhöhen, oder anderen Monitor kaufen...
Auch in 2D??
Mr. Lolman
2003-07-22, 21:56:52
Original geschrieben von LovesuckZ
Hm, dann muesste dieses Flackern doch auch bei den GF4TI karten auffallen, weil dort doch bei 2AA die selbe Technik zum Einsatz kommt?
Mir ists bei einem Treiber in Unreal Tournament (1) in 640x480, 4xAA, 60Hz (weiss jetzzt nicht ob OpenGL oder D3D:() aufgefallen. (und zwar bei meinem AA Testlevel) Ich hab das nicht weiter ausgetestet, weil es mir primär um einen Kantenglättungsqualitätsvergleich ging und ich in diesem Modus (D3D, oder OGL???) siewoso keine vernünftigen Screenshots erzeugen konnte.( :naughty: )
@ Quasar: Das ist anscheinend was anderes, aber wenn du UT noch oben hast, kannst du es gerne in der genanneten Konfiguration ausprobieren (http://home.arcor.de/fusionxxl/DasToem/AFTest.zip)
MadManniMan
2003-07-23, 00:40:24
VORSICHT: ALLES IMHO!
Original geschrieben von Pitman
Genau mir kommt es nur auf das AF an ! Es sollte
nicht sichtbar schlechter bzw. sollte nur gering
schlechter sein als meine GF4.
Wenn es nach dem dicken Textteil geht: nimm die Karte. Das AF ist sicherlich nicht ganz so top, wie das der GF, aber immernoch klasse.
Endorphine empfindet es persönlich etwas anders, aber das ist eben Geschmacksfrage (man muß es einfach gesehen haben). Nachdem ich mit meiner GF3 kaum mehr AF als 4tap wirklich nutzen konnte, ist es für mich nun natürlich ein Segen, dank dauerangestelltem 16tap eine sehr hochwertige Texturenquali aufm Moni zu haben, von daher sind meine Vergleichsmöglichkeiten nur begrenzt.
Zu Lovesucks Beobachtung mit BF42 sage folgendes: er hat es mal eben in der Demo gezockt, ich spiele es seit einem halben Jahr regelmäßig und sage dir: man achtet in einem solchen Spiel nicht wirklich auf ein Angewinkeltes Dach, das nur mit 2tap AF gefiltert wird, sonder viel stärker auf die weitläufigen Landschaften - und die bekommen in etwa immer um die 8 bis 16tap -> ein doch schon schunderwönes Bild!
Irgendwer hatte doch gefragt, warum die Textur auf dem Doch so merkwürdig scheint: eindeutig Moire!
Oha! jetzt hätt ich doch fast was vergessen: das ATi-AA. Ich persönlich erlebe inzwischen alles unter 4*RGAA als stark störendes Kantenaliasing (Q3A mal ausgenommen: das ist zu schnell!) und muß sagen, daß ich persönlich die Beruhigung des Bildes durch hochwertiges AA mehr schätze, als die Verschärfung des selbigen durch gutes AF - wobei ich natürlich letzteres auch nicht missen will.
silverhawk
2003-07-23, 08:38:55
wenne noch das rtool nehmen würdest kannste ja dein aF immer noch´n bisschen verbessern indem dort alle stages optimiert werden, sprich trilinear gefiltert werden!
betasilie
2003-07-23, 13:52:34
Original geschrieben von MadManniMan
[color=red][size=3]
Irgendwer hatte doch gefragt, warum die Textur auf dem Doch so merkwürdig scheint: eindeutig Moire!
Und das hängt mit dem 2*AF zusammen, da der Mipmap-LOD nicht auf das 2*AF angepasst wird. ;)
Aber Du hast schon recht. Das ist eine große Ausnahme in dem Game, an dieser Stelle. Ich liebe das AF meiner 9700, da es richtig gut aussieht und verdammt schnell ist. :D
ATI-Andi
2003-07-23, 16:38:51
Aus den gleichen Gründen mag ich auch das AF meiner 9500Pro, wenn ich da bedenke, wie die Kyro2 da eingebrochen ist. Gut ist auch schon ein alter Chip.
Pitman
2003-07-23, 17:37:04
Original geschrieben von MadManniMan
VORSICHT: ALLES IMHO!
Wenn es nach dem dicken Textteil geht: nimm die Karte. Das AF ist sicherlich nicht ganz so top, wie das der GF, aber immernoch klasse.
Endorphine empfindet es persönlich etwas anders, aber das ist eben Geschmacksfrage (man muß es einfach gesehen haben). Nachdem ich mit meiner GF3 kaum mehr AF als 4tap wirklich nutzen konnte, ist es für mich nun natürlich ein Segen, dank dauerangestelltem 16tap eine sehr hochwertige Texturenquali aufm Moni zu haben, von daher sind meine Vergleichsmöglichkeiten nur begrenzt.
Zu Lovesucks Beobachtung mit BF42 sage folgendes: er hat es mal eben in der Demo gezockt, ich spiele es seit einem halben Jahr regelmäßig und sage dir: man achtet in einem solchen Spiel nicht wirklich auf ein Angewinkeltes Dach, das nur mit 2tap AF gefiltert wird, sonder viel stärker auf die weitläufigen Landschaften - und die bekommen in etwa immer um die 8 bis 16tap -> ein doch schon schunderwönes Bild!
Irgendwer hatte doch gefragt, warum die Textur auf dem Doch so merkwürdig scheint: eindeutig Moire!
Oha! jetzt hätt ich doch fast was vergessen: das ATi-AA. Ich persönlich erlebe inzwischen alles unter 4*RGAA als stark störendes Kantenaliasing (Q3A mal ausgenommen: das ist zu schnell!) und muß sagen, daß ich persönlich die Beruhigung des Bildes durch hochwertiges AA mehr schätze, als die Verschärfung des selbigen durch gutes AF - wobei ich natürlich letzteres auch nicht missen will.
Okay das hat mich irgendwie überzeugt! Bin mittlerweile auch der
Meinung, dass man nicht ständig auf den Monitor schaut und Fehler
in der Bildqualität sucht.
Nur präsentiert mein Monitor Iiyama Vision Master Pro 450 mit der GF 4 und dem AF 4fach ein so schönes Bild, dass schon diverse Bekannte
staunend vor dem Bildschirm gestanden haben. Daher mach ich mir eben so einen Kopf über die BQ !!
Ich denke mal die 9800 Pro wird in ca. 2 wochen geordert. Preis/Leistungsmäßig find ich die Karten einfach unschlagbar.
Pitman
MadManniMan
2003-07-25, 14:22:52
Original geschrieben von betareverse
Und das hängt mit dem 2*AF zusammen, da der Mipmap-LOD nicht auf das 2*AF angepasst wird. ;)
Achso? :|
@Pitman: Freut mich, daß ich dir helfen konnte :)
kalle1111
2003-07-27, 17:06:55
@ pitman
kann mich den ausführungen von madmanniman, was battlefield angeht, nur anschließen. spiele es ebenfalls fast täglich und die bildqualität mit 4xaa und 8xaf ist wirklich hervorragend. da werden deine kumpels wieder etwas zu staunen haben ;)
Original geschrieben von Exxtreme
Moiré bekommt man mit dem AF nicht weg. Nur Supersampling mit (pseudo)zufälligen Samplemuster kann es wirksam beseitigen. Auch wenn ram das sagt, ist das so nicht vollständig richtig :D
Ein zufälliges Sampling-Muster bringt neue Probleme, außerdem kann nicht garantiert werden, dass wirklich jeder Moiré-Effekt unterdrückt wird. Und Supersampling frisst bekanntlich übermäßig viel Leistung... Textur-Aliasing ist ein Problem was vom Texturen-Designer herrührt und sollte an der richtigen Stelle behandelt, nicht durch Supersampling gedämpft werden.
MadManniMan
2003-07-30, 16:42:53
Original geschrieben von aths
Auch wenn ram das sagt, ist das so nicht vollständig richtig :D
Ein zufälliges Sampling-Muster bringt neue Probleme, außerdem kann nicht garantiert werden, dass wirklich jeder Moiré-Effekt unterdrückt wird. Und Supersampling frisst bekanntlich übermäßig viel Leistung... Textur-Aliasing ist ein Problem was vom Texturen-Designer herrührt und sollte an der richtigen Stelle behandelt, nicht durch Supersampling gedämpft werden.
Absolut, bei den BF42-Texturisten gibts wirklich einige Schludrians...
Wobei ich auch folgendes gehört/gelesen habe: die Winkeladaption der R200/R300 geht nicht so weit, daß auch eine dynamische MipMap-LoD-Bias Anpassung erfolgt -> Moire bei 2(n-1)*22,5° Winkeln...
...wobei ich mir überhaupt nicht erklären kann, was AF mit nem verschobenen Bias zu tun haben soll! Nutzen die ATi-Jungs einen gewissen Oversamplingpuffer der höheren Modi, den sie in negativen Bias stecken und der dann bei den adaptiven Winkeln Probs macht?
:| :kratz2:
Exxtreme
2003-07-30, 17:22:42
Original geschrieben von aths
Auch wenn ram das sagt, ist das so nicht vollständig richtig :D
Ein zufälliges Sampling-Muster bringt neue Probleme, außerdem kann nicht garantiert werden, dass wirklich jeder Moiré-Effekt unterdrückt wird. Und Supersampling frisst bekanntlich übermäßig viel Leistung... Textur-Aliasing ist ein Problem was vom Texturen-Designer herrührt und sollte an der richtigen Stelle behandelt, nicht durch Supersampling gedämpft werden.
Ich weiss, daß ein pseudo-zufälliges Muster neue Probleme bringt. Da wäre z.B. Noise. :)
Und bei der allgemeinen Bildqualität schneidet MSAA in den meisten Fällen deutlich schlechter ab als SSAA.
MSAA ist Sparen von Füllrate auf Kosten der Bildqualität.
Original geschrieben von Exxtreme
MSAA ist Sparen von Füllrate auf Kosten der Bildqualität.
Ich würde eher sagen, MSAA ist Verschwenden von Füllrate zugunsten der Bildqualität. :naughty:
Exxtreme
2003-07-31, 09:47:12
Original geschrieben von Gast
Ich würde eher sagen, MSAA ist Verschwenden von Füllrate zugunsten der Bildqualität. :naughty:
Du meinst SSAA. :D
</klugscheiss>
P.S. Ausserdem hat sehr gute Bildqualität einfach ihren Preis.
MadManniMan
2003-07-31, 13:11:02
Original geschrieben von Exxtreme
P.S. Ausserdem hat sehr gute Bildqualität einfach ihren Preis.
...den ich bei manchen Sachen gern bezahlen würde - nicht jedes Spiel ist BF42, Gothic zB ganz und gar nicht!
Hänschen
2003-07-31, 16:24:21
Okay das hat mich irgendwie überzeugt! Bin mittlerweile auch der
Meinung, dass man nicht ständig auf den Monitor schaut und Fehler
in der Bildqualität sucht.
Nur präsentiert mein Monitor Iiyama Vision Master Pro 450 mit der GF 4 und dem AF 4fach ein so schönes Bild, dass schon diverse Bekannte
staunend vor dem Bildschirm gestanden haben. Daher mach ich mir eben so einen Kopf über die BQ !!
Ich denke mal die 9800 Pro wird in ca. 2 wochen geordert. Preis/Leistungsmäßig find ich die Karten einfach unschlagbar.
Pitman [/SIZE][/QUOTE]
Deine Frage hab ich hier vor einem Jahr auch gestellt. Quasar war so nett u. hat mir ein paar Screenies gelinkt. Ich selbst hab jetzt keinen so großen Unterschied bei den Bildern gesehen. Also hab ich meine G3 verkauft u. mir ne 9700er gekauft.
Das prickeln, wie ich es bei der G3 bei Serious Sam od. Wolfenstein hatte, will sich mit meiner R300 Karte nicht einstellen.
Pitman
2003-07-31, 17:10:10
@Hänschen
Definier doch mal dein Wort "Prickeln" etwas genauer !
Ist das Bild unschärfer oder was fehlt, stört dich
an der Radeon-Karte. Noch hab ich sie mir nicht gekauft!
Pitman
Hänschen
2003-07-31, 18:21:47
Ich kanns nur so sagen:
Das aufpolierte Bild von der G3 wirkte atemberaubend. So klar. Das Bild wurde auch irgendwie räumlicher. Ich war total fasziniert. Hab damals den Mega Ständer bekommen.
Ich kann mich noch gut daran erinnern, wie ich zwischen AF aus u. AF max. immer hin u. her geschaltet hab. Die Veränderung bestaunt habe.
Wie sich bei SS alles veränderte. Wie die Gegner wirkten. Wow. Wie ich teilweise "blöd" nur in der Gegend rumgekuckt hab u. gestaunt habe.
Aus dieser Faszination raus hab ich mir dann auch die R300 gekauft, damit diese Faszination sich auch bei den "neuen" Games einstellt.
Und ich kann mich auch noch gut daran erinnern wie ich die R300 drinnen hatte, wie enttäuscht ich war, als ich SS zum ersten mal gestartet hab. Diese Faszination des Bildes war - für mich - weg!
Irgendwie fangen die Screenshots diesen Verlust nicht ein. Egal wieviel Bilder sich die verschiedenen Fraktionen hier hin u. her werfen.
Meine Erfahrung ist: zwischen der G3 u. 9700 liegen Welten.
Original geschrieben von Hänschen
Ich kanns nur so sagen:
Das aufpolierte Bild von der G3 wirkte atemberaubend. So klar. Das Bild wurde auch irgendwie räumlicher. Ich war total fasziniert. Hab damals den Mega Ständer bekommen.
Ich kann mich noch gut daran erinnern, wie ich zwischen AF aus u. AF max. immer hin u. her geschaltet hab. Die Veränderung bestaunt habe.
Wie sich bei SS alles veränderte. Wie die Gegner wirkten. Wow. Wie ich teilweise "blöd" nur in der Gegend rumgekuckt hab u. gestaunt habe.
Aus dieser Faszination raus hab ich mir dann auch die R300 gekauft, damit diese Faszination sich auch bei den "neuen" Games einstellt.
Und ich kann mich auch noch gut daran erinnern wie ich die R300 drinnen hatte, wie enttäuscht ich war, als ich SS zum ersten mal gestartet hab. Diese Faszination des Bildes war - für mich - weg!
Irgendwie fangen die Screenshots diesen Verlust nicht ein. Egal wieviel Bilder sich die verschiedenen Fraktionen hier hin u. her werfen.
Meine Erfahrung ist: zwischen der G3 u. 9700 liegen Welten.
Mach mich nicht schwach, hatte mich eigentlich schon entschieden !
Bin von der Bildqualität meiner GF4 auch so angetan...aber das
hatte ich ja schon geschrieben. Was nützen mir 250 Frames mit
verwaschener Bildqualität? Oder was nützt mir eine Grafikkarte
die 250 Frames darstellt aber in der vergleichbaren Bild-
qualitätseinstellung runter auf 50 Frames geht und somit die
GF 5900 schneller ist ??
Pitman
Pitman
2003-07-31, 18:52:22
Sorry hatte mich nicht angemeldet daher der User GAST !
Ich bins Pitman
:bad1:
Hänschen
2003-07-31, 19:12:56
Deine Entscheidung!
Kannst meine R300 für EUR 150,00 haben. Versand/Versicherung übernehme ich ;-).
So toll wie ich die Karte finde:
- sehr schnell
- best AA
- und nie wirkliche Probleme
fliegt se raus!
Riptor
2003-08-01, 03:08:23
@ Asuka: Dein dämliche Fangehabe geht mir so langsam auf den Geist... Wenn das jetzt "lustig" sein sollte, dann hats jedenfalls nicht richtig gewirkt.
@ Hänschen: Hmmmmm... Hatte GF3Ti200 und so gut wie IMMER AF an... Mit ner R300 kann ich aber kaum sagen, dass diese "Faszination" einfach weg ist. Unterschiede sind vllt erkennbar, nur merk ich beim Spielen diese "Unterschiede" nicht. Wie auch? Ich spiele und such nicht mit der Lupe ;) ... Aber endlich kann ich auch neuere Games ruckelfrei spielen und um das geht es ja. :)
MadManniMan
2003-08-01, 03:35:25
Original geschrieben von Riptor
@ Hänschen: Hmmmmm... Hatte GF3Ti200 und so gut wie IMMER AF an... Mit ner R300 kann ich aber kaum sagen, dass diese "Faszination" einfach weg ist. Unterschiede sind vllt erkennbar, nur merk ich beim Spielen diese "Unterschiede" nicht. Wie auch? Ich spiele und such nicht mit der Lupe ;) ... Aber endlich kann ich auch neuere Games ruckelfrei spielen und um das geht es ja. :)
Hm... tja, ich hatte den selben Wechsel durch, wußte aber vorher schon, worauf ich mich einlassen würde. Bei der GF3 hatte man immer gleich Höchstgefühle, wenns nich zuckelte mit AA oder AF. Jetzt klappts (bisher) immer....
:eyes:
Achja, Asuka - der war nich lustig.
Original geschrieben von MadManniMan
Hm... tja, ich hatte den selben Wechsel durch, wußte aber vorher schon, worauf ich mich einlassen würde. Bei der GF3 hatte man immer gleich Höchstgefühle, wenns nich zuckelte mit AA oder AF. Jetzt klappts (bisher) immer....
:eyes:
Achja, Asuka - der war nich lustig.
Nein, war er in der Tat nicht. Sowas reicht meines Erachtens schon für ne Verwarnung... Und nun gerade er muss sich über "Fans" von bestimmten Herstellern auslassen. ;)
Zum Thema: Das AF bei meiner GF4 sieht zwar wirklich schnieke aus, nur leider ist das Kärtchen nicht so ganz fix mit 8xTri-AF. :D
Aber da der Sprung bei mir von GF1 (Elsa Erazor X, noch mit SD-RAM) auf GF4 war, gab's doch nen hübschen "oho"-Effekt, obwohl damit eher der Speed als AF oder AA gemeint ist. Trotzdem ist die BQ unter 2D bei meiner GF4 von Albatron doch sichtlich besser als bei meiner alten GF1. :)
Meine nächste Karte wird dann aber wenigstens 2xAA und 8xAF mitmachen müssen, ohne groß an Performance zu verlieren.
Pitman
2003-08-01, 15:59:08
Original geschrieben von Hänschen
Deine Entscheidung!
Kannst meine R300 für EUR 150,00 haben. Versand/Versicherung übernehme ich ;-).
So toll wie ich die Karte finde:
- sehr schnell
- best AA
- und nie wirkliche Probleme
fliegt se raus!
Ne suche ja eine 9800 Pro. Für welche Karte würdest du dich
denn entscheiden ??
Pitman
Hänschen
2003-08-01, 19:20:06
Ich warte auf die nächste Kartengeneration.
Das Preis/Leistungsverhältnis der 9800 pro gefällt mir überhaupt nicht. 350 Steine ist scho a Geld. Die 9700er kostet neu EUR 200,00.
Überleg mal folgendes:
Wenn Du Dir ne 9700er kaufst neu/gebraucht hast Du folgende Vorteile:
- kostet ne ganze Ecke weniger
- wenn Dir das AF nicht gefällt, wenig Geld in den Sand gesetzt
- wenn die neue Kartengeneration da ist, kannst Dich neu orientiern
und die 9700er mit "wenig" Wertverlust verkaufen.
- u. die 9700er ist schon schnell, sehr schnell....
Im Moment weis man noch nicht wo die Reise im Grafikchipmarkt hingeht. Kann mir gut vorstellen, dass Beide mit ihren neuen Chips mächtig anziehen. Warum jetzt also soviel in einen Refreshchip investieren, bei dem auch noch zweifelhaft ist, ob es Deinen Ansprüchen genügt.
Ich weiss wie das ist wenn man Geil auf Hardware ist. Aber meine Meinung: Schwanz einziehen u. mit der TI noch ne weile Leben u. dann bei der neuen Generation den Favoriten suchen. Er wird dann bestimmt auch ein paar Zentimeter länger sein.
Mr. Lolman
2003-08-01, 19:40:45
Stimmt, jetzt ist es schon recht spät zum Aufrüsten. V.A. weil die neuen GraKas schon wieder in den Startlöchern stehen.
Aber ich glaube kaum, dass in nächster Zeit irgendeinem Hersteller nocheinmal so ein signifikanter Leistungssprung gelingt, wie ATi mit der 9700pro vgl. zur GFTi4600 bewerkstelligte.
Hänschen
2003-08-01, 19:56:18
Original geschrieben von Mr. Lolman
Stimmt, jetzt ist es schon recht spät zum Aufrüsten. V.A. weil die neuen GraKas schon wieder in den Startlöchern stehen.
Aber ich glaube kaum, dass in nächster Zeit irgendeinem Hersteller nocheinmal so ein signifikanter Leistungssprung gelingt, wie ATi mit der 9700pro vgl. zur GFTi4600 bewerkstelligte.
Aus der BWL kann ich Dir sagen, dass konkurierende Unternehmen mehrere Strategien fahren können.
a) friedliche Coexistenz (beide sind mehr od. weniger mit ihrem Marktanteil zu frieden)
b) agressive Strategie (Kampf bis auf Messer um jeden Kunden)
Sehe bis jetzt nur eigentl. nur die agressive Handlungsweise. Aus diesem Gedanken heraus kann ich mir jetzt gut vorstellen, dass die Chips super werden. Hierbei vernachlässige ich natürlich voll die technische Seite.
Aber eins ist sicher: Ausruhen kann sich im Moment keiner. Die Ampel steht so gesehen voll auf Grün für den Kunden.
Schönen Abend!
Mr. Lolman
2003-08-01, 20:02:45
Schon klar, dass jeder Hersteller will, dass sein Chip 'super' wird. Aber irgendwo gibts technische Grenzen, sonst hätte NVidia spätestens mit dem NV35 alles weggerul0rt.
Aquaschaf
2003-08-01, 22:03:01
das beste ist wohl auf NV38 und R360 zu warten um sich dann ne 9800 Pro oder eine 5900(Ultra?) zu kaufen - die dann sicher etwas im Preis fallen könnten.
Razor
2003-08-02, 16:18:56
Original geschrieben von Mr. Lolman
Stimmt, jetzt ist es schon recht spät zum Aufrüsten. V.A. weil die neuen GraKas schon wieder in den Startlöchern stehen.
Du meinst die nächsten 'Aufgüsse' ?
Sorry, aber Anfang nächsten Jahres wird's vielleicht wieder interessant...
Original geschrieben von Mr. Lolman
Aber ich glaube kaum, dass in nächster Zeit irgendeinem Hersteller nocheinmal so ein signifikanter Leistungssprung gelingt, wie ATi mit der 9700pro vgl. zur GFTi4600 bewerkstelligte.
Es sei denn, einer von beiden kauft wieder 'nen Hardware-Design-Team mit 'nem fertigen Produkt im Portfolio, wie seinerzeit ATI mit ArtX...
*eg*
Und darauf ruht sich ATI noch immer aus.
Original geschrieben von Mr. Lolman
Schon klar, dass jeder Hersteller will, dass sein Chip 'super' wird. Aber irgendwo gibts technische Grenzen, sonst hätte NVidia spätestens mit dem NV35 alles weggerul0rt.
Wenn ich recht entsinne kam der NV35 ca. 3 Monate nach dem NV30 auf den Markt.
So schnell dürfte das noch KEIN Hersteller hinbekommen haben...
Und der NV35 ist leise, kühl und schnell und hat die performance-Krone wieder zurück erobert.
Was also soll denn noch passieren ?
Das 'Fön'-Problem ist schon so ziemlich in der Versenkung verschwunden, der Umsatz und die Marktanteile gestiegen und nVidia hat bei den DX9-Karten nun sogar 60% Marktanteil (wenn auch viel davon im Low-End Segemnt ;-).
Also besser könnte es für nVidia nun doch nach dem NV30-Fiasko gar nicht laufen, oder ?
Und wenn man dann noch in Betracht zieht, dass ATI in Asien 40-50% Umsatzverlust hinnehmen muss...
Also irgendwie...
;-)
Razor
Winter[Raven]
2003-08-02, 16:23:56
Razor, wiviele % Marktanteil hatte Nvidia noch vor kurzem in DX9.0 Segment ?
Und 40-50 % bei Ati ? ... hab ich noch garnicht gehört.
zeckensack
2003-08-02, 16:35:10
Original geschrieben von Razor
Du meinst die nächsten 'Aufgüsse' ?Aufguss oder nicht, das ist ein leidiges Kriterium.
Ich kann mich auch hinstellen, und NV Aufgießerei von NV10-NV25 vorwerfen. Normalerweise bin ich mir dafür aber zu schade, denn es ist nunmal irrelevant :)
Exxtreme
2003-08-02, 16:39:01
Original geschrieben von Razor
Du meinst die nächsten 'Aufgüsse' ?
Sorry, aber Anfang nächsten Jahres wird's vielleicht wieder interessant...
Irrelevant. ;)
Original geschrieben von Razor
Es sei denn, einer von beiden kauft wieder 'nen Hardware-Design-Team mit 'nem fertigen Produkt im Portfolio, wie seinerzeit ATI mit ArtX...
*eg*
Du meinst den Flipper?
LovesuckZ
2003-08-02, 16:39:22
Original geschrieben von zeckensack
Ich kann mich auch hinstellen, und NV Aufgießerei von NV10-NV25 vorwerfen. Normalerweise bin ich mir dafür aber zu schade, denn es ist nunmal irrelevant :)
Wenn der NV25 zum NV10 ein Aufgruß waere, wie sollte man den r350 zum r300 bezeichnen?
Selbe Karte... :D
Exxtreme
2003-08-02, 16:41:11
Original geschrieben von LovesuckZ
Selbe Karte... :D
Ist es im Prinzip auch. :)
Ich denke, der R350 ist nur ein anderes Stepping des R300. Bessere Taktbarkeit und Bugfixes... vóila.
Razor
2003-08-02, 16:50:04
Original geschrieben von zeckensack
Aufguss oder nicht, das ist ein leidiges Kriterium.
Ich kann mich auch hinstellen, und NV Aufgießerei von NV10-NV25 vorwerfen. Normalerweise bin ich mir dafür aber zu schade, denn es ist nunmal irrelevant :)
Wieso ist das Irrelevant ?
Die bedeiden Chips werden nach derzeitigem 'Wissenstand' aber auch gar nichts Neues bringen !
Und DAS ist für mich irrelevant.
Mag ja sein, dass sich die beiden nochmal ein kurzes Stelldichein geben werden, um die Muskeln spielen zu lassen, oder einfach, weil ihnen langweilig ist und sie zuviel Geld haben, aber interssant macht das die Sache nin wirklich nicht.
Irrelevant ist für mich, dass man jetzt damit argumentiert, dass man über eine Neuanschaffung nicht nachdenken sollte, weil ja bald die 'Neuen' da sind... echt irrsinnig !
(sorry ;-)
Razor
Razor
2003-08-02, 16:50:51
Original geschrieben von Exxtreme
Irrelevant. ;)
Sieh Post zu zbag !
:D
Original geschrieben von Exxtreme
Du meinst den Flipper?
Nein, ich meine den R300...
(welchen sonst ? ;-)
Razor
Razor
2003-08-02, 16:51:37
Original geschrieben von Exxtreme
Ist es im Prinzip auch. :)
Ich denke, der R350 ist nur ein anderes Stepping des R300. Bessere Taktbarkeit und Bugfixes... vóila.
Und mehr wird der R360 auch nicht werden...
:D
Razor
P.S.: Wie der NV38 wohl auch...
Exxtreme
2003-08-02, 16:58:02
Original geschrieben von Razor
Nein, ich meine den R300...
(welchen sonst ? ;-)
Razor
Ähhhm, dir ist schon hoffentlich klar, daß als ATi ArtX aufgekauft hat, der R300 noch gar nicht existierte?
http://www.ati.com/companyinfo/ir/2000/2000.html
Das war im Jahr 2000! Da gab's nicht mal den R200. Und da wir wissen, daß der R300 auf dem R200 aufbaut...
Razor
2003-08-02, 17:00:04
Original geschrieben von Winter[Raven]
Razor, wiviele % Marktanteil hatte Nvidia noch vor kurzem in DX9.0 Segment ?
Keine Ahnung...
JETZT haben sie 60% !
:D
Auch sehr interessant: 64% Marktanteil insgesamt... wie im Q1 auch.
Original geschrieben von Winter[Raven]
Und 40-50 % bei Ati ? ... hab ich noch garnicht gehört.
In Asien, ja...
(in Kanada und Amerika sieht's 'etwas' anders aus ;-)
Hier mal ein paar Links:
NVIDIA Got 60% of DirectX 9.0 GPU Market in Q2 (http://www.xbitlabs.com/news/video/display/20030731084600.html)
ATI AIC's Not Happy, Sales Down (http://www.3dgpu.com/modules/news/article.php?storyid=211)
Razor
Razor
2003-08-02, 17:06:46
Original geschrieben von Exxtreme
Ähhhm, dir ist schon hoffentlich klar, daß als ATi ArtX aufgekauft hat, der R300 noch gar nicht existierte?
http://www.ati.com/companyinfo/ir/2000/2000.html
Das war im Jahr 2000! Da gab's nicht mal den R200. Und da wir wissen, daß der R300 auf dem R200 aufbaut...
Nicht schon wieder diese Diskussion...
(hatten wir einfach schon zu oft ;-)
Und Dich nimmt es also nicht Wunder, dass ATI gerade mal 2 Jahre nach dem Aufkauf von ArtX einen Chip präsentiert, der so ganz anders ist, als die Vorgängermodelle und hinsichtlich der Performance (und Features !) ALLES hinter sich läßt. Un nun, locker 1 Jahr danach gibt's von ATI nur noch kleine Brötchen... nix mit Neuen oder gar revolutionären Dingen... einfach nur 'Aufgüsse'... sonst nix.
Auch die Gerüchte um den R400 (der ja eingestellt und vom ursprünglichen R200-Entwickler-Team designt worden sein soll) passen hier wunderbar ins Bild.
Und das der R300 von dem Team entwickelt wurde, welches die ArtX-Entwickler 'aufgenommen' hat, ist ja nun auch kein richtiges Geheimnis mehr, oder ?
Razor
P.S.: Nun habe ich doch drauf geantwortet... *eg*
Mr. Lolman
2003-08-02, 17:14:36
Original geschrieben von Razor
Un nun, locker 1 Jahr danach gibt's von ATI nur noch kleine Brötchen... nix mit Neuen oder gar revolutionären Dingen... einfach nur 'Aufgüsse'... sonst nix.
Wieso viel Geld für revolutionäre neue Chips rauswerfen, wenn kleine Aufgussbrötchen reichen, der Konkurrenz das Leben schwer zu machen?
edit: Oder bist du der Meinung, dass ATi mit dem R300 ihr ganzes Pulver verschossen haben?
LovesuckZ
2003-08-02, 17:19:30
Original geschrieben von Mr. Lolman
Wieso viel Geld für revolutionäre neue Chips rauswerfen, wenn kleine Aufgussbrötchen reichen, der Konkurrenz das Leben schwer zu machen?
Ein "Revolutionaerer" Chip koennte aber deutlich mehr Gewinn einfahren als 2-3 Chips verteielt in einem halben Jahr.
Sehe dir doch mal die Preise der 9800pro 128MB Karten an: Vor 2Monaten noch bei um die 500€, nach dem Erscheinen der 9800pro mit 256 bei 350€.
zeckensack
2003-08-02, 17:21:52
Original geschrieben von Razor
Wieso ist das Irrelevant ?
Die bedeiden Chips werden nach derzeitigem 'Wissenstand' aber auch gar nichts Neues bringen !
Und DAS ist für mich irrelevant.
Mag ja sein, dass sich die beiden nochmal ein kurzes Stelldichein geben werden, um die Muskeln spielen zu lassen, oder einfach, weil ihnen langweilig ist und sie zuviel Geld haben, aber interssant macht das die Sache nin wirklich nicht.
Irrelevant ist für mich, dass man jetzt damit argumentiert, dass man über eine Neuanschaffung nicht nachdenken sollte, weil ja bald die 'Neuen' da sind... echt irrsinnig !
(sorry ;-)
Razor Ich wollte damit sagen, daß man sich nicht damit aufhalten sollte nachzumessen, wie 'aufgüssig' eine Generation im Vergleich zur letzten war. Dann kommt man nämlich zwangsläufig zu dem Schluß, daß die Unterschiede immer nur punktuell und klein sind.
Ein paar kleine Extra-Features drangenagelt, Takt hoch, fertig. Ich will ATI nicht verteidigen. Ich will NV nicht an den Karren pinkeln. Ich wollte nur darauf hinweisen daß "Aufguß" an sich kein gutes Kriterium ist, eine neue Generation zu bewerten (egal ob gut oder schlecht).
Viel interessanter ist's, wie weit ein Chip vor der Konkurrenz ist, oder von mir aus auch welche DX-Version wie vollständig unterstützt wird.
Wenn jede neue Graka-Generation immer mit dem Ziel erbaut worden wäre, jeden vom Stuhl zu hauen, dann hätte Evil Raider jetzt 90000 3DMarks :)
Das können (und müssen) sich die Chip-Hersteller nicht leisten.
MadManniMan
2003-08-03, 00:35:53
Rzorle, irgendwie scheinst du HW-Leuten nicht zuzutrauen, mehr als einmal einen 'Hammer' zu Entwickeln, oder?
Ich weiß nicht, ob du jetzt von den 3dfx-Pionieren ausgehst, die den Rampage als erstes Nicht-V1-Aufguß (Wobei wir uns darüber ja nicht streiten wollen, da hat ZBag schon recht :D ) und wohl mal wieder als "Hammerkarte" ewig aufgeschoben haben.
Aber du mußt nicht denken, daß bei ATi außer den ArtX-Leuten nur unfähige Rage1024-Bastler sitzen.
/Edit: Juchuu! :| "we reported that ATI Technologies expanded its presence in the market of discrete graphics processors for mobile computers from 51% to 59%." Jetz freu ich mich! :crazy: ATi baut beim Mobile-Markt aus! " :ratlos: <- Und? Kann ich mir jetzt als eher ATi-Symphatisierend was davon kaufen? Wer von den beiden wo hier und da mal hin und wieder Anteile gut macht... naja, lassen wir das.
Exxtreme
2003-08-03, 00:49:43
Original geschrieben von Razor
Und Dich nimmt es also nicht Wunder, dass ATI gerade mal 2 Jahre nach dem Aufkauf von ArtX einen Chip präsentiert, der so ganz anders ist, als die Vorgängermodelle und hinsichtlich der Performance (und Features !) ALLES hinter sich läßt.
Also so viel anders ist der R300 ggü. den R200 auch nicht. :)
PS2.0 ist ein stark getunter PS1.4.
Beim VS verhält es sich ähnlich.
Dann dazu ein funktionierendes MSAA + Colorcompression und vóila. Ansonsten hat man einige Sachen verdoppelt und einige rausgenommen.
Original geschrieben von Razor
Und das der R300 von dem Team entwickelt wurde, welches die ArtX-Entwickler 'aufgenommen' hat, ist ja nun auch kein richtiges Geheimnis mehr, oder ?
Der R300 wurde NICHT vom ehemaligen ArtX-Team entwickelt. Das ArtX-Team wurde aufgeteilt.
Razor
2003-08-03, 08:24:02
Original geschrieben von Mr. Lolman
edit: Oder bist du der Meinung, dass ATi mit dem R300 ihr ganzes Pulver verschossen haben?
Ja...
... zumindest vorerst.
Schaun' wir mal, was da mit dem R420 kommt...
:D
Razor
Razor
2003-08-03, 08:36:38
Original geschrieben von zeckensack
Ich wollte damit sagen, daß man sich nicht damit aufhalten sollte nachzumessen, wie 'aufgüssig' eine Generation im Vergleich zur letzten war. Dann kommt man nämlich zwangsläufig zu dem Schluß, daß die Unterschiede immer nur punktuell und klein sind.
Wenn 'mir' eine 'neue' Generation nur mehr 'Speed' bringt, ist sie per se irrelevant und dient nur der Abzockerei.
Meine Meinung...
Original geschrieben von zeckensack
Ein paar kleine Extra-Features drangenagelt, Takt hoch, fertig. Ich will ATI nicht verteidigen. Ich will NV nicht an den Karren pinkeln. Ich wollte nur darauf hinweisen daß "Aufguß" an sich kein gutes Kriterium ist, eine neue Generation zu bewerten (egal ob gut oder schlecht).
Doch ist es (IMO ;-).
Ich finde, dass am R350 doch sehr gut zu sehen ist, wie wenig dieses Teil brint. Nicht umsonst rutscht der Preis so dermaßen in's bodenlose. 30% in nicht mal einem Monat ist schon hart...
Bei nVidia ist's natürlich auch nicht anders, aber da hat's bei den 'Aufgüssen' wenigstens gute 'Detailverbesserungen gebenen... NV25 zu NV20 = 2 statt 1 Vertex-Shader, NV35 zu NV30 2 statt 1 Shader-Ops, 256Bit statt 128Bit Speicherinterface etc.pp.
Am NV38 wird sich gegenüber dem NV35 wohl auch nichts ändern, also reiht sich nVidia hier dann auch wieder gleich bei ATI ein. Und ich bleibe dabei... NV38 vs. R360 wird absolut uninteressant !
:zzz:
Original geschrieben von zeckensack
Viel interessanter ist's, wie weit ein Chip vor der Konkurrenz ist, oder von mir aus auch welche DX-Version wie vollständig unterstützt wird.
Jup und das kann man hervorragend an R300 und NV30 beobachten. Alles andere bringt nichts Neues...
Original geschrieben von zeckensack
Wenn jede neue Graka-Generation immer mit dem Ziel erbaut worden wäre, jeden vom Stuhl zu hauen, dann hätte Evil Raider jetzt 90000 3DMarks :)
Oh mein gott (fühl Dich jetzt nicht angesprochen ;-) !
So war das ja nun auch nicht gemeint...
Aber das, was da derzeit von ATI abgezogen wird, ist schon...
So ist es nicht mehr evolutionär, sondern einfach nur noch monetär !
;-)
R300 = R350 = R360
NV30 != NV35 = NV38
(und wohl auch nur, weil ATI hier jetzt unbedingt wieder was schenlleres bringen will)
Original geschrieben von zeckensack
Das können (und müssen) sich die Chip-Hersteller nicht leisten.
So to say...
Aber die Kunden durcheinander bringen und ihre Distributoren zu vereimern aber schon, oder ?
Sorry, aber für mich ist das reine Augenwischerei !
Razor
Razor
2003-08-03, 08:38:14
Original geschrieben von MadManniMan
Aber du mußt nicht denken, daß bei ATi außer den ArtX-Leuten nur unfähige Rage1024-Bastler sitzen.
Nun ja, sie haben den R200 und dann einen R400 'entwickelt', wobei letzterer wohl eingestellt wurde...
Zumindest scheint sich das einem so darzustellen !
:D
Razor
Razor
2003-08-03, 08:40:29
Original geschrieben von Exxtreme
Der R300 wurde NICHT vom ehemaligen ArtX-Team entwickelt. Das ArtX-Team wurde aufgeteilt.
Dann erzähl mir doch jetzt bitte präzise, wer von den ArtX-Leuten jetzt in welchem Team sitzt.
Ich habe mal eine Presse-Mitteilung von ATI gelesen (Link habe ich irgendwo noch), dass das ArtX-Team natürlich nicht auseinander gerissen wurde. Wäre ja auch reichlicher dummfug...
Auch damals hast Du diese Deine Behauptung nicht belegt !
Razor
zeckensack
2003-08-03, 09:21:52
Original geschrieben von Razor
Wenn 'mir' eine 'neue' Generation nur mehr 'Speed' bringt, ist sie per se irrelevant und dient nur der Abzockerei.
Meine Meinung...
<...>
Jup und das kann man hervorragend an R300 und NV30 beobachten. Alles andere bringt nichts Neues...
<...>
Aber das, was da derzeit von ATI abgezogen wird, ist schon...
So ist es nicht mehr evolutionär, sondern einfach nur noch monetär !
;-)
R300 = R350 = R360
NV30 != NV35 = NV38
(und wohl auch nur, weil ATI hier jetzt unbedingt wieder was schenlleres bringen will)
So to say...
Aber die Kunden durcheinander bringen und ihre Distributoren zu vereimern aber schon, oder ?
Sorry, aber für mich ist das reine Augenwischerei !
Razor Im Grunde hast du garnicht mal so Unrecht. Nur, ich weiß nicht wie's dir geht, aber ich muß ehrlich sagen, daß ich zufrieden bin mit den Grakas die ich habe, und wahrscheinlich noch zufriedener wäre, wenn ich mir jetzt was aktuelles (ala FX5900 non-U) zulegen würde.
Ich empfinde es nicht so, daß mir irgendwas vorenthalten wird, daß ich irgendwas verpassen würde, was mir IHVs aus lauter Boshaftigkeit nicht geben wollen. Hoffe du verstehst mich :)
Original geschrieben von Mr. Lolman
Stimmt, jetzt ist es schon recht spät zum Aufrüsten. V.A. weil die neuen GraKas schon wieder in den Startlöchern stehen.
Aber ich glaube kaum, dass in nächster Zeit irgendeinem Hersteller nocheinmal so ein signifikanter Leistungssprung gelingt, wie ATi mit der 9700pro vgl. zur GFTi4600 bewerkstelligte. Bzw. wie Nvidia das mit der Ti 4600 im Vergleich zur 8500 schaffte :D
Aber die aktuelle Entwicklung steckt in einer Sackgasse. Wir brauchen eine TBDR mit aktuellen Rohleistungsparametern, und dereinst wird die Multichip-Lösung wieder aktuell *fest dran glaub*
Quasar
2003-08-03, 09:48:00
Original geschrieben von Exxtreme
Der R300 wurde NICHT vom ehemaligen ArtX-Team entwickelt. Das ArtX-Team wurde aufgeteilt.
Och, Exxtreme. Davon, daß du's beständig wiederholst, wird's auch nicht richtiger.
The RADEON 9700 is the first architecture developed by ATI's west coast development team, which includes the former ArtX team, known for developing the graphics for the NINTENDO GAMECUBE™. (http://www.ati.com/companyinfo/press/2002/4512.html)
edit:
Rächdschraibunk
Exxtreme
2003-08-03, 09:49:16
Original geschrieben von Quasar
Och, exxtreme. Davon, daß du's beständig wiederholst wird's auch nicht richtiger.
(http://www.ati.com/companyinfo/press/2002/4512.html)
Hmm, dann hat sich der Betreiber von R3D tatsächlich geirrt.... und ich auch, sorry. :D
MadManniMan
2003-08-03, 10:31:24
Original geschrieben von Razor
nur mehr 'Speed':irrelevant und Abzockerei.
Meine Meinung...
Original geschrieben von Razor
Bei nVidia ist's natürlich auch nicht anders, aber da hat's bei den 'Aufgüssen' wenigstens gute 'Detailverbesserungen gebenen... NV25 zu NV20 = 2 statt 1 Vertex-Shader, NV35 zu NV30 2 statt 1 Shader-Ops, 256Bit statt 128Bit Speicherinterface etc.pp.
Steht hier irgendwas, was nicht rein in der Theorie nicht auch mit ner Takterhöhung hätte gemacht werden können? :| Du wirst weder den Verxtexshader, noch das Interface, noch die Ops in der Praxis anders wahrnehmen, als über nen Geschwindigkeitsb00st.
Razor
2003-08-03, 19:49:31
Original geschrieben von zeckensack
Im Grunde hast du garnicht mal so Unrecht. Nur, ich weiß nicht wie's dir geht, aber ich muß ehrlich sagen, daß ich zufrieden bin mit den Grakas die ich habe, und wahrscheinlich noch zufriedener wäre, wenn ich mir jetzt was aktuelles (ala FX5900 non-U) zulegen würde.
Ich empfinde es nicht so, daß mir irgendwas vorenthalten wird, daß ich irgendwas verpassen würde, was mir IHVs aus lauter Boshaftigkeit nicht geben wollen. Hoffe du verstehst mich :)
Nein, irgendwie verstehe ich Dich sogar ganz und garnicht !
:D
Oder wolltest Du damit vielleicht sagen, dass dieses Thema rein gar nichts mit dem Thread-Titel zu tun hat ?
Dann: full ACK !
:|
Razor
Razor
2003-08-03, 19:53:29
Original geschrieben von Quasar
Och, Exxtreme. Davon, daß du's beständig wiederholst, wird's auch nicht richtiger.
(http://www.ati.com/companyinfo/press/2002/4512.html)
Danke Quasar !
Werde mir den Link jetzt mal richtig 'verwahren'...
:D
Razor
Razor
2003-08-03, 19:54:56
Original geschrieben von MadManniMan
Steht hier irgendwas, was nicht rein in der Theorie nicht auch mit ner Takterhöhung hätte gemacht werden können? :| Du wirst weder den Verxtexshader, noch das Interface, noch die Ops in der Praxis anders wahrnehmen, als über nen Geschwindigkeitsb00st.
Mir geht er primär um evolutionäre (nicht revolutionäre ;-) Weiterentwicklung...
Das, was ATI da derzeit macht ist garnichts, und wenn der NV38 auch nur ein 'Abklatsch' ist, dann verhält sich das mit nVidia ebenso.
Razor
MadManniMan
2003-08-03, 20:00:56
Original geschrieben von Razor
Mir geht er primär um evolutionäre (nicht revolutionäre ;-) Weiterentwicklung...
Das, was ATI da derzeit macht ist garnichts, und wenn der NV38 auch nur ein 'Abklatsch' ist, dann verhält sich das mit nVidia ebenso.
Razor
Hm... ähh... tja... ... ...Joar! :)
Pitman
2003-08-03, 20:16:41
Irgendwie hat diese Diskussion nichts mehr mit meiner Frage
zu tun !! Also weiter mit AF !
Werden zukünftge Spiele weitherhin das AF brauchen
oder gibt es andere Möglichkeiten die Darstellung
bereits über die Spiele-Programmierung zu verändern ??
Pitman
Razor
2003-08-03, 20:17:29
Original geschrieben von MadManniMan
Hm... ähh... tja... ... ...Joar! :)
Schaust' ?
:D
Razor
AlfredENeumann
2003-08-03, 21:27:38
Original geschrieben von LovesuckZ
Ein "Revolutionaerer" Chip koennte aber deutlich mehr Gewinn einfahren als 2-3 Chips verteielt in einem halben Jahr.
Sehe dir doch mal die Preise der 9800pro 128MB Karten an: Vor 2Monaten noch bei um die 500€, nach dem Erscheinen der 9800pro mit 256 bei 350€.
Überleg mal wieviel man mit Chips verdient.
Die Preise von Grafikkarten sind irrelevant. Das hat ATI absolut nix mit zu tun. Sie verkaufen Ihre Chips. der rest ist der übliche Preisverfall im Markt.
StefanV
2003-08-03, 21:29:56
Original geschrieben von Razor
Wenn 'mir' eine 'neue' Generation nur mehr 'Speed' bringt, ist sie per se irrelevant und dient nur der Abzockerei.
Meine Meinung...
Ui, damit sprichst du also der GF2 Reihe (ggü. GF1) sowie der GF4 Reihe (ggü GF3) samt der GF4 MX (ggü GF2 MX) nicht nur die Daseinsberechtigung ab, nein du sagts selbst, daß sie völliger schwachsinn sind...
Hm, sowas aus deinem Munde...
LovesuckZ
2003-08-03, 21:38:39
Original geschrieben von AlfredENeumann
Überleg mal wieviel man mit Chips verdient.
Die Preise von Grafikkarten sind irrelevant. Das hat ATI absolut nix mit zu tun. Sie verkaufen Ihre Chips. der rest ist der übliche Preisverfall im Markt.
ATi kann aber mehr für die Chips verlangen, da sie nicht innerhalb von 2 Monaten um 25% im Preis fallen.
Quasar
2003-08-03, 21:46:34
Original geschrieben von Stefan Payne
Ui, damit sprichst du also der GF2 Reihe (ggü. GF1) sowie der GF4 Reihe (ggü GF3) samt der GF4 MX (ggü GF2 MX) nicht nur die Daseinsberechtigung ab, nein du sagts selbst, daß sie völliger schwachsinn sind...
Hm, sowas aus deinem Munde...
Ja, aus seinem Munde....
..ist man das doch gewöhnt.
IIRC hatte Razor 'ne GF DDR und danach eine GF3, eben weil er die Zwischenschritte nicht mitmachen wollte und diese als Speedbumps auch immer ablehnte.
MadManniMan
2003-08-03, 21:51:53
Original geschrieben von LovesuckZ
ATi kann aber mehr für die Chips verlangen, da sie nicht innerhalb von 2 Monaten um 25% im Preis fallen.
Tja, weil halt weniger bekoppte Geldfreaks den Namen ATi mehr schätzen, denn den von nV und einfach nicht soviel Geld für die High-End-Karten von ATi bezahlt wird.
Kann auch damit zusammenhängen, daß das gesamte Preisgefüge von ATi im Vergleich zu ähnlich performanten Karten nV's etwas nach unten verschoben ist - zumindest sehe ich das so. Da erklärts sich dem Kunden dann halt schwer, warum man für ne 15% schnellere Karte 80% mehr bezahlen muß.
Original geschrieben von Pitman
Irgendwie hat diese Diskussion nichts mehr mit meiner Frage
zu tun !!Da hat er Recht.
edit: Habe den Thread ab diesem Posting clean gemacht. Meine Hoffnung war, dass auch ohne Drohung wieder zum Topic zurück gefunden würde. Schade, dass es nicht anders ging.
edit zum edit: Leider musste der Thread erneut um OT-Postings bereinigt werden.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.