PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce4 Ti4600 - Persönliches Review


aths
2002-05-27, 03:44:48
Weg von den ewigen Kurz-Reviews, die über ausgeborgte Karten zusammengeschrieben werden!

Dies ist mein persönliches Review. Ich nehme hier auf keinerlei Gefühle Rücksicht, daher sind Erwiderung auf vielleicht unbequeme Ansichten zwecklos. Das Anliegen ist, eine Praxis-Erfahrung auf einem etwas untypischem Wege zu offerieren. Es gibt keinen einzigen Benchmark, auch keine Bilder. Dafür ein wenig Techtalk, ein wenig Spekulation, und viel eigene Meinung. Der Text ist lang, und ich habe alles interessante gleichmäßig darin verteilt :-D

Wie ich zur GF4 kam

Im Herbst letzten Jahres stellte nVidia die "Ti"-Serie vor, an der bekanntlich außer Taktfrequenzen nichts neu war. Ich war enttäuscht, dass es noch immer keine "GF3 MX" gab. Eine solche Karte hatte ich eigentlich im Visier: Fortschrittliche GeForce3-Technik zum günstigen Preis. Ende letzten / Anfang diesen Jahres fiel der Preis der GF3 Ti200 so weit, dass sie für mich zur Alternative wurde. Angesichts der Radeon8500 erschien mir die Technik allerdings nicht mehr so fortschrittlich. Ich tendierte trotzdem eher zur GeForce3 (und hoffte, eine Ti200 auf 183/225 MHz übertakten zu können. Diese Werte waren angesichts heute erreichter Taktraten also sehr konservativ angesetzt.)

Im Frühjahr wurde die GF4 vorgestellt. Diese Karten hielt ich für deutlich mehr "abgerundet" als die GF3. (Anti-Aliasing endlich mit RAMDAC-Filterung, Verbesserungen bei der LMA, 2 VGA-Ausgänge, PixelShader immerhin 1.3-kompatibel.) Zunächst hatte ich die Ti4200 im Blick, doch die wurde ja verzögert. Die 4400 würde mit dem Athlon 600 auf keinen Fall mehr lohnen. Es müsste im gleichen Zuge also ein neuer PC her. Damit war die Frage angesichts des Kontostandes schon geklärt. Ende Februar gab es allerdings einen überraschenden Geldregen. Einen Teil davon begann ich zu verplanen.

Der ebenfalls notwendige neue PC sollte sozusagen um die Grafikkarte gebaut werden. Bei dieser schwankte ich zwischen 4400 und 4600. Erstere erschien, gerade auch angesichts des Preises, sowie der Tatsache dass ich "nur" einen 17-Zoll-Monitor hatte, vernünftiger. Dieser Monitor zeigte allerdings schon deutliche Alterserscheinungen. Der nächste würde 19 Zoll haben, und damit könnte man eine 4600 bestimmt "ausfahren". Die angepeilte 128-MB-Graka sollte auf jeden Fall reichen, bis 512 MB Karten verfügbar sind. Da in dieser Zeit auf jeden Fall ein neuer Monitor kommen würde (was in der Tat auch schon geschehen ist, früher als erwartet, da der alte es nicht mehr lange machte) entschied ich die 4600-er zu nehmen. Dass Preis und Leistung in einem fragwürdigem Verhältnis stehen, war mir klar.

(Hier spielten allerdings auch etwas irrationale Gründe mit rein. Vor Jahren sah ich in eine PC-Spiele-Zeitschrift ein Screenshot, wo ein OC-Tool die RAM-Geschwindigkeit der GTS mit "333 MHz" angab. Ich wusste, dass diese Angabe Unsinn ist (da nicht die Takt-Geschwindigkeit verdoppelt wird.) Mit der Ti4600 gab es nun die Möglichkeit eine Karte zu kaufen, die tatsächliche 333 MHz RAM-Geschwindigkeit erreicht. 2,8 ns RAM-Bausteine sahen zahlenmäßig deutlich verlockender aus, als 3,6 ns Chips.)


Die Qual der Wahl

Tja, nur welche GF4? Der erste Name, der mir einfiel, war "Leadtek". Ich ging auf die Internet-Seite www.leadtek.com.tw und tatsächlich war dort Leadtek zu finden. (Auf ".com.tw". Fürchterlich!) Des weiteren checkte ich noch Gainward und Asus ab. Am liebsten hätte ich eine von Hercules genommen. Denn Hercules hat Stil. Allerdings konzentriert sich Guillemot mit der Hercules-Marke im oberen Bereich nun voll auf ATI. Dann tendierte ich zu Asus. (Heute bin ich froh, angesicht der vielen Problem-Boards keine Asus zu haben.) Schließlich überzeugte das Leadtek-Kühldesign, laut erstens Tests erreicht diese Karte vergleichbar hohe OC-Werte. Daraus schloss ich auf eine vernünftige Kühlung. Damals wie heute bin ich der Meinung, dass eine 4400-er eigentlich der vernünftigere Kauf ist. Aus dem Bauch heraus beschloss ich jedoch, meinen 3D-Grafik-Fetischismus mit einer 4600-er zu demonstrieren.

Für die Graka stellte ich dann einen neuen PC zusammen (PC- und Graka-Kauf sind untrennbar miteinander verbunden!) Der PC bekam einen Pentium4 Northwood 1.8 und 2x256 MB DDR-RAM der bis 166 MHz spezifiert ist. (Sowohl RAM als auch CPU stehen 2003/2004 als möglicherweise erneuerungswürdig zur Disposition. Hängt vom jeweiligen Kontostand ab.) Natürlich kamen noch andere neue Komponenten hinzu. Ich bestellte die Kiste fertig zusammengeschraubt und dank einem Kumpel der ein Auto hat konnte ich das gute Stück dann abholen. Zu Hause packte ich dem Karton aus, schloss den PC und den Monitor an und installierte (mit Hürden, da RAID0) Windows2000 (und ein paar Tage später zusätzlich XP.) Was aber würde die Grafikarte bringen?


Wie sich die GF4 Ti4600 in Spielen schlägt

Nachdem die Chipsatz-Treiber installiert waren, enttäuschte weder 3DMark, noch Quake, und schon gar nicht Max Payne. 2D-Qualität ist in Ordnung. Die Probleme gingen los mit Need for Speed Porsche und Diablo2, dazu erstellte ich ja einige Threads in diesem Forum. In praxi kann ich NFS5 noch heute nicht vernünftig spielen und Diablo2 läuft nur im Software-Modus annehmbar. Beides machte mit der Voodoo keinerlei Probleme. Weiterhin ärgert mich die Qualität bei der DVD-Wiedergabe, wenn der Inhalt im Interlaced Modus aufgezeichnet wurde. Hier war die Voodoo4 nicht besser, doch sie war ja auch nie als HighEnd-Karte gedacht. Ebenso halte ich den 16-Bit-Modus der GeForce für eine Zumutung. Damit könnte ich angesichts der 32-Bit-Fähigkeiten gut leben, die (verschlimmbesserte) S3TC-Qualität überzeugte mich aber auch nicht. Die Performance in Unreal Tournament ist erschreckend - das lief bei vergleichbarer Qualität (Glide mit "22 Bit" vs. D3D mit 32 Bit) auf der Voodoo4 besser. (Vergleichbare Framerate, aber "glätteres" Spielgefühl.) Offenbar handelt es sich (vom Deinterlacing abgesehen) komplett um Treiberfragen, was ich enttäuschend finde. Der Treiber rendert noch nicht mal alle PowerVR-Demos vollständig. Diese nutzen nur DirectX7, und wiederum machte die Voodoo hier keinerlei Mätzchen! Soviel zu den Nachteilen der GeForce.

Natürlich hat die neue Karte auch Vorteile. Durch eine adäquate CPU befeuert, ist z.B. Quake3 ein Genuss. 1024x768, 32 Bit, das ist heute wohl Standard. Ich kann die Füllraten-intensiven volumetrischen Echtzeitschatten, 2x Anti-Aliasing und 8x anisotropes Filtering dazu schalten, und habe trotzdem 60+ fps. Von wegen, Multiplayer-Shooter würde man ohne Anti-Aliasing spielen. Man braucht nur die richtige Karte dazu! Medal of Honor sieht extrem lecker aus, und läuft mit maximalen Details in 1280x1024 mit Anti-Aliasing und anisotropen Filter sehr gut. Elite Force und Fakk2, beide vergleichbar anspruchslos, lassen sich ebenfalls entsprechend aufmöbeln. John Carmack sagt nun, von allen heute erhältlichen Karten sei die GF4 Ti die beste für Doom3. Wenn man davon ausgeht dass das allgemein für die Doom3-Engine gilt, kann die Kaufentscheidung so falsch nicht gewesen sein.

Max Payne mit 32-Bit-Texturen, anisotropen Filter, Anti-Aliasing trotz hoher Auflösungen - das habe ich mir schon immer gewünscht.

Colin McRae2, eigentlich nur zum Testen installiert: Mit hohen Auflösungen, Anti-Aliasing und anisotropen Filter läuft (wenn man vom Cube Enviroment Mapping Abstand nimmt) verdammt flüssig. Ich hoffe, dass Need for Speed 6 ebenfalls mit voller Qualität entsprechend gut laufen wird.

Morrowind, Problemkind. Ich erreiche den Umständen entsprechend gute Ergebnisse mit (sehr) hohen Auflösungen und 2x FSAA, spiele wegen häufigeren ca-45°-Winkeln jedoch lieber mit 2x2 FSAA. Hier muss jedoch auf 1024x768 zurückgeschaltet werden.


Anti-Aliasing

Die Anti-Aliasing-Fähigkeiten sind durchwachsen zu nennen. 2x MSAA bekommt man praktisch "for free". Die Framerate sinkt natürlich doch ein wenig, aber das ist in jedem Fall zu verschmerzen. Dank des guten rotierten Rasters wird in üblichen Spielen annähernd 2x2-Qualität erreicht. Der große Nachteil ist, dass man nicht mehr als 2x2 geboten bekommt, und 2x2 die Framerate oft inakzeptabel beschneidet. (Diese Karte wird bei mir mit einem guten 19-Zöller eingesetzt, der Horizontalfrequenzen bis 115 KHz bietet. Also fahre ich auch gerne hohe Auflösungen. Hier haut 2x2 wie gesagt derb rein.)

2x ist der Modus: Gute Qualität, geringe Leistungseinbußen. Quincunx blurrt mit dem AccuView-Verfahren wohl nicht mehr ganz so stark, wie das HRAA-Quincunx von GF3. Doch gerade auf das Blurring kommt es ja an. Es ist inakzeptabel, dass das gesamte Spiel (inkl. der Schrift) "verschmiert" wird. Das Blurring nimmt mit hohen Auflösungen ab, doch dann nehmen ja auch die Aliasing-Effekte ab. Fazit: Nutzlos. 2x2 bietet nur dann optische Vorteile, wenn es öfter Kanten in Winkeln um ca. 30 - 60° gibt. Morrowind beispielsweise profitiert vom 4x-Modus sichtlich. Quake oder Unreal gewinnen praktisch gar nicht. 2x2 mit Quincunx (inoffizieller Modus) ist absolut unbrauchbar, da es noch verwaschener aussieht als das originale Quincunx.

Für D3D gibts noch den 4XS-Modus, in den letzten Detonatoren frecherweise "6x" genannt. 4XS bietet 2 Vorteile gleichzeitig: Erstens findet eine quasi anisotrope Filterung in Y-Richtung statt. Das verbessert die Texturen bei Wegen (Pfaden, Straßen...) die vor dem Spieler liegen. Andererseits werden annähernd horizontale Kanten feiner aufgelöst. Das macht sich bei Autorennspielen positiv bemerkbar. Doch von der 4x RG-Qualität ist 4xS weit entfernt. Denn es beinhaltet ggü. 4x RG gleich 2 Nachteile:

- Verbesserung nur bei horizontalen Kanten
- Annähernd vertikale Kanten werden mit 4xS oft schlechter geglättet als mit 2x2

Und wie gesagt wird 4XS nur für D3D angeboten. Vorteilhaft gegenüber 2x2 Multisampling ist, dass bei 4xS auch ein Supersampling-Anteil mit einfließt. Leider, leider werden damit die Flimmer-anfälligen Maschendrahtzäune, die ein Alpha-Bit verwenden, nicht verbessert. Denn diese Zäune sieht man üblicherweise von links oder rechts in die Tiefe gehen, 4xS verbessert Texturen aber nur von oben oder unten in die Tiefe (bzw. generell in Y-Richtung.)

Es ist schade, dass kein "8xS"-Modus angeboten wird. Dieser würde zwar nur ca. 20% der Rohleistung übrig lassen, böte aber ein generell besseres Anti-Aliasing als Voodoo5 im 4x-Modus. Alte Titel, die noch für TNT2- oder auch GF2MX-Klasse programmiert wurden, könnte man so kräftig aufmöbeln. Jedenfalls wäre eine GF4 Ti mit "8xS" schneller als Voodoo5 mit 4x FSAA, und wie gesagt auch ein klein wenig schöner.


Anisotropes Filtering

Hier bleibt mir eigentlich nichts weiter, als in eine unerträgliche Lobhudelei auszubrechen: Das anisotrope Filtering der GF4 Ti (wie auch GF3) ist vom allerfeinsten. Ja, die Radeon kann noch schärfere Texturen erzeugen. Dafür verwöhnt die GeForce mit MIP-Map-Interpolation ("trilinear") und mit Filterung in allen Richtungen, und nicht nur X oder Y. Für meinen persönlichen Geschmack ist die AF-Qualität á la nVidia bislang unübertroffen. Dafür nehme ich auch gerne die Frameraten-Einbrüche inkauf. Es lohnt sich.

Ärgerlich bleibt weiterhin der Bug in D3D, der die AF-Leistung erheblich drückt. In Morrowind kann ich mir deshalb derzeit kein AF leisten. Schwache Leistung, nVidia!


Technik: Shader

GeForce4 bietet, wie jede momentan erhältliche DX8-Hardware, VertexShader Version 1.1. Die Geometrie-Leistung liegt bekanntlich jenseits von gut und böse. Allerdings zweifle ich den Praxiswert von der Angabe "136 Million" Eckpunkte pro Sekunde erheblich an. Einerseits gilt das nur für einfache Transformationen, dann ist zu bezweifeln dass das Triangle Setup mit so vielen Dreiecken umgehen kann, und zu guter Letzt steht fest, dass der Rasterizer damit auf jeden Fall überfordert ist. Ebenso reicht weder AGP-Bandbreite, noch die PC-RAM-Bandbreite, doch der lokale Vertex Buffer aus, um diese Zahl irgendwie zu erreichen. Es handelt sich um einen multiplen Flaschenhals, der diese Zahl bedeutungslos werden lässt. Dennoch: Nicht bedeutungslos ist die Geschwindigkeit. Gerade bei längeren Shadern (die viele Takte brauchen) wird sich die interne 2. Einheit wohl positiv bemerkbar machen.

Der VertexShader 1.1 ist Vektor-orientiert und kann 96 Konstanten sowie 128 Programm-Schritte verwalten. Gegenüber DX7 T&L (die einfach nur 2 Transformations-Matrizen speichern konnte) ist das ein Riesen-Fortschritt. VertexShader 2.0 kann allerdings mit 256 Konstanten und 512 Programm-Schritten umgehen, wobei die Programmbefehle den Anforderungen einer "richtigen" Programmiersprache auch deutlich eher entgegenkommen als VertexShader 1.1. Konkret heisst das, dass der VertexShader der GeForce4 wohlmöglich nicht in alle Ewigkeit genutzt wird - wenn nämlich dereinst für VertexShader 2.0 eine CPU-Emulation einspringen muss...

Die Fortschritte des PixelShaders in Version 2.0 werden die Fortschritte beim VertexShader noch bei weitem übertreffen. DX9-Karten werden Shader-mäßig jede DX8-Karte ziemlich alt aussehen lassen. Streng genommen haben erst DX9-PixelShader die Bezeichnung "programmierbar" wirklich verdient. Dank dieser Shader werden wir in einigen Jahren Grafik-Leckerbissen sehen, die wir heute noch nichtmal ernsthaft vorstellen können, die Technik macht hier wirklich einen gewaltigen Sprung. Allerdings ist vor 2004 nicht ernsthaft mit DX9-Spielen zu rechnen. So gesehen sind DX8-Karten noch immer mehr als modern: Von ihrer Technik wird derzeit praktisch kaum Gebrauch gemacht. Weil wohl die meisten DX9-Karten teure 512-Bit-Chips sein werden und DX8-HW langfristig zur Massenware avancieren sollte, hoffe ich dass die (wenn auch vergleichbar simplen) DX8 Shader-Technologien in zukünftige Titel Einzug halten werden. Ausgefallene Bumpmapping-Methoden, einfache prozedurale Texturen und relativ flexible Material-Shader sind schon mit DX8-Hardware möglich.

Sofern tatsächlich einige wichtige Studios in Zukunft parallel für X-box und PC entwickeln, könnte DX8 für eine längere Zeit der Quasi-Standard werden, als einigen PC-Besitzern dann lieb sein wird.


Technik: Bandbreiten schonende Features

nVidia hat sich ja einen ganzen Strauss von Marketing-Bezeichnungen einfallen lassen, die ich hier nicht wiederholen möchte. Doch offenbar ist der NV25 der effizienteste Immediate Renderer, der derzeit auf dem Markt ist (gefolgt von R200, NV20, R100) Jeder Sofort-Renderer profiziert von einem Front-to-Back-Sorting. Das muss übrigens softwareseitig durch die Engine erfolgen. Während eine GTS hier allerdings nur einen Z-Buffer-Schreibezyklus spart, wird bei GeForce4 richtig Füllrate gespart. Das gilt auch für GF3 und natürlich Radeon8500. Die ATI-Karten haben hier auch kein Problem beim Anti-Aliasing. Ohne ins Detail gehen zu wollen sei folgendes gesagt: Die erhöhte Effizienz, dass nicht sichtbare Pixel auch nicht gerendert werden wenn schon fest steht, dass sie verdeckt sind, sinkt bei GF3 und 4 mit 2x FSAA erheblich. Im 4x FSAA-Modus wird durch das Sorting nur noch der finale Z-Buffer-Schreibzugriff gespart. Die relativ gesehen leichten 4xAA-Geschwindigkeits-Verbesserungen der GF4 gegenüber ihrem Vorgänger schuster ich einer effizienteren Filtertechnik zu, sie werden es ansonsten wohl bei 4 Z-Test-Units pro Pipeline gelassen haben. (R200 verfügt über 16 derer.) Der überarbeitete Cache sowie bestimmte (wohl von ATI inspirierte) Z-Buffer-Strategien scheint die GF4 insofern rauszuhauen, dass sie pro MHz mehr rendert als R200.

Das scheint irritierenderweise sogar beim PixelShader so zu sein. Bekanntlich bietet Radeon8500 hier die fortschrittlichere Techik, doch soweit ich John Carmack verstanden habe, versenkt ATI ihren möglichen Performance-Vorsprung in suboptimalen Treiben.


Farben-Spiele

Ich bin nicht sicher, ob man eine GF4 (oder 3) als Bildqualitäts-Referenzkarte nehmen sollte. Mir fällt sowohl in OpenGL (Quake3) als auch in D3D (Morrowind) immer wieder Colorbanding auf. Meiner Meinung nach würde es das nicht geben, wenn intern pro Farb-Kanal mit 2-3 zusätzlichen Bits gerechnet würde. Von einer HighEnd-Karte würde ich kompromisslose Farbgenauigkeit fordern. Von Overbright Lighting scheint die GeForce ebenfalls noch nichts gehört zu haben. Davon abgesehen rendert die Karte nicht exakt das, was der D3D REF erzeugt. Im Detail berechnet der REF an gewissen Stellen das schärfere Bild. Ob das normal ist, oder nVidia zu sehr "optimiert" hat, kann ich nicht sagen.


Takt-Spiele

Die Karte kaufte ich wegen dem RAM. Der RAM ist, wenn man von den 2,8 ns ausgeht, für 357 MHz spezifiziert. nVidia taktet ihn nur auf 325 MHz - ganz klar, eingebaute "oc"-Reserve, um einen Abstand zu wahren, falls jemand mit einer Ti4400 an das Ti4600-Niveau heran kommt. Lustigerweise wäre die Ti4400, hätte sie denn den gleichen Takt wie die 4600-er, etwas schneller. Das liegt bekanntlich an den unterschiedlichen RAM-Timings. Die lässigeren Einstellungen der 4600 scheinen für Übertaktbarkeit über das gewohnte Maß hinaus günstig zu sein. Damit möchte ich folgendes sagen: Wenn die RAMs produziert und selektiert werden, so besteht schon die Möglichkeit, dass gelabelte 3,6 ns RAMs auch als 3,3 oder manchmal als gar 3,0 ns RAM durchgehen könnte. 2,8 ns ist jedoch (fast) Oberkante Unterlippe. (Samsung stellt aktuell nur bis 2,5 ns her, offenbar aber noch nicht in größeren Mengen.)

Lassen sich angebliche 3,6-er Bausteine um ca. 15% übertakten, schuster ich das wie gesagt den inwischen ausgereiften Produktions-Verfahren zu. 2,8 ns RAM sind zusätzliche 15% Geschwindigkeit natürlich nicht mehr abzuringen. Ungefähr 5% sind noch drin. Ich bin der Meinung, dass dieses OC-Möglichkeit durch die verwendeten Timings erst möglich gemacht wird. Wegen der recht ausgereiften Cache-Architektur scheint es beim NV25 eher auf Bandbreite denn RAM-Zugriffsgeschwindigkeit anzukommen. Schlau von nVidia: Ausgehend vom 4600-er RAM-Standardtakt erreicht man auch hier ca. 15% Mehrtakt. Weil die RAMs also werkseitig nicht voll ausgefahren werden, bleibt dem Käufer die Illusion, seine Karte RAM-seitig ebenso wie die 4400-er übertakten zu können. So lang sollte meine Vorrede eigentlich gar nicht werden, denn:

Wichtig ist, was hinten rauskommt. Das sind in meinem Falle 377,5 MHz RAM-Takt mit offenem Gehäuse, im Normalfall mit geschlossenem Midi-Tower muss man für stabilen Betrieb auf 10 MHz verzichten. Um die Karte nicht übermäßig zu beanspruchen, fahre ich sie jedoch mit "nur" 357,5 MHz. Das entspricht dem, was man bei 2,8 ns erwartet (bzw. exakt 10% "Mehr"takt, wenn man von der werkseitigen Einstellung ausgeht.) Einfach gesagt habe ich Bandbreite wie Heu: 11,440 GB/s. Das trägt angesichts der in Relation fast schon "schwachen" CPU (P4 Nortwood, derzeit auf 2080 MHz) sicher zum Gefühl, dass 2x FSAA "for free" ist, entscheident mit bei.

Den Core der Grafikkarte habe ich bei 325 MHz einmal zum Absturz gebracht, mit einem 5-MHz-Schritt weniger zeigten sich keine Probleme. Auf diese nicht mal 7% zusätzlich verzichte ich jedoch. Ich fühle mich sicherer, sowohl GPU als auch RAM nicht hart am Limit zu fahren. Die Ti4600 soll lange, lange, lange halten. Ich möchte mit ihr die ganzen kommenden DX8-Spiele spielen. Und zwar mit Anti-Aliasing und anisotropen Filter. Ja, geht das denn überhaupt?


Blick in die Kristallkugel

Ich war mir von Anfang an darüber im klaren, dass in diesem Jahr mindestens 4 Karten erscheinen werden, die dann schneller als die GeForce4 Ti4600 sind. War das nun wirklich klug zur GF zu greifen, anstatt sich mit einer kostengünstigen Lösung á la Ti200 zufrieden zu geben und später aufzurüsten?

Diese Frage hat die Eigenschaft, dass man sie zu jedem Zeitpunkt stellen kann. Immer zeichnet sich ab, dass es bald bessere und schnellere Karten geben wird. Meine Kalkulation sieht nun so aus: Mit der langsam kommenden DX9-Technik hält eine neue (512-Bit) Architektur Einzug. Es ist nicht anzunehmen, dass diese Karten in absehbarer Zeit zu massenmarkttauglichen Preisen über den Tisch gehen. Deswegen sehe ich für 256-Bit-GPUs noch eine gute Zukunft: Sie werden in ca. einem Jahr durchweg recht günstig sein. Es wird auch hier noch schnellere Produkte als die Ti4600 geben, doch steht zu bezweifeln, dass wirklich neue Leistungsregionen erreicht werden, bzw. sich diese Karten durchsetzen. Lange war TNT2 die durchschnittliche Basis, heute ist es GTS. Was heute der letzte Schrei ist, wird sich in ungefähr 2 Jahren durchgesetzt haben und noch mindestens ein weiteres Jahr halten. Zukunftssicher ist keine Karte, doch auch wenn die Ti4600 schon in wenigen Monaten technisch "überholt" ist, so hat sie genügend Power, auf Jahre das Spielerherz zu erfreuen.


Treiber

Ich sprach bereits einige Probleme an. Diese sind verglichen mit der Ergonomie aber Kinkerlitzchen: Die Präsentation des Detonators ist grauenhaft. Ein Zumutung, dass man erstens so viel klicken muss und zweitens kaum Einstellmöglichkeiten geboten bekommt. Third-Party-Tools sind ebenfalls sehr unergonomisch, so dass ich ein eigenes Tool schreiben musste, um mir den von 3dfx gewohnten Komfort zurück zu holen. Ich denke, dass diese Treibergestaltung mit Absicht erfolge: Der DAU soll sich nach Möglichkeit nichts kaputt spielen können, in dem er am besten gar nicht erst zu den Optionen kommt. Und wenn doch, dürfen diese nicht wesentlich sein. Da habe ich sowohl von 3dfx als auch von ATI bessere Lösungen gesehen. Performancemäßig halte die GF4 für weitgehend ausgereizt. Wenn endlich der D3D-AF-Bug gefixt wird, erwarte ich keine größeren Speedups mehr.


Limits der Ti4600

Selbstverständlich hat jede Hardware ihre Grenzen. Zwei konkrete Beispiele:

1) Quake3 spiele ich wie gesagt mit extremen Eye-candy, also 2x FSAA, 8x AF, und volumetrischen Echtzeitschatten (r_stencilbits 8, cg_shadows 2) superflüssig - in 1024x768. (Üblich sind so 60-140 fps.) Bei 1280x1024 ruckelt es, die Framerate geht stellenweise bis in den 20-er fps-Bereich herunter. (Üblich sind hier 30-80 fps.)

2) Morrowind in 1600x1200 (allerdings ohne anisotropem Filter) - 2x FSAA ist kein Problem. 4x FSAA haut aber richtig dolle rein. Die Geschwindigkeit sinkt ausgehend von 2x FSAA auf ca. ein Drittel!!

Ab 1600x1200 zeigen sich generell Schwächen. So gilt die Regel "Ti4600 ist mit 2x FSAA schneller als GF3Ti500 ohne FSAA" bei 1600x1200 nicht mehr unbedingt. Anti-Aliasing im 2x-Modus, aber auch noch im 4x-Modus bringt einen geringeren relativen Einbruch als bei der Ti500, und natürlich spielt die Ti4600 sowieso auf einem deutlich höheren Niveau. Im Einzelnen unterscheide ich folgende Klassen (Aufzählung der Karten-Beispiele ohne irgendwelche Rangfolge)

- Lowlevel (TNT2M64, GF2MX200)

- Entry Level (TNT2, GF2 MX, GF1 SDR, Voodoo3, Voodoo4, Kyro1)

- Mittelklasse (GF1 DDR, Radeon7500, GTS, Voodoo5, Kyro2)

- High Tech (GF3, Radeon8500, GF4Ti4200)

- Hardcore (Ti4600)

Die 4400 reiht sich zwischen den beiden letzten ein. Angesichts der verfügbaren Speicherbandbreiten setzt sich die 4600 tatsächlich spürbar von GF3Ti500 und Radeon8500 ab. Gerade bei Engines der nächten Generation werden die Unterschiede sehr viel deutlicher als z.B. im 3DMark2001. Dennoch, mit nur 2 PixelShader-Stages pro Pipeline kann man von der GeForce4 hier keine Performance-Wunder erwarten. 4 Stages pro Pipeline hätte die benötigte Chipfläche ein wenig vergrößert, aber das wäre der PixelShader-Performance sehr zuträglich. Ein Spiel, welches massiv DX8 PixelShader einsetzt, wird vermutlich eine DX9-Karte erfordern um höchste Anspruche an Auflösung, Framerate und Kantenglättung zu erfüllen.

Meiner Meinung nach sieht man dem NV25 an, dass die meiste Kapazität auf andere Entwicklungen gelegt wurde (NV30.) GeForce4 Ti ist nicht mehr und nicht weniger als eine aufgemöbelte GeForce3. Im Verhältnis wurde die Leistungsfähigkeit gesteigert wie von TNT zu TNT2, bzw. GF256 zu GTS. Um das ganze Geschwafel zusammenzufassen: Die Ti4600 ist keine Karte für 1600x1200. Zwar schlägt sie sich hier mit der Konkurrenz verglichen noch am besten, doch eine Extrem-Auflösung zu fahren bedeutet, auf Qualitäts-Features verzichten zu müssen. Das ist jedoch gerade der Grund, der für die GeForce4 spricht: Schnelles Anti-Aliasing, gute anisotrope Filterung. Ich empfehle ausdrücklich, nicht mehr als 1280x1024 zu wählen (oder "zur Not" auf 1024x768 "herunter schalten") um sich ein Maximum an Kantenglättung und scharfen Texturen zu gönnen. Wer behauptet, Kantenglättung brauche es nicht, lügt sich was zurecht, weil seine Karte nicht fähig ist mit Anti-Aliasing eine adäquate Framerate in brauchbarer Auflösung zu rendern. Um die Kantenglätte von 1024x768 mit 2x2 Anti-Aliasing über Auflösung hereinzuholen, müsste man in 2048x1536 spielen. Da macht kaum ein Monitor mit, von der Grafikleistung ganz zu schweigen. Ich demonstriere jedenfalls gerne (oft in Quake) in 800x600 die Grafik ohne, und dann mit (2x) Anti-Aliasing. In aller Regel gibt es ungläubige Gesichter und die Frage, ob ich die Auflösung erhöht hätte. Das habe ich zwar nicht, aber es sieht fast so aus.

Ich muss "gestehen", besonders allergisch gegen Treppeneffekte zu sein und ärgere mich, sie noch in 1280x960 wahrzunehmen - trotz 2x Anti-Aliasing. 4x ist nicht mehr drin, wenn die Framerate so hoch bleiben soll. Also natürlich gibt es beim Anti-Aliasing Grenzen. Trotzdem halte ich die Ti4600 für die beste Karte, die ein Kantenglättungsfreak zu diesem Zeitpunkt kaufen kann.


Geschwindigkeit heute

Nun, in Quake muss man also entweder auf 1280x1024 oder auf die volumetrischen Echtzeitschatten verzichten, und in Morrowind ist bei Extrem-Auflösungen kein 4x AA mehr drin, beides sind Dinge, die die Grafik nicht mehr entscheidend verbessern. Die Karte erlaubt jedenfalls, auch Spitzentitel mit sinnvollen Qualitätsverbesserungen wie Kantenglättung und anisotroper Filterung flüssig zu fahren, und das bei hohen Auflösungen. Die Karte macht wirklich Laune: Man prüft beim Spiel, ob wirklich alle Optionen aktiviert sind und auf Maximum gedreht wurden, stellt am besten die Auflösung ein die man auch im Windows Desktop nutzt (in meinem Fall 1280x960) und erfreut sich an Kantenglättung und anisotroper Filterung.


Fazit

Die Ti4600 verwöhnt den Fan von 3D-Spielen. Wer einen guten 19-Zoll-Monitor hat, der kann aktuell nichts besseres als den "NV25 Ultra" kaufen. Wer einen guten 17-Zoll-Monitor hat, dem würde ich die Ti4400 ans Herz legen. In jedem Fall gilt: Starke CPU ist Pflicht, ebenso natürlich schneller RAM für die Arbeitsspeicher-Bandbreite.

Weitere Kritikpunkte lassen sich im (reichlich scharfzüngig formuliertem) GeForce4: Pro- und Kontra-Artikel nachlesen. Von dort zitiere ich auch das Fazit: "Entfernt man das ganze Marketing-Blendwerk, bleibt natürlich ein sehr guter, wenn auch entsprechend teurer Chip. Technisch kann sie mit der Konkurrenz nicht ganz Schritt halten, die Verbesserungen seit ihrem Vorgänger sind dürftig; allerdings von einem sehr hohen Niveau aus. Die GeForce4 Ti ist eine wenig innovative, dafür brutal schnelle Karte und für Fans geballter Rohpower empfehlenswert - solange sie über ein entsprechendes Geldsäckel verfügen."


Vielen Dank für die Aufmerksamkeit.


edit: "1280x768" war falsch, zu 1280x1024 geändert.
edit2: Schreibfehler entfernt.

Dunkeltier
2002-05-27, 03:52:55
Ist aber viel Text, den ich mir jetzt durchlesen muß. *Knabberkeckse auspack* Nun denn.

Dunkeltier
2002-05-27, 04:12:41
Zitat: "Da macht kaum ein Monitor mit, von der Grafikleistung ganz zu schweigen. Ich demonstriere jedenfalls gerne (oft in Quake) in 800x600 die Grafik ohne, und dann mit (2x) Anti-Aliasing. In aller Regel gibt es ungläubige Gesichter und die Frage, ob ich die Auflösung erhöht hätte. Das habe ich zwar nicht, aber es sieht fast so aus..." Zitat Ende.

Dazu möchte ich nur anmerken, das mir Kantenglättung bis heute noch immer nicht richtig gefällt. Geglättete Kanten, ja. Schmiererei, nein! Matrox ist letztens mit einem PDF aufgetaucht, wo dies noch einmal beschrieben ist, wie z.B. die Schrift verschmiert. Das, was mir früher keiner glauben wollte. Solange dieses Manko nicht beseitigt ist (wird es auf jeden Fall durch den Parhelia), verzichte ich auf FSAA und fahre lieber mit 1280x1024 o.ä. hohen Auflösungen.

Gunnar
2002-05-27, 11:44:30
@aths

Ein super "GeForce4 Ti4600 Review" ... sehr informativ.


Gunnar

[UTFC]Slá¥èr
2002-05-27, 12:10:16
denn das hat mich nur bestärkt, heute meine MSI GF4 4400 VTD zu bestellen, da ich Wert auf AF und AA lege.

Guter Artikel

Richthofen
2002-05-27, 12:55:18
Black Cow

Wenn du 2x oder 4x auf der GF4 nimmst wird nix verschmiert.
Es werden Kanten geglättet und nicht an Texturen rumgepfuscht.
Bei Quincunx sieht das bissl anderes aus. Da wirds leicht blurry aber so richtig schlimm auch wieder nicht.

1024 32 Bit 2 oder 4x FSAA und 4x oder 8x AF ergeben bei der GF4 ein absolut gestochen scharfes Bild. Das kannst du heute mit keiner Auflösung reinholen. 1600 mal 1200 sieht schlechter aus.
Auf nvnews gabs nette Gegenüberstellungen von Nascar Screenshots und zwar 1024 mit 4x und 4xS und 1600 mal 1200 ohne FSAA.
Wie aths bereits sagte, mit FSAA sah es um Welten besser aus.

Zu Zeiten der Voodoo5 und GTS hätte ich auch jederzeit der höheren Auflösung den Vorzug gegeben, da das FSAA auf beiden Karten kein Performancewunder war.
Mit der GF4TI ist FSAA brutal schnell und es macht keinen Sinn mehr das Feature durch ne höhere Auflösung zu ersetzen.
Das 2x FSAA merkst fast gar nicht in der Performance das ist fast for free.
Bei den Spielen wo ich auf FSAA wert lege spiele ich allerdings persönlich immer mit 4x und 4xS + 4x oder 8x AF.
Das liegt einfach daran das diese Spiele nicht so hohe fps Werte erfordern wie zb Quake3.
Counterstrike kann ich mir allerdings im Vollgenuß leisten ohne auch nur 1mm von den 99fps wegzugehen.
Eigentlich lass ich solche Dinge bei Shootern weg aber seid der GF4Ti4400 @320 / 690 ist in CS bei mir alles an.
Warum auch nicht wenns for free ist :)

KiBa
2002-05-27, 13:38:01
Originally posted by aths
Um die Kantenglätte von 1024x768 mit 2x2 Anti-Aliasing über Auflösung hereinzuholen, müsste man in 2048x1536 spielen.
Also ich denke, es gibt schon einen Unterschied zwischen einem grauen Pixel und einem tatsächlich schwarzen und weißen Pixel, was der Realität näher kommt. (Extremfall natürlich)
Außerdem erhöht sich bei größerer Auflösung auch automatisch die Texturschärfe, was bei MSAA nicht der Fall ist, und die allgemeinen Kontrasteigenschaften des Monitors sind auch besser. Deshalb bevorzuge ich persönlich eine höhere Auflösung als AA, was in bestimmten Fällen auch "matschig" und "nicht richtig" aussieht (sunjektiv) Ich persönlich bringe 95% des Spiels in Bewegung zu, da kann ich beim besten Willen keine Kanten sehen, da ist AF viel wichtiger, alles imo natürlich... ;)
Aber ich will ja nicht wieder eine Diskussion AA gegen AF anzetteln, aber das ging mir grad durch den Sinn. Gerade weil ich meinem Athon 1400 ne GF4Ti4200 spendiert habe, die auf 290/305 läuft. Standardmäßig habe ich da 4-tap AF an mit einem MipBias von -1. Wenn es die Performance erlaubt (z.B. bei SOF2) kommt auch noch 2x MSAA dazu, schaden tut es jedenfalls nicht. Die Auflösung stelle ich bei jedem Spiel auf 1280x1024 oder 1152x864...
Ansonsten, schönes Review!

Quasar
2002-05-27, 13:45:41
Auch wenn es "nur" deine persönliche Meinung darstellt, doch ein paar kleinere Anmerkungen:

- Dein NFS5-Problem scheint nicht an der GF4 zu liegen, es ist ursprgl. offenbar nicht für D3D in Win32 ausgelegt gewesen. Gepatcht funktioniert es in Win32 einwandfrei.

- UT-Performance: Nichtmal mit der Voodoo5 bekomme ich auf einem 600er Athlon vergleichbare Frameraten, obwohl es natürlich einwandfrei spielbar ist.

- PowerVR-Demos: Das Dragonfly-Problem hab ich mittlerweile auch, aber viele PowerVR-Demos laufen auf VSA-100 nicht so wie sie sollten....

- 3dfx-Tools: Ich find's ziemlich lame, daß man für jede Option eine extra-Stufe des Funktionsbaumes aufklappen muss. Ansonsten ist es schon praktisch, zumindestens alles in einem Fenster zu haben.

- "Weiterhin ärgert mich die Qualität bei der DVD-Wiedergabe, wenn der Inhalt im Interlaced Modus aufgezeichnet wurde. Hier war die Voodoo4 nicht besser, doch sie war ja auch nie als HighEnd-Karte gedacht." Das ist reichlich unsachlich. Auch eine Voodoo5, die sehr wohl als "high-end" gedacht war, hätte hier keine Abhilfe geschaffen, da das entsprechende Feature einfach im VSA-100 nicht drin ist. Der Punkt an sich jedoch wundert mich auch...da man offenbar ja für's Internet/Office-Produkt i.d. Lage zu sein scheint, die entsprechende HW anzubieten.

- Quincunx-AA: Wie ich gestern extrem überrascht feststellte, scheint Quincunx optisch glattere Kanten zu produzieren, als 4xFSAA...auch wenn es noch immer mit eine leichten Unschärfe einhergeht...

Ansonsten vielen Dank für deine unverblühmte, subjektive Einschätzung!

Voodoo3Killer
2002-05-27, 14:10:23
Erstmal schönen Dank für deine Bemühungen aths!

:D

Da ich selbst z.Zt. außergewöhnlich viel Geld zur Verfügung habe und eigentlich eine neue Grafikkarte brauche/möchte, bin ich noch am Schwanken zwischen einer ti4400/4600.

Im Moment habe ich einen 17" Monitor und wie du schon empfohlen hast, dachte ich eigentlich an die 4400er. Da ich aber eigentlich nie das Geld, was diese Grafikkarten heut zu tage so kosten aufbringen kann, und es wie gesagt ein besonderer Fall ist, sollte die neue Grafikkarte natürlich so lange wie möglich "halten".

(Ob ich denn in der nächsten Zeit auf einen größeren Monitor umsteige, weis ich natürlich heute auch noch nicht.)

Vernünftig ist der Kauf einer GF 4 ti4600, wie du schon selbst angedeutet hast, eigentlich nicht. Die Mehrleistung hält sich in Grenzen und die Differenz der Preise von ca. 120.- EUR (~35% mehr als eine ti4400), wird wohl kaum in diesem Maße zur Geltung kommen.

Wird die Mehrleistung einer ti4600, sich in zukünftigen Spielen vergrößern, oder diese aufgrund neuer Features (??) eh verpuffen?!

Alles in allem tendiere ich zu einer ti4400, habe mich allerdings noch nicht ganz entschieden.

Quasar
2002-05-27, 14:12:21
Ich bin auch von den Leistungen einer Ti4200 mit 128MB angenehm überrascht. Zumindest kein Vergleich mehr zur GeForce3(inkl. Ti500).

Voodoo3Killer
2002-05-27, 14:47:54
Hmm

Also ich werde wohl zur 4400er greifen, und lieber noch 256MB RAM dazu kaufen.

:)

aths
2002-05-27, 15:29:58
Black Cow,

Matrox hat sich da an dieser Stelle im Launch-Material was zurechtgel... gebastelt. Sowohl ATI, als auch Matrox ziehen über nVidias FSAA her (wenn auch ohne "nVidia" namentlich zu nennen.) Dabei machen beide Fehler. ATI behauptet implizit, MSAA würde Texturen unscharf machen, Matrox zeigt nun dass "some multisampling techniques" das gesamte Bild unscharf machen. Sie meinten damit Quincunx. Nicht das "normale" MSAA. MSAA verschmiert eben nichts. Die Kanten werden auch nicht verschmiert, sondern geglättet. Ich hänge unten mal einen Screenshot an.


V3k,

soweit ich das mitbekommen habe, nimmt sich 4400 und 4600 nicht wahnsinnig viel. Wenn du mich fragst ist Ti4600 auch für einen guten 17-Zöller (meiner hatte z.B. 95 KHz Zeilenfrequenz) overpowered. Wer schon die Kohle für einen besseren 19-Zöller aufgebracht hat, dem würde ich dann zur 4600-er raten, da man mit 25% mehr Bildfläche auch die (ganz rund 15%-ige) Mehrleistung vertragen kann.


Kiba,

es ist natürlich richtig, dass sowohl die Glätte der Kanten (als auch Texturschärfe) bei höheren Auflösungen mitsteigt. Gerade was den Monitor betrifft, sind viele Zeilen anzuraten. Doch hat man erst mal eine Auflösung mit einem guten Bild, ist Anti-Aliasing zur Verbesserung einfach der effektivere Weg für weitere Verbesserungen. Außer OGSSAA ist *jede* Anti-Aliasing-Art dafür geeignet (also RGSSAA oder ein beliebiges MSAA.)

Es ist z.B. ineffektiv, 1600x1200 zu fahren. Fall A: Sehr forderndes Szenario, man kann in 1600x1200 kein Anti-Aliasing mehr nehmen. In 1280x1024 kann man es dann aber auf jeden Fall. Das Bild sieht besser aus (und die Framerate ist höher.)

Fall B: Supereinfaches Szenario, man kann schon in 1600x1200 gleich 4x FSAA nehmen. 1280x1024 mit 4xS FSAA sieht wiederum besser aus (und ist ebenfalls schneller.)


Quasar:

NFS5 ist gepatcht, gimme.dll ist umbenannt, das Spiel liegt auf einer Fat32-Partition... und wenn ich im Spiel an den Optionen rumstelle bekomme ich häufiger den Crash to Desktop. Außerdem übernimmt NFS die FSAA-Modi nicht richtig. Kurz und gut, ich kann es aufgrund der Probleme kaum so spielen wie ich will. (Mit default Optionen inkl. 640x480, aber ohne Anti-Aliasing, wäre es wohl kein Problem...)

Die Bedienung des 3dfxtools finde ich deutlich einfacher, als den Deto. Dieser bietet, das wurde gar nicht erwähnt, ja neuerdings für die Systray ein Symbol mit dem man immerhin FSAA relativ einfach umstellen kann. (Das Symbol muss man extra einschalten, den nervenden Bestätigungs-Klick extra abschalten...)

Dass einige PowerVR-Demos die auf VSA-100 nicht so liefen wie sie sollten lag m.E. an den fehlenden Features des Chips. Bei der GeForce scheint es reine Treiberfrage zu sein.


edit: FSAA-Diskussion verschoben in http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=21077

Voodoo3Killer
2002-05-27, 15:39:35
Naja im Moment habe ich nen Samtron 17" mit 96khz.

Von daher Spiele ich meist auf 1024*768, aber auch bei 1280*960 kann ich noch mit 90hz spielen. Das Problem ist eher, dass man dann irgendwie die Lochmaske sieht (oder was man da sieht, auf jedenfall schaut das nicht mehr so toll aus).

Allerdings würde ich mir auch gerne nen 19" Monitor zulegen (statt dem 17"). Aber die Dinger sind schon teuer, ich brauch mind. 100hz auf der Desktop Auflösung, sonst kann ich nicht arbeiten. Oder ich nehm noch nen zweiten 17". ;)

Quasar
2002-05-27, 15:53:31
Originally posted by aths
NFS5 ist gepatcht, gimme.dll ist umbenannt, das Spiel liegt auf einer Fat32-Partition... und wenn ich im Spiel an den Optionen rumstelle bekomme ich häufiger den Crash to Desktop. Außerdem übernimmt NFS die FSAA-Modi nicht richtig. Kurz und gut, ich kann es aufgrund der Probleme kaum so spielen wie ich will. (Mit default Optionen inkl. 640x480, aber ohne Anti-Aliasing, wäre es wohl kein Problem...)

Dann schieb' es am besten auf WinXP. Unter Win2k läuft es bei mir, ich will nicht sagen Stundenlang, aber doch mind. eine Stunde lang mit FSAA und AF problemfrei...


Die Bedienung des 3dfxtools finde ich deutlich einfacher, als den Deto. Dieser bietet, das wurde gar nicht erwähnt, ja neuerdings für die Systray ein Symbol mit dem man immerhin FSAA relativ einfach umstellen kann. (Das Symbol muss man extra einschalten, den nervenden Bestätigungs-Klick extra abschalten...)

Gewohnheitssache, würde ich sagen. Auf meinem Rechner mit V5 habe ich eine Maus ohne Scrollrad...da nervt so ein Funktionstree doch etwas..


Dass einige PowerVR-Demos die auf VSA-100 nicht so liefen wie sie sollten lag m.E. an den fehlenden Features des Chips. Bei der GeForce scheint es reine Treiberfrage zu sein.

Die Bump-Mapping Demos habe ich noch nichtmal probiert. Mit grossen Texturen sollte der VSA-100 jedoch kein Problem haben, oder?

Aber lassen wir's damit einfach gut sein. Du musst dich weder für dein System, noch für deine persönlichen Eindrücke rechtfertigen..

aths
2002-05-27, 16:33:26
Quasar, die D2 und NFS-Probleme treten bei mir sowohl in WinXP als auch Win2000 auf.



Anmerkung zum AF: Habe gerade "Warm Up" gespielt. 1280x960x32 mit Anti-Aliasing, kein Problem. Durch den AF-Bug in D3D kann AF in dieser Auflösung jedoch nicht genutzt werden: Ruckeln. (In 1024x768 geht es dann.)

Voodoo3Killer
2002-05-27, 16:48:29
NFS5 ist halt auch nicht für Win2k/XP gedacht.

Bei mir läuft's auch nur nach Modifikation.

ow
2002-05-27, 19:16:26
Originally posted by aths


Dass einige PowerVR-Demos die auf VSA-100 nicht so liefen wie sie sollten lag m.E. an den fehlenden Features des Chips.



Mit Sicherheit nicht. Die Demos laufen alle auf meinem TNT (hat auch das DragonFly Prob).
AFAIR laufen auch alle (ausser Stencil Demos) fehlerfrei auf einem uralten Intel i740.

Piffan
2002-05-27, 19:30:20
Irgendjemand (bin zu faul zum Suchen, muß heute abend noch auf ne Sitzung) schrieb, daß mit höherer Auflösung auch die Schärfe der Texturen mitwächst... Stimmt das, muß man das so verstehen, dass das Mipmap- LOD anders eingestellt wird? Dann doch wohl nur bei bestimmten Engines ??? Oder mach der Treiber das "intelligent" in Eigenregie? Mir ist noch nie aufgefallen, daß die Texturen mit der Auflösung schärfer werden.....

aths
2002-05-27, 19:54:49
Piffan,

die MIP-Map-Formel bezieht sich auf "Texel pro Pixel" (und versucht, ein Verhältnis von 1:1 herzustellen.) Je höher die Auflösung, desto mehr Pixel pro Fläche...

Voodoo3Killer
2002-05-27, 19:56:00
Zurück zu ti4400 vs. ti4600:

Wird man an einer ti4600 definitiv länger Spaß haben?

Exxtreme
2002-05-27, 19:58:18
Den gleichen Effekt hat man wenn man SuperSampling verwendet da intern auch die Texturen mit einer höheren Auflösung gerendert werden. Deswegen hat SuperSampling IMHO eine deutlich bessere Gesamtbildqualität als Edge-AA.

Gruß
Alex

Quasar
2002-05-27, 20:00:30
IMHO:
Nein!

Begründung?
Für DX8-Titel machen die 25MHz mehr Coretakt nicht viel aus, der Speicher auch nicht.

Und DX9 schaffense beide nicht.

Dunkeltier
2002-05-27, 20:18:03
In Bezug auf AA: Lüge!

Du hast behauptet, dieser überflüssige Schrott verschmiert nichts. Ok. Ich gehe mal davon aus, das Du Half-Life bzw. Counterstrike hast. Starte zuerst ein Spiel ohne FSAA/MSAA (scheiß egal wie das jetzt heißt, bis jetzt sah es auf allen Karten verschmiert aus), und achte auf die Schrift. Was siehst du? Genau, gestochen scharf wie ich es gewohnt bin. Auch "In-Game" Texte in Half-Life/Counterstrike sehen 1A aus.

Und jetzt wechsel mal bitte auf 2xFSAA oder 4xFSAA und achte auf die Schrift (bei der sieht man es halt am besten). Was siehst du? Genau, das Bild wird matschig. Das hasse ich bisher an AA. Aber Matrox hat wohl einen Weg gefunden, wie der Rest scharf bleibt und nur die Kanten AA werden.

Ich hoffe du verstehst jetzt, das ich mich weniger auf "detailreiche" Kanten als auf andere Unzulänglichkeiten beziehe.

aths
2002-05-27, 20:21:14
Black Cow, die Schrift wird bei mir in CS nicht matschig.

Dunkeltier
2002-05-27, 20:25:58
Originally posted by aths
Black Cow, die Schrift wird bei mir in CS nicht matschig.

Kauf dir ´ne neue Brille. :D Nein, wärst du mal so lieb *.png Bilder der Konsole einmal ohne und einmal mit 4x AA zu posten? Oder ah ´ne...kann man davon keine Screenshots machen?

aths
2002-05-27, 20:28:14
V3k,

vergleiche am besten Benchmarkes in fordernden Einstellungen (hohe Auflösung+FSAA) um ein Bild zu bekommen.

aths
2002-05-27, 20:36:41
Black Cow:

http://www.aths.net/files/0xaa.jpg

http://www.aths.net/files/4xfsaa.jpg

Dunkeltier
2002-05-27, 20:42:36
Meinte wer nicht, bei der Geforce 4 könne man kein AA fotografieren weil es erst im RAMDAC gemischt wird?

aths
2002-05-27, 20:45:34
4x kann "fotografiert" werden, 2x nicht. (Oder doch, aber nicht einfach über das Framebuffer auslesen.)

Dunkeltier
2002-05-27, 20:50:36
Hier, das meine ich:

kein FSAA:
http://free.pages.at/unicorn/pictures/0xfsaa.png

4x FSAA:
http://free.pages.at/unicorn/pictures/4xfsaa.png

4x FSAA wirkt so "unscharf".

aths
2002-05-27, 20:52:40
Supersampling. (btw, du hast ".png" vergessen.)

Unforgiven_II
2002-05-27, 21:13:19
Will dir nur eben (nachdem ich es alles durchgelesen habe *schnauf*) gratulieren für dieses grossartige Review, spitze geschrieben.

Quasar
2002-05-27, 21:18:21
2x und Quincunx geht auch....zumindest in höheren Auflösungen, wo's dann nicht mehr über'n RAMDAC gemixt wird. 1600 z.B. funzt, erstaunlicherweise ist das auch die einzige Auflösung, wo QC meßbar langsamer ist als 2x....


Und wie kommt's, daß das tolle Smoothvision Text verschmiert? Falsche Einstellungen irgendwo?

aths
2002-05-27, 21:24:06
Quasar,

wie schon im Bericht: Ab 1600x1200 läuft es auch beim NV25 anders.

Zu Smoothvision: Bei Supersampling hängt es davon ab, wie der Text ins Bild gebracht wird, ob er verschmiert oder nicht.

Lotus
2002-05-27, 21:51:34
moin

also im Punkt "verschmieren" muss ich Black Cow recht geben.
Deswegen verwende ich persönlich auch kein FSAA und Quincunx*augenreib* schon garnicht.
Da ich einen TFT habe kann man das matschig-werden besonders gut beobachten.
Was fürn FSAA verwendet eigentlich der Kyro?
Mit meiner alten Kyro hatte ich seltsamerweise "matschfreies"also scharfes FSAA.(jedenfalls bei der HL-Engine).

Momentan kommt mir das FSAA von Nvidia teiweise vor wie der Weichzeichner von Photoshop :D

Und die Quincunx-einstellung soll wohl für halbblinde sein :D

aths
2002-05-27, 22:09:53
Lotus,

auch für dich noch mal: Das GeForce3/4-Anti-Aliasing macht weder Texturen, noch Schrift unscharf. Das geht auch gar nicht, da Multisampling verwendet wird. Quincunx ist eine nachträgliche Blur-Filterung. Quincunx sorgt für Unschärfe. 2x oder 4x oder 4xS FSAA aber nicht.

Birdman
2002-05-27, 22:21:24
gibs auf Aths, seit Haarmann den kleinen Lümmeln hier die Mär von FSAA==Weichzeichner eingeredet hat, wird nur noch zitiert und nimmer selber gekukkt.
Haari iss sowas wie nen Blindenhund für die...sie vetrauen ihm mit geschlossenen Augen :D

Dunkeltier
2002-05-27, 22:47:27
Originally posted by Birdman
gibs auf Aths, seit Haarmann den kleinen Lümmeln hier die Mär von FSAA==Weichzeichner eingeredet hat, wird nur noch zitiert und nimmer selber gekukkt.
Haari iss sowas wie nen Blindenhund für die...sie vetrauen ihm mit geschlossenen Augen :D


Falsch. Schon seit der Voodoo 5 hat mich das weichzeichnen gestört. Nur hat die Voodoo 5 weich gezeichnet, und mir nicht noch die In-Game Schrift in Half-Life dünn, fett und gleichzeitig eckig-verschwommen gemacht. Zu deutsch: Gestört hat mich das AA schon immer, aber bei der Voodoo 5 überwogen die Vorteile (Leistung, Ergebnis und die weichgezeichnete und nicht verunstaltete Schrift wie bei der Radeon in Spielen).

Piffan
2002-05-27, 23:02:27
Originally posted by Black Cow



Falsch. Schon seit der Voodoo 5 hat mich das weichzeichnen gestört. Nur hat die Voodoo 5 weich gezeichnet, und mir nicht noch die In-Game Schrift in Half-Life dünn, fett und gleichzeitig eckig-verschwommen gemacht. Zu deutsch: Gestört hat mich das AA schon immer, aber bei der Voodoo 5 überwogen die Vorteile (Leistung, Ergebnis und die weichgezeichnete und nicht verunstaltete Schrift wie bei der Radeon in Spielen).

Du hast eine Radeon? Habe ich das richtig geschnallt? Ja wie willst Du das Multisampling der Geforce dann eigentlich beurteilen? Die Radeon macht Supersampling, die Geforce kann beides: Supersampling und Multisampling, sie kombiniert es sogar bei Bedarf :D

Achso: Ich habe auch keinerlei Schärfenachteile bei Multisampling auf der G3 festgestellt, während bei der G2 Ultra das Supersampling nicht nur die Texturen flau gemacht hat, teilweise waren auch die Farben vermurktst (Banding).....

Dunkeltier
2002-05-27, 23:09:48
Pass auf, das ich dich nicht gleich per Radeon AA. :naughty: Auch auf der Geforce 2 Ti und der Kyro II siehts erbärmlich aus.

Piffan
2002-05-27, 23:17:40
Originally posted by Black Cow
Pass auf, das ich dich nicht gleich per Radeon AA. :naughty: Auch auf der Geforce 2 Ti und der Kyro II siehts erbärmlich aus.

Du bist der Größte: Alle von dir genannten Karten beherrschen lediglich das Supersampling!

Nochmal: Nur das Supersampling sorgt für Matsch, das Multisampling absolut nicht!!! Die Geforces ab 3 sind die einzigen Gamerkarten, die Multisampling beherrschen...

Vorteil des Multisamplings:

1. Bandbreitenschonend, gibts bei vielen Spielen für lau bzw. lachhafte Einbrüche.

2. Es hat nullkommakeinen Einfluß auf die Texturen und 2d- Darstellungen.

Nachteil:
Texturartefakte werden nicht gemildert. Darum hat NV ja das bekloppte Quincbums erfunden: Das verwischt nur, macht damit die Texturartefakte unsichtbar. Einige mögen dies (Razor hat dies mal ernsthaft behauptet :D ), andere kriegen die Krise (ich auch)...

Voodoo3Killer
2002-05-28, 00:07:38
Kann die Kyro I/II/-SE mit dem neuen 15er Treiber nicht auch MSAA?

Hatte das irgendwo im Mitrax Forum mal gelesen, oder war's hier?!


Originally posted by aths
V3k,

vergleiche am besten Benchmarkes in fordernden Einstellungen (hohe Auflösung+FSAA) um ein Bild zu bekommen.

Habe gerade mal im Netz gewühlt und nur marginale Unterschiede erkennen können. Ich werde wohl zur (Leadtek) ti4400 greifen, der Mehrpreis ist es mir nicht wirklich wert.

(edit: Tippfehler)

Dunkeltier
2002-05-28, 01:13:26
Originally posted by Piffan


Du bist der Größte: Alle von dir genannten Karten beherrschen lediglich das Supersampling!

Nochmal: Nur das Supersampling sorgt für Matsch, das Multisampling absolut nicht!!! Die Geforces ab 3 sind die einzigen Gamerkarten, die Multisampling beherrschen...

Vorteil des Multisamplings:

1. Bandbreitenschonend, gibts bei vielen Spielen für lau bzw. lachhafte Einbrüche.

2. Es hat nullkommakeinen Einfluß auf die Texturen und 2d- Darstellungen.

Nachteil:
Texturartefakte werden nicht gemildert. Darum hat NV ja das bekloppte Quincbums erfunden: Das verwischt nur, macht damit die Texturartefakte unsichtbar. Einige mögen dies (Razor hat dies mal ernsthaft behauptet :D ), andere kriegen die Krise (ich auch)...


Aber die Voodoo 5 die ich hatte konnte doch MSAA (wenn ich mich nicht täusche), und das sah genauso beschißen aus.

aths
2002-05-28, 01:19:54
Voodoo5 nutzt Multisample-Buffer, macht aber SSAA.

StefanV
2002-05-28, 01:19:58
Originally posted by Black Cow



Aber die Voodoo 5 die ich hatte konnte doch MSAA (wenn ich mich nicht täusche), und das sah genauso beschißen aus.

'ne V5 kann nur SSAA, hat aber einen MS Buffer, was am SSAA nix ändert *eg*


[edit]
Hm, irgendwie war aths ein paar Sekunden schneller als meiner einer...

pervert
2002-05-28, 06:06:36
Originally posted by aths
Voodoo5 nutzt Multisample-Buffer, macht aber SSAA.

Interessant. Macht sich jemand die Mühe die unterschiedlichen Funktionsweisen ein wenig (vereinfacht) zu erläutern, damit es alle verstehen?

Also in vielen Games sehe ich auch verschwommene Schriften, wenn ich auf meiner GF3 AA hinzuschalte. Z. B. Comanche 4 (Ladebildschirm). Auch nervig: Monkey4. Hier verschwimmt die ganze Grafik, je höher man die FSAA Stufe wählt (und das muss man!). Wann wird nun MSAA genutzt und wann SSAA?


Mein Kommentar zum Review: Ich finde es total blödsinnig sich kurz vor Erscheinen so extrem leistungsfähiger und fast in der gleichen Preisregion spielender DX9-Hardware noch eine, wie Du selbst sagst, nur aufgewärmte Technik zu kaufen - besonders wenn man eigentlich einen guten Überblick über den Markt hat. Und mein absoluter Albtraum wäre eine Technik wie die der GF4, welche mir jetzt schon nicht ausreicht was die Funktionionalität in Bezug auf AA und AF angeht, auch noch Ewigkeiten behalten zu müssen. Ist das nicht das absolut Unvernüntigste was man jetzt machen kann? Es ist viel sinnvoller (und spannender) möglichst oft upzugraden (oder sagen wir öfter). Dabei kommt man manchmal sogar kostenlos in den Genuss aktueller Hardware (hab ich jetzt 3 mal geschafft GF2 -> GF2 Pro -> GF3, sogar 5 Mal alle Zwischenstufen mitgerechnet). Ich für meinen Teil schmeisse alle 3-6 Monate meine Graka raus, zahle kaum oder nichts für ein Update und habe immer die "aktuelle" Technik. Für das zum Fenster rausgeworfene Geld einer Ti4600 könnte ich mir vermutlich die nächsten 5-10 Updates gönnen und habe doch sehr viel mehr davon (kann jeder mit ein wenig Ebay-Erfahrung).

Mein Fazit: Ti4600 ist einfach Größenwahn, genauso wie damals die GF2 Ultra! Und das in Ti4200-Zeiten :D. Der Unterschied zu 4400/4200 ist relativ gering und obwohl ich mir eine 4600er auch locker leisten könnte und ein echter Graka-Fetischist bin, wäre ich niemals so unvernünftig. Als wenn man nichts sinnvolleres mit seiner Kohle anfangen kann.

BTW: Du hast 3D-Technisch nen ziemlichen Durchblick, kaufst aber nen Komplettsystem = teurer + unflexibel, entweder in Bezug auf Garantie oder Komponentenwahl??? Wieso eigentlich?

gbm31
2002-05-28, 09:07:36
nettes review, lustige diskussion.

ich hab selber eine ti4400, weil die gf4 die "echte" dx8-karte ist.
so wie die g2pro die "echte" dx7-karte war. (übrigens meine vorgängerkarte...)

die dx9-karten, die zu weihnachten erscheinen, werden meines erachtens das gleiche schicksal erleiden wie vorher die tnt1, g1 und die g3.
tolle neue technologieträger, aber mit kinderkrankheiten.
und bis die neuen features genutzt werden (wenn überhaupt), sind sie zu langsam.

zumindest bei nvidia lohnt es sich nur! die zweite, "aufgewärmte" fassung zu kaufen.

das ist ökonomisch effizient und spieletechnisch praktikabel/kompatibel.

m2c...

Richthofen
2002-05-28, 11:08:40
gbm31

Du sprichst mir aus der Seele.
Genau so habe ich es bis jetzt auch immer gemacht. Finger weg von den neuen Generationen und auf das Refresh warten.
Die neuen Generationen bieten viele neue Features aber sind
1. zu lahm für diese
2. haben ein nöch größeres Zeitfenster bis diese Features überhaupt mal genutzt werden.
Bezahlen tut man aber gerade für die neuen DX Features, die sich irgendwo in der Transistorzahl auswirken.

Wenn ich mir NV30 und co dieses Jahr kaufe, dann weils mich halt interessiert und das Geld nicht weh tut.
Wenn ich aber nur zum zocken kaufe und bissl mehr rechnen müsste, würde bei mir nur das Refresh in den Rechner kommen eben wegen besagter Kinderkrankheiten.


Und zur Diskussion:
Das FSAA der GF3 und 4 verschmiert gar nix wenn man bei 2x oder 4x bleibt und nicht Quincunx nutzt.
Das ist genau das was mir an MSAA so gefällt. Texturen bleiben unberührt. Klar ergeben sich dadurch auch Nachteile aber die sind mir nicht groß genug als das ich SSAA favorisieren würde.
Ist ja vor allem auch ne Performance Frage die eindeutig MSAA zur Zeit als die überlegene Technik macht.

Wer meint sein GF3 oder 4 FSAA verschmiert schrift, sollte evtl mal mit einem Prog wie Rivatuner seine Einstellungen überprüfen.

aths
2002-05-28, 13:29:00
Originally posted by pervert
Interessant. Macht sich jemand die Mühe die unterschiedlichen Funktionsweisen ein wenig (vereinfacht) zu erläutern, damit es alle verstehen?

Dsa kannst du ganz ausführlich haben - http://www.3dcenter.org/artikel/anti-aliasing/

Originally posted by pervert

Also in vielen Games sehe ich auch verschwommene Schriften, wenn ich auf meiner GF3 AA hinzuschalte. Z. B. Comanche 4 (Ladebildschirm). Auch nervig: Monkey4. Hier verschwimmt die ganze Grafik, je höher man die FSAA Stufe wählt (und das muss man!). Wann wird nun MSAA genutzt und wann SSAA?

2x und 4x = reines MSAA, Quincunx = MSAA mit Unschärfe, 4xS = 50% MSAA+50% SSAA.

Originally posted by pervert

Mein Kommentar zum Review: Ich finde es total blödsinnig sich kurz vor Erscheinen so extrem leistungsfähiger und fast in der gleichen Preisregion spielender DX9-Hardware noch eine, wie Du selbst sagst, nur aufgewärmte Technik zu kaufen - besonders wenn man eigentlich einen guten Überblick über den Markt hat. Und mein absoluter Albtraum wäre eine Technik wie die der GF4, welche mir jetzt schon nicht ausreicht was die Funktionionalität in Bezug auf AA und AF angeht, auch noch Ewigkeiten behalten zu müssen. Ist das nicht das absolut Unvernüntigste was man jetzt machen kann? Es ist viel sinnvoller (und spannender) möglichst oft upzugraden (oder sagen wir öfter). Dabei kommt man manchmal sogar kostenlos in den Genuss aktueller Hardware (hab ich jetzt 3 mal geschafft GF2 -> GF2 Pro -> GF3, sogar 5 Mal alle Zwischenstufen mitgerechnet). Ich für meinen Teil schmeisse alle 3-6 Monate meine Graka raus, zahle kaum oder nichts für ein Update und habe immer die "aktuelle" Technik. Für das zum Fenster rausgeworfene Geld einer Ti4600 könnte ich mir vermutlich die nächsten 5-10 Updates gönnen und habe doch sehr viel mehr davon (kann jeder mit ein wenig Ebay-Erfahrung).

Ich gewöhne mich gerne an HW, um ihre Macken zu kennen. Gerade, was die Graka angeht: Normalerweise übernehme ich sie noch ins jeweilig nächste System. Den Stress, mehrfach im Jahr die Grafikkarte zu wechseln, mute ich mir nicht zu. Wenn ich Carmack recht verstanden habe, dürfte ich mit meiner Konfig Doom3 ganz passabel spielen können. Wenn andere (wegen späterer Upgrades) das noch besser spielen können, ist das ihr gutes Recht.

Originally posted by pervert

Mein Fazit: Ti4600 ist einfach Größenwahn, genauso wie damals die GF2 Ultra! Und das in Ti4200-Zeiten :D. Der Unterschied zu 4400/4200 ist relativ gering und obwohl ich mir eine 4600er auch locker leisten könnte und ein echter Graka-Fetischist bin, wäre ich niemals so unvernünftig. Als wenn man nichts sinnvolleres mit seiner Kohle anfangen kann.

Zwischen 4200, 4400 und 4600 gibt es schon Unterschiede. Mein Monitor bringt 1280x1024 mit 100, und 1600x1200 mit 85 Hz, und zu allem Überfluss mag ich Anti-Aliasing - es kommt also auf jedes Quentchen Leistung an. Mit einer Ti4200 würde ich bei meiner Config nicht unerhört viel, aber doch spürbar schlechter fahren.

Originally posted by pervert

BTW: Du hast 3D-Technisch nen ziemlichen Durchblick, kaufst aber nen Komplettsystem = teurer + unflexibel, entweder in Bezug auf Garantie oder Komponentenwahl??? Wieso eigentlich?

Das System habe ich selbst zusammen gestellt. Ich ging da hin mit einem Zettel wo genau drauf stand, was ich im einzelnen haben möchte (welches Modell, welcher Hersteller) und ließ mir für leicht unterschiedlichen Konfigurationen (P1.6A, Ti4400) ein paar Angebote machen. In der Summe nahmen sich die Unterschiede nicht mehr so viel, daher wählte ich (nach einer Nacht drüber schlafen) die Maximum-Konfig. Den gemachten Paketpreis bekam ich nachträglich noch ein paar Prozent runtergehandelt. Insgesamt gesehen habe ich keinen Schnitt gemacht, aber hatte echt keinen Bock darauf, im Internet zu bestellen. Wenn was in den nächsten 2 Jahren in der Kiste was kaputt gehen sollte, schaffe ich sie so wie sie ist zum Laden.

Piffan
2002-05-28, 13:37:15
Originally posted by aths



Ich gewöhne mich gerne an HW, um ihre Macken zu kennen. Gerade, was die Graka angeht: Normalerweise übernehme ich sie noch ins jeweilig nächste System. Den Stress, mehrfach im Jahr die Grafikkarte zu wechseln, mute ich mir nicht zu. Wenn ich Carmack recht verstanden habe, dürfte ich mit meiner Konfig Doom3 ganz passabel spielen können. Wenn andere (wegen späterer Upgrades) das noch besser spielen können, ist das ihr gutes Recht.




Das letzte glaube ich einfach nicht! Wenn tatsächlich soviel auf Geometrie beruhen sollte wie Kai sagt, also letztlich eine Revolution stattfindet, dann wird keine derzeitige Hardware reichen...Ich sehe nur die bekloppte Kreed- Demo, oder sehe wie Codecult an der Performance der G3 suckt.... Selbst die Ti4600 wird da noch ruckeln, kann mir einer erzählen was er will......

Warum gehen eigentlich Gerüchte um, daß auf der E3 Hardware von Ati benutzt wurde? Wenn das so wäre, dann wäre J.C. ein elender Lügner und wird von NV bezahlt...Indirekt wird er das ja wohl, zumindest in Form von Hilfestellungen bzgl. der Hardware....Bei Epic ist es ja klar, daß man mit NV "verheiratet" ist....

aths
2002-05-28, 13:52:59
Piffan,

die Codecult-Demo läuft auf Ti4600 sehr viel schneller als auf GF3. Bei 1024x768 größenordnungmäßig 25 fps - also mit 2x FSAA. Mein "official Score" (Bench von 3 Auflösungen, ohne FSAA) liegt bei 2300, wenn ich mich nicht irre. In Dingen Geometrie, nun, die VertexShader-Leistung der GF4 ist deutlich höher als die der GF3.

Piffan
2002-05-28, 13:59:56
Na, dann schaun wir mal.....Vielleicht klappts ja doch mit der G4....Ich habe mir die G3Ti 200 auch nur für die erhältlichen Spiele zugelegt, wegen AF und FSAA und so, und bin recht zufrieden mit ihr. Die Anschaffung der nächsten Graka muß dann schon durch vorhandene Spiele motiviert sein....Aber nicht solche Luschen wie Aquanox, wer sich für diesen Mist extra ne neue Graka gekauft hat, ist anspruchslos oder ärgert sich nicht schlecht .....

Quasar
2002-05-28, 14:30:32
Originally posted by aths
Piffan,

die Codecult-Demo läuft auf Ti4600 sehr viel schneller als auf GF3. Bei 1024x768 größenordnungmäßig 25 fps - also mit 2x FSAA. Mein "official Score" (Bench von 3 Auflösungen, ohne FSAA) liegt bei 2300, wenn ich mich nicht irre. In Dingen Geometrie, nun, die VertexShader-Leistung der GF4 ist deutlich höher als die der GF3.

Ich bin mir nicht sicher, glaube aber, daß es in diesem speziellen Fall doch sehr stark am lokalen Graka-Ram liegt. Auf einer 64MB-Ti4200 läuft es auch nicht mehr sehr flüssig....alleine 5 fps gehen im Vergleich zur langsamer getakteten 128MB-Version schon drauf...

aths
2002-05-28, 15:49:54
Quasar,

ich denke, dass es *auch* am RAM liegt, doch soweit ich das mitbekommen habe, ist die Ti4600 ein gutes Stück schneller als eine (auf Ti500-Niveau übertaktete) 128-MB-Ti200. Das ist wohl durch MHz (und u.U. LMA-Verbesserungen) zu erklären.

aths
2002-05-28, 16:49:41
FSAA-Diskussion bitte hier weiterführen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=21077

pervert
2002-05-28, 21:04:07
Originally posted by aths
2x und 4x = reines MSAA, Quincunx = MSAA mit Unschärfe, 4xS = 50% MSAA+50% SSAA.
Egal was ich einstelle, die Schrift in COmanche und die Grafik in Monkey4 ist verschmiert, wenn auch nur leicht. Wenn mir das jemand erklären könnte?

Ich gewöhne mich gerne an HW, um ihre Macken zu kennen. Gerade, was die Graka angeht: Normalerweise übernehme ich sie noch ins jeweilig nächste System. Den Stress, mehrfach im Jahr die Grafikkarte zu wechseln, mute ich mir nicht zu. Wenn ich Carmack recht verstanden habe, dürfte ich mit meiner Konfig Doom3 ganz passabel spielen können. Wenn andere (wegen späterer Upgrades) das noch besser spielen können, ist das ihr gutes Recht.
Das ist eigentlich kein Stress. Es macht sogar Spass. Zumindest solange man bei NV bleibt und keine Treiberschwierigkeiten durch Dateileichen anderer Hardware etc. bekommt. Oder man muss halt mit dieser Problematik umgehen können. Doom3 wird sich auf der Karte die ich dann habe (NV30 o. Parhelia) sicher sehr viel wohler fühlen. Na, magst du FSAA und Anisotropie? NIEMALS wirst Du das bei Doom3 dazuschalten können (8x)und dann noch vernünftige Frames haben (1024x32). Die hat man ja heute kaum, wenn man 8x Ansio wählt. Und ich für meinen Teil würde lieber noch eine 16x Stufe haben anstatt auch nur daran zu denken evtl. weniger einzustellen. Ich HASSE unscharfe Texturen! Probier mal Doom3 (oder ein vergleichbar forderndes Spiel) mit 8x Aniso und min 2x FSAA :) Jedenfalls ist mir bei JK2 erstmals aufgefallen wie sehr 8x Aniso doch noch suckt. Immer noch viel zu unscharf bei fetten Texturen. Ich bin auch sehr dankbar für den Performance Boost seit den 28.90 Treibern :) Und Du weist selbst ganz genau, dass sich die ganze Industrie an Doom3 orientieren wird. Viel Spass, wenn dann jedes deiner Spiele in den nächsten 2 Jahren (ab Doom3) zu langsam oder unschön ist! Man wird mit einer guten DX8 Karte sicher SEHR lange auskommen können, aber nur wenn man anspruchslos ist und auf AF und FSAA verzichten kann.

Zwischen 4200, 4400 und 4600 gibt es schon Unterschiede. Mein Monitor bringt 1280x1024 mit 100, und 1600x1200 mit 85 Hz, und zu allem Überfluss mag ich Anti-Aliasing - es kommt also auf jedes Quentchen Leistung an. Mit einer Ti4200 würde ich bei meiner Config nicht unerhört viel, aber doch spürbar schlechter fahren.
Ja, man kann jede Karte übertakten. Aber einige Ti4200 werden sicher ähnlich der Ti200 ein sehr hohes Potential haben, so dass eine 4400 locker erreicht wird und man sich der 4600 (weie einige Reviews schon belegten) gefährlich nähert. Die 15-20 Prozent die Du viellicht noch irgendwo mit der 4600 mehr erreichen könntest (bei OC), sind vielleicht "spürbar" aber vom Preis-/Leistungsverhältnis ziemlich lächerlich und letzlich unwichtig. Ein Spiel das auf einer 4200/OC o. 4400 nicht vernünftig läuft, bringts auch auf deiner Karte nicht! Ob Doom3 bei Dir nun mit 24 oder 28 Frames läuft, beides ist bescheiden und reizt nur zum Kauf der nächsten Graka-Generation!
Und Du magst FSAA? Kriegst Du dann nicht fast eine Erektion, wenn Du die gigantischen Bandbreiten der DX9-Hardware siehst + innovative AA Techniken wie die des Parhelia?

Das System habe ich selbst zusammen gestellt. [...] Wenn was in den nächsten 2 Jahren in der Kiste was kaputt gehen sollte, schaffe ich sie so wie sie ist zum Laden.
Ich schaffe DEFINITV lieber Einzelteile in den Laden! Bin doch nicht besoffen und schleppe den tonnenschweren Rechner durch die Gegend :D Außerdem tausche ich oft Teile aus, das geht dann sowieso nicht.

aths
2002-05-28, 21:46:45
pervert,

ich halte 2x AF + 2x FSAA für das Mindesmaß. Alles darüber fällt für mich unter Luxus. Dafür ist die Bandbreite ausreichend. Dass Parhelia besseres FSAA hat, wusste ich schon vor dem Kauf. Doch der Parhelia steht noch nicht im Laden. Und ATIs R300 wird noch viel fetter als der Parhelia.

Eine Ti4600 ist ein gutes Stück schneller als Ti4200. Das kann durchaus den Unterschied "2x FSAA ja oder nein" ausmachen.

pervert
2002-05-28, 21:55:38
Originally posted by aths
pervert,

ich halte 2x AF + 2x FSAA für das Mindesmaß. Alles darüber fällt für mich unter Luxus. Dafür ist die Bandbreite ausreichend. Dass Parhelia besseres FSAA hat, wusste ich schon vor dem Kauf. Doch der Parhelia steht noch nicht im Laden. Und ATIs R300 wird noch viel fetter als der Parhelia.

Eine Ti4600 ist ein gutes Stück schneller als Ti4200. Das kann durchaus den Unterschied "2x FSAA ja oder nein" ausmachen.

Aber nicht, wenn Du eine gut OC-bare 4200 hast. Die erreichen schonmal 320/600 (lt. Reviews). Und während ich auf 8x Aniso nicht verzichten kann und mir dann 15-20% auch nichts mehr bringen, kann ich das bei 2x FSAA schon. Nebenbei bemerkt ist 2x Ansio erbärmlich und die Performance bricht trotzdem schon gewaltig ein. Doom3 wird deine Karte killen :D

Und woher bitteschön willst Du wissen das der R300 besser ist (abgesehen von DX9 komp.)? [...]

edit: Unsachgemäßen Beitrag wegeditiert (aths)

ATI Treiber sucken :)

Carmack
2002-05-28, 22:12:18
Doom3 wird alle dann erhältlichen Grafikkarten "killen" soviel steht fest und vor Ende 2003 wirds eh nix werden.

Birdman
2002-05-28, 22:18:59
Doom3 und Engine-games werden auf der Radeon-Line sicher rocken und ohne Scherereien laufen, dafür sorgt JC mit seinem radeon codepath. Damit kann er elegant alle schwächen der hardware/treiber umschiffen und viel speed rausholen...nicht umsonst sei die E3 Demo auf nem R300 gelaufen. (wobei hier aber vor allem wohl ausschlaggebend war, dass der r300 das erste wirklich lauffähige nextgen produkt war)

pervert
2002-05-28, 22:26:31
Wer BEWEIST uns das Doom3 auf einer R300 lief?
Was für ein codepath?
Ich spiele nicht nur Doom3 und D3 Engine
Games!!! [...]

edit: Unsachgemäßen Beitrag entfernt. (aths)

aths
2002-05-28, 22:29:06
pervert,

deine Ausbrüche gegen ATI-Treiber gehören nicht in dieses Forum (" nVidia Grafikkarten") und schon gar nicht in diesen Thread. Deshalb habe ich sie auch wegeditiert. Nun aber zum Thema:

Eine derb übertaktete GF4Ti4200 erreicht nicht die Werte die ich mit noch lässiger Übertaktung schaffe. Nur sehr wenige werden 320/"600" erreichen. Ich schaffe 320/"755", ein Viertel mehr Speicherbandbreite! Bei der 4200 ist es ein Glücksspiel, ich habe meine Karte schon und weiss, was sie bringt. Im Regelfall hat die Ti4600 40-50% mehr Speicherbandbreite als Ti4200. Denn man kann natürlich nur die 128-er GF4-Karten zum Vergleichen nehmen. Kurz, während die Ti4200 noch zur GF3/Radeon8500-Klasse zu rechnen ist, spielt Ti4600 in ihrer eigenen Liga.

pervert
2002-05-28, 22:40:37
Würdest Du bitte aufhören, meine Beiträge zu zensieren?!!!

Ich weiss nicht, wo Du die 40-50% herholst, aber wenn Du meinst :D
Und Bandbreite alleine bringts auch nicht. 10% mehr Ram-Clock ist nicht gleich 10% mehr FSAA-Performance. Bei meinen Tests waren das höchstens 2/3 des MHz-Gewinns. Ich habe schon extremste FSAA Benchmarks gemacht und mehr als die 2/3 kamen nie dabei raus.

Ich bleibe bei meinen Aussagen, eine 4600er bringts nicht gegenüber einer GUTEN 4200er. Und erst recht nicht gegenüber einer immer noch sehr viel billigeren 4400er (279 Euro).

Nach meinem Beispiel lt. meiner Praxiserfahrung, wärst Du mit deinen 755 MHz geg. 600 Mhz einer guten A3/513 4200er = 25,8 * 0.67 = runde 17% im Vorteil, den Coretakt jetzt mal aussen vor. Und Ram-Timings gibts auch noch!! WAHNSINN!!! Datt kauf ich mir :D :D :D

Einziger Kritikpunkt wäre, dass es z. Zt. halt noch keine Gipfelstürmer mit 128MB als 4200er gibt. Kommt aber sicher!

Birdman
2002-05-28, 22:50:20
muh

aths
2002-05-28, 22:53:13
Wenn du aufhörst, Dinge im falschem Forum zu posten, belasse ich deine Postings.

Also, 128-MB-GF4-Karten (und andere kann man zum Vergleich schwerlich nehmen, siehe bestimmte Engines die von 128 MB profitieren!) haben 4.5 ns RAM. Sie werden standardmäßig mit "444" getaktet. Setzt man die "650" der Ti4600 dagegen, ist das ein Plus von 46%.

Angenommen, der RAM lässt sich auf "500" übertakten. Um den Abstand von +46% zu halten, müsste die Ti4600 mit "730" laufen, was sie problemlos schafft. Angenommen, eine 128-MB-GF4Ti4200 ließe zu ihren RAM auf "550" zu bringen. Da hätte ich mit "755" nur noch einen Vorteil von 37%.

Selbst wenn sich das nur zu 2/3 auf die Performance auswirkt, so ist man mit der Ti4600 immerhin noch 25% schneller als mit der Ti4200. Das kann, wie gesagt, den Unterschied ausmachen ob 2x FSAA drin ist, oder nicht. Doch wie viele Ti4200 mit 128 MB werden "550" erreichen?

pervert
2002-05-28, 22:58:18
Hm, in den Reviews recht viele glaube ich. Ich meine sogar schon eine 600er gesehen zu haben (bin aber nicht sicher, ist auch ne ziemliche Ausnahme). Im Moment sprechen wir aber lieber über die hochzüchtbaren 64er Modelle, denn Vorteile der 128MB sind z. Zt. eher die Ausnahme oder beschränken sich auf unspielbare Situationen! Wie gesagt werden auch vernünftige 128er kommen!

Du stimmst meinem Beispiel und den mickrigen 17% also zu wie ich sehe. Naja, wenn es das für dich wert war. FÜr jemanden der mindestens einmal im Jahr die Graka wechselt, sollte es das nicht sein. Aber dazu gehörst Du ja nicht.

Mann denk doch mal nach! Die billigste 4600er kostet das Doppelte einer meist nur 17% (die schlechteren 4600-Timings immer noch nicht abgezogen!) langsameren guten 4200er, welche auch schon nicht gerade "supergünstig" ist!

Und selbst wenn es mal 25% wären (das ist eh alles nur worstcase!), wäre ich dafür immer noch nicht bereit das Doppelte zu zahlen!

Quasar
2002-05-28, 23:02:22
aths,

FYI, es gibt durchaus auch 128MB-4200er mit 4ns. Nur wird das nicht von allen an die große Glocke gehängt...

aths
2002-05-28, 23:09:47
pervert,

ich stimmte dir da nicht zu, denn ich sprach nicht von 17% (1/6) sondern 25% (1/4). Ich spreche auch nicht von hochgezüchteten 64-er Modellen, sondern den ganz normalen 4200-er Modellen mit 128 MB. Hier hat, wie schon gesagt, eine Ti4600 ca. 40-50% mehr Speicherbandbreite.

Du solltest auch nicht vergessen, dass der relative Einbruch beim FSAA bei hochgetakteten Ti4200-Karten größer ist als bei 4600-ern. (Denn das Verhältnis RAM zum Core-Takt ist bei "730"/320 natürlich deutlich besser als bei "600"/320.)


Quasar,

4.0 ns RAM wird sich kaum in Regionen takten lassen, die 2.8 ns RAM (im BGA-Gehäuse) erreicht. (Das wolltest du sicher auch nicht sagen. Ich wollte nur noch mal anmerken, dass 4.0 ns RAM nicht die Lösung sein kann, um gegen 2.8 ns anzutreten :)))

pervert
2002-05-28, 23:17:08
Mein Posting war noch nicht ganz "fertig". Die 25% erwähnte ich noch. Mit Zustimmung sprach ich von meiner Rechnung und der Tatsache, dass die genannten Daten MÖGLICH sind! Ich würde sagen, dass Du dir deinen Kauf nur schön redest und die Möglichkeiten einer guten 4200-Wahl einfach abschwächst. Die "guten" 64er Karten haben auch nur 4ns Ram. Außerdem sollen da ja, wie jetzt zum dutzendsten Male erwähnt, auch Karten wie z. B. die (günstige) MSI mit 128MB und 3.6ns Ram kommen. Es wird ganz sicher 128er Karten geben, die auch 600MHz schaffen. Dann sind und bleiben wir wieder bei 17%! BASTA!

Wer eine Ti4600 kauft hat einfach zu viel Kohle oder einen RAM-Fetisch oder sonstwas locker sitzen. Verstehe auch gar nicht warum Du mir so wehement wiedersprichst. Du hast selbst geschrieben, dass es ein unvernünftiger Kauf war und Du dich durch deinen Ram-Fetisch leiten liessest etc.

Willst Du wirklich ernsthaft behaupten es lohnt sich eine 4600er zu kaufen, angesichts des total überzogenen Preises??? ??? ???

MadManniMan
2002-05-28, 23:21:49
wenn man aufs geld nicht so wirklich achten muß: absolut.

...der arme manni hingegen hofft auf kohle und ne ti200 unter 250 geld...

achja: nett, aths :D

bist ja damit quasi meinem wunsch nachgekommen!

jetzt fehlt nur noch das 3dcenter-typische gebench und ich kann meine zickende, aber doch geliebte weiblichkeit mal n weilchen vergessen

Quasar
2002-05-28, 23:32:57
Originally posted by MadManniMan
...der arme manni hingegen hofft auf kohle und ne ti200 unter 250 geld...


Gibt's doch wie Sand am Meer...................

Piffan
2002-05-28, 23:39:44
Originally posted by pervert

Willst Du wirklich ernsthaft behaupten es lohnt sich eine 4600er zu kaufen, angesichts des total überzogenen Preises??? ??? ???

Offensichtlich hat es sich für ihn gelohnt..... Ob es sich für andere lohnt, muß jeder selbst entscheiden...

Grundsätzlich "lohnt" es sich selten, das Allerschnellste zu kaufen. So war es schon immer bei den Prozis, so ist es auch bei den Grakas: Der Ertrag nimmt nie in dem Maße zu, wie man in höhere Hardware investiert.

Ob es sich lohnt, ist auch eine Frage der Halbwertszeit. Bei den Prozessoren und Grakas ist die Halbwertzeit stark gesunken, wenn ich heute für einen astronomischen Preis das Schnellste kaufe, ist das in wenigen Monaten nur noch Mittelmaß. Darum finde ich die Ansicht von Pervert korrekt, für einen gar nicht so erheblichen Performancevorteil den doppelten Preis auf den Tisch zu legen, ist nicht gerade ein Zeugnis von Sparsamkeit..... Aber wenn alle nur "vernünftig" handeln würden, gäbe es unser Hobby wohl gar nicht....

aths
2002-05-28, 23:44:08
pervert, ich erwähnte es im Thread schon mehrfach: PC- und Graka-Kauf sind miteinander verbunden. Wenn man sich in Regionen um 2000 € bewegt, machen es 150 € auch nicht mehr aus. Wenn irgendwann mal eine Ti4200 mit 128 MB 3.6 ns RAM im Laden steht ist das ja schön und gut. Zum Zeitpunkt des Kaufes gab es gar keine Ti4200. Ebenfalls erwähnte ich den 19-Zoll-Monitor und meine Anti-Aliasing-Manie ungeachtet hoher Auflösungen. Mit jeder HW muss man irgendwo Kompromisse eingehen. Mit einer Ti4200 müsste ich aber zusätzliche Zugeständnisse machen. Zumal es eine "17% Unterschied Ti4200" noch immer nicht zu kaufen gibt. Und zum Zeitpunkt des Kaufes stand die Ti4200 gar nicht zur Debatte. Das mögliche Argument ich hätte einfach noch warten sollen zieht schlecht: Das kann man zu jedem Zeitpunkt sagen.

Im Bericht steht nebenbei auch dass meine Graka halten soll, bis 512-MB-Boards erhältlich sind. Dafür wäre eine Ti4200 mit nur 64 MB etwas unterdimensioniert. Dass nV eine 128-MB-Version anbieten würde, war damals noch nicht bekannt. Dass das Preis/Leistungsverhältnis der Ti4600 fragwürdig ist und eine Ti4400 der vernünftigere Kauf wäre, steht genau so im Bericht. Dass die Entscheidung gegen 4400 und pro 4600 in Teilen irrational war, wurde im Bericht auch ausgeführt. (333 MHz RAM, 3D-Grafik-Fetischismus.) Wie gesagt stand die von dir so präferierte 4200 für mich gar nicht zur Debatte. Die Unterschiede zwischen 4200 und 4400 bzw. 4400 und 4600 sind nicht allzu groß. Doch ob Ti4200 oder 4600, das nimmt sich leistungsmäßig schon was.

Die Frage: "Warum 4600 und nicht 4400?" muss ich mir schon gefallen lassen. "Warum 4600 und nicht 4200 mit 64 MB?" beantworte ich einfach damit, dass letztere zuwenig Leistung für mich hat.

MadManniMan
2002-05-28, 23:47:35
Originally posted by Quasar


Gibt's doch wie Sand am Meer...................

ah! verständigungsmalus!

wenn ich von geld rede, meine ich richtige währung, nicht €

in pappkohle umgerechnet ergäbe das einen preis von etwa 130*pappe, die aktuellen preise liegen mitsamt versandkosten bei etwa 150. und für 20*pappe fahre ich 300km. die sind mir die einsparung doch wert, vor allem, wenn man sich endlich mit der weiblichkeit entzankt hat(was ich doch sehr hoffe *seufz*).

achja: gute nacht allerseits!

pervert
2002-05-28, 23:53:43
@aths

Auf dich Bezogen mag das alles stimmen. Aber die Mehrheit hier kauft sich keine Komplettsysteme und ist somit deutlich flexibler. Es ging mir nicht nur um deine Entscheidung (für dich), sondern auch darum, ob Du jetzt eher ein schlechtes Vorbild warst oder nicht.

Ich werde mir jedenfalls eine 64er Kaufen, mit der ich definitiv nur 17% hinter dir liege (nur worstcase noch dazu) und für die ich nur die Hälfte gezahlt habe. Dannn werde ich warscheinlich in 3 Monaten oder früher versuchen eine GLEICHWERTIGE 128er zum Nahe-Null-Traif zu bekommen und je nachdem wie interessant die ganzen neuen Karten bez. FSAA und Aniso sind, entweder Anfang des nächsten Jahres oder im Sommer auf DX9 HW umsteigen. Weitere Zwischenschritte zur Werterhaltung sind hierbei nie ausgeschlossen :) Die 64er kaufe ich auch nur, weil die 128er jetzt noch nicht so "weit" sind.

Flexibilität zahlt sich immer aus. Ich hielt noch nie was davon, sich einerseit Powerhardware zu kaufen, diese dann aber wiederum total lange vor sich hingammeln zu lassen. Das passt irgendwie nicht in die Interessen eine Hardware-Enthusiasten und ist auch wirtschaftlich nicht sinnvoll. Solange die Hardware noch einigermassen aktuell ist, kann man gebraucht viel bessere Geschäfte damit machen und wie in meinen Beispielen erwähnt, sogar zum Nulltarif upgraden. Oh mann! Das habe ich schon mit so viel Hardware geschafft. Man darf eben nur nicht das überteuerte Turbo-Zeugs kaufen und es nicht so lange behalten. DAS nenne ich vernünftig.

Quasar
2002-05-29, 00:06:51
fyi, mir ist zumindest eine TI4200 mit 128MB bekannt, die sich nicht auf 300MHz RAM-Takt bringen läßt...

pervert
2002-05-29, 00:09:40
Ach tatsächlich? Hat auch keiner behauptet, dass das JETZT schon ALLE können. Das wird eher die Ausnahme bleiben, aber es WIRD möglich werden!

Voodoo3Killer
2002-05-29, 00:12:13
pervert,

du vergleichst doch Apfel mit Birnen (oder wie das heißt ;)).

Eine an ihr Maximum übertaktete, noch nicht einmal real existierende ti4200 mit einer mäßig übertakteten ti4600?!

Ich verstehe außerdem dein Problem nicht ganz? Willst du uns sagen weniger ist manchmal mehr?! Das mag ja sein, aber ein krampfhafter Vergleich, von Situationen und Grafikkarten (-Übertaktungen), die nicht wirklich zu vergleichen sind, bringt doch wirklich nichts.

Das beste P/L-Verhälnis hat die ti4200, das wissen wir alle. Das diese Karten (voraussichtlich) relativ gut zu übertakten sind, zeigen uns einige Reviews. Das eine ti4600 schweineteuer ist, dürfte klar sein, aber gegenüber einer ti4200 besteht doch ein deutlicher Geschwindigkeitsunterschied.

Wenn man beide Karten übertaktet, werden beide schneller, aber die Performanceunterschiede bleiben dennoch relativ groß.

Quasar
2002-05-29, 00:12:54
Möglich wird meistens fast Alles sein, nur wahrscheinlich wird Mögliches deutlich seltener...

pervert
2002-05-29, 00:14:29
Die Unterschiede in meinem Beispiel sind klein und die Highend-Modelle, an der Grenze des technisch machbaren, lassen sich schlechter übertakten oder haben reduzierte Timings etc. Die Karte auf die ich es abgesehen habe (Leadtek), ist SEHR bald verfügbar, alles andere habe ich aus REAL VERFÜGBAREN Reviews, beruht also nicht auf Spekulation!

Quasar
2002-05-29, 00:15:36
Gibt's die nicht schon??

Na jedenfalls wünsch' ich dir viel Glück beim übertakten.

pervert
2002-05-29, 00:15:44
Originally posted by Quasar
Möglich wird meistens fast Alles sein, nur wahrscheinlich wird Mögliches deutlich seltener...

Mach den Joint aus :) Wir sind doch nicht zum Philosphieren hier :)


Und wenns das Glück beim Übertakten nicht (direkt) bringt, dann vielleicht das Fernabsatzgesetz? (oder Ebay) :)

Voodoo3Killer
2002-05-29, 00:41:09
Wenn du die Karte bei dir hast, dann können wir ja vielleicht weiter reden, aber im Moment ist das doch alles Spekulation...

pervert
2002-05-29, 01:37:03
@aths

Deine erreichten 755 MHz sind übrigens ziemlich viel. Habe gerade mal einige Reviews überflogen und dort erreichte man meist 700-730MHz.

Spricht auch mal wieder für die Leadtek-Karten. Bin wirklich sehr gespannt was meine Leadtek bringen wird. Die Chip hatte die getestet, aber dümmlicherweise keine OC-Werte genannt, nur "hervorragendes OC Potential" geschrieben.

Richthofen
2002-05-29, 11:20:59
Leadtek ist bei der GF4TI Reihe in Sachen Taktung auf jeden Fall vorne.
aths sein Wert für ne Ti4600 ist ziemlich gut.
Meine 320 / 690 mit der Ti4400 von Leadtek können sich allerdings auch sehen lassen :=)

In diesem Zusammenhang bin ich doch mal froh nicht unbedingt Asus genommen zu haben :)
Die hatte ich bisher immer und die sind auch prima aber mich interessiert halt nur Game Performance und sonst gar nix.
Für Leute wie mich ist Leadtek 1. Wahl zumindest bei der GF4 Ti.
Bei der GF3 sah ich Gainward ein bisschen vor Leadtek.
Jetzt ist es anders herum.

Ash-Zayr
2002-05-29, 13:28:59
Hallo

Ich bin leider etwas irritiert ob des Reviews. Ich bin absoluter Grafik-Fetischist bei 3D Spielen; von daher hatte ich mir immer stets das Neueste gekauft, um diesem "Trieb" nachgehen zu können. Mit neuen Grafik-Karten, DDR und VIA Chipsatz Generationen ist wieder mal eine neue Runde für mich eingeleitet, mich finanziell zu ruinieren..*gg*...ich habe in den letzten Wochen sehr aufmerksam die Hardwareszene beobachtet, um herauszufinden, mit welchem Tausch einer Komponente gegen die neueste seiner Art ich am meisten Performance gewinne - ein VIAKT333 mit DDR333 RAM vielleicht? Ein Athlon XP2100+? Hmmm, schwer zu sagen, aber nach Studim zahlreicher Tests und Reveiws ist der Tenor eindeutig, daß ein Umstieg in Sachen Basis, sprich Mainboard, CPU,RAM derzeit nicht lohnt; zumindest wenn man in dieser Hinsicht "noch" ein Topsystem hat wie ich. Das sind: ENMIC 8TCX2+, mit VIAKT266A, dazu 2 x 256MB Apacer DDR CL2 und einen Athlon XP1800+...das ganze einmal über den FSB auf 139Mhz gebracht auf AthlonXP1900+ Niveau, und man könnte sagen, daß das alles unter Win98SE und einem bis zum Anschlag getunten Bios top-aktuell ist und am wenigsten dazu beiträgt, daß man das neueste Spiel vielleicht nicht mit allen Details spielen kann. Da gerät also meine Grafik-Karte ins Visier der gierigen Blicke des Austausches....aber für diese Karte hatte ich doch vor nicht einmal einem Jahr über Dem 800,- ausgegeben; und sie soll schon am Ende sein?!?! Nein, ist sie sicher nicht, nicht für jemandem, der einfach nicht über das nötige Feingefühl, die Motivation oder die Neugier verfügt, ein Spiel wirklich möglichst kinoreif zu erleben, in eine detaillierte Welt einzutauchen.
Aber jetzt kommen einfach Spiele, in denen ich meine Ansprüche nicht mehr voll durchbringen kann. Um das Rätsel nun zu lösen: ich habe eine HIS/ENMIC Geforce III (nicht TI500, nicht TI200...einfach GF3); die habe ich hochgetaktet bis zum Limit; also auf TI500 Niveau dank einem Orange Orb drauf! Mein Fenster in die virtuelle Welt ist ein mega-guter Elsa Ecomo Trinitron 21-Zoll, der höchste Auflösungen bei immer über den magischen 85hz locker mitmacht!

Bisher war meine Hardware top: Mein Hauptspiel ist Counterstrike, das meine Hardware wohl nur bedingt fordert. Auch wenn ich die Auflösung dort höher stellen könnte in Sachen Leistung, spiele ich es auf 1152-er Auflösung; die 1280-er beginnt dann damit, das Bild kleiner zu machen....aber natürlich habe ich FSAA 4-fach und AF 8-fach zugeschaltet...kein Problem bei konstant 100fps...ich hatte sogar mal in einem Tuning-Tip gelesen, daß man die Exe-Befehlszeile in der Desktopverklüpfung erweitern kann um die Endung -32bp...das soll es dann in 32-bit Farbtiefe bringen...kann das jemand bestätigen?! Sieht irgendwie nicht anders aus; vielleicht weil CS nur 256 Farben als Engine hat?!

Dann kam irgendwann mal als Meilenstein RTCW und MOHAA...beides spielte ich in 1600x1200 bei 32-bit; alle In-Game Details an!! Wenn auch nicht die extern zuschaltbaren FSAA und der Anisotrope Filter...aber dennoch. Es sieht super aus!!! Allein die Grafik-Optionen, die man im Spiel selber zuschalten kann, runden das Bild exzellent ab....aber trotzdem: Kanten sind da, und ich wünschte, ich könnten zumindest 2x FSAA zuschalten...aber da ist das Ende ereicht....so geht es auch bei Jedi-Knight, Alien vs. Pred II, Max Payne, usw....alle gängingen Shooter habe ich....

Dann hatte ich kürzlich GTA3 installiert....von den 1600x1200 will ich ehrlich gesagt nicht mehr abweichen, und wenn es ruckelt, dann müssen andere Sachen ausbleiben, aber die Auflösung gilt für mich als Fixpunkt, auch wenn hier die Meinung auftrat, daß 1280 mit FSSA und AF viel besser aussieht. Aber hier die Frage: wie viel Power wird freigesetzt, wenn ich von 1600x1200 zurückgehe auf 1280x960 (bitte nicht 1280x12024; das ist nicht mehr 4:3 Format!!)? Und gemessen an der relativen Größe der fiktiven Zahl 10, die wir mal für die freigesetzte Rechenleistung der GRAKA annehmen, wie viel davon muß die GRAKA aber wieder reinvestieren in 4-fach FSAA und 8-fach AF?!?! Und das ist doch sicher größer 10, oder? Und da ist doch der Haken bei der ganzen Sache. Ich sehe Auflösung immer noch als Basis und wichtigstes Fundament; FSAA und AF nur als Optionen zur Erweiterung und Ausschmückung.
Um noch auf GTA3 zurückzukommen...ich konnte die gewohnten Einstellungen nicht aufrechterhalten und musste zumindest runtergehen auf 16-bit..grrrr...*gg*

Also, was ist die Sache? Ich kann sicher jedes bisher erschienene Spiel in einem Genuß erleben, von dem viele mit schwächerem System noch träumen; aber meine Ansprüche sind hoch; und spätestens mit der Unreal 2 Engine im August diesen Jahres will ich dabei sein bei denen, die alle Details hochreissen können! Von daher kam für mich immer nur Gefroce 4 TI4600 in Frage. Zum einen dachte ich gelesen zu haben, daß sie zukünftige Spiele gut bewältigen kann, daß sie aber vor allem sämtliche Spiele bisher (Quake 3 Engine, Serious-Engine, Krawall-Engine von Aquanox, usw.) mit einem Lächeln bezwingt; und zwar mit 1600x1200-32bit 4xFSAA und 8-fach AF?!?!?!?! Und das soll nicht so sein?

Ich bin nun wieder ziemlich verunsichert, ob mir die Ausgabe für eine TI4600 nun wirklich was bringt, oder ob ich doch lieber das MB mit CPU und Speicher ersetze?

Was also ratet ihr mir?

Gruß

Ash

Edit: Die Matrox Parhelia ist bis jetzt nur ein reiner Papiertiger, vorsicht!! Jetzt kam schon die erste Ernüchterung - nämlich dass die Karten kein AGP 8x Standard bieten werden...das suckt doch schon mal; und wer weiss, was da noch kommt an Abstrichen!!

Bei Diskussionen dieser Art sollte bitte nur über knallharte technische Fakten usw. geredet werden, nicht immer diese müßigen Preisvorteilsargumente usw..Geld spielt bei dieser Diskussion rein keine Rolle, weil wir hier nur die pure Leistung und die Features objektiv gegenüberstellen wollen für die verschiedenen Klassen!

Piffan
2002-05-29, 14:03:15
Wozu kann man da nur raten?! Wenn das Geld so juckt und der Übermut stressig ist, dann kann man nur zu einer neuen Graka raten.... Denn die scheint bei den hohen Forderungen bezüglich der Bildqualität der Flaschenhals.....

Allerdings wäre es "klug", erstmal die R300 oder den Parhelia abzuwarten, die rocken dann richtig ;)

Die Ti4600 ist doch nix anderes als eine aufgemotzte G3, da lohnt der Umstieg nicht wirklich...

Piffan
2002-05-29, 14:06:45
Originally posted by Ash-Zayr
Hallo


Edit: Die Matrox Parhelia ist bis jetzt nur ein reiner Papiertiger, vorsicht!! Jetzt kam schon die erste Ernüchterung - nämlich dass die Karten kein AGP 8x Standard bieten werden...das suckt doch schon mal; und wer weiss, was da noch kommt an Abstrichen!!

Bei Diskussionen dieser Art sollte bitte nur über knallharte technische Fakten usw. geredet werden, nicht immer diese müßigen Preisvorteilsargumente usw..Geld spielt bei dieser Diskussion rein keine Rolle, weil wir hier nur die pure Leistung und die Features objektiv gegenüberstellen wollen für die verschiedenen Klassen!

Schade, daß Du dies erst nachträglich eingebracht hast. Denn dann hätte ich die Schnauze gehalten...:(

Wenn Geld keine Rolle spielt, warum fragst Du dusselig, statt gleich die Ti4600 zu kaufen? Solche Monologe kann ich nicht ausstehen :(

Ash-Zayr
2002-05-29, 14:21:08
...nicht gleich rumflamen, dude! Ich will mich hier sachlich über TECHNIK informieren. Preise kann ich überall selbst vergleichen; da brauche ich keine Leute, die hier in solchen Diskussion andere immer anmachen, daß die ja in Geld schwimmen würden, oder daß sie total dumm wären dies oder das zu kaufen...das ist nicht Sinn hier: Ich will mich nur informieren, was genau ich bei welcher Bezeichnung bekomme, und wie die weiteren Aussichten sind. Zudem sagte ich doch nicht, daß ich das Geld hätte für eine TI4600...aber wenn mir sachlich nachvollziehbar klargemacht würde, daß der Umstieg in Anbetracht meiner jetzigen Konfi keinen Sinn macht, brauche ich mich auch nicht zu ärgern, daß ich mir eine TI4600 derzeit nicht wirklich leisten könnte....

Zudem, wenn Beiträge hier für Dich Monologe sind, die Du nicht aussthen kannst, dann müßte ja der Urbeitrag dieses Threads die Hölle für Dich gewesen sein. Ich fand das Review super gut, und es regte mich zum Nachdenken an...und jetzt will ich diesen sehr gut geführten Thread nicht durch einen Kleinkrieg mit Dir versauen....bleibt einfach weg, wenn es Dir zu ausführlich wird...

Gruß

Ash

aths
2002-05-29, 14:35:05
Ash-Zayr,

solch scharfen Reaktionen sind unnötig!

edit: Zum Thema:

1280x1024 hat gegenüber 1600x1200 "nur" 85% der Zeilen, also mit dieser Vergröberung kann man durchaus leben. Dass 1280x1024 kein 4:3-Verhältnis hat, ist bei 3D-Spielen egal.

1280x1024 kommt mit 68% (also grob 2/3) der Pixel aus, die man für 1600x1200 benötigt. Da ist 2x FSAA drin, und es läuft außerdem noch schneller! Unter Umständen kann man AF noch eine Stufe höher schalten, falls bereits aktiv. Mit 2x RGFSAA wird eine effektive Kantenauflösung von 2560x2048 erreicht. Es lohnt sich also.

Piffan
2002-05-29, 16:06:14
Originally posted by Ash-Zayr
...

Zudem, wenn Beiträge hier für Dich Monologe sind, die Du nicht aussthen kannst, dann müßte ja der Urbeitrag dieses Threads die Hölle für Dich gewesen sein. Ich fand das Review super gut, und es regte mich zum Nachdenken an...und jetzt will ich diesen sehr gut geführten Thread nicht durch einen Kleinkrieg mit Dir versauen....bleibt einfach weg, wenn es Dir zu ausführlich wird...

Gruß

Ash

Och, dieser Thread ist recht durchwachsen...... Meine Beiträge bilden da natürlich immer eine Sonderklasse :D

Nur ist eben die Frage, was genau Du hören willst....Wenn nur die technischen Fakten zählen, dann hat aths die Sache eigentlich gut auseinanderklamüsert. Leitztlich muß jeder selbst entscheiden, welche Rolle für ihn die Bildqualität spielt. Performancemäßig reicht eine G3 dicke aus, wenn man bei FSAA und AF bescheiden ist. Wenn die Bildqualität nicht "reicht", dann nur zu, die Ti4600 bietet deutlich bessere Reserven als die G3...
Ob der Parhelia ein Papiertiger ist, werden wir sehen, wenn er als echte Hardware vorgestellt wird.... Auf 8x AGP kann man am ehesten verzichten, wahrscheinlich wird dieser Modus noch mehr ein Papiertiger sein als es der 4x- Modus ist..... Oder habe ich was verpasst und es gibt ein Game, daß von 4x deutlich profitiert?

AGP- Modi sind derzeit nix als heiße Luft. In Zukunft könnten sie auch die zweite Geige spielen, falls die programmierbaren Shader, HOS oder Displacement Mapping in größerem Umfang eingesetzt werden; denn diese Techniken werden den Verkehr auf dem AGP deutlich reduzieren...


Aber irgendwie gleitet dieser Monolog wieder vom Thema ab. Darum: Du als Augenmensch solltet die Ti4600 kaufen, es lohnt sich :D

aths
2002-05-29, 16:12:23
Bemerkung: "1600x1200-32bit 4xFSAA und 8-fach AF" kannst du vergessen. (Demo001: 39.8 fps, mit 2x AA: 57.1 fps. 2x FSAA bei 1280x1024 und 8x AF schafft mein System mit 94.1 fps. Das sieht auch nicht *wesentlich* schlechter aus.)

aths
2002-05-29, 16:26:18
Piffan,

interessant sind die privaten Reaktionen auf dieses Review. Da scheint jeder das herauszulesen, was er eh schon wusste. Je nach dem ist die Ti4600 entweder die endgeile Überkarte, oder ziemlicher Unsinn. (Der Artikel sollte nur eins nicht sein: Eine Rechtfertigungs-Rede.)

Spätestens im Herbst, wenn der NV25 offiziell in 0.13 kommt, wird Ti4600 auch für nVidianer unmodern sein. Aktuell ist GTS-Klasse am weitesten verbreitet, und meine Karte ist mindestens um Faktor 3 (eher Faktor 4) leistungsfähiger. So ist mein persönlicher Blick auf die VGA-Hardware: Es ist die blanke Freude, mit ihr zu spielen.

MadManniMan
2002-05-29, 17:31:01
Originally posted by aths
wird eine effektive Kantenauflösung von 2560x2048 erreicht

vor ner weile hätte das noch bei dir unter "auflösungen, die die welt nicht braucht" gestanden :D

aths
2002-05-29, 17:53:01
MadManniMan,

diese Auflösungen brauchte die Welt nicht, weil das sehr komische Zwischenauflösungen waren :) Nicht weil sie zu hoch wären...

Doomtrain
2002-05-29, 18:30:14
Originally posted by aths


Der Artikel sollte nur eins nicht sein: Eine Rechtfertigungs-Rede.



Hört sich aber manchmal fast so an!! Ich will ja nichts sagen gegen dich und deinen PC, wenn du dir das leisten kannst, ist ja alles in Butter. Aber was nutzt dir eine derart teure Graka( JA ich weiß, wurde schon gesagt!) die spätestens nach einem halben Jahr wieder veraltet ist??? Ich könnte mir eine GeForce4 TI4600 in ein paar Monaten für den halben Preis kaufen (Ganz sicher!!), so lange "hält" meine GeForce3 noch spielend. Natürlich rein hypothetisch.

Ja, mein Gott, ob ich nun 2x FSAA oder nicht habe, das wird mich nicht umbringen, 4xAF habe ich auch immer an!!! Denn Unterschied siehst du sowieso nicht\kaum.

Ich kaufe mir irgendwann am Ende des Jahres eine der noch nicht erschienenen Karte (NV30, R300, Parhelia....)

Und erzähl mir nicht, das du dir nun 2 Jahre keine neue Graka\etc. holst!!!!

Schöne Grüße
Doomtrain

PS: Haben denn Nicht-GeForce4-Besitzer weniger Spielspaß???

MadManniMan
2002-05-29, 18:45:40
schon klar, aber was ich eigentlich sagen wollte, ist daß ich vorsichtig wäre mit der aussage, 2x rotated ergiebt kantenquali wie 2 tausend hastenichjesehn. denn du sagst ja selbst immer wieder... "in apps, die viel mit 30-60° winkeln arbeiten, schraube ich doch gern 4x an...."

aths
2002-05-29, 20:54:42
Doomtrain,

wo ist da der Unterschied, ob du heute oder später eine Top-Karte kaufst? Wenn man später kauft bekommt man mehr Leistung zum gleichen Preis, oder gleiche Leistung zu einem kleineren Preis. Das ist doch immer so. Auch Parhelia, NV30, R300 etc veralten.


MadManniMan,

die komplette Theorie ist etwas aufwändiger, also erlaube ich mir des öfteren Vereinfachungen.

Richthofen
2002-05-29, 21:27:48
@Doomtrain

Wenn du ne GF3 hast dann brauchst dich doch nit aufregen.
Es gibt eben auch Leute die kommen von niedrigerem Niveau.
Wenn man mal meine GF3 weglässt die ich nur zum versteigern ersteigert hatte, bin ich von GF2 Ti gleich auf GF4 gesprungen aus gutem Grund.
Die GF4 bietet erst den Power um in den Genuß einiger Feinheiten bis zum Maximum zu kommen.
NV30 und CO kaufe ich mir wenn mir danach ist aus Interesse. Rein realistisch betrachtet (für meine Bedürfnisse als Gamer) machen diese Karten überhaupt keinen Sinn.
Viel Geld für neue DX9 Features die man in den nächsten 3 Jahren in keinem Spiel sieht.
Da lohnt es sich einfach mal 6 bis 12 Monate zu warten und das Refresh zu kaufen. Da sind die Kinderkrankheiten weg, die Treiber in einem besseren Zustand als beim Erscheinen der neuen Generation und man hat den Power den man brauchst um das sinnvoll nutzen zu können.
Und wenn die GF4 10mal eine verbesserte GF3 ist. In meinen Augen ist sie einfach das rundere Produkt.

Übrigens mag ich aths seine Ansichten nicht wirklich immer, weil mir zu oft nicht mit gleichem Maß gemessen wurde.
Aber sein Review ist definitiv keine Rechtfertigungsrede.
Wäre auch bissl albern, denn da gibts nix zu rechtfertigen. Er hat derzeit beste Leistung und kann alles genießen. Und wenn da 10 mal im Herbst was besseres kommt. Im PC Business kommt immer was besseres. Wer sich nen NV30 im Herbst/Winter kauft dem könnte ich genauso entgegentreten und sagen in 4 bis 6 Monaten ist das Teil veraltet.
Tu ich aber nicht. Muss jeder selber wissen. In meinen Augen sind die Grakas schon nach 6 Monaten recht alt aber ich kanns mir eben auch leisten jeden Spass mitzumachen. Wers nicht kann, der sollte dann schon aufpassen was er wann kauft. Sicher wäre eine Ti4400 besser gewesen vom Geld Aspekt aber wenn es ihn nicht schmerzt?
Mir wars die 4600 auch nicht wert, da ich bewusst auf OC Wunder Leadtek mit meiner 4400 gesetzt habe.
Hätten meine Wünsche und Ansprüche sich nicht erfüllt ja sogar übererfüllt, wär sie auf Ebay gelandet und sofort ne Ti4600 geordert.
Die Ti4200 ist für den preisbewussten Käufer ein prima Deal.
Für mich zu wenig Leistung. Ich hab andere Ansprüche und aths wie er ja dargelegt hat anscheinend auch.

In sofern finde ich es ziemlich sinnlos wenn ständig Kommentare kommen "Wozu braucht man das - braucht keine Sau"

Muss nicht auf dich zutreffen, aber jeder der das sagt von dem denk ich automatisch das er ein Neidhammel ist und irgendwie Leute bewegen will Sachen nicht zu kaufen damit der Preis fällt.

Wie ich bereits mehrfach dargelegt habe, ist mir das ziemlich egal ob sich Leute das leisten können oder nicht. Ich bin generell nur für den big Buck und nit für den Wunsch des kleinen Mannes :)

pervert
2002-05-29, 21:45:32
Originally posted by aths
Doomtrain,

wo ist da der Unterschied, ob du heute oder später eine Top-Karte kaufst? Wenn man später kauft bekommt man mehr Leistung zum gleichen Preis, oder gleiche Leistung zu einem kleineren Preis. Das ist doch immer so. Auch Parhelia, NV30, R300 etc veralten.


Nur sollte man sich wenige Monate vor Realease eines RICHTIGEN Techupdates bei den Grakas durchaus ein wenig mehr Gedanken machen, besonders wenn man sich eine Ti4600 doch nicht so einfach leisten kann und eine Karte der gleichen Generation (DX8) besitzt.

Ich kann auch diesen Übermut mit 1600er Auflösung überhaupt nicht verstehen. Ich stimme dir zu aths, dass hier 1280+2x FSAA die wesentlich sinnvollere Wahl wäre. Ich persönlich finde allerdings jede Auflösung schwachsinnig, die mir 8x AF nicht mehr ermöglicht. Was will ich mit hohen Auflösungen, wenns doch nur verwaschene Texturen zu sehen gibt. Ein MODERNES Spiel wie Jedi Knight 2 ist hier ein Top-Beispiel. Ich empfehle jedem mal die mipmap-Studie (r_colormiplevels 1 + vid_restart) von 640x480 bis 1280x1024+ mit 8x AF (und ohne!). Die Texturen sind hier so groß, das man sie praktisch nie zu sehen bekommt, wenn man nicht ordentlich AF reinpowert und hohe Auflösungen spielt (1024+), damit die mipmaps weiter "hinten" beginnen. (Mein Tipp für jeden der es sich in JK2 leisten kann: 8x AF + 2x FSAA + 1280x1024 + very high textures)

Okay und wenn jemand hauptsächlich ein totales Problem mit Kanten hat, dann sollte er einfach besser auf Parhelia und co warten. Erst diese Generation wird eine vernünftige Kantenglättung bieten die mehr Qualität als das erbärmliche 2x von NV bei vorallem spielbarer Geschwindikeit bietet. Parhelia könnte hier nicht nur die am sfrühesten erscheinende Karte sein, sondern vielleicht! auch die beste, wer weiss... Wer meint Unschärfe sei cool (1600x1200 ist eh unscharf und unergonomisch, außer man hat nen Monitor + KABEL für 5000 Euro), wird aber auch mit einer Ti4600 schon sehr gut zurechtkommen. Für 2x FSAA only reichts allemal.

aths
2002-05-29, 23:07:34
pervert,

das "richtige" Update ist mir Wurst. Mag es die HW dazu geben - auf die Spiele werden wir noch Jahre warten. Bei 1600x1200 habe ich 85 Hz, und das Bild ist noch recht scharf. Monitor und BNC-Kabel kosteten zusammen 549 €. Doch wie gesagt nutze ich eh höchstens 1280x1024.

pervert
2002-05-29, 23:20:10
War ja auch nicht an dich gerichtet, Du hast dich ja bereits entschieden. Und über Schärfe lässt sich streiten. Ein Kumpel hat einen hochwertigen 22 Zöller mit Super-BNC Kabel. Mehr als 1280 würde ich auch dort trotzdem nie wählen, da ICH es IMMER als unscharf empfinde und alles unter 100Hz als flimmrig erkenne. Habe noch keinen Monitor, den sich ein normal Sterblicher leisten kann gesehen, bei dem das anders wäre. Vernünftige Auflösung + FSAA + Schärfe und Ergonomie ist einfach um Klassen sinnvoller. Naja und mehr als die 1280 würde ja auch meine baldige 4200+ überlasten :) (und alles Andere auch).

Mir ging es bei dem Update-Beispiel auch nur um Aniso und FSAA und nicht DX9 Features. Ich dachte das wäre jedem klar.

aths
2002-05-29, 23:49:22
pervert, zumindest Parhelia wird performanceseitig die Ti4600 wohl nur schlagen, aber nicht nicht krass schlagen können. Nutzt ein Spiel nur 2 Texturen scheint die Ti4600 sogar schneller als Parhelia-512 zu sein. Die AF-Performance scheint beim Parhelia nicht sonderlich gut zu sein. Die FAA-Qualität ist natürlich superb, und das bei guten Frameraten. Doch FAA funktioniert nicht in allen Spielen (nämlich dann nicht, wenn Stencil Buffer genutzt werden.) Dass muss man auf 2x2 MSAA ausweichen, das bietet GF4 auch. Parhelias Stärken bei der PixelShader-Geschwindigkeit sind für jeden Parhelia-Käufer von Vorteil. Ich sehe mich jedoch nicht deutlich im Nachteil, da massiver PixelShader-Einsatz in nächster Zeit nicht zu erwarten ist.

Von NV30 und R300 sind noch keine Dinge bekannt, die wirklich etwas über die Performance, gerade wenn es um AF und FSAA geht, aussagen. Weil ich keine Infos hatte, konnte ich diese Chips auch nicht in die Kaufentscheidung mit einbeziehen. Ein Gottvertrauen auf einen NexGen-Chip der zum Ti4600-Preis zu bekommen wäre und zB. 32x AF und 16x FSAA in einer Geschwindigkeit schaffen könnte wo Ti4600 nur 8x/2x bringt, habe ich nunmal nicht. Die Speicherbandbreite der Ti4600 ist in GB/s gemessen zweistellig (übersteigt 10.) Das war ein Fakt, den ich kannte, und der seinen Teil zur Entscheidung mit beitrug. Ich finde es schon etwas komisch letztlich als Trottel hingestellt zu werden, nur weil der Gegenstand dieses Reviews für dich persönlich nicht infrage kommt.

Doomtrain
2002-05-30, 00:00:27
Originally posted by aths
Doomtrain,

wo ist da der Unterschied, ob du heute oder später eine Top-Karte kaufst? Wenn man später kauft bekommt man mehr Leistung zum gleichen Preis, oder gleiche Leistung zu einem kleineren Preis. Das ist doch immer so. Auch Parhelia, NV30, R300 etc veralten.




Ich meinte nur, das es Unsinn ist (außer für sein Ego) immer das gerade neueste zu kaufen. Jetzt sagst du bestimmt, dass du die Karte ausreizt wenn du FSAA und AF voll aufdrehst, haste vollkommen recht. Ich wäre einfach nicht bereit für eine Grafikkarte 500€+ zu bezahlen.
Ich stehe auch voll auf Grafik, aber nicht um JEDEN Preis. Wenn du das machst, hab ich nichts dagegen.

Man, was war der GeForce2 ULtra für ein Monster, unbezahlbar und brutal schnell. Heute bekommst du eine Karte der gleichen Leistungsklasse für ein Viertel des Preises. Ein Teufelskreis, aber du weißt, worauf ich hinaus will. Wenn du immer eine Generation zurückbleibst, bezahlst du moderat und kannst dir auch mal wieder was neues holen.
Wenn du deine Karte nämlich wirklich 2 Jahre behalten möchtest, hattest du am Anfang zwar einen Hammer, nach einer gewissen Zeit aber nicht mehr.
So, ich hole mir (1 Jahr später) dann eine neue Karte, während du auf deiner GeForce4 sitzt und schon lange kein FSAA etc. mehr benutzen kannst. Dann sagst du dir wieder: Ich brauch was neues und hast im Endeffekt das doppelte für ein Paar Frames mehr bezahlt, während ich wieder einen großen Sprung mache.
Heute kann man nix mehr für die Zukunft kaufen!!!

Doomtrain
2002-05-30, 00:04:04
Originally posted by aths
Zumindest Parhelia wird performanceseitig die Ti4600 wohl nur schlagen, aber nicht nicht krass schlagen können. Nutzt ein Spiel nur 2 Texturen scheint die Ti4600 sogar schneller als Parhelia-512 zu sein.


Das mußt du mir mal genauer erklären! Ich rechne zwar nicht mit der doppelten, aber locker mit der 1,5 fachen Leistung, das nenne ich schon krass!! Auch mit nur 2 Texturen wird der Parhelia viel schneller sein, allein schon wegen der gigantischen Bandbreite.

pervert
2002-05-30, 00:05:15
@aths

Also von Trottel hat keiner was geschrieben.
Ich habe es nur als unvernünftig bezeichnet, wie du selbst.

Aber es geht in den letzten Postings ausschliesslich um das Auflösungs- und FSAA-Verlangen von Ash-Zayr. Und egal welche Form der Kantenglättung nun in welchem Spiel zum Einsatz kommt, die Bandbreite des Parhelia ist der 4600 nach bisherigen Verhältnissen und Fortschritten GIGANTISCH ÜBERLEGEN! Das FSAA der Geforce funktioniert im Grunde bei keinem Spiel so richtig. Viel zu viele Objekte werden gar nicht geglättet. Besonders dicht bewachsene Bäume zählen immer? dazu, wo gerade diese sehr pixelig aussehen, sowie eigentlich alles was Kantenglättung besonders gut vertragen könnte wie Zäune, Gitter usw. Aber die Parhelia wird damit glaube ich auch Probleme haben. Habe das schon auf einem Testshot gesehen. Selig sei 3dfx. Zumindest werden ansonsten aber sehr hohe AA-Stufen geboten, da kann man über die erbärmlichen Ergebnisse der GF nur lachen. Ich verstehe bis heute nicht, warum die bei NV mit den AA-Möglichkeiten so oft herumspielen. Das beste war immer noch das 4x4 SSFSAA, was ich mal auf meiner GF2 Pro bestaunen durfte. Mann, DAFÜR würde ich mir fast ne 4600er kaufen, wenns das wieder gäbe (war lustig langsam :))!

Und bez. meiner Interessen muss ich sagen, dass Parhelia wenigstens 16x Ansio bietet (wenn auch nur bilinear). Das 8x der GF reicht mir einfach noch nicht so richtig, BESONDERS bei JK2.

Razor
2002-05-30, 00:39:04
Also erst einmal vorweg: Klasse privates Review, Aths !

Ist zwar sehr mit eigenen Meinungen durchsetzt und leider nicht so kenntlich gemacht, spiegelt aber doch eine unverblümte Meinung eines interessierten Users wieder...

Daß Du von der Leistungsentfaltung Deiner Neuanschaffung begeistert warst und vermutlich auch noch bist, ist nicht weiter verwunderlich, wenn man bedenkt, daß Deine letzte GraKa eine Voodoo4 war. Ist für einen nVidianer ähnlich, wie der Sprung von TNT2... vielleicht auch gfsdr.

Und ja, es hört sich wie eine Rechtfertigung an, auch wenn Du diess schon definitiv negiertest. IMHO muß so etwas auch 'erklärt' werden, da es einfach nicht einsichtlich ist, vorher mit einer (zuletzt) LowEnd-Karte zu leben und sich dann das Flagschiff einer im Prinzip schon veralteten Technologie zuzulegen...

Und hier kommen wir auch schon zu dem Punkt.

Hier wurde gesagt, daß die 'aufgewärmten'... sorry, 'weiterentwickelten' Produkte besser wären, da man mehr Leistung für das gleiche Geld bekommt (als Beispiel TNT2 statt TNT, gf2gts+ statt gfddr, gf4ti statt gf3 u.s.w.).

Das sehe ich 'etwas' anders...
Schaun' wir mal in die Vergangenheit am Beispiele von nVidia:

Da gab's so'n paar Chips, die versprachen, 3D zu liefen, es aber irgendwie nicht zustande brachten. Dann kam die TNT und brachte endlich die entsprechende Leistung für's 3D und stellte einen 'Ausblick' auf 32-Bit...

Eine 'Neuentwicklung' die ein altes Versprechen einlöste und Ausblicke bot...

TNT & Co versprachen dann also 32-Bit endlich verfügbar zu machen, aber erst die gf(256) löste dieses Versprechen ein. 32-Bit ohne Rheue. Stellte auch gleichzeitig einen Ausblick auf (statisches) T&L...

Eine 'Neuentwicklung' die ein altes Versprechen einlöste und Ausblicke bot...

gfsrd, gfddr, massive gf2-linie... aber erst die gf3 brachte die Geometrieleistung die man für hemmungsloses T&L'n benötigt (demnächst bei U2/UT2k3 zu bestaunen) und bot natürlich (wieder) einen Ausblick auf programmierbare Geometrieeinheiten (DX8 VS/PS)...

Eine 'Neu-Entwicklung' die ein altes Versprechen einlöste und Ausblicke bot... und bietet !

gf3, gf3ti, massive gf4-Linie... aber erst <na was wohl ?> wird das Versprechen für den hemmungslosen und entwicklerfreundlichen Gebrauch von programmierbaren Geometrieeinheiten einlösen...

Und wieder eine Neuent....

-

Was ich damit sagen will ?

Mit der gfddr war es mir möglich ALLES, was an technologischer Weiterentwicklung in Sachen 32Bit-3D kam (Scene-/Tech-Demo's, immer mehr werdende Spiele), in maximaler Qualität mitzuerleben. Zuletzt mußte ich die Auflösung allerdings von 1024 auf 800 herunter schrauben, damit dies noch möglich war.

Mit der gf3 ging es mir ebenso...
ALLES, was an technologischer Weiterentwicklung in Sachen 3D heraus kam, konnte ich mir (und kann es noch immer) ansehen. Selbst Demo's, die zwar nicht meinen PC, wohl aber die GraKa überfordern - wie das genannte Beispiel Codecreatures - bleiben mir nicht verborgen...

Belustigend finde ich dann schon die Feststellung, daß die gf4ti4600 (=Optimum bestehender Technologie) 'satte' 25fps hinbekommt (und damit ja sooooooo viel schneller als andere ist ;-). Ich bin sicher nicht der einzige, der der Meinung ist, daß dies in einer Real-World-Umgebung (was es ja noch nicht ist !) einfach unspielbar und lange nicht flüssig ist...

-

Ich habe die gf3 nun schon seit über einem Jahr und noch (!) gehört sie nicht zum alten Eisen. Allerdings gibt es erste Anzeichen, daß sie ein ähnliches Schicksal erleidet, wie damals meine gfddr. Damals mußte ich die Auflösung herunter schrauben, bald werde ich vermutlich auf Qualitätseinstellungen ala AA oder AF verzeichten müssen... im Extremfall sogar auf beides...

Insofern ist's wie damals:
Ca. ein Jahr lang aktuell und dann ca. 6 Monate noch immer akzeptabel.
Aber die ganze Zeit nichts verpaßt !

-

Hört sich sicher auch alles nach Rechtfertigung an, gell ?
(und ein fetter Monolog ist's dazu !)
:D

-

Aber was ich eigetlich damit sagen wollte:

1000 Märker ('harte' Währung, Gruß an Manni ;-)... ähm also 500 Golddollars, wäre mir einfach zuviel, wenn die Karte dann nicht einmal ein halbes Jahr aktuell bleiben würde. Es war mit der gf2ultra so (bis zu 1600 Ökken - was für ein Wahnsinn !) und wird mit der gf4ultra wieder so sein...

Ich fand es damals einen unglaublichen Beschiss von nVidia die Kunden dermaßen zu verar...en, aber Geschichte wiederholt sich und die Leutz haben nichts dazu gelernt. Zumindest ist's heute günstiger, obwohl 'ne richtig 'fette' gf4ti4600 (Übersetzung: mit viel Ausstattung) auch lockere 1200 Tacken macht (wie damals 'ne V2SLI).

Egal, sie ist sicher die schnellste GraKa, die es zur Zeit gibt (wie Guru JC ja immer wieder betont) und erlaubt es, Gimmicks (auf die auch ich nur ungern verzichten würde) ala AA/AF auch noch bei modernsten Games zu nutzen... aber nur eben noch immer DX7...

Würde mich echt wundern, wenn sich das anders darstellen sollte, aber ich vermute, daß man ein Doom3 - vermutlich auch schon ein U2 - in voller Qualität dann auf diese 'Gimmicks' verzichten muß (auch mit einer 4600).

Sorry, aber 'empfehlen' sollte man diesen Preis-/Leistungswahnsinn nicht !

In diesem Sinne

Razor

P.S.: NFS5 läuft mit gf3 und den neuen Deto's absolut OK und D2 ist schon seit laaaaaaagem von der Platte...
;-)

aths
2002-05-30, 00:44:22
Doomtrain,

ich werde *alles* mit Anti-Aliasing spielen. Zur Not spare ich an der Auflösung. Optisch lohnt der Tradeoff bei dieser Karte immer. Wegen der CPU-Limitierung bei 1024x768 ohne FSAA ist das sowieso fast "for free" drin. Bei Spielen die in diesem und nächstem Jahr erscheinen mache ich mir absolut keine Sorgen, was die Leistung mit FSAA betrifft.

Angenommen, Parhelia taktet wirklich mit 220 MHz. Die 4 Pipelines schaffen pro Sekunde also theoretisch 880 Megapixel. GF3Ti4600 schafft mit ihren 4 Pipelines theoretisch 1200 Megapixel, da sie mit 300 MHz getaktet ist. Bei 2 Texturen ist die GF4 nicht bandbreitenlimitiert. Hier müsste die Ti4600 schneller sein, als Parhelia. Benchmarks werden es dann zeigen.

Parhelia verfügt übrigens nicht über die vielen GF4-Techniken, die den Overdraw reduzieren, sondern nach bisherigem Informationsstand nur über eine Art Crossbar Memory Controller.


pervert,

ich ziehe 8x trilinearem AF 16x bilinearem deutlich vor. Die Texturen müssen scharf sein - und frei von MIP-Banding. Wenn ich das richtig verstanden habe, senkt 16x bi (oder eben 8x tri) die Füllrate beim Parhelia so erheblich, dass dort selbst eine GF3 schneller ist. Da kann die Parhelia-Bandbreite noch so hoch sein. Und wie gesagt hat Parhelia nur so etwas wie CMBC, aber offenbar keine weiteren Effizienz steigernden Techniken.

Doomtrain
2002-05-30, 00:45:03
Gute Analyse Razor, du bist genau meiner Meinung.

Quasar
2002-05-30, 00:46:16
Originally posted by aths

Parhelia verfügt übrigens nicht über die vielen GF4-Techniken, die den Overdraw reduzieren, sondern nach bisherigem Informationsstand nur über eine Art Crossbar Memory Controller.


Auch auf die Gefahr hin, mich zu wiederholen: Woher nimmst du diese Info? Aus dem Blockdiagramm doch wohl nicht, oder?

Doomtrain
2002-05-30, 00:49:28
Originally posted by aths


Angenommen, Parhelia taktet wirklich mit 220 MHz. Die 4 Pipelines schaffen pro Sekunde also theoretisch 880 Megapixel. GF3Ti4600 schafft mit ihren 4 Pipelines theoretisch 1200 Megapixel, da sie mit 300 MHz getaktet ist. Bei 2 Texturen ist die GF4 nicht bandbreitenlimitiert. Hier müsste die Ti4600 schneller sein, als Parhelia. Benchmarks werden es dann zeigen.






220Mhz halte ich für Unsinn, dann wäre die Parhelia ja übelst Füllratenlimitiert! Gut, aber welches spiel das eine GeForce4 braucht (brauchen wird) nutzt denn nur 2 Texturen? Keins.

aths
2002-05-30, 01:10:22
Razor,

ich meine die Erfahrung gemacht zu haben, dass der aufgebackene Chip etwas länger als das Original hält. TNT2 war viel dominanter als TNT, GTS letztlich deutlich erfolgreicher als GF256. Daraus leite ich den Analogieschluss ab, dass GF4 den Erfolg (gemessen an den Verkaufszahlen) der GF3 übertreffen wird. (Jedenfalls scheint GF4 schon jetzt ziemlich gefragt zu sein.) Ob es wirklich so kommt kann nur die Zukunft zeigen, da sind "Diskussionen" vermutlich zwecklos.

Wenn ich mich nicht irre hast du 870 DM für die GF3 gelöhnt. (Was ich für die GF4 blechte kann man wegen dem PC-Paketpreis nicht genau sagen. Der Anteil betrug umgerechnet rund 1000 DM. Das ist eine vergleichbare Größenordnung.) Natürlich wärst du günstiger gefahren wenn du erst später aufgerüstet hättest. Offenbar hast du den Kauf nicht bereut, weil du die Leistung sofort hattest und nicht erst irgendwann. Die DX8-Effekte der GF3 sind vermutlich das wenigste was dir diese Karte bislang brachte, es war wohl mehr die pure Leistung die AA und AF ermöglicht. Nach diesem Kriterium entschied ich auch.

Und - ich bin ja auch nicht der einzige mit so einer Karte :)

Interessanter Vergleich übrigens mit der GF2 Ultra. Ich meine behaupten zu können, dass man mit dieser Karte jeden heute erhältlichen Titel ausgezeichnet spielen kann, sogar mit (2x) AF. (FSAA ist wegen der fehlenden Multisampling-Technolgie nur sehr bedingt drin, ich weiss. Doch Auflösungen von 1024x768 oder 1280x1024 sollten für die Ultra kein Problem darstellen.) Die neue Unreal-Engine sollte auf dieser Karte ebenfalls passabel laufen. Vermutlich wird erst Doom3 die Grenzen der GF2 Ultra wirklich zeigen. (Aber natürlich wird es noch spielbar sein, wenn auch nur mit Low Detail.) Das ist also eine Zeitspanne von über 2 Jahren.


Doomtrain, ich bezog mich bei den 220 MHz auf die 3DC News, die sich ihrerseits auf nVnews bezog.


Quasar, im Launchmaterial waren keine Infos zu ausgefeilten effizienzsteigernden Strategien enthalten. Das mit dem CBMC habe ich irgendwo mal gelesen, Quelle habe ich jetzt aber nicht parat. Letztlich wäre ein 512-Bit-Interface ohne CBMC ziemlicher Unsinn, ich traue Matrox solchen Unfug nicht zu.

pervert
2002-05-30, 01:13:31
Originally posted by aths

ich ziehe 8x trilinearem AF 16x bilinearem deutlich vor. Die Texturen müssen scharf sein - und frei von MIP-Banding.

Die Texturen sind aber nunmal alles andere als richtig scharf bei 8x. Bei JK2 ist es schon ziemlich unscharf. Ich werde hier unbedingt mit Texturschärfung und LOD herumspielen müssen. Und Mipbanding bei 16x ist zur Not schon okay, jedenfalls besser als DEUTLICHE Unschärfe. Kommt auch ganz auf das Spiel an. Je nach Grafik fällt das mehr oder wneiger in Gewicht. Traumhaft wäre sowieso erst 32x trilinear. Bin mal gespannt, wer das zuerst bieten wird. Es MUSS ja nicht unbedingt Parhelia sein. Ich bin da ja sehr flexibel und tausche, sobald ich etwas für mich interessanteres finde.

Doomtrain
2002-05-30, 01:19:24
Originally posted by aths




Interessanter Vergleich übrigens mit der GF2 Ultra. Ich meine behaupten zu können, dass man mit dieser Karte jeden heute erhältlichen Titel ausgezeichnet spielen kann, sogar mit (2x) AF. (FSAA ist wegen der fehlenden Multisampling-Technolgie nur sehr bedingt drin, ich weiss. Doch Auflösungen von 1024x768 oder 1280x1024 sollten für die Ultra kein Problem darstellen.) Die neue Unreal-Engine sollte auf dieser Karte ebenfalls passabel laufen. Vermutlich wird erst Doom3 die Grenzen der GF2 Ultra wirklich zeigen. (Aber natürlich wird es noch spielbar sein, wenn auch nur mit Low Detail.) Das ist also eine Zeitspanne von über 2 Jahren.




Kannst du denn in 2 Jahren die neuesten Titel auf einer Karte spielen, welche völlig veraltet ist? Du stehst doch auf Grafik!

pervert
2002-05-30, 01:24:44
Originally posted by aths
Und - ich bin ja auch nicht der einzige mit so einer Karte :)

Aber einer von EXTREM wenigen "durchgeknallten" FREAKS (nicht negativ gemeint). Genauso stands mit der GF2U.


Vermutlich wird erst Doom3 die Grenzen der GF2 Ultra wirklich zeigen. (Aber natürlich wird es noch spielbar sein, wenn auch nur mit Low Detail.) Das ist also eine Zeitspanne von über 2 Jahren.

Wer sich einerseits mal eine GF2U kaufte, sich aber andererseits noch mit Doom3 light zufrieden geben könnte/wollte/müsste, hat sie nicht alle. In den letzten 2 Jahren habe ich vielleicht ein Drittel bis ein Viertel des damaligen Kaufpreises einer GF2U für Grakas INSGESAMT ausgegeben und hatte immer eine gute und seit langem schon eine gleichwertige/bessere Karte. Die GF2U war das Negativ-Hochpreisprodukt #1. Für FSAA zu lahm, für alles andere zu schnell und heute einfach OUT. Die armen Typen, die für sowas ihr Geld weggeschmissen haben! Mit der GF4 "Ultra" wird es ähnlich aussehen. In wenigen Tagen habe ich eine Karte die sich an der Grenze der Spürbarkeit in meinen Games und Settings zur 4600 bewegt und vermutlich spätestens in 6 Monaten was besseres. Kommt auf die Preise und die AF/FSAA-Leistung UND TREIBER! der Nextgen-Karten an. Mal sehen wer hier zuerst interessante Lowcost-Varianten a Ti200 und Ti4200 bietet.

aths
2002-05-30, 09:46:54
pervert, 16x AF ist nicht *deutlich* schärfer als 8x AF. Übrigens wage ich zu bezweifeln, dass es DX9-LowCost-Karten (sagen wir um 230 €, soviel wie heute die Ti4200 kostet) schon innerhalb von 6 Monaten gibt.

Doomtrain, was ich in 2 Jahren mit der Karte wirklich machen kann, werde ich in 2 Jahren dann sehen.

Ash-Zayr
2002-05-30, 10:12:57
Hallo

Ich muss ja nun zugeben, daß ich nicht so viel Ahnung habe wie die meisten von euch hier; daher brauche ich es wie ein Kleinkind ganz anschaulich..*gg*...
In meinem Post hatte ich ja mein System beschrieben. Mein Problem ist nun, daß ich einfach Angst habe, bald mit meiner Geforce III nicht mehr das machen zu können bei Spielen, was mir aber wichtig ist. Auf der anderen Seite kann ich mir ca. 409 Euro derzeit für die MSI Geforce IV TI4600 nicht wirklich leisten, und mir kommen langsam Zweifel, ob es wirklich kein guter Zeitpunkt ist, sondern lieber noch auf der Geforce III Generation zu verharren (zu der die IV auch im weitesten Sinne gehört), und auf eine dann lohnende Neuanschaffung einer innovativen Generation zu warten (Parhelia, R300, GF V?)...

Was ich dabei in dieser Diskussion vermisse ist ein Aspekt: wir alle machen uns Sorgen, ob wir die nächsten großen Engines/Spiele ala Doom III und Unreal 2 noch spielen können mit allem Genuss, aber gleichzeitig wird es hier einzig und allein von der GRAKA abhängig gemacht. Mag sein, daß hier mein Unwissen ins Spiel komme, aber mal ein Rechenbeispiel, daß ihr vielleicht mal in die richtigen Relationen rücken könnt:
Wenn für ein Game wie Doom III die fiktive Zahl von 100% Leistung notwendig ist, um es mit 1280 (32Bit) mit 8AF und 4FSAA spielen zu können, welchen prozentualen Anteil hat denn nun die GRAKA an dem Geschehen, und welchen Dinge wie RAM, CPU, Motherbord, FSB, usw.?!?!?! Kann man denn eine etwas schwächere oder schwächer werdende GRAKA nicht so lange noch etwas durchbringen und ihr helfen, indem man einfach ihr zu Hause, sprich CPU, RAM und MB weiter aufmöbelt...denn das ist wesentlich günstiger als alle Jahr 500 Euro für eine GRAKA; Office Anwendungen freuen sich bestimmt auch mal wieder über etwas mehr Power, die mal nicht für Grafik ist....behalte ich also meine Geforce III bis Ende des Jahres oder etwas länger, inwieweit könnte ich durch stärkere Umgebung die neuesten Spiele trotzdem noch weiter mitpushen, damit ich alles aufdrehen kann?!?

Gruß

ash

aths
2002-05-30, 10:22:30
Ash-Zayr, die GeForce4 Ti 4600 ist zwar die beste Karte, die man aktuell für Doom3 kaufen kann. Doch Doom3 steht noch nicht im Laden. Wenn du eine Karte für Doom3 haben willst, so warte am besten, bis das Spiel erhältlich ist.

Nicht uninteressant ist übrigens der Gesichtspunkt, dass die Grafikkarte nicht alles ist. Das heutige durchschnittliche System hat eine 900-MHz-CPU. Dementsprechend sehen die Spiele aus. Ehe ein AthlonXP 1800+ (oder vergleichbarer P4) diese Stellung hat, geht wohl noch einige Zeit ins Land.

Piffan
2002-05-30, 13:36:02
Originally posted by Ash-Zayr
Hallo

Kann man denn eine etwas schwächere oder schwächer werdende GRAKA nicht so lange noch etwas durchbringen und ihr helfen, indem man einfach ihr zu Hause, sprich CPU, RAM und MB weiter aufmöbelt...denn das ist wesentlich günstiger als alle Jahr 500 Euro für eine GRAKA; Office Anwendungen freuen sich bestimmt auch mal wieder über etwas mehr Power, die mal nicht für Grafik ist....behalte ich also meine Geforce III bis Ende des Jahres oder etwas länger, inwieweit könnte ich durch stärkere Umgebung die neuesten Spiele trotzdem noch weiter mitpushen, damit ich alles aufdrehen kann?!?

Gruß

ash

Leider funktioniert das nicht! Es gibt sowas wie eine Arbeitsteilung der Pc- Komponenten, manche Funktionen einer Graka kann die CPU emulieren, viele nicht. So ist es leider nicht möglich, fehlende Füllrate durch Proz.power zu ersetzen. Gerade Dein Bedürfnis nach hoher Bildqualität kann nur ausschließlich von der Graka befriedigt werden. Vergleiche es mal mit einer Audio- Anlage: Der allerbeste Verstärker und die schönsten Kabel können einem schlechten Lautsprecher nicht zum Superklang verhelfen....

Auch was die Performance betrifft: Wenn die Graka an ihr Limit knallt, wird sie zum Flaschenhals.... Ein stärkeres System kann da auch nicht weiterhelfen. .....Umgekehrt: ist eine Graka überdimensioniert, kann ich den Leistungsüberschuss komplett in die Bildqualität investieren..

Vor gar nicht langer Zeit habe ich im Forum von 3dconcept.ch auch so ahnungslos wie Du rumgefragt und so manchen genervt, aber es ist wie mit jedem Hobby, je länger man sich damit beschäftigt, um so mehr blickt man durch... ;)

ow
2002-05-30, 14:04:58
Originally posted by Doomtrain


Kannst du denn in 2 Jahren die neuesten Titel auf einer Karte spielen, welche völlig veraltet ist? Du stehst doch auf Grafik!


Klar kann man.

Ich hab RTCW und JK2 mal auf meiner alten RivaTNT PCI getestet.

640x480x32Bit, 16Bit Tex., r_picmip 1, r_lodbias 1, sonst alle Details auf max.

Macht immer zwischen 30 und 100fps. Ist also absolut fluessig spielbar, die Qualitaet ist dabei immer noch sehr gut.

Und so dunkel, wie manche Level in diesen Spielen sind, wirst du da praktisch keinen Unterschied zum dem von einer GF4 mit allen Features gerenderten Bild sehen.:D

TNT rulz;)

Birdman
2002-05-30, 14:33:04
Originally posted by pervert

Die Texturen sind aber nunmal alles andere als richtig scharf bei 8x. Bei JK2 ist es schon ziemlich unscharf. Ich werde hier unbedingt mit Texturschärfung und LOD herumspielen müssen. Und Mipbanding bei 16x ist zur Not schon okay, jedenfalls besser als DEUTLICHE Unschärfe.

also ich weiss ja ned was du da jeweils an den einstellungen drehst, aber spätestens am 4x ist es vorbei mit grossartigen veränderungen. 8x bemerkt man noch, und 16x fasse ich schon fast unter "war das nun eine sinnenstäuschung oder hab ich wirklich was gesehen" zusammen.
So war das jedenfalls bei meiner Radeon der Fall....ausser mit colormiplevels habe ich nirgends nen unterschied feststellen können.

Zudem, wenn man z.B. bei nem frosch den LOD auf -1 stellt, sinddie texturen schärfer als 16AG auf der radeon....und texturflimmer konnt ich damit auch noch nie feststellen. (spiele aber auch alles mit 2x FSAA, das was flimmern eh mindert)

Doomtrain
2002-05-30, 17:30:47
Originally posted by ow



Klar kann man.

Ich hab RTCW und JK2 mal auf meiner alten RivaTNT PCI getestet.



HaHa, das hast du falsch verstanden. Ich meinte nicht, das die Spiele nicht mehr laufen würden(natürlich werden sie), sondern ob aths dann noch Lust hat zu Spielen, da er ja (wie ich auch) auf max. Detail + FSAA un AF steht.;)

Das bezweifle ich sehr.

Razor
2002-05-30, 19:22:46
@Doomtrain

"Gute Analyse Razor, du bist genau meiner Meinung."

Selten, aber diesmal scheints zumindest im Ansatz so zu sein...
;-)

@aths

Ich hoffe wirklich, daß Du mich nicht falsch verstanden hast...

Natürlich wird die gf4'er Reihe lange Zeit ein Verkaufsschlager bleiben (und die gf3 selbstverständlich überholen), weil sie a) permanent günstiger werden wird und b) das demnächst erscheinende Produkt (im August wird's angekündigt, wie jetzt fest steht) lange Zeit im High-End-Bereich angesiedelt bleiben wird (wie zuvor auch schon gfddr und gf3).

Das wollte ich auch gar nicht in Abrede stellen, aber der Erfolg einer solchen Produktreihe ist letztlich am Ziel-Marktsegement fest zu machen und das war bei den 2'er Reihen grundsätzlich der Midrange- und LowEnd-Bereich.

Die gf2u habe ich deswegen in die Diskussion eingebracht, da hier dem Faß offensichtlich der Boden ausgeschlagen wurde (was sich mit der gf4u ja offensichtlich nicht in dieser Ausprägung wiederholt). Nur 6 Monaten später kam eine Karte, die nicht nur leistungsseitig vergleichbar, sondern auch noch technologisch weit überlegen war. Ähnliches vermute ich jetzt mit der gf4ti4600 (gf4u)...

Und mein Bruder hat eine gf2u...
(allerdings erst Ende letzten Jahres gekauft = sehr viel günstiger als bei Release der gf3)

Mit AF kann er moderne Titel überhaupt nicht spielen (von AA ganz zu schweigen). Auch stört es ihn gewaltig, daß er immer zu mir kommen muß, um technologische Innovation 'live' zu erleben. Aber er sieht es nicht ein, sich jetzt schon wieder eine neue GraKa zuzulegen und zwingt sich so, mit der jetzigen erst einmal durchzuhalten (bei der nächsten Anschaffung will er mit mir gleichziehen ;-).

Bei der gf2u geht es weniger um 'Grenzen', denn vielmehr um 'Unvermögen' !!!

-

Und ja, ich habe vor über einem Jahr (!) 870 Märker gelöhnt und Du hast jetzt rund 1000 hingeblättert. Für eine Karte, die zwar (wesentlich) schneller ist, aber nicht mehr bietet, als eine gute alte gf3... Habe ja schon gesagt, daß es mir primär nicht um Geschwindigkeit geht, obwohl ich von einer völlig neuen Chip-Generation natürlich erwarte, daß sie sehr viel leistungsfähiger ist, als die vorherige... Mit geht es darum, NICHTS zu verpassen. Sprich, an der technologischen Entwicklung teil zu haben. Und davon habe ich im letzten Jahr exessiven Gebrauch gemacht, die ich so etwas wie AA und AF schon sehr viel früher hatte, und somit alte Games in völlig neuem Licht erstrahlten. Auch konnte ich mir alle Tech-/Scenedemos rein ziehen, die diese (noch sehr neue) Technik nutzten. Natürlich waren auch Spiele-Demos und zuletzt sogar die Spiele selber dabei...

Insofern gehe ich bei meiner Investition von einer minimal 18-monatigen Nutzungsdauer aus, insofern ich ich also ca. 440 - 580 Märker pro Jahr ausgebe, damit ich am Zahn der Zeit bleibe. Insofern finde ich von diesem Standpunkt aus ja auch die gf4ti4600 einen absoluten Wahnsinn, da mich dieses umgerechnet 2000 Mücken kosten würde (6 Monate 'am Zahn der Zeit' für 1000). Ich denke, daß Du nun versteht, warauf ich hinaus will...

Auch hätte ich es sicher bereut, später einzusteigen, da dies meine Nutzungszeit dann um genau diesen Zeitraum verkürzt hätte und ich im Gegenzug mit einer schon veralteten Technologie (gfddr im Zeitalter von gf2u und gf3) eben nicht mehr 'am Zahn der Zeit' gewesen wäre.

-

Kosten und Nutzen ist schon sehr individuell zu betrachten.

Insofern ich Dir Glauben schenke, daß sich für Dich diese Investition lohnend dargestellt hat, obwohl einem da ein wenig der Zweifel aufkommt, wenn man Dein Preview genauer liest und auch vorhergehende Diskussionen verfolgt hat.

Wie gesagt, ich habe einfach eine etwas andere Sichtweise.

Ich würde es Ablehnen, Geld für etwas auszugeben, was mir keinen Mehrwert gibt !
Und wie gesagt, hat Geschwindigkeit bei mir nicht die Priorität...

Im übrigen habe ich Features ala AF/AA erst einige Zeit nach (!) dem Kauf der gf3 für mich entdeckt.
(bei der gfddr war's ja kein Thema ;-)

-

Bezüglich U2 und Doom3 hoffe ich für alle, daß ich mich da irre...
(was ich zur Zeit allerdings bezweifle)

@Ash-Zayr

Deine Frage ist leider nur sehr schwer zu beantworten...

Der Anteil einer GraKa an der Gesamtperformance von Games ist absolut nicht fix. Es gibt sowohl CPU-limitierte Games, als auch GPU-(GraKa)limitierte... Das eine hilft bei dem Einen mehr, als das andere... wenn Du verstehst, wie ich das meine.

Einzelne Beispiele möchte ich anderen überlassen, denn dazu müsste ich viel zu weit ausholen und ich schreib mir ja jetzt schon einen Wolf !
:D

Aber im ernst.

Wenn Du Dir das Geld von den Rippen schneiden mußt, dann solltest Du auf jeden Fall die Finger von einer gf4ti4600 lassen. Die gf3 wird sicher noch 6 Monate durchhalten, was auch für Grafik-Fetischisten wie mich gilt, vor allem, wenn Preisbewußtsein und Technikfaszination zusammen kommen.

Es gilt halt einen Mittelweg zu finden und die Zeit ist derzeit einfach denkbar ungünstig:

1) wirklich neue GraKa-Generationen stehen direkt vor der Tür

2) wirklich neue CPU/System-Generationen stehen ebenfalls (fast) davor

Warte doch einfach noch ein wenig (so maximal 6 Monate) und laß die Finger vom Update...
(du kannst Dir nicht vorstellen, wie es mir in den Finger juckt ;-)

Und noch etwas: Das System muß schon insgesamt passen, da gebe ich Piffen zu 100% recht und insofern hat es aths in diesem Punkt auch richtig gemacht, indem er sein System entsprechend abstimmte (auch wenn eine gf4ti4400 völlig ausgereicht hätte). Lieber noch ein wenig sparen (auch wenn's schwer fällt ;-) und dann alles zusammen kaufen.

Mein zukünftiges System scheint sich schon zu formieren...
Wird wohl eine 'next-gen' CPU, mit 'next-gen' Board, 'next-gen' Speicher und natürlich 'next-gen' GraKa sein !
(Hammer mit Hyper-Transport PCI-X Board, QDR-RAM und NV30/R300 z.Bsp.)

***

Locker bleiben, liebe Leutz !
Und noch ein bissel warten...
:D

In diesem Sinne

Razor

pervert
2002-05-30, 20:32:20
Originally posted by aths
pervert, 16x AF ist nicht *deutlich* schärfer als 8x AF. Übrigens wage ich zu bezweifeln, dass es DX9-LowCost-Karten (sagen wir um 230 €, soviel wie heute die Ti4200 kostet) schon innerhalb von 6 Monaten gibt.

So war das auch nicht gemeint. Es waren 2 Aussagen. Ich warte nur auf die Lowcost-Varaiante wenn die Nextgen-Karten immer noch kein richtig gutes und schnelles FSAA und Aniso bieten. Ansonsten schlage ich vielleicht sogar sofort zu, und wenns 400-500 Euro sein sollten. Dafür habe ich dann auch wirklich lange eine aktuelle Technik. Das "Performance-Update" interessiert mich dann weniger, da es mich z. Zt. eher nach neuen Technologien verlangt, die ich SOFORT verwenden kann. Deswegen wäre eine GF4U für mich total uninteressant, diese Technik besitze ich schon. Allerdings wird man als "normaler" Zocker wirklich extrem lange mit einer GF4U auskommen können, wenn es das ist, worauf man Wert legt. Sie wird sicher für sämtliche Spiele der DX8 Ära ausreichen und die könnte vielleicht läger dauern, als vielen von uns lieb ist...

pervert
2002-05-30, 20:45:22
Originally posted by Birdman

also ich weiss ja ned was du da jeweils an den einstellungen drehst, aber spätestens am 4x ist es vorbei mit grossartigen veränderungen. 8x bemerkt man noch, und 16x fasse ich schon fast unter "war das nun eine sinnenstäuschung oder hab ich wirklich was gesehen" zusammen.
So war das jedenfalls bei meiner Radeon der Fall....ausser mit colormiplevels habe ich nirgends nen unterschied feststellen können.

Zudem, wenn man z.B. bei nem frosch den LOD auf -1 stellt, sinddie texturen schärfer als 16AG auf der radeon....und texturflimmer konnt ich damit auch noch nie feststellen. (spiele aber auch alles mit 2x FSAA, das was flimmern eh mindert)

Scheinbar hast Du weder Wolfenstein (hier fiel es mir das erste mal auf, Waldlevel) noch Jedi Knight 2 gespielt. In den Tempel-Anlagen, wo man das Lichtschwert erhält, springt mich die Unschärfe geradezu penetrant an! Und ich bin wohl einer der Wenigen, die wirklich wissen, wie man IMMER 8x Aniso in JK2 zu sehen bekommt (siehe: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=19930&highlight=aniso)! Die Texturen sind hier einfach zu fett und das Mipmapping beginnt dementsprechend sehr früh. Ich mache gerne mal ein paar Beispielshots. Eine LOD-Anpassung beginnt z. B. in Wolfenstein (Wald, Häuserdächer) sehr schnell zu flimmern, was hier wirklich sehr mies aussieht. GF3 möchtegern FSAA bringt hier praktisch gar nichts. Auf meiner GF2 mit SSFSAA war das noch was anderes, aber dann wieder zu lahm. Man war das noch eine geniale Textur-Optik, als ich mal FAKK2 mit vollem SSFSAA und vollem Ansio ausprobierte :)

Die "Tiefenschärfe" von 16x Aniso habe ich auf einigen sehr interessanten Radeon-Shots studiert und es sah schon etwas besser als auf der GF mit 8x aus (nicht INSGESAMT besser!). 4x ist für mich absolut mangehaft und übrigens kaum schneller als 8x (GF). Bei zukünftigen Spielen wird das aufgrund immer häufiger auftretender fetter Texturen noch stark an Bedeutung zunehmen. Übrigens: ich musste mich in JK2 in einem Test mit 800x600 praktisch DIREKT vor eine Wand stellen um noch die Originaltextur (anstelle totaler Unschärfe) zu sehen (ohne Aniso) :) :bonk:

Piffan
2002-05-30, 21:43:44
@Pervert und andere: Man kann es auch übertreiben. Sicher sieht 8x AF besser aus als 4x, aber wenn ich spiele und nicht fortwährend auf die Texturen glotze, dann kann ich mit 4x prima leben :D Ich bin sogar der Meinung, daß in 1024x768 die Kombination von 2x FSAA und 4x AF recht gut aussieht (Bilinear).

Was soll letztlich die "absolute" Schärfe eigentlich bringen? Wir sind bei aller Begeisterung immer noch Lichtjahre von einer fotorealistischen Darstellung entfernt, wir gewöhnen uns nur und tauchen darum trotzdem in die virtuellen Welten ein (Gruß an Ash- Zayr ;) ). Mehr Schärfe würde diesen "Gewöhungsprozess" nicht überflüssig machen, man sähe höchsten deutlicher, daß man in einem etwas besseren Zeichentrickfilm unterwegs ist, allerdings in einem geilen Trickfilm, in dem man sogar selbst der Hauptdarsteller ist. :D

Meine Meinung: Ein gewisser Qualitätsstandart ist gut, vor allem wenn man sich erst daran gewöhnt hat. Weitere Steigerungen belasten dann zunehmend den Geldbeutel und machen dann Sinn, wenn auch der Monitor mitspielt...So braucht kein Mensch mehr als 1024x768 auf einem 17er, mit 2x FSAA braucht nun wirklich keiner ernsthaft zu meckern... Wer das Geld locker hat, soll ruhig in die schnellste und schönste Grafik investieren, er wird nach einiger Zeit aber keinen Deut mehr Spielgenuß haben als jemand, der auf dem Teppich bleibt. Nicht zuletzt muß das Spiel selbst was taugen, die Grafik allein kann Langeweile nicht verhindern....

@ Razor: Wie du weißt, bin ich auch einer von den Trotteln, die sich ne G2 Ultra gekauft haben... Zum Glück für "nur" rund 900 Öcken, und dann ist es immerhin eine Prophet Ultra. Aber glaube mir, sowas mache ich nie wieder..... Glaube ich :D

Man kann auch preiswerter am Zahn, äh, Puls der Zeit bleiben....

pervert
2002-06-01, 23:56:43
Originally posted by aths
Übrigens wage ich zu bezweifeln, dass es DX9-LowCost-Karten (sagen wir um 230 €, soviel wie heute die Ti4200 kostet) schon innerhalb von 6 Monaten gibt.

Abgesehen von einem Preis, zweifel weiter (nur woran?!)...

Ich bin eher davon ausgegangen, dass NV die mit der GF3 Ti200 eingeführte Ausweitung ihrer Modellvielfalt auch in Zukunft beibehält. Die GF4 ist zwar keine neue Karte, aber wie man sieht, kam jetzt nach 2 Monaten auch die Lowcost-Version 4200 (an der ja auch gerne gezweifelt wurde).

[...]laut Aussage eines Börsenanalysten nVidia in diesem Herbst 12 neue Chips herausbringen wird.
Blieben 6 neue Chips, welche man dann der NV30-Generation zuordnen müßte - hiervon möglicherweise drei für die Consumer-NV30-Varianten [...]

Hm, woher hab ich das wohl?

aths
2002-06-02, 01:07:32
... Leo hat in der gleichen News geschrieben, dass er keine Low-Cost-DX9-Karten erwartet ("Daß sich hier noch eine Billig-Variante des NV30 zwischenmischt (wie die MX bei der GeForce4-Serie), halten wir dagegen für reichlich unwahrscheinlich").

pervert
2002-06-02, 01:22:45
Lesen kannst Du wohl auch nicht, oder? Wer meint hier eigentlich eine MX????????? Ich schreibe hier von Ti200 u. Ti4200, die ich auch namentlich als "lowcost" erwähnt habe. UND DU HAST SELBST DIE TI4200 GENANNT (und die Bezeichnung lowcost verwendet)!!! Die GF4MX existiert für mich gar nicht und gehört auch gar nicht in die Diskussion um diese Generationen. Habe sie auch nie erwähnt in dem Zusammenhang!

Aber warten wirs ab. Ich komme wie bei der Preisdiskussion darauf zurück. 12 Chips und kein einziger DX9 "lowcost" oder vielleicht besser "consumer" nach/like Ti200/Ti4200 und im Fight geg. solche Konkurrenz? Hahahahhahahahahaha träum mal weiter...

Razor
2002-06-02, 08:56:16
@pervert

Halt Dich in Deien Formulierungen mal ein bissel zurück !
Man kann auch argumentieren, ohne hier rumzuschreien...

@all

Zur Zeit gibt es vom NV17/NV25 satte 15 Chips :

consumer gf4mx/ti = 6 Chips
workstation gf4mx/ti = 6 Chips
notebook gf4go = 3 Chips

Zu den 'neuen' 12 Chips:

Der NV17 wird zum NV18, der NV25 zum NV28...
Das wären im Consumer-Bereich dann schon mal 6 'Chips' weniger.
Über den Rest darf gerne spekuliert werden, aber ich vermute daß davon dann noch mal was für 'alte' Generationen drauf geht (z.Bsp. Notebook) und u.a. die neuen nForce2-(Crush-)Chipsätze (mit integrierten NV17/NV18-Cores) gemeint sind.

12 'neue' Chips sind also angedenk dessen, was nVidia in der nächsten Zeit vor hat, nicht besnoders viel !

Und der 'Analyst' hat sich diesbezüglich auch sehr schwammig ausgedrückt:
1) nVidia bringt 12 neue Chips noch dieses Jahr
2) der NV30 wird nVidia-Grafik auf einen neuen Level heben

Beide Aussage sind, wenn überhaupt, nur teilweise im Zusammenhang zu sehen !

Hier dann noch mal der orginale Text:
"Nvidia is making major investments in the current quarter with a push to tape out 12 new chips over the next 90 days, ensuring that this fall will be an exciting time for Nvidia," Mosesmann wrote. "(The) NV30, produced at 0.13 micron is expected to take Nvidia's graphics to another level from its current GeForce4 product family."
Persönlich rechne ich, wie bei gf256/gf3 nur mit sehr wenigen 'Produkten'.

Denkbar wäre ein NV30 mit 128MB und einer mit 256MB (was nur ein Chips wäre !). Vielleicht noch einer für den Workstation-Bereich (Quadro-Line)... so würden maximal 2 der 12 Chips auf den NV30 entfallen.

Daß man schon jetzt am Speicherinterface 'spart' glaube ich eher nicht, denn das wird dann dem 'refresh' NV35 vorbehalten sein, der dann wieder eine ganze Palette an Produkten (auch 'LowEnd') bringen wird, worunter dann auch vermutlich ein 'klassisches' 128Bit (4x32) DDR-Interface zu finden sein wird.

Aber genaueres wissen wir in '90 Tagen' !
:D

Bis denne

Razor

Xmas
2002-06-02, 13:52:23
Originally posted by pervert
Bei zukünftigen Spielen wird das aufgrund immer häufiger auftretender fetter Texturen noch stark an Bedeutung zunehmen. Übrigens: ich musste mich in JK2 in einem Test mit 800x600 praktisch DIREKT vor eine Wand stellen um noch die Originaltextur (anstelle totaler Unschärfe) zu sehen (ohne Aniso) :) :bonk:
???
Was ist das denn für eine Argumentation? Weil die Texturen immer größer werden wird AF wichtiger?
Und dein Beispiel verstehe ich nicht ganz. Natürlich musst du ganz nah ran gehen, wenn du die höchste Mip-Stufe einer hochauflösenden Textur in einer niedrigen Bildschirmauflösung darstellen willst. Das geht ja auch überhaupt nicht anders. Die nächste Mip-Stufe ist dann aber nicht "totale Unschärfe". Und wenn du senkrecht auf die Wand schaust wird AF daran überhaupt nichts ändern.

Quasar
2002-06-02, 14:18:00
pervert,
für absolut scharfe Texturen empfehle ich dir folgendes:

[HKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Services\nv\Device0]
"OGL_TexLODBias"=hex:80,ff,ff,ff"

aths
2002-06-02, 15:08:03
Als Ergänzung zum Review kann ich nur sagen, dass ich schon jetzt im Gefühl habe, die Karte laaange zu behalten. Sie ist einfach zu geil. (Wie sich Doom3 spielt, werde ich dann ja sehen.)

pervert
2002-06-02, 20:26:37
Originally posted by Xmas

???
Was ist das denn für eine Argumentation? Weil die Texturen immer größer werden wird AF wichtiger?
Und dein Beispiel verstehe ich nicht ganz. Natürlich musst du ganz nah ran gehen, wenn du die höchste Mip-Stufe einer hochauflösenden Textur in einer niedrigen Bildschirmauflösung darstellen willst. Das geht ja auch überhaupt nicht anders. Die nächste Mip-Stufe ist dann aber nicht "totale Unschärfe". Und wenn du senkrecht auf die Wand schaust wird AF daran überhaupt nichts ändern.

Du enttäuschst mich jetzt aber. Wenn Ich Ansio aktiviere verschiebt sich das Mipmapping "in die Tiefe". Demnach wird die Originaltextur "häufiger" verwendet (bzw. der Anteil dieser am Gesamtbild ist größer) und nicht nur, wenn ich direkt vor der Wand stehe. Soll heissen, ich kann mich durch besseres LOD auch weiter von der Wand entfernen und sehe immer noch die Originaltextur, bzw. eine saber "heruntergefilterte Ausgabe davon, anstelle der ersten Mipmap-Stufe. Eine höhere Auflösung (oder SSFSAA) unterstützt das natürlich. Probier es doch mal aus bei JK2 mit den colormiplevels. Nicht immer nur alles theoretisch abhandeln. Mit "totale Unschärfe" meine ich nicht die erste Mipmap, sondern den "Anteil Unschärfe" auf das gesamte Bild (=alle Mipmaps). Hast Du niedrig aufgelöste Texturen gibt es umso weniger Unschärfe durch Mipmapping (Mipmapping beginnt später). Bei fetten Texturen sieht man kaum was Anderes (als Mipmaps), powert man nicht Aniso kräftig rein (LOD verschiebt sich wieder in die Tiefe). Natürlich sind weniger hoch aufgelöste Texturen auch nicht gerade scharf, aber auf eine andere Art. JK2 ist hier wirklich ein Paradebeispiel. Wer hier nicht mit 8x Aniso zockt und hohen Auflösungen, sollte lieber nur die zweithöchste Texturstufe wählen. Der ganze Ärger lohnt sonst kaum. Ich war jedenfalls erstaunt, wie früh das Mipmapping einsetzt und dass ich mehr Unschärfe sehe als in jedem anderen Spiel.

Und um es nochmals zusammenzufassen und um auf deinen ersten Satz einzugehen: Werden die Texturten immer größer, wird das Verhältnis von Bildschirmauflösung zur Texturauflösung immer schlechter. Die Bildschirmauflösung kann man aber nunmal nicht so einfach unendlich steigern. Spätestens ab 1280 verliert man nunmal zuviel Performance. 1024 ist Standard. Hier hilft nur besseres Anisotropes Filtern, was noch lange nicht perfekt ist, solange nicht immer alles scharf ist. Soll natürlich nicht heissen, das die erste Mipmap mit 1280 und 8x AF neuerdings schon vor den Füssen der Spielfigur beginnt. Aber nicht jeder spielt in 1280 und die Texturen werden immer fetter.

pervert
2002-06-02, 20:27:12
Originally posted by Quasar
pervert,
für absolut scharfe Texturen empfehle ich dir folgendes:


Was bewirkt dieser Eintrag? OGL texture sharpening?

Quasar
2002-06-02, 20:30:16
Er ist für das LOD Bias der Texturen zuständig, damit kannst du quasi alles im höchsten MipMap-Level begucken....

TexSharpen schaltet quasi 2xAF zu.

pervert
2002-06-02, 20:45:01
Originally posted by Quasar
Er ist für das LOD Bias der Texturen zuständig, damit kannst du quasi alles im höchsten MipMap-Level begucken....

TexSharpen schaltet quasi 2xAF zu.

2x AF??? Wie soll das aussehen, wenn ich doch schon 8x AF aktiv habe? Meintest Du stattdessen Supersampling? Wie genau funktioniert das texture sharpening?

Und wenn ich die ultimative Schärfe wollte, kann ich das LOD auch per Rivatuner anpassen (neuerdings auch bei OGL) oder per r_texturemode gl_linear das Mipmapping GANZ ausstellen. Sieht sogar ziemlich beeindruckend aus und sollte jeder mal ausprobieren (danach wieder gl_linear_mipmap_linear)! Ist aber meist unspielbar langsam und flimmert auch mit 8x Aniso kräftig.

Aber von Texturschärfung und/oder LOD tweaking, werde ich bei JK2 wohl sowieso gebrauch machen müssen.

aths
2002-06-02, 23:46:36
Originally posted by pervert

Wie genau funktioniert das texture sharpening?


http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=19202&highlight=sharpening

Quasar
2002-06-03, 00:00:00
pervert,
AF und FSAA kann ich grade noch auseinanderhalten, danke.

Ich weiß jedoch, daß beides die CPU entlastet. ;)

pervert
2002-06-03, 00:02:33
Originally posted by Quasar
pervert,
AF und FSAA kann ich grade noch auseinanderhalten, danke.

Ich weiß jedoch, daß beides die CPU entlastet. ;)

Du bist aber nicht darauf eingegangen, wie das aussehen soll: 2x AF durch TexS und dann nochmals das 8x AF der Textursettings???

Nachtrag: Okay, jetzt weis ichs, nach aths Link. Danke dafür!

Quasar
2002-06-03, 00:08:27
Wegen aths Link bin ich nicht weiter darauf eingegangen.

Vedek Bareil
2002-06-03, 02:54:25
Originally posted by pervert

Und wenn ich die ultimative Schärfe wollte, kann ich das LOD auch per Rivatuner anpassen (neuerdings auch bei OGL) oder per r_texturemode gl_linear das Mipmapping GANZ ausstellen. Sieht sogar ziemlich beeindruckend aus

wie bitte was? ???
Das einzige was Mipmapping abschalten liefert, ist extrem starkes Texturflimmern! Daran sieht definitiv nichts beeindruckend aus!
Was meinst du wohl, zu welchem Zweck solche Sachen wie Mipmapping un trilineares Filtern erfunden wurden?



und sollte jeder mal ausprobieren

das habe ich mal nahezu ein Jahr lang ununterbrochen ausprobiert. Gezwungenermaßen, da meine damalige Riva 128 gar kein Mipmapping beherrschte (zumindest sah man da nichts von).
Das sah einfach nur fürchterlich aus! Ich war heilfroh, als ich endlich ne Graka bekam, die mipmappen und auch gleich trilinear filtern konnte konnte.


Ist aber meist unspielbar langsam

??? Also mir ist noch kein Spiel untergekommen, das ohne Mipmapping langsamer war als mit.


und flimmert auch mit 8x Aniso kräftig.

kann aniso ohne Mipmapping überhaupt irgendetwas anderes bewirken als normales bilineares Filtern?
Soweit ich das aus aths' Artikel über Filtermethoden (der aniso allerdings leider nur unzureichend behandelt) entnehmen konnte, mildert aniso lediglich Unschärfen, die durch das Mipmapping entstehen. Ohne Mipmapping wäre aniso damit ohne jede Wirkung.

Xmas
2002-06-03, 03:48:51
Originally posted by Vedek Bareil
kann aniso ohne Mipmapping überhaupt irgendetwas anderes bewirken als normales bilineares Filtern?
Soweit ich das aus aths' Artikel über Filtermethoden (der aniso allerdings leider nur unzureichend behandelt) entnehmen konnte, mildert aniso lediglich Unschärfen, die durch das Mipmapping entstehen. Ohne Mipmapping wäre aniso damit ohne jede Wirkung.
Nein, aniso funktioniert auch ohne Mip-Mapping, da hast du den Artikel wohl falsch verstanden. Viel vom Flimmern kann es natürlich auch nicht mehr vermeiden.


Originally posted by pervert
Du enttäuschst mich jetzt aber. Wenn Ich Ansio aktiviere verschiebt sich das Mipmapping "in die Tiefe". Demnach wird die Originaltextur "häufiger" verwendet (bzw. der Anteil dieser am Gesamtbild ist größer) und nicht nur, wenn ich direkt vor der Wand stehe. Soll heissen, ich kann mich durch besseres LOD auch weiter von der Wand entfernen und sehe immer noch die Originaltextur, bzw. eine saber "heruntergefilterte Ausgabe davon, anstelle der ersten Mipmap-Stufe. Eine höhere Auflösung (oder SSFSAA) unterstützt das natürlich. Probier es doch mal aus bei JK2 mit den colormiplevels. Nicht immer nur alles theoretisch abhandeln. Mit "totale Unschärfe" meine ich nicht die erste Mipmap, sondern den "Anteil Unschärfe" auf das gesamte Bild (=alle Mipmaps). Hast Du niedrig aufgelöste Texturen gibt es umso weniger Unschärfe durch Mipmapping (Mipmapping beginnt später). Bei fetten Texturen sieht man kaum was Anderes (als Mipmaps), powert man nicht Aniso kräftig rein (LOD verschiebt sich wieder in die Tiefe). Natürlich sind weniger hoch aufgelöste Texturen auch nicht gerade scharf, aber auf eine andere Art. JK2 ist hier wirklich ein Paradebeispiel. Wer hier nicht mit 8x Aniso zockt und hohen Auflösungen, sollte lieber nur die zweithöchste Texturstufe wählen. Der ganze Ärger lohnt sonst kaum. Ich war jedenfalls erstaunt, wie früh das Mipmapping einsetzt und dass ich mehr Unschärfe sehe als in jedem anderen Spiel.

Und um es nochmals zusammenzufassen und um auf deinen ersten Satz einzugehen: Werden die Texturten immer größer, wird das Verhältnis von Bildschirmauflösung zur Texturauflösung immer schlechter. Die Bildschirmauflösung kann man aber nunmal nicht so einfach unendlich steigern. Spätestens ab 1280 verliert man nunmal zuviel Performance. 1024 ist Standard. Hier hilft nur besseres Anisotropes Filtern, was noch lange nicht perfekt ist, solange nicht immer alles scharf ist. Soll natürlich nicht heissen, das die erste Mipmap mit 1280 und 8x AF neuerdings schon vor den Füssen der Spielfigur beginnt. Aber nicht jeder spielt in 1280 und die Texturen werden immer fetter.
???
Es ist doch überhaupt kein Unterschied ob ich von einer 2048²-Textur nur die dritte Mip-Stufe sehe oder von einer 512²-Textur die erste! Die sollten identisch sein, gleiche Bildquelle und gleicher Scaling-Algorithmus vorausgesetzt.
AF verbessert nur Texturen die nicht senkrecht zur Blickrichtung stehen.

pervert
2002-06-03, 04:01:43
@Vedek Bareil


Doch, es sieht ganz nett aus, wenn man keinerlei Unschärfe mehr sieht und im ganzen Level die Originaltexturen verwendet werden!!! Was meinst Du wohl, warum es so cool aussieht, wenn das LOD verschoben wird? Eigentlich der Hauptgrund für mehr Schärfe. Nur ohne Aniso flimmert das halt und mit besserem Aniso kann man das LOD weiter "in die Tiefe" verschieben und somit noch mehr Schärfe erreichen. Kein Filtering bringt dir etwas, wenn direkt vor den Füßen deiner Spielfigur die "unschärfsten" Mipmaps beginnen. Ziehe das LOD künstlich "zurück" (per RivaTuner z. B.), nachdem Du 8x Aniso aktiviert hast und Du wirst sehen, das bringts nicht. Die Mipmaps mögen jetzt zwar in der Schräge besser aussehen, wesentlich schärfer wirds aber nicht dadurch. Und das Du rumlaufen und dich am Pixelflimmern ergötzen solltst, hat keiner gesagt.

Wenn Du bei einem Q3-Titel das Mipmapping mal ausschalten würdest anstatt zu theoretisieren, wüsstest Du das es langsamer ist. Glaubst Du ich sauge mir das aus den Fingern? Und das ist wohl auch mit ein Grund, warum es eingesetzt wird. Sonst hätte man stattdessen vielleicht das ultimative Anisotrope Filtering entwickeln sollen.

Vergleiche 2 Screenshots ohne Mipmapping, ohne und mit 8x Aniso und Du siehst den Unterschied, den Aniso hier bewirkt. In der Praxis sehen, in der Theorie verstehen... Mehr brauche ich dazu nicht sagen.

pervert
2002-06-03, 04:10:25
Originally posted by Xmas
Es ist doch überhaupt kein Unterschied ob ich von einer 2048²-Textur nur die dritte Mip-Stufe sehe oder von einer 512²-Textur die erste! Die sollten identisch sein, gleiche Bildquelle und gleicher Scaling-Algorithmus vorausgesetzt.
AF verbessert nur Texturen die nicht senkrecht zur Blickrichtung stehen.

Öhm, wie bitte??????

Bei AF wird aber das LOD verschoben, weil dies DANN sinnvoll möglich ist! Ich will aber nicht die dritte Mip-Stufe von 2048 sehen (sondern möglichst oft das Original)!, welches ich aber ohne LOD-Verschiebung nicht zu sehen bekomme, was (bei LOD-V.) aber wiederum Pixelflimmern zur Folge hätte, wenn ich nicht gleichzeitig Aniso aktiv habe. Mann ist das so schwer zu verstehen? Was soll ich mit 2048er Texturen im Spiel, wenn diese nicht angezeigt werden können, weil ich kein Aniso aktiviere und nur wie in deinem Beispiel höchstens die dritte Mipstufe zu Gesicht bekomme??? Also nochmal: die 2048er WILL ich sehen und KANN ich nur sehen, bei ausreichend hoher Auflösung, passendem Mipmapping, welches nicht zu früh beginnt (passendes LOD) und deftigem Anisotropem Filtering.

Nochmal erklär ich es nicht. Ich dachte eigentlich dass das sonnenklar wäre.


Originally posted by Xmas
Nein, aniso funktioniert auch ohne Mip-Mapping, da hast du den Artikel wohl falsch verstanden. Viel vom Flimmern kann es natürlich auch nicht mehr vermeiden.


Wie viel hier noch flimmert liegt einzig und alleine an der Textur- und Bildschirmauflösung und der Schräglage einer Fläche, 8x Aniso als Konstate mal vorausgesetzt. Spiel so mal NFS 5 OHNE Mipmapping, da flimmerts nur noch am Horizont. Mach das in JK2 und Du wirst fast blind. Oder stell dort halt einfach die Texturen von "very high" auf "lowest" um bzw. vice versa. Sinnvollerweise alles mit Aniso, sonst flimmerts fast überall.


Übrigens ein Tipp für alle anderen Leser:
Wer sich mal ausgiebig mit Mipmapping in der Praxis beschäftigen möchte (weil er noch keine Erfahrungen damit gesammelt hat), macht das per "r_colormiplevels 1" , danach "vid_restart" in der Q3-Console. Danach z. B. Mipmapping ganz ausschalten per "r_texturemode gl_linear" oder Aniso/LOD Bias per Rivatuner verstellen und beobachten was in der Praxis passiert. Am besten Screenshots per Drucktaste oder mit dem Fraps-Framecounter zum Vergleich erstellen. Bis auf JK2 klappt auch "F11" zum Speichern multipler Screenshots in Q3-Engine Games. Evtl. muss ein "/" oder "\" vor den Befehlen angeführt werden.

Und wer dann mal sehen möchte wie Spielegrafik richtig cool aussieht macht einfach folgendes: Mipmapping aus + 8x Aniso + möglichst hohes Supersampling FSAA (falls verfügbar) und eine möglichst hohe Auflösung von 1600x1200 oder höher. Das gibt dann den ultimativen Schärfeoverkill. SO sollte Spielegrafik aussehen :) Und mit dem ultimativen Anisotropischen Filter würde sie das auch fast!

aths
2002-06-03, 10:45:15
pervert,

wenn Spiel und Treiber vernünftig eingestellt sind, flimmert *nichts*. Egal ob mit oder ohne AF, hauptsache es findet MIP-Mapping statt (und der bilineare Filter wird angewendet.) Der anisotrope Filter verschiebt das LOD nur dort, wo nötig. Nur bei schrägen Polygonen! Und bei sagen wir 768 Zeilen bringt es dir *gar nichts*, eine 2048-er Textur zu haben. Bildschirmfüllende 2048-er Texturen würden auch noch in 1600x1200 flimmern.

Übrigens ist es lächerlich, einem bekannten Experten wie Xmas mit "Nochmal erklär ich es nicht. Ich dachte eigentlich dass das sonnenklar wäre." zu kommen. Ungeachtet der Person möchte ich dich eindringlich bitten, jedem im Forum mit der gebührenden Höflichkeit zu begegnen.

MadManniMan
2002-06-03, 23:35:25
hm... mipmapping is für milchtrinker!

also in meinem lieblingstexturenkracher Ultima9(dank aths hilfe und eigener experimentierfreudigkeit arg flüssig!) gibts grundsätzlich kein mipmapping

persönlich spiele ich in 1024/32*2(vertikal) ohne mips

hier mal zum vergleich allerdings anisotropie ohne mips(links) und ohne

mit der bekanntermaßen auch qualitativ nur mäßigen anisotropie der k2 ist ein flimmern nur als gelegentliches, aber eher natürlich als störend wirkendes rauschen zu bemerken und dabei genialst aussehend. ohne aniso flimmerts allerdings wie blöde(das texelkauderwelsch rechts läßts erahnen...)

pervert
2002-06-04, 09:20:40
Originally posted by aths
pervert,

wenn Spiel und Treiber vernünftig eingestellt sind, flimmert *nichts*. Egal ob mit oder ohne AF, hauptsache es findet MIP-Mapping statt (und der bilineare Filter wird angewendet.) Der anisotrope Filter verschiebt das LOD nur dort, wo nötig. Nur bei schrägen Polygonen! Und bei sagen wir 768 Zeilen bringt es dir *gar nichts*, eine 2048-er Textur zu haben. Bildschirmfüllende 2048-er Texturen würden auch noch in 1600x1200 flimmern.

Übrigens ist es lächerlich, einem bekannten Experten wie Xmas mit "Nochmal erklär ich es nicht. Ich dachte eigentlich dass das sonnenklar wäre." zu kommen. Ungeachtet der Person möchte ich dich eindringlich bitten, jedem im Forum mit der gebührenden Höflichkeit zu begegnen. Ich hab von den 2048er Texturen gar nicht angefangen. Hat auch gar kein Spiel soweit mir bekannt ist (ich mnag mich irren). Viele Spiele verwenden z. B. für die Landschaftstexturierung häufig nur 256er Texturen!!! Darunter z. B. Wolfenstein. Bei JK2 sind es wohl auch häufig oder überwiegend 512, was verdammt gut aussieht. Es kommt übrigens auch darauf an, für welche Fläche die 2048er Textur verwendet würde. Ich gehe nicht weiter darauf ein, Du weisst hoffentlich was gemeint ist.

Und wenn XMas sich manchmal etwas "seltsam" anstellt, kann er Experte sein wie er will, dann kriegt er seine Schelte :) Ich denke es war für "Experten" eingentlich unnötig, dass ich zweimal ausführen musste, worauf ich hinaus wollte. Jedem dem das technische Prinzip ungefähr klar ist, sollte verstanden haben was gemeint war, auch wenn meine Ausführungen vielleicht manchmal etwas unglücklich formuliert sind. Ich will Xmas hier keine Kentnisse absprechen, er sollte nur erst lesen, dann flamen.

Okay, genug Schlagabtausch hier. Werde mich jetzt wieder ne Weile ums Zocken als ums Streiten kümmern :) Nichts für ungut Xmas und aths.

Xmas
2002-06-04, 14:54:24
pervert, ich weiß immer noch nicht worauf du hinauswillst...
Du hast einerseits von größeren Texturen, andererseits von AF gesprochen. Aber wo ist der Zusammenhang?

Größere Texturen bewirken nur eine Veränderung im "Nahbereich", also wenn man so nahe an die "kleineren" Texturen rankommt dass sie aufpixeln, wenn jeder Texel größer als ein Pixel wird.

Anisotropes Filtern hingegen macht sich erst im "Fernbereich" bemerkbar, also dort wo die Mipmaps schon an Detail verlieren und unscharf werden. Im "Nahbereich" und bei Flächen die annähernd senkrecht zum Sichtvektor stehen sieht man praktisch keinen Unterschied.

aths
2002-06-04, 16:23:12
pervert, Xmas hat nicht geflamt. Die Sache war so, dass du Unsinn erzählt hattest, und anschließend Xmas' Ausführungen nicht verstanden hast.

pervert
2002-06-04, 23:49:57
Originally posted by aths
pervert, Xmas hat nicht geflamt. Die Sache war so, dass du Unsinn erzählt hattest, und anschließend Xmas' Ausführungen nicht verstanden hast.

@aths
Aha, ich habe Unsinn erzählt :madman: !!! Und Du kannst natürlich auch noch beurteilen, dass ich XMas Ausführungen nicht verstanden habe. Habe vergessen, Du bist ja dein eigener Gott und allwissend (DAS hast DU jetzt nicht verstanden!). Vielleicht hast DU es nur nicht gerafft, deshalb war es Unsinn, was ich schrieb. Okay, wenn einer so offensiv wird, endet für mich die Diskussion. Kann halt nichts dafür, dass Ihr mich nicht versteht. Vergesst es. Es reicht mir.

@xmas
Ich habe nichts anderes Behauptet. Dumm nur, dass Nah- und Fernbereich nunmal Auflösungsabhängig sind. Niedrige Auflösung = erste Mipmap supernah, hohe Auflösung = erste Mipmap weiter weg. AF an = LOD verschoben = Mipmaps NOCH WEITER weg. Zumindest wenn man hier mal von den überwiegend schrägen Flächen spricht, um die es nunmal meistens geht, wenn man von Pixelflimmern und Unschärfe redet: Bodentexturen etc. Soll ich vielleicht noch Screenshots anfertigen ??? ??? ??? Mach ich nicht!

Wäre vielleicht mal eine Überlegung wert ob ich Scheiße schreibe, oder ob mancher einfach nur unfähig ist richtig zu lesen. Okay, das wars jetzt aber. Ich hab die Nase voll von diesen Shit-postings. Sinniert alleine über meine unglaublich unverständlichen Zeilen weiter. Für mich ist dieser Thread beendet.

Goodbye.

MadManniMan
2002-06-04, 23:58:34
yesterday... all that trouble seemed so far away! now it looks as though its here to stay, oh i believe in yesterday...

suddenly... some have lost theirs ... äh ... männlichkeit! smells like andauernden stinky streit, oh yesterday came suddenly...

why... it... had to happen? dunno! they wouldnt say...
one... said... something wrong now they long for yesterday-ay-ay-ay...


leute, trinkt bier.

Unregistered
2002-06-05, 01:02:51
Originally posted by pervert


Wäre vielleicht mal eine Überlegung wert ob ich Scheiße schreibe, oder ob mancher einfach nur unfähig ist richtig zu lesen. Okay, das wars jetzt aber. Ich hab die Nase voll von diesen Shit-postings. Sinniert alleine über meine unglaublich unverständlichen Zeilen weiter. Für mich ist dieser Thread beendet.

Goodbye.

Was auch eine Überlegung wert wäre: Ob man nicht mal den Ton ändert... Vielleicht hören dann auch mehr Leute genau hin! Man kann zwar recht haben, aber wenn man dem anderen erst vors Schienbein tritt, dann hört der wohl schwerlich noch hin! Ich finde es auch nicht richtig, wenn aths dir Unsinn unterstellt (meines Erachtens liegen nur Missverständnisse vor, bzw. die "Profis" wollen nicht folgen wollen ;), aber deine Art ist auch nicht gerade versöhnlich und öfter mal beleidigend.

Niemand ist pelfekt, also immel schön flöhlich bleiben und nicht gleich mullen und knullen! ;) Lechne immel mit die Blödheit von del andelen, liebel noch mal nachflagen und nicht gleich beleidigen..:finger:

Xmas
2002-06-05, 01:30:02
???
Was hat er denn für ein Problem?
Warum AF bei großen Texturen wichtiger sein soll weiß ich jetzt aber immer noch nicht... werds wohl auch nicht mehr erfahren.

pervert
2002-06-05, 13:18:08
Die Geschichte wurde per PM geklärt und wir sind uns nun einig :)

Piffan
2002-06-05, 19:29:22
Originally posted by pervert
Die Geschichte wurde per PM geklärt und wir sind uns nun einig :)

Nun hellscht Fliede, Fleude und Eielkuchen! ;)

aths
2002-06-05, 23:35:44
Der Thread bringt mich auf eine neue Idee :)