aths
2002-04-14, 19:29:08
Warnung: Dieses Preview bemüht sich gar nicht erst um Objektivität. Sobald ich nicht von reinen technischen Parametern rede, handelt es sich jeweils um meine persönliche, subjektive Sicht.
Kurz-Preview GeForce4 Ti4600 (von Leadtek)
Zunächst ein paar Statements. Dann gehe ich auf einige Bereiche konkret ein, und nenne Vorteile und Nachteile der aktuellen High-End-GeForce.
- Also, die Karte ist ein Biest. (Getaktet auf 300 / 357 DDR)
- Der komplexeste und schnellste 3D-Chip, den es aktuell im Consumer Markt gibt.
- Schon sehr gute Bildqualität mit nur wenigen entsprechenden Verbesserungen (2x AF, 2x AA)
- Im Gegensatz zur GeForce2 - im Rohbetrieb (kein AF, kein AA) nicht mehr bandbreitenlimitiert.
Bildqualität 1 (Anisotroper Filter)
Kurz und knapp: Ich bin begeistert. Schon 2x AF bringt erhebliche Qualitätsvorteile bei Texturen. 8x frisst zwar ca. 40-50% der Leistung - aber die hat man bei heutigen Spielen problemlos noch über. Ich werde immer mindestens mit 2x AF spielen - es sieht einfach deutlich besser aus als nur trilinear gefiltert. Und wenn wir von 8x AF sprechen - solch gute AF-Qualität habe ich bislang noch auf keiner Radeon gesehen. Diese mag in bestimmten Situationen bei bestimmten Winkeln noch schärfere Texturen liefern - in anderen Situationen werden diese dann aber unscharf. Sowas passiert auf der GeForce3 oder 4 aber nicht.
Fazit: Top! Einschränkung: Der im Vergleich zur GeForce3 größere Performance-Einbruch ist uneinsichtig.
Bildqualität 2 (Anti-Aliasing)
Das GeForce3/4 Multisampling ist Fluch und Segen zugleich. Zunächst die Segnung: Man kann 2x FSAA zuschalten und büßt kaum Leistung ein. (Gilt für GeForce4. Der Performance-Verlust auf einer GF3 ist größer, aber in aller Regel ebenfalls verschmerzbar.) Das Bild gewinnt beträchtlich an Qualität. Das geht so weit, dass man alles, alles was man je spielen wird, mit FSAA spielt. Und wenn es doch leistungsmäßig zu eng werden sollte (was bei dem auf der Ti4600 recht geringem Einbruch aber kaum geschehen wird) so lohnt es sich, die Auflösung eine Stufe herunter zu setzen. Diese Karte hat man, um FSAA gar nicht mehr abzuschalten.
Nun glättet Multisampling natürlich keine Texturen. Bei Serious Sam und anderen Spielen sind aber z.B. Baumblätter bzw.herab hängende Lianen usw. als Texturen dargestellt. Das gleiche gilt on der Regel auch für Gitter in Fenstern (Unreal) usw. Auf diese (Texturen!) wirkt Multisampling nicht, so dass man weiterhin "Grissel-Effekte" sieht. Da bleiben zwei Auswege: 1) Auflösung (sehr) hoch stellen. 2) Den 4xS Modus (von nVidia im neuen Detonator fälschlicherweise "6x" genannt) nutzen. Dieser ist leider nur in D3D verfügbar.
Ich finde es verdammt schade, dass nVidia nicht zusätzlich reines Supersampling anbietet. Bei Serious Sam usw. wäre noch genügend Power vorhanden. Natürlich frisst Supersampling erheblich Leistung. Was aber für mich zählt, ist Qualität. Beim anisotropen Filter sieht man ja, dass man für einige Dinge eben in Form erheblichen Performance-Einbruchs "zahlen" muss. Das 2xFSAA ist auf der GeForce4 extrem schnell und in vielen Fällen sehr gut. Bei problematischen Alpha-Texturen jedoch treten die Schattenseiten des Multisamplings zutage.
Fazit: In den meisten Spielen bekommt man deutlich glättere Kanten fast umsonst. Damit ist diese Karte einzigartig. Doch Supersampling-Verwöhnte werden in bestimmten Spielen auch die Nachteile sehen.
Bildqualität 3 (16 vs. 32 Bit)
Um es auf gut deutsch zu sagen: In 3D sieht das 16-Bit-Bild zum kotzen aus. Das ist Ekel erregend, was einem da angeboten wird. Da bin ich ja von einer Voodoo1 ein besseres Bild gewöhnt, von Banshee oder Voodoo4 mal ganz zu schweigen. Glück im Unglück: Man kann mit dieser Karte problemlos alles in 32 Bit spielen. Dennoch enttäuschend, dass man für das viele Geld in 16 Bit nichts besseres geboten bekommt.
Im 32-Bit-Modus kann man in bestimmten Quake3-Leveln, die Nebel enthalten, bereits Color Banding sehen. Ich weiss nicht, ob das durch die Engine bedingt ist, oder hier schon die 32-Bit-Präzision an ihre Grenzen stößt.
Fazit: Unglaublich, was einem in 16 Bit für ein mieses Bild geboten wird. Dafür performt die Karte in 32 Bit exzellent, so dass man 16 Bit niemals nutzen wird.
edit: Ergänzung: Ganz so schlimm ist es, zumindest bei "normalen" Szenen, nun auch wieder nicht. Man sollte bedenken dass ich jahrelang durch Voodoo mit 22-Bit-Postfilter verwöhnt wurde. Ebenso rastert Voodoo gleichmäßiger, ohne Block-Artefakte.
Bildqualität 4 (Texturkompression)
Wiederum bin ich von der Voodoo deutlich (!) besseres gewöhnt. Die GeForce4 dithert in DXT1 irgendwelche Muster rein, sowas muss man gesehen haben - oder lieber nicht. Glück im Unglück: Mit dieser Karte wird Texturkompression als Geschwindigkeitsbringer überflüssig. Wird S3TC genutzt, um High-Res-Texturen zu verwenden, scheint die Qualität brauchbar zu sein. (Noch nicht persönlich getestet, hier verlasse ich mich auf Screenshots.)
Fazit: nVidia hat nichts gelernt. Anstatt zusätzlich das lizenzfreie FXT1 zu integrieren, haben sie den bisherigen S3TC-Bug verschlimmbessert.
Bildqualität 5 (2D, Windows)
Das Bild ist verdammt scharf. Ich glaube, noch einen Zacken schärfer als die Voodoo4. Allerdings habe ich die Farben etwas "wärmer" in Erinnerung, aber da kann man ja am Monitor die so genannte "Farb-Temperatur" nachregeln.
Fazit: Das Signal ist so, wie es sein sollte.
Treiberqualität
So sorglos wie von einigen angepriesen ist der Detonator leider nicht. Folgende Probleme traten bislang auf:
- NFS5: Spiel bleibt beim Lade-Bildschirm stehen.
- NFS5 Demo: Geht in die 3D-Grafik. Aber die Maus setzt hin und wieder aus (man ist dann in den Menüs "bewegungsunfähig") - und es kann zwischendurch im Rennen vorkommen, dass das Bild einen Momen stehen bleibt.
- Unreal Tournament: D3D: Beim Startbild Fehler (Streifen im Bild) wenn Anti-Aliasing aktiv. OpenGL: Läuft nicht (Fallback auf UT-Software Engine)
- Diablo2: Läuft nicht in der Installations-Version (muss erst gepatcht werden)
- PowerVR-Demo "D3DWheel": Im HW T&L Modus zunächst keine Hintergrund-Textur (läuft plötzlich korrekt)
- PowerVR-Demo "D3DHouse": Das Haus in der Mitte ist partout nicht zu sehen (nur über RGB-Emulation, also Software-Rendering)
- PowerVR-Demo "D3DDragonFly": Das Hintergrundbild fehlt einfach.
Fazit: Quake3 läuft einfach abartig gut. Doch die Optimierungen scheinen einseitig. Mit allen oben genannten Sachen gabs bei den 3dfx-Treibern keinerlei Probleme. Trotz der kurzen Zeit mit der GeForce so halte ich die nVidia-Treiber für mein Spiele-Portfolio schon jetzt für weniger gut als die von 3dfx. Ebenfalls stört die umständliche Handhabung mit den Optionen. Einerseits kann man kaum was einstellen, andererseits ist es nur mit etlichen Klicks zu erreichen. Da war ich von 3dfx wieder einmal besseres gewöhnt. Andererseits konnte man jene Treiber nur in Win98 vernünftig nutzen. Der Detonator hingegen läuft offenbar auch in Windows2000 mit voller Performance und vollen Features.
Featureset 1 (Pixelshader)
Die nVidia Tidepool Demo zeigt, dass PixelShader 1.3 was bringen - und da wurde lediglich ein Teil des erweiterten Befehlssatzes genutzt! Ich bin vom Können der Karte schwer beeindruckt. Das wird zwar wahrscheinlich so ziemlich die einzige Serie sein, die Pixelshader 1.3 bietet (unter Umständen kommt noch SiS mit einer PS.1.3-Karte auf den Markt) - allerdings wird die GF4 Ti mindestens im Herbst, vermutlich aber auch noch im Frühjahr 2003 verkauft werden - mindestens. Es bleibt zu hoffen, dass zukünftige DX8-Games nicht nur Pixelshader 1.1 oder 1.4, sondern auch 1.3 nutzen - es lohnt sich. Die Pixelshader-Performance scheint ebenfalls sehr gut zu sein: Die Demos im DX8.1 SDK laufen bei PixelShader-Effekten durchaus mit 950 fps ("BumpEarth")
Fazit: Wow! Die Konkurrenz ist mit 6 Texturen pro Pass zwar weiter und kann natürlich auch alles, was der PixelShader 1.3 beherrscht - doch dass nVidia die Pipelines verbesserte, kann man ihnen nur positiv anrechnen. Jetzt müssen lediglich noch die Spieleprogrammierer überzeugt werden, ihre Shader dreifach auszulegen (je für 1.1, 1.3, 1.4)
Featureset 2 (Vertexshader)
Tja, es ist der normale Vertexshader 1.1 integriert. Intern ist er doppelt ausgelegt, was bedeutet, dass er sehr schnell ist. Die Frage nur: Wozu? So viel Eckpunkte wie die GeForce4 Ti transformieren kann, kann eine CPU gar nicht liefern. Die Antwort ist klar: Bei mehreren Lichtquellen, wo die Hardware-T&L-Leistung bekanntlich sehr stark zurück geht, bietet die GeForce4 Ti nun genügend Power. (Die Radeon8500 braucht sich übrigens ebenfalls nicht verstecken.)
Fazit: Power durch rohen Silizium-Einsatz. Sorgt für beeindruckende theoretische Werte. Na wenigstens wird die T&L-Einheit hier garantiert nicht mehr zur Bremse (wie z.B. beim GeForce256) wenn die CPUs moderner werden.
Performance
Befeuert durch einen Pentium4 Northwood mit 1.8 Gigahertz dreht die GeForce4 Ti4600 bei mir natürlich richtig auf - und dabei ist sie noch CPU-limitiert. Hier muss man sich fragen, warum man überhaupt eine so teure Karte kaufen soll. Bis 2.4 GHz - und wahrscheinlich noch darüber hinaus - lässt sich der 3DMark-Score steigern. Allerdings testet dieser ja ohne Anti-Aliasing und anisotropen Filter. Schaltet man beides ein, reicht wohl auch ein P4 1.6 (oder eine vergleichbare CPU von AMD) um aus der Karte das letzte herauszuholen. Um die GeForce4 Ti4600 sinnvoll zu nutzen, sollte es also schon eine aktuelle CPU sein. Absolutes Highend scheint jedoch nicht nötig.
Max Payne mit nur 2x FSAA und lediglich 4x AF = optischer Genuss. Quake basierende Games wie Fakk2 oder auch Elite Force - sie laufen natürlich anstandslos flüssig, und das bei sehr guter Grafikqualität. Das habe ich mir schon immer gewünscht!
Wenn zukünftige Games fordernder werden, braucht man nicht befürchten, auf Anti-Aliasing und anisotropen Filter verzichten zu müssen. Mag die Geschwindigkeit auch sinken - sie geht ja von einem sehr hohen Level aus. Es ist sinnlos, sich an den heute extremen Frameraten aufzugeilen - diese Karte sollte dazu verwendet werden, heutige DX7-Games mit sehr guter Qualität zu genießen. Und wenn sich DX8-Spiele durchgesetzt haben, so bietet die Karte noch immer die Hardware-Voraussetzungen, um alle Effekte bei guter Geschwindigkeit darzustellen.
Fazit
An dieser Karte werde ich noch lange Freude haben.
Kurz-Preview GeForce4 Ti4600 (von Leadtek)
Zunächst ein paar Statements. Dann gehe ich auf einige Bereiche konkret ein, und nenne Vorteile und Nachteile der aktuellen High-End-GeForce.
- Also, die Karte ist ein Biest. (Getaktet auf 300 / 357 DDR)
- Der komplexeste und schnellste 3D-Chip, den es aktuell im Consumer Markt gibt.
- Schon sehr gute Bildqualität mit nur wenigen entsprechenden Verbesserungen (2x AF, 2x AA)
- Im Gegensatz zur GeForce2 - im Rohbetrieb (kein AF, kein AA) nicht mehr bandbreitenlimitiert.
Bildqualität 1 (Anisotroper Filter)
Kurz und knapp: Ich bin begeistert. Schon 2x AF bringt erhebliche Qualitätsvorteile bei Texturen. 8x frisst zwar ca. 40-50% der Leistung - aber die hat man bei heutigen Spielen problemlos noch über. Ich werde immer mindestens mit 2x AF spielen - es sieht einfach deutlich besser aus als nur trilinear gefiltert. Und wenn wir von 8x AF sprechen - solch gute AF-Qualität habe ich bislang noch auf keiner Radeon gesehen. Diese mag in bestimmten Situationen bei bestimmten Winkeln noch schärfere Texturen liefern - in anderen Situationen werden diese dann aber unscharf. Sowas passiert auf der GeForce3 oder 4 aber nicht.
Fazit: Top! Einschränkung: Der im Vergleich zur GeForce3 größere Performance-Einbruch ist uneinsichtig.
Bildqualität 2 (Anti-Aliasing)
Das GeForce3/4 Multisampling ist Fluch und Segen zugleich. Zunächst die Segnung: Man kann 2x FSAA zuschalten und büßt kaum Leistung ein. (Gilt für GeForce4. Der Performance-Verlust auf einer GF3 ist größer, aber in aller Regel ebenfalls verschmerzbar.) Das Bild gewinnt beträchtlich an Qualität. Das geht so weit, dass man alles, alles was man je spielen wird, mit FSAA spielt. Und wenn es doch leistungsmäßig zu eng werden sollte (was bei dem auf der Ti4600 recht geringem Einbruch aber kaum geschehen wird) so lohnt es sich, die Auflösung eine Stufe herunter zu setzen. Diese Karte hat man, um FSAA gar nicht mehr abzuschalten.
Nun glättet Multisampling natürlich keine Texturen. Bei Serious Sam und anderen Spielen sind aber z.B. Baumblätter bzw.herab hängende Lianen usw. als Texturen dargestellt. Das gleiche gilt on der Regel auch für Gitter in Fenstern (Unreal) usw. Auf diese (Texturen!) wirkt Multisampling nicht, so dass man weiterhin "Grissel-Effekte" sieht. Da bleiben zwei Auswege: 1) Auflösung (sehr) hoch stellen. 2) Den 4xS Modus (von nVidia im neuen Detonator fälschlicherweise "6x" genannt) nutzen. Dieser ist leider nur in D3D verfügbar.
Ich finde es verdammt schade, dass nVidia nicht zusätzlich reines Supersampling anbietet. Bei Serious Sam usw. wäre noch genügend Power vorhanden. Natürlich frisst Supersampling erheblich Leistung. Was aber für mich zählt, ist Qualität. Beim anisotropen Filter sieht man ja, dass man für einige Dinge eben in Form erheblichen Performance-Einbruchs "zahlen" muss. Das 2xFSAA ist auf der GeForce4 extrem schnell und in vielen Fällen sehr gut. Bei problematischen Alpha-Texturen jedoch treten die Schattenseiten des Multisamplings zutage.
Fazit: In den meisten Spielen bekommt man deutlich glättere Kanten fast umsonst. Damit ist diese Karte einzigartig. Doch Supersampling-Verwöhnte werden in bestimmten Spielen auch die Nachteile sehen.
Bildqualität 3 (16 vs. 32 Bit)
Um es auf gut deutsch zu sagen: In 3D sieht das 16-Bit-Bild zum kotzen aus. Das ist Ekel erregend, was einem da angeboten wird. Da bin ich ja von einer Voodoo1 ein besseres Bild gewöhnt, von Banshee oder Voodoo4 mal ganz zu schweigen. Glück im Unglück: Man kann mit dieser Karte problemlos alles in 32 Bit spielen. Dennoch enttäuschend, dass man für das viele Geld in 16 Bit nichts besseres geboten bekommt.
Im 32-Bit-Modus kann man in bestimmten Quake3-Leveln, die Nebel enthalten, bereits Color Banding sehen. Ich weiss nicht, ob das durch die Engine bedingt ist, oder hier schon die 32-Bit-Präzision an ihre Grenzen stößt.
Fazit: Unglaublich, was einem in 16 Bit für ein mieses Bild geboten wird. Dafür performt die Karte in 32 Bit exzellent, so dass man 16 Bit niemals nutzen wird.
edit: Ergänzung: Ganz so schlimm ist es, zumindest bei "normalen" Szenen, nun auch wieder nicht. Man sollte bedenken dass ich jahrelang durch Voodoo mit 22-Bit-Postfilter verwöhnt wurde. Ebenso rastert Voodoo gleichmäßiger, ohne Block-Artefakte.
Bildqualität 4 (Texturkompression)
Wiederum bin ich von der Voodoo deutlich (!) besseres gewöhnt. Die GeForce4 dithert in DXT1 irgendwelche Muster rein, sowas muss man gesehen haben - oder lieber nicht. Glück im Unglück: Mit dieser Karte wird Texturkompression als Geschwindigkeitsbringer überflüssig. Wird S3TC genutzt, um High-Res-Texturen zu verwenden, scheint die Qualität brauchbar zu sein. (Noch nicht persönlich getestet, hier verlasse ich mich auf Screenshots.)
Fazit: nVidia hat nichts gelernt. Anstatt zusätzlich das lizenzfreie FXT1 zu integrieren, haben sie den bisherigen S3TC-Bug verschlimmbessert.
Bildqualität 5 (2D, Windows)
Das Bild ist verdammt scharf. Ich glaube, noch einen Zacken schärfer als die Voodoo4. Allerdings habe ich die Farben etwas "wärmer" in Erinnerung, aber da kann man ja am Monitor die so genannte "Farb-Temperatur" nachregeln.
Fazit: Das Signal ist so, wie es sein sollte.
Treiberqualität
So sorglos wie von einigen angepriesen ist der Detonator leider nicht. Folgende Probleme traten bislang auf:
- NFS5: Spiel bleibt beim Lade-Bildschirm stehen.
- NFS5 Demo: Geht in die 3D-Grafik. Aber die Maus setzt hin und wieder aus (man ist dann in den Menüs "bewegungsunfähig") - und es kann zwischendurch im Rennen vorkommen, dass das Bild einen Momen stehen bleibt.
- Unreal Tournament: D3D: Beim Startbild Fehler (Streifen im Bild) wenn Anti-Aliasing aktiv. OpenGL: Läuft nicht (Fallback auf UT-Software Engine)
- Diablo2: Läuft nicht in der Installations-Version (muss erst gepatcht werden)
- PowerVR-Demo "D3DWheel": Im HW T&L Modus zunächst keine Hintergrund-Textur (läuft plötzlich korrekt)
- PowerVR-Demo "D3DHouse": Das Haus in der Mitte ist partout nicht zu sehen (nur über RGB-Emulation, also Software-Rendering)
- PowerVR-Demo "D3DDragonFly": Das Hintergrundbild fehlt einfach.
Fazit: Quake3 läuft einfach abartig gut. Doch die Optimierungen scheinen einseitig. Mit allen oben genannten Sachen gabs bei den 3dfx-Treibern keinerlei Probleme. Trotz der kurzen Zeit mit der GeForce so halte ich die nVidia-Treiber für mein Spiele-Portfolio schon jetzt für weniger gut als die von 3dfx. Ebenfalls stört die umständliche Handhabung mit den Optionen. Einerseits kann man kaum was einstellen, andererseits ist es nur mit etlichen Klicks zu erreichen. Da war ich von 3dfx wieder einmal besseres gewöhnt. Andererseits konnte man jene Treiber nur in Win98 vernünftig nutzen. Der Detonator hingegen läuft offenbar auch in Windows2000 mit voller Performance und vollen Features.
Featureset 1 (Pixelshader)
Die nVidia Tidepool Demo zeigt, dass PixelShader 1.3 was bringen - und da wurde lediglich ein Teil des erweiterten Befehlssatzes genutzt! Ich bin vom Können der Karte schwer beeindruckt. Das wird zwar wahrscheinlich so ziemlich die einzige Serie sein, die Pixelshader 1.3 bietet (unter Umständen kommt noch SiS mit einer PS.1.3-Karte auf den Markt) - allerdings wird die GF4 Ti mindestens im Herbst, vermutlich aber auch noch im Frühjahr 2003 verkauft werden - mindestens. Es bleibt zu hoffen, dass zukünftige DX8-Games nicht nur Pixelshader 1.1 oder 1.4, sondern auch 1.3 nutzen - es lohnt sich. Die Pixelshader-Performance scheint ebenfalls sehr gut zu sein: Die Demos im DX8.1 SDK laufen bei PixelShader-Effekten durchaus mit 950 fps ("BumpEarth")
Fazit: Wow! Die Konkurrenz ist mit 6 Texturen pro Pass zwar weiter und kann natürlich auch alles, was der PixelShader 1.3 beherrscht - doch dass nVidia die Pipelines verbesserte, kann man ihnen nur positiv anrechnen. Jetzt müssen lediglich noch die Spieleprogrammierer überzeugt werden, ihre Shader dreifach auszulegen (je für 1.1, 1.3, 1.4)
Featureset 2 (Vertexshader)
Tja, es ist der normale Vertexshader 1.1 integriert. Intern ist er doppelt ausgelegt, was bedeutet, dass er sehr schnell ist. Die Frage nur: Wozu? So viel Eckpunkte wie die GeForce4 Ti transformieren kann, kann eine CPU gar nicht liefern. Die Antwort ist klar: Bei mehreren Lichtquellen, wo die Hardware-T&L-Leistung bekanntlich sehr stark zurück geht, bietet die GeForce4 Ti nun genügend Power. (Die Radeon8500 braucht sich übrigens ebenfalls nicht verstecken.)
Fazit: Power durch rohen Silizium-Einsatz. Sorgt für beeindruckende theoretische Werte. Na wenigstens wird die T&L-Einheit hier garantiert nicht mehr zur Bremse (wie z.B. beim GeForce256) wenn die CPUs moderner werden.
Performance
Befeuert durch einen Pentium4 Northwood mit 1.8 Gigahertz dreht die GeForce4 Ti4600 bei mir natürlich richtig auf - und dabei ist sie noch CPU-limitiert. Hier muss man sich fragen, warum man überhaupt eine so teure Karte kaufen soll. Bis 2.4 GHz - und wahrscheinlich noch darüber hinaus - lässt sich der 3DMark-Score steigern. Allerdings testet dieser ja ohne Anti-Aliasing und anisotropen Filter. Schaltet man beides ein, reicht wohl auch ein P4 1.6 (oder eine vergleichbare CPU von AMD) um aus der Karte das letzte herauszuholen. Um die GeForce4 Ti4600 sinnvoll zu nutzen, sollte es also schon eine aktuelle CPU sein. Absolutes Highend scheint jedoch nicht nötig.
Max Payne mit nur 2x FSAA und lediglich 4x AF = optischer Genuss. Quake basierende Games wie Fakk2 oder auch Elite Force - sie laufen natürlich anstandslos flüssig, und das bei sehr guter Grafikqualität. Das habe ich mir schon immer gewünscht!
Wenn zukünftige Games fordernder werden, braucht man nicht befürchten, auf Anti-Aliasing und anisotropen Filter verzichten zu müssen. Mag die Geschwindigkeit auch sinken - sie geht ja von einem sehr hohen Level aus. Es ist sinnlos, sich an den heute extremen Frameraten aufzugeilen - diese Karte sollte dazu verwendet werden, heutige DX7-Games mit sehr guter Qualität zu genießen. Und wenn sich DX8-Spiele durchgesetzt haben, so bietet die Karte noch immer die Hardware-Voraussetzungen, um alle Effekte bei guter Geschwindigkeit darzustellen.
Fazit
An dieser Karte werde ich noch lange Freude haben.