PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zum Artikel "DirectX8 Grafikchips Roundup"


Leonidas
2002-08-10, 21:45:42
http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/



Anmerkungen aller Art sind erbeten. Zum einen zur Fehlerkorrektur des jetzigen Artikels - auch auch dazu, wie das Roundup II ausssehen soll.

Note: CPU-Skalierungstests werden wenn dann nur in einem extra Test erfolgen, niemals in einem allgemeinen Test wie dem Roundup. Wenn, dann ziehe ich alles über die 10 Benchmarks durch und mache nicht nur ein paar Beispielmessungen. Für solch intensive Tests benötigt es aber dann zwangsläufig einen extra Artikel, ansonsten werden jene zu lang.




edit 11.8. / 00:45
letzte Seite "... es werden dort dann die Werte von Radeon 8500 (LE) 128 MB, GeForce3 Ti200/Ti500 128 MB ..."
-> Unsinn, natürlich nicht die GeForce3 Ti200/Ti500 mit 128 MB, da zu selten im Einsatz und nicht mehr hergestellt, sondern die GeForce4 Ti4200 mit 64 MB natürlich

geforce
2002-08-10, 23:41:05
Lob zu dem Review, super gemacht, werde es mir ausdrucken und komplett durchlesen. Einfach nur gute Arbeit! ;)

Quasar
2002-08-10, 23:44:19
Ja, ist wirklich nett geworden.

Was ich schade finde ist zweierlei:

1) Nur eine Auflösung wurde getestet. Aber natürlich ist mit der enorme Zeitaufwand bewusst, den nur eine einzige weitere bedeuetet hätte.

2) Bei den Settings hätte mich auch die Parhelia mit 4xSS interessiert, sowie Parhelia mit 16xFAA/2xAF. Da es zwischen nV und ATi eh nur eine Approximation geben konnte, hätte man diese auch bei Matrox akzeptieren können, imo.


Ansonsten, wie gesagt: Respekt für den Riesenaufwand, den ihr betrieben habt und das feine Ergebnis, was dabei rausgekommen ist.

mapel110
2002-08-10, 23:45:37
habs gelesen. super artikel.

schade nur, dass die radeon 8500 mit 64 mb gegen die 128mb geforce4-serie antreten musste. das verzerrt das bild denke ich schon.
vor allem 4xAA-tests sollten doch vom mehrspeicher profitieren, oder ?

StefanV
2002-08-10, 23:48:07
hab gerad keine Lust den Artikel ganz zu lesen, aber in der Tabelle fehlt beim 8500 die 8500LELE, 230MHz Core und ab 183MHz RAM, also sehr lahm, dafür aber schon teilweise passiv gekühlt...

Rein der Vollständigkeit halber, im Laden hab ich eine LELE hier noch nicht gesehen...

Iceman346
2002-08-10, 23:48:08
Die Beschränkung auf 1024 find ich schon ok, das sollte die meißtbenutzte Auflösung sein und imo sind die anderen Auflösungen nicht wichtig genug um den ungeheuren Mehraufwand aufzuwiegen.

Was mich (auch als Radeon Besitzer ;)) teilweise erschreckt ist die desolate Grundleistung der Karte in manchen Spielen (RTCW, Serious Sam(gut das ich die nicht spiele ;))). Ich verstehe nicht was die Karte dort so beschränkt. Das die Radeon unter FSAA keinen Blumentopf gewinnen würde war klar.

Alles in allem ein interessantes Review, bitte mehr davon ;)

cube
2002-08-11, 00:11:43
Großes Kompliment.
Ich finde speziell sehr gut ...
... dass zu jedem Benchmark in der jeweiligen Einstellung ein Kommentar gegeben wird.
... Die Einteilung in die verschieden "Flüssigkeitsstufen", welches die Leistung der Chips imho klarer darstellt, als nackte Zahlen.
... Die Einstellung 2x AA und 4x Aniso, die für mich in den meisten Spielen den besten Kompromiss aus Leistung und Qualität darstellt.
... Das Fazit, das kurz und bündig Darstellungsqualität, Features ,
Preise und ausführlich die Performance darstellt.
... Die Beschränkung der Auflösung, auf 1024x768 aus, von dir, angeführten Gründen.

Ich finde nicht so gut, dass zumindest auf den ersten Blick in dem Linkteil zu anderen Tests, die Roundups, die ähnlich deinem Test sind, nicht herausgestrichen werden.

Ich freue mich schon sehr auf den zweiten Test und fände es gut, falls es die R9700 noch in denselbigen schafft, wenn diese in noch höheren Settings getestet wird, weil sie ja wahrscheinlich die meisten Benches auch mit den höchsten Settings flüssig darstellen kann. (Natürlich nur unter der Bedingung, dass sie es kann)

Gohan
2002-08-11, 00:37:29
Nur schade das so viele Tests durch das fehlen des AF der Parhelia und des AA und Auflösungs Bug der Radeon noch unvollständig sind.

Ansonsten super gemacht, auch wenn das Testsystem keine "alltägliche" Umgebung darstellt.

Priest
2002-08-11, 00:41:54
Super Artikel! Schade nur dass die GF4 Ti 4200 64 MB gefehlt hat. Der Artikel hätte helfen können, etws Licht in die 128 MB Frage bei gegenwärtigen Spielen zu bringen. Betrachte ich jedoch die Ergebnisse der GF 3 TI 500 mit 64 MB, so scheint ein höherer Takt wichtiger als zusätzliche 64 MB auch bei AA und AF.

Cu P.

MegaManX4
2002-08-11, 00:46:56
Wirklich ein gut gemachtes Review. Ich habe noch nie ein derart ausführliches gesehen. Klasse Arbeit und ich freue mich schon auf den zweiten Teil.


Thomas

Leonidas
2002-08-11, 00:50:19
Originally posted by Quasar
Ja, ist wirklich nett geworden.

Was ich schade finde ist zweierlei:

1) Nur eine Auflösung wurde getestet.



Bei der Radeon 9700 / NV30 gehen wir höchstwahrscheinlich wieder mit mehreren heran.

Mot
2002-08-11, 00:50:32
Super gemacht, großen Dank an 3DC :D

Was ich mir für Teil II wünsche:
Radeon 128MB, GF4 TI 4200 64MB, Xabre 400, evtl. Radeon 9700 und Trident XP4. Ansonsten natürlich das die Parhelia in jedem Test starten kann, was aber ja nicht von dir/euch abhängt.

Leonidas
2002-08-11, 00:53:45
Originally posted by Quasar
2) Bei den Settings hätte mich auch die Parhelia mit 4xSS interessiert,





Haben wir schon im Parhelia-Review im Nebensatzes fallen lassen: desaströse Werte.

1024x768x32 4xSSAA Parhelia

26,1 Giants
15,4 AN
14,8 MP
18,3 SS:TSE
23,9 U9
39,7 UT
31,1 Z2
18,6 DS
13,7 C4
RTCW: System hängt sich auf

Leonidas
2002-08-11, 00:55:06
Originally posted by Quasar
sowie Parhelia mit 16xFAA/2xAF. Da es zwischen nV und ATi eh nur eine Approximation geben konnte, hätte man diese auch bei Matrox akzeptieren können, imo.




:-)))))

Ich weiss. Auf diese richtige Idee bin ich erst gekommen, als die Parhelia schon wieder bei Matrox war. Möglicherweise im nächsten Test.

Leonidas
2002-08-11, 00:57:02
Originally posted by mapel110
habs gelesen. super artikel.

schade nur, dass die radeon 8500 mit 64 mb gegen die 128mb geforce4-serie antreten musste. das verzerrt das bild denke ich schon.
vor allem 4xAA-tests sollten doch vom mehrspeicher profitieren, oder ?


Ich hab nicht beliebig viele gfx bei mir rumliegen. Im nächsten Test kommen dann auch die 128 MB Versionen der R8500. Unter 1024x768 holen diese aber im besten Fall auch nur 10% - erst unter den ganz großen Auflösungen bringen die es.

Allerdings sind die 128 MB gfx durchaus luxeriöser. Damit meine ich die Beenden-Zeiten bei neueren Spielen. Bei 128 MB gfx geht dies ganz fix, während 64 MB gfx durchaus ein paar Sekunden und die GeForce3-Serie dafür sogar regelrecht lange braucht.

Leonidas
2002-08-11, 00:58:12
Originally posted by Stefan Payne
hab gerad keine Lust den Artikel ganz zu lesen, aber in der Tabelle fehlt beim 8500 die 8500LELE, 230MHz Core und ab 183MHz RAM, also sehr lahm, dafür aber schon teilweise passiv gekühlt...

Rein der Vollständigkeit halber, im Laden hab ich eine LELE hier noch nicht gesehen...



Mmh. Ist nur so eine halboffizielle Variante, die zudem in Europa nicht vorhanden ist. Die Taktfrequenzen schwanken zudem - muß man nicht unbedingt erwähnen, denke ich.

Leonidas
2002-08-11, 00:59:23
Originally posted by cube

Ich finde nicht so gut, dass zumindest auf den ersten Blick in dem Linkteil zu anderen Tests, die Roundups, die ähnlich deinem Test sind, nicht herausgestrichen werden.




Mmh. Danach bin ich nicht gegangen. Ich hab einfach ein paar der sinnvolleren Artikel zum Thema gesucht.

Leonidas
2002-08-11, 01:00:40
Originally posted by Priest
Super Artikel! Schade nur dass die GF4 Ti 4200 64 MB gefehlt hat. Der Artikel hätte helfen können, etws Licht in die 128 MB Frage bei gegenwärtigen Spielen zu bringen. Betrachte ich jedoch die Ergebnisse der GF 3 TI 500 mit 64 MB, so scheint ein höherer Takt wichtiger als zusätzliche 64 MB auch bei AA und AF.

Cu P.



Die Frage wird der 2. Teil zumindestens bei der R8500 beantworten. Bei der GeForce4 Ti4200 und deren 64 MB und 128 MB Ausführungen sollte man immer einrechnen, daß diese einen anderen Speichertakt (64 MB: 250, 128 MB: niedriger, nur 222) haben.

Leonidas
2002-08-11, 01:02:42
Originally posted by Mot
Super gemacht, großen Dank an 3DC :D

Was ich mir für Teil II wünsche:
... und Trident XP4.



An den hab ich noch gar nicht gedacht, aber es stimmt: Der wäre interessant. Mal schauen, wie schnell es hierzu Testkarten gibt. Trident muß aber wohl erstmal überhaupt Boardhersteller finden - Boardhersteller, welche es sich leisten können, sich mit ATi oder/und nVidia zu verscherzen, wenn man Trident ins Programm nimmt.

Desti
2002-08-11, 01:18:16
Schöner Artikel, fehlt nur leider nen klitzekleiner Linuxteil ;)

Leonidas
2002-08-11, 01:25:52
Originally posted by Desti
Schöner Artikel, fehlt nur leider nen klitzekleiner Linuxteil ;)


Ha! Es existiert auf meinem Testrechner bereits eine Partition, die sich "Linux" nennt (neben Win98, Win2k und WinXP-Partitionen) ... jedoch noch kein Linux. Und natürlich ist dies auch eine Frage von Aufwand und Nutzen. Und vor allem, ob ein Linux-Anfänger (ich) wirklich einen solchen Test machen kann und sollte ...

Leonidas
2002-08-11, 01:32:50
Originally posted by Gohan
auch wenn das Testsystem keine "alltägliche" Umgebung darstellt.



Das Testsystem ist IMO nur dafür da, eine gewisse Leistung zur Verfügung zu stellen - wie es das macht, ist egal. Außerdem war es für mich zum Teil sehr günstig - ansonsten hätte ich sicherlich keinen Pentium 4 und noch dazu einen Willy genommen :-).

Desti
2002-08-11, 01:34:47
Originally posted by Leonidas



Ha! Es existiert auf meinem Testrechner bereits eine Partition, die sich "Linux" nennt (neben Win98, Win2k und WinXP-Partitionen) ... jedoch noch kein Linux. Und natürlich ist dies auch eine Frage von Aufwand und Nutzen. Und vor allem, ob ein Linux-Anfänger (ich) wirklich einen solchen Test machen kann und sollte ...

Nur mut :). Wenn jede Testseite wenigsten ein paar Worte über das Thema verlieren würde, würden sicherlich mehr Hersteller endlich Linuxtreiber bereitstellen. Die Brauchbarkeit von Linux für den Desktop wird heute leider zu 100% von den Treibern bestimmt (Linux an sich ist schon lange reif dafür).

aths
2002-08-11, 01:47:33
Tja, seit Monaten wartete ich auf Leos großes Roundup, und nun ist es da. Die Warterei hat sich in jedem Fall gelohnt *Respekt zoll*

StefanV
2002-08-11, 09:31:07
Originally posted by Leonidas
Ich hab nicht beliebig viele gfx bei mir rumliegen. Im nächsten Test kommen dann auch die 128 MB Versionen der R8500. Unter 1024x768 holen diese aber im besten Fall auch nur 10% - erst unter den ganz großen Auflösungen bringen die es.


Ähm, über die 128MB Radeon haben wir vor einiger Zeit hier (http://forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=24297&highlight=Radeon) Diskutiert.

Solange du eine Radeon 8500 mit 128MB (SGRAM) hast, auf der ein BIOS drauf ist, daß Block Write unterstützt, ist sie immer mindestens 10% schneller als die 64MB SDRAM Version.
Aber wie gesagt, mehr steht in dem Thread :)
Originally posted by Leonidas
Allerdings sind die 128 MB gfx durchaus luxeriöser. Damit meine ich die Beenden-Zeiten bei neueren Spielen. Bei 128 MB gfx geht dies ganz fix, während 64 MB gfx durchaus ein paar Sekunden und die GeForce3-Serie dafür sogar regelrecht lange braucht.

Interessant...

Was du beschreibst, hört sich nach Swappen aus dem GraKa Specher auf die Auslagerungsdatei an...

StefanV
2002-08-11, 09:48:53
Jetzt hab ich ihn mir mal angetan :)

Ersteinmal die übliche Kritik:

Nur ein Intel System wurde verwendet und kein AMD System.

(bei 'nem AMD System wäre es natürlich umgekehrt :))

Leonidas
2002-08-11, 11:43:20
Originally posted by Stefan Payne
Jetzt hab ich ihn mir mal angetan :)

Ersteinmal die übliche Kritik:

Nur ein Intel System wurde verwendet und kein AMD System.

(bei 'nem AMD System wäre es natürlich umgekehrt :))



Also um des Luxus´ Willens testen wir garantiert nicht alles auf zwei verschiedenen Systemen durch. Und ein CPU-Skalierungstests wird nicht mit nur zwei Systemen gemacht. Insofern: Was sollte jetzt dieser Einwand?

Unregistered
2002-08-11, 11:43:50
Sehr interessanter, wichtiger Artikel. Gut, dass auf die Nicht-Vergleichbarkeit des falschen AF der ATi-Karten mit dem echten AF aller vernünftigen Karten hingewiesen wurde.
Eine Kleinigkeit: Bei sehr vielen Reviews stehen einleitend technische Details zu den getesteten Karten, aber leider fehlt oft der Parameter "Stromverbrauch". Es könnte nicht schaden, den Stromverbrauch der jeweiligen Karten (Idle / Volllast) anzugeben.

StefanV
2002-08-11, 11:50:59
Originally posted by Leonidas

Also um des Luxus´ Willens testen wir garantiert nicht alles auf zwei verschiedenen Systemen durch. Und ein CPU-Skalierungstests wird nicht mit nur zwei Systemen gemacht. Insofern: Was sollte jetzt dieser Einwand?

Naja, der Grund ist, daß sich die Karten anscheinend auf unterschiedlichen Systemen (AMD&Intel) unterschiedlich verhalten.

Es kann also sein, daß eine Karte auf einem AMD System schneller ist als eine andere, obwohl die beim Intel System deutlich schneller war.

Unregistered
2002-08-11, 11:55:31
sehr guter artikel finde ich

ich hätte nur gerne gewünscht dass auch ein test 2xFSAA ohne AF dabei wäre.


eine frage hab ich auch noch nicht klären können:

wurde beim GF4 unter 4xFSAA 4xS oder 4xMS verwendet???

gerade mit AF ergeben sich da schon große leistungsunterschiede

Leonidas
2002-08-11, 11:57:55
Originally posted by Unregistered
wurde beim GF4 unter 4xFSAA 4xS oder 4xMS verwendet???




Wie auf Seite 4 erklärt: 4x MS AA. Die 4xS Variante haben wir mom noch links liegen gelassen, die ist eventuell und möglicherweise ein Thema für das Roundup II.

Leonidas
2002-08-11, 11:59:06
Originally posted by Stefan Payne


Naja, der Grund ist, daß sich die Karten anscheinend auf unterschiedlichen Systemen (AMD&Intel) unterschiedlich verhalten.

Es kann also sein, daß eine Karte auf einem AMD System schneller ist als eine andere, obwohl die beim Intel System deutlich schneller war.



Selbst das kann nicht das Thema eines Artikels sein, der sich der prinzipiellen Performance von DirectX8 gfx widment. Das ist ein ganz anderes Thema, was extra betrachtet werden muß und sollte.

ow
2002-08-11, 12:05:17
Originally posted by Stefan Payne


Naja, der Grund ist, daß sich die Karten anscheinend auf unterschiedlichen Systemen (AMD&Intel) unterschiedlich verhalten.

Es kann also sein, daß eine Karte auf einem AMD System schneller ist als eine andere, obwohl die beim Intel System deutlich schneller war.

Wer behauptet das? Belege?

Unregistered
2002-08-11, 12:24:24
In dem neusten Artikel steht, es sind 10 Bit je Farbe bei der GF4-Serie mgl. Ich dachte das eben genau das, dass besooondere an dem neuen Matrox sei?! Was ist nun richtig? aaaaah

ein Farbenfreund

Xmas
2002-08-11, 12:36:28
Originally posted by Unregistered
In dem neusten Artikel steht, es sind 10 Bit je Farbe bei der GF4-Serie mgl. Ich dachte das eben genau das, dass besooondere an dem neuen Matrox sei?! Was ist nun richtig? aaaaah

ein Farbenfreund
Die GF4 hat einen 10 Bit RAMDAC, nicht aber 10 Bit pro Kanal im Framebuffer.
Diese höhere Präzision ist vor allem für die Gamma-Korrektur wichtig, außerdem entstehen durch das AA-Downsampling im RAMDAC ja aus vier 8Bit-Werten ein 10Bit-Wert

Unregistered
2002-08-11, 12:56:52
Mit den Catalysz 02.2 Treibern hätte die Radeon 8500 in den Tests besser dagestanden,aber naja trotzdem guter Artikel;)
vielleicht war ja der Test zudem Zeitpunkt des erscheinens der Treiber schon halb fertig.

Unregistered
2002-08-11, 13:30:46
Originally posted by Xmas

Die GF4 hat einen 10 Bit RAMDAC, nicht aber 10 Bit pro Kanal im Framebuffer.
Diese höhere Präzision ist vor allem für die Gamma-Korrektur wichtig, außerdem entstehen durch das AA-Downsampling im RAMDAC ja aus vier 8Bit-Werten ein 10Bit-Wert


Bitte kannst du das nochmal erklären, ich glaube du hast da was nicht verstanden. Aber erklärs mir nochmal genauer und ich sage dir ob du Recht hast...

Leonidas
2002-08-11, 13:59:52
Originally posted by Unregistered
Mit den Catalysz 02.2 Treibern hätte die Radeon 8500 in den Tests besser dagestanden,aber naja trotzdem guter Artikel;)
vielleicht war ja der Test zudem Zeitpunkt des erscheinens der Treiber schon halb fertig.


Die Benchmarks für diesen Artikel dauerten ca. 2 Wochen. Der neue Catalyst ist da leider zu spät gekommen genauso wie nVidia´s 30.82er Treiber. Ich habe mir aber sagen lassen, daß der neue ATi-Treiber nur unter den ganz hohen Auflösungen Vorteile bringt, nicht aber unter 1024x768.

MegaManX4
2002-08-11, 14:06:40
Immer diese Mecker Heinis. Wenn Leo alles machen würde, was ihr für diesen Test verlangt, würde er nie fertig werden.

Fehlt nur noch das einer einen Test unter Mac OS oder BeOS verlangt.

Thomas

Exxtreme
2002-08-11, 14:07:41
Originally posted by MegaManX4
Fehlt nur noch das einer einen Test unter Mac OS oder BeOS verlangt.

Thomas
Ach was! Ich will einen Test mit'm Amiga!
;)

Gruß
Alex

Xmas
2002-08-11, 14:19:35
Originally posted by Unregistered
Bitte kannst du das nochmal erklären, ich glaube du hast da was nicht verstanden. Aber erklärs mir nochmal genauer und ich sage dir ob du Recht hast...
Kein Problem. Und ich glaube nicht dass ich da was nicht verstanden habe ;)

Also die "normale" Variante ist:
Aus dem Framebuffer wird ein 8Bit-Wert (immer pro Kanal) ausgelesen und als Index in eine Gamma-Tabelle verwendet. Die Gamma-Tabelle besteht aus 256 8Bit-Werten. Aus dieser Tabelle wird also jetzt ein Wert gelesen, der von einem 8Bit-DAC in ein analoges Signal konvertiert wird.

Die Parhelia-Variante:
Aus dem Framebuffer wird ein 10Bit-Wert (immer pro Kanal) ausgelesen und als Index in eine Gamma-Tabelle verwendet. Die Gamma-Tabelle besteht aus 1024 10Bit-Werten. Aus dieser Tabelle wird also jetzt ein Wert gelesen, der von einem 10Bit-DAC in ein analoges Signal konvertiert wird.

Die GF4-Variante:
Aus dem Framebuffer werden
- ein 8Bit-Wert ausgelesen und um 2 Bits nach links geshiftet
- zwei 8Bit-Werte ausgelesen, addiert und die Summe um 1 Bit nach links geshiftet (2xAA)
- vier 8Bit-Werte ausgelesen und addiert (4xAA).

Das Resultat wird als Index in eine Gamma-Tabelle verwendet. Die Gamma-Tabelle besteht aus 1024 10Bit-Werten (tatsächlich reichen 1021). Aus dieser Tabelle wird also jetzt ein Wert gelesen, der von einem 10Bit-DAC in ein analoges Signal konvertiert wird.

Edit: möglicherweise wird das Shiften auch gelassen und die Gamma-Tabelle je nach AA-Modus angepasst. Aber das soll mal nur ein genereller Überblick sein.

skampi
2002-08-11, 14:48:06
OT

"suboptimal"

Leo, bitte benutze nicht immer dieses Unwort.;)

Leonidas
2002-08-11, 15:25:48
Originally posted by skampi
OT

"suboptimal"

Leo, bitte benutze nicht immer dieses Unwort.;)



Das mag ich. Man sollte bei meinen Texten doch schon des öfteren festgestellt haben, daß ich meine ganz eigene deutsche Sprache benutze ;-)

[DH]Avenger
2002-08-11, 16:21:51
"Suboptimal" ist das Lieblingswort von Unternehmensberatern um den zu beratenden Firmen durch die Blumen zu sagen dass ihre aktuellen Prozesse "scheisse" sind ;)


Zum Round-Up: Sehr ausführlich, sehr gute Präsentation der Ergebnisse (diesem Punkt zollen die meisten Sites zu wenig Aufmerksamkeit), aktuell und exakt die richtige Brise Technikbackground :)

Wie schon mehrfach genannt fehlt auch mir die 128MB der 8500er, würde zwar in Default nichts ändern, aber bei FSAA ne ganze Menge :)



Unterm Strich: beide Daumen hoch Leo :)

-|NKA|- Bibo1
2002-08-11, 16:46:22
Herrlich !
Vielen Dank für die Mühe die Du Dir gemacht hast.
Und für die Leute die meinen daß einige Karten fehlten.
Leiht ihm doch eine ! Mann kann ja nicht alles haben ;)

Gruß
Bibo1

Nasenbaer
2002-08-11, 17:13:45
Originally posted by Leonidas
Das Testsystem ist IMO nur dafür da, eine gewisse Leistung zur Verfügung zu stellen - wie es das macht, ist egal. Außerdem war es für mich zum Teil sehr günstig - ansonsten hätte ich sicherlich keinen Pentium 4 und noch dazu einen Willy genommen :-).

Ich finde das Testsystem gut. Ein Standard-System z.b. 1,2Ghz hätte die Werte aufgrund von CPU-Limitierung nur verfälscht.

Zum Rest des Artikels: Daumen hoch. ;)

Mfg Nasenbaer

Unregistered
2002-08-11, 19:26:46
Hi;

cooler Vergleich, da steckt wirklich viel Arbeit drin.

Mein Wunsch für die nächste Runde wäre : Radeon 9700PRO :D


Ja,Ja ich weiß eigentlich eine DX9-Karte (was aber keine Rolle spielt)und die Karte ist jetzt (in USA ab dem 19.8.02)erhältlich und mich würde es schon brennend interessieren wie gut die Karte bei so einer "niedrigen" Auflösung wie 1024x768 ( +AA +AF) abschneidet.

Die NV30 wird ja sehr wahrscheinlich noch einige Monate auf sich warten lassen, so dass die Vergleichsrunde NV30 <-> R300 wohl erst nach Weihnachten auf dem Programm steht. Das ist mir persönlich zu lange für einen neuen Vergleich. Die 9700PRO ist dann ja schon wieder "Schnee von gestern" und eine Runde zurück.

Bei Nvidia könnt ihr ja die neuen NV18 und NV28 zum Vergleich mit heranziehen.

Korak
2002-08-11, 20:02:33
Ich finde den Artikel auch sehr gut.

Ich hätte mir aus privaten 'Anschaffungsvorhaben' zwar noch eine Radeon 9000 Pro dazu gewünscht. Aber man kann ja nicht alles haben ;) (und die Zeit war dann wohl auch zu knap, die Karte gibts ja noch nicht so lange).

Das nur eine Auflösung getestet wurde kann man imho gut verschmerzen.

Also Daumen hoch ;)

Northman
2002-08-11, 20:25:02
Wirklich ein sehr ausführlicher Test. Hut ab...

Was mich etwas überrascht hat, ist das ganz ordentliche Abschneiden der Parhelia. Ich habe irgendwo gelesen, daß demnächst eine neue Treiberversion rauskommen soll, welche dann auch auf Performance optimiert sein soll. Mal sehen was bei rumkommt.

Anzumerken sei noch, daß die Matrox nur mit 220MHz Coretakt arbeitet, im Gegensatz zu den 300MHz der Ti4600. Wenn Matrox den Chip auch auf 300MHz bekommt, wäre der Parhelia wirklich ein Knaller.
Hat mal jemand die Ti4600 zum Vergleich auf 220Mhz runtergetaktet? ;-)))
DIe ersten Test waren doch sehr ernüchternd... Die Zeit wird zeigen, ob noch mehr in der Parhelia steckt.

Wie man im Forum von matroxusers.com lesen kann, skaliert die Parhelia fast linear mit dem Takt (zumindest im Sharkmark).
http://forums.matroxusers.com/showthread.php?threadid=34871

ow
2002-08-11, 21:55:43
Originally posted by Northman

Anzumerken sei noch, daß die Matrox nur mit 220MHz Coretakt arbeitet, im Gegensatz zu den 300MHz der Ti4600. Wenn Matrox den Chip auch auf 300MHz bekommt, wäre der Parhelia wirklich ein Knaller.
Hat mal jemand die Ti4600 zum Vergleich auf 220Mhz runtergetaktet? ;-)))


Ja, sowas haben wir:

http://www.3dcenter.org/artikel/parhelia_theoretische_benchmarks/

kaputnik
2002-08-11, 22:33:20
@LEO

mal wieder ein spitzen artikel, du lässt dich nich so leicht aufs glatteis führen wie so manche andere hardwaretester

aber zwei anmerkungen hätte ich doch noch:
1. wie du richtig festgestellt hast, kann der radeon bei AF kein trilinear mehr, sondern fällt auf bilinear zurück. da bringts auch nix, den AF hochzuschrauben, da die mipmapstufen immer noch deutlich zu sehen sind (ganz schlimm z.b. in SeSam:TSE), d.h. um die chips wirklich miteinander vergleichen zu können (von den frameraten her) müsste man bei einsatz von AF trilinear abschalten und bilinear einsetzen. ist zwar nich im sinne der bildqualität, aber ergibt zumindest vergleichbare frameraten. bildqualitätsmässig fällt der radeon ja eh hintenüber bei AF, weils halt nur noch bilinear is und nicht mehr trilinear

2. mir fehlen vergleiche mit und ohne texturcompression, denn da gibts zwischen nv und ati auch grosse unterschiede, sowohl was die performance als auch die bilqualität angeht. hast du übrigens bemerkt, dass der radeon mit aktivierter texturecompreesion bei manchen games eine ewigkeit brauch, bis er ein level geladen hat (schön zu sehen unter ogl bei q3, sesam, sof2. bei sof2 in manchen leveln sogar fast 8min., ungelogen !!)

ansonsten mal wieder echt kompetent, tiefgründig und vor allem LANG!!!

MadManniMan
2002-08-11, 22:38:00
Originally posted by Unregistered
ich hätte nur gerne gewünscht dass auch ein test 2xFSAA ohne AF dabei wäre.


*mich an meinen vorreddingsda anschließ*

ich persönlich nutze aus ruckelgründen zumeist entweder af oder aa. und bei letzterem ists immer 2*

daher tu ich einen 2fachzusatz wünschen!

ein gf3-besitzer


PS wurde das 2fach aus rücksicht auf den parhelia aussen vor gelassen? denn ich sehe außer dem arbeitsaufwand kein nünftiges argument gegen 2*, zumal das der gf-reihe hübsch rotated ist und auch die ati-fuzzies sich zu einem d3d 2*rg überwinden konnten

kaputnik
2002-08-11, 22:40:20
Originally posted by kaputnik

was klappt hier eigentlich mitm login net, bin doch kein guest mehr, schnüff

MadManniMan
2002-08-11, 22:42:20
Originally posted by kaputnik
bildqualitätsmässig fällt der radeon ja eh hintenüber bei AF, weils halt nur noch bilinear is und nicht mehr trilinear


vosicht! af mit/ohne tri ist ein sehr empfindliches und vor allem subjektives thema!

ich persönlich mag zwar bi ohne af in einigen spielen auch nicht, mein af nutze ich trotz gf3 immer ohne tri und es stört mich keinen deut.

Unregistered
2002-08-12, 02:14:19
Wer ist hier bi ;)

Nein im Ernst, ein schöner Artikel. Man merkt beim Lesen, was das für ein Aufwand war. Er ist wirklich gelungen!

Und natürlich kann man immer noch etwas besser oder anders machen und jeder hat seine eigenen Vorstellungen. Aber es ist wie beim Kauf einer Grafikkarte. Irgendwann muss man kaufen, auch wenn man weiss, dass ständig etwas neueres oder besseres kommt.

MIC

Leonidas
2002-08-12, 12:42:29
Originally posted by kaputnik

d.h. um die chips wirklich miteinander vergleichen zu können (von den frameraten her) müsste man bei einsatz von AF trilinear abschalten und bilinear einsetzen. ist zwar nich im sinne der bildqualität, aber ergibt zumindest vergleichbare frameraten. bildqualitätsmässig fällt der radeon ja eh hintenüber bei AF, weils halt nur noch bilinear is und nicht mehr trilinear




Hier gegen spricht, daß kein GeForce4-User in der Praxis auf diese Idee kommen würde. Der Vergleich wäre rein theoretisch und niemals in der Praxis anzutreffen.

Leonidas
2002-08-12, 12:44:50
Originally posted by kaputnik

2. mir fehlen vergleiche mit und ohne texturcompression, denn da gibts zwischen nv und ati auch grosse unterschiede, sowohl was die performance als auch die bilqualität angeht. hast du übrigens bemerkt, dass der radeon mit aktivierter texturecompreesion bei manchen games eine ewigkeit brauch, bis er ein level geladen hat (schön zu sehen unter ogl bei q3, sesam, sof2. bei sof2 in manchen leveln sogar fast 8min., ungelogen !!)




Bis auf Q3A gibt es IMHO keine wirklichen Unterschiede. Ich habe mit allen Karten sehr ausführlich RTCW gezockt: Null Problemo.

Das Einlad-Problem hatte ich nur bei der V5 in JK2 - aber IMO ist dies eine Fehlprogrammierung der Spieldesigner, die es nicht geschafft haben, meine 512 MB RAM auszunutzen. Die gehen blind von großer gfx, aber Standard ALDI-PC mit wenig RAM aus. Ansonsten keine Probs im Minutenbereich.

Leonidas
2002-08-12, 12:46:01
Originally posted by MadManniMan


PS wurde das 2fach aus rücksicht auf den parhelia aussen vor gelassen? denn ich sehe außer dem arbeitsaufwand kein nünftiges argument gegen 2*, zumal das der gf-reihe hübsch rotated ist und auch die ati-fuzzies sich zu einem d3d 2*rg überwinden konnten



Du meinst 2fach AA? Ich mußte mich irgendwo beschränken bei der Anzahl der gewählten Modi, die Tests dauern lang genug. Eventuell im "Roundup II"

Leonidas
2002-08-12, 12:47:10
Originally posted by MadManniMan


vosicht! af mit/ohne tri ist ein sehr empfindliches und vor allem subjektives thema!

ich persönlich mag zwar bi ohne af in einigen spielen auch nicht, mein af nutze ich trotz gf3 immer ohne tri und es stört mich keinen deut.



Jup. Man muß schon genau hinsehen, um dies zu erkennen. V5-Nutzer kommen unter OpenGL schon seit Anbeginn der Zeit ohne den trilinearen Filter aus - und es geht auch.

Nasenbaer
2002-08-12, 13:33:19
Originally posted by kaputnik
hast du übrigens bemerkt, dass der radeon mit aktivierter texturecompreesion bei manchen games eine ewigkeit brauch, bis er ein level geladen hat (schön zu sehen unter ogl bei q3, sesam, sof2. bei sof2 in manchen leveln sogar fast 8min., ungelogen !!)


Kann ich auch nicht bestätigen. Habe das Spiel längere Zeit gezockt und nicht einmal musste ich minutenlang warten.

Mfg Nasenbaer

Unregistered
2002-08-12, 13:58:27
...Mit den Catalysz 02.2 Treibern hätte die Radeon 8500 in den Tests besser dagestanden


Oder auch nicht.

Meine Performance in DirX ist mit den neuen Cat.Treibern um fast 40% RUNTERGEGANGEN (im Vergleich zu den letzten nicht Cat Treibern)!!!!

(XP1800, Rad8500LE@265/265 bba, 512DDR)

Meine OGL Perf. ist nahezu gleichgeblieben.

Kann mir das irgendwer erklären?


PS: Kann mir einer sagen, wo zum Henker man bei den Cat. in D3D das AA deaktivieren kann? Im OGL Tab kann man´s, in D3D kann man nur auf Standard schalten. Das ist doch was anderes als deaktivieren, oder?

PPS: Super Artikel, Alter!!! Wenn Du jetzt noch den 3dMark dazunimmst, sind wirklich alle glücklich...

Nasenbaer
2002-08-12, 15:02:47
Originally posted by Unregistered
PPS: Super Artikel, Alter!!! Wenn Du jetzt noch den 3dMark
dazunimmst, sind wirklich alle glücklich...

Auf derartige Programme wurde, wie im Artikel auch nachzulesen war, mit Absicht verzichtet da sie keine praxisrelevante Aussage haben.
Was heißt denn ich hab 6000 Punkte? Kann ich jetzt JediKnight2 flüssig spielen, wenn man soviele hat oder nicht?
Weil sie einem in dieser Hinsicht nicht weiterhelfen und desweiteren auf 3D-Technolgie setzen, die man in Spielen noch lange nicht findet werden die Programme auch nicht genutzt.

Zum Problem mit deinen Treibern:
Ich würde erstmal die alten Treiber deinstallieren, dann nach Dateien suchen die zum Treiber gehören und entfernen. Anschließend die Registry von ATi-Einträgen berfreien (BackUp nicht vergessen).
Abschließend neue Treiber installieren. RefreshRateFix nicht vergessen.

Unter Direct3D kann man FSAA nicht deaktivieren.
"Standard" bedeutet, dass FSAA dann aktiviert wird, wenn das Spiel oder die Anwendung es anfordert ansonsten bleibt es aus.

Mfg NAsenbaer

Leonidas
2002-08-12, 16:00:21
Originally posted by Unregistered

PS: Kann mir einer sagen, wo zum Henker man bei den Cat. in D3D das AA deaktivieren kann? Im OGL Tab kann man´s, in D3D kann man nur auf Standard schalten. Das ist doch was anderes als deaktivieren, oder?




Standard = deaktiviert.

kaputnik
2002-08-12, 16:06:34
Originally posted by Leonidas



Hier gegen spricht, daß kein GeForce4-User in der Praxis auf diese Idee kommen würde. Der Vergleich wäre rein theoretisch und niemals in der Praxis anzutreffen.

klar würde kein gf4ler auf diese idee kommen, mir gings aber nur um eine vergleichbarkeit der performanceeinbussen bei aktiviertem af. man liest immer wieder, das der gf bei aktiviertem af prozentual mehr verliert als der radeon. das relativiert sich jedoch wieder, weil der gf auch mit af tril filtert, der radeon mit af auf bil zurückgeht und deswegen natürlich nicht so viel verliert.

genauso kann man meiner meinung nach da 4xAA von gf und radeon nicht mit 16xFAA vergleichen, das eine ist FullSceneAA, das andere EdgeAA. wenn schon vergleiche, dann sollten alle die gleichen vorraussetzungen haben, dh für alle 4xAA. ein hinweis auf das matrox 16xFAA und was für eine quali es hat reicht doch.

wenn ich verschiedene verfahren, sei es tril + af und bil + af bzw. 4xAA und 16xFAA vergleiche, kann ich leider keine objektive aussage über die performance treffen.

nur darum gings mir. ich weis auch, das ist praxisfern, aber es ist immer schwierig, vergleiche verschiedener dinge anzustellen, deswg kleinster gemeinsamer nenner

kaputnik
2002-08-12, 16:14:22
Originally posted by Leonidas



Bis auf Q3A gibt es IMHO keine wirklichen Unterschiede. Ich habe mit allen Karten sehr ausführlich RTCW gezockt: Null Problemo.

Das Einlad-Problem hatte ich nur bei der V5 in JK2 - aber IMO ist dies eine Fehlprogrammierung der Spieldesigner, die es nicht geschafft haben, meine 512 MB RAM auszunutzen. Die gehen blind von großer gfx, aber Standard ALDI-PC mit wenig RAM aus. Ansonsten keine Probs im Minutenbereich.
solange bei rtcw und q3a die texturecompress aus ist (r_ext_compress_textures=0 def.) gibts auch keine probs. doch mit aktivierter texcompress siehts anders aus. der radeon braucht in q3a zb die 3fache zeit zum laden wie ohne. bei gf3/4 gibts dagegen keine unterschiede.

das prob ist selbst ati bekannt. im ogl-icd gibs bis zum aktuellen treiberpaket eine option, um fasttexturecompression zu erzwingen.
in den omegadrivers ist diese option defaultmäsig aktiviert.

MadManniMan
2002-08-12, 16:38:07
Originally posted by Leonidas
Du meinst 2fach AA?

bingo

Originally posted by Leonidas
Ich mußte mich irgendwo beschränken bei der Anzahl der gewählten Modi, die Tests dauern lang genug.

wie gesagt: das beste argument

Originally posted by Leonidas
Eventuell im "Roundup II"

nicht nur ich freu mich schon :)

Originally posted by MadManniMan
ich persönlich mag zwar bi ohne af in einigen spielen auch nicht

...klingt natürlich nich so schön :D

Unregistered
2002-08-12, 17:05:19
To Nasenbär (Mark ja oder nein):
-----------------------------------

Ich weis das er es erwähnt hat. Mir geht es ja prinzipiell darum ob man den 3DMark verwenden soll oder nicht.

Natürlich sagt die reine 3DM-Zahl nicht viel aus - aber um die gehts auch nicht. Aber hier mal ein paar Punkte für den Mark:

1. So gut wie jeder hat ihn (und wenn auch nur um sich die coolen Demos anzusehen)

2. Ich hab Tests, die CPU-limitiert und Tests, die GPU Limitiert sind, in einem.

3. Ich hab viele Feature-Tests, wo ich sehen kann, ob meine Graka/Treiber dabei Mist bauen oder nicht (Dot,Sprite...)

4. Treiber sind darauf optimiert.
Autsch! Jetzt hör ich viele schreien: "Genau das wolln wir nicht! Das ist cheaten seitens der Hersteller!"
Im Gegenteil: Das ist gut!!!
Beispiel: wenn Graka X in Spiel Y 10% vor Graka Z liegt, woher soll ich wissen, ob X wirklich schneller ist als Z, oder ob Hersteller Z seine Treiber einfach noch nicht auf Spiel Y optimiert hat? Wer sagt mir, ob es nach ein paar Wochen und ein paar neuen Treibern nicht genau umgekehrt aussieht? (20% durch Treiberoptimierung sind durchaus drinnen) Oder ob sich je was ändern wird?

3D Mark ist de facto Standard. ALLE Hersteller optimieren ihre Treiber darauf. Dadurch kann ich mir beim vergleichen sicher sein, das wirklich das Optimum aus meiner Graka geholt wird.


5. Vergleichen ist total einfach. Wenn ein Bencher seine 3dMark dazugibt, genügen ein paar wenige Mausklicks und ich kann seine Werte sofort mit meinen vergleichen. Einfacher gehts nicht. (hier übrigens meine - vor und nach cata 2.2:

VOR
http://service.madonion.com/compare?2k1=3525155

NACH
http://service.madonion.com/compare?2k1=4146350


6. Zukunftsorientierung. Bestes Beispiel: Nature-Szene. Wie wir aus Leon´s Spitzenartikels wissen, ist alles, was derzeit als Gameengine herumkreucht und fleucht, DX6 oder 7, bestenfalls leicht DX8 angehaucht. Doch wenn ich mir heut eine Graka kaufe, will ich eine, die auch Games in 12 Monaten noch schafft, ohne das dem Lüfter die Puste ausgeht. Und womit kann ich die DX8 Shader Performance am besten wergleichen? Bingo - Nature. Oder anders ausgedrückt: 3DMark. Und das wird auch so bleiben. Wenn ein neues DX erscheint, dauert es Immer fast ein Jahr, bis eine Gameengine mit den neuen Features erscheint. Mark ist meistens schon kurz nachher da. Und hat sicher einen Bench dafür parat...




7. Das wichtigste Argument: ES TUT KEINEM WEH! Es macht keinen unglücklich, wenn er zusätzlich dort ist, aber er macht viele glücklich, wenn er dabei ist. Normalerweise sagt man, man kann es nicht allen rechtmachen. Doch in dem Fall schon! Vielleicht in den Test noch einen vorbehaltlichen kleinen Hinweis über die syntetik (schreibt man das so?) des Marks und wirklich alle sind happy.


Übrigens: die Synthetik, über die viele schon seit Urzeiten bei den Marks lästern, kann man so nicht mehr geltenlassen:

- Einige Tests vom Mark basieren sehr wohl auf einer "realen" Engine (wie wir wissen gibt es den Max inzwischen wirklich)

- Car Chase und Lobby berechnen physikalisch korrekte Vorgänge (Car die Autos - Lobby das fallen der Patronenhülsen) - sind also längst nicht so synthetisch, wie viele glauben).


ABSCHLUSS an die Lanzenbrechung für den 3DMark:

Es tut keinen weh ihn ZUSÄTZLICH bei Test zu haben, er ist längst nicht sooo schlimm wie viele tun, und wenn man über die reine MarkZahl hinausgeht und ein paar seiner Teilergebnisse dazunimmt, kann man ihn echt brauchen...


ELWOOD



PS: Ich hab den alten Treiber vorher entfernt und direkt von den Standard VGA Treibern die neuen aufgesetzt.

PPS:
To Leon: Wenn das stimmt, was Nasenbär schreibt, und ich auch dachte, dann ist Standard aus, bis es vom Programm angefordert wird.

Das heißt, ich kann es per Treiber NICHT verhindern, das AA benutzt wird, wenn es ein Programm so will? Was soll der Mist? Und warum geht es bei OGL und nur bei D3D nicht???

Nasenbaer
2002-08-12, 17:31:34
Originally posted by Unregistered
4. Treiber sind darauf optimiert.
Autsch! Jetzt hör ich viele schreien: "Genau das wolln wir nicht! Das ist cheaten seitens der Hersteller!"
Im Gegenteil: Das ist gut!!!
Beispiel: wenn Graka X in Spiel Y 10% vor Graka Z liegt, woher soll ich wissen, ob X wirklich schneller ist als Z, oder ob Hersteller Z seine Treiber einfach noch nicht auf Spiel Y optimiert hat? Wer sagt mir, ob es nach ein paar Wochen und ein paar neuen Treibern nicht genau umgekehrt aussieht? (20% durch Treiberoptimierung sind durchaus drinnen) Oder ob sich je was ändern wird?


Genau das bringt einen aber doch nicht weiter. Was nützt es mir eine Grafikkarte zu besitzen, die theoretisch schneller ist als eine andere, sie gleichzeitig ihr Leistung in den Programmen in denen ich sie auch brauche aber nicht entfalten kann? Ja genau, gar nichts.

Originally posted by Unregistered
6. Zukunftsorientierung. Bestes Beispiel: Nature-Szene. Wie wir aus Leon´s Spitzenartikels wissen, ist alles, was derzeit als Gameengine herumkreucht und fleucht, DX6 oder 7, bestenfalls leicht DX8 angehaucht. Doch wenn ich mir heut eine Graka kaufe, will ich eine, die auch Games in 12 Monaten noch schafft, ohne das dem Lüfter die Puste ausgeht. Und womit kann ich die DX8 Shader Performance am besten wergleichen? Bingo - Nature. Oder anders ausgedrückt: 3DMark. Und das wird auch so bleiben. Wenn ein neues DX erscheint, dauert es Immer fast ein Jahr, bis eine Gameengine mit den neuen Features erscheint. Mark ist meistens schon kurz nachher da. Und hat sicher einen Bench dafür parat...


In diesem Punkt kann ich dir zustimmen. Als die ersten Dx8-Karten auf den Markt kamen, fragte sich auch jeder wie man deren Zukunftssicherheit messen sollte. DronezMark u.a. schwirten derzeit durchs Netz.

Originally posted by Unregistered
7. Das wichtigste Argument: ES TUT KEINEM WEH! Es macht keinen unglücklich, wenn er zusätzlich dort ist, aber er macht viele glücklich, wenn er dabei ist. Normalerweise sagt man, man kann es nicht allen rechtmachen. Doch in dem Fall schon! Vielleicht in den Test noch einen vorbehaltlichen kleinen Hinweis über die syntetik (schreibt man das so?) des Marks und wirklich alle sind happy.


Nein es tut nicht weh aber erhöht den Testaufwand um einiges, bietet dagegen aber nur wenig Erkenntnisse.

Originally posted by Unregistered
Übrigens: die Synthetik, über die viele schon seit Urzeiten bei den Marks lästern, kann man so nicht mehr geltenlassen:

- Einige Tests vom Mark basieren sehr wohl auf einer "realen" Engine (wie wir wissen gibt es den Max inzwischen wirklich)


Max Payne nutzt allerdings nur Dx7. Es wurde für das Spiel einen abgewandelte Engine genommen. Dann doch lieber MaxPayne testen als die dazugehörigen Benchmark.

Originally posted by Unregistered
Das heißt, ich kann es per Treiber NICHT verhindern, das AA benutzt wird, wenn es ein Programm so will? Was soll der Mist? Und warum geht es bei OGL und nur bei D3D nicht???

Keine Ahnung. Musst du mal ATi fragen. Aber es gibt imo kein Programm in dem man es nicht ausschalten kann. Entweder es wird gar nicht gefordert oder man kann es deaktivieren.

Mfg Nasenbaer

Nasenbaer
2002-08-12, 17:34:47
Zu deinem Prob mit den Treibern:

Der langsamere von beiden ist sogar schlechter als mit meinem Duron900. :)

Ich würde demzufolge eine Neuinstallation von Windows empfehlen. Aufgrund der langen Installationszeit von WinXp schlage ich NortonGhost vor.

MFg Nasenbaer

zeckensack
2002-08-12, 17:39:58
Unreg,

für deine tollen compare-Links muß man sich erstmal bei den Zwiebelköppen registrieren. Dazu habe ich zB keine Lust. Soviel dazu.

Originally posted by Unregistered
1. So gut wie jeder hat ihn (und wenn auch nur um sich die coolen Demos anzusehen)

2. Ich hab Tests, die CPU-limitiert und Tests, die GPU Limitiert sind, in einem.1. Duh
2.Aha, welche sind denn wo wie limitiert? Das ist beim 3DM nämlich nicht ganz so einfach.
3. Ich hab viele Feature-Tests, wo ich sehen kann, ob meine Graka/Treiber dabei Mist bauen oder nicht (Dot,Sprite...)Stimmt. Einige der synthetischen Tests sind ganz praktisch. Dafür nimmt man dann aber besser den 3DMark2000. Die 'neuen' synthetischen Tests im 3DM2k1 sind IMO total für die Tonne.
a)Fillrate-Tests gehen in Ordnung
b)High Poly count - mischt verschiedene Sorten HW-Lichter. Kein Spiel macht das, kein Spiel wird es jemals tun (mittlerweile gibt's Vertex Shader), ergo Blödsinn.
c)Vertex Shader - super-sinnlos, weil auf den meisten Karten bandbreitenlimitiert (Bodenspiegelung)
d)Pixel Shader - geht in Ordnung
e)Advanced Pixel Shader - ist erstens nicht advanced, zweitens sollte er besser "Render to texture" heißen, ansonsten passiert da nicht viel
4. Treiber sind darauf optimiert.
Autsch! Jetzt hör ich viele schreien: "Genau das wolln wir nicht! Das ist cheaten seitens der Hersteller!"
Im Gegenteil: Das ist gut!!!
...Einseitige Optimierung nur auf den 3DMark ist aber nicht gerade ein wünschenswerter Zustand.
Diskutiere das mal mit Kyro/Voodoo5-Besitzern, da wirst du schon sehen, was ich meine ;)

<...>
6. Zukunftsorientierung. Bestes Beispiel: Nature-Szene. Wie wir aus Leon´s Spitzenartikels wissen, ist alles, was derzeit als Gameengine herumkreucht und fleucht, DX6 oder 7, bestenfalls leicht DX8 angehaucht. Doch wenn ich mir heut eine Graka kaufe, will ich eine, die auch Games in 12 Monaten noch schafft, ohne das dem Lüfter die Puste ausgeht. Und womit kann ich die DX8 Shader Performance am besten wergleichen? Bingo - Nature. Oder anders ausgedrückt: 3DMark. Und das wird auch so bleiben. Wenn ein neues DX erscheint, dauert es Immer fast ein Jahr, bis eine Gameengine mit den neuen Features erscheint. Mark ist meistens schon kurz nachher da. Und hat sicher einen Bench dafür parat...Mann, der 3DMark ist nicht ein Spiel der Zukunft sondern eine Techdemo von gestern. Woher willst du wissen, daß das jemals Praxisbezug erlangen wird?
7. Das wichtigste Argument: ES TUT KEINEM WEH! Es macht keinen unglücklich, wenn er zusätzlich dort ist, aber er macht viele glücklich, wenn er dabei ist. Normalerweise sagt man, man kann es nicht allen rechtmachen. Doch in dem Fall schon! Vielleicht in den Test noch einen vorbehaltlichen kleinen Hinweis über die syntetik (schreibt man das so?) des Marks und wirklich alle sind happy.Wer gerne eindimensional denkt und die Leistungsfähigkeit eines Systems an einer einzigen Zahl (3DMarks-Score) festmacht ohne weiterzulesen, der gehört vor sich selbst beschützt. Deswegen: keine Marks, keine Gefahr.
Übrigens: die Synthetik, über die viele schon seit Urzeiten bei den Marks lästern, kann man so nicht mehr geltenlassen:

- Einige Tests vom Mark basieren sehr wohl auf einer "realen" Engine (wie wir wissen gibt es den Max inzwischen wirklich)Eben eben. Mit Max Payne kann man benchen. Das ist wenigstens ein echtes Spiel.
- Car Chase und Lobby berechnen physikalisch korrekte Vorgänge (Car die Autos - Lobby das fallen der Patronenhülsen) - sind also längst nicht so synthetisch, wie viele glauben).Ich glaube du verstehst da was falsches unter 'syntetisch'. Das bedeutet, daß man fernab von realen Szenarios ein künstliches Testszenario aufbaut, meistens um nur einen Teilaspekt eines Gesamtsystems zu isolieren. Sisoft Sandra bietet zB jede Menge synthetische Benchmarks.
Ein nicht synthetischer Benchmark zeichnet sich dadurch aus, daß er die Performance einer real existenten Applikation mißt.

ABSCHLUSS an die Lanzenbrechung für den 3DMark:

Es tut keinen weh ihn ZUSÄTZLICH bei Test zu haben, er ist längst nicht sooo schlimm wie viele tun, und wenn man über die reine MarkZahl hinausgeht und ein paar seiner Teilergebnisse dazunimmt, kann man ihn echt brauchen...Und es tut auch keinem 3DMark-Fan (der wohl eh schon registriert ist) weh, mal eben in die MO-Datenbank zu schauen und sich die Daten selbst zu fischen.

Es ist letztlich total uninteressant, weil es alle machen. Warum zum hunderttausendsten mal das schreiben, was man sowieso überall nachlesen kann.

IMO ist das ganz richtig so. Wer keine neuen Ansätze liefert, der braucht erst garkeine Artikel zu schreiben.

Unregistered
2002-08-12, 17:41:01
ein vergleich zu alten gfx (RADEON, GF2,..) wäre auch wünschenswert.
hier könnte man gleich sehen ob ich mir ne neue gfx zulegen sollte oder ob die alte noch für die aktuellen spiele reicht.
diese haben zwar in einem dx8 vergleich nicht viel zu suchen wäre aber super-informativ (zumindest ohne AA).
hab ne GF2 und überleg richtung Radeon 8500...
ansonsten super artikel.

MadManniMan
2002-08-12, 18:00:20
zbag,

ein arsch bist, ich wollt grad det postchen auseinandernehmen :D

ansonsten: *unterschreiben tu*

:bier:

zeckensack
2002-08-12, 18:23:21
Originally posted by MadManniMan
zbag,

ein arsch bistDanke :|

;)

Leonidas
2002-08-12, 20:15:49
Originally posted by zeckensack

Es ist letztlich total uninteressant, weil es alle machen. Warum zum hunderttausendsten mal das schreiben, was man sowieso überall nachlesen kann.





Genau das ist mein Killerargument: Es gibt hunderte Tests, die mit diesem Programm gemacht werden. Zu *irgendwas* müssen die ja auch nutze sein ;-)))))))))

Leonidas
2002-08-12, 20:16:23
Originally posted by Unregistered
ein vergleich zu alten gfx (RADEON, GF2,..) wäre auch wünschenswert.
hier könnte man gleich sehen ob ich mir ne neue gfx zulegen sollte oder ob die alte noch für die aktuellen spiele reicht.
diese haben zwar in einem dx8 vergleich nicht viel zu suchen wäre aber super-informativ (zumindest ohne AA).
hab ne GF2 und überleg richtung Radeon 8500...
ansonsten super artikel.



Ich weiss. Aber da war auch der Zeitaufwand ein Problem ... die Karten hätte ich schon.

MadManniMan
2002-08-12, 22:02:27
Originally posted by zeckensack
Danke :|

;)

gern geschehen :bier:

Unregistered
2002-08-12, 22:14:54
Jetzt hab ich über 8 antworten mühevoll zusammengeschrieben und alle versehentlich gelöscht. (sch... ich...)

Ich schreib aber nicht nochmal, denn ich schmoll jetzt >:-(

eine für ZECKENSACK hab ich aber:

------------------------------------------------------------------
2.Aha, welche sind denn wo wie limitiert? Das ist beim 3DM nämlich nicht ganz so einfach.
-------------------------------------------------------------------

Beispiel: Ich bin vor kurzem von meiner GF1DDR mit Cel850 auf R8500LE mit XP1800 umgestiegen, hatte aber kurzzeitig die Rad mit dem Cel laufen.

Dragon ging rauf von 13.1 fps auf 42,4 fps, also um über 300%.
CarChase ging von 11 rauf auf 13,3 also gerade mal um 20%.

Chase ist also eindeutig am CPU Limit gelaufen und konnte mit der Power der Rad. garnichts anfangen, Dragon hingegen schon.


Nach Wechsel auf den XP1800 stieg die Perf. von:

Dragon nochmals um 183%
Chase aber gleich um ganze 310%

Chase hat also in diesem Fall genug Leistung von der GraKa,
Dragon wird von dieser doch deutlich gebremst.



Welcher Bench wann limitierend ist, ist also abhängig von der jeweiligen CPU-Geschwindigkeit, läßt sich aber leicht feststellen.

Tatsache ist: die beiden Tests reagieren gegengleich. Und genau darin liegt der Vorteil vom 3DMark:

Hätte ich mit einer Gameengine gebencht, die CPU limitiert ist wie Chase, hätt ich mir gedacht: "Nur 20%? Sch... Radeon.

Hätte ich nur mit einer GraKa limitierten "Dragonlike" Engine gebencht, hätt ich denken können: "WOW! 310%! Wofür brauch ich noch ne neue CPU?"

Beide Schlüsse wären falsch gewesen. Doch durch Mark hatte ich nach nur einem Test ein klares Bild...

ELWOOD

MadManniMan
2002-08-12, 22:23:59
naja, du hast da schon ein recht extermes szenario...

...was limitiert in HL wohl mehr in folgender situation: du hast einen 133er pentium und ne s3 virge dx. einmal schaust du auf ein rein gouraud-geshadetes(nem grafikfehler sei dank) alienmodel mit ... öh ... 1500 polys :D und einmal auf eine wand vor einer wand vor einer wand(allesamt mit texturen, da die grafikfehler diesmal woanders hocken) durch eine halbtransparente scheibe...

:D

nur mal so nebenbei :bounce:

nebenbei gibts da bei dem dragon dingens noch n anderes interessantes detail, aber das verrat ich jetz nich, weil ich a) nur müll geschrieben habe und mir keiner mehr glaubt und b) ich das zbag überlassen will, damit er wieder mal angeben kann und ich legitimation für beleidigungen gegen ihn habe :D

*:bier: -ansetz*

kaputnik
2002-08-12, 22:39:50
meine 2cents zum 3dmark (nicht das es irgenjemanden interessiert)

vorteil: vergleichbarkeit der werte, wobei es, finde ich, nicht auf die endpunktzahl ankommt, sondern eher darauf, was welcher chip in welchem test erreicht. da kann man schön auf die fähigkeiten der chips rückschlüsse ziehen (zumindest THEORETISCH)

nachteil: siehe oben, eben nur THEORETISCH! ausserdem macht den 3dmark-test doch jeder, muss also hier nich nochma wiederholt werden.

ich denke mal, LEO und konsorten haben mit dem testsetup schon genug zu tun gehabt, warum also noch mehr zeit investieren für einen test, der eh nix über die echte performance aussagen kann ?!

wie siehts denn momentan aus? auf beinahe jeder seite finden sich (teilweise ausschlieslich) 3dmark- und q3a-tests. also was mach ich als hersteller, na, richtig, ich optimier meinen treiber dafür, kann dann sagen 50% mehr performance (zumindest hier, prüft doch eh keiner nach) und bin fein raus.

NEEEEEEEEEE, bitte nicht mit 3dcenter, hier wars und wirds hoffe ich immer mehr als 0815 sein;D

LovesuckZ
2002-08-12, 23:46:38
Originally posted by kaputnik
wie siehts denn momentan aus? auf beinahe jeder seite finden sich (teilweise ausschlieslich) 3dmark- und q3a-tests. also was mach ich als hersteller, na, richtig, ich optimier meinen treiber dafür, kann dann sagen 50% mehr performance (zumindest hier, prüft doch eh keiner nach) und bin fein raus.


Macht zum Beispiel SIS bei ihrem Xabre. Q3 Engine Spiele sehr gut, Rest nur mittelmaß.

Nasenbaer
2002-08-12, 23:47:39
Originally posted by Unregistered
Hätte ich mit einer Gameengine gebencht, die CPU limitiert ist wie Chase, hätt ich mir gedacht: "Nur 20%? Sch... Radeon.

Hätte ich nur mit einer GraKa limitierten "Dragonlike" Engine gebencht, hätt ich denken können: "WOW! 310%! Wofür brauch ich noch ne neue CPU?"

Beide Schlüsse wären falsch gewesen. Doch durch Mark hatte ich nach nur einem Test ein klares Bild...

ELWOOD

Hättest du dies getan, hätte man dir auch vorwerfen können nicht gründlich an die Sache herangegangen zu sein.

Keiner sagt, dass 3DMark vollkommen nutzlos ist. Zum vergleich mit seinen vorherigen PC kann man es sicher verwenden um grob einen Anhaltspunkt für den Leistungszuwachs zu bekommen nur ebend nichts genaues.
Und um dein System mit anderen zu vergleichen bietet Madonion dir ne riesige Datenbank

Mfg NAsenaer

Jasch
2002-08-23, 15:06:13
Die raedon8500 erschien mir in SSam2 zu schlecht
ich habe mal bei mir gebencht
Xp1800+ auf Asus A7N266-C oc.9,5x179Mhz =xp2050+(also ungefähr vergleichbar)
Gigabyte Maya 64MB LE

eure Benchskripte(V1.7) 32HQ(1024x768)

Catalyst 2.1 Graka250/250 48,4 Graka300/300 55,6
Catalyst 2.2 49,4 56,8

also die Catalyst version macht nix bei mir aus(groß) aber
aber gegenüber euren 34,7 FPs sind 48 doch ganz gut
Frage Meßfehler bei mir oder prob mit einstellung treiber bei euch

Der Test ist sonst super nicht dieser 3dmurksmüll sonder praxis sprich games .
weiter so.

MegaManX4
2002-08-23, 15:27:04
Sach ma Jasch,

Wie schaffst du es dein A7N 266-C auf 179Mhz zu bringen? Meins geht nur bis 172 :(. Habe Kingmax BGA PC333 Speicher. Was benutzt du?

Thomas

Jasch
2002-08-23, 15:48:25
hatte erst Micron2400 lief 9,5x177(4:3) habe jezt nach quasi 2monaten burnin(24/7 seti) neuen speicher Samsung PC2700 (2x256)
derlief sofort 177 1:1 Cas2 turbo habe dann mal auf 179 erhöht und läuft nun schon seit 7 tagen nonstop

Jasch
2002-08-23, 16:08:07
habe jetzt auchmal RTCW gebencht komme da mit den selben settings wie hier auf 98FPS

Jasch
2002-08-23, 16:31:44
ich glaub ich muß mich mal anmelden bei den vielen posts

Aquanox 56.3 also das stimmt ja ungefähr überein aber woher kommen die ausreißer bei den anderen benches

ok cpu is schneller aber das macht soviel?

Jasch
2002-08-23, 16:52:24
Maxpayne 49,6 immerhin 9 mehr als im test lass ich auch noch gelten
veilleciht liegt es ja wirklich an der lahmen cpu

Nasenbaer
2002-08-23, 17:00:29
Es bringt nichts. :)

Dein System läuft mit 1700Mhz was einem XP2050+ enstprechen würde.
Zudem hast du deinen FSB extrem übertaktet. Das allein macht es unmöglich die Testergebnisse zu vergleichen.

Deine Grafikkarte hast du beim benchen wohl nicht übertaktet wie dem einen Post zu entnehmen ist.
Aber das kann man alles leider nicht so einfach miteinander vergleichen.

Mfg Nasenbaer

Jasch
2002-08-23, 17:52:26
das ist schon klar meine frage war halt od die reisen unterschiede nur durch den proz zustande kommen .

vielleciht kann ja jemand anderes nochmal benchen zu vergleich

(oder meine kiste ist einfach nur geil schnell):):)

Leonidas
2002-08-24, 16:06:07
Originally posted by Jasch
Die raedon8500 erschien mir in SSam2 zu schlecht
ich habe mal bei mir gebencht
Xp1800+ auf Asus A7N266-C oc.9,5x179Mhz =xp2050+(also ungefähr vergleichbar)




Ich denke nicht vergleichbar. Ich hatte nur einen Willy mit 2 GHz, das ist nicht dasselbe.


Zudem gibt es wirklich diesen Punkt: Obwohl nominell gleichschnell, kann ein Athlon 2000+ in dem einen Bench mal wesentlich schneller und in den anderen mal wesentlich langsamer als ein P4 2 GHz sein. Ist halt eine andere Architektur.

Fläschy
2002-08-26, 23:54:43
mal was ganz neues:
wie wärs mit ein paar ausführlicheren Tests in Sachen Bildqualität, denn was nützt es mir zu wissen wie schnell die Dinger mit 4xfsaa und af sind und ich nichtmal weiß, was mir das Ganze bringt.
Wegen Aufwand: Ich bin nicht der Meinung, dass man alle Tests nun an allen Spielen durchführen muss, geeignete Stichproben wären effizienter.
z.B. anis.Filt. in Aquanox bringt nicht viel mangels großer Flächen.

Außerdem lass dir mit dem 2. Artikel noch Zeit bis kurz vor Weihnachten, da bis dahin, wenn überhaupt, noch neue Grakas kommen könnten. Danach dürfte es dann ne Weile (Frühjahr) nix neues mehr geben da der Markt das auch nichtmehr erfordert.

Leonidas
2002-08-27, 02:02:42
Originally posted by Fläschy
mal was ganz neues:
wie wärs mit ein paar ausführlicheren Tests in Sachen Bildqualität,




Wie im Fazit steht: Praktisch identisch. Ich habe alle Karten über mehrere Wochen auch jeweils im Arbeits/Spielrechner gehabt und damit ganz normal gearbeitet/gezockt.

Gast
2004-06-19, 18:54:04
Original geschrieben von Leonidas
http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/



Anmerkungen aller Art sind erbeten. Zum einen zur Fehlerkorrektur des jetzigen Artikels - auch auch dazu, wie das Roundup II ausssehen soll.

Note: CPU-Skalierungstests werden wenn dann nur in einem extra Test erfolgen, niemals in einem allgemeinen Test wie dem Roundup. Wenn, dann ziehe ich alles über die 10 Benchmarks durch und mache nicht nur ein paar Beispielmessungen. Für solch intensive Tests benötigt es aber dann zwangsläufig einen extra Artikel, ansonsten werden jene zu lang.




edit 11.8. / 00:45
letzte Seite "... es werden dort dann die Werte von Radeon 8500 (LE) 128 MB, GeForce3 Ti200/Ti500 128 MB ..."
-> Unsinn, natürlich nicht die GeForce3 Ti200/Ti500 mit 128 MB, da zu selten im Einsatz und nicht mehr hergestellt, sondern die GeForce4 Ti4200 mit 64 MB natürlich

Zoroaster
2006-03-28, 23:37:51
Sorry, wenn ich die Ruhe dieses Threads störe, aber wenn man beim Lesen des Tests auf Seite 20 den Link "weiter" klickt, kommt folgende Fehlermeldung:

"The requested URL /artikel/directx8_grafikchips_roundup/index3_serioussam_2.php was not found on this server."

Außerdem ist wohl der Screenshot zu Ultima IX verlorengegangen.


Jaja, das Internet ist im Allgemeinen sehr vergänglich, aber ich finde sowas einfach schade, besonders bei einem interessanten Artikel wie diesem.

(man will ja evtl auch mal später wissen, wie das "damals" war...)

Killa Tomacco
2006-03-29, 13:46:19
Habe die Gründe der Fehler gefunden falsche Verlinkung:

20 zu 21
Falsch:
http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index3_serioussam_2.php
Richtig:
http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index3_serioussam2_2.php
21 zu 20
Falsch:
http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index3_serioussam_1.php
Richtig:
http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index3_serioussam2_1.php

Bild auf 22
Falsch:
http://www.3dcenter.org/images/directx8_grafikchips_roundup/pic_ultima8.jpg
Richtig:
http://www.3dcenter.org/images/directx8_grafikchips_roundup/pic_ultima9.jpg

Da bin ich mir nicht ganz sicher

Killa Tomacco
2006-04-08, 12:37:01
Noch Anmerkungen die ich vergaß nun aber nachhole:
Habe die Gründe der Fehler gefunden falsche Verlinkung:

20 zu 21
Falsch:
http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index3_serioussam_2.php
Richtig:
http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index3_serioussam2_2.php
21 zu 20
Falsch:
http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index3_serioussam_1.php
Richtig:
http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index3_serioussam2_1.php

Das die Verlinkung die ich als richtig gekennzeichnend habe stimmt siehe:
19 zu 20
22 zu 21


Bild auf 22
Falsch:
http://www.3dcenter.org/images/directx8_grafikchips_roundup/pic_ultima8.jpg
Richtig:
http://www.3dcenter.org/images/directx8_grafikchips_roundup/pic_ultima9.jpg

Da bin ich mir nicht ganz sicher
Denn ich weiß nicht ob der von mir als richtig gekennzeichnende Link ein Ultima 9 Screenshot ist.

Killa Tomacco
2006-06-12, 13:52:10
Hmm die Fehler sind noch drin. Dann scheint die Fehlerlösung von mir untergegangen zu sein.

Gast
2006-06-12, 21:00:49
Nee, aber die Dinge dauern hier für gewöhnlich ein Weilchen.