PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Vertex Shader und IGP


Gast
2004-01-26, 11:04:40
In den heutigen Nachrichten steht ja, daß in den kommenden Chipsätzen der Vertex Shader in den integrierten Grafichips wohl genauso fehlen wird, wie beim derzeitigen RS300. Nun bin ich nicht sosehr bewandert in dem Thema, (dennoch interessiert es mich) ;), aber als ich bei Beyond 3D mal ein Preview dieses RS300 gelesen hatte, konnte der sehr gut mit einer FX5200 mithalten, obwohl der Radeon 9100 ja auch schon etwas älter ist.
Kann es sein das der Vertex Shader gar keinen so großen Einfluß auf die Performance hat oder werden die Vertes Shader bis heute noch nicht so genutzt, so daß das noch gar nicht ins Gewicht fällt?
In den Nachrichten steht ja auch, daß der Prozessor, die Arbeit des Vertex Shaders übernehmen soll. Ist vielleicht schon bekannt, ob es CPUs (Athlons, Pentium, VIA) gibt die einen Vertex Shader besser emulieren können als andere, so daß der "Leistungseinbruch" (sofern es ihn gibt) abgemildert wird?

x-dragon
2004-01-26, 12:49:25
Ich glaube nicht das es einen Prozessor geben wird bei dem es besser emuliert werden kann, da dies ja im Prinzip eine reine Softwarelösung ist und da zählt nur die reine Rechenpower. Ich kann mir auch nicht vorstellen das CPU-Hersteller Features von Grafikkarten integrieren wollen, dafür sind die eigentlichen Aufgabenbereiche zu unterschiedlich.

ow
2004-01-26, 13:56:57
.

Gast
2004-01-26, 14:38:45
Danke für die Antworten :)

Scheint ja so, daß der Vertex Shader ingesamt eher eine untergeordnete Rolle spielt, so daß man auf ihn verzichten könnte.

ShadowXX
2004-01-26, 15:42:52
Original geschrieben von Gast
Danke für die Antworten :)

Scheint ja so, daß der Vertex Shader ingesamt eher eine untergeordnete Rolle spielt, so daß man auf ihn verzichten könnte.

Das nun auch wieder nicht...wenn er benutzt wird, dann entlastet er die CPU ja..

Die hat dann wieder mehr Zeit für andere sachen....

Ausserdem wird dem VertexShader ab Version 3.0 (wenn er dann auch dementsprechend genutzt wird) doch noch stärkere Bedeutung zukommen....

J.S.Shadow

Matrix316
2004-01-26, 15:47:31
Original geschrieben von Gast
, aber als ich bei Beyond 3D mal ein Preview dieses RS300 gelesen hatte, konnte der sehr gut mit einer FX5200 mithalten, obwohl der Radeon 9100 ja auch schon etwas älter ist.


Ich denke mal es liegt eher an der 5200 die sehr langsam ist. Gegen eine TI4200 hat ja oft die 5600 auch keine Chance.

Gast
2004-01-26, 19:53:35
IMHO und aus der Erinnerung (da ich zu faul bin nachzusehen) :

a; Es hat sich um eine 64bit - FX5200 gehandelt.

b; Der IGP9100 war nur bei hohen Auflösungen schneller und bei niedrigen Auflösungen langsamer


=> bei einer 128bit FX5200 würde das ganze schon wieder anders aussehen (allerdings wäre diese Karte auch um einiges teurer)
+
Selbst die 64bit FX5200 hat größere Reserven, da man einfach die Auflösung runterschrauben kann um noch spielbare Fps zu erreichen, während der IGP9100 hier aufgrund des fehlenden Vertex-Shaders keine großen Reserven hat.

Gast
2004-01-26, 21:37:52
Ich habe nochmal nachgeschaut. Waren tatsächlich nur eine 64 bit FX5200 und eine Radeon 9200 SE. Bem Comanche 4 und Return to Castle Wolfestein Test hat sich der Radeon 9100 IGP tatsächlich so verhalten wie du es beschrieben hast. Bei Splinter Cell und UT2003 jedoch nicht.

Ich vermute mal das dieser Effekt dann auftritt, wenn ein Spiel sehr Prozessorlastig ist, wie Comanche 4. Vielleicht ist die CPU dann doch etwas zu stark belastet durch das Spiel und die Vertex Shader Emulation?

ShadowXX
2004-01-27, 09:17:09
Original geschrieben von Gast
Ich habe nochmal nachgeschaut. Waren tatsächlich nur eine 64 bit FX5200 und eine Radeon 9200 SE. Bem Comanche 4 und Return to Castle Wolfestein Test hat sich der Radeon 9100 IGP tatsächlich so verhalten wie du es beschrieben hast. Bei Splinter Cell und UT2003 jedoch nicht.

Ich vermute mal das dieser Effekt dann auftritt, wenn ein Spiel sehr Prozessorlastig ist, wie Comanche 4. Vielleicht ist die CPU dann doch etwas zu stark belastet durch das Spiel und die Vertex Shader Emulation?

Genau...es ist wie ich es schon erwähnte.

Wenn das Spiel die CPU sowieso nicht auslastet, dann kann der Vertex-Shader natürlich in einer guten Geschwindigkeit von dieser auch noch Emuliert werden (Und bei bestimmten GraKa vs. CPU senarien, durchaus schneller sein).

Wenn das Game allerdings sowieso schon sehr CPU-Lastig ist, bleibt auch nur noch wenig Rechenleistung für die VS-Emulation übrig...in diesem Fall greift der Hardware-VS.
Er entlastet die CPU, die sich dann nur noch um das Game zu kümmern braucht.

J.S.Shadow

Gast
2004-01-27, 13:17:25
Mit dieser Einschränkung durch die Vertex Shader Emulation, wie schätzt ihr diese Entwicklung bei den Chipsätzen mit den IGPs ein?
Ich vermute ja mal das ATIs RS400/480 mit dem Radeon 9600 IGP und VIAs PM890/K8M890 mit UniChrome3 IGP wohl die leistungsstärksten IGPs bieten werden. Mir kommt es so vor, als ob diese IGPs dann doch recht respektable Leistungen zu den gewöhnlichen Grafikkarten bieten werden, im Vergleich zu dem früheren Leistungsverhältnis von IGPs zu Grafikkarten. So daß man mit den Chipsatz IGPs vorläufig ganz gut leben kann und die Investition in eine neue Grafikkarte auf einen späteren Zeitpunkt/neue Generation verschieben kann. Oder, sofern man keine sehr hohen Ansprüche stellt, sogar durchaus länger verwenden kann.

ow
2004-01-27, 19:42:48
.