PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HL2 auf nvidia.com


Keel
2003-07-28, 18:55:48
Öhm, ich pack das mal einfach in's NV-Forem, kann ggf. ja verschoben werden...

Auf der NV-Homepage wird jetzt Werbung für HL2 gemacht, oben rechts - scheint sich aber noch im Aufbau zu befinden.
Hier der Link:
http://www.nvidia.com/nzone/index.asp?linkSection=gaming&game=halflife2

Was haltet ihr davon? Will etwa NV mit seiner (bisher) schlechten Shader-Performance bei seiner aktuellen NV3x-Linie Werbung für ein Spiel machen, dass stark shaderlastig ist?

Winter[Raven]
2003-07-28, 18:59:26
Sollte Nvidia in dem Det.5 diese Shaderprobleme zu löscen, die anscheinend REINE SOFTWARE Probleme sind, sollte es einen guten Performence Schub geben bei den FX Karten.

LovesuckZ
2003-07-28, 19:04:30
Ist alt :)
Keine Ahnung was ich davon alten soll. Die ganze Geschichte mit HL² ist sowieso mehr als komisch.

WEGA
2003-07-28, 19:23:55
naja, nur wegen disen problemchen (FSAA) ? außerdem wer bruacht schon AA. also ich nicht.

nvidia macht für lauter grafisch gute spiele werbung (werbung für sich)

Keel
2003-07-28, 19:31:28
Original geschrieben von WEGA
naja, nur wegen disen problemchen (FSAA) ? außerdem wer bruacht schon AA. also ich nicht.

nvidia macht für lauter grafisch gute spiele werbung (werbung für sich)

Äh, nein nein, ich zielte jetzt nicht auf das (offensichtlich gelöste) Problem mit der Kantenglättung ab.
Ich bezog mich - wie in meinem ersten Post erwähnt - auf den bis jetzt schlechten Shaderspeed der aktuellen FXen, die vom reinen Shaderspeed her von den aktuellen R3xxxer locker um Längen geplättet wird. Angeblich soll das aber mit einem Compiler - welcher mit den 5x.xxer Detos erscheinen soll - geändert werden.
Dass es diesen Compiler gibt ist klar, die Frage ist, ob er wirklich soviel bringt. Denn bisher würde HL2 ohne diesen Compiler auf NV-Karten vermutlich geradezu lausig performen.
Eben darum wollte ich meine Verwunderung zum Ausdruck bringen, weil NV auf seiner Hompage Werbung für ein Spiel macht, bei welchem NV-Karten bis jetzt sehr schlecht abschneiden würden.

@ LovesuckZ

Dass das alt war wusste ich nicht, ich war jetzt eine Weile nicht mehr auf der NV-Homepage und hatte das bisher auch nicht im Forum gesehen.

mirp
2003-07-28, 20:12:21
Hier gibt es einen Erklärungsversuch der unterschiedlichen Shader-Architekturen von ATI und NVIDIA:

NV3x und die schlechte PS 1.4 und 2.0 Leistung. (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=73365)

Keel
2003-07-28, 20:47:08
Original geschrieben von mirp
Hier gibt es einen Erklärungsversuch der unterschiedlichen Shader-Architekturen von ATI und NVIDIA:

NV3x und die schlechte PS 1.4 und 2.0 Leistung. (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=73365)

Ich kenne diesen Thread (teilweise) und mir sind die Gründe für die schlechte Shader-Leistung vom Prinzip her bekannt. Ungünstige Umstände hin oder her, bis JETZT ist die Shder-Leistung bei NV-Karten einfach grottig, das wie und warum ist da zweitrangig. Nur aus Grund X und Y werden die Karten dadurch nicht schneller. Und solange es keinen offziellen (!) Treiber mit einem funktionstüchtigen und performancebringenden Compiler gibt, ist die Shaderperformance erst einmal schlecht (bzw. schlechter als bei der R3xx-Linie). Wenn die 5x.xxer Detos draußen sind, kann man ja nochmal darüber sinnieren, aber noch ist kein solcher Treiber draußen. (und das hier ist nicht das Speku-Forum)

Richthofen
2003-07-28, 21:01:13
ich finde es etwas merkwürdig über die HL Performance zu spekulieren, bevor das Game überhaupt da ist.

Wieso soll Nvidia nicht für HL2 werben?
Nvidia freut sich ausgiebigst über Spiele wie HL2, Doom3 und CO, weil sie das Geschäft ankurbeln.
Das Geschäft ist nicht geprägt durch 1 bis 5% Leistungsunterschieden bei HIgh End Karten sondern durch die Nachfrage bei Manstream und Low Cost Karten.

Durch erhältliche DX9 Software steigt die Nachfrage nach DX9 Hardware erheblich. Das zahlt sich für Nvidia als unangefochtener Marktführer aus und folglich werben sie mit solchen Titeln.
Die FX5200 und 5600 Reihe wird reißenden Absatz finden. Die High End Karten sind nur ein zusätzlicher Bonbon.
Fürs Gesamtgeschäft nicht von so großer Bedeutung wie man deutlich sehen konnte, als NV noch kein DX9 High End Produkt hatte.

HL2 wird auf NV Karten auch gut laufen. Bis zum Spiel ist noch ein wenig Zeit. Neue Optimierungen und ähnliches können hier viel bringen. Zudem sind für mich jegliche Performance Aussagen zu HL2 momentan reinste Spekulation. Es gibt keine Reviews ergo ist alles in diesem Zusammenhang zu diesem Zeitpunkt irrelevant.

Und sollten Optimierungen alleine nicht reichen, dann gibts immer noch FX12. Den Unterschied sieht die Masse eh nicht.

reunion
2003-07-28, 21:14:20
Original geschrieben von Richthofen
ich finde es etwas merkwürdig über die HL Performance zu spekulieren, bevor das Game überhaupt da ist.

Wieso soll Nvidia nicht für HL2 werben?
Nvidia freut sich ausgiebigst über Spiele wie HL2, Doom3 und CO, weil sie das Geschäft ankurbeln.
Das Geschäft ist nicht geprägt durch 1 bis 5% Leistungsunterschieden bei HIgh End Karten sondern durch die Nachfrage bei Manstream und Low Cost Karten.

Durch erhältliche DX9 Software steigt die Nachfrage nach DX9 Hardware erheblich. Das zahlt sich für Nvidia als unangefochtener Marktführer aus und folglich werben sie mit solchen Titeln.
Die FX5200 und 5600 Reihe wird reißenden Absatz finden. Die High End Karten sind nur ein zusätzlicher Bonbon.
Fürs Gesamtgeschäft nicht von so großer Bedeutung wie man deutlich sehen konnte, als NV noch kein DX9 High End Produkt hatte.

HL2 wird auf NV Karten auch gut laufen. Bis zum Spiel ist noch ein wenig Zeit. Neue Optimierungen und ähnliches können hier viel bringen. Zudem sind für mich jegliche Performance Aussagen zu HL2 momentan reinste Spekulation. Es gibt keine Reviews ergo ist alles in diesem Zusammenhang zu diesem Zeitpunkt irrelevant.

Und sollten Optimierungen alleine nicht reichen, dann gibts immer noch FX12. Den Unterschied sieht die Masse eh nicht.

Ähhm könnte sein das ich mich jetzt teusche aber Hl² unterstützt überhaupt kein DX9. Das war doch der Grund warum man Probleme mit dem FSAA hat(te). Die man mit DX9 nicht hätte....

Raver
2003-07-28, 22:09:01
Original geschrieben von reunion
Ähhm könnte sein das ich mich jetzt teusche aber Hl² unterstützt überhaupt kein DX9. Das war doch der Grund warum man Probleme mit dem FSAA hat(te). Die man mit DX9 nicht hätte....


Das Problem ist dass Sie schon DX 9.1 unterstützen...zumindest Teile.

Keel
2003-07-28, 22:10:57
Original geschrieben von Richthofen
ich finde es etwas merkwürdig über die HL Performance zu spekulieren, bevor das Game überhaupt da ist.

Wieso soll Nvidia nicht für HL2 werben?
Nvidia freut sich ausgiebigst über Spiele wie HL2, Doom3 und CO, weil sie das Geschäft ankurbeln.
Das Geschäft ist nicht geprägt durch 1 bis 5% Leistungsunterschieden bei HIgh End Karten sondern durch die Nachfrage bei Manstream und Low Cost Karten.

Durch erhältliche DX9 Software steigt die Nachfrage nach DX9 Hardware erheblich. Das zahlt sich für Nvidia als unangefochtener Marktführer aus und folglich werben sie mit solchen Titeln.
Die FX5200 und 5600 Reihe wird reißenden Absatz finden. Die High End Karten sind nur ein zusätzlicher Bonbon.
Fürs Gesamtgeschäft nicht von so großer Bedeutung wie man deutlich sehen konnte, als NV noch kein DX9 High End Produkt hatte.

HL2 wird auf NV Karten auch gut laufen. Bis zum Spiel ist noch ein wenig Zeit. Neue Optimierungen und ähnliches können hier viel bringen. Zudem sind für mich jegliche Performance Aussagen zu HL2 momentan reinste Spekulation. Es gibt keine Reviews ergo ist alles in diesem Zusammenhang zu diesem Zeitpunkt irrelevant.

Und sollten Optimierungen alleine nicht reichen, dann gibts immer noch FX12. Den Unterschied sieht die Masse eh nicht.

Es geht hier nicht um Mainstream oder Low Cost, auf diese Breiche ziele ich nicht ab. Es geht mir um High-End und leicht darunter (ich sag mal so atm 300 € aufwärts).
Ich will das Spiel bei 1024x768 @ hq-settings und vielleicht nochn bissel aa oder af flüssig zocken können. Daher fällt Mainstream automatisch raus.

Und ich muss dir eindeutig widersprechen, wenn du sagst, dass Aussagen über die Performance in HL2 nur Spekulation wären. Anhand synthetischer Benches zur Bestimmung der Shaderperformance und die allgemein gegenwärtige Lage lässt mich annehmen, dass NV-Karten atm nicht sehr gut bei HL2 performen.

Warum sie dafür keine Werbung machen sollten? Eben weil ich bei NV-Karten nach meiner Vermutung bisher keine gute Performance erwarten würde (vielleicht ist es aber gar nicht so gravierend oder NV kann das mit den 5x.xxer Detos beheben, aber bisher spricht nicht viel dafür).

Ich hoffe sogar, dass NV das mit zum Release in den Griff kriegt. Ich hoffe ja auch Optimierungen, sei es der Compiler oder oder eben ein speziell auf die FXen optimierter Treiber, solange es denn auch legale Optimierungen sind.

Richthofen
2003-07-28, 22:22:42
Hallo......

Die Performance ist bei der Werbung zweitrangig.
Spiele wie HL2 fördern die Nachfrage nach DX9 Chips und nur ein Hersteller kann die in vollem Umfang befriedigen und das ist Nvidia.
ATI hat weder die Kapazitäten bei TSMC dafür noch bieten sie DX9 im Low End an.
Es geht bei der Werbung nicht darum, wo HL2 nun in hohen Auflösungen besonders flüssig oder mit 1 bis 5fps schneller läuft als bei Konkurenten sondern darum, dass dies ein Spiel der neuen Generation ist, welches den Verkauf von DX9 Hardware im Gesamtmarkt überproportional beschleunigt.

HL2 alleine reicht dafür natürlich nicht aus aber es stehen noch andere Kracher auf dem Programm.
Hör dir die Nvidia Conference Calls an.
Seit gut 1 Jahr schwärmt der gute CEO Huang von nichts anderem mehr als von HL2, Doom3, UT, Stalker und ähnlichen Krachern.
Diese Titel fördern sein Geschäft.

Das Geschäft ist getragen durch die Nachfrage nach entsprechenden Produkten. Und die ergibt sich nur, wenn der Content dafür vorhanden ist, mit dem man dann werben kann. Nur so erfährt der Gesamtmarkt ein Wachstum.
Ob HL2 nun auf einer FX5200 flüssig läuft oder nicht spielt dabei gar keine Rolle. Hauptsache der normale Kunde glaubt das er hier noch nie dagewesene Effekte zu sehen bekommt, für die er DX9 Hardware benötigt und da liegt er bei NV am besten.
Dort wird nur noch DX9 angeboten und deshalb werben die dafür.

Du überschätzt die Wirkung irgendwelcher Reviews, die nun auf das einzelne Frame runtermessen erheblich. Das ist für den normalen Kunden total uninteressant. Der will Content und die Hardware mit den entsprechenden Paperspecs.

ow
2003-07-28, 22:28:20
Original geschrieben von Raver
Das Problem ist dass Sie schon DX 9.1 unterstützen...zumindest Teile.

Es gibt kein DX9.1.

Keel
2003-07-28, 22:51:42
Original geschrieben von Richthofen
Hallo......

Die Performance ist bei der Werbung zweitrangig.
Spiele wie HL2 fördern die Nachfrage nach DX9 Chips und nur ein Hersteller kann die in vollem Umfang befriedigen und das ist Nvidia.
ATI hat weder die Kapazitäten bei TSMC dafür noch bieten sie DX9 im Low End an.
Es geht bei der Werbung nicht darum, wo HL2 nun in hohen Auflösungen besonders flüssig oder mit 1 bis 5fps schneller läuft als bei Konkurenten sondern darum, dass dies ein Spiel der neuen Generation ist, welches den Verkauf von DX9 Hardware im Gesamtmarkt überproportional beschleunigt.

HL2 alleine reicht dafür natürlich nicht aus aber es stehen noch andere Kracher auf dem Programm.
Hör dir die Nvidia Conference Calls an.
Seit gut 1 Jahr schwärmt der gute CEO Huang von nichts anderem mehr als von HL2, Doom3, UT, Stalker und ähnlichen Krachern.
Diese Titel fördern sein Geschäft.

Das Geschäft ist getragen durch die Nachfrage nach entsprechenden Produkten. Und die ergibt sich nur, wenn der Content dafür vorhanden ist, mit dem man dann werben kann. Nur so erfährt der Gesamtmarkt ein Wachstum.
Ob HL2 nun auf einer FX5200 flüssig läuft oder nicht spielt dabei gar keine Rolle. Hauptsache der normale Kunde glaubt das er hier noch nie dagewesene Effekte zu sehen bekommt, für die er DX9 Hardware benötigt und da liegt er bei NV am besten.
Dort wird nur noch DX9 angeboten und deshalb werben die dafür.

Du überschätzt die Wirkung irgendwelcher Reviews, die nun auf das einzelne Frame runtermessen erheblich. Das ist für den normalen Kunden total uninteressant. Der will Content und die Hardware mit den entsprechenden Paperspecs.

Also in Kurzform: NV macht damit Werbung, um GraKas verkaufen zu können, weil die breite (unwissende) Masse glaubt, dass die Karten darauf gut und schön performen werden.

Nun gut, dann muss ich mich von dieser Werbung wohl (vorerst) nicht angesprochen fühlen. :D

Kai
2003-07-28, 23:02:17
Original geschrieben von Keel
Also in Kurzform: NV macht damit Werbung, um GraKas verkaufen zu können, weil die breite (unwissende) Masse glaubt, dass die Karten darauf gut und schön performen werden.

Falsch. nVidia macht damit Werbung, um GraKas verkaufen zu können, weil die breite Masse (immernoch die DAU's) glaubt, dass die Karten die einzige Lösung darstellen Half-Life2 überhaupt zu spielen.

Nicht nur nVidia macht's so ...

Frag mal nen "Dau" ob ihn das 15 fps Geruckel auf seinem Moni da nicht stört. Der wird dir nur zwei Antworten geben können:

Entweder:
a) Was für'n Ding? oder
b) stört mich net

LovesuckZ
2003-07-28, 23:28:51
Original geschrieben von reunion
Ähhm könnte sein das ich mich jetzt teusche aber Hl² unterstützt überhaupt kein DX9. Das war doch der Grund warum man Probleme mit dem FSAA hat(te). Die man mit DX9 nicht hätte....

So wie ich das verstand, seien die FSAA Probleme auf ein Feature zurueck zu führen, dass erst Plicht in PS3.0 sei. ATi unterstuetze dies (egal ob ganz oder teilweise) jez schon und Valve hat dieses Feature verwendet.
Die FSAA Probleme koennten auf den NV3x Karten durch die PS2.0 behoben werden, für NV2x Cards sieht es dagegen schlecht aus...

Phantom
2003-07-28, 23:36:02
HL² und Features ist schon verdächtig.



MFG
Phantom

Keel
2003-07-29, 00:01:31
Original geschrieben von Kai
Falsch. nVidia macht damit Werbung, um GraKas verkaufen zu können, weil die breite Masse (immernoch die DAU's) glaubt, dass die Karten die einzige Lösung darstellen Half-Life2 überhaupt zu spielen.

Nicht nur nVidia macht's so ...

Frag mal nen "Dau" ob ihn das 15 fps Geruckel auf seinem Moni da nicht stört. Der wird dir nur zwei Antworten geben können:

Entweder:
a) Was für'n Ding? oder
b) stört mich net

Ich habe zwar nichts grundlegend anderes gesagt, aber du hast das Haar wirklich exakt in der Mitte getroffen. :D

PS: Dass die Masse glaubt, dass NV die EINZIGE Lösung darstellt bezweifle ich doch mal stark, denn sehr viele Leute wissen, dass HL2 auf der e32k3 auf einer ATI-Karte vorgestellt wurde. Schließlich gibt's die Vids fast überall zum Download und jedes auch noch so kleine Game-Mag hat darüber nen Bericht geschrieben.

Gast
2003-07-29, 01:30:40
achja wusstet ihr schon, dass HL2 auch ein The Way it's meant to be played Spiel sein wird? :)

Naja hauptsache es wurde auf ATI Hardware gezeigt *hust*
Geld zieht eben immer :)

Kai
2003-07-29, 02:22:16
Original geschrieben von Keel

PS: Dass die Masse glaubt, dass NV die EINZIGE Lösung darstellt bezweifle ich doch mal stark, denn sehr viele Leute wissen, dass HL2 auf der e32k3 auf einer ATI-Karte vorgestellt wurde.

Oooh, wenn du da mal nicht fehlinformiert bist. Die Masse wird gerade in solchen Foren wie diesen hier derbst überschätzt, alldiweil hier sowieso nur Freaks rumfliegen ;)

Frag doch mal den handelsüblichen Gamer, der im Karstadt neue Spiele durchwühlt ob ihm klar ist, das HL2 auf ATI-Karten präsentiert wurde. Frag ihn mal, ob er weiss was ein anisotroper Filter ist. Ich glaub, ich mach mal so ne Umfrage - ernsthaft.

Meine Theorie wird doch nur durch praktische Fälle bestätigt. Unreal2 hat sich blendend verkauft - und zieh dir doch mal die Charts rein (vor allem USA).

mapel110
2003-07-29, 02:27:30
Original geschrieben von Kai
Oooh, wenn du da mal nicht fehlinformiert bist. Die Masse wird gerade in solchen Foren wie diesen hier derbst überschätzt, alldiweil hier sowieso nur Freaks rumfliegen ;)

Frag doch mal den handelsüblichen Gamer, der im Karstadt neue Spiele durchwühlt ob ihm klar ist, das HL2 auf ATI-Karten präsentiert wurde. Frag ihn mal, ob er weiss was ein anisotroper Filter ist. Ich glaub, ich mach mal so ne Umfrage - ernsthaft.

Meine Theorie wird doch nur durch praktische Fälle bestätigt. Unreal2 hat sich blendend verkauft - und zieh dir doch mal die Charts rein (vor allem USA).

da muss ich kai rechtgeben.
obwohl, hm, nee, ich hab ne ATI graka :D :weg:

Demirug
2003-07-29, 07:41:00
Original geschrieben von Raver
Das Problem ist dass Sie schon DX 9.1 unterstützen...zumindest Teile.

Ich glaube langsam lege ich mir einen Thread an auf den ich nur noch verlinken muss. "Centroid Sampling" ist kein DX 9.1 Feature. Es war mal ein DX 9.1 Feature bevor alles in DX 9 gerutscht ist und DX 9.1 als tot erklärt wurde. "Centroid Sampling" wird aber von DX nur in Verbidnung mit Pixelshader 3.0 unterstützt. Um genau zu sein ist es sogar ein Plichtfeature. Das alles bringt aber ATI und Valve recht wenig. ATI hat noch keine PS 3.0 taugliche Hardware und Valve wird kaum solange warten wollen bis sich das Problem von aleine auflöst. Wollen Valve und ATI also "Centroid Sampling" benutzten müssen sie tricksen weil MS wegen einer solchen Sache kaum ein DX 9.1 auflegen wird. Vorallem da es ATI scheinbar ja schon bei DX 9 nicht geschaft (oder einfach vergessen) hat "Centroid Sampling" als Option für PS 2.0 zu verankern.

nggalai
2003-07-29, 08:46:37
Hola Keel,
Original geschrieben von Keel
PS: Dass die Masse glaubt, dass NV die EINZIGE Lösung darstellt bezweifle ich doch mal stark, denn sehr viele Leute wissen, dass HL2 auf der e32k3 auf einer ATI-Karte vorgestellt wurde. Schließlich gibt's die Vids fast überall zum Download und jedes auch noch so kleine Game-Mag hat darüber nen Bericht geschrieben. Nur kratzt das Otto Normaluser nicht weiters. Ich musste da auch schon ein paarmal einen "Reality-Check" erleben . . . Ich werde von Computerspielern--sowohl hardcore als auch Gelegenheitsspielern--, Informatikern etc. im Bekanntenkreis immerwieder angefragt, was sie denn für eine Grafikkarte kaufen sollen.

Bis auf eine handvoll mal (von etwa 120 solcher Anfragen) haben alle beim Wort "ATI" die Stirn gerunzelt und gefragt "ATI? Ist das Ding denn Nvidia-Kompatibel? Welcher Geforce-Chip ist denn da drauf?"

Und wir sprechen hier auch von Leuten, die Pro Jahr zwischen 800 und 1000 Euro für Computerspiele ausgeben.

Natürlich, auch das ist nur "anekdotisch". Aber eben, wie schon oft gesagt: Bitte bitte schliesst von Foren wie diesem hier nicht auf den generellen Informationsstand "da draussen". Der Durchschnitts-User da draussen glaubt, dass "Pixel Shader" immer dann verwendet werden, wenn man tolle Explosionen sieht, und verwechselt Detail-Texturen mit Bump-Maps--sofern er die Wörter überhaupt kennt. ;)

93,
-Sascha.rb

Gast
2003-07-29, 11:09:19
es ist zum schreien!
ich bin total verunsichert... nv oder ati... *schrei*

Gast
2003-07-29, 11:19:53
Original geschrieben von nggalai
Hola Keel,
Nur kratzt das Otto Normaluser nicht weiters. Ich musste da auch schon ein paarmal einen "Reality-Check" erleben . . . Ich werde von Computerspielern--sowohl hardcore als auch Gelegenheitsspielern--, Informatikern etc. im Bekanntenkreis immerwieder angefragt, was sie denn für eine Grafikkarte kaufen sollen.

Bis auf eine handvoll mal (von etwa 120 solcher Anfragen) haben alle beim Wort "ATI" die Stirn gerunzelt und gefragt "ATI? Ist das Ding denn Nvidia-Kompatibel? Welcher Geforce-Chip ist denn da drauf?"

Und wir sprechen hier auch von Leuten, die Pro Jahr zwischen 800 und 1000 Euro für Computerspiele ausgeben.

Natürlich, auch das ist nur "anekdotisch". Aber eben, wie schon oft gesagt: Bitte bitte schliesst von Foren wie diesem hier nicht auf den generellen Informationsstand "da draussen". Der Durchschnitts-User da draussen glaubt, dass "Pixel Shader" immer dann verwendet werden, wenn man tolle Explosionen sieht, und verwechselt Detail-Texturen mit Bump-Maps--sofern er die Wörter überhaupt kennt. ;)

93,
-Sascha.rb


Bitte entschuldige, aber da bist du wohl nicht mehr auf dem neuesten Stand oder aber der Fortschritt hält in der Schweiz langsamer Einzug als hier. :D

In meinen Bekanntenkreis gibt es 2 Typen:

1. Ich bleib bei Nvidia, ne Geforce /2 war meine erste richtige Grafikkarte und die war so toll...

2. Ich will ne ATI, die sollen doch jetzt so toll sein, ausserdem fand ich Nvidia schon immer .... . Wenn die R9500Pro /R9800 dann drin steckt hört man immer "ahh" und "ohh" und "das sieht ja viel geiler aus als auf meiner Geforce".

D.h., Otto Normal User agiert genauso wie die meisten hier im Forum, nur langsamer.

La Junta
2003-07-29, 13:16:14
Original geschrieben von Gast
Bitte entschuldige, aber da bist du wohl nicht mehr auf dem neuesten Stand oder aber der Fortschritt hält in der Schweiz langsamer Einzug als hier. :D

In meinen Bekanntenkreis gibt es 2 Typen:

1. Ich bleib bei Nvidia, ne Geforce /2 war meine erste richtige Grafikkarte und die war so toll...

2. Ich will ne ATI, die sollen doch jetzt so toll sein, ausserdem fand ich Nvidia schon immer .... . Wenn die R9500Pro /R9800 dann drin steckt hört man immer "ahh" und "ohh" und "das sieht ja viel geiler aus als auf meiner Geforce".

D.h., Otto Normal User agiert genauso wie die meisten hier im Forum, nur langsamer.
Du hast einen etwas überdurchschnittlichen Bekannten Kreis :) . In der Schweiz halten neue Sachen ziemlich schnell einzug , weil die Franken gut sind :) .
Ich kenne trotzdem extrem viele die nur Pentium und G-Force kennen . Was ist AMD ? Was ist Radeon ?
Einer ist echt der hardcorste GAmer überhaupt . Er kaufte sich eine neue Graka , weil seine GF4TI-4400 zu alt ist , kauft er sich ne neue GF FX 5600 256MB , Wieso die ? Na ganz einfach , sie ist die billigste GF mit 256MB .
Was spielt das für eine Rolle ? Na was denn , die menge an RAm sagt aus wie schnell die Graka ist . Logisch , oder ?
Der würde sich eher einen Celeron kaufen , als überhapt mal einen AMD in Erwägung zu ziehen . Wieso ? weil er nur das kennt . Wenn r CPU sagen will , sagt er : Mein Pentium :) .

Ok , der ist ein extremfall , aber es gibt extrem viele solche , die durch zeitschrifften noch stärker in ihrer Denkweisse bestätigt werden . Ich meine ja , die GAmestar sagt ja , dass dieses GAme mit der Gf am besten läuften . Mit der Radeon nicht .

Kai
2003-07-29, 13:40:14
Original geschrieben von Gast
D.h., Otto Normal User agiert genauso wie die meisten hier im Forum, nur langsamer.

Und das macht die Sache nicht schon schlimm genug? Angenommen ATI wandert jetzt wieder auf den absteigenden Ast und baut nur noch Schrott. Wer ist denn dann der gearschte?

Entweder man weiss von was man redet, oder mal sollte besser auf Leute hören die sich regelmässig damit beschäftigen. Zumindest ich hab jedenfalls keinen Bock mehr den modernen "Robin Hood, Retter der Dau's" zu mimen. Bin schon so weit, das ich in meinem Bekanntenkreis einfach nur noch die Klappe halte wenn's um das Thema "PC" geht. Ich kann sagen was ich will, ich bringe die Leute immer auf doofe Ideen irgendwas zu kaufen, für das ich mich interessiere. Wenn's dann nicht so rutscht wie's soll - na ratet mal bei wem das Telefon klingelt.

So sind mir jetzt schon zwei Freundschaften den Bach runtergegangen, weil sie nicht gerallt haben, das ich nicht ihr "Privat-Admin" bin. Ich hab dann zwar ab und zu mal Polemik geklopft - a la "Nen Fernseher baust du dir ja auch nicht zusammen und lässt dann den R&F-Elektroniker kommen wenn er nicht mehr funzt", aber fruchten tut das wenig.

Bin ein wenig vom Thema abgeglitten. Was ich damit sagen wollte: Die Leute, die sich halt einfach nicht wirklich so gut mit der Materie auskennen, aber dann mit dem Finger am Kinn und dem Kopf in Schräglage mit anderen fachsimpeln als hätten's grad den MCSE hinter sich gibt's zur Genüge. Die bilden sich ihre eigenen Realitäten - und genau da hin schlägt momentan auch die Marketingstrategie einiger vieler Firmen. Die ham halt gecheckt, das Thema Nr.1 vieler Schüler in der grossen Pause "Wie bau ich meine nVidia Karte in den Rechner ein" ist.

ShadowXX
2003-07-29, 14:17:10
@Kai

full ack...

Ich gehe inzwischen schon so weit das ich verleugne überhaupt etwas von Computern zu verstehen......

Kann allerdings dann manchmal etwas unangenehm sein, wenn dann manche herrausfinden das ich System/Anwendungsprogrammierer bin....

J.S.Shadow

Keel
2003-07-29, 19:18:58
@ Kai & nggalai

Ich wollte es zwar erst hinzuschreiben, hab es dann aber doch unterlassen - warum weiß ich auch nicht...
Ich bin KEINESFALLS von den Leuten hier im Forum ausgegangen, sondern von dem, was ich hier so im Freundeskreis bei mir höre. Und selbst einer von denen, der sonst NV-only war, will sich anscheinend demnächst ne ATI-Karte kaufen (9700 np). Ein anderer zeigte sich zwar sehr erstaunt über die Tatsache, dass HL2 auf einer ATI-Karte vorgestellt wurde und dass ATI jetzt wohl recht stark sei, aber er glaubte mir letzten Endes.
Nach dem zu urteilen, was ich so bei mir von Freunden höre, scheinen die doch eher positiv überrascht von ATI zu sein. Sind zwar noch etwas misstrauisch und voreingenommen, doch das legt sich.
Erfahrungen wie bei euch habe ich bisher in meinem Freundeskreis noch keine gemacht.

Kai
2003-07-30, 01:28:30
NOCH kennt sich nicht jeder mit PC's aus. Hier in der Umgebung will zum Beispiel jeder was können, aber im Endeffekt kommt bei den meisten nur heisse Luft raus. Das einige meiner Kumpels nichts mit dem Namen "ATI" anfangen können, heisst nicht, das sie so doof wie Lucas von TV Total sind.

Ich habe erst neulich zwei neue Freundschaften aufgebaut, die genau wissen von was wir hier reden. Mein Tipp an alle geplagten wie ich: Schafft euch neben euren Saufkumpanen PC-Nerd's als Freunde an und geht getrennt mit denen was unternehmen. Das hat mir geholfen.

nggalai
2003-07-30, 08:33:00
Hi Kai,

hehe. Naja, ich bin einfach immer ein wenig gar sarkastisch, das funktioniert auch ganz gut. Und den Vergleich à la "einen Hifi-CD-Spieler schraubst Du dir ja auch nicht selbst zusammen, also lass das mitm Computer" habe ich auch schon ein paarmal gebracht.

Und ja--nur weil die Leute z.B. ATI nicht kennen heisst das noch lange nicht, dass das "DAUs" oder allgemein doofe Mütze sind. Das wird schonnoch werden.

93,
-Sascha.rb

Stanger
2003-07-30, 12:45:49
Sorry f. OT: Aber ich hab grad gelesen das von Valve veröffentlicht wurde dass HL 2 nicht wie geplant am 30.09 veröffentlicht wird sondern auf die Ferienzeit verschoben wird (nicht die Sommerferien !.

Stanger

DrumDub
2003-07-30, 17:44:12
Original geschrieben von Kai
Meine Theorie wird doch nur durch praktische Fälle bestätigt. Unreal2 hat sich blendend verkauft - und zieh dir doch mal die Charts rein (vor allem USA).

hihi... da muss ich direkt wieder an "deer hunter" denken...

Razor
2003-07-30, 18:38:16
Original geschrieben von LovesuckZ
So wie ich das verstand, seien die FSAA Probleme auf ein Feature zurueck zu führen, dass erst Plicht in PS3.0 sei. ATi unterstuetze dies (egal ob ganz oder teilweise) jez schon und Valve hat dieses Feature verwendet.
Die FSAA Probleme koennten auf den NV3x Karten durch die PS2.0 behoben werden, für NV2x Cards sieht es dagegen schlecht aus...
Ich habe das etwas anders verstanden...

Die Implementierung der 3D-Engine von HL2 ist... gelinde ausgedrückt... 'etwas' danben, welches in erster Linie das MSAA betrifft, welches in derzeitiger Form nicht damit zusammen arbeiten möchte.

Das 'PS3.0' Feature (centroid sampling ?) bietet die Möglichkeit, eine andere Form als dem derzeitig implementierten MSAA zu nutzen und damit die Problematik an sich zu umgehen. Auch die konsequente Nutzung von PS2.0-Shadern würde dieses bewerkstelligen.

Insofernt 'nutzt' HL2 keine PS3.0-Shader (auch nicht einzelne Features daraus), sondern die Nutzung eines solchen würde die MSAA-Problematik umgehen.

Alles natürlich nur soweit ich verstanden habe...
(oder kurz AFAIK und IMO ;-)
:D

Razor

Razor
2003-07-30, 18:48:50
Original geschrieben von Keel
Ich kenne diesen Thread (teilweise) und mir sind die Gründe für die schlechte Shader-Leistung vom Prinzip her bekannt. Ungünstige Umstände hin oder her, bis JETZT ist die Shder-Leistung bei NV-Karten einfach grottig, das wie und warum ist da zweitrangig. Nur aus Grund X und Y werden die Karten dadurch nicht schneller. Und solange es keinen offziellen (!) Treiber mit einem funktionstüchtigen und performancebringenden Compiler gibt, ist die Shaderperformance erst einmal schlecht (bzw. schlechter als bei der R3xx-Linie). Wenn die 5x.xxer Detos draußen sind, kann man ja nochmal darüber sinnieren, aber noch ist kein solcher Treiber draußen. (und das hier ist nicht das Speku-Forum)
Du bist offenbar überhaupt nicht mit dieser Problematik vertraut...

Der M$-Compiler in dem derzeit offiziell verfügbaren SDK 'optimiert' offenbar auf ATI-Hardware. Näheres bitte (nochmals !) im zugehörigen Thread nachschlagen... In den schon verfügbaren Beta-SDK's ist dem schon Rechnung getragen worden und so wurden nun alternative Zielpfade implementiert (der erste ist 2a für nVidia), welche es ermöglichen werden, die unterschiedlichen Hardware-Implementierungen optimal zu unterstützen.

So ist es wohl nur eine Frage der Zeit, bis auch andere Chip-Hersteller kommen und ebenfalls eigene Zielpfade benötigen (nVidia hier wohl keine Ausnahme bleibt).

Fakt ist aber, dass ATI-optimierter Code schlecht (oder nur leidlich) auf nVidia-Hardware läuft und umgekehrt.

-

Die zukünftigen Treiber (Deto 50) sollen Gerüchten zurfolge einen integrierten Compiler enthalten, welcher den M$-erzeugten Code recompilieren kann, um so einen nVidia freundlichen Code zu erhalten. Besser wäre es selbstredend, wenn die Engine-Entwickler dazu übergehen würden, lediglich den Source-Code mitzubringen und diesen durch den Treiber compilieren zu lassen, um so Fehloptimierungen zu vermeiden.

-

Und aus was bitte schließt Du, dass die nVidia-Shader-Performance schlecht ist ?
Aus dem Murks etwa ?
???

Das erste verfügbare Game-Demo ist GunMetal2 und hier zeigt nVidia sehr deutlich, dass von einer schlechten Shader-Performance keine Rede sein kann. Der Aquanox3-Bench wird kommen und auch bei HL2 müssen die Kontrahenten erst noch zeigen, wie sich das mit der Performance verhält. Und es würde mich nicht wundern, wenn nVidia hier eine Überraschung für uns bereit hält.

Schaun' wir mal !

Aber aufgrund einer absolut ungesicherten Basis solcherart Behauptungen aufzustellen, ist schon ziemlich hart.

Razor

Keel
2003-07-30, 20:28:35
Original geschrieben von Razor
Du bist offenbar überhaupt nicht mit dieser Problematik vertraut...

Der M$-Compiler in dem derzeit offiziell verfügbaren SDK 'optimiert' offenbar auf ATI-Hardware. Näheres bitte (nochmals !) im zugehörigen Thread nachschlagen... In den schon verfügbaren Beta-SDK's ist dem schon Rechnung getragen worden und so wurden nun alternative Zielpfade implementiert (der erste ist 2a für nVidia), welche es ermöglichen werden, die unterschiedlichen Hardware-Implementierungen optimal zu unterstützen.

So ist es wohl nur eine Frage der Zeit, bis auch andere Chip-Hersteller kommen und ebenfalls eigene Zielpfade benötigen (nVidia hier wohl keine Ausnahme bleibt).

Fakt ist aber, dass ATI-optimierter Code schlecht (oder nur leidlich) auf nVidia-Hardware läuft und umgekehrt.

-

Die zukünftigen Treiber (Deto 50) sollen Gerüchten zurfolge einen integrierten Compiler enthalten, welcher den M$-erzeugten Code recompilieren kann, um so einen nVidia freundlichen Code zu erhalten. Besser wäre es selbstredend, wenn die Engine-Entwickler dazu übergehen würden, lediglich den Source-Code mitzubringen und diesen durch den Treiber compilieren zu lassen, um so Fehloptimierungen zu vermeiden.

-

War mir alles schon vorher bekannt.
Dass der jetzige Code nicht gerade NV-freundlich ist, war mir durchaus bewusst, darum hoffe ich ja auf die 5x.xxer Detos, wo dieses "Problem" dann vielleicht mal beseitigt bzw. abgeschwächt werden kann.
Aber dass der Code nunmal nicht gerade NV-freundlich ist, kann man eigentlich nur NV bzw. TSMC zuschreiben, aber sei's drum, das gehört ja vielleicht (hoffentlich) bald der Vergangenheit an.

Original geschrieben von Razor
Und aus was bitte schließt Du, dass die nVidia-Shader-Performance schlecht ist ?
Aus dem Murks etwa ?
???

Das erste verfügbare Game-Demo ist GunMetal2 und hier zeigt nVidia sehr deutlich, dass von einer schlechten Shader-Performance keine Rede sein kann. Der Aquanox3-Bench wird kommen und auch bei HL2 müssen die Kontrahenten erst noch zeigen, wie sich das mit der Performance verhält. Und es würde mich nicht wundern, wenn nVidia hier eine Überraschung für uns bereit hält.

Schaun' wir mal !

Aber aufgrund einer absolut ungesicherten Basis solcherart Behauptungen aufzustellen, ist schon ziemlich hart.

Razor

Natürlich ist die Shaderperformance bei der NV3x-Lnie bisher unübertroffen und Sahne, wie konnte ich nur etwas anderes annehmen, ist ja schließlich NV.:stareup:

(nicht vergessen, Razorle, du musst dir jetzt jeden meiner Sätze vornehmen und alles ablehnen, weil ich laber ja prinzipiell nur Schrott und du bist der einzige mit Durchblick. ;))

Razor@Work
2003-08-01, 12:30:56
Original geschrieben von Keel
War mir alles schon vorher bekannt.
Dass der jetzige Code nicht gerade NV-freundlich ist, war mir durchaus bewusst, darum hoffe ich ja auf die 5x.xxer Detos, wo dieses "Problem" dann vielleicht mal beseitigt bzw. abgeschwächt werden kann.
Aber dass der Code nunmal nicht gerade NV-freundlich ist, kann man eigentlich nur NV bzw. TSMC zuschreiben, aber sei's drum, das gehört ja vielleicht (hoffentlich) bald der Vergangenheit an.



Natürlich ist die Shaderperformance bei der NV3x-Lnie bisher unübertroffen und Sahne, wie konnte ich nur etwas anderes annehmen, ist ja schließlich NV.:stareup:

(nicht vergessen, Razorle, du musst dir jetzt jeden meiner Sätze vornehmen und alles ablehnen, weil ich laber ja prinzipiell nur Schrott und du bist der einzige mit Durchblick. ;))
Sollte hier vielleicht ein wenig Polemik in Deinem Post 'versteckt' sein ?
:D

Hast Du denn auch weiter gelesen, als nur den ersten Satz ?
???

Razor

Razor@Work
2003-08-01, 12:39:56
Ups.
Habe den ersten Teil Deines Posts garnicht gelesen... sorry !
(und ich kann nicht einmal editieren :-()
Original geschrieben von Keel
War mir alles schon vorher bekannt.
Dass der jetzige Code nicht gerade NV-freundlich ist, war mir durchaus bewusst, darum hoffe ich ja auf die 5x.xxer Detos, wo dieses "Problem" dann vielleicht mal beseitigt bzw. abgeschwächt werden kann.
Aber dass der Code nunmal nicht gerade NV-freundlich ist, kann man eigentlich nur NV bzw. TSMC zuschreiben, aber sei's drum, das gehört ja vielleicht (hoffentlich) bald der Vergangenheit an.
Warum sollte dieses Problem nVidia, oder noch schlimmer TMSC zuzuschreiben sein ?
(letztere haben mit dem Design des Chips ja nun wirklich gar nichts zu tun)

Fakt ist, dass DX9 überhastet heraus kam (Beta-Version wurde zur Release-Version, ohne die Beta-Member zu informieren, oder gar deren Ergebnisse abzuwarten). Die einzig verfügbare Hardware war damals der R300 und ein Compiler der Source-Code in Maschinensprache umsetzt, muss nunmal auf die Hardware abgestimmt sein (wie auch bei den CPU's).

Was also will man jetzt nVidia vorwerfen ?
Dass die Hardware nicht genauso aufgebaut ist, wie die von ATI ?
Sorry, aber irgendwie...

Auch sollte man in Betracht ziehen, dass M$ dieses Problem ja schon aufgegriffen und entsprechend reagiert hat. Wenn nVidia jetzt nun noch die "Temporär-Entwicklungen" ala Murks03 in den Griff bekommt und vielleicht auch eine Lösung findet, 'einseitg' optimierten Code wieder 'gerade zu biegen', ist doch alles OK.

Die Ergebnisse im GunMetal-Bench lassen allerdings schon vermuten, dass die Shader-Leistung der FX'en gar nicht mal sooooo schlecht sein kann... ;)

Razor

Keel
2003-08-01, 13:58:13
Original geschrieben von Razor@Work
Ups.
Habe den ersten Teil Deines Posts garnicht gelesen... sorry !
(und ich kann nicht einmal editieren :-()

Warum sollte dieses Problem nVidia, oder noch schlimmer TMSC zuzuschreiben sein ?
(letztere haben mit dem Design des Chips ja nun wirklich gar nichts zu tun)

Fakt ist, dass DX9 überhastet heraus kam (Beta-Version wurde zur Release-Version, ohne die Beta-Member zu informieren, oder gar deren Ergebnisse abzuwarten). Die einzig verfügbare Hardware war damals der R300 und ein Compiler der Source-Code in Maschinensprache umsetzt, muss nunmal auf die Hardware abgestimmt sein (wie auch bei den CPU's).

Was also will man jetzt nVidia vorwerfen ?
Dass die Hardware nicht genauso aufgebaut ist, wie die von ATI ?
Sorry, aber irgendwie...

Nein nein, du warst eben schon fast richtig (zumindest meiner Ansicht nach).
Genau, DX9 kam auch meiner Ansicht nach zu früh heraus, aber so war es nunmal. Und - ich stimme dir hier ebenfalls zu - der R300 war zu diesem Zeitpunkt nunmal die einzig verfügbare DX9-HW, NV kam ja leider erst ne ganze Ecke später mit der NV3x-Linie. Also war M$ ganz einfach gezwungen, sich am R300 zu orientieren und so - zwangsläufig - einen etwas ATI-freundlichen bzw. letztendlich NV-unfreundlichen Code zu proggen.
So, bis hierhin denke ich mal dürfte es keine Einwände geben, oder?
ATI kann man wohl keine Vorwürfe machen (;)), M$ allerhöchstens insofern, dass sie DX9 ja später hätten herausbringen können.
Somit bleibt für mich nur NV und TSMC, denn ich sehe hier bei beiden die Schuld für das späte Erscheinen des NV30.
Wenn man hier also jemanden verantwortlich machen will, dann sehe ich hier eigentlich nur NV und TSMC. (gibt ja so einige Gründe für die Verspätung des NV30)

Original geschrieben von Razor@Work
Auch sollte man in Betracht ziehen, dass M$ dieses Problem ja schon aufgegriffen und entsprechend reagiert hat. Wenn nVidia jetzt nun noch die "Temporär-Entwicklungen" ala Murks03 in den Griff bekommt und vielleicht auch eine Lösung findet, 'einseitg' optimierten Code wieder 'gerade zu biegen', ist doch alles OK.

Die Ergebnisse im GunMetal-Bench lassen allerdings schon vermuten, dass die Shader-Leistung der FX'en gar nicht mal sooooo schlecht sein kann... ;)

Razor

Ja, sehe ich genauso.

Zu GunMetal: AFAIK benutzt das Spiel doch PS1.1 und VS2.0, oder? Insofern könnte man also bestenfalls von einem guten VS-Speed sprechen, falls VS denn hier tatsächlich so häufig eingesetzt werden.