PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Ende der X800


Seiten : [1] 2

=Floi=
2007-08-21, 06:38:28
Hallo
oft wurde SM 3 auf der GF 6 belächelt aber jetzt kommen die ersten spiele die zwingend sm3 voraussetzen
die bioshock demo ist zum beispiel so ein titel

im grunde ist die karte dann nicht mehr brauchbar für diese spiele, weil es eben garnichtmehr läuft und somit ist wohl das lebensende der x800 in einem spiele pc erreicht
auch habe ich den eindruck es wird eher auch neue features gesetzt wie damals

Schwarzmetaller
2007-08-21, 06:46:17
Wann war Markteinführung der X800? Vllt. 3 Jahre her. und rohleistungsmässig können sich die X800/x850er-Baureihen, v.a. alles was Pro oder XT ist, locker im Feld der aktuellen Mittelklasse Karten der Couleur X16xx, HD24xx und GF76xxx etc ohne Probleme behaupten.
Die Zyklen werden wirklich immer kürzer..bis die GF4-Reihe obsolet war hat es doch ein wenig länger gedauert..

MFG
Schwarzmetaller

Das Auge
2007-08-21, 07:08:33
Naja, also wegen einem Spiel gleich vom Ende zu sprechen, halte ich für übertrieben. Es wird auch in Zukunft noch genug Spiele mit einem SM 2.0 Renderpfad geben, Bioshock stellt bislang klar die Ausnahme dar!

Außerdem werden über kurz oder lang alle DX9-Karten obsolet sein, Vista und DX10 sei dank. Aber man sieht ja wie schleppend das läuft, die Hersteller können nicht einfach am Markt vorbeientwickeln, bzw. nur in Ausnahmefällen (s. Halo 3, Bioshock).

Kurgan
2007-08-21, 07:11:28
ich bezweifel das bioshock mit einer 6x00 (was ja damals die sm3-alternative zu den x800 war) wirklich spass macht. außer man steht auf blöckchen-optik. :rolleyes:

mapel110
2007-08-21, 07:15:56
Geforce4 kam Anfang 2002 raus und BF2 war dann wohl eines der ersten Spiele, die sie aussperrten. Das kam 2005 raus.
Seit 2004 sind nun wieder 3 Jahre vergangen. Passt also irgendwie ganz gut zusammen.

ich bezweifel das bioshock mit einer 6x00 (was ja damals die sm3-alternative zu den x800 war) wirklich spass macht. außer man steht auf blöckchen-optik. :rolleyes:
Eine 6800 GT hat eine Füllrate von 5600 MTexel/s. Eine 8600 GT hat eine von 8600 MTexel/s. Soviel liegt da also nicht dazwischen, gemessen am Zeitraum von 3 Jahren.

Sentionline
2007-08-21, 07:44:02
ich bezweifel das bioshock mit einer 6x00 (was ja damals die sm3-alternative zu den x800 war) wirklich spass macht. außer man steht auf blöckchen-optik. :rolleyes:
Na, mit der behauptung wär ich vorsichtig. Ich werd jetzt meine 6800 Ultra von Rechner 1 auf die 2 Umbauen (müssen), weil ich BioShock zuminderst anspielen möchte. Dann sieht die konstellation bei mir wie folgt aus:

C2D E6300, 1 GB Ram, 6800 Ultra. Und der rechner schafft bestimmt nur Pixelgrafik :ucoffee:

Aber ich werde ein Performancereport liefern die Tage. Manchmal hab ich hier das gefühl, in einer High-End Gemeinde zu sprechen, die nur "Monster" Rechner zuhause stehen haben.:|

Ich find das echt heftig wie ATi seine kundschaft vergrault. Ich selber habe eine X850XT-PE die ja etwa 10% schneller als meine 6800 ist, und aktuell von der Rechnenleistung mit jeder aktuellen "mid Range" Grafikkarte mithalten kann.

Naja, das ende meiner X850 sehe ich auch so langsam. Aber ich kann die sache ja mal ganz anders betrachten:

X850XT-PE = schnellste je gebaute Shader 2 Grafikkarte?

Außerdem darf man nicht vergessen, das man mit der Karte noch etwa 98% der aktuell auf dem Markt erhältlichen Spiele spielen kann. Ich werd meine X800 noch nicht in Rente schicken.:smile:

Gast
2007-08-21, 08:17:19
Auch wenn meine X1800XT noch etwas länger unterstützt wird, sehe ich das ähnlich...läuft ein Spiel nicht...wird darauf verzichtet, es gibt genügend anderes zum durchspielen.

;-)

Mr.Magic
2007-08-21, 08:19:12
X850XT-PE = schnellste je gebaute Shader 2 Grafikkarte?

Nope, die schnellste Shader 2 Grafikkarte ist momentan die 8800Ultra.

Ja, sie ist die schnellste SM2-beschränkte Karte. Ob das positiv ist darf jeder für sich entscheiden.

AnarchX
2007-08-21, 08:28:55
Eine 6800 GT hat eine Füllrate von 5600 MTexel/s. Eine 8600 GT hat eine von 8600 MTexel/s. Soviel liegt da also nicht dazwischen, gemessen am Zeitraum von 3 Jahren.
Äpfel und Birnen! X-D

Aktuelle SM3-Games werden sicherlich noch auf einer 6800 laufen, aber fragt sich nur ob die damit möglichen Settings für jemanden akzeptabel sind, der sich damals ein High-End-Karte kaufte.

Mr.Magic
2007-08-21, 08:33:30
Äpfel und Birnen! X-D

Aktuelle SM3-Games werden sicherlich noch auf einer 6800 laufen, aber fragt sich nur ob die damit möglichen Settings für jemanden akzeptabel sind, der sich damals ein High-End-Karte kaufte.

Scheinbar, sonst hätte diese Person wahrscheinlich eine aktuelle High-End-Karte im PC.

ps: Gibt genug Leute, die alte Hardware weiterreichen. Der Empfänger ist evtl. schon froh, wenn es überhaupt läuft.

grobi
2007-08-21, 09:07:31
@Sentionline

Was kann AMD/ATI dafür das die x800reihe nicht mehr unterstützt wird?? :|

Tomi
2007-08-21, 09:12:44
Hallo
oft wurde SM 3 auf der GF 6 belächelt aber jetzt kommen die ersten spiele die zwingend sm3 voraussetzen
die bioshock demo ist zum beispiel so ein titel


"Splinter Cell Double Agent" läuft meines Wissens auch nicht mit X8xx Karten und das kam schon Ende 2006. Interessanterweise kommen diese SM3 only Spiele von den Konsolen, speziell der XBox360. Ein reines PC Spiel mit diesen Anforderungen gibt es nicht.

DaBrain
2007-08-21, 09:27:26
Naja, also wegen einem Spiel gleich vom Ende zu sprechen, halte ich für übertrieben. Es wird auch in Zukunft noch genug Spiele mit einem SM 2.0 Renderpfad geben, Bioshock stellt bislang klar die Ausnahme dar!

Außerdem werden über kurz oder lang alle DX9-Karten obsolet sein, Vista und DX10 sei dank. Aber man sieht ja wie schleppend das läuft, die Hersteller können nicht einfach am Markt vorbeientwickeln, bzw. nur in Ausnahmefällen (s. Halo 3, Bioshock).

MS ist die DX10 Sache ziemlich halbherzig angegangn.

Natürlich wollen sie Vista damit pushen. Allerdings machen sie sich damit auch gleichzeitig das X-Box Geschäft kaputt.

Eigentlich machen sie es genau richtig.

DX10 bringt nicht wirklich was derzeit. Und alle Spiele die jetzt kommen haben auch einen DX9 Renderpfad und können damit auch portiert werden.

Leute die eine DX10 Karte haben, wollen für DX10 wahrscheinlich auch Vista verwenden, aber es sind noch viel zu wenige damit sich Entwickler wirklich mit DX10 auseinander setzen müssen.

Also sehen auch die X-Box Spiele nicht schlechter aus. Maximaler Profit.

Sentionline
2007-08-21, 09:33:28
Interessanterweise kommen diese SM3 only Spiele von den Konsolen, speziell der XBox360. Ein reines PC Spiel mit diesen Anforderungen gibt es nicht.
ICH LIEBE DICH!:smile:

Endlich mal einer der die Sachlage auf einen "richtigen" Punkt bringt.

@Sentionline
Was kann AMD/ATI dafür das die x800reihe nicht mehr unterstützt wird?? :|
Mit den Spieleentwicklern Interagieren? Zusammenarbeiten und kommunizieren? Investieren und nicht vergraulen?

Wie es besser geht zeigt ja Nvidia mit dem Slogan: "The way it`s meant to be Played". Offensichtlich arbeitet Nvidia enger mit den Entwicklern zusammen.

Die letzten beiden Spiele die ich nicht spielen konnte waren Colin Dirt und Bioshock. Beide sind an der AMD/ATi hürde gescheitert. Demnächst auch Gears of War, obwohl eigendlich die Rohleistung der Rechner OK ist.

Besonnders geärgert habe ich mich bei Dirt. Diesen hab ich auf einem AthlonXP 3400+ mit einer 6800 Ultra installiert. Spielstart verweigert, weil "SSE2" Befehlssatz vom AthlonXP nicht unterstützt wird.

Wie dem auch sei...Ich bin in zukunft vorsichtiger bei AMD/ATi. Denn lustig ist der zustand und die aussichten der X8xx nicht.

mfg

Gast
2007-08-21, 10:05:50
ICH LIEBE DICH!:smile:

Endlich mal einer der die Sachlage auf einen "richtigen" Punkt bringt.

...

Besonnders geärgert habe ich mich bei Dirt. Diesen hab ich auf einem AthlonXP 3400+ mit einer 6800 Ultra installiert. Spielstart verweigert, weil "SSE2" Befehlssatz vom AthlonXP nicht unterstützt wird.

Wie dem auch sei...Ich bin in zukunft vorsichtiger bei AMD/ATi. Denn lustig ist der zustand und die aussichten der X8xx nicht.

mfg

Was? Sind mittlerweile auch die Befehlssätze der CPU neben der SM-Version ausschlaggebend für schwarzer Bildschirm oder nicht schwarzer Bildschirm?! Das war mir neu. Zum "Glück" tangiert mich das nicht - mit einer DX 8.0 Graka macht man sich immer zuerst um die SM-Version Gedanken.

Nebenbei ist mir das mit den Konsolenportierungen auch schon aufgefallen, aber warum dies so ist bleibt mir schleierhaft.
Ist eine "vernünftige Portierung zu aufwendig? Arbeiten die Portierer zu schlampig? Gibts Vorgaben von MS, um Besitzer älterer Systeme zum Kauf der 360 zu nötigen? (VT ahoi)

reallord
2007-08-21, 10:10:11
Rainbow Six: Vegas ist auch so nen SM3 only Kandidat afair und da waren noch nen paar mehr. Ist jetzt echt nich so das Bioshock da das erste wäre...

Cinsir
2007-08-21, 10:18:48
Das ganze ist irgendwie ein zweischneidiges Schwert. Klar kann man mit SM2.0 noch viel erreichen an Grafikeffekten, aber SM3.0 bietet mehr.
Wenn immer neue Versionen/Erweiterungen entwickelt werden, ist es nur eine Frage der Zeit, bis es aktiv eingesetzt wird.
Pers. finde ich es ebenfalls nicht so pralle das Bioshock SM3 vorraussetzt.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=345645

Wurschtler
2007-08-21, 10:20:40
Was? Sind mittlerweile auch die Befehlssätze der CPU neben der SM-Version ausschlaggebend für schwarzer Bildschirm oder nicht schwarzer Bildschirm?! Das war mir neu.

Ich hab das selber früher schonmal an einem AMD TB1,4 erlebt, da verweigerte ein Programm den Start mangels SSE-Unterstützung.

Und bei meinem alten Pentium 200 ohne MMX hat auch mal ein Programm auf MMX bestanden.

Sentionline
2007-08-21, 10:30:08
Ich hab das selber früher schonmal an einem AMD TB1,4 erlebt, da verweigerte ein Programm den Start mangels SSE-Unterstützung.

Und wieder AMD.:rolleyes:

Ich sehe am Horizont schon die ersten Spiele/Programme die zwingend SSE3/SSE4 voraussetzen. Und schon jetzt höre ich das wehklagen derer, die einen betagten Athlon 64 (http://de.wikipedia.org/wiki/AMD_Athlon_64) (<---Siehe Befehlssatzunterstützung) in ihrem Rechner im einsatz haben.

ATi/AMD rules offensichtlich schon lange nicht mehr:rolleyes:
*ironie an*Seid dem Thunderbird 1,4*ironie aus*

mfg

*edit*
Hm, der Titel ist ja "Ende der X800". Für mich persönlich so langsam Marschrichtung ---> "Ende AMD/ATi"

Mr_Snakefinger
2007-08-21, 11:06:17
Wie es besser geht zeigt ja Nvidia mit dem Slogan: "The way it`s meant to be Played". Offensichtlich arbeitet Nvidia enger mit den Entwicklern zusammen.

So eng, dass beim Release von Battlefield 2 die Gamer aufgeschriehen haben, weil das Game nicht mit der guten alten GF4 lief. Und das, obwohl an allen Ecken und Kanten auf der Verpackung und im Handbuch genau dieser Slogan steht. ;)

Der_Donnervogel
2007-08-21, 11:13:13
Und wieder AMD.:rolleyes:

Ich sehe am Horizont schon die ersten Spiele/Programme die zwingend SSE3/SSE4 voraussetzen. Und schon jetzt höre ich das wehklagen derer, die einen betagten Athlon 64 (http://de.wikipedia.org/wiki/AMD_Athlon_64) (<---Siehe Befehlssatzunterstützung) in ihrem Rechner im einsatz haben.
Ja sowas kommt eben bei älterer Hardware vor, daß nicht jedes Programm drauf läuft. Zumal immer mehr der heutigen Spiele sowieso sehr stark nach einem Dual Core verlangen und auf einem alten Single Core so oder so keinen Spaß mehr machen.

Nur so nebenbei bemerkt haben übrigens auch die älteren Pentium 4 bis Northwood und die Pentium M kein SSE3/SSE4. Aber ich will hier mal nicht Intel bashen, da ich gerade auf einem Core Duo schreibe, das mach ich dann zu Hause am Athlon 64. ;)
ATi/AMD rules offensichtlich schon lange nicht mehr:rolleyes:
*ironie an*Seid dem Thunderbird 1,4*ironie aus*
:|
mfg

*edit*
Hm, der Titel ist ja "Ende der X800". Für mich persönlich so langsam Marschrichtung ---> "Ende AMD/ATi"
Aber wenn, dann nur weil die aktuelle Hardware nicht gut genug ist. Wer sich eine X800 gekauft hat und jetzt rumjammert daß ein SM3.0 Spiel nicht geht ist einfach nur dämlich. Es war damals völlig klar, daß die Karten bei SM3 Spielen versagen werden, das hat man auch in jedem Review geschrieben. Da braucht heute keiner Jammern.

Sentionline
2007-08-21, 11:14:23
So eng, dass beim Release von Battlefield 2 die Gamer aufgeschriehen haben, weil das Game nicht mit der guten alten GF4 lief...
Aber es gab möglichkeiten (wenn auch im nachhinein per Mods) Grafiklastige Spiele wie Battlefield 2 und Oblivion auf einer GeForce 4 zum laufen zu bekommen.

Genannte Spiele habe ich auf einer GeForce 4 Ti 4200 "gespielt". Battlefield 2 lief unfassbar flüssig bei immer über 50 fps! auf einem AthlonXP 1800+. Klar fehlten Details, aber es ging.

Solche Möglichkeit(en) habe ich mit meiner X850 nicht. In keinster weise. Also zieht das Argument nicht;)

Überhaupt kriminell was da passiert. Die Unreal Engine 3 unterstützt von haus aus das Shader Model 2. Nur vom Entwickler wurde es nicht implementiert. Ich wette, wenn Nvidia bei dem Spiel mitgewirkt hätte und eine Potente Shader 2 Karte im Portfolio hätte, hätten die Entwickler von BioShock Shader 2 unterstützung eingebaut.

DK2000
2007-08-21, 11:41:29
Naja es werden leider immer mehr Spiele: Splinter Cell, Rainbow Six, Colin und Lost Planet...
Aber mit einem AGP/939 Singlecore-System lohnt es sich leider nimmer aufzurüsten und Geld für ein neues System hab ich leider momentan auch keins - also kein Spielspass für mich im Moment :(

Gast
2007-08-21, 11:47:04
Das ist der Lauf der der Dinge im PC Geschäft. Dabei ist völlig EGAL ob AMT/ATI, Intel oder Nvidia drauf steht. Es wurde ja hier schon die Geforce 4 genannt und es gibt noch genügend mehr Beispiele.
Was den Befehlssatz bei Prozessoren angeht, dass sind absolute Ausnahmen und passiert nur dann, wenn Spiele eh von der Leistung her darauf keinen Spaß mehr machen würden.
ps: Dirt auf einem Northwood... viel Spaß dabei

@Sentionline
Alle Athlon 64 ab Revision E können SSE3, also keinen Müll erzählen.

Sentionline
2007-08-21, 12:13:41
@Sentionline
Alle Athlon 64 ab Revision E können SSE3, also keinen Müll erzählen.
Und schon jetzt höre ich das wehklagen derer, die einen betagten Athlon 64 (http://de.wikipedia.org/wiki/AMD_Athlon_64) (<---Siehe Befehlssatzunterstützung) in ihrem Rechner im einsatz haben.
Wer "richtig" Lesen kann...:rolleyes:

Coda
2007-08-21, 13:27:50
Was kann AMD/ATI dafür das die x800reihe nicht mehr unterstützt wird?? :|
Die Karte war schon als sie erschien technisch veraltet. Und nein, ich hätte damals keinen SM3-Support verlangt. Aber zumindest statisches branching und kein dependent texture fetch limit wären sehr nett gewesen. Dann würden diese ganzen Probleme die wir jetzt haben gar nicht existieren.

Es sind nämlich nicht die SM3-Only-Features die der X8xx bei heutigen Spielen fehlen. Sie müsste nur rein vom Befehlssatz wenigstens auf GeForce-FX-Niveau sein.

Und wieder AMD.:rolleyes:

Ich sehe am Horizont schon die ersten Spiele/Programme die zwingend SSE3/SSE4 voraussetzen. Und schon jetzt höre ich das wehklagen derer, die einen betagten Athlon 64 (http://de.wikipedia.org/wiki/AMD_Athlon_64) (<---Siehe Befehlssatzunterstützung) in ihrem Rechner im einsatz haben.

ATi/AMD rules offensichtlich schon lange nicht mehr:rolleyes:
*ironie an*Seid dem Thunderbird 1,4*ironie aus*

mfg

*edit*
Hm, der Titel ist ja "Ende der X800". Für mich persönlich so langsam Marschrichtung ---> "Ende AMD/ATi"
Seit AMD ATi gekauft hat sind alle Produkte die vor Jahren erschienen auch auf einmal miteinander verknüpft. Aha.

Und SSE3 ist sicher nichts wofür man Prozessoren aussperren würde...

Ernie
2007-08-21, 13:35:56
Das Ende der X800 ist auch das zeitgleiche Ende für die damals zeitgleich erschienenen nVidia-Karten mit SM 3-Pfad. Selbst mit einer 6800 Ultra lassen sich die SM3-only Spiele wie CMR: Dirt und Bioshock nicht mehr vernünftig spielen.

Coda
2007-08-21, 13:39:22
Hat das eigentlich jemand mal ausprobiert? Eine 6800 Ultra entspricht ca. einer 7600 GT - die ist so weit verbreitet dass es unwahrscheinlich ist das Bioshock darauf nicht einigermaßen läuft.

Nakai
2007-08-21, 13:49:34
Oh mann, bei den ganzen Tests im Inet wird eh immer alles auf Max. getestet.
Wer spielt den bitte mit einer Mainstreamgraka ein Spiel wie Bioshock mit maximalen Texturen und den besten Schatteneffekten?
Da kann mans ruhig runterdrosseln und dann gehts auch mit dem Spiel. Man kann neuere SM 3.0 mit einer 6800Ultra ohne Probleme spielen.

Manchen ist es egal, dass sie nicht mit maximalen Settings zockn.

mfg Nakai

Blinx123
2007-08-21, 13:50:02
Eine Ultra ist sogar um einiges potenter,als die meisten 7600GT Modelle. Ich würde sie so ungefähr im 7800GS/GT Segment einordnen.

Sentionline
2007-08-21, 13:55:36
Wie schonmal erwähnt werd ich heute abend die Grafikkarten meiner beiden Rechner tauschen (Sig.). Dann teste ich mal mit einer Ultra Bioshock, der download ist ja abgeschlossen.

Die Ultra ist mittlerweile 3,5 Jahre alt, schon klar das ich die Regler nich auf Max. drehen kann. Ich werde euch berichten.

*KopfandieWandhauwegenderX850XT-PE*:mad:

AnarchX
2007-08-21, 13:56:33
Eine Ultra ist sogar um einiges potenter,als die meisten 7600GT Modelle. Ich würde sie so ungefähr im 7800GS/GT Segment einordnen.

Nicht wenn man HQ aktiviert und es sich um shaderlastige Games handelt, da ist GF7 mit seinen Optimierungen doch um einiges überlegen.

Nakai
2007-08-21, 13:59:20
Eine Ultra ist sogar um einiges potenter,als die meisten 7600GT Modelle. Ich würde sie so ungefähr im 7800GS/GT Segment einordnen.

Um einiges potenter ist einfach übertrieben. Von den Rohdaten ist sie schon einen deut schwächer als eine 7600GT.
Eine 7800GS ist mehr oder weniger auf 6800Ultra-Niveau.
Eine 7800GT ist etwa 30 bis 40% schneller als eine 6800Ultra.

mfg Nakai

VivaLaHarry
2007-08-21, 14:00:08
moin,

ich weiß nun nicht, was so schlimm dadran sein soll. Ich habe hier erst vor einem halben Jahr von einer X800Pro auf eine X850XT PE für wenig Geld gewechselt und bin voll und ganz zufrieden. Two Worlds, Oblivion und Gothic3 sehen bei 1600x1200 hübsch aus. SEHR viele Spielen laufen schnell. Warum sollte ich mir dann wegen ein paar neueren Games irgendwelche Gedanken machen und für teuer Geld upgraden? ... Es wird ja hier so getan, als wenn die X800er gar nichts mehr können und jetzt wirklich 'TOT' sind. Was für ein Schwachsinn :| .

MfG,
VivaLaHarry

Gast
2007-08-21, 14:56:43
Und wieder AMD.:rolleyes:

Ich sehe am Horizont schon die ersten Spiele/Programme die zwingend SSE3/SSE4 voraussetzen. Und schon jetzt höre ich das wehklagen derer, die einen betagten Athlon 64 (http://de.wikipedia.org/wiki/AMD_Athlon_64) (<---Siehe Befehlssatzunterstützung) in ihrem Rechner im einsatz haben.

ATi/AMD rules offensichtlich schon lange nicht mehr:rolleyes:
*ironie an*Seid dem Thunderbird 1,4*ironie aus*

mfg

*edit*
Hm, der Titel ist ja "Ende der X800". Für mich persönlich so langsam Marschrichtung ---> "Ende AMD/ATi"

du hast absolut keinen plan punkt.

die a64 haben sse3
Befehlssatz x86, x86-64, MMX, 3DNow!, SSE, SSE2, SSE3

btw. beim pentium 4 gieng kein xp 64 oder vista 64 bit :D

wer hats erfunden?

Coda
2007-08-21, 14:57:37
Es gab genauso P4s mit 64-Bit-Unterstützung wie A64 mit SSE3.

Mr.Magic
2007-08-21, 14:58:03
moin,

ich weiß nun nicht, was so schlimm dadran sein soll. Ich habe hier erst vor einem halben Jahr von einer X800Pro auf eine X850XT PE für wenig Geld gewechselt und bin voll und ganz zufrieden. Two Worlds, Oblivion und Gothic3 sehen bei 1600x1200 hübsch aus. SEHR viele Spielen laufen schnell. Warum sollte ich mir dann wegen ein paar neueren Games irgendwelche Gedanken machen und für teuer Geld upgraden? ... Es wird ja hier so getan, als wenn die X800er gar nichts mehr können und jetzt wirklich 'TOT' sind. Was für ein Schwachsinn :| .

MfG,
VivaLaHarry

Für die meisten Konsolenports ist sie das auch. Mausedod.

Spasstiger
2007-08-21, 15:06:51
Solche Möglichkeit(en) habe ich mit meiner X850 nicht. In keinster weise.
Das ist falsch:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5770259&postcount=355

Gast
2007-08-21, 15:08:40
Es gab genauso P4s mit 64-Bit-Unterstützung wie A64 mit SSE3.

und wer hats erfunden

Sentionline
2007-08-21, 15:19:33
Für die meisten Konsolenports ist sie das auch. Mausedod.
Leider leider:rolleyes:

du hast absolut keinen plan punkt.

die a64 haben sse3
Befehlssatz x86, x86-64, MMX, 3DNow!, SSE, SSE2, SSE3

So, nochmal ganz deutlich für die ganz Blonden hier:

Modelldaten Sockel 754 - Clawhammer C0 - MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet

Modelldaten Sockel 754 - Clawhammer CG - MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, NX-Bit

Modelldaten Sockel 754 - Newcastle - MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, NX-Bit

Modelldaten Sockel 939 - Clawhammer CG - MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, NX-Bit

Modelldaten Sockel 939 - Newcastle - MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, NX-Bit

Modelldaten Sockel 939 - Winchester - MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, NX-Bit

Mädels, manchmal muss man Lesen, oder hattet Ihr kein Deutschunterricht?

So, sorry aber das musste raus.:mad:

VivaLaHarry
2007-08-21, 15:28:10
SSE3 kam doch erst mit dem S.939er Venice ... also mein Winchester hat nur SSE2. Warum alles so umständlich machen? :D

MfG,
VivaLaHarry

Coda
2007-08-21, 15:31:11
...
SSE3 ist aber nicht relevant. Wegen den paar Fitzelbefehlen wird keine Sau CPUs nicht unterstützen. SSE2 und SSE waren viel mehr und wichtigere Befehle.

Lasst euch doch nicht so vom Marketing einnebeln.

Gast
2007-08-21, 15:32:30
Leider leider:rolleyes:



So, nochmal ganz deutlich für die ganz Blonden hier:

Modelldaten Sockel 754 - Clawhammer C0 - MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet

Modelldaten Sockel 754 - Clawhammer CG - MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, NX-Bit

Modelldaten Sockel 754 - Newcastle - MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, NX-Bit

Modelldaten Sockel 939 - Clawhammer CG - MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, NX-Bit

Modelldaten Sockel 939 - Newcastle - MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, NX-Bit

Modelldaten Sockel 939 - Winchester - MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, NX-Bit

Mädels, manchmal muss man Lesen, oder hattet Ihr kein Deutschunterricht?

So, sorry aber das musste raus.:mad:

ich brauche kein c2d, mein 939 system hat sse3^^ und die leistung eines e6600, und so aufrüsten hättich bei intel knicken können

ne sm2 karte hab ich aber zum glück nicht gekauft sondern hab mit der 9800pro überbrückt ;)

VivaLaHarry
2007-08-21, 15:34:32
SSE3 ist aber nicht relevant. Wegen den paar Fitzelbefehlen wird keine Sau CPUs nicht unterstützen. SSE2 und SSE waren viel mehr und wichtigere Befehle.
Gibt es nicht ein paar Multimedia-Anwendungen, die davon profitieren? Video-Encoding (DivX), Fotoretusche etc.? Konnte jedenfalls bis jetzt nicht feststellen, dass ich mit SSE2 und 2,2GHz irgendwelche Probleme habe, sofern es nicht in HDTV Bereiche geht.

MfG,
VivaLaHarry

Coda
2007-08-21, 15:37:37
Sie profitieren aber nur sehr minimal davon und vorrausetzen tun sie es auch nicht.

Cyphermaster
2007-08-21, 16:03:34
Sagt mal, warum jammert ihr so übermäßig rum, weil nach Jahren eine Grafikkarte irgendwas nicht mehr schafft? Die X800er waren seinerzeit halt mit der Limitierung auf SM2 konstruiert worden, und fallen halt nun langsam mehr und mehr durch's Raster, weil die Programmierer SM2-Renderpfade nur noch als Fallback-Lösung nachziehen, oder eben gar nicht. Ich glaube nicht, daß irgendjemand gedacht hat, seine X8xx-Karte würde ewig up-to-date bleiben! "Unbrauchbar" sind diese Karten aber derzeit imo noch lange nicht. Wieviele Spiele laufen derzeit überhaupt nicht ohne SM3? 1%?

Mr.Magic
2007-08-21, 16:13:37
ich brauche kein c2d, mein 939 system hat sse3^^ und die leistung eines e6600, und so aufrüsten hättich bei intel knicken können

ne sm2 karte hab ich aber zum glück nicht gekauft sondern hab mit der 9800pro überbrückt ;)

:|
Die Radeon 9800 IST eine SM2-Karte.

MadManniMan
2007-08-21, 16:16:36
AthlonXP 3400+

Was soll das denn sein?

Wie auch immer: wenn man sich Hardware kauft, während es solche gibt, die schon ein höheres Tech-Level hat, kommt die Verweigerung durch die Software natürlich schneller.

Andererseits ist es aber auch ganz normal, daß dann und wann der Tech-Level auch mal begrenzt. Mein Pentium 133 beispielsweise war mangels MMX nicht fähig, Outcast zum Laufen zu bringen. Es hat beim besten Willen nichts damit zu tun, ob die Hardware nun vonATi oder nV oder weiß der Geier wem ist.

Und der Unterschied zwischen SM2 und SM3 ist ja nun wirklich größer, als beider Zugehörigkeit zu DX9 suggeriert.


Mit Deiner X800 (ich hab auch eine, drum kenn ich das Problem) konntest Du auch schon bei Gothic 3 keine Schatten aktivieren. Selbst FarCry bot schon HDR (wenn auch nachgereicht) und damit mehr, als der R420 darstellen kann.
STALKER läuft zwar auch mit komplettem Lighting auf Deiner Karte, aber unsagbar langsam.

So ist der Lauf der Dinge, ganz einfach.


Und selbst wenn meine X800 XL von der Rohleistung her über diversen aktuellen Mainstreamkarten liegen sollte, so vergißt man doch oft, daß andere Dinge relevant werden - eine 8500GT kann ob der fortschrittlichen Shader durchaus hier und da schneller sein.
Denk nicht so engstirnig.

Sir Integral Wingate Hellsing
2007-08-21, 16:39:08
Mit den Spieleentwicklern Interagieren? Zusammenarbeiten und kommunizieren? Investieren und nicht vergraulen?

Wie es besser geht zeigt ja Nvidia mit dem Slogan: "The way it`s meant to be Played". Offensichtlich arbeitet Nvidia enger mit den Entwicklern zusammen.

Die letzten beiden Spiele die ich nicht spielen konnte waren Colin Dirt und Bioshock. Beide sind an der AMD/ATi hürde gescheitert. Demnächst auch Gears of War, obwohl eigendlich die Rohleistung der Rechner OK ist.

Besonnders geärgert habe ich mich bei Dirt. Diesen hab ich auf einem AthlonXP 3400+ mit einer 6800 Ultra installiert. Spielstart verweigert, weil "SSE2" Befehlssatz vom AthlonXP nicht unterstützt wird.

Wie dem auch sei...Ich bin in zukunft vorsichtiger bei AMD/ATi. Denn lustig ist der zustand und die aussichten der X8xx nicht.

mfg

omg ;D

PotD!

Eine X800 kann wie ne 6800U fast jedes moderne Spiel mit moderaten Einstellungen flüssig darstellen (SM3 ausgenommen bei der X800 ebenso wie DX10 bei beiden). Wenn Du Spiele mit SM3 auf der 6800U testen möchtest - gerne, aber Features wie SM3 sind eben nich ohne und wirken meist erst mit guten/vollen Details - die wahrscheinlich unspielbar sein dürften. D.h.: Der vermeintliche Vorteil bringt dir effektiv nix - beide produzieren @medium annehmbare Frames und max Details kannste eh nicht nutzen.

Und wg der X800 AMD/ATi auch noch madig machen wollen erinnert mich an legendäre nVidia-Folien :rolleyes:

Gast
2007-08-21, 16:45:32
:|
Die Radeon 9800 IST eine SM2-Karte.

ich meine damit x8xx, oder nv4x

Gast
2007-08-21, 17:54:07
D.h.: Der vermeintliche Vorteil bringt dir effektiv nix

doch sie machen den unterschied zwischen 0fps und XXfps.

MadManniMan
2007-08-21, 18:19:19
doch sie machen den unterschied zwischen 0fps und XXfps.

Welche praktische Relevanz haben die SM3 Features der GeForce 7200 Go? Sie machen einen Unterschied zwischen 0 und X FPS, aber wird man sie je wirklich nutzen?

XenoX
2007-08-21, 18:21:51
Genau aus dem Grund musste meine geliebte X800XT einer X1800XT weichen. ;(

R.I.P

ATI X800XT

PS: Relativ viele Games laufen nicht mehr. (Colin Mcrae Dirt hat der Karte den Rest gegeben. :D))

Mr.Magic
2007-08-21, 18:35:28
ich meine damit x8xx, oder nv4x

NV40+ sind SM3-Karten.

@MadManniMan

Splinter Cell: Chaos Theory läuft auf meiner 6200, bei Verwendung von SM3, mit Einstellungen flüssig, die unter SM1.x ruckeln.

MadManniMan
2007-08-21, 18:42:02
@MadManniMan

Splinter Cell: Chaos Theory läuft auf meiner 6200, bei Verwendung von SM3, mit Einstellungen flüssig, die unter SM1.x ruckeln.

Da hast Du natürlich Recht - SM3 bietet für viele Fälle vor allem auch Performance, klar!

In dem Zusammenhang - bevor ich zu einem finalen Statement komme - hast Du Benches, die aufzeigen, wovon Du redest? Ich möchte mir die Relationen ansehen!

Blinx123
2007-08-21, 18:45:41
NV40+ sind SM3-Karten.



Er meinte sicher NVIDIA Geforce 4 Karten. Die aber afaik keine NV40+ Chips verwenden,was ich auch seltsam von NVIDIA finde. Diese ganzen umbenennungen sind echt furchtbar und stören die Übersicht meist erheblich.

Gast
2007-08-21, 18:48:25
Hallo
oft wurde SM 3 auf der GF 6 belächelt aber jetzt kommen die ersten spiele die zwingend sm3 voraussetzen
die bioshock demo ist zum beispiel so ein titel

im grunde ist die karte dann nicht mehr brauchbar für diese spiele, weil es eben garnichtmehr läuft und somit ist wohl das lebensende der x800 in einem spiele pc erreicht
auch habe ich den eindruck es wird eher auch neue features gesetzt wie damals

Ist mal wieder nen typischer Floi Thread, in die Mülltonne damit!

Blinx123
2007-08-21, 18:50:50
Ist mal wieder nen typischer Floi Thread, in die Mülltonne damit!

Warum typisch? Ich lese dort kein "AMD", kein "vorallem wenn AMD das so macht,muss es ja schlecht sein" und kein "Intel sind die Größten und AMD um 20000000 Lichtjahre vorraus".

Das Auge
2007-08-21, 18:58:51
Warum typisch? Ich lese dort kein "AMD", kein "vorallem wenn AMD das so macht,muss es ja schlecht sein" und kein "Intel sind die Größten und AMD um 20000000 Lichtjahre vorraus".

Ne, diese Botschaft hat er diesmal mehr oder weniger geschickt versteckt. Hat wohl mittlerweile gemerkt, daß sein trolliges Gebashe nicht so gut ankommt und probierts nun auf die etwas subversivere Art...

Mr.Magic
2007-08-21, 19:02:52
Da hast Du natürlich Recht - SM3 bietet für viele Fälle vor allem auch Performance, klar!

In dem Zusammenhang - bevor ich zu einem finalen Statement komme - hast Du Benches, die aufzeigen, wovon Du redest? Ich möchte mir die Relationen ansehen!

Nope, ich könnte mal (wieder) Chaos Theory und Fraps auf dem Laptop installieren. Dummerweise ist der in der anderen Wohnung.

Das SM3 bei gleicher Grafikqualität schneller ist sollte aber sowieso klar sein. Schließlich werden da viele Shader zusammengefasst, und bei der 6200Go gibt es eben recht früh Pipelinestalls.

Blinx123
2007-08-21, 19:03:38
Ah. Jetzt sehe ichs auch:)

Der offensichtliche Bash versteckt sich im ersten Absatz,oder?

Coda
2007-08-21, 19:28:20
Er meinte sicher NVIDIA Geforce 4 Karten. Die aber afaik keine NV40+ Chips verwenden,was ich auch seltsam von NVIDIA finde. Diese ganzen umbenennungen sind echt furchtbar und stören die Übersicht meist erheblich.
Was heißt "ganze Umbenennungen"? Die Codenamen sind jetzt doch Gxy und x ist auch die GeForce-Version.

Früher war es eben NVxy wobei x für die eigentliche Chipgeneration stand, da GeForce 1/2 und GeForce 3/4 eigentlich jeweils nur ein Design waren.

Blinx123
2007-08-21, 19:42:52
Was heißt "ganze Umbenennungen"? Die Codenamen sind jetzt doch Gxy und x ist auch die GeForce-Version.

Früher war es eben NVxy wobei x für die eigentliche Chipgeneration stand, da GeForce 1/2 und GeForce 3/4 eigentlich jeweils nur ein Design waren.

Naja,von NVx auf Gx. Ok,sind nicht viele Umbenennungen aber ich dachte auch,das da noch eine mehr wäre.

Coda
2007-08-21, 19:57:50
Ja, was willst du dann. Jetzt ist es doch klarer als jemals zuvor.

C.D.B.
2007-08-21, 20:08:21
Interessant ist bezüglich des "Endes" der R4xx die Aussage eines EgoSoft-Mitarbeiters. Hatte im März 2006 einen Thread genau zu diesem Thema eröffnet: --> http://forum.egosoft.com/viewtopic.php?t=135593&postdays=0&postorder=asc&start=0

Mitlerweile gibts ja auch von ATI SM3 Karten die recht günstig sind X1600, bei nVidia gibts die 7800GS in dem Preisbereich.

Wir nutzen nur einige SM3 "Features", wobei es eigentlich nix besonderes an SM3 gibt was man nicht auch mit SM2.a/b machen kann. Die Stationen usw. sehen besser mit deiner "neuen" Karte aus da angenommen wird SM3 = schnelle neue Karte = schönste Shader nutzen.

Die PS2.b Shader für die Ati X700+ sind fast identisch zu den PS3.0 Versionen, allerdings werden wir in der Erweiterung wohl mehr Vorteile von SM3 nutzen.

Vom Technischen Standpunkt aus, wäre es sicherlich kein Problem, für SM2.b-R4xx Karten SM3-Games zu portieren. Ich vermute einfach mal, daß die kleine Kundschaft entsprechender Besitzer den extra Portierungsaufwand nicht wert ist. :(


man liest sich bye

P.S.: L.ED, das X-Universum ist einfach zu klein. :D

Coda
2007-08-21, 20:16:31
Das SM2.b-Features "fast identisch" zu SM3 sind ist aber wohl ein Witz. Da fehlt ja vor allem jegliches branching.

Das Auge
2007-08-21, 20:22:52
Ah. Jetzt sehe ichs auch:)

Der offensichtliche Bash versteckt sich im ersten Absatz,oder?

Er lernt dazu, so offensichtlich ist es eigentlich nicht mehr, aber imho immer noch ziemlich plump.
Ich frage mich manchmal auch wie alt unser lieber User Floi ist, daß er meint ständig diesen Kindergarten abziehen zu müssen. Die Schreibweise (Punkt und Komma kann man nicht einfach weglassen, lieber Floi. Die gehören dazu! Vllt. behersscht du irgendwann auch mal die Groß- und Kleinschreibung und beginnst nicht nach jedem Satz einen neuen Absatz :rolleyes: ) tut dann ihr übriges dazu ihn einfach nicht ernst nehmen zu können.

So, nachdem das gesagt ist trage ich noch etwas zum Thema bei: Wenn ein Spiel nicht zwingend SM3.0 vorraussetzt, ist eine X8xx noch schnell genug um Alles in mittleren bis hohen Details, wenn auch oftmals ohne AA und AF, spielen zu können. Soll ja genug Leute da draussen geben, die damit zufrieden sind.

Gast
2007-08-21, 21:16:36
Hallo
oft wurde SM 3 auf der GF 6 belächelt aber jetzt kommen die ersten spiele die zwingend sm3 voraussetzen
die bioshock demo ist zum beispiel so ein titel

im grunde ist die karte dann nicht mehr brauchbar für diese spiele, weil es eben garnichtmehr läuft und somit ist wohl das lebensende der x800 in einem spiele pc erreicht
auch habe ich den eindruck es wird eher auch neue features gesetzt wie damals
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361646
Du hast malwieder einen Thread erstellt, ohne dir Gedanken gemacht zu haben, ob die Welt dieses Thema braucht. Bioshock ist definitiv nicht der erste Titel, der eine SM3-Grafikkarte zwingend voraussetzt (stimmt das überhaupt?), vorher gab's schon R6: Vegas oder SCDA. Und als diese Spiele kamen, gab es die gleiche Diskussion. Auch gab es die gleiche Diskussion, als SC3 veröffentlicht wurde (kurze Erinnerungsauffrischung: Das Spiel kam ohne SM2-Unterstützung, sondern SM 1 oder gleich 3, erst Monate später lieferte ATi einen SM2-Path nach).
Auch wenn die GF6 schon 2004 SM3 vollständig unterstützt hat: Ihre Perfomance ist aufgrund deutlich niedriger Füllraten unbrauchbar, für sie gilt meist das Gleiche wie für die X800: Hat das Spiel keinen Modus mit abgesenkten Details zur Steigerung der Performance, ist sie (GF6) unbrauchbar.

knallebumm
2007-08-21, 21:23:17
Ich hab die Demo heute durchgespielt und konnte mir einen Eindruck von dem Spiel verschaffen. 1024*768, aber es hat mir Spaß gemacht.

Man muß ja auch als Ati-Fan nicht gleich so gereizt reagieren, wenn irgendwas diskutiert wird. :) Das gilt umgekehrt natürlich auch.

aths
2007-08-21, 21:27:47
Das SM2.b-Features "fast identisch" zu SM3 sind ist aber wohl ein Witz. Da fehlt ja vor allem jegliches branching.Und die Gradient-Operationen. IIRC fehlt auch freies Swizzling, es fehlt auch die Möglichkeit bis zum Instruction Limit beliebig viele Dependent-Read-Ebenen zu haben.

Wie wir wissen (ich sags hier für die anderen, nicht für dich) ist hingegen 2_A schon ziemlich nahe an 3_0.

Coda
2007-08-21, 21:28:49
Kein freies Swizzling ist ja egal, solange man nicht ans Instruction-Limit kommt.

Und der Rest ist mir auch sehr wohl bekannt, ich wollte es nur nicht wieder alles aufzählen.

aths
2007-08-21, 21:52:50
Auch wenn die GF6 schon 2004 SM3 vollständig unterstützt hat: Ihre Perfomance ist aufgrund deutlich niedriger Füllraten unbrauchbar, für sie gilt meist das Gleiche wie für die X800: Hat das Spiel keinen Modus mit abgesenkten Details zur Steigerung der Performance, ist sie (GF6) unbrauchbar.Reduktion der Auflösung geht immer.




Kein freies Swizzling ist ja egal, solange man nicht ans Instruction-Limit kommt.

Und der Rest ist mir auch sehr wohl bekannt, ich wollte es nur nicht wieder alles aufzählen.Das Branching ist dann auch egal solange man nicht ans Instruktions-Limit kommt. Ärgerlicher könnte die Beschränkung auf vier Dependend-Read-Ebenen sein. Und die fehlende Gradienten-Operation.

Blinx123
2007-08-21, 21:59:37
@Das Auge

Naja,mit der Punkt und Komma Schreibweise ist das in der deutschen Sprache aber auch echt etwas komplex. Die Englische Schreibweise mit den wenigen Kommas sagt mir da besser zu:)

Und um nochmal was zum Thema beizutragen:

Shader 2.0 kam zuletzt Shader 3.0 sehr nahe (siehe. The Elder Scrolls 4: Oblivion).

Und wo wir gerade bei Oblivion sind: Da hat die X800er Serie performancemäßig locker die X1800/1900er Serie und die NVIDIA Geforce 7er Serie abgehängt.

aths
2007-08-21, 22:18:23
Vom Technischen Standpunkt aus, wäre es sicherlich kein Problem, für SM2.b-R4xx Karten SM3-Games zu portieren. Ich vermute einfach mal, daß die kleine Kundschaft entsprechender Besitzer den extra Portierungsaufwand nicht wert ist. :(In vielen Fällen wäre es nicht möglich, die Effekte in gleicher Qualität zu portieren. Wenn überhaupt, dann nur bei erheblichem Performance-Verlust.

Shader 2.0 kam zuletzt Shader 3.0 sehr nahe (siehe. The Elder Scrolls 4: Oblivion).Einzelbeispiel-Diskussionen bringen uns nicht weiter. SM 3.0 bietet erheblich mehr als SM 2.0.

Coda
2007-08-21, 22:22:29
Das Branching ist dann auch egal solange man nicht ans Instruktions-Limit kommt.
Nö ist es nicht. Statisches Branching mit Predication zu ersetzen ist ja wohl total bekloppt. Die Performance wäre ja unterirdisch wenn für jedes Polygon der ganze Ubershader durchlaufen müsste.

Ärgerlicher könnte die Beschränkung auf vier Dependend-Read-Ebenen sein. Und die fehlende Gradienten-Operation.
Beides eher unwichtig. Bei Splinter Cell war's auch nur das fehlende statische branching. Das macht die Shaderverwaltung deutlich komplexer, weil man jede Permutation erzeugen muss, anstatt z.B. ne "doSpecular" auf true zu setzen bevor man den Drawcall anfängt.

Blinx123
2007-08-21, 22:32:30
Einzelbeispiel-Diskussionen bringen uns nicht weiter. SM 3.0 bietet erheblich mehr als SM 2.0.

Technische Diskussionen bringen uns aber auch nur eingeschränkt weiter.

Denn zu Beginn hat Shader 3.0 keinen sichtbaren optischen Unterschied gebracht,ausser vielleicht HDR (was aber auch unter 2.0 realisierbar gewesen wäre,hätte man es anders realisiert).

Coda
2007-08-21, 22:33:21
HDR hat nichts mit dem Shadermodell zu tun.

Gast
2007-08-21, 22:36:12
Es war jedenfalls besser die letzten 3 Jahre einen R420, als einen NV40 zu haben. Von den Features kann ich mir nichts kaufen, solange die Karte nicht schnell genug ist. Der R420 versenkte einen NV40 im Laufe der Zeit so dermaßen, dass man schon meinen könnte, es wären unterschiedliche Generationen.

Speed ist wichtiger als theoretische Features, die jetzt lange Zeit nach Release des R420 nötig sind.

Blinx123
2007-08-21, 22:37:59
HDR hat nichts mit dem Shadermodell zu tun.

Beachte mal den Text in der Klammer:)
Hab nichts Anderes geschrieben.

Coda
2007-08-21, 22:39:27
Man hätte es aber nicht "anders realisieren" müssen mit SM2, sondern gleich. Nämlich mit der unterstützung von Blending auf FP16-Rendertargets.

aths
2007-08-21, 22:39:35
Nö ist es nicht. Statisches Branching mit Predication zu ersetzen ist ja wohl total bekloppt. Die Performance wäre ja unterirdisch wenn für jedes Polygon der ganze Ubershader durchlaufen müsste.


Beides eher unwichtig. Bei Splinter Cell war's auch nur das fehlende statische branching. Das macht die Shaderverwaltung deutlich komplexer, weil man jede Permutation erzeugen muss, anstatt z.B. ne "doSpecular" auf true zu setzen bevor man den Drawcall anfängt.Freies Swizzling und Branching sind "nur" Performance-Optimierungen, darauf wollte ich hinaus. Dass komplexe Shader ganz ohne Branching-Feature, wenn sie nicht schon ans Instruktions-Limit stoßen, immer komplett durchlaufen werden müssen und somit die Performance erheblich senken, ist klar. ATI behauptete ja, dass man alles was SM3 kann auch mit SM2 realisieren könne, das stimmt aber objektiv nicht wenn man nur die Gradienten-Operation betrachtet, selbst wenn diese nicht oder kaum genutzt wird.

Die langen Shader kann man durch die von dir angesprochene Shader-Verwaltung mit Permutationen natürlich umgehen – was entsprechende CPU-Last nachsichzieht. SM3 hat bekanntlich einige Features zur Senkung der CPU-Last; da PC-Spiele traditionell eher CPU-Limitiert sind, bringt das auch was. SM3 bringt unter dem Strich auch dann Vorteile wenn SM2 noch nicht vollständig ausgenutzt wurde. Dies kann man hier im Forum gar nicht oft genug sagen.

Coda
2007-08-21, 22:40:42
Freies Swizzling und Branching sind "nur" Performance-Optimierungen, darauf wollte ich hinaus.
Nein. Statisches Branching ist nicht nur eine Performanceoptimierung. Ohne statisches branching kommst du nicht drumherum viele Shaderpermutationen zu generieren, solange du nicht >50% der Performance verschenken willst (genau das macht HL²).

Das hat mit "Performanceoptimierung" nichts mehr zu tun, weil es ohne einfach impraktikabel ist Ubershader zu verwenden.

Weißt du überhaupt was mit statischem branching gemeint ist? Das konnten schon die ersten GeForce FX. Und zwar schnell.

StefanV
2007-08-21, 22:41:10
Man hätte es aber nicht "anders realisieren" müssen mit SM2, sondern gleich. Nämlich mit der unterstützung von Blending auf FP16-Rendertargets.
...was die x800 dummerweise nicht beherrscht...

aths
2007-08-21, 22:42:18
Technische Diskussionen bringen uns aber auch nur eingeschränkt weiter.

Denn zu Beginn hat Shader 3.0 keinen sichtbaren optischen Unterschied gebracht,ausser vielleicht HDR (was aber auch unter 2.0 realisierbar gewesen wäre,hätte man es anders realisiert).HDR-Rendering ist technologisch komplett unabhängig von SM3.

Man kann HDR-Rendering in gewissen Grenzen auf jedem R300 laufen lassen. Der NV40 bietet mit bestimmten Features aber deutlich mehr Möglichkeiten, die Qualität zu steigern und die Leistung zu steigern. Bei D3D10-Karten sind endlich alle Features Pflicht, die für vernünftiges HDR-Rendering erforderlich sind.

Blinx123
2007-08-21, 22:43:45
HDR-Rendering ist technologisch komplett unabhängig von SM3.

Man kann HDR-Rendering in gewissen Grenzen auf jedem R300 laufen lassen. Der NV40 bietet mit bestimmten Features aber deutlich mehr Möglichkeiten, die Qualität zu steigern und die Leistung zu steigern. Bei D3D10-Karten sind endlich alle Features Pflicht, die für vernünftiges HDR-Rendering erforderlich sind.

Wie schonmal auf Coda geantwortet habe ich nichts anderes behauptet. Den Text in der Klammer einfach mal mitlesen.

aths
2007-08-21, 22:45:05
Nein. Statisches Branching ist nicht nur eine Performanceoptimierung. Ohne statisches branching kommst du nicht drumherum viele Shaderpermutationen zu generieren, solange du nicht >50% der Performance verschenken willst (genau das macht HL²).

Das hat mit "Performanceoptimierung" nichts mehr zu tun, weil es ohne einfach impraktikabel ist Ubershader zu verwenden. Man kann wenn man will die nicht benötigten Einflüsse im Shader dynamisch "auf Null setzen". Oder mit Konstanten arbeiten und somit die nicht gewollten Teile durch neutralisieren des Teil-Ergebnisses abschalten. Natürlich verballert man damit extrem Leistung. Die Auwahl von Shader-Permutationen oder Static Branching hilft, wobei letzteres von der GPU unterstützt werden muss und ersteres die CPU belastet.

Weißt du überhaupt was mit statischem branching gemeint ist?Sicher.

Coda
2007-08-21, 22:47:37
Man kann wenn man will die nicht benötigten Einflüsse im Shader dynamisch "auf Null setzen". Oder mit Konstanten arbeiten und somit die nicht gewollten Teile durch neutralisieren des Teil-Ergebnisses abschalten. Natürlich verballert man damit extrem Leistung. Die Auwahl von Shader-Permutationen oder Static Branching hilft, wobei letzteres von der GPU unterstützt werden muss und ersteres die CPU belastet.
Ich weiß was predication ist. Praktikabel ist das trotzdem nicht. Manchmal ist es wirklich etwas zuviel Theorie.

aths
2007-08-21, 22:51:20
Ich weiß was predication ist. Praktikabel ist das trotzdem nicht. Manchmal ist es wirklich etwas zuviel Theorie.Natürlich ist es nicht praktikabel. Daher sind ja Performance-Optimierungen notwendig, wobei das bei SM2 die CPU belastet, jedenfalls stärker als mit SM3. Branching wäre insofern als Performance-Optimierung zu sehen.

Gaestle
2007-08-21, 23:09:25
Es war jedenfalls besser die letzten 3 Jahre einen R420, als einen NV40 zu haben. Von den Features kann ich mir nichts kaufen, solange die Karte nicht schnell genug ist. Der R420 versenkte einen NV40 im Laufe der Zeit so dermaßen, dass man schon meinen könnte, es wären unterschiedliche Generationen.

Speed ist wichtiger als theoretische Features, die jetzt lange Zeit nach Release des R420 nötig sind.

Ich kann's nicht lassen... ;D

Geforce 6800 (nU), 16ps, 5vs, 128MB, 325/325MHz
Athlon 64 2800+
2GB RAM
FW163.44 HQ

VSync + Globale Beleuchtung deaktiviert, sonst Max

AA/AF deaktiviert

1024x768
Min: 12
Max: 20
Avg: 14,7

800x600
Min: 15
Max: 29
Avg: 20

Man kann's zocken, wenn auch bei Weitem nicht auf max, aber grundsätzlich läuft es. Mir reicht's jedenfalls aus. :P

Spasstiger
2007-08-21, 23:15:18
Mit Siedler VI steht übrigens ein grafisch recht gelungenes Spiel bevor, das ausschließlich auf SM2.0 setzt und keinerlei SM3-Shader verwendet.
Eine spezielle Dual-Core-Optimierung gibts allerdings auch nicht.
Doch bleibt dann die Hoffnung, dass das Game auch auf älteren Rechnern gut läuft.

Coda
2007-08-21, 23:19:40
Bei solchen Spielen wird normal schon acht gegeben, dass es auf möglichst breiter Basis läuft.

StefanV
2007-08-21, 23:45:50
Stimmt, ist ja auch ein 'Massengame', das überall laufen muss und weder ein AAA Spiel noch sonst ein Aushängeschild (naja, gut, irgendwie doch).

Gleiches kann man aber auch von SC2 erwarten, mehr oder minder.

Liszca
2007-08-22, 00:07:13
Hat das eigentlich jemand mal ausprobiert? Eine 6800 Ultra entspricht ca. einer 7600 GT - die ist so weit verbreitet dass es unwahrscheinlich ist das Bioshock darauf nicht einigermaßen läuft.


meine ist zwar keine 7600 gt aber immerhin eine gs, aber flüssig würde ich das nicht nennen, höchstens gerade noch spielbar!

Gummikuh
2007-08-22, 00:18:09
Und wo wir gerade bei Oblivion sind: Da hat die X800er Serie performancemäßig locker die X1800/1900er Serie und die NVIDIA Geforce 7er Serie abgehängt.

Alles klar...:ulol2:

Das Auge
2007-08-22, 00:58:15
@Das Auge

Naja,mit der Punkt und Komma Schreibweise ist das in der deutschen Sprache aber auch echt etwas komplex. Die Englische Schreibweise mit den wenigen Kommas sagt mir da besser zu:)

Wenn man während der Diskussion mal etwas schneller tippt und ein paar Fehler passieren bzw. die Groß- und Kleinschreibung komplett mißachtet, sag ich auch gar nichts.
Aber ein Eröffnungsposting in den Diskussionsforen sollte schon ein Mindestmaß an Format uva Inhalt mitbringen! Und Floi´s tolle Threads bringen keins von beiden mit. Und einen Punkt geschweige denn Komma hat seine Tastatur anscheinend überhaupt nicht.

Und man könnte auch mal die Fresse halten, wenn man nichts zu sagen hat oder schlichtweg keine Ahnung hat. Aber auch hier glänzt Floi mit Postings der Marke Hauptsache mal was geschrieben und wenns der letzte Scheiß ist - auch egal.

Wenn hier die Gurus diskutieren misch ich mich doch auch nicht ein, weil ich vom technischen Details her nichts beitragen kann. Da lausche ich dann erfürchtig und versuche wenigstens zu verstehen was gemeint ist. Ab und zu geb ich vllt. mal einen Kommentar aus der Endnutzer-Laiensicht ab, aber das wars.
Von Floi dagegen kommt nur BS. Und zwar ständig. Immerhin hält er sein Niveau :ulol:

Und um nochmal was zum Thema beizutragen:

Shader 2.0 kam zuletzt Shader 3.0 sehr nahe (siehe. The Elder Scrolls 4: Oblivion).

Und wo wir gerade bei Oblivion sind: Da hat die X800er Serie performancemäßig locker die X1800/1900er Serie und die NVIDIA Geforce 7er Serie abgehängt.

Komplett ohne Shadereffekte, oder wie? Na ist ja auch egal, die Diskussion hat sich eh schon längstens weitergedreht.

Spasstiger
2007-08-22, 01:47:33
Und wo wir gerade bei Oblivion sind: Da hat die X800er Serie performancemäßig locker die X1800/1900er Serie und die NVIDIA Geforce 7er Serie abgehängt.
Kann ich nicht glauben. Bei mir läuft Oblivion mit aktiviertem HDR-Rendering deutlich besser als beim Kumpel ohne HDR-Rendering.
Ich habe eine Radeon X1900 AIW, er eine Radeon X800 XT.
Hinsichtlich der Füllrate und der Speicherbandbreite liegen unsere Karten gleichauf, nur bei der Shaderleistung und beim Featureset zieht meine Karte davon. Oblivion scheint das Plus an Shaderleistung aber sehr gut umsetzen zu können trotz dem zusätzlichen Rechenaufwand durch das HDR-Rendering.
Mit meiner für die Radeon 9700 und meinen alten Pentium 4 angepassten ini-Datei rennt Oblivion bei mir sogar mit durchschnittlich 100 fps. Und sieht gar nicht mal übel aus, Parallax-Mapping, volle Texturdetails, Gras, Baumschatten (statisch) und hohe Sichtweite sind immer noch vorhanden.

Coda
2007-08-22, 01:53:59
Kann ja auch gar nicht sein dass ein R4xx schneller sein soll als ein R5xx. Die Architektur wurde ja praktisch in allen Punkten verbessert und nirgends irgendwas gespart.

StefanV
2007-08-22, 01:59:30
Klar kann das sein!!

Die R4xx kann nur SM2, die R5xx kann SM3 (und das sogar recht gut), wenn du bei ersterer ein paar Dinge weglässt, bei letzterer nicht, dann macht erstere letztere sowas von platt, das glaubst du garnicht :devil:

aber wenn du beide aufs gleiche niveau bringst, schauts natürlich anders aus

=Floi=
2007-08-22, 02:04:45
wie alt bist du und die anderen 2 typen die hier seit dem urlaub hier sind und auch nicht gerade positiv auffallen?
ich bin schon den ganzen tag ernst und da will ich im forum nicht noch der totale spießer sein, ebenfalls habe ich keine zeit mich mit jedem post ewig zu beschäftigen
was für mich zählt sind fakten und qualitativ gute posts (und auch mal kurze oder lustige posts)

ich hoffe es testet die demo noch jemand mit einer 6800GT/Ultra karte und mir ging es nur darum, dass ohne ausreichende unterstützung auch die stärkste karte nichts mehr bringt
ich zweifle garnicht an der leistungsfähigkeit der X800 auch wenn man diese sicherlich nicht mit dem G80 vergleichen kann, aber ohne unterstützung der neuesten features ist die karte eben nutzlos
irgendwie hat sich das ganze auch noch beschleunigt in den letzten 2 jahren und es zählt immer weniger die rohleistung sondern die features und die shaderperformance



ich habe übrigens einen amd prozessor
http://img211.imageshack.us/img211/8273/2500mhza64iu0.png

VivaLaHarry
2007-08-22, 02:09:41
moin,

trotzdem ist deine Aussage ziemlich komisch ... es werden noch massig Spiele erscheinen, die einen SM2-Modus haben. Schau dir doch mal die Valve Hardware-Survey an. Sowas wie Bioshock wird eh auf dem PC nicht soviel Umsatz machen wie auf den Konsolen. SM3-only Spiele sind für Fetischisten vllt. ganz schön ... aber bleiben wir mal bei'm Mainstream.

Achja, habe auch einen AMD-Prozessor: (ohne SSE3 :P )
http://vivalaharry.galaxy-host.de/cpuz.png

P.S.: Überarbeite deinen Post mal im Sandra-Thread ... möchte da noch gerne eine Diskussion führen. :biggrin:

MfG,
VivaLaHarry

C.D.B.
2007-08-22, 02:12:46
@=Floi=:
Wenn Du jetzt auch noch Satzanfänge GRUNDSÄTZLICH Groß schreibst und am Ende eines Satzes ein Punkt setzt, wären Deine Posts - trotz des .. ähh .. Inhaltes ... schon deutlich angenehmer zu lesen. ;)

Das Auge
2007-08-22, 11:01:29
wie alt bist du und die anderen 2 typen die hier seit dem urlaub hier sind und auch nicht gerade positiv auffallen?

Ich weiß zwar nicht welche anderen beiden du meinst , aber egal, ist ja nicht Topic. Bei deinen Postings könnte man teilweise meinen ein 12-Jähriger Sohn eines Intel-Mitarbeiters hätte sie verfasst. Ich bin btw. 27. Nicht das ich darauf stolz wär oder was, Alter ist schließlich keine Leistung, aber kann von einer gewissen Reife zeugen. Gut, bei mir tut es das nicht, aber ich verfasse dennoch keine Fliessband-Trollpostings ;D

ich bin schon den ganzen tag ernst und da will ich im forum nicht noch der totale spießer sein, ebenfalls habe ich keine zeit mich mit jedem post ewig zu beschäftigen

Ist die Schule so hart? Übrigens Glückwunsch zum Finden der Komma-Taste. Kleiner Tipp: Der Punkt ist ganz in der Nähe ;)
Für Großschreibung (zumindest am Satzanfang sollte man das schon machen und nicht nach jedem Satz nen Absatz reinhauen. Das ist kein Chat hier!) gibt es die Shift-Taste. Die ist ganz links, kennst du vllt. von CS damit kannst du rennen bzw. langsam gehen.

Das ist aber schade für dich
was für mich zählt sind fakten und qualitativ gute posts (und auch mal kurze oder lustige posts)

Der war gut :lol:
Deine Aussenwirkung ist eher eine andere. Dieser Thread ist zwar nicht unbedingt das Paradebeispiel (da gab es schon weitaus schlimmere), aber dennoch neigst du zur Übertreibung. X800 am Ende...ja klar...weil 4 Spiele (BS, R6, SC, LP, Liste darf ergänzt werden), nicht laufen, kann man die Karte wegschmeissen.
Du vergisst dabei folgendes: Wer heute, 3 Jahre nach Erscheinen der X800-Generation diese noch nutzt, ist sicher keine HW-Junkie und Grafikfetischist. Derjenige kann dann in den meisten Fällen auch auf einige Spiele verzichten, zumal vmtl. sowieso der restliche Unterbau dann genauso veraltet ist und dementsprechend das Spiel sowieso nicht mehr so richtig rund läuft, SM3.0 hin oder her.

Und wenn es um das Thema AMD geht, braucht man mit dir überhaupt nicht diskutieren. Da kommt nunmal nur BS.

ich hoffe es testet die demo noch jemand mit einer 6800GT/Ultra karte und mir ging es nur darum, dass ohne ausreichende unterstützung auch die stärkste karte nichts mehr bringt
ich zweifle garnicht an der leistungsfähigkeit der X800 auch wenn man diese sicherlich nicht mit dem G80 vergleichen kann, aber ohne unterstützung der neuesten features ist die karte eben nutzlos

Ist sie eben nicht. Sie ist für dieses eine Spiel nutzlos, aber doch nicht allgemein betrachtet. Und genau das ist dein Problem: Du betrachtest die Dinge viel zu einseitig (s. Intel vs. AMD)

irgendwie hat sich das ganze auch noch beschleunigt in den letzten 2 jahren und es zählt immer weniger die rohleistung sondern die features und die shaderperformance

Nein eigentlich hat sich da gar nix beschleunigt. In Zeiten von Voodoo, GF1 bis zum R300 gab es eine rasante Entwicklung, seitdem stagniert das ganze doch am DX9-Techlevel. Die einzige Neuerung war da wirklich noch 2004 das SM3.0 mit DX9b (oder wars c? Sry, weiß ich gerade nicht mehr genau).
Dennoch konnte man mit einer X800 oder 6800 GT/Ultra die letzten 3 Jahre doch gut zocken: Wo ist da also die rasante Entwicklung? Soll sogar Leute geben, die noch mit einer 9700 Pro ganz zufrieden sind und die Karte ist nochmal gut 2 Jahre älter (2002).

ich habe übrigens einen amd prozessor
http://img211.imageshack.us/img211/8273/2500mhza64iu0.png[/quote]

Dann kauf dir doch endlich einen gottverdammten Core Duo und hör auf uns mit deinem AMD-Gebashe zu nerven. Oder kannst du dir den als Schüler nicht leisten? Neid? So langsam wird mir einiges klar...wärst du konsequent und liquide hättest du, deinen Postings nach zu folgern, schon längst einen Core Quad.

=Floi=
2007-08-22, 18:41:09
ja klar der "deutsche neid" treibt mich ;D
ich denke ich bin ausreichend liquide. :eek: Du hast einfach nur ein problem mit der warheit wenn es um amd geht, den ndie bilanz spricht bände

es geht hier um die x800 und dass sich fehlende unterstützung einfach rächt, weil es noch genug leute geben sollte, die z.B. auf den refresh der hd2900xt warten und man so nicht einmal die demo _anspielen_ kann.

Gast
2007-08-22, 19:22:50
Welche praktische Relevanz haben die SM3 Features der GeForce 7200 Go? Sie machen einen Unterschied zwischen 0 und X FPS, aber wird man sie je wirklich nutzen?

da hast du bestimmt recht, nur gibt es auch stärkere karten, im low-end macht die neueste technologie wirklich kaum sinn.

reunion
2007-08-22, 19:41:27
Kann ich nicht glauben. Bei mir läuft Oblivion mit aktiviertem HDR-Rendering deutlich besser als beim Kumpel ohne HDR-Rendering.
Ich habe eine Radeon X1900 AIW, er eine Radeon X800 XT.
Hinsichtlich der Füllrate und der Speicherbandbreite liegen unsere Karten gleichauf, nur bei der Shaderleistung und beim Featureset zieht meine Karte davon. Oblivion scheint das Plus an Shaderleistung aber sehr gut umsetzen zu können trotz dem zusätzlichen Rechenaufwand durch das HDR-Rendering.
Mit meiner für die Radeon 9700 und meinen alten Pentium 4 angepassten ini-Datei rennt Oblivion bei mir sogar mit durchschnittlich 100 fps. Und sieht gar nicht mal übel aus, Parallax-Mapping, volle Texturdetails, Gras, Baumschatten (statisch) und hohe Sichtweite sind immer noch vorhanden.

Das liegt nicht an der Shaderleistung, Oblivion ist zumindest in Außenarealen kein bisschen shaderlimitiert. Die R5xx-Architektur ist einfach wesentlich effizienter, hier nur plump anhand der theoretischen Specs zu vergleichen führt zu nichts.

Sentionline
2007-08-22, 19:41:40
So leutz. Hab jetzt die BioShock Demo 3 mal durchgespielt. Beim dritten Durchgang hab ich dann mit Fraps die Frameraten aufgezeichnet. Testsystem:

C2D E6300@2,1 Ghz
1024 MB DDR-400
Gainward GeForce 6800 Ultra (Chip: 430 / Speicher: 1200 Mhz)
Treiber: Nvidia Forceware 163.44 Beta
Treiberoptionen: High Quality / 4xAF
Benchmarkauflösung: 1024x768
Spieloptionen: Alles HQ bis auf High Quality Post-Prozessing (HDR)
Benchmarkergebnis Fraps (Gesamte Demo bei 24 Minuten):

min/max/avg: 0/97/27

Prozessorlast lag die ganze zeit ~65%. Also nicht gut auf Dual-Cores optimiert.

Ich finde das HDR das spiel total unscharf (Blur?) macht und die Framerate in den Keller zieht. Und eine Pixelgrafik hatte ich nicht, wie viele hier gerne behaupten. Klar würde dem Spiel in der Auflösung 4xAA nicht schaden, aber ich finde es schön, das eine 3,5 Jahre alte Grafikkarte hier gute Arbeit noch leistet.

Das Spiel wird gekauft, auch wenn ich die Spielmechanik etwas Eintönig finde.

Mir ist nur irgendwie nicht verständlich, warum es nicht auf einer X8xx läuft, und auf Shader v3.0 beharrt. Denn die Grafik ist sehr einem Oblivion verblüffend ähnlich. Last but not least: Das spiel kann man auf einer Shader 2 Karte starten, hat aber extreme Grafikfehler. Subjektiv hatte ich den Eindruck, das meine X850XT-PE von der Rechenleistung her das Spiel in der Auflösung 1280x1024 flüssig (~30 fps) darstellen könnte...

Schade eigendlich...

AthlonXP 3400+
Was soll das denn sein?
Ein auf 2300 Mhz getakteter AthlonXP 2600+ (Barton). Dieser läuft eigendlich auf FSB 166, aber bei mir seid 2 Jahren auf 200 Mhz FSB.

Der Ursprüngliche AthlonXP 3200+ hatte 2200 Mhz bei 200 Mhz FSB. Somit ist das "Performancerating" bei 2300 Mhz "AthlonXP 3400+"

Das Auge
2007-08-22, 19:57:44
Du hast einfach nur ein problem mit der warheit wenn es um amd geht, den ndie bilanz spricht bände

Ist mit dir auch eine sinnvolle Diskussion möglich? Anscheinend nicht. Und nein, ich hab kein Problem mit der Wahrheittm. Ich weiß das AMD´s Bilanz dieses Jahr ziemlich übel aussehen wird. So what? Soll ich deswegen jetzt auf jemanden, der am Boden liegt eintreten, so wie du das machst?
Und wieso lenkst du schon wieder ab? Was hat AMD´s Bilanz mit dem Thema oder den vorherigen Postings zu tun? Guess what - rein gar nichts...

es geht hier um die x800 und dass sich fehlende unterstützung einfach rächt, weil es noch genug leute geben sollte, die z.B. auf den refresh der hd2900xt warten und man so nicht einmal die demo _anspielen_ kann.

Fehlende Unterstützung rächt sich immer irgendwann. Nach 3 Jahren ist das wohl verschmerzbar. GF4-Käufer z.B. waren da damals schon viel eher die gearschten. Aber es ist ja wie gesagt nicht so, das gar nichts mehr läuft und deswegen ist die Karte auch nicht am Ende :rolleyes:
Am Ende sind _alle_ DX9-Karten erst wenn großflächig nur noch für DX10 entwickelt wird...

Gummikuh
2007-08-22, 20:25:38
Hmmm...weiß nicht wer schlimmer drann ist...der Besitzer einer X800XT oder der einer 8500GT bzw. HD2400XT.:rolleyes:

Sentionline
2007-08-22, 20:34:46
Hmmm...weiß nicht wer schlimmer drann ist...der Besitzer einer X800XT oder der einer 8500GT bzw. HD2400XT.:rolleyes:

Ein Freund von mir hat sich eine 8500GT gekauft weil er auf seinem Athlon64 3800+ unbedingt Colin Dirt spielen wollte. Und erstaunlicherweise konnte er das auch bei 1024x768 bei deaktiviertem HDR halbwegs flüssig. Auf einer X8xx startet das spiel ja erst gar nicht.

Also hat sich deine Frage ja villeicht in Luft aufgelöst (?) :|

Gummikuh
2007-08-22, 20:45:55
Hach ich weiß net...das Spiel läuft dann zwar, aber man muss eben auf etwas verzichten(wie hier eben HDR)...ob das so die Lösung ist...gut muss jeder für sich selber entscheiden.

VivaLaHarry
2007-08-22, 21:05:10
moin zusammen,

solange meine X850er in vielen Spielen noch brauchbare Leistung bringt denke ich doch gar nicht an aufrüsten. Weshalb sollt ich mich nun wegen 3-4 Games (Bioshock eingeschlossen) vogelig machen? Warte ich halt noch ein Jährchen, hol es mir für 20Euro auf dem Grabbeltisch mit einem Patch, der jeden Anfangsmist bereinigt hat und zocke es auch bei 2048x1536 mit Max.Details, im Endeffekt habe ich dann Geld gespart für das gleiche Erlebnis.

MfG,
VivaLaHarry

MadManniMan
2007-08-22, 21:14:05
moin zusammen,

solange meine X850er in vielen Spielen noch brauchbare Leistung bringt denke ich doch gar nicht an aufrüsten. Weshalb sollt ich mich nun wegen 3-4 Games (Bioshock eingeschlossen) vogelig machen? Warte ich halt noch ein Jährchen, hol es mir für 20Euro auf dem Grabbeltisch mit einem Patch, der jeden Anfangsmist bereinigt hat und zocke es auch bei 2048x1536 mit Max.Details, im Endeffekt habe ich dann Geld gespart für das gleiche Erlebnis.

MfG,
VivaLaHarry

Prinzipiell handle ich das ganz ähnlich: Was ich nicht in zufriedenstellenden Settings zocken kann, heb ich mir für später auf. Bei STALKER heißt das zum Beispiel, daß ich bis auf meine nächste Graka warte, denn ich will es zumindest mit vollem dynamischen Lighting spielen - und dafür reicht meine X800 XL einfach nicht mehr.

Nachteil dabei ist natürlich, daß man sich einerseits unter Kontrolle haben muß, nicht schnell aufzurüsten; und das hätte ich wirklich nicht immer geschafft, für Outcast beispielsweise hab ich mein komplettes System getauscht und das nicht einmal für Full Detail!
Und andererseits bleibt natürlich der BOAH!-Flash aus, den man bei einem AAA-Grafik-Reißer erleben könnte, wäre man nicht schon durch Screenshots und viele ähnliche Titel langfristig abgehärtet ;)

Sentionline
2007-08-22, 21:24:25
Am Ende sind _alle_ DX9-Karten erst wenn großflächig nur noch für DX10 entwickelt wird...
Jawohl! ~99% der Grafikkarten im Umlauf sind DX9 (?)
Ich finde es mittlerweile echt dramatisch was für vorstellungen DX10 Grafikkartenbesitzer von der "realen" PC-Welt haben, die ja offenkundig richtig verzerrt ist. Ja, man kann etwas überheblich sein und seine DX10 Karte loben. Aber nicht so von wegen: "Ihr mit euren Gurken..."


GF4-Käufer z.B. waren da damals schon viel eher die gearschten. Aber es ist ja wie gesagt nicht so, das gar nichts mehr läuft und deswegen ist die Karte auch nicht am Ende :rolleyes:
Wie schonmal gepostet hab ich Oblivion und Battlefield 2 bei einem Freund zum laufen bekommen der ein AthlonXP 1800+ mit einer GeForce 4 Ti 4200 hatte. Und er hat beide Spiele durchgespielt. Damals gab es wenigstens die "möglichkeit" die spiele zum laufen zu bekommen mit optischen Einbussen (per Mods). Bei der X8XX Reihe ist es ja faktisch "unmöglich".

Diesen Shader 3 Wahn bei den Entwicklern verstehe ich als PC Veterane aber so ziemlich gar nicht. Sehr viele die ich kenne haben nur eine Shader 2 Karte. Naja, Irrational Games ist jetzt selber schuld, wenn die x8xx besitzer das Spiel sich nicht kaufen und spielen.

Warten wir ab ob eben diese einen "Shader 2 Patch" entwickeln. Oder AMD/ATi übernimmt das. Es bleibt spannend.:wink:

VivaLaHarry
2007-08-22, 21:29:34
Diesen Shader 3 Wahn bei den Entwicklern verstehe ich als PC Veterane aber so ziemlich gar nicht. Sehr viele die ich kenne haben nur eine Shader 2 Karte. Naja, Irrational Games ist jetzt selber schuld, wenn die x8xx besitzer das Spiel sich nicht kaufen und spielen.

Warten wir ab ob eben diese einen "Shader 2 Patch" entwickeln. Oder AMD/ATi übernimmt das. Es bleibt spannend.:wink:
Das ist ja auch die Sache, die mich an =Floi= und Konsortium stört. Ich kauf es mir als X850er-Besitzer einfach nicht. Und ich verspüre auch ganz ehrlich keinen Drang, es mir zu holen. Da können mir noch soviele GF6-Besitzer ein "gearscht!" an den Kopf werfen. Dafür habe ich meine etwas älteren Games, die ich mit der Karte super spielen kann. (Ja, besser als mit der GF6 :wink: )

MfG,
VivaLaHarry

MadManniMan
2007-08-22, 21:37:10
J
Diesen Shader 3 Wahn bei den Entwicklern verstehe ich als PC Veterane aber so ziemlich gar nicht.

Hui, ein Veteran! *respektzoll*

Im Ernst, zurück zum Thema:
Shader 3 "Wahn" ist totaler Quark, es ist einfach nur das Einsetzen eines Tech-Levels, der über dem Durchschnitt liegt. SM3 ist im Vergleich zu SM3 nunmal viel mehr, als einfach nur DX9.0c. Was ist daran so schwer zu verstehen?

Meine X800 ist technische auf dem Stand von 2002 - und für eine 5 Jahre alte Technik mit Speedupgrade hält sie sich noch viel besser, als man eigentlich erwarten sollte. Ärgern wir uns also nicht, daß uns R420-Usern jetzt einige Titel vorenthalten bleiben, sondern viel eher noch, daß wir immernoch so gut mithalten können :)

Das Auge
2007-08-22, 21:44:55
Wie schonmal gepostet hab ich Oblivion und Battlefield 2 bei einem Freund zum laufen bekommen der ein AthlonXP 1800+ mit einer GeForce 4 Ti 4200 hatte. Und er hat beide Spiele durchgespielt. Damals gab es wenigstens die "möglichkeit" die spiele zum laufen zu bekommen mit optischen Einbussen (per Mods). Bei der X8XX Reihe ist es ja faktisch "unmöglich".

Der Witz ist ja, daß der Sprung von DX8 bzw. 8.1 (SM 1.4) zu DX9a (SM 2.0) viel größer ist, als der zu DX9c (SM3.0). Wenn SM2.0-Karten ausgesperrt werden, dann nur wegen der Faulheit der Entwickler oder aus politischen Gründen.

AnarchX
2007-08-22, 21:45:19
Diesen Shader 3 Wahn bei den Entwicklern verstehe ich als PC Veterane aber so ziemlich gar nicht. Sehr viele die ich kenne haben nur eine Shader 2 Karte. Naja, Irrational Games ist jetzt selber schuld, wenn die x8xx besitzer das Spiel sich nicht kaufen und spielen.


Diese werden Irrational Games wohl ziemlich egal sein, da nunmal die aktuelle Hardware-Basis SM3.0 ist und hier sind vorallem die Konsolen verantwortlich.

Ein SM2.0-Pfad bei einem Multi-Plattform-Game wäre heutzutage wirtschaftlicher Unsinn, schon damals bei SC3 war es wohl so in den Augen gewisser Führungspersonen.
Da ATi damals keine SM3.0-HW hatte musste man eben diesen Umstand mit eigenen Mitteln lindern.

Aber jetzt wo man mittlerweile sein DX10-Lineup verkaufen will, ist die Wiederholung eines solchen Schrittes durch ATi eine blanke Wunschvorstellung...

VivaLaHarry
2007-08-22, 21:57:34
Ein SM2.0-Pfad wäre heutzutage wirtschaftlicher Unsinn
Sofern man es nicht auch auf Konsolen verkauft nicht. Es gibt mehr Leute, die SM2.0 und drunter Hardware haben als Leute mit SM3.0 oder besser. Die zocken zwar nicht alle aktuelle Spiele ... aber trotzdem möchte das wohl kein Hersteller sich gerne entgehen lassen.

MfG,
VivaLaHarry

Sentionline
2007-08-22, 22:01:13
Hui, ein Veteran! *respektzoll*
Naja, OK. Einigen wir uns auf Fortgeschritten solange ich nicht Programmieren kann:ugly:
Ärgern wir uns also nicht, daß uns R420-Usern jetzt einige Titel vorenthalten bleiben, sondern viel eher noch, daß wir immernoch so gut mithalten können :)
Oder so. Trotzdem Ärgerlich. Und ich wiederhole mich nochmal: "An der Unreal Engine 3 liegt es nicht! - Diese ist Shader 2 abwärtskomatibel". Womit ich zum nächsten Zitat komme...
Wenn SM2.0-Karten ausgesperrt werden, dann nur wegen der Faulheit der Entwickler oder aus politischen Gründen.
Glaube ich auch!:rolleyes:
Der Witz ist ja, daß der Sprung von DX8 bzw. 8.1 (SM 1.4) zu DX9a (SM 2.0) viel größer ist, als der zu DX9c (SM3.0).
Komisch find ich das auch. Danke für die erörterung bzw. klarstellung.
Diese werden Irrational Games wohl ziemlich egal sein, da nunmal die aktuelle Hardware-Basis SM3.0 ist und hier sind vorallem die Konsolen verantwortlich.
Eben nicht. Speziell bei BioShock waren 2 von sich unabhängige Teams an der Entwicklung des Spiels tätig.


Ein SM2.0-Pfad wäre heutzutage wirtschaftlicher Unsinn, schon damals bei SC3 war es wohl so in den Augen gewisser Führungspersonen...
...Aber jetzt wo man mittlerweile sein DX10-Lineup verkaufen will, ist die Wiederholung eines solchen Schrittes durch ATi eine blanke Wunschvorstellung...
An dieser Stelle Zitiere ich mich gerne selbst:
...Ich finde es mittlerweile echt dramatisch was für vorstellungen DX10 Grafikkartenbesitzer von der "realen" PC-Welt haben, die ja offenkundig richtig verzerrt ist...

AnarchX
2007-08-22, 22:13:36
Sofern man es nicht auch auf Konsolen verkauft nicht.
Ja, hatte noch eine Ergänzung gemacht um es zu verdeutlichen.


Es gibt mehr Leute, die SM2.0 und drunter Hardware haben als Leute mit SM3.0 oder besser.


Da ist die Steam-Survey, die doch schon ziemlich repräsentativ ist, anderer Meinung:
http://www.steampowered.com/status/survey.html
-> 53% SM3.0-Karten

Und das was die SM2.x-Basis ausmacht, sind eher Karten die nicht wirklich für einen Top-Titel im Jahr 2007 geeignet sind und das wird auch den Besitzer klar sein, die es wohlmöglich auf ihrer HD-Konsole spielen. ;)


Eben nicht. Speziell bei BioShock waren 2 von sich unabhängige Teams an der Entwicklung des Spiels tätig.
Aber im Endeffekt, wird man auf die gleiche Grundlage (Engine, Content, welche auch eben Shader sind) zurückgegriffen haben und sie eben für die jeweillige Plattform angepasst haben. Völlig Autonomie beider Teams wäre auch ziemlich Unsinn...

An dieser Stelle Zitiere ich mich gerne selbst:

Der jenige, welcher glaubt, dass eine Firma Kompatibilität zu aktueller Software für HW herstellt, welche 2 Generationen zurückliegt, sollte sich eher fragen ob er nicht verzerrte Vorstellungen hat. ;)

MadManniMan
2007-08-22, 22:13:53
Der Witz ist ja, daß der Sprung von DX8 bzw. 8.1 (SM 1.4) zu DX9a (SM 2.0) viel größer ist, als der zu DX9c (SM3.0).

Von den von Dir genannten Sprüngen ist der von "SM1.4" zum SM2 der größte.
DX9.0c ist hier an dieser Stelle nur Synonym für SM3 + Full-HDR, das ist wichtig.

PS1.1 zu PS1.4 war viel, PS1.4 zu PS2.0 nicht ganz so viel, PS2.0 zu PS3.0 wieder mehr.

Wenn SM2.0-Karten ausgesperrt werden, dann nur wegen der Faulheit der Entwickler oder aus politischen Gründen.

Man müssen die faul sein, daß nicht mal eben in der Mittagspause mit einzubauen.

Du kannst Dir auch nur annährend vorstellen, was da an Aufwand drin steckt?

VivaLaHarry
2007-08-22, 22:20:28
Da ist die Steam-Survey, die doch schon ziemlich repräsentativ ist, anderer Meinung:
http://www.steampowered.com/status/survey.html
-> 53% SM3.0-Karten

Und das was die SM2.x-Basis ausmacht, sind eher Karten die nicht wirklich für einen Top-Titel im Jahr 2007 geeignet sind und das wird auch den Besitzer klar sein, die es wohlmöglich auf ihrer HD-Konsole spielen. ;)

Hmm ... nee oder? Haste da jetzt GeForce 6200, 6600 und 7300er sowie X1300 etc. alle eingerechnet? :biggrin: Also ich sag ganz ehrlich, da bleibe ich lieber bei meiner X850 ohne BioShock aber mit fast allen anderen Spielen auf hohen Details.
Wie hoch ist denn die Quote der Grafikkarten, die SM3.0 unterstützen und insgesamt eine bessere Performance abliefern? :biggrin: (von mir aus rechne auch die 6800er und 7600er mit rein^^)

Achja, TwoWorlds, STALKER und alles performt hier noch sehr ordentlich ...

MfG,
VivaLaHarry

EDIT: Sehe gerade, da ist ja auch GeForce Go 6150 und Konsortium mit drin ... nein danke, ich behalte da lieber meine X850XT PE. ;)

Sentionline
2007-08-22, 22:22:06
Du kannst Dir auch nur annährend vorstellen, was da an Aufwand drin steckt?
Kann man für sowas keinen Compiler schreiben? Ich glaube nicht das die von Irrational so kleine Rechner(-zentren) haben, für die das "umschreiben" zu aufwändig wäre...:|

Gast
2007-08-22, 22:27:09
Irgendwie witzig diese Diskussion...
Wenn die alten SM2.0-Karten nur nicht so schnell wären, wäre all dies kein Thema.
Neue GPU-Generationen beschränken sich immer mehr auf die Beschleunigung und Neueinführung diverser Features. Natürlich werden sie auch schneller, aber nicht in dem Maße, wie Features veralten und abgeschrieben werden.
Auf der einen Seite ist das gut, da optisch mehr geboten und möglich wird. Auf der anderen Seite geht durchaus potenten Grafiklösungen der Vergangenheit das Spielefutter aus.
Aber was solls, das war schon immer so und früher noch viel schlimmer. Wer High-End kauft, ist selber schuld bzw. muss wissen, worauf er sich einlässt.

MadManniMan
2007-08-22, 22:32:29
Kann man für sowas keinen Compiler schreiben? Ich glaube nicht das die von Irrational so kleine Rechner(-zentren) haben, für die das "umschreiben" zu aufwändig wäre...:|

Du müßtest alles völlig neu konzipieren - da ist nix mit mal neu durch n Compiler laufen lassen. Allein die bedingten Sprünge machen alles zu Nichte.

AnarchX
2007-08-22, 22:34:25
Hmm ... nee oder? Haste da jetzt GeForce 6200, 6600 und 7300er sowie X1300 etc. alle eingerechnet? :biggrin: Also ich sag ganz ehrlich, da bleibe ich lieber bei meiner X850 ohne BioShock aber mit fast allen anderen Spielen auf hohen Details.
Wie hoch ist denn die Quote der Grafikkarten, die SM3.0 unterstützen und insgesamt eine bessere Performance abliefern? :biggrin: (von mir aus rechne auch die 6800er und 7600er mit rein^^)

Wer schnell mal schaut, sieht dass NV ab(meine schnellere Modelle) 6800 und ATi ab X1650 erheblich mehr ergibt als die ~45k X800/X850-Karten. ;)


Achja, TwoWorlds, STALKER und alles performt hier noch sehr ordentlich ...


Sind ja auch PC-only(TW zwar XBox360, aber da scheint es ja Probleme zu geben), da können sich die Devs so etwas noch nicht leisten.

Und imo ist doch das Problem gar nicht so ein großes, wer das Verlangen hat diese neuen SM3.0-only Games zu spielen, soll halt seine X8x0 abstoßen, 50€ gibt es sicherlich noch dafür und für max. 80€ draufgelegt gibt es für AGP und PCIe eine nette X1950GT 512MB, mit der man auch in anderen Games auf Grund der höheren Leistung mehr Spaß hat. ;)

Kann man sowas nicht Komplilieren? Ich glaube nicht das die von Irrational so kleine Rechner haben, für die das "umschreiben" zu aufwändig wäre...

Wenn es so einfach ist, dann biete dich doch an, dass du es mal schnell nebenbei für sie erledigst... ;D

Du liegst mit deinen Einschätzungen doch etwas abseits der Realität.

VivaLaHarry
2007-08-22, 22:43:07
Und imo ist doch das Problem gar nicht so ein großes, wer das Verlangen hat diese neuen SM3.0-only Games zu spielen, soll halt seine X8x0 abstoßen, 50€ gibt es sicherlich noch dafür und für max. 80€ draufgelegt gibt es für AGP und PCIe eine nette X1950GT 512MB, mit der man auch in anderen Games auf Grund der höheren Leistung mehr Spaß hat. ;)
Naja, wenn schon, dann richtig mit Allem. :biggrin: ... Aber ich lasse meine tapferen X8xxer Kollegen hier nicht im Stich und bleib erstmal dabei, bin ja nicht der, der sich über die Karten beschwert. :wink: Die Hersteller wollen mir keine neuen Spiele mehr bieten? Ok, dann spiel ich mal den ganzen Berg der "Pyramidenspiele" von 2003 bis 2007 alle ab. Findet sich sicherlich noch etwas schönes um den Frust zu vergessen. :cool: Und kommen sicherlich noch mehr als genug SM2.0-Titel.

MfG,
VivaLaharry

Sentionline
2007-08-22, 22:50:48
Wer schnell mal schaut, sieht dass NV ab(meine schnellere Modelle) 6800 und ATi ab X1650 erheblich mehr ergibt als die ~45k X800/X850-Karten. ;)
Und wie kommt man zu dieser Schlussfolgerung? Quelle? Benches?

Meine X850XT-PE hat "jeden" GeForce 6 Performancemäßig geplättet. Allein schon bei den Technischen Daten:

6800 Ultra = 16PP = 400 Mhz Chiptakt
X850XT-PE= 16PP = 540 Mhz Chiptakt

Es gab eine Handvoll Ultra Modelle mit 512 MB und 425 Mhz Chiptakt. Aber die haben den Braten nicht fett gemacht. Selbst bei manchen Benches hat die X850XT-PE eine 6800 Ultra SLi geplättet. Also bitte...

Naja, so der burner ist alleine der Begriff "X1650" nicht.

VivaLaHarry
2007-08-22, 22:55:27
6800 Ultra = 16PP = 400 Mhz Chiptakt
X850XT-PE= 16PP = 540 Mhz Chiptakt

Es gab eine Handvoll Ultra Modelle mit 512 MB und 425 Mhz Chiptakt. Aber die haben den Braten nicht fett gemacht. Selbst bei manchen Benches hat die X850XT-PE eine 6800 Ultra SLi geplättet. Also bitte besser informieren.

Naja, so der burner ist alleine der Begriff "X1650" nicht.
Also dass die 6800 Ultra fast immer langsamer ist stimmt schon. Jedoch sind deren 16PP etwas effizienter als die von der X850. Soooo groß ist der Unterschied nun auch nicht. Das mit der Ultra SLi war bestimmt wegen eines Bugs in der Konfiguration. Denke nicht, dass eine X850 wirklich schneller als 2 68 Ultras ist, Benches? Quellen?
Hast Recht, die X1650 ist in manchen Spielen nicht sonderlich viel schneller.

MfG,
VivaLaHarry

Sentionline
2007-08-22, 23:17:44
Denke nicht, dass eine X850 wirklich schneller als 2 68 Ultras ist, Benches? Quellen?
Naja, ich meine das mal in der PCGH gesehen bzw. gelesen zu haben. Das war zur einführung des SLi so, mit den jetzigen Treibern ist das villeicht anders. Außerdem "Optimiert" Nvidia die Treiber zu stark. Thema: "Kantenflimmern bei AF". Bei HQ im Treiber fällt ein Ultra SLI system in der Performance auf ein XT-PE System.

Und jetzt hab ich mal etwas dramatischeres:

NVIDIA GeForce 7800 GTX vs MSI Radeon RX850XT-PE (http://au-ja.org/review-gf7800gtxvsmsix850xtpe-1.phtml)

Bei fast allen Benchmarks kann die X850XT-PE mit der GeForce 7800GTX mithalten bzw. ist manchmal sogar schneller. Also, von wegen die X850 zu langsam. Augenwicherei mit HDR & Shader 3 ist das.

Genau das gleiche an den Benches kann man hier beobachten (Achtung! Die 7800GTX mit 256MB ist gemeint!):

NVIDIA GeForce 7800 GTX 512 (http://www.hardwareluxx.de/cms/artikel.php?action=show&id=268)

AnarchX
2007-08-22, 23:26:28
Hast Recht, die X1650 ist in manchen Spielen nicht sonderlich viel schneller.


Dafür hat sie in der Pro-Fassung aber schon mehr theoretische Shaderpower als eine X800XL, die sie dank effizienterer Architektur auch noch um einiges besser nutzen kann. Zudem halt SM3.0 und FP-Blending, was bei einer X8x0-Karte mit aufwendigem Mulitpass emuliert werden müsste und dann wieder erheblich Performance kostet.

@Sentionline:
Mit "meine schnellere Modelle" war gemeint, dass man die schnelleren Modelle als die 6800 bzw. X1650 zählen soll. ;)

Aber die Diskussion ist mir etwas zu müssig.
Deshalb, wie schon genügend im Thread erörtet, gibt es eindeutige Gründe warum aktuelle Multiplattform-Games kein 5 Jahre altes Techlevel mehr unterstützen müssen.
Wer dies nicht einsehen will, soll halt auf die Games verzichten und auf das große Angebot an SW, die seine HW noch unterstützt zurückgreifen.

Wer eben nicht darauf verzichten kann, hat mit der X1950GT AGP/PCIe eine gute/günstige Upgrademöglichkeit, die Zutritt zu erwähnten Games gibt und auch bei älterer SW mehr ermöglicht.

MadManniMan
2007-08-22, 23:27:52
Naja, ich meine das mal in der PCGH gesehen bzw. gelesen zu haben. Das war zur einführung des SLi so, mit den jetzigen Treibern ist das villeicht anders. Außerdem "Optimiert" Nvidia die Treiber zu stark. Thema: "Kantenflimmern bei AF". Bei HQ im Treiber fällt ein Ultra SLI system in der Performance auf ein XT-PE System.

Ich bin jetzt mal fies und sage, daß Du nicht wirklich weißt, wovon Du hier die ganze Zeit redest.

Floskeln wie "Kantenflimmern" bei AF sollten einem nichtmal entfallen, wenn man nur kurz nachdenkt.


Und jetzt hab ich mal etwas dramatischeres:

NVIDIA GeForce 7800 GTX vs MSI Radeon RX850XT-PE (http://au-ja.org/review-gf7800gtxvsmsix850xtpe-1.phtml)

Bei fast allen Benchmarks kann die X850XT-PE mit der GeForce 7800GTX mithalten bzw. ist manchmal sogar schneller. Also, von wegen die X850 zu langsam. Augenwicherei mit HDR & Shader 3 ist das.

Aha.
In 90% der Benches vergammeln alle Karten am CPU-Limit und den Vorteil bei Chronicles of Riddick z.B. (BTW der einzige eindeutige Bench im ganzen Review) siehst Du gar nicht.
Was erwartest Du? Bei 640*480 würde eine 9700 Pro mithalten!

(del)
2007-08-22, 23:34:46
Das ist wohl sogar nicht ganz gegen die "Rechnung" von ATI. Die würden schon gerne auch noch paar 19xx verkaufen.

Hatten wir das nicht schonmal mit einem der Sam Fishers? Damals tat das schon mehr weh.
Haben das 4 ATI Programmierer in einer Woche entsprechend für SM2 erweitert? Kann mich nicht mehr so erinnern.

edit:
Eigentlich sollte man sich freuen, daß es zB. noch so viele brauchbare AGP-Karten gibt und man ggbf. nicht wirklich vor nichts mit seinem System steht.

trotzdem halte ich das für eine Schweinerei, ehrlich gesagt. Frpher hat man die alten Zöpfe nicht so schnell abgeschnitten, weil man gutes Geld wo es nur ging verdienen wollte. Heutzutage kommt mir sowas leicht "gefördert" vor...

VivaLaHarry
2007-08-23, 00:06:51
moin,

ach ... das macht mir gar nichts aus. Die Karte ist enorm alt, die Hersteller wollen Kosten und Zeit einsparen und im Endeffekt würde es glaube ich auch optisch nicht schlecht sein, wenn das SM3.0 endlich ein fester Standpunkt ist.

@Sentionline: Ist ja ok, die X850er ist schneller als die 6800 Ultra ... aber mehr auch nicht. :wink: Eine 7800GTX kann z.T. schon Bisschen mehr.

MfG,
VivaLaHarry

Pirx
2007-08-23, 12:26:14
Mit OpenGL wäre das so nicht passiert, oder? Da gibt es doch meistens noch einen Fallback, aber die SM2 SM3 SM4 ... only - Spiele fördern die Wegwerfgesellschaft/Industrie, kurzfristig vielleicht.

aehmkei
2007-08-23, 12:32:01
Der Threadersteller hat schon Recht.

Habe auch eine X800XL und mittlerweile kann ich selbst die Demos von Spielen aufgrund von SM3 Pflicht nicht einmal mehr starten. Die Karte ist in die Jahre gekommen und die Performance auch bei anderen Spielen nicht mehr "immer" ausreichend.
Kommt G92, kommt der Umstieg :)

Demirug
2007-08-23, 12:45:44
Mit OpenGL wäre das so nicht passiert, oder? Da gibt es doch meistens noch einen Fallback, aber die SM2 SM3 SM4 ... only - Spiele fördern die Wegwerfgesellschaft/Industrie, kurzfristig vielleicht.

Mit OpenGL und den ganzen Extensions ist das tendenziell noch viel schlimmer.

StefanV
2007-08-23, 13:10:54
Im Ernst, zurück zum Thema:
Shader 3 "Wahn" ist totaler Quark, es ist einfach nur das Einsetzen eines Tech-Levels, der über dem Durchschnitt liegt. SM3 ist im Vergleich zu SM3 nunmal viel mehr, als einfach nur DX9.0c. Was ist daran so schwer zu verstehen?

Du meinst SM2 zu SM3, oder?

Wie dem auch sei, kann dir nur zustimmen, aber hier gehts auch nicht wirklich drum, irgendwen für einen nicht nachvollziehbaren Schritt zu kritisieren sondern deswegen weil einige Programme nicht mehr so ganz auf der eigenen, veralteten, Hardware laufen.

Hallo?!
Sollen die Entwicklung ewig auf dem Level von vor 10 Jahren stehenbleiben?!
Wer hat denn bitteschön wirklich was davon, außer ein paar 'Geizhälse', die sich nicht soo oft, 'nen neuen Rechner kaufen?!
Und vorallendingen: wo wären wir, wenn die Entwicklung stehen geblieben wäre??
Weit weg von dem was wir sind?


Meine X800 ist technische auf dem Stand von 2002 - und für eine 5 Jahre alte Technik mit Speedupgrade hält sie sich noch viel besser, als man eigentlich erwarten sollte. Ärgern wir uns also nicht, daß uns R420-Usern jetzt einige Titel vorenthalten bleiben, sondern viel eher noch, daß wir immernoch so gut mithalten können :)
Eben, die Grundtechnik ist schon 5 Jahre alt, irgendwann muss wirklich mal Schluss sein, mit der Unterstützung von 'alten Leichen', man kann nicht ewig Rücksicht auf 'alten Krempel' nehmen, wo kämen wir denn dahin, wenn man heut noch Rücksicht auf die Voodoos und G-Kraft MX4 nehmen müsste?!

€dit:
Wer 'ne x800XT oder x850XT abgeben möchte, kann ja mal in den Marktplatz schauen, da suche ich sowas ;)

DK2000
2007-08-23, 13:20:04
Naja darum wird wohl OpenGL3 jetzt auch so "schnell" durchgeboxt - um wieder ein Fundament zu haben auf dem man wieder aufbauen kann - aber für's erste nicht muß ;)


Wer SM3 haben MUSS wird seine X800Pro wohl bei Ebay zu grabe tragen müssen...
Es scheint sich sogar zu lohnen:
http://cgi.ebay.de/ATI-X800-Pro-AGP-mit-Arctic-Silencer-4-Top_W0QQitemZ280143917100QQihZ018QQcategoryZ131744QQssPageNameZWDVWQQrdZ1QQcmdZV iewItem
Für das Geld gibt es schon eine X1650Pro
http://geizhals.at/deutschland/?cat=gra256&sort=p&bpmax=&asuch=x1650+pro&filter=+Angebote+anzeigen+&pixonoff=off
Die dann aber wiederrum 20% lahmer ist als die X800pro...
http://www.ultimatehardware.net/270.htm
...aber hey sie kann SM3 :P

VivaLaHarry
2007-08-23, 13:27:41
Für das Geld gibt es schon eine X1650Pro
http://geizhals.at/deutschland/?cat=gra256&sort=p&bpmax=&asuch=x1650+pro&filter=+Angebote+anzeigen+&pixonoff=off
Die dann aber wiederrum 20% lahmer ist als die X800pro...
http://www.ultimatehardware.net/270.htm
...aber hey sie kann SM3 :P
Das ist es ja. :wink: ... Die alten SM2.X-Karten sind einfach zu flott. Da muss man schon mehr ausgeben um wirklich einen Geschwindigkeitsvorteil zu haben. Spätestens dann würde mein A64:SC wieder limitieren ... und ein 2.Gigabyte DDR1-RAM. :redface: ... jaja, ich hör lieber auf mit den Gedanken.

MfG,
VivaLaHarry

DK2000
2007-08-23, 13:34:07
hehehe - hab mich grad dabei ertappt wie ich nach Benchmarks zu x1950pro gesucht hab und alle die sich an ihrer 6600 aufgeilen die ja SM3 hat:
http://www.hartware.de/review_668_6.html
besonders geil:
http://www.hartware.de/review_668_9.html
die 9800Pro und Geforce 4200(!!) schlagen die 6600 ;D
Und die X800 läuft und läuft.... ;)
Wenn man sich aber die Benchmarks anschaut denkt man doch darüber nach warum man jetzt Geld in SM3/x2 939 CPU/mehr DDR1 Ram pumpen sollte wenn man eine X800 sein eigen nennt...

Naja das gleiche Problem hat man momentan auch auf einer etwas "höheren Ebene".
Die DX10 Beschleuniger sind grad im Notebookbereich momentan noch langsamer als ihre DX9 Pendants...

Crazy_Chris
2007-08-23, 13:38:31
hehehe - hab mich grad dabei ertappt wie ich nach Benchmarks zu x1950pro gesucht hab und alle die sich an ihrer 6600 aufgeilen die ja SM3 hat:
http://www.hartware.de/review_668_6.html
besonders geil:
http://www.hartware.de/review_668_9.html
die 9800Pro und Geforce 4200(!!) schlagen die 6600 ;D
Und die X800 läuft und läuft.... ;)
Wenn man sich aber die Benchmarks anschaut denkt man doch darüber nach warum man jetzt Geld in SM3/x2 939 CPU/mehr DDR1 Ram pumpen sollte wenn man eine X800 sein eigen nennt...

Die Benches sind extrem CPU-limitierend (Pentium 4 ;D) Deshalb -> wenig Aussagekraft.

Bin selbst vor 2 Monaten von einer X800XT auf eine X1950Pro gewechselt. Es lohnt sich schon bei bestimmten Spielen wie z.b. Anno 1701, Gothic III aber auch unabhängig von SM3 da die Perfromance für wenig Geld ordentlich gesteigert werden kann. :)

Die X800XT macht sich außerdem im 2. Rechner sehr gut da es für mind. 1024x786 immer dicke reicht. :)

BlackArchon
2007-08-23, 13:40:23
hehehe - hab mich grad dabei ertappt wie ich nach Benchmarks zu x1950pro gesucht hab und alle die sich an ihrer 6600 aufgeilen die ja SM3 hat:
http://www.hartware.de/review_668_6.html
besonders geil:
http://www.hartware.de/review_668_9.html
die 9800Pro und Geforce 4200(!!) schlagen die 6600 ;D
Und die X800 läuft und läuft.... ;)
Wenn man sich aber die Benchmarks anschaut denkt man doch darüber nach warum man jetzt Geld in SM3/x2 939 CPU/mehr DDR1 Ram pumpen sollte wenn man eine X800 sein eigen nennt...
Mittlerweile schlägt selbst die GeForce 6600 (ohne GT) die Radeon 9800 Pro problemlos.

DK2000
2007-08-23, 13:42:14
@Crazy_Chris Welche CPU nennste denn dein eigen?
@BlackArchon Alles andere wäre ja auch traurig ;)

Crazy_Chris
2007-08-23, 13:45:10
@Crazy_Chris Welche CPU nennste denn dein eigen?
@BlackArchon Alles andere wäre ja auch traurig ;)

Bin zeitgleich von nem Opteron 146 (SingelCore 2.4Ghz) auf einen X2 @ 2.6Ghz für ~55€ umgestiegen. :biggrin:

Von X800 auf X1950Pro ist es schon Grenzwertig da der Unterschied (in älteren Spielen) nicht so riesig ist. Es macht sich erst in neueren Spielen stärker bemerkbar. Hauptgrund war eigentlich Gothic III welches auf der X1950Pro wesentlich besserere Bildquali liefert und gleichzeitig besser läuft. :) Das wars mir auch wert.

Nakai
2007-08-23, 14:10:47
Mittlerweile schlägt selbst die GeForce 6600 (ohne GT) die Radeon 9800 Pro problemlos.

Ohne GT, also die mit 300MHz Coretakt.^^
Die ATI 9800PRO hat 256Bit SI und ist noch höher getaktet, also mehr Füllrate und höhere Speicherbandbreite.

mfg Nakai

AnarchX
2007-08-23, 14:14:51
Ohne GT, also die mit 300MHz Coretakt.^^
Die ATI 9800PRO hat 256Bit SI und ist noch höher getaktet, also mehr Füllrate und höhere Speicherbandbreite.


Schau mal in Archons Sig.
Da hält die 6600 mit der 9800Pro in FarCry und Quake4 doch ziemlich gut mit, was wohl dann doch an der etwas fortgeschritteneren Architektur liegt, die den kleine Rohleistungsvorsprung der 9800Pro wieder wettmacht. ;)

Nakai
2007-08-23, 15:22:13
Naja Quake4 ist OGL.
Da ist eine 6800GS einmal schneller als eine X800XT.

Dennoch sind einige der Ergebnisse sehr interessant, aber die Behauptung das eine 6600 ne 9800PRO mittlerweile problemlos schlägt ist mir einfach zu übertreiben ausgedrückt gewesen.
Man kann sagen, dass durch die bessere Architektur die 6600 an die 9800PRO je nach Spiel herankommt oder gleichzieht.

mfg Nakai

sklave_gottes
2007-08-23, 16:57:21
Mittlerweile schlägt selbst die GeForce 6600 (ohne GT) die Radeon 9800 Pro problemlos.


Das ist schlicht und weg eine falsch aussage. Selbst deine eigenen tests (sig) wiederlegen diese aussage.

Ich weis echt nicht wieso hier einige so rum jammern. Wer jetzt noch eine X8xx hat und unbedingt die neuen games spielen will die sm3 brauchen, kann seine karte eins zu eins eintauschen gegen ein sm3 model mit etsprechend weniger leistung. Wer noch mit der karte zufrieden ist spielt halt nur die spielen die es zulassen.

Wer immer das neuste haben will/muss für den wird es halt zeit sich etwas neues zu kaufen z.b. eine geforce 8800 oder eine HD2900.

Aber eins war doch scon von anfang an klar:
Jetzt wie es die X8xx trift wird es auch bald die x1900 und die 7900 reihe treffen. Aber ich finde nicht das die karten dadurch jetzt wertlos sind, jeder muss für sich entscheiden ob er diese spielen genau spielen muss oder nicht.

Piffan
2007-08-23, 17:42:22
Bin zeitgleich von nem Opteron 146 (SingelCore 2.4Ghz) auf einen X2 @ 2.6Ghz für ~55€ umgestiegen. :biggrin:

Von X800 auf X1950Pro ist es schon Grenzwertig da der Unterschied (in älteren Spielen) nicht so riesig ist. Es macht sich erst in neueren Spielen stärker bemerkbar. Hauptgrund war eigentlich Gothic III welches auf der X1950Pro wesentlich besserere Bildquali liefert und gleichzeitig besser läuft. :) Das wars mir auch wert.

Same here! Bis vor kurzem erfüllte die X800XT vollkommen ihren Zweck. Erst Stalker machte mir klar, dass ich langsam aber sicher mehr Shader- Leistung benötigen würde und habe mir ne X1950XT gegönnt. Der Performance- Schub in Stalker ist heftig, in Gothic 3 merkt man kaum etwas davon. Aber dafür sieht Gothic3 mit SM3 wesentlich schöner aus: Die Beleuchtung sieht einen ganzen Zacken besser aus und die detailierteren Schatten gefallen mir auch sehr gut.....

Demnächst werde ich mir noch mal Call of Juarez gönnen. =)

reunion
2007-08-23, 17:57:45
Mittlerweile schlägt selbst die GeForce 6600 (ohne GT) die Radeon 9800 Pro problemlos.

Wenn man nur auf die fps schaut vielleicht. Doch 99% der Vergleiche zwischen R3X0 und einer 6600 sind ohnehin unbrauchbar, da fast immer das extrem flimmrige NV4X-"Quality" (das in füllratenlimitierten Szene schonmal die Leistung ggü HQ verdoppeln kann) gegen den perfekten tri-Filter eines R3X0 verglichen wird (die im übrigen noch nichtmal eine "bri"-Filter beherrschen).

Grestorn
2007-08-23, 18:24:29
Wenn man nur auf die fps schaut vielleicht. Doch 99% der Vergleiche zwischen R3X0 und einer 6600 sind ohnehin unbrauchbar, da fast immer das extrem flimmrige NV4X-"Quality" (das in füllratenlimitierten Szene schonmal die Leistung ggü HQ verdoppeln kann) gegen den perfekten tri-Filter eines R3X0 verglichen wird (die im übrigen noch nichtmal eine "bri"-Filter beherrschen).

Bei RV3x0 gegen NV3x hat sich ja auch niemand an der Qualität gestört...

Lasst die alten Leichen liegen. Das ist Vergangenheit. Heute haben wir von beiden Herstellen gute Qualität, und nur das zählt.

Gast
2007-08-23, 18:28:24
Bioshock: dank offiziellem Patch auch auf Shader-Modell-2.0-Karten lauffähig
http://www.pcgameshardware.de/?article_id=610784

Von wegen das ist das Ende der X800

Gast
2007-08-23, 18:32:23
Bioshock: dank offiziellem Patch auch auf Shader-Modell-2.0-Karten lauffähig
http://www.pcgameshardware.de/?article_id=610784

Von wegen das ist das Ende der X800
"Die Installationsanweisung und das benötigte File finden Sie unter Links zum Thema. Es sei darauf hingewiesen, dass es sich um einen Patch handelt, der nicht von den Entwicklern stammt und somit auch keinen Support genießt. Der Autor schreibt auch in seinem Text, dass manche Texturen sehr schlecht oder anders aussehen und das man mit langen Ladezeiten (bis zu fünf Minuten) rechnen muss"

Sehr offiziell...

Grestorn
2007-08-23, 18:34:40
Bioshock: dank offiziellem Patch auch auf Shader-Modell-2.0-Karten lauffähig
http://www.pcgameshardware.de/?article_id=610784

Von wegen das ist das Ende der X800

dank inoffiziellem Patch!

Gast
2007-08-23, 18:44:36
Bioshock: dank offiziellem Patch auch auf Shader-Modell-2.0-Karten lauffähig
http://www.pcgameshardware.de/?article_id=610784


auch die scrennshots darunter gesehen?
du willst wirklich so spielen?

reunion
2007-08-23, 18:47:30
Bei RV3x0 gegen NV3x hat sich ja auch niemand an der Qualität gestört...


Gestört hat sich deshalb niemand, weil man den AF-Vorteil durch das OGMSAA wieder verspielte. Außerdem führte nV auch relativ bald einen Zangs-"bri"-Filter ein. Und obwohl das WA-AF bei den damaligen Leveldesigns bei weitem nicht so stark aufgefallen ist wie heute, würde eh oft 8x vs 16x AF verglichen.

Gummikuh
2007-08-23, 18:53:37
Der Performance- Schub in Stalker ist heftig, in Gothic 3 merkt man kaum etwas davon. Aber dafür sieht Gothic3 mit SM3 wesentlich schöner aus: Die Beleuchtung sieht einen ganzen Zacken besser aus und die detailierteren Schatten gefallen mir auch sehr gut.....

:uponder: Die X1950XT muss aber auch ne Ecke mehr leisten...von daher fällt der Unterschied wohl unterm Strich nicht so groß aus.

No.3
2007-08-23, 19:02:18
Wer hat denn bitteschön wirklich was davon, außer ein paar 'Geizhälse', die sich nicht soo oft, 'nen neuen Rechner kaufen?!

das hat gar nix mit Geiz zu tun:

Spiele fördern die Wegwerfgesellschaft/Industrie, kurzfristig vielleicht.

überall geht es ums Energiesparen, Recycling, etc usw - nur die Hardware- und Software-Industrie fühlt sich nicht angesprochen. Ewig wird das aber nicht weitergehen (können)


dank inoffiziellem Patch!

auch die scrennshots darunter gesehen?
du willst wirklich so spielen?

nun ja, ob inoffiziell oder mit Grafikfehlern. Dafür, dass da vermutlich nicht mehr als 2-3 Leute wohl ohne Zugriff auf irgendwelche Sourcecodes des Spiels das Ganze überhaupt geschafft und damit beweisen, dass es machbar ist, dafür ist es doch ganz gut.
Insofern ein schlechtes Zeugnis für den Spielehersteller, der mit Zugang zu allen Sourcen und Internas das angeblich nicht mit endlichem Aufwand hinbekommen können soll.

Gast
2007-08-23, 19:03:44
Wenn man nur auf die fps schaut vielleicht. Doch 99% der Vergleiche zwischen R3X0 und einer 6600 sind ohnehin unbrauchbar, da fast immer das extrem flimmrige NV4X-"Quality" (das in füllratenlimitierten Szene schonmal die Leistung ggü HQ verdoppeln kann) gegen den perfekten tri-Filter eines R3X0 verglichen wird (die im übrigen noch nichtmal eine "bri"-Filter beherrschen).


Dass ein R3x0 auch "bri"-filtern kann und das auch tut ist dir wohl entgangen?
Und in welchen Szenen Q gegenüber HQ die Leistung verdoppeln soll hätte ich gerne mal gewusst.

Gast
2007-08-23, 19:09:35
Lasst die alten Leichen liegen. Das ist Vergangenheit. Heute haben wir von beiden Herstellen gute Qualität, und nur das zählt.Das aber nur, weil man deswegen eben die Welle schob. Ist schon ok. Vergebe deinen Feinden, aber vergeße ihre Namen nicht...

MadManniMan
2007-08-23, 19:16:54
Dass ein R3x0 auch "bri"-filtern kann und das auch tut ist dir wohl entgangen?

R3X0 können nicht bri - wohl aber RV3X0; nich verwechseln!


nun ja, ob inoffiziell oder mit Grafikfehlern. Dafür, dass da vermutlich nicht mehr als 2-3 Leute wohl ohne Zugriff auf irgendwelche Sourcecodes des Spiels das Ganze überhaupt geschafft und damit beweisen, dass es machbar ist, dafür ist es doch ganz gut.
Insofern ein schlechtes Zeugnis für den Spielehersteller, der mit Zugang zu allen Sourcen und Internas das angeblich nicht mit endlichem Aufwand hinbekommen können soll.

Meinst Du denn, die Entwickler hätten besser alle Shader ausschalten können, die SM3 voraussetzen? Mehr ham die bei dem Patch nich gemacht.

No.3
2007-08-23, 19:48:17
Meinst Du denn, die Entwickler hätten besser alle Shader ausschalten können, die SM3 voraussetzen? Mehr ham die bei dem Patch nich gemacht.

keine Ahnung was die da gemacht haben, aber die Idee alles was SM3 ist einfach nur auszuschalten hat aber einen gewissen Charm. :biggrin:

Wie auch immer, da lese ich gerade auf Golem zum neuesten Stalker-Patch

"zudem hat GSC Gameworld einige der Shader-Programme neu geschrieben"

aja, Shader-Programme, die es schon gibt, wurden neu geschrieben. Ich denke, dass ist zu aufwendig und kostet zu viel Zeit? (vermutlich nur dann, wenn man extra für SM2 einige Programme neu schreiben würde, bei SM3 stört es anscheinend aber nicht ein V2.0 oder V3.0 eines Shader Programms zu coden)

YfOrU
2007-08-23, 19:59:46
Seit die x1950 für nurnoch etwas über 100€ erhältlich ist gibt es doch vorallem für die 9700/9800 und x800 Karten einen mehr als ordentlichen Ersatz. Das ist sowieso die Zielgruppe die auf AA/AF bzw auch max Details verzichten kann und den PC nicht permanent auf dem aktuellsten Stand hält.
Dazu gibts für gerade mal 55€ einen X2 quasi noch hinterhergeworfen. Die alten Komponenten noch bei ebay verkaufen und schon hat es nur um die 100€ gekostet.

Wann gab es schonmal soviel (mehr) Leistung für sowenig Geld ?

Betrachtet man dazu noch die Lebensdauer des R300 und seiner direkten Nachfolger haben sich die für den Käufer meiner Meinung nach richtig gut gerechnet.
So lebt dann selbst das alte DDR1 AGP System mit allen PATA Geräten noch problemlos eine ganze Weile weiter.

Coda
2007-08-23, 20:02:35
aja, Shader-Programme, die es schon gibt, wurden neu geschrieben. Ich denke, dass ist zu aufwendig und kostet zu viel Zeit? (vermutlich nur dann, wenn man extra für SM2 einige Programme neu schreiben würde, bei SM3 stört es anscheinend aber nicht ein V2.0 oder V3.0 eines Shader Programms zu coden)
Das Problem ist die Verwaltung, die bei SM2 viel aufwendiger und nicht die Shader selber.

Einer SM2-Engine SM3-Shader zu verpassen ist deshalb kein Problem, andersrum aber schon.

mapel110
2007-08-23, 20:10:35
Das Problem ist die Verwaltung, die bei SM2 viel aufwendiger und nicht die Shader selber.

Einer SM2-Engine SM3-Shader zu verpassen ist deshalb kein Problem, andersrum aber schon.
Kann man sich das nicht so vorstellen, dass bei SM3 es eben IF-Abfragen oder auch switch/case gibt (Branching) und man bei SM2 gezwungen ist, darauf zu verzichten und alle möglichen Abzweigungen getrennt anzulegen?!

Coda
2007-08-23, 20:13:53
Man braucht es sich nicht so vorstellen, es ist genau so.

Weiteres Problem sind Resourcenlimits die es bei Shader 3 nicht mehr gibt. Vor allem bei den dependent texture reads.

Gast
2007-08-23, 20:45:42
Dass ein R3x0 auch "bri"-filtern kann und das auch tut ist dir wohl entgangen?


nö R3xx kann kein bri, das kann nur die RV3xx-reihe.


Und in welchen Szenen Q gegenüber HQ die Leistung verdoppeln soll hätte ich gerne mal gewusst.

bei UT-flyby könnte es sogar hinkommen, allerdings brechen da auch ATI-karten stark ein wenn man ihnen die optimierungen verbietet ;)

C.D.B.
2007-08-23, 22:20:34
Seit die x1950 für nurnoch etwas über 100€ erhältlich ist gibt es doch vorallem für die 9700/9800 und x800 Karten einen mehr als ordentlichen Ersatz. Das ist sowieso die Zielgruppe die auf AA/AF bzw auch max Details verzichten kann ...

Na, dann gehöre ich nicht zu dieser Zielgruppe. Ich habe mir die X850XT (und später die PE) gerade wegen der exzellenten Rohleistung für beste BQ gekauft. Mit so einer laschen X1950GT/Pro kann ich trotz der besseren Shaderleistung nichts anfangen! ;)

Crazy_Chris
2007-08-23, 23:31:33
Na, dann gehöre ich nicht zu dieser Zielgruppe. Ich habe mir die X850XT (und später die PE) gerade wegen der exzellenten Rohleistung für beste BQ gekauft. Mit so einer laschen X1950GT/Pro kann ich trotz der besseren Shaderleistung nichts anfangen! ;)

:confused:

Trotzdem bietet eine X1950GT/Pro ein wesentlich besseres AF bei insgesamt höherer Leistung. :wink: Es spricht nichts für eine X850XT-PE im Vergleich zur X1950GT/Pro.

mapel110
2007-08-24, 00:50:09
Es spricht nichts für eine X850XT-PE im Vergleich zur X1950GT/Pro.
Der Preis ist immer ein Argument.

(Mein Gott, was bekomm ich das als Kaufmann jeden Tag zu hören... Ich hasse BWL ;( )

Das Auge
2007-08-24, 01:15:22
... Ich hasse BWL ;(

Das ist aber doof, wenn man Kaufmann ist X-D

mapel110
2007-08-24, 01:16:59
Das ist aber doof, wenn man Kaufmann ist X-D
Ich hab vorher nicht gewusst, dass "Fachinformatiker:Anwendungsentwicklung" auch ein kaufmännischer Beruf ist. Na egal. Was ich nach der Ausbildung mache, liegt ja in meiner Hand. ^^

Das Auge
2007-08-24, 01:54:54
"Fachinformatiker:Anwendungsentwicklung"

Hört sich auch irgendwie überhaupt nicht kaufmännisch an, eher nach einem Fachinformatiker, der Anwendungen entwickelt X-D
Oder bist du auch für den Vertrieb (und/oder vorherige Planung & Kostenkalkulation) deiner entwickelten Fachinformatischen Anwendungen zuständig? Dann würde es halbwegs einleuchten.

=Floi=
2007-08-24, 02:10:38
Aber wenn man nicht 1 generation überspringt, dann ist der performanceschub einfach zu klein! DAS ist doch der ganze witz an der sache! Warum sollte man sich nach einer teuren und guten X800 schon wieder eine X1950 kaufen? (kurz vor DX10) Mit einer HD 2900XT wird man aktuell auch nicht glücklich und dank des fehlenden techlevel ist man im grunde der dumme.

VivaLaHarry
2007-08-24, 02:52:09
moin,

Aber wenn man nicht 1 generation überspringt, dann ist der performanceschub einfach zu klein!
Nicht unbedingt, finde den Sprung von 7900GTX zu 8800GTX schon sehr erstaunlich. Gibt da auch viele weitere Beispiele.
Warum sollte man sich nach einer teuren und guten X800 schon wieder eine X1950 kaufen?
Mehr Performance, größeres Featureset, bessere Bildqualität, Geld ausgegeben haben ... gibt viele Gründe.
Mit einer HD 2900XT wird man aktuell auch nicht glücklich
Hmmm ... ok, gib mir eine 2900XT! Dann wirste sehen, wie ich mir hier einen abgrinse. Also ich wäre damit voll und ganz zufrieden. Kein Grund zum klagen.
und dank des fehlenden techlevel ist man im grunde der dumme.
Der seine ganzen Games von 19xx - 2007 mit besserer Leistung spielen kann als mit einer GeForce 6 (bis auf diese paar SM3 Ausnahmen). Hast schon Recht, 2048x1536 bei Max.Details und 6xAA ist nicht so schön. Das kann die 6800Ultra besser, näch? ;) ... und dank der Architektur in den aktuellen SM3-Titeln entweder auf HDR oder auf AA verzichten. Also irgendwie ist das auch nicht das Optimum. Weshalb sprichst du überhaupt von 'der Dumme'? Nenn mir mal paar Spiele, die ich momentan gerne Spiele und die SM3 benötigen? (Tipp: Oblivion, TwoWorlds, TestDrive:Unlimited, Gothic3, SNES, CS:S, ...) .... BioShock interessiert mich nicht sonderlich, RainbowSix:Vegas auch nicht und Colin McRae: DIRT noch viel weniger. Das liegt auch nicht daran, dass ich es aus Frust mir einrede, dass ich nicht interessiert bin. Habe BioShock hier mit dem SM2-Patch und die beiden anderen Titel bei Kumpels gezockt. Es war wirklich nicht mein Fall.

Und bitte: Sag mir mal, welchen Beruf du hast ... ich bin Schüler und kann mir nicht mal nebenbei alle paar Monate neue Hardware kaufen. Der jetzige Rechner ist von Ende 2004/Anfang 2005 und beruht auf meinem Konfirmationsgeld. Seitdem ist da nimmer viel passiert. Bei uns ist es nicht üblich, dass man sich Dinge im Bereich der mehreren Hundert Euro wünscht zu Weihnachten, Geburtstag etc..


MfG,
VivaLaHarry

Gast
2007-08-24, 09:51:14
Na, dann gehöre ich nicht zu dieser Zielgruppe. Ich habe mir die X850XT (und später die PE) gerade wegen der exzellenten Rohleistung für beste BQ gekauft. Mit so einer laschen X1950GT/Pro kann ich trotz der besseren Shaderleistung nichts anfangen! ;)

Eine X1950pro zieht Kreise um deine X850XT, in jeder Beziehung. Da brauchst Du nicht von "lascher Karte" zu sprechen. Es gibt nicht 1 Bereich, wo eine X850XT einer X1950pro Paroli bieten kann. Bloss weil Du selbst keine hast, ist die Karte deswegen nicht schlechter.

Ich hatte bis Anfang des Jahres selbst eine X800XT, diese wich einer X1950pro (obwohl ich ebenfalls skeptisch war). Das Resultat war jedoch mehr als überzeugend, das Aufrüsten des gesamten PCs kann ich dadurch massiv herauszögern, auf ca. Mitte 2008. Diese Karte war zweifelsfrei einer der besten Käufe, den ich im Bereich Hardware je getätigt habe.

Oblivion mit HDR und AA sieht einfach nur bombastisch aus und läuft dabei flüssiger als mit der X800 ohne HDR und weniger AA. In Bf2, wo ich eher von einer starken CPU-Limitierung ausging, spiele ich seither flüssiger und praktisch ohne Slowdowns mit sämtlichen Reglern am Anschlag, 4xAA und 16x HQAF. Das 2 jährige Game ist in diesen Settings eine Augenweide, speziell wenn man sich vor Augen hält, dass es sich um einen Multiplayer-Shooter handelt.
Ich für mich kann sagen, dass diese Karte eine echte Bereicherung darstellt. Ich mochte meine X800XT sehr, weine ihr angesichts der Erlebnisse mit der X1950pro aber nicht 1 Sekunde nach.

Keinesfalls teile ich die Meinung, dass eine X800xx Karte heute unbrauchbar ist. Man kann den Grossteil der Spiele auch heute noch geniessen, auch wenn man eventuell auf das eine oder andere grafische Gimmick verzichten muss. Bei einem guten Spiel, welches mehr darstellt als eine spielbare Grafikdemo, ist das ohnehin zweitrangig.

Crazy_Chris
2007-08-24, 10:42:17
Der Preis ist immer ein Argument.

(Mein Gott, was bekomm ich das als Kaufmann jeden Tag zu hören... Ich hasse BWL ;( )

Wer billig kauft, kauft zwei mal. (hat Oma immer schon gesagt :biggrin:)

YfOrU
2007-08-24, 13:01:35
Na, dann gehöre ich nicht zu dieser Zielgruppe. Ich habe mir die X850XT (und später die PE) gerade wegen der exzellenten Rohleistung für beste BQ gekauft. Mit so einer laschen X1950GT/Pro kann ich trotz der besseren Shaderleistung nichts anfangen! ;)

http://www.firingsquad.com/hardware/powercolor_radeon_x1950_pro_agp_review/default.asp

Der Unterschied zur X850PE ist mehr als deutlich und der wird in aktuelleren Titeln auch eher größer als kleiner geworden sein.

Aber wenn man nicht 1 generation überspringt, dann ist der performanceschub einfach zu klein! DAS ist doch der ganze witz an der sache! Warum sollte man sich nach einer teuren und guten X800 schon wieder eine X1950 kaufen? (kurz vor DX10) Mit einer HD 2900XT wird man aktuell auch nicht glücklich und dank des fehlenden techlevel ist man im grunde der dumme.

Siehe oben, gering ist das nicht.
Eine 8800/2900 dürfte fast nie zur Debatte stehn denn die meisten SM2.0 Karten sind in AGP Systemen verbaut. Vorallem bei S939 ist die nötige Prozessorleistung durchaus vorhanden bzw sehr günstig zu bekommen.
"kurz vor DX10" Wann kommen die ersten relevanten DX10 only Titel ? Das wird sich bei der vorhandenen Hardwarebasis so bald kein Publisher erlauben, erst recht dank der Performance der DX10 mid-range Produkte.

Wer billig kauft, kauft zwei mal. (hat Oma immer schon gesagt :biggrin:)
Der Wertverfall dem Hardware unterliegt ist derart rasant das es oft sogar wirtschaftlicher ist.

LordDeath
2007-08-24, 14:12:38
Ich hab vorher nicht gewusst, dass "Fachinformatiker:Anwendungsentwicklung" auch ein kaufmännischer Beruf ist. Na egal. Was ich nach der Ausbildung mache, liegt ja in meiner Hand. ^^
laut unserem lehrer würden sogar wir IT-Systemkaufleute eure abschlussprüfung bestehen ;D

mapel110
2007-08-24, 14:25:37
laut unserem lehrer würden sogar wir IT-Systemkaufleute eure abschlussprüfung bestehen ;D
Ist ja auch die selbe Ausbildung, bis auf kleinere Abweichungen.
Wir haben jedenfalls mit den Systemkaufleuten zusammen Unterricht.

Oder bist du auch für den Vertrieb (und/oder vorherige Planung & Kostenkalkulation) deiner entwickelten Fachinformatischen Anwendungen zuständig? Dann würde es halbwegs einleuchten.
So ist es.
sry4offtopic, aber dürfte jetzt eh alles geklärt sein.

_DrillSarge]I[
2007-08-24, 20:16:54
lustig, ati ist schuld, dass bs nicht läuft ;D
vielleicht hätte man auf die verpackung damals "läuft nicht mit kommenden titeln" schreiben sollen.;)

C.D.B.
2007-08-24, 21:26:38
Das müßte man dann aber auf ALLE GraKas draufpappen. ;)

Gast
2007-08-25, 10:46:06
Aber wenn man nicht 1 generation überspringt, dann ist der performanceschub einfach zu klein! DAS ist doch der ganze witz an der sache! Warum sollte man sich nach einer teuren und guten X800 schon wieder eine X1950 kaufen? (kurz vor DX10) Mit einer HD 2900XT wird man aktuell auch nicht glücklich und dank des fehlenden techlevel ist man im grunde der dumme.

du findest den sprung x800xt-pe zu x1900xtx

nicht "groß"???? dir kann man net helfen (und x1800 wurde übersprungen.:).)

ich fand den sprung x8xx zu x19xx gewaltig ;)

Gast
2007-08-25, 10:49:45
I[;5783316']lustig, ati ist schuld, dass bs nicht läuft ;D


wo steht das und warum läufts nich?

bringt der hotfix nix?

Gast
2007-08-25, 12:04:03
R3X0 können nicht bri - wohl aber RV3X0; nich verwechseln!



Also ich glaube mich auch zu erinnern, dass der R3x0 mit späteren Treibern "bri" kann.

greg
2007-08-25, 15:38:40
laut unserem lehrer würden sogar wir IT-Systemkaufleute eure abschlussprüfung bestehen ;D

aber nur den kaufmännischen teil :cool:

Coda
2007-08-25, 15:42:43
Also ich glaube mich auch zu erinnern, dass der R3x0 mit späteren Treibern "bri" kann.
Ne, nur RV3xx.

_DrillSarge]I[
2007-08-25, 15:42:47
Also ich glaube mich auch zu erinnern, dass der R3x0 mit späteren Treibern "bri" kann.

sicher "kann" der r3x0 brilinear filtern, das hat doch nix mit der hardware zu tun ( im vergleich zu rv3x0 ist ja dasselbe)

StefanV
2007-08-25, 15:47:35
Doch, hat sehrwohl was mit der Hardware zu tun.

R3x0 kanns nicht, PUNKT.

_DrillSarge]I[
2007-08-25, 15:56:55
ati hat selber mal behauptet, dass dies ein "nur" filteralgorhythmus ist, der einfach die verschiedenen mipmap stages erkennt und dann entsprechend trilinear (bzw. nicht) filtert.

reunion
2007-08-25, 15:58:45
Also ich glaube mich auch zu erinnern, dass der R3x0 mit späteren Treibern "bri" kann.

Nein, das konnte er definitiv nicht. Es gab nur eine Stage-Optimierung, wo nur auf der ersten Stage tri gefiltert wird, und auf den anderen bi. Diese wurde allerdings mit der Einführung des R420, der ja wie RV3x0 bri konnte abgeschafft, wodurch ein R3x0 heute immer fultri filtert auf allen Stages. Der Vergleich mit einem NV40 ist also selbst auf HQ mit Vorsicht zu genießen.

Gast
2007-08-25, 16:01:52
I[;5785205']ati hat selber mal behauptet, dass dies ein "nur" filteralgorhythmus ist, der einfach die verschiedenen mipmap stages erkennt und dann entsprechend trilinear (bzw. nicht) filtert.

brilinear braucht die fähigkeit der hardware innerhalb der selben textur zwischen bilinear und trilinear wechseln zu können. auch wenn der hardwareaufwand sicher minimal ist, muss er dennoch vorhanden sein, und das ist beim R3xx eben nicht der fall. genausowenig wie NV2x brilinear filtern kann.

wenn die aussage mit der texturanalyse stimmt dann wird diese beim laden von der cpu gemacht, ich glaube viel eher dass einfach die applikation erkannt wird und die filtersparmaßnahmen entsprechend verstärkt oder verringert werden.

_DrillSarge]I[
2007-08-25, 16:03:37
da hat mich wohl mein gehirn betrogen, naja. :rolleyes:

karx11erx
2007-08-27, 23:10:54
An all die Leute, die in DX10 die unvermeidbare Zukunft des PC-Spielemarktes sehen, möchte ich mal einwerfen, dass Meines Wissens Konsolen nicht in DX, sondern OpenGL oder ähnlichen Grafik-APIs programmiert werden
Wegen einfacherer Portierbarkeit die Grafikqualität von Spieletiteln, die auf Konsole/n und PC verfügbar sind, oft auf Kosten der möglichen Qualität auf dem PC verringert wird
Mit OpenGL 3, das in nächster Zukunft verabschiedet wird, all das möglich ist, was DX10 bietet. Passenderweise basiert id Softwares tech5 engine auch nach wie vor auf OpenGL, und das Ergebnis braucht sich nicht zu verstecken.Ich könnte noch was dazu sagen, dass es die Spieler sind, die mit ihrer kritiklosen Hinnahme von MS's Monopolpolitik deren Stellung erst zementieren, und dass solidarisches Handeln mit dem Ziel kurzfristigen Verzichts für einen langfristigen Vorteil für diese ein Fremdwort zu sein scheint, aber derartige Appelle an Verstand und Moral sind erfahrungsgemäß Zeitverschwendung.

Übrigens ist Gameplay nicht durch tolle Grafik zu ersetzen, auch wenn das Gros der Spieler auch diesen Trend mit seiner kritiklosen Konsumhaltung fördert.

Mir persönlich kommt weder Windoof Witzda noch DX10 auf irgendeinen Rechner. Bioshock, der ach so tolle neue DX10-Titel, ist nebenbei gesagt wegen der stillschweigend mitgelieferten SecuROM-Malware für mich gestorben (und was zum Teufel hat sowas in einer Demo zu suchen?)

Pikanterweise wird vom Inquirer berichtet, dass M$ das einzige Feature aus DX10 fallengelassen hat, das zwingend Witzda voraussetzen würde, nämlich die komplette Virtualisierung des Grafikspeichers - angeblich, weil NVidia das nicht in seine Treiber reingekriegt hat. Wenn das stimmt, könnte DX10 auch auf WinXP portiert werden.

Tja, der Mensch will wohl verarscht werden, und er kriegt was er will - und zahlt noch dafür. ;)

mapel110
2007-08-27, 23:21:03
text
Es ist schon jetzt mit Opengl all das möglich was mit D3D10 möglich ist. Die Grafikchiphersteller haben ihre spezifischen Extensions. Und die gibts auf jedenfall bei nvidia schon lange, bei ATI weiß ichs nicht.

Die Playstation3 setzt auf einen Opengl Ableger, aber die xbox360 verwendet meines Wissens nach Directx. Die Wii dürfte für aktuelle Technologie ohnehin uninteressant sein, zu leistungsschwach.

karx11erx
2007-08-27, 23:23:09
Das stimmt m.W. nicht. Manche Dinge gehen nur von hinten durch die Brust ins Auge, oder mit irrsinnigem Overhead. Andere wie Du schreibst nur mit Hersteller-spezifischen Erweiterungen, wenn es die denn überhaupt gibt (geometry instancing z.B.). OpenGL 3 räumt das alles auf und bietet für die ganzen neuen Grafikfeatures saubere Schnittstellen und sehr leistungsfähige APIs.

Coda
2007-08-27, 23:33:00
Auf G80 ist soweit ich weiß wirklich alles möglich, die Extensions sind auch nichtmal NV sondern EXT. Wenn ATI da mitgezogen hat ist es also kein Problem. Angekündigt war es jedenfalls so. Ich finde grad aber keine Extension-Liste eines R6xx.

Darksteve
2007-08-29, 08:28:18
früher oder später werden die 8800gtx und die hd2900xt auch alt sein und es werden spiele nicht laufen.. das ist halt so! und dann wirds kein PCIe sondern AGPe (oder sowas) geben und DDR3/4 damit aufrüsten wieder nicht so einfach ist..
das ist die Marketingstrategie.. sie wollen ja nicht nur Grakas und CPUs verkaufen ;)
wenn alle games auf nem xp1700 mit ner x800 laufen würden dann bräuchte keiner neue Hardware!

Blinx123
2007-08-29, 12:41:02
Ich hoffe nur,dass das ganze irgendwann aufhört,was den immer größer werdenden Grafik Realismus angeht. Irgendwie ist die jetzige Grafik genau richtig,besser darf die garnicht mehr werden,sonst verlieren PC Spiele ihren Reiz,weil sie einfach zu nahe an der Realität sind (was die Grafik angeht).

Demirug
2007-08-29, 12:52:40
Es ist schon jetzt mit Opengl all das möglich was mit D3D10 möglich ist. Die Grafikchiphersteller haben ihre spezifischen Extensions. Und die gibts auf jedenfall bei nvidia schon lange, bei ATI weiß ichs nicht.

ATI hat keine „D3D10 Features“ Extensions- in ihren Treibern. Möglicherweise in dem neuen an dem sie arbeiten aber vielleicht auch erst mit OpenGL3 ME. Aber bis Mount Evans ist ja noch lange hin.

Die Playstation3 setzt auf einen Opengl Ableger, aber die xbox360 verwendet meines Wissens nach Directx. Die Wii dürfte für aktuelle Technologie ohnehin uninteressant sein, zu leistungsschwach.

Die 360 hat eine DX9 Variante. Die PS3 hat eine eigene API für die es einen OpenGL ES Wrapper gibt. Den benutzt aber eigentlich niemand.

Sentionline
2007-08-30, 01:48:12
Also anfangs wollte mir das keiner so richtig glauben:

http://img72.imageshack.us/img72/8586/6800ultraslivsx850xtpeur9.jpg

Erst nachdem Nvidia die Treiber (sehr weit hinten versteckt in der Registry) auf Performance optimierte, konnten die SLI Systeme mit den X850`ern mithalten. Machen wir uns nix vor, die Grafikqualität war auf ATI`s schon immer besser. Und wenn mir einer erzählt, meine X850 wäre zu alt für bsp. BioShock :mad:

Die ersten Projekte, Bioshock auf Shader 2 Karten lauffähig zu machen, laufen ja schon.
Bösen Link entfernt.

Petition zur entwicklung des Shader 2.0 Patches (http://www.PetitionOnline.com/BioShock/)
bei 5000 gibts warscheinlich nen offiziellen patch für SM2 Karten :biggrin:

=Floi=
2007-08-30, 03:10:49
Scheinbar bist du auch ein fanboy. Bei manchen spielen existiert ein cpu-limit! Treiber und Hardware sind ebenfalls nicht bekannt und mitlerweile sollte SLI besser laufen auf den 6800ern!

Sentionline
2007-08-30, 03:30:12
Scheinbar bist du auch ein fanboy.
Selbstverständlich. Ich sehs nicht ein das eine ganze Grafikkarten "Generation" von jetzt auf gleich todgeschrieben wird. So lahm sind die X8xx Karten nun wirklich nicht.

Bei manchen spielen existiert ein cpu-limit!
http://img442.imageshack.us/img442/6530/unbenanntsv6.jpg
Ich glaube nicht, das man bei 3,2 (HT) Ghz von CPU Limit sprechen kann.

...und mitlerweile sollte SLI viel besser laufen auf den 6800ern!
Das schon. Macht aber den Braten nicht allzu fett. Allerdings scheint es so, das die Spieleprogramierer Herstellerspezifisch zu optimieren. Wenn ein Spiel für ATi optimiert wird, läuft es auf Nvidia Karten langsamer und umgekehrt.

Also kann man nicht pauschal sagen: "die 6800`er ist besser"...oder umgekehrt. Auf die Optimierungen kommt es an. Und da ist Nvidia der "undercovermeister".

=Floi=
2007-08-30, 04:19:01
zitat GS 02 2005
Allerdings muss Nvidia für jedes Spiel
den SLI-Treiber anpassen - eine einzelne Radeon
X85O XT Platinum bügelt etwa im
noch nicht angepassten Half-Life 2 selbst
zwei Geforce 6800 Ultras ab. Laut Nvidia
fehlte in unserem Testreiber 67.03 noch die
entsprechende Optimierung.

der p4 limitiert aber, weil 1. kein spiel HT oder DC unterstützt und sonst noch eine 6600GT so nahe dran wäre bei manchen spielen

----
wir reden hier nicht darüber, dass die X850 zu langsam ist sondern eben nicht mehr unterstützt wird = 0fps

Darksteve
2007-08-30, 07:11:36
ja damals die x850xt-pe hat alles von nvidia in den schatten gestellt... wo sind wir heute? schade um ATI.. die hd2900xt ist meiner meinung nach nicht konkurrenzfähig im "highend" markt (performance sehr wechselhaft, einbrüche bei AA/AF.. preis.. STROMVERBRAUCH!)
hätte nach der x1950xtx gerne wieder ne ATI gehabt.. (9600pro, 9800pro, x800gto, x1950xtx hatte ich schon) aber leider ist nvidia um einiges besser..

Mr. Lolman
2007-08-30, 07:40:29
Die ersten Projekte, Bioshock auf Shader 2 Karten lauffähig zu machen, laufen ja schon.

http://homepages.ihug.co.nz/~tetlee/


http://img442.imageshack.us/img442/6530/unbenanntsv6.jpg

UT2004 ist nur mit den unsäglichen NV40 default-Einstellungen flotter...

sklave_gottes
2007-08-30, 09:14:46
zitat GS 02 2005
Allerdings muss Nvidia für jedes Spiel
den SLI-Treiber anpassen - eine einzelne Radeon
X85O XT Platinum bügelt etwa im
noch nicht angepassten Half-Life 2 selbst
zwei Geforce 6800 Ultras ab. Laut Nvidia
fehlte in unserem Testreiber 67.03 noch die
entsprechende Optimierung.

der p4 limitiert aber, weil 1. kein spiel HT oder DC unterstützt und sonst noch eine 6600GT so nahe dran wäre bei manchen spielen

----
wir reden hier nicht darüber, dass die X850 zu langsam ist sondern eben nicht mehr unterstützt wird = 0fps

wenn der cpu bei den ultras limitieren würde könnte die ati karte doch nicht soviel fps haben!
Die 6600gt ist doch weit von der ultra entfernt c.a. 100% schneller ist die ultra.

Gast
2007-08-30, 12:14:26
Also anfangs wollte mir das keiner so richtig glauben:

http://img72.imageshack.us/img72/8586/6800ultraslivsx850xtpeur9.jpg


ja sehr glaubhafter test. warum sind die 6800er karten mit 66% mehr pixeln um 77% langsamer, wie soll das funktionieren?

SLI funktioniert offensichtlich auch nicht, also warum dann mittesten?

das ganze in einem bekannt cpu-limitierten spiel wie HL2, komischerweise war sogar meine 6800non-ultra deutlich schneller.

Piffan
2007-08-30, 13:23:41
Vielleicht könnt ihr mal endlich den Quatsch von dem CPU- Limit stecken lassen. Läge es am CPU- Limit, wären KEINE Unterschiede da....

Nur mal so als Anstoß......


Von der reinen Rechenleistung gibts an den 800ern nichts zu meckern. Leider kommt es aber in jüngster Vergangenheit immer öfter zu Nachteilen beim Feature- Set. Letzter Streich Bioshock, vorher schon Spiele wie Call of Juarez, Oblivion und Gothic 3, wo gewisse Details nicht mehr dargestellt werden. Stalker hat mir den Rest gegeben, so habe ich die 800er mit einem weinenden Auge ersetzt.

Das Ende der 800er als Spielekarte für neue Kracher ist erreicht, es wird immer mehr Konsolenports geben und damit wird SM3 zum MUSS.

Gast
2007-08-30, 15:13:48
Scheinbar bist du auch ein fanboy.

Das sagst ausgerechnet du, der jede Gelegenheit nutzt, die andere Seite fertig zu machen. Deine ATi Hassthreads kannst du dir in Zukunft sparen, aber jetzt bist du ja eh gesperrt, zurecht!

Gast
2007-08-30, 20:44:45
es gibt ja auch keine großen unterschiede bei den spielen (D3 FC UT @ 1024)

DerKleineCrisu
2007-08-31, 17:43:36
macht aba nix es kommen mehr spieler auf den markt die halt nur mit graka´s laufen die SM 3.0 haben. die x8xx serie haben das nicht als " persönliches Pech ". da hilft auch kein maulen.

Sentionline
2007-09-01, 05:48:41
Also dieses jahr werd ich meine X850XT-PE noch drinne lassen, für die meisten kommenden Spiele reicht die X8xx ja. CrySis soll von Grund auf eine Shader 2 unterstützung mitbringen, das hat Cevat Yerli "vor" der Entwicklung schon gesagt.

Chef von Epic, der Mark Reign hat gesagt, das in Gears of War, Enemy Territory: Quake Wars, Unreal Tournament 3 (gleiche Engine wie BioShock) ein Shader-dropdown eingebaut wird (2.0).

Auch gut spielbare Titel wie CoD 4, Spore, The Witcher & World in Conflict werden auf X800 Karten gut Performen. Macht euch da mal keine Sorgen und lasst euch nicht verrückt machen.

Für BioShock erscheint ja bald ein "offizieler" Shader 2 Patch. Da werden wir mal sehen welche 68`er Kombo (meinetwegen SLI) besser performt in dem Spiel. Wer hat hier eine 68`er SLI Kombo bei sich?

In 2 Wochen kauf ich mir eine 2. X1800XT und hab Crossfore für ~250€ (board und 2 Karten), dann bin ich für die nächsten Jahre gerüstet.:D

Aber wenn dann nochmal kommt, die X1xx taugt nix, dann krabel ich aber die Decke hoch!

Gast
2007-09-01, 07:41:09
nimm wenn 2 x19xx ;)

shaderpower unso 16ps vs 48ps (18xx - 19xx)

un neue spiele brauchen eben ps

LovesuckZ
2007-09-01, 09:18:20
Aber wenn dann nochmal kommt, die X1xx taugt nix, dann krabel ich aber die Decke hoch!

Man muss ziemlich verzweifel sein, um seinen Kauf so dermaßen zurechtfertigen. Ist es dagegen so schwer sich selbst einzugestehen, dass man eben eine für damalige Zeit sehr schneller aber eben auch technologisch unterentwickelte Karte gekauft hat?

Piffan
2007-09-01, 09:38:52
Man muss ziemlich verzweifel sein, um seinen Kauf so dermaßen zurechtfertigen. Ist es dagegen so schwer sich selbst einzugestehen, dass man eben eine für damalige Zeit sehr schneller aber eben auch technologisch unterentwickelte Karte gekauft hat?

Ich bin nicht verzweifelt, dass ich mir die "unterentwickelte" Karte gekauft habe. Ich habe erst jetzt umgestellt, weil erst jetzt für mich die Gründe vorhanden sind.
Mir tun die Fanboys leid, die immer auf den Feature- Hype- Zug aufspringen, obwohl die Hardware meist noch viel zu lahm ist für die neuen Features.

Ich kaufe lieber immer erst das, was ich wirklich nutzen kann. :)

Gast
2007-09-01, 09:45:54
Es ist doch ganz einfach: Nvidia und (damals noch) Ati operieren innerhalb gewisser Grenzen, was Transistorzahl und Marge angeht. Da beide bei TSMC fertigen lassen, hat keiner einen Vorteil, was die Herstellung an sich angeht (so wie zwischen Intel und AMD derzeit).

Nvidia hat sich eben für mehr Features entschieden, um die Transistorgrenze auszureizen und Ati für schnellere, aber weniger feature-reiche Funktionseinheiten - und hat dabei noch genug Transistoren gespart, um den Takt weiter erhöhen zu können.

Das Ergebnis sehen wir jetzt und worüber man mMn am ehesten streiten kann, ist, ob es Spaß macht, Bioshock auf einer 6800 zu spielen.


Q

LovesuckZ
2007-09-01, 11:28:23
Ich kaufe lieber immer erst das, was ich wirklich nutzen kann. :)

Sozusagen ein Schmarotzer? ;)

Gast
2007-09-01, 12:08:07
Sozusagen ein Schmarotzer? ;)
Nein, vernünftig.

LovesuckZ
2007-09-01, 12:11:16
Nein, vernünftig.

Wie kann man dieses Verhalten "vernünftig" nennen? Wie sollen denn die "neuen Sachen" eingeführt werden, wenn der Käufer die hardwaretechnische Vorraussetzung erst kaufen wird, wenn die Software diese "neuen Sachen" untersützt.

aths
2007-09-01, 14:23:18
Ich bin nicht verzweifelt, dass ich mir die "unterentwickelte" Karte gekauft habe. Ich habe erst jetzt umgestellt, weil erst jetzt für mich die Gründe vorhanden sind.
Mir tun die Fanboys leid, die immer auf den Feature- Hype- Zug aufspringen, obwohl die Hardware meist noch viel zu lahm ist für die neuen Features. Nur bei der GeForce FX kann man mit einiger Berechtigung dafür sprechen, dass sie zu langsam für die neuen Pixelshader 2.0 und 2.X war. Ansonsten ist keine Karte zu lahm für ihre neuen Features. Die Nutzung neuer Features macht im Gegenteil die Effektberechnung effizienter.

Mr. Lolman
2007-09-01, 14:24:36
Naja, sehr viel machen die SM3-Karten 1. Generation in reinen SM3.0-Spielen auch nicht mehr her...

aths
2007-09-01, 14:29:11
Naja, sehr viel machen die SM3-Karten 1. Generation in reinen SM3.0-Spielen auch nicht mehr her...Das ist kein Gegenargument. Würde man versuchen, gleiche Effekte bei gleicher Qualität mit SM2 zu erzeugen, wäre es deutlich langsamer.

Außerdem sind SM3-Karten automatisch sehr gute SM2-Karten, SM4-Karten automatisch sehr gute SM3-Karten und so weiter.

Mr. Lolman
2007-09-01, 14:32:04
Das ist kein Gegenargument. Würde man versuchen, gleiche Effekte bei gleicher Qualität mit SM2 zu erzeugen, wäre es deutlich langsamer.

Dazu passend:

Bioshock SM2.0b Fix für X800 (Asankel Fix v3): http://www.paolofranchini.com/shshock/viewtopic.php?f=1&t=53&sid=45dd60184f198edbc6672422dc57513e

Jetzt bräuchte man bloß noch ein paar BQ Vergleiche und Benchmarks :naughty:

_DrillSarge]I[
2007-09-01, 14:33:37
Naja, sehr viel machen die SM3-Karten 1. Generation in reinen SM3.0-Spielen auch nicht mehr her...

nun. die x1800 sind nicht soo langsam (über nv kann ich pers. nichts sagen, da ich sowas nicht besitze).
was einem von der spieleindustrie als "sm3"-only grafik angepriesen wird ist auch einfach lächerlich. ein paar eyecandy-effekte und der rest des spiels sieht genauso aus wie dx7 techlevel.

Gast
2007-09-01, 14:37:57
Wie kann man dieses Verhalten "vernünftig" nennen? Wie sollen denn die "neuen Sachen" eingeführt werden, wenn der Käufer die hardwaretechnische Vorraussetzung erst kaufen wird, wenn die Software diese "neuen Sachen" untersützt.

Das habe ich mich auch lange gefragt. Aber weißt du was: Das ist mir mittlerweile egal. Und mit D3D10 gibt es ja endlich endlich den langersehnten Feature-Schnitt. Ich hoffe, das wird mit D3D11 so weitergehen.

Dann gibt's ein "geht" oder "geht nicht" basierend auf der DX-Version und nicht mehr aufgrund der Hardware-Auswahl.

Denn ganz ehrlich: Ich bin Kunde und ich bezahle nicht für zukünftige Integration von Zeugs - das sollen die Publisher, Entwickler, Hardwarehersteller und MS unter sich auskaspern - sondern für nutzbare Leistung. Wer weiß, wenn sich Shader-AA wie beim R600 durchgesetzt hat, bin ich vielleicht schon auf eine Konsole gewechselt und was habe ich dann von meiner "Investition" in die Zukunft? Nix.

aths
2007-09-01, 15:28:01
Das habe ich mich auch lange gefragt. Aber weißt du was: Das ist mir mittlerweile egal. Und mit D3D10 gibt es ja endlich endlich den langersehnten Feature-Schnitt. Ich hoffe, das wird mit D3D11 so weitergehen.

Dann gibt's ein "geht" oder "geht nicht" basierend auf der DX-Version und nicht mehr aufgrund der Hardware-Auswahl.

Denn ganz ehrlich: Ich bin Kunde und ich bezahle nicht für zukünftige Integration von Zeugs - das sollen die Publisher, Entwickler, Hardwarehersteller und MS unter sich auskaspern - sondern für nutzbare Leistung. Wer weiß, wenn sich Shader-AA wie beim R600 durchgesetzt hat, bin ich vielleicht schon auf eine Konsole gewechselt und was habe ich dann von meiner "Investition" in die Zukunft? Nix.In der Regel zahlt man für die Leistung. Die neuen Features gibts obendrein.

Coda
2007-09-01, 15:35:45
I[;5805228']einfach lächerlich. ein paar eyecandy-effekte und der rest des spiels sieht genauso aus wie dx7 techlevel.
Du meinst jetzt nicht Bioshock, oder? :|

Da gibt's keine Oberfläche die keinen Shader hätte oder dynamisches Licht. Da von "DX7-Techlevel" zu reden ist ja mal wirklich falsch.

_DrillSarge]I[
2007-09-01, 15:36:35
Du meinst jetzt nicht Bioshock, oder? :|

größtenteils nicht

Gast
2007-09-01, 19:27:57
In der Regel zahlt man für die Leistung. Die neuen Features gibts obendrein.
Die 6800 Ultra war aber nicht 40 Prozent billiger als die X850 XT PE.

Gast
2007-09-01, 20:59:16
Die 6800 Ultra war aber nicht 40 Prozent billiger als die X850 XT PE.

nur war das absolute high-end das einzige schlachtfeld bei NV4x vs. R4xx indem die radeon-reihe performancemäßig überlegen war.

darunter waren wir schon bei 6800GT vs. X800Pro, wo die NV-karte performancemäßig knapp und featuremäßig meilenweit überlegen war. weiter drunten sah es noch schlimmer für ATI aus.

knallebumm
2007-09-01, 21:50:21
ja sehr glaubhafter test. warum sind die 6800er karten mit 66% mehr pixeln um 77% langsamer, wie soll das funktionieren?

SLI funktioniert offensichtlich auch nicht, also warum dann mittesten?

das ganze in einem bekannt cpu-limitierten spiel wie HL2, komischerweise war sogar meine 6800non-ultra deutlich schneller.

Der Hund liegt in deiner Prozentrechnung begraben. Hier wird wieder mit Prozentwerten rumgeworfen, daß ich fast von Stuhl falle.
Du meinst die HL2 Werte 1024*768 vs 1280*1024?

Piffan
2007-09-01, 22:40:43
Du meinst jetzt nicht Bioshock, oder? :|

Da gibt's keine Oberfläche die keinen Shader hätte oder dynamisches Licht. Da von "DX7-Techlevel" zu reden ist ja mal wirklich falsch.

Wo du es erwähnst: Bioshock mogelt an allen Enden und Ecken. Manche Levels sind konsistent was die Technologie betrifft, in anderen wird gelogen. Siehe Cube- Maps des Wassers, sieht aus wie in einem alten Spiel. Siehe die Beleuchtung der Hand/Waffe: Wenn ich mich durch den Level bewege, dann ist das dynamische Licht auch von Gestern: Die Umschaltung von einer imaginären Lichtquelle erfolgt nicht kontinuierlich, sondern plötzlich und dann für die gesamte Hand/Waffe. Das sieht in Stalker oder Gothic3 wesentlich besser aus.

Die Schatten sind überwiegend Maps. Manche Texturen sind platt und grottenschlecht vom Kontent und der Schärfe.

Ja, ich denke schon, dass der DX9- Renderpfad von Bioshock ein hundsmiserables Beispiel ist.

Ein Vorzeigebeispiel für moderne Grafik scheint Bioshock eher nicht zu sein. :|

Gast
2007-09-02, 00:24:09
Absolut. Eigentlich wollte ich es deshalb, wegen des übertriebenen Kopierschutzes und wegen des Verzichts auf AA eigentlich boykottieren. Nun hab ich es aber leider geschenkt bekommen. :)

Sentionline
2007-09-02, 22:41:22
Also ich hab jetzt BioShock gekauft. Und muss sagen: "Es läuft Prächtig mit der 6800 Ultra". Bei 1024x768 ohne HDR sieht es sehr hübsch aus und ich habe Frameraten um die ~30fps. Kann alerdings auch an der starken CPU im Rücken liegen (C2D E6300).

So...nun mal einige Zitate kommentieren:

Man muss ziemlich verzweifel sein, um seinen Kauf so dermaßen zurechtfertigen. Ist es dagegen so schwer sich selbst einzugestehen, dass man eben eine für damalige Zeit sehr schneller aber eben auch technologisch unterentwickelte Karte gekauft hat?
So unterentwickelt war die Karte nicht. Und bei der einführung wurde fast schon gar nicht daran geglaubt das die X850XT-PE überhaupt Endkunden erreicht. Die Karte ist nun 2 Jahre alt und schon "Technologisch unterentwickelt" :|

Technologisch "besonnders hochentwickelt" war die NV40 alias 6800 Ultra auch nicht. Rein Leistungstechnisch erreicht die Karte bei mir etwa 75% der Benchmarkwerte einer X850XT-PE (Gleiche Rechnerkonfiguration). Damit meine ich auch Benchmarks wie 3dMark 2005 & 2006. Und es stimmt schon, hat eine NV40 keine fette CPU im Rücken, geht ihr die Puste in "reinen" Shader 3 Spielen dermaßen die Puste aus, das man lieber freiwillig auf Shader 2 umschalten würde wenn man könnte. Und da kommen wir zu einer Stelle, wo die X8xx mitreden "darf & sollte".

Ich fang erstmal gar nicht erst damit an wie lange die sogennanten "Fanboys" an der Geforce 4 festgehalten haben und wie lange Spielehersteller und auch die Entwickler der Karte support geleistet haben...Denn wenn wir das ansprechen würden, dann würden mir meine Zähne als besitzter einer X850 vor knischen ausfallen...

Also ich kauf mir immer High-End Karten der Vorgeneration, weil diese billiger sind. Aber nicht um mir nach 2 Jahren sagen zu lassen..."Too low to range..."

Wie sollen denn die "neuen Sachen" eingeführt werden, wenn der Käufer die hardwaretechnische Vorraussetzung erst kaufen wird, wenn die Software diese "neuen Sachen" untersützt.
Man kann ja als Spielehersteller immer das neuste Kaufen und darauf entickeln damit es schneller geht. Aber das der Technologische rückschritt zuerst am Kunden "ausgemolken" wird find ich ziemlich arm. Man kann technishe Neuerungen auch "sanft" einführen. Am Beispiel des BioShock kann man z.B. Grafische Highligts einbauen die den Kunden dazu ermutigen sich für eine Shader 3 Karte zu entscheiden oder zu Kaufen. Aber die Kunden dazu zu "zwingen" find ich mal einen ziemlich besch*** Ansatz. Und unterentwickelt wird die X8xx schon gar nicht sein, wenn BioShock & CrySis drauf laufen (werden).

Naja, sehr viel machen die SM3-Karten 1. Generation in reinen SM3.0-Spielen auch nicht mehr her...
Du sagst es, aber es geht. Man sollte jetzt die Shader 3 Karten der 1. Generation aber auch nicht schlecht reden. Also meine Ultra leistet gute dienste. Eine 88xx wird so ziemlich in die Knie gehen bei reinen Shader 4 Apps. Ganz im gegenteil zu der X8xx. Die hat irgenwie immer genug Power bei Shader 2 Apps.


Außerdem sind SM3-Karten automatisch sehr gute SM2-Karten, SM4-Karten automatisch sehr gute SM3-Karten und so weiter.
Eben nicht. Eine NV40 das mit Shader 3 trumpfen kann ist bei Shader 2 Apps nicht so schnell wie eine R481. Undzwar in "jedem" Bench...

Dazu passend:

Bioshock SM2.0b Fix für X800 (Asankel Fix v3): http://www.paolofranchini.com/shshock/viewtopic.php?f=1&t=53&sid=45dd60184f198edbc6672422dc57513e
Ich liebe Dich! :love3:
Jetzt bräuchte man bloß noch ein paar BQ Vergleiche und Benchmarks :naughty:
Wenn es läuft wie es laufen soll, dann liefer ich gerne welche. Hab ja eine X850XT-PE & eine 6800 Ultra. In progress..:weg:

Siehe Cube- Maps des Wassers, sieht aus wie in einem alten Spiel. Siehe die Beleuchtung der Hand/Waffe: Wenn ich mich durch den Level bewege, dann ist das dynamische Licht auch von Gestern: Die Umschaltung von einer imaginären Lichtquelle erfolgt nicht kontinuierlich, sondern plötzlich und dann für die gesamte Hand/Waffe. Das sieht in Stalker oder Gothic3 wesentlich besser aus.

Die Schatten sind überwiegend Maps. Manche Texturen sind platt und grottenschlecht vom Kontent und der Schärfe.
Find ich nicht. Stalker jetzt in den Vergleich zu werfen find ich echt übel. In Sachen Grafik ist Stalker so ziemlich mies. Die ganzen "negativen" Futures die du aufgezählt hast, hat Stalker, aber nicht BioShock. Ich empfehle kritikern von BioShock ein Ingame Video "selbst" zu erstellen, und sich das Video mal in ruhe an zu sehen. Selbst nachdem ich meine 30 Minutige sequenz zum 4. mal angeschaut habe hab ich Details entdeckt, die mir im reinen Spielbetrieb nicht aufgefallen ist.

Rein grafisch setzt BioShock Maßstäbe. Und das angesprochene "dynamische Licht & Schatten" macht Stalker auf gar keinen fall besser. Was die Spielmechanik angeht, ähneln sich die Spiele schon. Aber nicht grafisch!

Ja, ich denke schon, dass der DX9- Renderpfad von Bioshock ein hundsmiserables Beispiel ist.

Ein Vorzeigebeispiel für moderne Grafik scheint Bioshock eher nicht zu sein. :|
Also hier und da macht es mir den Eindruck, eine Portierung zu sein.:| Beispiele? Speichersystem, lahme maussteuerung (nachziehen), Shader 3 zwang...

Eigentlich wollte ich es deshalb, wegen des übertriebenen Kopierschutzes und wegen des Verzichts auf AA eigentlich boykottieren.
Der verzicht auf AA drückt schon auf die nerven. Aber sehen wirs anders: 3 Jahre später hat jeder eine DX12 Karte und hat ein Vozeigespiel:D

BioShock bei 4xSSAA (träum):rolleyes:

Gast
2007-09-02, 22:47:20
Damit meine ich auch Benchmarks wie 3dMark 2005 & 2006. Und es stimmt schon, hat eine NV40 keine fette CPU im Rücken, geht ihr die Puste in "reinen" Shader 3 Spielen dermaßen die Puste aus,

wenn der grafikkarte die puste ausgeht nutzt die schellste cpu nix, umgekehrt nutzt die schnellste grafikkarte nichts wenn die cpu nicht schafft spielbare frameraten zu erreichen. das sind 2 paar schuhe und das eine kann nicht durch das andere ersetzt werden.

Piffan
2007-09-02, 23:58:45
Also ich hab jetzt BioShock gekauft. Und muss sagen: "Es läuft Prächtig mit der 6800 Ultra". Bei 1024x768 ohne HDR sieht es sehr hübsch aus und ich habe Frameraten um die ~30fps. Kann alerdings auch an der starken CPU im Rücken liegen (C2D E6300).

So...nun mal einige Zitate kommentieren:


So unterentwickelt war die Karte nicht. Und bei der einführung wurde fast schon gar nicht daran geglaubt das die X850XT-PE überhaupt Endkunden erreicht. Die Karte ist nun 2 Jahre alt und schon "Technologisch unterentwickelt" :|

Technologisch "besonnders hochentwickelt" war die NV40 alias 6800 Ultra auch nicht. Rein Leistungstechnisch erreicht die Karte bei mir etwa 75% der Benchmarkwerte einer X850XT-PE (Gleiche Rechnerkonfiguration). Damit meine ich auch Benchmarks wie 3dMark 2005 & 2006. Und es stimmt schon, hat eine NV40 keine fette CPU im Rücken, geht ihr die Puste in "reinen" Shader 3 Spielen dermaßen die Puste aus, das man lieber freiwillig auf Shader 2 umschalten würde wenn man könnte. Und da kommen wir zu einer Stelle, wo die X8xx mitreden "darf & sollte".

Ich fang erstmal gar nicht erst damit an wie lange die sogennanten "Fanboys" an der Geforce 4 festgehalten haben und wie lange Spielehersteller und auch die Entwickler der Karte support geleistet haben...Denn wenn wir das ansprechen würden, dann würden mir meine Zähne als besitzter einer X850 vor knischen ausfallen...

Also ich kauf mir immer High-End Karten der Vorgeneration, weil diese billiger sind. Aber nicht um mir nach 2 Jahren sagen zu lassen..."Too low to range..."


Man kann ja als Spielehersteller immer das neuste Kaufen und darauf entickeln damit es schneller geht. Aber das der Technologische rückschritt zuerst am Kunden "ausgemolken" wird find ich ziemlich arm. Man kann technishe Neuerungen auch "sanft" einführen. Am Beispiel des BioShock kann man z.B. Grafische Highligts einbauen die den Kunden dazu ermutigen sich für eine Shader 3 Karte zu entscheiden oder zu Kaufen. Aber die Kunden dazu zu "zwingen" find ich mal einen ziemlich besch*** Ansatz. Und unterentwickelt wird die X8xx schon gar nicht sein, wenn BioShock & CrySis drauf laufen (werden).


Du sagst es, aber es geht. Man sollte jetzt die Shader 3 Karten der 1. Generation aber auch nicht schlecht reden. Also meine Ultra leistet gute dienste. Eine 88xx wird so ziemlich in die Knie gehen bei reinen Shader 4 Apps. Ganz im gegenteil zu der X8xx. Die hat irgenwie immer genug Power bei Shader 2 Apps.


Eben nicht. Eine NV40 das mit Shader 3 trumpfen kann ist bei Shader 2 Apps nicht so schnell wie eine R481. Undzwar in "jedem" Bench...


Ich liebe Dich! :love3:

Wenn es läuft wie es laufen soll, dann liefer ich gerne welche. Hab ja eine X850XT-PE & eine 6800 Ultra. In progress..:weg:


Find ich nicht. Stalker jetzt in den Vergleich zu werfen find ich echt übel. In Sachen Grafik ist Stalker so ziemlich mies. Die ganzen "negativen" Futures die du aufgezählt hast, hat Stalker, aber nicht BioShock. Ich empfehle kritikern von BioShock ein Ingame Video "selbst" zu erstellen, und sich das Video mal in ruhe an zu sehen. Selbst nachdem ich meine 30 Minutige sequenz zum 4. mal angeschaut habe hab ich Details entdeckt, die mir im reinen Spielbetrieb nicht aufgefallen ist.

Rein grafisch setzt BioShock Maßstäbe. Und das angesprochene "dynamische Licht & Schatten" macht Stalker auf gar keinen fall besser. Was die Spielmechanik angeht, ähneln sich die Spiele schon. Aber nicht grafisch!


Also hier und da macht es mir den Eindruck, eine Portierung zu sein.:| Beispiele? Speichersystem, lahme maussteuerung (nachziehen), Shader 3 zwang...


Der verzicht auf AA drückt schon auf die nerven. Aber sehen wirs anders: 3 Jahre später hat jeder eine DX12 Karte und hat ein Vozeigespiel:D

BioShock bei 4xSSAA (träum):rolleyes:


Ohne jetzt jede fitzelige Kleinigkeit zu zerpflücken: Die Grafik von Stalker ist technisch wesentlich besser. Entfache nur mal ein schönes Feuerchen in Bioshock und vergleiche mal die dadurch verursachte dynamische Beleuchtung mit der von Stalker. Da liegen Welten dazwischen. Wenn man bestimmte Abschnitte vergleicht und manche Texturen sieht, wurde bei Bioshock sehr viel gefaked. Ich beziehe mich rein auf die technische Qualität.......Und was "nett" ist: Stalker läuft auch auf einer X800. Allerdings kommt sie aufgrund ihrer begrenzten Shader- Leistung klar an ihre Grenzen. Dynamisches Licht in Stalker ist ein zu großer Happen für diese betagte Karte, wohingegen in Bioshock überall die Leistung reichen dürfte.

drillsarge@woanders
2007-09-04, 17:39:16
meine chrome s27 ist (laut post) heute eingetroffen. ob der sm2-fix auch damit funktioniert???

Sentionline
2007-09-04, 22:18:20
...Bioshock SM2.0b Fix für X800 (Asankel Fix v3)...
...Jetzt bräuchte man bloß noch ein paar BQ Vergleiche und Benchmarks :naughty:

Und hier sind sie :biggrin:

http://img405.imageshack.us/img405/9883/bioshock200709031402014ul2.th.jpg (http://img405.imageshack.us/my.php?image=bioshock200709031402014ul2.jpg)http://img160.imageshack.us/img160/893/bioshock200709031418245xy2.th.jpg (http://img160.imageshack.us/my.php?image=bioshock200709031418245xy2.jpg)http://img258.imageshack.us/img258/8299/bioshock200709031424004bb0.th.jpg (http://img258.imageshack.us/my.php?image=bioshock200709031424004bb0.jpg)

http://img160.imageshack.us/img160/7348/bioshock200709031427244br1.th.jpg (http://img160.imageshack.us/my.php?image=bioshock200709031427244br1.jpg)http://img258.imageshack.us/img258/6063/bioshock200709031428304fs8.th.jpg (http://img258.imageshack.us/my.php?image=bioshock200709031428304fs8.jpg)http://img160.imageshack.us/img160/1351/bioshock200709031433063mz8.th.jpg (http://img160.imageshack.us/my.php?image=bioshock200709031433063mz8.jpg)

http://img405.imageshack.us/img405/5990/bioshock200709031437184pk5.th.jpg (http://img405.imageshack.us/my.php?image=bioshock200709031437184pk5.jpg)http://img405.imageshack.us/img405/9510/bioshock200709031443392fm2.th.jpg (http://img405.imageshack.us/my.php?image=bioshock200709031443392fm2.jpg)
Sieht meiner Meinung nach sehr schön aus für `ne olle X850 alias Shader 2 Karte^^

Also die Framerate war bei mir selten unter 20. Auflösung 1280x1024 auf einer X850? Mit meiner 6800 Ultra, gar nicht dran zu denken. Da dümpelte die NV40 bei 10 fps rum. Die Ingamesequenz und und die Screenshots hab ich mit 16xAF gemacht, wo die X850 durchweg ~22 fps erreichte. Unter 18 fps fiel ich nicht, aber zwischendurch waren auch mal 60fps drin.

Negativ aufgefallen ist mir auch, das die Ladezeiten 3 mal so hoch waren als bei der 6800 `er. Aber man sieht ja, es zählt nur der wille. Und die X8xx Tod? noch lange nicht, wie man sieht!

Sehr schön ist die darstellung des Wassers, der Texturen und der Glanzeffekte. Da gibt es keinen unterschied zu den Shader 3 pendants.

Da wo Licht ist, ist auch Schatten. Ganz gewaltige Schatten sogar!

http://img160.imageshack.us/img160/5335/bioshock200709031408374lh1.jpg
http://img258.imageshack.us/img258/6818/bioshock200709031415424pa6.jpg
http://img405.imageshack.us/img405/3474/bioshock200709031418154wk1.jpg
http://img258.imageshack.us/img258/7317/bioshock200709031438395sc4.jpg

Momentan ist die Schatten-, Rauch- & Feuerdarstellung nicht besonnders schön. Aber "gravierende" grafische Fehler hab ich nicht entdecht. Und spielbar ist das Spiel in jedem Fall. Zumal die Performance auch stimmt. Auf nach Rapture...

Naja, der Patch ist ja noch in der Testphase. Ich hoffe noch immer auf ein offizielles Patch von Irrational Games oder 2k.

Ich habe auch ein schickes Ingame Video erstellt. Wenn ihr etwas lachen und das ergebnis der Shader 2 Engine sehen möchtet:
Einfach hier klicken (http://video.google.de/videoplay?docid=-4480601067139733272)

Gast
2007-09-04, 22:38:42
Wirklich erstaunlich. Dieser "Patch" kam ja nun recht schnell für das noch sehr neue Spiel. Den Hersteller verstehe ich jedenfalls nicht, mit dem vermeidbaren SM3.0 Zwang wäre das Marktpotential grösser gewesen. Viele kaufen das Spiel nun wegen der Annahme nicht, es ginge nicht mit der heimischen SM2.0 Karte.

MadManniMan
2007-09-04, 22:53:21
Bei den unansehlicheren Shots spürt man eine begrenzte Farbtiefe deutlichst - sollte Bioshock nur am HDR kränkeln?

The_Invisible
2007-09-04, 23:22:43
ihr wollt jetzt aber nicht sm2.0 content fps gegen sm3.0 content fps vergleichen oder?

außerdem sehen die bilder aus wie 16bit farbtiefe, wer es sich so geben will muss wohl sehr an seiner R4x0 hängen.

mfg

Sentionline
2007-09-05, 00:32:55
Bei den unansehlicheren Shots spürt man eine begrenzte Farbtiefe deutlichst - sollte Bioshock nur am HDR kränkeln?
Also auf das HDR kann ich gut verzichten. Muss ich auf meiner NV40 auch, der packt das auch nicht. Ich hoffe, das sie die Farben noch hinkriegen...

ihr wollt jetzt aber nicht sm2.0 content fps gegen sm3.0 content fps vergleichen oder?
Das sicherlich nicht. Wenn man das Spiel direkt nach der Installation mit einer X8xx startet, bekommt man extreme Grafikfehler. Nur komisch das dass Spiel doch mit den Karten läuft, ob wohl es heißt "Technisch unmöglich":|


außerdem sehen die bilder aus wie 16bit farbtiefe, wer es sich so geben will muss wohl sehr an seiner R4x0 hängen.
Ich hab eine R4x1:biggrin:

Ja, die Farben an manchen stellen sind echt nervig. Ich bin mal gespannt auf kommende Patches. Villeicht kommt ja doch ein offizieller Patch noch.

Ansonsten ist mir die Thematik sehr mühselig geworden hier. Könnt ihr bitte mit euren G8x woanders rumschwimmen, und ich dümpel hier noch mit meiner X8xx rum...Geht das ohne solche komments?:mad:

Und JA, ich hänge an meiner R4x1

(del)
2007-09-05, 00:34:56
Eher wie 22bit Farbtiefe ;) Bis auf die Problemzonen die Sentionline da aufzeigt.

FPS sind FPS ;) Content kann man auf dem vergleichen was einem selbst zur Verfügung steht. Einen klaren Widerspruch sehe ich da nicht. Lieber bissl ämer mit 20fps als voll dabei mit 11fps. gilt jetzt aber nicht so direkt für das was der Patch kann. Da müßte noch was kommen keine Frage.

Eine Geldfrage steht für dich auch nicht zur Debatte, The_Invisible? Nicht jedem geht es gleich so gut wie zB. uns beiden. Ja auch 150€ können eine Investition sein. Will ich für Sentionline nicht gleich behaupten, aber dran denken kann man schon...

Ich stell mir aber nicht so die Frage wie gut der Patch bis jetzt funktioniert, sondern wie schnell der kam und wieviel er bereits kann. Da frag ich mich eher, ob das wirklich so unmöglich bzw. so aufwendig war SM2 Bioshock zu basteln, wenn man den kompletten source code eh vor der Nase hat... HDR overkill?

Gast
2007-09-05, 02:10:12
Wenn Entwickler meinen, dass das Spiel auf alter Hardware (Shader 2.0/2.0b) nicht so aussehen kann wie gedacht, ist es doch verständlich, sowas nicht zu berücksichtigen oder nicht nachträglich zu bringen.

Ich hab Bioshock mit "Patch" auf einer 9800Pro ausprobiert. Das sah soweit ganz nett aus und lief bei 1024er Auflösung sogar recht gut (~20-25fps, alles auf High, wird ja eh nicht dargestellt). Nur fehlen fast sämtliche Shadereffekte, weswegen der komplette Content massiv an Qualität verliert. Die Texturen sind nunmal auf sehr niedrigem Niveau und kommen erst durch diverse Shader wirklich zur Geltung. Auf 2.0b-Karten scheint es nicht ganz so schlimm zu sein.
Teilweise wird es unspielbar, da diverse Lichteffekte einfach fehlen und vollkommen dunkle Ecken die Spielwelt dominieren. Es wirkt zwar sehr gruselig, aber nicht schön.

Würde man nun versuchen, Effekte die auf Shader2-Karten momentan nicht dargestellt werden, doch noch darstellbar zu machen, würden viele Karten wohl stark einbrechen. In den letzten Jahren ist eben nicht nur die Rohleistung gestiegen, sondern es wurden neue Features hinzugefügt, die von den Garfikkarten sehr performant (und fast für lau) dargestellt werden können.
Sicher bekleckert sich NV mit ihrer alten Generation hier momentan nicht gerade mit Ruhm, Ati aber auch nicht.


Da der kleinste gemeinsame Nenner heutiger Produktionen meist die Konsolen sind, haben PC-Besitzer nunmal ab und an das Nachsehen. Das kann man verurteilen, muss aber trotzdem auf mittlere Sicht mit den Konsequenzen leben.

MadManniMan
2007-09-05, 06:29:24
Also auf das HDR kann ich gut verzichten. Muss ich auf meiner NV40 auch, der packt das auch nicht. Ich hoffe, das sie die Farben noch hinkriegen...

Ist natürlich praktisch, daß Du gerade darauf verzichten kannst, was unsere Karte nicht kann, hm? ;) Nee im Ernst, solches Banding haben wir uns bei Thief: The Dark Project angetan. Das ist wie lange her? 9 Jahre?

Wenn man ständig Einbußen mitschleppt, bleibt man irgendwann beim SM1 hängen.
Als ich mir Doom3 gekauft habe, hatte ich gerade auch eine GF4 rumliegen und war amüsiert darüber, daß es auch auf dieser Karte lief - aber es sah einfach nur gruseligstens aus. So etwas grundlegendes wie den Dynamikumfang/Farbtiefe sollte man einfach voraussetzen, weil dem Spiel dann nicht nur jeder Eyecandy abgeht, sondern es einfach stellenweise scheiße aussieht.
Und genau das passiert mit dem fangepatchten Bioshock.

Gast
2007-09-05, 07:39:50
Ob es scheisse aussieht oder nicht, sollte wohl jedem selbst überlassen werden.

;-)

Die Bilder der kommenden releases MIT HDR sehen fantastisch aus.

MadManniMan
2007-09-05, 08:12:42
Ob es scheisse aussieht oder nicht, sollte wohl jedem selbst überlassen werden.

Es mag aber schon etwas dahinter stecken, wenn die Entwickler einen großen Farbraum für unabdingbar halten.
Hier geht es nicht um pure Spielmechanik, weswegen wir sowas wie Lego-Quake gar nicht erst anfangen, sondern um Immersion. Color Banding verhindert diese ganz effizient ;)

Gast
2007-09-05, 08:33:34
Das sicherlich nicht. Wenn man das Spiel direkt nach der Installation mit einer X8xx startet, bekommt man extreme Grafikfehler. Nur komisch das dass Spiel doch mit den Karten läuft, ob wohl es heißt "Technisch unmöglich":|

Tut es ja anscheinend doch nicht - so, wie die Entwickler es beabsichtigt haben. :)