Archiv verlassen und diese Seite im Standarddesign anzeigen : Gothik3, X3, The Witcher und die 6800gt
hallo experten ;-),
ich stehe vor einer entscheidung und brauche mal rat.
meint ihr, daß eine gf6800 gt für die genannten spiele noch reicht um die richtig gut zu zocken ? ich habe eine 3200xp und ein nforce3 (agp) & gf4800 und überlege gerade mir von alternate eine der letzten gf6800 gts zu holen.
kommt man damit noch 1-2 jahre aus ? ( ich steh zwar auf gute qualität, aber bin kein benchmarker der in 1600x1200 mit 8AAbei spielen muss - 1024x768 oder 1280x1024 bei guten qualitätseinstellungen und max. 2-4 AA reichen mir)
alternativ würde ich mir ein pcie-board und eine gf6600 gt holen und halt und wenn es später nötig ist einfach auf eine bessere grafikkarte aufrüsten.
für die 6800gt würde sprechen:
- bestes preisleitungsverhältnis
- schon jetzt bessere karte als die 6600 gt
für pcie:
-die möglichkeit später eine schnellere karte zu kaufen
Auf der Gameconvention liefen fast alle Spiele auf 6600GT Karten und Äquivalent, zumindest hab ich da einfach selbst nachgegugt wenns die Standheinis nicht wussten *g
Wenn du mit AA spielen magst sollte es schon die 6800GT sein, wenns nicht eilt kannst du noch die neuen Produkte von ATI abwarten, sollen ja ende September kommen, vieleicht gibts bisdahin noch eine 16Pipe Version der 7800GT(X) zu sehen.
Von der Haltbarkeit her würde ich die 6800GT mit einer R9700 vergleichen die hielt auch ca. 3 Jahre, wenn mans nicht mit seinen Ansprüchen übertreibt :)
Was eher dein Problem werden könnte ist die CPU, sobald du AA deaktivierst und keinen Performance Schub mehr bekommst, wirds Zeit für eine neue CPU+Mobo ^^
AnarchX
2005-09-03, 23:44:21
3200XP und Nforce3 :|
Wohl eher ein A64. Der wird mit einer GT an der Seite bestimmt noch ziemlich gut in den Games dastehen. Auf PCIe würde ich eher später umsteigen wenn die CPU nicht mehr reicht.
Da wir alle nicht Jesus sind, muss eben die Kristallkugel herhalten. Da die aber auch nur verschwommene Bilder liefert, kann man nur Vermutungen anstellen. Eine 6800GT reicht sicher noch ein Jahr ... aber nur mit aktiven Optimierungen und/oder wenig AA/AF. Darunter würde ich eh nichts mehr neu kaufen.
MfG,
Raff
Atlanos01
2005-09-03, 23:56:55
Hi,
die Karte reicht normalerweise schon noch geraume Zeit. Aber ob sie dein xp3200 mit den games ordentlich füttern kann... weiß nich recht.
Noch dazu weil dein Board AGP hat da jetz noch ne quwasi High End Karte reinzusetzen lohnt glaub ich nicht. Setz lieber auf ein nForce4 U Board, guten Ram und ein A64 3200+ Venice mit der 6600GT.
Der 3200+ lässt sich gut OC und wenn du mal Geld über hast kannst immer noch auf ne 7800 GT/GTX und einen A64 X2 aufsatteln.
Aber mein Tipp is halt nicht dein Geldbeutel. :)
Ausser du sagst was du ausgeben kannst dann kann man das WWW nach alternativen abgrasen.
Gruß Atlanos
ja ich meine natürlich einen a64 3200+ , sorry vertippt :)
ich denke ich werde dann die gf6800gt nehmen. mit 229 euro ist das einfach ein super preisleistungsverhältnis.
schönen dank!
Peleus1
2005-09-04, 00:36:56
Hi,
die Karte reicht normalerweise schon noch geraume Zeit. Aber ob sie dein xp3200 mit den games ordentlich füttern kann... weiß nich recht.
Noch dazu weil dein Board AGP hat da jetz noch ne quwasi High End Karte reinzusetzen lohnt glaub ich nicht. Setz lieber auf ein nForce4 U Board, guten Ram und ein A64 3200+ Venice mit der 6600GT.
Der 3200+ lässt sich gut OC und wenn du mal Geld über hast kannst immer noch auf ne 7800 GT/GTX und einen A64 X2 aufsatteln.
Aber mein Tipp is halt nicht dein Geldbeutel. :)
Ausser du sagst was du ausgeben kannst dann kann man das WWW nach alternativen abgrasen.
Gruß Atlanos
Selten soviel Schwachsinn in einem Post gelesen:
1) Warum 300.- Euro für gleiche Leistung ausgeben wenn es gleiche Leistung für 229.- gibt?
2) Evtl. weisst du das der X2 in Spielen momentan noch gar nichts bringt.
3) Warum weniger Leistung nehmen? 6600GT? Das ist doch nen Witz.
4) Ich verstehe auch nicht warum ein XP3200+ ne 6800GT ausbremsen sollte. Mein 2800+ hat meine 6800nU damals nicht ausgebremst.
5) AGP ist nicht langsamer als PCIe. Und es lohnt sich da eine Nvidia Geforce 6800GT reinzusetzen. Das Ding hat genug Leistung.
4) Ich verstehe auch nicht warum ein XP3200+ ne 6800GT ausbremsen sollte. Mein 2800+ hat meine 6800nU damals nicht ausgebremst. Na dann schau dir mal den K7 vs. K8 Artikel auf 3DCenter an :)
Blaze
2005-09-04, 01:45:54
4) Ich verstehe auch nicht warum ein XP3200+ ne 6800GT ausbremsen sollte. Mein 2800+ hat meine 6800nU damals nicht ausgebremst.
Sicher? Ich hab exakt die selbe Combo am laufen gehabt und er hat sie überall, wirklich überall ausgebremst. Ganz stark zu sehen wars u.A. in FarCry...mit meinem A64 hatte ich da locker doppelt so viele FPS wie vorher mit dem XP.
leute :-) ich hatte mich vertippt! ich habe einen a64 3200+ :-) von daher ...
Selten soviel Schwachsinn in einem Post gelesen:
2) Evtl. weisst du das der X2 in Spielen momentan noch gar nichts bringt.
Geht es hier nicht um "Gothik3, X3, The Witcher", also um Spiele, die allerhöchstwahrscheinlich vom x2 erheblich profitieren werden?
The_Invisible
2005-09-04, 07:21:56
An Gothic3 wird man sicher wieder zu knappern haben, ich glaube unter nem A64 2ghz, 16pipe karte und 1(2)gig RAM macht das Spiel nicht Spaß... die Optik ist aber hammer
mfg
An Gothic3 wird man sicher wieder zu knappern haben, ich glaube unter nem A64 2ghz, 16pipe karte und 1(2)gig RAM macht das Spiel nicht Spaß... die Optik ist aber hammer
mfg
Was hat denn die Performance der Karte mit den Pipes zu tun?
Eine Karte mit nur 12 Pipes und 475 Mhz (X800PRO) hat mehr Füllrate als eine Karte mit 16 Pipes und 350 Mhz (6800GT).
Füllrate ist das was zählt und nicht die Pipes.
Bitte keine allgemeinen Aussagen in diese Richtung, diese sind nämlich falsch.
Bald gibt es eh keine Pipes in dem Sinne mehr.
Was dann?
Nachtrag:
Da die Preise für eine 6800GT angezogen haben (ich habe eine für 200 Euro ergattert), würde ich eher eine X800PRO für 200 Euro empfehlen:
http://www.alternate.de/html/shop/productDetails.html?artno=JAGO50&artno=JAGO50&
oder eine X800XT PE für 250 Euro, welche es in ein paar Tagen bei Snogard geben wird:
http://snogard.de/index.php?kategorieId=91&artikelId=VGA256-ATI964
Bin auch gerade am Überlegen, ob ich die 6800GT in Rente schicke und mir eine X800XT PE zulege...
Was hat denn die Performance der Karte mit den Pipes zu tun?
Eine Karte mit nur 12 Pipes und 475 Mhz (X800PRO) hat mehr Füllrate als eine Karte mit 16 Pipes und 350 Mhz (6800GT).
Füllrate ist das was zählt und nicht die Pipes.
Bitte keine allgemeinen Aussagen in diese Richtung, diese sind nämlich falsch.
Bald gibt es eh keine Pipes in dem Sinne mehr.
Was dann?
Das ist so nicht ganz korrekt ;)
Füllrate zählt aber nicht mehr zu 100%, Shaderpower ist ebenfalls wichtig wie man an den neuen Spielen sieht.
Und das von dir gewählte Beispiel kannste in die Tonne treten, die 100MPixel reißen es wirklich nicht raus...
Nachtrag:
Da die Preise für eine 6800GT angezogen haben (ich habe eine für 200 Euro ergattert), würde ich eher eine X800PRO für 200 Euro empfehlen:
http://www.alternate.de/html/shop/productDetails.html?artno=JAGO50&artno=JAGO50&
oder eine X800XT PE für 250 Euro, welche es in ein paar Tagen bei Snogard geben wird:
http://snogard.de/index.php?kategorieId=91&artikelId=VGA256-ATI964
Bin auch gerade am Überlegen, ob ich die 6800GT in Rente schicke und mir eine X800XT PE zulege...
Du denkst auch daran das es noch ca. 1 Monat dauert bis ATI eine neue Generation bringt oder?
Nur so als Hint da könnten die Preise weiter fallen, oder man könnte gar auf die Idee kommen sich ein anderes Modell zu leisten o.O
Das ist so nicht ganz korrekt ;)
Füllrate zählt aber nicht mehr zu 100%, Shaderpower ist ebenfalls wichtig wie man an den neuen Spielen sieht.
Ja, hast Recht.
Und das von dir gewählte Beispiel kannste in die Tonne treten, die 100MPixel reißen es wirklich nicht raus...
Es war ja nur eine Anmerkung von mir, dass man solche Pauschalaussagen wie "man braucht eine Karte mit 16 Pipes" sein lassen sollte, weil sie nämlich NICHTS aussagen. ;)
Das Beispiel kam gerade recht und veranschaulicht einfach nur, dass solche Pauschalaussagen FALSCH sind.
Du denkst auch daran das es noch ca. 1 Monat dauert bis ATI eine neue Generation bringt oder?
Nur so als Hint da könnten die Preise weiter fallen, oder man könnte gar auf die Idee kommen sich ein anderes Modell zu leisten o.O
Ich denke nicht, dass der RV530 schneller als eine X800XT PE sein wird.
Und da ich den RV530 am Anfang bei etwa 250 Euro vermute, werde ich wohl bei der X800XT PE zuschlagen.
Ob die X800XT PE unter 250 Euro sinkt, naja möglich.
Falls es die X800XT aber nicht mehr geben sollte, gucke ich in die Röhre...
No Risk, no fun. :)
(del)
2005-09-04, 10:07:31
hallo experten ;-),
ich stehe vor einer entscheidung und brauche mal rat.
meint ihr, daß eine gf6800 gt für die genannten spiele noch reicht um die richtig gut zu zocken?
Für mich was das jetzt ein Trollversuch :)
The_Invisible
2005-09-04, 10:10:09
Was hat denn die Performance der Karte mit den Pipes zu tun?
Eine Karte mit nur 12 Pipes und 475 Mhz (X800PRO) hat mehr Füllrate als eine Karte mit 16 Pipes und 350 Mhz (6800GT).
Füllrate ist das was zählt und nicht die Pipes.
Bitte keine allgemeinen Aussagen in diese Richtung, diese sind nämlich falsch.
Bald gibt es eh keine Pipes in dem Sinne mehr.
Was dann?
ich wollte damit nur sagen das man ne starke grafikkarte braucht, oder gibts etwa schwache 16pipe karten? außerdem sagt füllrate auch nichts mehr aus, sonst müssten ja die radeon karten sehr deutlich vor den geforce chips liegen, was aber nicht der fall ist
und was mit performance mit pipes zu tun hat kann man auch an der 7800GTX sehen, zufrieden?
mfg
The_Invisible
2005-09-04, 10:10:55
Ich denke nicht, dass der RV530 schneller als eine X800XT PE sein wird.
Und da ich den RV530 am Anfang bei etwa 250 Euro vermute, werde ich wohl bei der X800XT PE zuschlagen.
Ob die X800XT PE unter 250 Euro sinkt, naja möglich.
Falls es die X800XT aber nicht mehr geben sollte, gucke ich in die Röhre...
No Risk, no fun. :)
ich sag nur features...
mfg
ich sag nur features...
mfg
Was genau?
und was mit performance mit pipes zu tun hat kann man auch an der 7800GTX sehen, zufrieden?
mfg
Nein. Sollte der R520 mit 16 Pipes schneller oder gleich schnell wie die 7800GTX sein, ist deine Argumentation unlogisch.
Pipes-> unwichtig
Füllrate und Shaderleistung-> wichtig
Jetzt kapiert?
The_Invisible
2005-09-04, 11:57:42
Nein. Sollte der R520 mit 16 Pipes schneller oder gleich schnell wie die 7800GTX sein, ist deine Argumentation unlogisch.
Pipes-> unwichtig
Füllrate und Shaderleistung-> wichtig
Jetzt kapiert?
bist ja ein ganz lustiger, ohne mehr pipes würde es auch nicht mehr füllrate und shaderpower geben, überleg doch mal. außer man gleicht das mit hohen taktfrequenzen aus, was beim 7800gtx aber nicht der fall ist (core 6800u 425 / 7800gtx 430). wennst jetzt noch immer nicht verstehst tust du mir leid
mfg
The_Invisible
2005-09-04, 11:59:04
Was genau?
SM3.0, weniger verbrauch, effizienteres design und der ganze mist was halt mit ner neuen generation mitkommt ;)
mfg
tombman
2005-09-04, 12:46:02
Würde heutzutage nix mehr unter 16pipes und SM 3.0 kaufen... nur so als Tip ;)
Also 6800GT für "billig Geld" ist schon ok...
SM3.0,
Wäre ich Entwickler, würde es von mir ein Full Ack geben, aber als Gamer: Wayne.
Oder kannst du mir ein Spiel nennen, wo es mit einer 6800GT besser als mit einer X800PRO aussieht, weil die 6800GT SM3 hat?
Wohl nicht.
weniger verbrauch,
Als eine X800PRO?
Im Leben nicht.
effizienteres design und der ganze mist was halt mit ner neuen generation mitkommt ;)
mfg
Blub, blub.
Es geht mir um Handfestes, wo ich als Gamer sagen kann:
Ja, da habe ich etwas von.
bist ja ein ganz lustiger, ohne mehr pipes würde es auch nicht mehr füllrate und shaderpower geben, überleg doch mal. außer man gleicht das mit hohen taktfrequenzen aus, was beim 7800gtx aber nicht der fall ist (core 6800u 425 / 7800gtx 430). wennst jetzt noch immer nicht verstehst tust du mir leid
mfg
Du bist ein ganz Lustiger. ;)
Noch mal für dich:
Es ist total egal wie viele Pipes eine Graka hat, die Füllrate und die Shaderpower ist wichtig.
Ob ich jetzt 16 Pipes@500Mhz habe oder 8Pipes @1000Mhz ist echt egal.
Kannst du das verstehen?
The_Invisible
2005-09-04, 14:56:26
Du bist ein ganz Lustiger. ;)
Noch mal für dich:
Es ist total egal wie viele Pipes eine Graka hat, die Füllrate und die Shaderpower ist wichtig.
Ob ich jetzt 16 Pipes@500Mhz habe oder 8Pipes @1000Mhz ist echt egal.
Kannst du das verstehen?
lies mal meinen post GENAU durch, dann kann ich dir auch wieder ne antwort geben. tu tust nämlich so als würden mehr pipes NICHTS zu mehr performance beitragen was schlicht falsch ist.
mfg
The_Invisible
2005-09-04, 15:00:11
Wäre ich Entwickler, würde es von mir ein Full Ack geben, aber als Gamer: Wayne.
Oder kannst du mir ein Spiel nennen, wo es mit einer 6800GT besser als mit einer X800PRO aussieht, weil die 6800GT SM3 hat?
Wohl nicht.
Als eine X800PRO?
Im Leben nicht.
Blub, blub.
Es geht mir um Handfestes, wo ich als Gamer sagen kann:
Ja, da habe ich etwas von.
jop, FarCry und SC:CT sind gute Beispiele dafür. Und warum glaubst du nicht das die nächste gen weniger strom saugt als die jetzige? ne 7800GTX saugt auch weniger als ne 6800u und ist trotzdem schneller.
ich weiß ja nicht was für dich was handfestes ist? bildquali, performance, kompatibilität, features, verbrauch, linux-komp., anschlüße !?!
mfg
lies mal meinen post GENAU durch, dann kann ich dir auch wieder ne antwort geben. tu tust nämlich so als würden mehr pipes NICHTS zu mehr performance beitragen was schlicht falsch ist.
mfg
Wo habe ich das gesagt?
Schau meinen Post.
16Pipes@500Mhz gegen 8Pipes@1000Mhz.
Einem intelligenten Menschen muss doch auffalen, dass es von den Pipes UND dem Takt abhängt. Beide miteinander multipliziert ergibt die Füllrate.
Und DIESE ist wichtig.
Man kann doch nicht pauschal sagen, KarteX ist schneller als KarteY, weil sie mehr Pipes hat. Man muss immer auch den Takt berücksichtigen.
Jetzt aber endlich kapiert?
jop, FarCry und SC:CT sind gute Beispiele dafür.
In SC:CT gibt es keine Unterschiede, das Bild ist bei ATI mit HDR ein wenig dunkler, Unterschiede gibt es aber nicht.
Und was du bei FC meinst weiss ich nicht.
Dort gibt es auch keine Unterschiede, ausser dass das HDR nur für NV implementiert wurde für ATI aber nicht.
ich weiß ja nicht was für dich was handfestes ist? bildquali, performance, kompatibilität, features, verbrauch, linux-komp., anschlüße !?!
mfg
Bildqualität (bessere Effekte).
Kompatiblität ist mittlerweile bei ATI und Nvidia so gut, dass das überhaupt nicht interessiert.
Performance ist bei ATI und NV bei FC (z.B.) vergleichbar.
Zum Rest: Wayne..
Narrenkönig
2005-09-04, 15:25:21
In SC:CT gibt es keine Unterschiede, das Bild ist bei ATI mit HDR ein wenig dunkler, Unterschiede gibt es aber nicht.
Bildqualität (bessere Effekte).
Auf Bildern in der GS sah SC schon besser aus mit SM3.
In Stronghold 2 habe ich es selber gesehen. Ganz klar bessere Effekte mit SM3. Da gibt es nichts weg zu erklären. Installier die Demo und sie selbst!
Auf Bildern in der GS sah SC schon besser aus mit SM3.
Ja, besser als 1.1. :rolleyes:
In Stronghold 2 habe ich es selber gesehen. Ganz klar bessere Effekte mit SM3. Da gibt es nichts weg zu erklären. Installier die Demo und sie selbst!
Besser als was?
Shader 1.1, 2.0 oder 2.X?
(del)
2005-09-04, 15:35:39
Auf Bildern in der GS sah SC schon besser aus mit SM3.
In Stronghold 2 habe ich es selber gesehen. Ganz klar bessere Effekte mit SM3. Da gibt es nichts weg zu erklären. Installier die Demo und sie selbst!
Zwei SM2-SM3 Screenshots bzw. Links dazu bitte.
Zwei SM2-SM3 Screenshots bzw. Links dazu bitte.
Boah, endlich gefunden.
http://www.simhq.com/_technology/technology_058c.html
deLuxX`
2005-09-04, 16:09:50
Auf den SM3 Bildern is das Bild heller. Und nu?
-deLuxX`
Auf den SM3 Bildern is das Bild heller. Und nu?
-deLuxX`
Genau das ist DER Punkt.
Es gibt keine Unterschiede (wie es bei 1.1 der Fall ist).
Das Bild ist nur dunkler. Einfach die Helligkeit am Monitor hochdrehen. Oder ist zu schwierig?
S3NS3
2005-09-04, 16:28:36
Also ich kann mich Tombman nur anschließen. Ne 6800GT is schon Ok !!
Hast alle Features samt SM3.0 und ist auch noch relativ schnell. Kann man meist auch OCén auf Ultra niveo.
Ne aktuelle Radeon JETZT zu kaufen halte ich für total hirnrissig.
Erstens wie gesagt wurde sind die Featuremäßig veraltet und die neuen Karten sind fast da.
Und SM3.0 bringt schon was. Die beiden oben genannten und z.B. auch Trackmania Sunrise nicht vergessen.
UUNNDDDDD Elementar Wichtig: Zukünftige Games !
Kauft man jetzt ne x800xt oder so haste Pech. Also BLOß NICHT!
Aktuelle NV oder bald eine der neuen ATI-Generation.
(Überlege mir auch die r520 zu käufen wenn gut und AGP !)
Hast alle Features samt SM3.0 und ist auch noch relativ schnell.
So ein Quatsch.
Alle Features hat keine Karte.
Relativ schnell?
Nun gut, ich habe ja eine 6800GT und schlecht ist die nicht, aber die X800XT PE ist deutlich schneller.
Ne aktuelle Radeon JETZT zu kaufen halte ich für total hirnrissig.
Erstens wie gesagt wurde sind die Featuremäßig veraltet und die neuen Karten sind fast da.
Warum hirnrissig?
Eine X800XT PE für 250 ist zur Zeit DER P/L-Hammer.
Und ich glaube nicht, dass die neuen Karten für eine X800XT PE eine Konkurenz sind (preislich gesehen)
Und SM3.0 bringt schon was. Die beiden oben genannten
Lies den Thread.
In SC:CT gibt es keine Unterschiede und in FarCry hat man das HDR nur für NV implementiert, für ATI nicht. Sonst gibt es keine Unterschiede.
und z.B. auch Trackmania Sunrise nicht vergessen.
Echt?
Wlche Shadermodelle kommen da vor?
UUNNDDDDD Elementar Wichtig: Zukünftige Games !
Diese wären?
Kauft man jetzt ne x800xt oder so haste Pech. Also BLOß NICHT!
Aktuelle NV oder bald eine der neuen ATI-Generation.
(Überlege mir auch die r520 zu käufen wenn gut und AGP !)
Quatsch.
Würde man 2.X (X800) voll auslasten, würde eine 7800GTX am Stock gehen.
Quatsch.
Würde man 2.X (X800) voll auslasten, würde eine 7800GTX am Stock gehen.
Glaube nicht das das hier einer Nachvollziehen kann, bitte näher erläutern!
deLuxX`
2005-09-04, 17:42:05
Nun gut, ich habe ja eine 6800GT und schlecht ist die nicht, aber die X800XT PE ist deutlich schneller.
Deutlich ist relativ. Ich würde sagen sie ist ein gutes Stück schneller.
Warum hirnrissig?
Eine X800XT PE für 250 ist zur Zeit DER P/L-Hammer.
Und ich glaube nicht, dass die neuen Karten für eine X800XT PE eine Konkurenz sind (preislich gesehen)
ACK. Für 250€ gibt's auf AGP nichts vergleichbares. Da würde ich das Problem das ATI gerade hat schamlos ausnutzen. :tongue:
Lies den Thread.
In SC:CT gibt es keine Unterschiede und in FarCry hat man das HDR nur für NV implementiert, für ATI nicht. Sonst gibt es keine Unterschiede.
Man müsste sich noch den Performanceteil anschauen. Aber das ist sowieso alles für den A*****. In diesen Spielen sind die Shader Modelle so stümperhaft und nur ansatzweiße eingebaut. Dann ist SC:CT ein TWIMTBP Game IIRC -> Sinnlos, das für Vergleiche heranzuziehen.
Diese wären?
Tja, das ist so eine Sache. ;)
Im PC-Markt auf Zukuntfssicherheit zu hoffen ist sehr naiv.
Quatsch.
Würde man 2.X (X800) voll auslasten, würde eine 7800GTX am Stock gehen.
Das sagst du jetzt so. Hast du einen Beweis für deine Behauptung?
-deLuxX`
Glaube nicht das das hier einer Nachvollziehen kann, bitte näher erläutern!
Siehe Konsolen.
Man braucht schon ein paar Jahre um die Hardware wirklich gut zu kennen, um diese auszureizen.
Die einzige Krux bei 2.0 ist die Shaderlänge, bei 2.x kein Problem.
Nicht falsch verstehen, ich will SM3 nicht schlecht machen, ist für die Programmierer ein Vorteil.
Branching kann manchmal sehr sinnvoll sein. Das dynamische Branching ist aber sehr langsam beim NV40.
Ein weiters recht wichtiges Feature von SM3 ist Geometry Instancing.
Bringt schon einiges an Performance. GI können die X800 aber auch.
Bitte ergänzen, falls ich noch wichtige Features vergessen habe. :wink:
Im Grossen und Ganzen sehe ich dem Kauf der X800XT PE gelassen entgegen. :)
Deutlich ist relativ. Ich würde sagen sie ist ein gutes Stück schneller.
Bei 1280x1024 mit 4xAA und 8xAF bricht die 6800GT manchmal weg.
Das wäre bei der X800XT PE nicht der Fall. Ich denke ich könnte bei einigen Spielen sogar 6xAA zuschalten
Man müsste sich noch den Performanceteil anschauen. Aber das ist sowieso alles für den A*****. In diesen Spielen sind die Shader Modelle so stümperhaft und nur ansatzweiße eingebaut. Dann ist SC:CT ein TWIMTBP Game IIRC -> Sinnlos, das für Vergleiche heranzuziehen.
TWIMTBP bedeutet gar nichts.
http://www.simhq.com/_technology/technology_058b.html
deLuxX`
2005-09-04, 18:08:37
Bei 1280x1024 mit 4xAA und 8xAF bricht die 6800GT manchmal weg.
Das wäre bei der X800XT PE nicht der Fall. Ich denke ich könnte bei einigen Spielen sogar 6xAA zuschalten
Jo. Ähnliche Erfahrungen hab ich auch gemacht. U.a. deswegen mein Tip, die X800XT-PE zu kaufen.
TWIMTBP bedeutet gar nichts.
http://www.simhq.com/_technology/technology_058b.html
Ich weiß, dass TWIMTBP nur bedeutet, dass das Spiel 100% mit nV Hardware läuft.
Trotzdem sind solche Spiele für Vergleiche IMO nicht heranzuziehen.
Versteh mich nicht falsch. Ich sehe es auch als quatsch an, keine ATI Grafikkarte zu kaufen, nur weil sie kein SM 3.0 beherrscht. Es geht mir nur darum, von vorneherein nicht Spiele herzuziehen, bei denen offensichtlich der Hersteller Geld von einem IHV bekommen hat. Auch wenn in diesem Fall nV 5-10 FPS hinterherhinkt.
Es geht mir ums Prinzip. :)
Man kann einfach kein erhältliches Spiel dafür nehmen, um festzustellen ob SM 3.0 schon etwas bringt.
Und das "Jahaaaa, aber die Spiele die kommen, da wird es vieleicht einen Vorteil sein", kann ich sowieso nicht ab.
-deLuxX`
S3NS3
2005-09-04, 18:45:52
Macht was ihr wollt!
Ich bleibe absolut dabei das es jetzt sehr dumm wäre ne ATI zu kaufen.
Zumindest ne Teuere, eine die 2 Jahre halten sollte !!
Wenn schon dann auf die neuen warten!
MikBach
2005-09-04, 18:49:36
Macht was ihr wollt!
Ja, das tu ich. :)
Ich bleibe absolut dabei das es jetzt sehr dumm wäre ne ATI zu kaufen.
Zumindest ne Teuere, eine die 2 Jahre halten sollte !!
Wenn schon dann auf die neuen warten!
Quatsch.
Ich weiss gar nicht wie lange die X800XT PE halten soll...
die 6800GT habe ich auch erst 2 Monate.
Wobei in 2 Jahren weder eine X800XT noch eine 6800GT genug Power haben werden....
PS die meisten Gastpostings in diesem Thread sind von mir. :)
tombman
2005-09-04, 21:29:20
Also auf den screenshots oben ist WEIT mehr zu sehen als einfach nur ein "helleres Bild". Wer da nicht erkennt, daß die Beleuchtung einfach viel besser ist, der braucht in der Tat kein SM 3.0. Das Schwarz bleibt genauso dunkel im dunkelsten Winkel wie bei der ATI, aber die Leuchtkraft und die Abstufung ist viel deutlicher bei SM 3.0. SM 2.x sieht eher "matschig" dagegen aus...
Aber wie Sense schon meinte: macht was ihr wollt, bzw lange Gesichter wenn noch dieses Jahr Demos kommen werden wo gewisse Effekte dann leider nur auf 3,0 hw zu sehen seien werden und nicht auf 2.x- nicht weil vielleicht 2.x es nicht auch darstellen könnte, sondern weil die Entwickler zu faul waren. Man sollte nicht immer nach der Technik gehen, sondern auch vermehrt danach wie Developer denken ;)
deLuxX`
2005-09-04, 22:26:40
Ok Tombman, mit viel Vorstellungskraft könnte ich derartiges, wie du es beschreibst, erkennnen.
Ich hab dann eben den Kontrast und die Helligkeit meines Bildschirms erhöht . Klingt jetzt vielleicht komisch, aber ich sehe so keinen Unterschied. Klar habe ich so nur vorher<->nacher-Bilder aber wenn der Unterschied so gering ist, dass ich ihn nur beim untersuchen mit der Lupe finde, ist in diesem Spiel SM 3.0 für den Popo.
Ich hab SC:CT nie gespielt. Gibt es noch andere SM 3.0 "only" Effekte?
-deLuxX`
MikBach
2005-09-05, 08:16:09
Also auf den screenshots oben ist WEIT mehr zu sehen als einfach nur ein "helleres Bild". Wer da nicht erkennt, daß die Beleuchtung einfach viel besser ist, der braucht in der Tat kein SM 3.0. Das Schwarz bleibt genauso dunkel im dunkelsten Winkel wie bei der ATI, aber die Leuchtkraft und die Abstufung ist viel deutlicher bei SM 3.0. SM 2.x sieht eher "matschig" dagegen aus...
In der Tat ist die Intesität bei FP16-HDR grösser als bei FP10-HDR.
Da man bei FP10-HDR aber auch AA benutzen kann, wäre ich zur Zeit persönlich eher für FP10-HDR + AA, bis es Hardware gibt, die FP16-HDR mit AA ermöglicht.
Das ist meine Meinung, weil ich AA nicht mehr missen will.
Aber wie Sense schon meinte: macht was ihr wollt, bzw lange Gesichter wenn noch dieses Jahr Demos kommen werden wo gewisse Effekte dann leider nur auf 3,0 hw zu sehen seien werden und nicht auf 2.x- nicht weil vielleicht 2.x es nicht auch darstellen könnte, sondern weil die Entwickler zu faul waren. Man sollte nicht immer nach der Technik gehen, sondern auch vermehrt danach wie Developer denken ;)
Vergleichen wir hier die technischen Möglichkeiten der Grakas oder doch die Fähigkeiten der Progger?
Falls zweites, bitte einen neuen Thread über die Fähigkeiten der Progger aufmachen. :D
BTW Demos interessieren hier wahrscheinlich keinen. Wichtig ist, wie es bei fertigen Spielen sein wird.
Zu den SM3-only-Effekten:
Welche sind das? Bisher konnte mir niemand diese Frage beantworten. :)
S3NS3
2005-09-05, 09:08:44
Man... :)
Die ATI Karten sind schnell und gut, können aber kein SM3.
Die GF6800 sind auch schnell, nicht ganz so, können aber alles auch SM3.
ULTIMATIV BENÖTIGEN tut man SM3 bisher nicht, aber dennoch schön zu haben.
Und in Zukunft (naher) WIRD ES EIN MUSS SEIN. Nicht ein muss das es sonst nicht startet das Game, aber wenn man die ganze Grafik sehen will.
Und ATI bringt bald passende Karten.
= Wenn JETZT eine der Teueren kaufen dann ne NV. Logisch.
Oder paar Wochen auf ATI warten.
... oder jetzt ne ATI kaufen und bald dumm da stehen ;)
Man sollte auch bedenken, daß die meisten Spiele mit einem 17" oder 19" TFT nur mit 1280x1024 zu spielen sind, und da sind die meisten Karten einfach zu lahm, wenn hohe Details verwendet werden bzw. wenn man AA und AF noch verwenden möchte!
Und man nimmt sich eine Menge Spielspaß, wenn man die Grafik reduziert.
Deswegen meine Aussage, ein richtiger Zocker mit Blick für Details gibt sich mit Karten unter 6800U oder X850 nicht zufrieden.
BTW hat ein Arbeitskollege FEAR mit einer 5900XT als mäßig spannend bezeichnet, und als ich das geniale Schattenspiel erwähnte, fragte er: "Welche Schatten?".
Das sagt doch schon alles ;) .
Und man kann IMMER davon ausgehen, daß die Spiele am besten mit den aktuellen Karten laufen.
TobiWahnKenobi
2005-09-05, 11:02:33
auch wenn ich diese meinung nicht teile: PC spiele laufen nie "am besten".
die laufen bestenfalls "irgendwie". und der spielspass hängt auch nicht maßgeblich an der grafik, sonst würde ich wohl nie wieder ein PC spiel spielen, wenn ich mir in 2 monaten die xbox360 kaufe.
Man sollte auch bedenken, daß die meisten Spiele mit einem 17" oder 19" TFT nur mit 1280x1024 zu spielen sind, und da sind die meisten Karten einfach zu lahm, wenn hohe Details verwendet werden bzw. wenn man AA und AF noch verwenden möchte!
es gibt auch TFTs, auf denen man mit kleineren auflösungen "gut" spielen kann. das ist alles eine sache der interpolation und technik des displays. und zu lahm wird jede karte werden bzw. gibt es immer absurde einstellungen, die nicht gut laufen und mit denen man seine grafikhardware überfordern kann.
es wird auch immer wieder spiele geben, die scheisse von konsolen portiert sind bzw. die 30 patches brauchen, um überhaupt durchgehend problemlos zu werden.
überleg' mal, was in der theorie nicht alles möglich wäre.. und was davon tatsächlich beim anwender landet. bis wir grafik zu sehen bekommen, die uns heutige techdemos (etwa von der GF5,6 oder 7) demonstrieren, haben wir diese karten schon 5 mal wieder aus dem system verbannt und durch modelle mit noch mehr saft ersetzt.
grafikkarten werden überdimensioniert, NTs werden überdimensioniert, automotoren werden überdimensioniert --> genutzt wird währende der kurzen nutzphase nur ein geringer bruchteil des potenzials.
(..)
mfg
tobi
S3NS3
2005-09-05, 12:04:51
Jo, würd gerne mal sehen was aus einer GF6800 rauszuholen wäre wenn man die Hardware DIREKT programmiert. Nichtmal in Windows, DIREKT einen sagen wir 3500AMD64 mit GF6800U. So als BootCD zu starten.
Glaube da würd man umfallen was geht !
Mr.Magic
2005-09-05, 12:36:05
auch wenn ich diese meinung nicht teile: PC spiele laufen nie "am besten".
[...]
grafikkarten werden überdimensioniert, NTs werden überdimensioniert, automotoren werden überdimensioniert --> genutzt wird währende der kurzen nutzphase nur ein geringer bruchteil des potenzials.
Das ist doch etwas sehr wage ausgedrückt. PC-Spiele können selbstverständlich nie am besten laufen, dazu gibt es einfach zu viele verschiedene Konfigurationen und auch persönliche Geschmäcker. Es geht immer um den besten persönlichen Kompromiss für dessen Findung sich viele Spieler der neueren Generationen* keine Zeit mehr nehmen (wollen).
*jeder der das Rumkonfiguriere nicht von DOS gewohnt ist (diejenigen die nur Windows kennen und trotzdem z.B. in der Registry rumdoktorn sind eher die Ausnahme)
Überdimensioniert ist von der Herstellerseite gar nichts. Es ist der immer nur der Käufer der für seinen Verwendungszweck etwas überdimensioniertes kauft.
Ich drösel mal die drei Beispiele auf und zeige warum man nicht der Industrie die Schuld an den Fehlkäufen die Schuld geben sollte.
- Bei einer Grafikkarte werden von bestimmten Anwender sicherlich einige Teile nie gebraucht die dann andere dafür benötigen. Einer will FSAA und braucht die Shaderleistung nicht da er tatsächlich schnell updated, ein anderer will die Karte möglichst lange verwenden und verzichtet dann eben auch mal auf hohe Auflösungen/Details/AA/whatever braucht dann aber mit Sicherheit die Shaderpower. Wer was benötigt können die beiden Großen nicht wissen weshalb es viele verschiedene Modelle gibt; von kompromissloser Leistung bis "lass mich auch mit".
- Überdimensioniert sind bei Netzteilen vor allem oft die Leistungsangaben in Watt. Ein hochwertiges 300W-NT, mit hohem Wirkungsgrad, lässt so manches NoName 500W-NT im Staub zurück. Am Gesamtverbrauch der PCs hat sich in den letzten Jahren nicht viel getan, für einen 08/15-PC reicht ein gutes 300-350W Netzteil, wer aber viele Laufwerke hat braucht mehr Saft. Manchmal kann es weise sein etwas momentan überdimensioniertes zu kaufen. Ich nehme mal mich selbst. Ich habe 2001 drei Enermax 430W-PS gekauft, eins ist inzwischen hinüber. Eines befeuert(e) einen Athlon 850/Athlon 1333/XP 1800/XP 2000/XP 2400/XP 3200 mit Voodoo 5 5500/GeForce 3/GeForce 4600/GeForce FX 5950/GeForce 6800U und 1 HDD/2 HDD-Raid 0/4 HDD-Raid 0. Das andere einen K6-3 400/Athlon 800/XP 1600/Duron@2Ghz mit Voodoo 3/Voodoo 5 5500/GeForce 2 MX400/GeForce FX 5950 und 1 HDD/3 HDDs (1 Boot + 2 im Raid 0). Waren die Netzteile zum Zeitpunkt des Kaufes überdimensioniert? Sicherlich! Sind sie es noch immer? Mitnichten!
- Sicher gibt es Autofahrer die mit ihrer 400PS-Karre ausschließlich im Stadtverkehr gondeln, aber das ist doch nur ein Bruchteil von dem was mit unterdimensioniertem 40PS-Motor über die Autobahnen zuckelt.
@S3NS3
Kein Entwickler wird sich dazu bereiterklären, mit Hochsprachen geht das wesentlich schneller und bequemer. Den Programmierer interessiert vor allem das bequemer und den Publisher das schneller.
In Assembler macht das höchstens ein Hobbyprogrammierer der dann nach vielen Monaten eine kurze Demo zeigen kann.
Die Maschinensprache-diskussionen gibt es übrigens auch schon seit DOS-Zeiten. Kann mich noch daran erinnern wie das über WC3 gesagt wurde.
S3NS3
2005-09-05, 15:12:31
@S3NS3
Kein Entwickler wird sich dazu bereiterklären, mit Hochsprachen geht das wesentlich schneller und bequemer. Den Programmierer interessiert vor allem das bequemer und den Publisher das schneller.
In Assembler macht das höchstens ein Hobbyprogrammierer der dann nach vielen Monaten eine kurze Demo zeigen kann.
Die Maschinensprache-diskussionen gibt es übrigens auch schon seit DOS-Zeiten. Kann mich noch daran erinnern wie das über WC3 gesagt wurde.
Ja !! Logisch. Schon klar ! Aber meine Theoritisch! Wäre bestimmt sehr beeindruckend was da geht.
Narrenkönig
2005-09-05, 15:51:36
(Stronghold 2)
Besser als was?
Shader 1.1, 2.0 oder 2.X?
Ja, nach jeden Schritt sieht man Verbesserungen. Am deutlichsten fällt mal wieder das Wasser auf, das einen Sonderschalter hat der nur mit SM3 funktioniert. Ansonsten kanst du im Konfigmenü den Renderpfad frei wählen.
http://www.simhq.com/_technology/technology_058c.html ;D
jetzt haut euch mal nicht die köpfe ein shader 3.0 bringt es einfach noch nicht die performance mit shader 3.0 ist einfach nur schlecht...
das ist wieder nur sone bauernfang hetz aktion von nvidia damit man denkt nvidia sei fortschrittlicher damit man nvidia kauft
ist wie damals zu 3dfx zeiten wo nvidia 32bit angepriesen hat obwohls damals schwachsinn war...
aber als bauernfang hats gereicht ;)
wers hat und nutzt (nutzen kann) ok - wers nicht hat wirds auch nicht vermissen da der unterschied einfach zu gering ist als das es jemand beim zocken überhaubt merkt
ich wette mit euch das wenn ihr an nem fremden rechner spielen müsstet würdet ihr nicht erkennen können von welchem hersteller die graka stammt ;)
(ohne nachzusehen natürlich)
Mr.Magic
2005-09-05, 17:18:03
...shader 3.0 bringt es einfach noch nicht die performance mit shader 3.0 ist einfach nur schlecht...
SM2 ist schneller als SM3? Seltsam das ich davon nichts merke, bei mir läuft beides flüssig.
Es sieht aber auch nicht besser aus sondern erleichtert "nur" die Programmierung.
ATi lässt für ihre SM2-Hardware kurz (6-12 Monate max.) nach Erscheinen ihrer SM3-Karten den (Software)Support fallen. Die Spieleentwickler bieten dann recht zügig nur noch SM1.1 oder SM3, der Extraaufwand jeden einzelnen Zusatzeffekt für SM2 lohnt sich für die Entwickler nicht. Wie lange hat ATi gebraucht um die SC3 für SM2 anzupassen? Das ist Zeit die jeder Publisher gerne spart.
Ist evtl. HDR gemeint? Das hat mit dem Shadermodel nichts zu tun.
Was soll eigentlich immer das durch die rosa Brille gucken (mancher Leute) wenn es um bestimmte Hersteller geht?
nVidia brachte die GeForce FX und vertrat die Meinung, dass SM2 eigentlich noch keiner braucht. Der Masse war das egal und sie kauften alle Radeons wo SM2 performant einsetzbar war/ist.
ATi brachte die Radeon X und vertrat die Meinung, dass SM3 eigentlich noch keiner braucht. Der Masse war das egal und sie kauften alle GeForce wo SM3 existiert und performant einsetzbar ist.
Im Fall von SM2 gibt es bis auf Splinter Cell 3 und Far Cry (Geometry Instancing bei SM2.x) keine Spiele (die ich selbst sah+) die irgendwelche (mir aufgefallenen*) Vorteile gegenüber SM1.1 bieten. Bei SM3 sind es "seltsamerweise" die beiden gleichen Spiele.
+Es gibt noch ein paar Spiele die spezielle SM3 (und evtl. SM2.x) Features bieten, z.B. das Lord of the Rings RTS, da ich diese aber aber nicht gespielt habe kann ich dazu keine Aussage treffen.
*Ich suche normalerweise nicht mit der Lupe nach Dingen wie ein bissl mehr Metallglanz im SM2-Pfad in Halo. Es war das erste Spiel mit SM2, da macht man sowas schon mal - hätte ich nicht Halo SM1.1 vs SM2 direkt nebeneinander auf zwei Monitoren laufen gehabt wäre mir das nichtmal aufgefallen.
In der Tat ist die InteNsität bei FP16-HDR grösser als bei FP10-HDR.
Da man bei FP10-HDR aber auch AA benutzen kann, wäre ich zur Zeit persönlich eher für FP10-HDR + AA, bis es Hardware gibt, die FP16-HDR mit AA ermöglicht.
Das ist meine Meinung, weil ich AA nicht mehr missen will.
Mag sein, aber es gibt keinen Chip der HDR mit einer Genauigkeit von FP10 berechnet (was sowieso Brainfarth ist, FP10 ist nicht genormt!).
Da es kein Chip bietet kann man auch nicht vorhersagen inwieweit heutige Hardware damit einbrechen würde, geschweige denn wenn man AA dazuschaltet....
Man kann auch bei FP16 Genauigkeit AA dazunehmen, wenn es denn die Hardware erlaubt, und da mangelt es momentan dran. Auch weil die IHVs etwas mehr auf der Pfanne haben als mancher möchtegern Allwissender-User hier... Mit dem heutig verfügbaren Speicher ist das nicht machbar, wenn du etwas von der Materie wissen würdest wärest du auch in der Lage dir mal auszumalen was du da verlangst, was für eine Füllrate und was für eine Speicherbandbreite das alles frisst.
Bei 1280x1024 mit 4xAA und 8xAF bricht die 6800GT manchmal weg.
Das wäre bei der X800XT PE nicht der Fall. Ich denke ich könnte bei einigen Spielen sogar 6xAA zuschalten
Kannste auch schlecht vergleichen da die X800XT PE schon immer das TOP Produkt darstellt, während die 6800GT mit der X800Pro zu vergleichen ist. Apples to Apples, wir verstehn uns ;)
deLuxX`
2005-09-05, 18:45:20
Früher hättest du recht gehabt. Aber jetzt , da es die X800XT-PE für den gleichen Preis wie die 6800GT, gibt nicht mehr.
-deLuxX`
TobiWahnKenobi
2005-09-05, 19:00:30
welch' ein quark..
(..)
mfg
tobi
MikBach
2005-09-05, 19:30:56
welch' ein quark..
(..)
mfg
tobi
:confused:
Was genau ist denn jetzt Quark?
Ich finde den Bezug irgendwie nicht.
TobiWahnKenobi
2005-09-05, 19:39:58
Früher hättest du recht gehabt. Aber jetzt , da es die X800XT-PE für den gleichen Preis wie die 6800GT, gibt nicht mehr.
das ist quark, weil der aktuelle tagespreis rein gar nichts mit der positionierung im markt zu tun hat.
(..)
mfg
tobi
MikBach
2005-09-05, 19:43:23
das ist quark, weil der aktuelle tagespreis rein gar nichts mit der positionierung im markt zu tun hat.
(..)
mfg
tobi
Das ist durchaus korrekt, nur wenn man für den gleichen Preis eine X800XT PE bekommt, hat die 6800GT keine Chance.
deLuxX`
2005-09-05, 20:14:07
das ist quark, weil der aktuelle tagespreis rein gar nichts mit der positionierung im markt zu tun hat.
(..)
mfg
tobi
Richtig. Der aktuelle Preis hat nichts mit der Positionierung am Markt zu tun.
Ob mir das aber als user wurscht is, ob und wie und was sich ATI bei der Postitonierung gedacht hat?!
-deLuxX`
TobiWahnKenobi
2005-09-05, 21:38:25
Richtig. Der aktuelle Preis hat nichts mit der Positionierung am Markt zu tun.
Ob mir das aber als user wurscht is, ob und wie und was sich ATI bei der Postitonierung gedacht hat?!
-deLuxX`
ist ja auch nichts gegen zu sagen. auch wenn ich nicht dazugehöre, kenne ich doch viele leute, die gern lange mit dem hardwarekauf warten, bis die preise dann attraktiv genug sind. nur haben diese user dann nicht solange was davon.
(..)
mfg
tobi
The_Invisible
2005-09-05, 22:15:46
http://www.simhq.com/_technology/technology_058c.html ;D
jetzt haut euch mal nicht die köpfe ein shader 3.0 bringt es einfach noch nicht die performance mit shader 3.0 ist einfach nur schlecht...
das ist wieder nur sone bauernfang hetz aktion von nvidia damit man denkt nvidia sei fortschrittlicher damit man nvidia kauft
ist wie damals zu 3dfx zeiten wo nvidia 32bit angepriesen hat obwohls damals schwachsinn war...
aber als bauernfang hats gereicht ;)
wers hat und nutzt (nutzen kann) ok - wers nicht hat wirds auch nicht vermissen da der unterschied einfach zu gering ist als das es jemand beim zocken überhaubt merkt
ich wette mit euch das wenn ihr an nem fremden rechner spielen müsstet würdet ihr nicht erkennen können von welchem hersteller die graka stammt ;)
(ohne nachzusehen natürlich)
wenn ich das schon lese "die performance mit SM3.0" ist zu schlecht stellt es mir schon wieder die haare auf :rolleyes: bei gleichen effekten ist SM3.0 definitiv schneller (siehe FarCry), hdr hat aber nichts mit SM3.0 zu tun, das läuft auch auf den radeons nicht besser/schlechter, es fehlt den karten derzeit einfach an rohpower
und ja, nvidia ist derzeit auch fortschrittlicher, vor allem mit der 7800gtx haben sie wieder zugelegt
mfg
MikBach
2005-09-05, 22:20:16
und ja, nvidia ist derzeit auch fortschrittlicher, vor allem mit der 7800gtx haben sie wieder zugelegt
mfg
Ja, vor allem bei der BQ des AFs. :rolleyes:
*scnr*
deLuxX`
2005-09-05, 23:41:09
Naja, mit dem neusten Treiber hat sich die AF Qualität aber schon verbessert. Klar, flimmern tut es immer noch ein wenig aber nicht mehr als auf einer X800. Auf HQ wohlgemerkt. Für alles andere brauch' ich ja keinen G70.
-deLuxX`
(del)
2005-09-06, 11:17:46
UUNNDDDDD Elementar Wichtig: Zukünftige Games !
Ja, sehr wichtig. Ich frag mich aber, ob die Graka dann noch genug "allgemein FPS" liefert... Alle Effekte sehen und gut spielbar sind 2 Paar Schuhe.
(del)
2005-09-06, 11:21:27
das ist quark, weil der aktuelle tagespreis rein gar nichts mit der positionierung im markt zu tun hat
Leistung fürs Geld. Was interessiert mich wie welcher Manager irgendein Produkt gerne positionieren würde?
Das ist durchaus korrekt, nur wenn man für den gleichen Preis eine X800XT PE bekommt, hat die 6800GT keine Chance.
Wenn man eine bekommt, was man aber nicht tut oder hast du eine Quelle? Finde beim Geizhals.at leider keine PCIE X800XTPE unter 400€
Da greif ich gleich zu ner 7800GT für 350€...
MikBach@work
2005-09-06, 11:29:36
Wenn man eine bekommt, was man aber nicht tut oder hast du eine Quelle? Finde beim Geizhals.at leider keine PCIE X800XTPE unter 400€
Da greif ich gleich zu ner 7800GT für 350€...
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=246584
;)
250 Euronen für eine X800XT PE sind ein Spitzenpreis.
The_Invisible
2005-09-06, 16:12:31
Ja, vor allem bei der BQ des AFs. :rolleyes:
*scnr*
jaja, ich habe ausdrücklich die features gemeint, AF ist ja kein neues Feature und darum nicht erwähnenswert
mfg
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=246584
;)
250 Euronen für eine X800XT PE sind ein Spitzenpreis.
Keine Frage, Danke!
Aber im Oktober kommt doch der R520 :|
Ich sehe keinen Kaufgrund zum jetzigen Zeitpunk, man beißt sich echt in den hintern...
TobiWahnKenobi
2005-09-06, 19:06:12
Leistung fürs Geld. Was interessiert mich wie welcher Manager irgendein Produkt gerne positionieren würde?
machst du generell solche denkfehler oder ist das speziell auf dieses themengebiet bezogen?
überleg' mal bitte, wielange es die 68ter schon gibt. es soll leute geben, die diese karte bereits seit einem jahr verwenden - du beschreibst "den wartenden", der auf heute gewartet hat.
aus meiner sicht hat der nicht NV IHV (selbst besagtes jahr später) noch immer nichts in petto. klar, mit höherem takt kann man einiges ausgleichen - der karte mit dem chip aus kanada (kennst du terence und phillip ?) wachsen dadurch aber keine SM3.0 shader, FP16 ROPs oder die fähigkeiten etwa mit 32bittiger präzision zu rechnen.
meine glaskugel ist sich sicher, dass man mit einer schnellen GeForce6 länger unterwegs sein kann, als mit diesen anderen karten, die sich einige immer kaufen wollen.
sie ist sich sogar sicher, dass es in 6-12 monaten sogar spass machen wird, eine bestehende 68U mit einer zweiten, baugleichen Ultra zu ergänen (die sollen dann gebraucht recht günstig sein..).
(..)
mfg
tobi
MikBach
2005-09-06, 19:40:22
jaja, ich habe ausdrücklich die features gemeint, AF ist ja kein neues Feature und darum nicht erwähnenswert
mfg
War auch nicht so ganz ernst gemeint, deswegen das *scnr*. ;)
Auch wenn AF kein neues Feature ist, ist es immer erwähnenswert, weil es ausser dem AA massgeblich zur BQ beiträgt.
MikBach
2005-09-06, 19:43:35
Keine Frage, Danke!
Aber im Oktober kommt doch der R520 :|
Ich sehe keinen Kaufgrund zum jetzigen Zeitpunk, man beißt sich echt in den hintern...
Doch, der Preis ist der Kaufgrund.
Ich denke nicht, dass die neuen Midrangekarten von ATI und NV, die ich bei ca. 250 Euro vermute, eine X800XT PE schlagen können. :D
TobiWahnKenobi
2005-09-06, 20:04:29
Ich denke nicht, dass die neuen Midrangekarten von ATI und NV, die ich bei ca. 250 Euro vermute, eine X800XT PE schlagen können.
natürlich. in jeder anwendung, die die neuen features zu nutzen weiss, um glatte 100%.
(..)
mfg
tobi
MikBach
2005-09-06, 20:16:44
natürlich. in jeder anwendung, die die neuen features zu nutzen weiss, um glatte 100%.
(..)
mfg
tobi
:confused:
Welche neue Features?
TobiWahnKenobi
2005-09-06, 20:35:41
Welche neue Features?
unterstützung für runde displays, bananen-emulation, smartshader3, HDR usw.
dass es auf deiner roten karte seit 2 jahren nichts neues zu sehen gibt, is' mir schon klar. es nervt mich echt :P
(..)
mfg
tobi
MikBach
2005-09-06, 21:14:19
unterstützung für runde displays, bananen-emulation,
Lol, danke für den Lacher. :D
smartshader3,
Smartshader nennt es ATI und Smartshader3 gibt es bis jetzt nicht.
HDR usw.
Gibt es bei ATI auch.
dass es auf deiner roten karte seit 2 jahren nichts neues zu sehen gibt, is' mir schon klar. es nervt mich echt :P
(..)
mfg
tobi
Ich hab doch eine 6800GT. :D
TobiWahnKenobi
2005-09-06, 21:26:23
jetzt hab' ich mich so angestrengt, den namen des kanadischen IHVs zu vermeiden, dass ich so einen fatalen fehler eingebaut habe.. asche auf mein haupt.
Smartshader nennt es ATI und Smartshader3 gibt es bis jetzt nicht.
ich weiss. die haben noch shader2. aber irgendwann haben die auch shader3 und können auch endlich alles anzeigen.
ich rede natürlich vom derivat zu NVs shadermodel 3. und AFAIK ist das von dir erwähnte HDR auf den pfurzkarten (wg. terence und phillip >kanada und dann eben der IHV)kein wirkliches HDR, was aber, ob der nervigkeit des themas, auch egal ist. ich persönlich hab' mit dem vermiedenen IHV genug negativ erfahrungen gemacht. der steckt zwar einen chip in meine kommende konsole, aber da gehört er für mich auch hin. da muss er nicht mit 2 oder 3 displays hantieren oder mit openGL oder linux rummachen.
ich für meinen teil hake das zocken am PC ab november (xbox360/oblivion) ab. da geht soviel geld für einen hd fernseher mit ins land, dass ich 2006 maximal ne 2. ultra gebraucht dazukaufe, wenn mir für eine schlechte portierung der framesaft ausgeht. PC spiele finde ich mit zunehmendem alter immer unwirtschaftlicher.
Ich hab doch eine 6800GT.
OK - dann mag ich dich wieder und streich bitte das zweite "d" in deinem quote. ;) dann hat der satz trotzdem sinn. man könnte zur steigerung der attraktivität kanadischer grafikkarten ja einen roten luftballon mit in den karton legen. so als anreiz für die kaufentscheidung unentschlossener, die sich nicht zwischen rot und grün entscheiden können.
(..)
mfg
tobi
TSAA ist ein wichtiger Punkt, ohne kauf ich keine Karte mehr.
"Nett" wäre wenn ATI echtes 8xAA bringt, aber das interessiert heute glaube ich nicht mehr allzuviele, da man eh in 1280er Auflösung spielt und bei der G70 Serie Supersampling dazu bekommt.
Jaja 8xS ist nicht überall nutzbar, aber TSAA schon ;)
Solange beim AF gespart wird, müssen sie ja woanders die Quali rausreisen *g
MikBach
2005-09-07, 07:24:37
TSAA ist ein wichtiger Punkt, ohne kauf ich keine Karte mehr.
Weder die X800XT noch die 6800GT beherrschen TSAA. :rolleyes:
In diesem Thread geht es um die 6800GT.
Da die X800XT PE mittlerweile so preiswert ist, ist die auch noch dabei.
Oder kennst du eine Karte für 250 Euro, die TSAA kann?
(del)
2005-09-08, 01:15:50
machst du generell solche denkfehler oder ist das speziell auf dieses themengebiet bezogen?
Beginnst Du Deine Antworten generell mit Fragen?
überleg' mal bitte, wielange es die 68ter schon gibt
Hab ich ja getan und deswegen überleg ich jetzt, ob so eine Karte alleine wegen SM3 wegen "zukünftigen" Spielen gekauft werden sollte.
wachsen dadurch aber keine SM3.0 shader, FP16 ROPs oder die fähigkeiten etwa mit 32bittiger präzision zu rechnen
Alles schöne Features, aber irgendwie doch nicht DIE Killerargumente. Jedenfalls für den Markt nicht.
meine glaskugel ist sich sicher, dass man mit einer schnellen GeForce6 länger unterwegs sein kann, als mit diesen anderen karten, die sich einige immer kaufen wollen
Kannst Du da mal nachschauen wann NV auch endlich einen dafür brauchbaren Forceware liefert? Oder überhaupt einen brauchbaren? Ich würde gerne BF2 ohne Grafikfehler spielen UND NFS:u gerne einmal länger als 15min bevor ich unverhofft auf dem Desktop lande (6800). Gibt es für NV40 schon etwas wie einen "DriverSwitcher" oder so? :ass2:
sie ist sich sogar sicher, dass es in 6-12 monaten sogar spass machen wird, eine bestehende 68U mit einer zweiten, baugleichen Ultra zu ergänen (die sollen dann gebraucht recht günstig sein..)
Meine Glaskugel sagt eher, daß sie wesentlich teurer werden, weil der eine dem anderen seine 6800u aus der Hand reissen wird. Sie werden ja ALLE Spaß haben wollen :crazy:
TobiWahnKenobi
2005-09-08, 03:48:29
Kannst Du da mal nachschauen wann NV auch endlich einen dafür brauchbaren Forceware liefert? Oder überhaupt einen brauchbaren? Ich würde gerne BF2 ohne Grafikfehler spielen UND NFS:u gerne einmal länger als 15min bevor ich unverhofft auf dem Desktop lande (6800). Gibt es für NV40 schon etwas wie einen "DriverSwitcher" oder so?
vielleicht das system mal weniger absurd clocken, ein neues NT kaufen, windows neu installieren, anderen RAM bzw. andere timings verwenden oder die kühlung überprüfen..
mit dem treiber sollte es nicht soviel zu tun haben. NFSU2 hab' ich auf dem GF6600 (ja, solange ist's her) gezockt bis zum geht-nicht-mehr.. bzw. bis ich auf der xbox juiced hatte, was mir besser gefiel. NFSU hatte ich auf der konsole eigentlich schon satt und hab' den kauf der pc fassung auch vom ersten tag an bereut. zum glück hab' ich für das game mein geld wiederbekommen, so dass ich nicht allzuviel ans bein gebunden habe..
bin aber auch nicht bekloppt genug, parallel zur konsolenfassung noch die schlechte PC portierung spielen zu wollen. der Pc muss bei mir nur für die handvoll PC-only titel herhalten, die ich in ermangelung einer konsolenversion, nicht im wohnzimmer auf dem fetten screen spielen kann (diese sache mit dem bequemen lümmeln auf dem sofa, umgeben von boxen und freunden bzw. familie).
wieder zurück zum schreibtisch: battlefield² zock ich heute beinahe täglich. alle 2-3 tage sogar mit nem kumpel und mit zweien meiner rechner auf dem selben online-server. die rechner laufen dann beide über stunden stabil und ohne irgendwelche grafikfehler in bf².
treiber ist dabei entweder 77.30 oder ein profilfreier 77.77whql..
ich kann die probleme mit der forceware nicht nachvollziehen. bei mir läuft sie in besagten versionen gut. mag aber auch daran liegen, dass ich seit 15 jahren nicht mehr 15 bin und mir nichtmehr jede beta-crap-forceware installiere respektive ausbenche.. mir sind ein funzender mehrschirmbetrieb mit den beiden TFTs und die overlayfunktionen wichtiger, als 2 fps in einem spiel.
grafikfehler konnte ich bisher immer abstellen, sofern man überhaupt von grafikfehlern sprechen konnte. das meiste rührte aus den SLIprofilen der fw, derer ich mich resolut entledigt habe. jeder der nur halbwegs interesse hat, seine "probleme" in den griff zu bekommen, schafft das auch, da die lösungen hier überall nachlesbar sind.
Meine Glaskugel sagt eher, daß sie wesentlich teurer werden, weil der eine dem anderen seine 6800u aus der Hand reissen wird. Sie werden ja ALLE Spaß haben wollen
auch wenn ich persönlich dieses denken für humbug halte, wäre es ein szenario, das mir ebenfalls gefallen würde. um die zweite ultra mach' ich mir keine sorgen. die hatte ich schon hier rumliegen, konnte sie aber nicht verwenden, weshalb sie ATM bei meinem nachbarn im PC wohnt. wenn der keine böcke mehr drauf hat, bekomm' ich die sowieso wieder. vielleicht sogar für lau. das war bisher immer so und wenn das wieder so sein sollte, wäre es toll, wenn die preise steigen würden..
Alles schöne Features, aber irgendwie doch nicht DIE Killerargumente. Jedenfalls für den Markt nicht.
intesressante sichtweise. wenn du zur zeit was moderneres findest, das zu deinem PC und gusto (budget) passt --> kauf es.
ich kann dir auch raten, mal eine c't zu lesen. in der aktuellen ausgabe (19/2005 s. 87) ist doch eine nette tabelle mit frameraten verschiedener grafikkarten mit unterschiedlichen games.. finde nicht, dass da bei der 68ultra (meine karte @stock) irgendwas negatives auffällt. finde die sogar ziemlich endgeil, weil ich sehe, was bei 1600pixeln noch möglich wäre (mein TFT kann nur 1280pixel darstellen). besonders in anbetracht des umstandes, dass die alte ATI SM2 technik 150mhz mehr clock braucht, um 2-10 fps schneller zu sein.. bei weniger optischen möglichkeiten bzw. mit weniger technischen spielereien. im nichtigen bereich sind die ATI "vorteile" sowieso. da wo sie schneller ist, ist es eigentlich nicht relevant, ob man 39 oder 42 fps bzw. 61 oder 70fps hat, macht keinen sichtbaren unterschied. schon gar nicht bei auf 60Hz fixierten DVI-TFTs.
(..)
mfg
tobi
(del)
2005-09-08, 11:26:30
vielleicht das system mal weniger absurd clocken, ein neues NT kaufen, windows neu installieren, anderen RAM bzw. andere timings verwenden oder die kühlung überprüfen..
Ja ist leider nicht bei mir. Ist beim Kumpel. Ich komm nicht dahinter. Auch wenn Deine... Insidertipps ich mir längst aufgeschnappt habe. Die Frage wäre nur warum mit einer (testweise) 5700 die Speicher keine Probleme machen oder die Neuinstallation von Windows nicht nötig zu sein scheint oder mit dem 76.50 das Netzteil auszureichen scheint und mit 77.77 nicht usw.
mit dem treiber sollte es nicht soviel zu tun haben
Natürlich nicht...
NFSU2 hab' ich auf dem GF6600 (ja, solange ist's her) gezockt bis zum geht-nicht-mehr.. bzw. bis ich auf der xbox juiced hatte, was mir besser gefiel. NFSU hatte ich auf der konsole eigentlich schon satt und hab' den kauf der pc fassung auch vom ersten tag an bereut. zum glück hab' ich für das game mein geld wiederbekommen, so dass ich nicht allzuviel ans bein gebunden habe..
Bin an sich auch der Meinung, daß wenn der Treiber mit irgendwelchen Spielen Theater macht es entweder am Spiel liegt oder das Spiel schon eh alt und ausgelutscht ist oder schlecht umgesetzt ist also an sich alles immer nicht der Rede wert...
jeder der nur halbwegs interesse hat, seine "probleme" in den griff zu bekommen, schafft das auch, da die lösungen hier überall nachlesbar sind.
Stimmt. 3DC Leser haben es mit dem Forceware bissl einfacher...
ich kann dir auch raten, mal eine c't zu lesen. in der aktuellen ausgabe (19/2005 s. 87) ist doch eine nette tabelle mit frameraten verschiedener grafikkarten mit unterschiedlichen games..
Das hier? c't test (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=246536)
TobiWahnKenobi
2005-09-08, 11:32:29
Das hier? c't test
konkret. und da ich weder eine ATI X irgendwas, noch eine G70 habe, interessiert mich das balfasel aus dem anderen thread nicht sonderlich.
ich habe eine 256MB GeForce 6800 Ultra, PCIe (425/1100MHz stock-clock)
also exakt eine karte, wie sie bei der c't in der tabelle steht. dass ich mehr frames bekomme, als die dort abdrucken, ist logisch
-> ich bin ja auf 1280 pixel begrenzt. wie ich oben schon geschrieben habe ;)
tragisch finde ich das mit der auflösung nicht. es sind genug reserven vorhanden, höhere kantenglättungs-modi zu nutzen oder ohne die FW-optimierungen zu spielen.
(..)
mfg
tobi
(del)
2005-09-08, 11:38:56
konkret
:uclap:
TobiWahnKenobi
2005-09-08, 11:49:05
und was versuchst du jetzt damit auszudrücken? ich hab' irgendwie den faden verloren.. :|
bildqualität kannst du ja nicht meinen, da du ja zwischenzeitlich mitbekommen hast, dass der NV40 damit keine probleme hat.
(..)
mfg
tobi
Grindcore
2005-09-08, 15:56:26
Deutet wohl das tiefe Loch der Argumentationslosigkeit an.
Mad-Marty
2005-09-08, 22:11:58
Ich vertrete eher die meinung, das es völlig schnuppe ist, ob x800 oder 6800gt, da, spiele die verstärkt auf shadereffekte setzen, vermutlich mit beiden karten die hohen auflösungen nicht superfluffig darstellen.
Man also sehr wahrscheinlich
völlig unabhängig davon ob 6800gt oder x800 xt die details herunteregeln muss , ist einfach immer so, wahrscheinlich fällt die wahl auf soetwas wie 1024 & neue tolle sm3 effekte oder eben 1280 & keine sm3 effekte, wobei ich die 1280 wählen würde, da TFT.
Klar, mit dem SM3 sieht man wenigstens, was man sehen könnte, wenn die graka zum spielen schnell genug wäre.
SM3 ist nicht schlecht, aber wie gesagt, auf zukunftsplanung würde ich dabei nie tippen.
Developer bauen SM3 nicht für speed ein, sondern idR für eye candy - was wie oben ausgeführt mir >1 jahr alten karten nicht voll nutzbar ist.
(del)
2005-09-08, 23:45:08
und was versuchst du jetzt damit auszudrücken? ich hab' irgendwie den faden verloren.. :|
Ja seh ich. Damit hab ich ausgedrückt, daß Du a) meine Ironie des letzten Postings nicht wirklich entdeckt hast und b) Du auf den Posting so oder so nicht wirklich eingegangen bist. Was aber auch nun nicht weiter wichtig ist. Bin draußen.
@Grindcore
Sagt wer? :rolleyes:
The_Invisible
2005-09-09, 13:48:25
hat schon wer die AgeofEmpires3 Demo gestestet mit ner 6800GT/U?
wäre interessant, kannst erst ab feierabend testen :(
mfg
Mad-Marty
2005-09-11, 22:05:00
hat schon wer die AgeofEmpires3 Demo gestestet mit ner 6800GT/U?
wäre interessant, kannst erst ab feierabend testen :(
mfg
Nein, habs mit der Radi angeschaut.
Ziemlich krasse viele Details ... weiss man garnicht wo man zuerst hinschauen soll ;D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.