PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Outing: Wer hat 'ne Ti4600...


aths
2002-06-05, 23:39:20
... und wie zufrieden ist er mit ihr?

... und was für eine Graka wurde vorher benutzt?

(Präzisierung: Topic ist hier nur GeForce4 Ti4600, nicht 4400, 4200, GF3 oder so und auch nicht Radeon etc.)

Birdman
2002-06-06, 00:10:28
Creative ti4600

Abgesehen von der enormen Verlustleistung die nur mit derber lühlung besiegt werden kann, rockt die karte vollends.
Bildqualität und Speed ist absolut erhaben, und für meine zwecke (FPS-Shooter) mit grossem abstand das beste was ich mir vorstellen kann.

Vorhin ne Retail 8500 @275/275Mhz

Quasar
2002-06-06, 01:31:20
Na gut, dann geb' ich's eben zu: Ich wollte Ultima IX auch mal vernünftig spielen, und da musste eben eine TI4600 her. ;)

Nein, ganz so ist es nicht. Die befindet sich in meinem Rechner zu Testzwecken und gehört mir daher nicht. Irgendwann werde ich sie wieder abgeben müssen und danach wieder meine Asus v8200 pure einbauen, mit der ich sicherlich auch noch werde leben können. (Muss nur halt FSAA ausschalten, dann ist die Performance ziemlich ähnlich der Ti4600. :)

mike49
2002-06-06, 02:13:37
Originally posted by aths
Präzisierung: Topic ist hier nur GeForce4 Ti4600, nicht 4400, 4200, GF3 oder so und auch nicht Radeon etc

Mach doch am besten gleich ein VIP-Forum für GF4 Ti4600 Besitzer auf :bonk:

Mitmachen dürfen dann nur diejenigen, die einen Kaufbeleg über einen Betrag von mindestens € 500,- für ihre GF4 Ti4600 vorlegen können.

In solch elitären Kreisen will man ja schließlich nichts mit diesen Billigheimern zu tun haben, die ihre NoName-Ti4600 unter € 400,- erstanden haben oder sich gar nur so einen popeligen Abklatsch à la Ti4400 haben andrehen lassen...

Lev Arris
2002-06-06, 08:43:55
jo ich hab auch eine ti 4600

von visiontek ... wollte eigentlich die 4400'er aber nach dem anfänglichem lieferdebakel mit fort knox hab ich auf die visiontek 4600 umgeschwengt ( war nach 2 tagen da :-) ) und bin ganz zufrieden
nicht die 4400 genommen zu haben ... die karte läuft stabil auf 320/730 -> mehr hatte ich noch nicht probiert, belasse sie aber erstma auf 300/650 ... muss doch die kohlen nicht gleich verheizen ;-)


vorher hatte ich ne v5 5500 :-) die werkelt jetzt im 2. rechner ... die lief bei mir etwas über 1 1/2 jahre zuverlässig in meinem jetzigen :-) 2. rechner ( athlon 850'er )


da ich mir ein neues system zusammenschraubte und die v5 dieses ausbremsen würde musste halt was neues her :-)


die 4600 werkelt in nem xp 1800'er auf nem msi kt266a pro2 mit
512 mb ddr ram cl2 mit schärfsten timings und ner neuen audigy player


die grafikkarte soll bei mir immer so 1 1/2 jahre halten bzw. für diesen zeitraum die spiele in anständiger framerate und bildqualität darstellen ( hoffe ma doom 3 kommt erst im sommer 2003 :-) )

RyoHazuki
2002-06-06, 11:13:29
Hi,

Leadtek Winfast A250 Ultra hab ich nun seit einiger zeit! Zuvor hatte ich eine ASUS V8200 Deluxe normale GF3! eigentlich wäre ich ja bei meiner ASUS geblieben, aber die hat es leider geschossen! Der grund war eindeutig! (Extrem Hochgejagt, ohne ausreichend Kühlung) (300 MHZ Core/600 MHT Memory) gesponsort wurden diese Taktraten von einem Lötkolben! *gg*!

Zur zeit befindet sich meine TI 4600 unter der Lupe! Habe nähmlich eine LötAnleitung entdeckt! Diesmal ist für Verdammt Gute kühlung gesorgt! Das ganze wird weiterhin angetrieben von meiner turbine unten in der Signatur!

also Viel Spaß mit der TI4600! Bin sehr zufrieden!

nagus
2002-06-06, 13:20:03
Originally posted by Birdman
Creative ti4600

Abgesehen von der enormen Verlustleistung die nur mit derber lühlung besiegt werden kann, rockt die karte vollends.
Bildqualität und Speed ist absolut erhaben, und für meine zwecke (FPS-Shooter) mit grossem abstand das beste was ich mir vorstellen kann.

Vorhin ne Retail 8500 @275/275Mhz


nur so aus interesse: hast du einen "geldscheisser" zuhause?


.. .soll jetzt keine beleidigung sein. wundert mich nur von 8500 auf 4600... zahlt sich irgendwie nicht wirklich aus, oder doch?

aths
2002-06-06, 13:43:06
nagus,

solche Dinge sollten lieber in "Pro- und Kontra" diskutiert werden.

An die Ti4600-Besitzer: Meine läuft mit RAM auf "755" noch stabil, sofern das Gehäuse offen ist (ansonsten ist nur "735" drin. Darauf kommt es ja eigentlich an.) Der Chip ist mit 325 MHz nicht mehr absturzsicher zu betreiben, und 320/"735" ist die bislang höchste Kombo-Taktung, die ich getestet (und für stabil befunden) habe. Bin mal gespannt, wann es Karten gibt die schnelleren RAM als 2.8 ns haben.

Um das gute Stück nicht unnötig zu verheizen, läuft die Karte im Normalbetrieb mit 300/"715". Die RAM-Taktung entspricht dem, was man bei 2.8 ns erwartet.


mike49,

genau. In diesen Thread dürfen nur die AusAusAuserwählten :)

Kai
2002-06-06, 13:50:35
Originally posted by nagus



nur so aus interesse: hast du einen "geldscheisser" zuhause?


Typisch Ferengi. Was geht's Dich eigentlich an?

turboschlumpf
2002-06-06, 14:22:46
ich hab auch eine.
asus v8460 ultra
aber nur weil mindfactory die gainward nicht liefern konnte.
der termin wurde immer am angeblichen liefertermin um ein paar tage nach hinten verschoben.
und das schon seit über 3 monaten *loool*
hab keine probs mit der asus.
nur das hammergame fehlt noch um das dingens auch auszureizen.
in den sommerferien wird wieder gemoddet (gahäusedämmung, radi intern mit blende, dämmmatten etc.) und dann wird auch übertaktet (cpu, gpu, ram etc.)

kadder
2002-06-06, 14:23:59
PNY Verto GeForce4 Ti4600

hab sie mit standard-takt laufen (300/660)

vorher GF4MX 440, den unterschied merkt man schon.

@aths: warum willst du überhaupt wissen wer was für ne karte hat?!

achso: sie werkelt mit nem XP1900+, EP-8K3A+, 768MB Infineon PC2100 CL2

Never ATI bugging Cards
2002-06-06, 15:43:46
Hab ne Visiontek Ti4600 kurz und knapp das Teil rockt!

Bessere Bildqualität gegenüber meiner Radeon8500 sowohl im 2D als auch 3D Modus und sehr guten Speed selbst in hohen Auflösungen lassen keine Wünsche offen.

Alientrax
2002-06-06, 16:10:30
Ich hab ne 4600er von Sparkle

VoodooJack
2002-06-06, 16:20:30
Dass ich eine VisionTek Xtasy Ti4600 hab, ist eigentlich hinlänglich bekannt.

Ich bin schwer zufrieden damit. Die beste Grafikkarte, die ich jemals besaß. Dieser Karte kann keine andere Karte auch nur annähernd das Wasser reichen.

Im 2D-Bereich: auf Default, also 300/650 mhz.
Im 3D-Bereich: grundsätzlich mit 320/720 mhz.

Ich spiele mit der Ti4600 jedes Spiel, ob Jedi Knight2, GTA3, Morrowind oder SoF2 in 1600x1200x32 plus 4x/8xAniso plus 2xAA. Jedes Spiel ein optischer Leckerbissen. So will ich's haben. So soll es sein. Die Ti4600 macht's möglich. Sie ist jeden Cent wert.

aths
2002-06-06, 16:47:01
Originally posted by VoodooJack
Ich spiele mit der Ti4600 jedes Spiel, [...] in 1600x1200x32 [...]Darf man fragen, was du für einen Monitor hast?

Kai
2002-06-06, 16:59:29
Originally posted by VoodooJack
Sie ist jeden Cent wert.

noch ;D

Nussbaumpflücker
2002-06-06, 17:01:05
Auf alle Fälle mehr Monate Spass fürs Geld!

Kai
2002-06-06, 17:09:06
Originally posted by Nussbaumpflücker
Auf alle Fälle mehr Monate Spass fürs Geld!

Wage ich stark zu bezweifeln ;) Meine GF3 (@240/540) hier beispielsweise reicht noch locker bis Unreal 2 aus - plus der grafischen Schmankerl die das Zockerleben schön machen. Bis Doom3 kommt, werde ich sie aller Vorraussicht nach auch behablten. Das wären dann fast zwei Jahre gewesen die die Karte mir Freude gebracht hat. Die TI4600 wird spätestens bei Doom3 oder Neuauflagen mit solchen Engines nicht mehr den gewollten Spasseffekt bringen wie sie es jetzt in DX7 Titeln tut.

Somit schätze ich die "Halbwertzeit" der TI4600 höchstens noch auf 8 Monate - plus der 3 Monate die sie manch einer schon vielleicht besitzt sind das 11 Monate ;)

Dann schreit sowieso wieder jeder nach neuer, zu 100 % carmack kompatibler Hardware - und somit müssen die GF4-User meiner dezenten Meinung nach doppelt in die Taschen greifen (wie IMO übrigens jeder, der "Aufgüsse" kauft ;) ... man beachte die Formel: Original -> verbessertes Original -> was komplett neues ... also ist die Zeit vom verbesserten Original zu "was komplett neuem" wesentlich geringer als die Zeit vom ursprünglichen Original zum komplett neuen. Wer noch folgen kann, hat's drauf :D)

Okay, das State ist nicht gaaanz ernst gemeint, aber es beinhaltet mindestens einen wahren Kern: Zukunftssicherheit im Grafikkartensegment ist ne Illusion³ ..

aths
2002-06-06, 17:17:51
Originally posted by Kai
Zukunftssicherheit im Grafikkartensegment ist ne Illusion³ .. Eben. Und ich sehe nicht ein, dass entweder Doom3 oder NV30 oder DX9 jetzt der große Wendepunkt sein soll. Mit einer HighEnd-Karte konnte man bislang immer gut 2 Jahre auskommen. Angesichts heutiger Leistung und der Erfahrung bin ich zuversichtlich, dass sich die Ti4600 auch in Zukunft noch gut schlagen wird.

turboschlumpf
2002-06-06, 17:18:50
axo, ich hab vergessen welche grafikkarte ich vorher hatte:
ne 2mb onboard 2d
dazu ein pentium 166mmx
32 mb edo ram
etc.
*lol*

Kai
2002-06-06, 17:25:42
Originally posted by aths
Eben. Und ich sehe nicht ein, dass entweder Doom3 oder NV30 oder DX9 jetzt der große Wendepunkt sein soll. Mit einer HighEnd-Karte konnte man bislang immer gut 2 Jahre auskommen. Angesichts heutiger Leistung und der Erfahrung bin ich zuversichtlich, dass sich die Ti4600 auch in Zukunft noch gut schlagen wird.

Najaaa, aths, Du verstehst meinen Kontext sicher nicht. In den DX7 Zeiten war ein "Wendepunkt" wie er uns jetzt mit dem Release der neuen Engines bevorsteht ja kein Thema, aber genau dieser "Wendepunkt" kommt ja jetzt auf uns zu. Der Sprung von DX8 auf DX9 wird IMO ziemlich gross sein - grösser als der DX7 to DX8 Sprung IMO. Deswegen hege ich den Verdacht, das gerade im Bereich "Grafikkarte" eine mehr oder minder dicke technische Wendung bevorsteht, die man eben nur mit neuer Hardware kompensieren kann.

Ich weiss, ich hab's schon oft erzählt .. aber damals zockte ich mit Begeisterung Quake. Es war der Himmel für mich. Irgendwann kam dann Quake2 ... und da stand ich nun. DirectX 6.0 ? He? 3D-Beschleuniger? Wasn dat? So derbe wird der Sprung nun nicht sein, aber Du verstehst sicher auf was ich hinaus möchte.

Wäre ich mir sicher, das mir ne TI4600 für weitere 2 Jahre Spielspass garantieren kann, glaubste dann nicht, das ich schon längst eine im Rechner hätte? ;) Du bejahst mein Fazit "Zukunftssicherheit = Illusion" und sagst dennoch : "Angesichts heutiger Leistung und der Erfahrung bin ich zuversichtlich, dass sich die Ti4600 auch in Zukunft noch gut schlagen wird."

Nussbaumpflücker
2002-06-06, 17:25:45
Ich kauf mir immer das Topmodell Jahr für Jahr und lag damit immer sehr gut im Rennen.
Letztes Jahr war es ne Leadtek Geforce3 nun Ti4600 und der Sprung hat sich voll gelohnt vor allem was hohe Auflösungen betrifft.
Und so wie es ausschaut kommt der NV30 oder R300 ja Oktober/November in die Geschäfte und dann fliegt meine olle R200 aus dem zweiten Rechner und wird wieder durch das Topmodell ersetzt :)
Man muss abwägen was bringt mehr Frames pro Spiel drei CPU+Board-Upgrades im Jahr oder die Top Grafikkarte ... Ich hab mich für letzteres entschieden :)
Trotzalledem dürfte die Geforce4 Ti4600 noch locker 2 Jahre guter Standard sein weil eh alles auf den Quake3 oder UT2 Engines aufbauen wird und dafür hat sie allemal Reserven.

MfG Nussbaumpflücker

Birdman
2002-06-06, 18:18:11
Originally posted by nagus

nur so aus interesse: hast du einen "geldscheisser" zuhause?
.. .soll jetzt keine beleidigung sein. wundert mich nur von 8500 auf 4600... zahlt sich irgendwie nicht wirklich aus, oder doch?
Doch für mich hat es sogar extrem viel gebracht, da die Ati für meine Zwecke doch recht schlecht war, bzw. hat sie mich oft generft.

1) Quake3 slowdowns auf ra3map11
2) mipmapping in serious sam 2
3) Overflow Bug in CS den ich erst nach CS-neuinstall los wurde
4) kein FSAA/AF in NICE2 @1024x768x32 (geht aber auch bei der gf4 ned, nur wusste ich das damals noch ned ;) )

Tja und da ich ned wirklich viel mehr spiele als diese 4 zocke, zudem gerade bei quake3 viel Wert auf superhighspeed bei reduzierten details lege (low textur quality, aber 1024 mit 2xFSAA für absolut smoothes Bild), ist die GF4 für mich eine viel bessere Wahl.


btw. geldscheisser habe ich leider ned...da kommt immer nur so braunes zeugs raus, und so sehr ich auch da drin rumwühlte, ich habe noch nie ne Münze oder Banknote gefunden.

greets
Birdman

p.s. vor der 8500er hatte ich noch für einige wochen ne ti500 im rechner.... :D

aths
2002-06-06, 18:31:12
Kai,

mehrfach wurde uns mit irgendeiner neuen Technik die totale Wende versprochen. Mit jedem neuen DX, sofern die Vorkommastelle erhöht wurde, sowieso. Natürlich nimmt die Technik ihren Lauf, was auch gerade an gewissen Ausnahme-Engines liegt. Doom3 wird erfolgreich sein. Die Unreal-Engine wohl aber auch, jene wird mit einer GTS noch mit passabler Qualität und flüssiger Grafik zu spielen sein.

Der Sprung von DX8 auf 9 mag je nach Betrachtung größer sein als von DX7 auf 8. Allerdings geht der Sprung schon von einem recht hohem Niveau aus. DX8 hat sich noch längst nicht durchgesetzt in Spielen. Ich erwarte wirklich nicht, dass DX8 übergangen wird und sich die Entwickler auf DX9 stürzen. Gerade wegen der Xbox befürchte ich, dass sich DX8 länger halten könnte als uns lieb sein wird.

So gut und nützlich die DX9-Features sind - in zukünftigen Artikeln werde ich nicht umhin kommen, zum Teil wahre Hymnen auf bestimmte neue Technologien anzustimmen - nach meiner Einschätzung ist DX9 HW Support auf längere Sicht nicht notwendig. Deshalb interessiert mich beim NV erstrangig der Qualitäts- und dann der Leistungsaspekt.

DX9 wird nicht dafür sorgen, dass die Leute ihre HW schneller wechseln als früher. Zumal noch heute (und wohl bis ins Jahr 2003 hinein) reine DX7-HW in den Markt gedrückt wird. Wenn ich den Zyklus richtig einschätze, können wir auf breiten Support von DX9 noch lange warten.

HisN
2002-06-06, 18:42:31
Hab ne Asus V8460(eine die aus der Repa von Asus gekommen ist, eine von denen die am Anfang nicht laufen wollten, nur runtergetaktet). Aber auch nur weil ich sie kostenlos im Tausch gegen meine alte V8440 bekommen habe. Gekauft hätt ich mir das Teil nicht. 3D-Leistung OK. Bildqualität mies, bei 1600 nicht zu gebrauchen. Also fahre ich sie im Multimonitorbetrieb mit 1280. Passt schon, man kann nie genug 3D-Leistung haben *g* Nervig ist nur das Multimonitorbetrieb unter 2K nicht funktioniert.
Alex

aths
2002-06-06, 18:51:29
Oha, das sind jetzt schon immerhin 10 Forenbesucher mit so einem Teil.

Markus
2002-06-06, 19:17:57
Hi.

Bei mir werkelt eine ASUS V8460/TD im Rechner. Ich bin mit der Karte zu einhundert Prozent zufrieden, die Leistung ist mehr aus ausreichend und die Signalqualität lässt erst bei 1600x1200@85Hz erste Schwächen erkennen, die ich aber mit den Signalfiltern des Monitors ausgleichen kann (normalerweise arbeite/spiele ich eh bei 1280x960 oder 1280x1024 und 85Hz).
Probleme mit der Stabilität der Karte hatte ich bisher auch nicht. Sie ist bei mir im 48 Stunden Dauertest bei 320/365(730) stabil gelaufen, wird aber im Moment mit dem Standardtakt betrieben.

Vorher hatte ich eine ASUS V8200 T5 Deluxe. Ich war mit der Karte eigendlich noch zufrieden. Dann machte mir ein Bekannter (der im Computer Grosshandel arbeitet) im Gegenzug für einen Gefallen meinerseits einen sehr günstigen Preis die V8460. Da konnte ich nicht nein sagen.

Durch einen guten Verkaufspreis für die GF3 hab ich sogar noch etwas Gewinn bei der ganzen Aktion gemacht. :)

Markus.

Albert Wesker
2002-06-06, 19:35:29
ich bins sehr zufrieden mit meiner goldenen ti4600 (300@315 und 680@755) von gainward.vorher hatte ich ne elsa gladiac gts (200@240 und 333@395).

Doomtrain
2002-06-07, 00:28:40
Originally posted by aths


DX9 wird nicht dafür sorgen, dass die Leute ihre HW schneller wechseln als früher. Zumal noch heute (und wohl bis ins Jahr 2003 hinein) reine DX7-HW in den Markt gedrückt wird. Wenn ich den Zyklus richtig einschätze, können wir auf breiten Support von DX9 noch lange warten.

aths, merkst du nicht, wie du krampfhaft versuchst, deinen Kauf zu rechtfertigen? In deinem wirklich tollen Review hast du gesagt, das dies keine Rechtfertigung sein soll. Genau das machst du aber an dieser Stelle.

PS: Ich erlaube mir zu behaupten (man vergebe mir!) das du mit der Karte gar nicht so zufrieden bist, wie du immer sagst. Vor allem nicht für den Preis den du berappt hast.

Doomtrain
2002-06-07, 00:35:48
Originally posted by Kai

Meine GF3 (@240/540) hier beispielsweise reicht noch locker bis Unreal 2 aus - plus der grafischen Schmankerl die das Zockerleben schön machen. Bis Doom3 kommt, werde ich sie aller Vorraussicht nach auch behablten. Das wären dann fast zwei Jahre gewesen die die Karte mir Freude gebracht hat. Die TI4600 wird spätestens bei Doom3 oder Neuauflagen mit solchen Engines nicht mehr den gewollten Spasseffekt bringen wie sie es jetzt in DX7 Titeln tut.

Somit schätze ich die "Halbwertzeit" der TI4600 höchstens noch auf 8 Monate - plus der 3 Monate die sie manch einer schon vielleicht besitzt sind das 11 Monate ;)

Zukunftssicherheit im Grafikkartensegment ist ne Illusion³ ..


@Kai

Dieses Posting hätte ich auch voll zitieren können.
@All
Die GeForce4 TI4600 (Und ich will ihren Wert wirklich nicht schmälern!) ist einfach die gleiche Klasse wie die GeForce3. OK, "etwas" schneller ist sie schon, aber: Grundsatzfrage: Haben DIE Spieler, welche nicht mit einer derartigen Karte gesegnet sind weniger Spaß? Überlegt doch bitte mal?

Kai
2002-06-07, 01:41:42
Originally posted by Doomtrain

Haben DIE Spieler, welche nicht mit einer derartigen Karte gesegnet sind weniger Spaß? Überlegt doch bitte mal?

Manchmal kommt's mir so vor ;D Naja, wenn's ein Privileg ist eine TI4600 zu besitzen, dann gönne ich das den priveligierten auch ;)

Meine Meinung bleibt: Als Geforce3 Besitzer (oder auch R8500, welche ja mindestens in der gleichen Liga spielt) würde mich da keine GeForce4 TI reizen. Wenn ich mir jedoch jetzt eine holen würde (weil ich beim Pferdewetten gewonnen habe oder sowas), dann wär's für mich doch sowieso nur eine Zwischenlösung, weil ich weiss das ich zum Release der neuen ID-Generation (und damit niemand meint, ich mache meinen Graka-Konsum von John Carmack alleine abhängig: auch von den anderen neuen fantastischen Technologien) sowieso wieder mit dem Gedanken spielen werde mir eine neue GraKa zuzulegen.

Und dann darf's halt auch ein NV30 oder was ebenbürtiges sein. Hauptsache es gibt ordentlichen Zucker auf dem Schirm.

Damit will ich nicht sagen, das die TI4600 ab Doom3 (und natürlich den anderen "bahnbrechenden Technologien") nur noch Schrottreif ist: Bei Gott nein, absoluter Schwachsinn. Nur will ich dann jenseits von Doom3 (etwa QuakeIV ?) nicht schon wieder Threads a la "Mehr als 25 FPS kann das Auge eh nicht wahr nehmen, da reichen mir 35 ja dicke" moderieren ;)

Liebe Forenmitglieder: Der letzte Absatz war eher als Scherz gemeint und wurde deutlich gekennzeichnet. Bitte keine Flames, Spams oder anderes Dosenfleisch auf meine Kosten ...

Kai
2002-06-07, 01:45:39
Originally posted by Doomtrain


aths, merkst du nicht, wie du krampfhaft versuchst, deinen Kauf zu rechtfertigen? In deinem wirklich tollen Review hast du gesagt, das dies keine Rechtfertigung sein soll. Genau das machst du aber an dieser Stelle.

Doomtrain,

Irgendwie versucht jeder seinen Kauf zu rechtfertigen. Ich finde das auch vollkommen in Ordnung, denn schliesslich hat man sich ja auch etwas dabei gedacht als man knapp 500 € auf die Ladentheke gelegt hat ;)

Ich schätze die Begeisterung über die TI4600 steht aths mal ganz gut ;) Hätte nie gedacht das man einen so eingefleischten 3DFXler dazu überreden kann sich ne nVidia-Karte in den Rechner zu stecken. Er hat halt seinen Spass dran.

Saro
2002-06-07, 11:26:43
Originally posted by Kai


Manchmal kommt's mir so vor ;D Naja, wenn's ein Privileg ist eine TI4600 zu besitzen, dann gönne ich das den priveligierten auch ;)

Meine Meinung bleibt: Als Geforce3 Besitzer (oder auch R8500, welche ja mindestens in der gleichen Liga spielt) würde mich da keine GeForce4 TI reizen. Wenn ich mir jedoch jetzt eine holen würde (weil ich beim Pferdewetten gewonnen habe oder sowas), dann wär's für mich doch sowieso nur eine Zwischenlösung, weil ich weiss das ich zum Release der neuen ID-Generation (und damit niemand meint, ich mache meinen Graka-Konsum von John Carmack alleine abhängig: auch von den anderen neuen fantastischen Technologien) sowieso wieder mit dem Gedanken spielen werde mir eine neue GraKa zuzulegen.

Und dann darf's halt auch ein NV30 oder was ebenbürtiges sein. Hauptsache es gibt ordentlichen Zucker auf dem Schirm.

Damit will ich nicht sagen, das die TI4600 ab Doom3 (und natürlich den anderen "bahnbrechenden Technologien") nur noch Schrottreif ist: Bei Gott nein, absoluter Schwachsinn. Nur will ich dann jenseits von Doom3 (etwa QuakeIV ?) nicht schon wieder Threads a la "Mehr als 25 FPS kann das Auge eh nicht wahr nehmen, da reichen mir 35 ja dicke" moderieren ;)

Liebe Forenmitglieder: Der letzte Absatz war eher als Scherz gemeint und wurde deutlich gekennzeichnet. Bitte keine Flames, Spams oder anderes Dosenfleisch auf meine Kosten ...

Ich Spekuliere aber mal das Doom III auf einem entsprechendem System mit 54fps läuft hab ich mal gesehen auf irgendner Seite da bei den Benchs vor allem bei DX8 Titeln die Geforce 4 teilweise doppelt so schnell sind wird man bestimmt schon an der 100fps grenzen kratzen. Und zu dem gelaber da haben se aber recht da Doom III z.B. auf niedrige fps Zahlen ausgelegt ist und nicht auf hohe. Aber wenn man z.B. 25fps hat und den Monitor mit 120Hz laufen hat ist es jawohl kein Wunder das es ruckelt.

Die Benchs mit Doom III bezogen sich auf einen Athlon XP 2000+ und Geforce 3 TI-500

VoodooJack
2002-06-07, 12:12:01
aths, ich hab einen 21"-Monitor, und zwar den HITACHI CM815ET Plus.

Die 1600x1200-Auflösung spiel ich mit 85 Hz. Ich kann aber mit meiner 21"/Ti4600-Kombo auch schon in 2048x1536 mit 70 Hz spielen.

Kai
2002-06-07, 13:00:43
Originally posted by Saro


Die Benchs mit Doom III bezogen sich auf einen Athlon XP 2000+ und Geforce 3 TI-500

Wobei ich aber weiss, das das hundertpro nicht stimmen kann. Aaf alle Fälle müssten GF3 (und GF4) User erst einmal sämtliche Featuretten wie AA oder Ansio vergessen, sonst ist da leider wenig mit Performance drinne. Aber wurscht, soll ja hier keine Doom3-Performance Diskussion sein.

Saro
2002-06-07, 14:31:35
Sorry war mein fehler habe es gerade wieder gefunden diese Benchs bezogen sich auf Unreal 2 bei 1024x768x32

http://www.anandtech.com/video/showdoc.html?i=1580&p=7

aths
2002-06-07, 14:33:36
Originally posted by VoodooJack
aths, ich hab einen 21"-Monitor, und zwar den HITACHI CM815ET Plus.

Die 1600x1200-Auflösung spiel ich mit 85 Hz. Ich kann aber mit meiner 21"/Ti4600-Kombo auch schon in 2048x1536 mit 70 Hz spielen.

85 Hz schafft meiner (19 Zoll) bei 1600x1200 auch. Aber da nehme ich lieber 100 Hz (bei 1024 oder 960 Zeilen.) Wie gesagt meine ich spürbare Leistungsschwächen der 4600-er ab 1600x1200 zu bemerken.

VoodooJack
2002-06-07, 16:15:44
aths,

re: Monitor

Mein Monitor würde bis 120 Hz gehen. Nutze ich aber nicht, weil 85 Hz für mich vollkommen ausreichend sind. Augenfreundlich und monitorschonend zugleich.

re: spürbare Leistungsschwächen der Ti4600 bei 1600x1200

Ich hab so ziemlich alle topaktuellen Spiele in 1600x1200x32 angespielt (Morrowind, GTA3) oder durchgespielt (Jedi Knight 2, SoF2). Ich lasse grundsätzlich den Frame Counter mitlaufen. Ich bemerkte absolut keine Leistungsschwächen der Ti4600. Im Gegenteil, wenn ich "nur" die Ingame-Einstellungen auf Max setze, spielt sich die Ti4600 regelrecht. "Nur" in Anführungszeichen, denn mit welcher anderen Karte kann man sich diesen Luxus leisten?

Da auf meinem System die Ti4600 bei diesem "Luxus" noch nicht ausgelastet ist, kann ich mir sogar "Luxus pur" leisten, d. h. ich kann die Bildqualität veredeln durch AF und AA. AF schalte ich inzwischen grundsätzlich zu, meistens 8x. AA schalte ich nur dazu, wenn nötig.

Die AF- bzw. AA-Stufen variieren bei mir von Spiel zu Spiel. Ein aktuelles Beispiel dazu: SoF2 war bei mir mit 8xAF flüssig spielbar. Aber SoF2 benötigt gar nicht so sehr AF, sondern unbedingt AA! Je mehr, desto besser. 8xAF + 4xAA wäre aber selbst für mein System zu viel gewesen. Also hab ich AF auf dem Ingame-Schieber so weit zurückgenommen (dürfte 2xAF sein), dass die Bildqualität nicht darunter litt und hab dafür 2xAA dazugenommen. 4xAA wäre zwar besser gewesen, hätte aber zu sehr gebremst. Bei SoF2 waren mit 2xAF + 2xAA + everything maxed + 1600x1200x32 meine Eye-Candy-Ansprüche erfüllt, und so hab ich dann SoF2 auch durchgespielt. Flüssig, wohlgemerkt.

Was noch erwähnenswert wäre: aths, du hast einen P4 bei ca. 2 Ghz am Laufen. Meiner läuft bei 2.6 Ghz mit PC1066 RDRAM. Vielleicht eine Erklärung dafür, dass ich keine Leistungsschwächen bei 1600x1200 bemerke.

HisN
2002-06-07, 20:54:38
Originally posted by VoodooJack
aths,

Was noch erwähnenswert wäre: aths, du hast einen P4 bei ca. 2 Ghz am Laufen. Meiner läuft bei 2.6 Ghz mit PC1066 RDRAM. Vielleicht eine Erklärung dafür, dass ich keine Leistungsschwächen bei 1600x1200 bemerke.

Hey Voodoo, ich warte auch nur auf meine 1060-Speicherriegel (mein Händler hat im Moment nur 128er, die will ich nicht *g*). Hoffe das mein 2GHz P4 auch die 2,7 mitmacht die er bei 133FSB hat.


Was mir auch gleich wieder zeigt, daß die Leute mit ner GF46 auch gleich noch den Rest von ihrem System "hübsch" machen *g*

aths
2002-06-07, 22:01:06
Originally posted by VoodooJack
AA schalte ich nur dazu, wenn nötig.

Ich halte AA für grundsätzlich notwendig. Auch bei 1600x1200 auf 19 Zoll. (Erst recht also bei 21 Zoll.)

Originally posted by VoodooJack
Was noch erwähnenswert wäre: aths, du hast einen P4 bei ca. 2 Ghz am Laufen. Meiner läuft bei 2.6 Ghz mit PC1066 RDRAM. Vielleicht eine Erklärung dafür, dass ich keine Leistungsschwächen bei 1600x1200 bemerke.

Auflösung ist eine reine Frage der Grafikkarte. Dein System ist "nur" generell schneller. Ich spüre bei 1600x1200 einen deutlichen Leistungsabfall. Weil die Grafikkarte limitiert. Dass ab 1600x1200 die Probleme losgehen zeigen auch Benchmarks. Offenbar ist dir die Leistung noch hoch genug. (Mir halt nicht mehr.)

Kai
2002-06-07, 22:54:46
Originally posted by Saro
Sorry war mein fehler habe es gerade wieder gefunden diese Benchs bezogen sich auf Unreal 2 bei 1024x768x32

http://www.anandtech.com/video/showdoc.html?i=1580&p=7

Die Benches beziehen sich auch nicht auf Unreal2, sondern auf den Unreal Performance Test. Das ist mehr oder minder wiedermal ein synthetischer Benchmark. So viel Overdraw wird es auch in Unreal2 nicht geben.

Doomtrain
2002-06-08, 19:48:32
Originally posted by Kai

Ich schätze die Begeisterung über die TI4600 steht aths mal ganz gut ;) Hätte nie gedacht das man einen so eingefleischten 3DFXler dazu überreden kann sich ne nVidia-Karte in den Rechner zu stecken. Er hat halt seinen Spass dran.

Kai, ich finde es zwar nett, das du antwortest, aber ich würde gerne aths selber hören;) Nicht fur ungut. Ich bin (war) auch ein absoluter 3dfx-Fan, aber was soll man denn machen. 3dfx ist nun endgültig tod.

"Er hat halt seinen Spaß dran"
Das glaube ich gerne, aber es ist doch immer ein scheiß Gefühl, wenn man nicht zu 100% zufrieden ist. Für 3-5 Monate hab ich dann zwar das beste vom besten, aber danach ist sie halt wieder "normalo" und nicht mehr High-End. Du verstehst schon was ich meine. Lieber immer ein klein wenig zurückstecken, dann gibt es keinen knatsch und es kommt billiger. (Dann kann man natürlich auch nicht angeben*eg*)

@aths: Ich wollte dir wirklich nicht zu nahe treten. Deine Graka ist schon geil, aber das ist sie auch in einem halben Jahr noch wenn ich sie für die hälfte des Preises bekomme. Egal ;)

Unregistered
2002-06-09, 21:10:56
hab ne pny verto4600 für 250€ bekommen vorher hatte ich ne ati radeon 64ddr vivo retail.

hat schon einen schönen speed sprung gegeben nur leider is mein sd ram und mein xp1700+ jetz die bremse zum glück kommt morgen samsung ddr ram an

aths
2002-06-10, 10:40:08
Originally posted by Doomtrain @aths: Ich wollte dir wirklich nicht zu nahe treten. Deine Graka ist schon geil, aber das ist sie auch in einem halben Jahr noch wenn ich sie für die hälfte des Preises bekomme. Egal ;) Hehe, damit hast du natürlich Recht.

Irgendwann werde ich mal meine "Graka-Geschichte" aufschreiben. Da wird drin stehen, dass ich von allen 4 3D-Karten die ich bisher hatte (die 4. habe ich gerade) nur die Banshee wirklich so wollte. Statt 4-MB-Voodoo Graphics wollte ich ursprünglich eine 6-MB-Voodoo (mit 4 MB Textur-Speicher), statt Voodoo4 lieber Voodoo5 und statt GeForce natürlich lieber den Rampage. Dual-Rampage. Mit extra Geometrie-Prozessor.

Wie gesagt wäre Ti4400 der vernünftigere Kauf. Aber dann müsste ich unentwegt mit dem Gefühl leben, nur die 2. Wahl genommen zu haben. Wie erwähnt, beim PC-Gesamtpreis machte der Preisunterschied der Grakas nicht mehr sooo viel aus. Die kommenden DX8-Spiele werden sich leistungsmäßig wohl an Ti200 oder maximal Ti4200 orientieren. Da habe ich dann in jedem Fall noch genug Luft für Anti-Aliasing.

Dmitriy Popov
2002-06-10, 21:50:24
*sichoute*
hab mir heute eine Gainwar Powerpack XP/750 Golden Sample geholt...oder wie der name auch lautet...