Archiv verlassen und diese Seite im Standarddesign anzeigen : UND SIE KOMMT DOCH!!!
pervert
2002-03-19, 22:41:54
Jiiiipiiiiiiieeeeeeeeeeeeeeeee!!!!
Habe ich doch das richtige Gefühl in der Magengegend gehabt!
DIE GEFORCE 4 TI4200 KOMMT DOCH!!!
Das sollte wohl auch die Antwort auf alle derzeitigen Aufrüstfragen darstellen, bei einem angepeilten Preis von genialen 199$ !!! Wenn ich mir die genannten Takte so ansehe, wird das sicher ein Fest für Overclocker!
Lest einfach folgenden Artikel, welcher hier bei 3DCenter übrigens noch nicht verlinkt ist:
http://www.hartware.de/news.html?id=24468
Richthofen
2002-03-19, 22:47:30
ich denke es werden eher mehr als 199 Euro werden.
Ich tippe eher auf 250 Euro aufwärts.
pervert
2002-03-19, 22:51:00
DOLLAR nicht Euro!!!
Ich tippe ebenfalls auf einen Start bei ca. 250 Euro. Mann für eine "neue" Generation von NVidia ist dies geradezu ein Schnäppchenpreis!!! Was haben GF2 und GF3 über lange Zeit nicht für ein Heidengeld gekostet!
Originally posted by pervert
DOLLAR nicht Euro!!!
Eben! Und deswegen wird sie in D eben mindestens 20 - 25 % teurer sein - so wie's immer war.
pervert
2002-03-19, 23:14:41
Abwarten! Das ist außerdem nur der Einführungspreis!!!
Doomtrain
2002-03-20, 00:03:16
Originally posted by pervert
DOLLAR nicht Euro!!!
Ich tippe ebenfalls auf einen Start bei ca. 250 Euro.
Hört sich doch klasse an, oder meint ihr nicht?
moncheeba
2002-03-20, 00:14:18
auf jeden fall!!
ne "richtige" GF4 zu dem preis iss doch in ordnung...da werd ich wohl echt warten und die GF3 überspringen...
habs mir aber auch gedacht dass die kommt...aber bis es die wirklich überall gibt wirds doch auch noch n weilchen dauern...
Doomtrain
2002-03-20, 00:16:32
Originally posted by moncheeba
Aber bis es die wirklich überall gibt wirds doch auch noch n weilchen dauern...
Ist doch egal, wenn du Geduld hast. *ichhabkeine*
pervert
2002-03-20, 00:16:58
Von wegen! Die kommen bald! Lest den Artikel:
Wörtlich heißt es in der Pressemitteilung: ''Die Auslieferung der Grafikkarten mit GeForce4 Ti 4200 GPUs wird für Ende April erwartet.''
Matthias2x
2002-03-20, 02:26:29
Also die 6 Wochen lohnt das warten bestimmt noch! Ich wollte mir schon eine GF3 kaufen, aber wenn die Ti4200 nun doch kommt schaffe ich mir lieber die an, solang macht´s meine GF2 auch noch *gg*
harkpabst_meliantrop
2002-03-20, 04:21:37
Gääähhhn.
Abwarten und Tee trinken. Erst mal sehen, ob die Hersteller dazu wirklich Bock haben. Die c't behauptet in ihrer letzten (allerdings Print-) Ausgabe noch das Gegenteil.
Die Preise für GF3 Ti 200 sind allerdings schonmal massiv gesunken. Selbst eine ASUS Pure ist für 200 Euro zu haben. Mal sehen.
[dzp]Viper
2002-03-20, 09:01:24
Ich wusste garnet das jemals gesagt wurde das sie NICHT kommt ....
Es wurde immer davon gesprochend as sie später kommt als der Rest - und ende April - anfang Mai is doch ok
Kellwolf
2002-03-20, 10:21:30
Sieht dann doch wohl so aus das die G4 karten sich nicht so gut wie erwartet verkaufen, sonst hätten die die 4200 nicht produziert.
Da aber im juni,juli die nv30 vorgestellt werden soll, werde ich
auf jeden fall warten, da wirds dann auch nochmal billiger.
mfg
Kellwolf
[dzp]Viper
2002-03-20, 11:09:59
1. Der NV 30 wird zeitigstens im Herbst vorgestellt - ausser vorher kommt was von matrox oder ATi ... dann macht nvidia auch stress
2. Die ti 4200 sollte schon immer rauskommen ABER man wollte ich mit der Karte zeit lassen weil sonst die Geforce 3 ti 200 und ti 500 zum Ladenhüter geworden wäre und somit will nvidia erstmal die geforce 3 karten loswerden ....
harkpabst_meliantrop
2002-03-20, 14:02:14
Originally posted by [dzp]Viper
2. Die ti 4200 sollte schon immer rauskommen ABER man wollte ich mit der Karte zeit lassen weil sonst die Geforce 3 ti 200 und ti 500 zum Ladenhüter geworden wäre und somit will nvidia erstmal die geforce 3 karten loswerden ....
Laut c't war sie angeblich zwischendurch mal abgekündigt worden...
Richthofen
2002-03-20, 14:08:01
da erzählt die CT aber Müll.
Davon war nie die Rede. Also ich hab keine Pressemitteilung gesehen in der das Stand.
Eigentlich war nur die Rede davon, sie später kommen zu lassen bis man die GF3 Karten zu großen Teilen loswird.
Meiner Meinung nach hat man sich auch Zeit gelassen weil es keine echte Konkurenz gibt.
Da aber GF4 Karten nun im Handel sind, fallen Radeons natürlich krass im Preis. SIS will auch rein, da bringt Nvidia die 4200 lieber gleich.
So wird man zumindest mal SIS den Wind deutlich aus den Segeln nehmen.
Ich denke mal die letzten beiden Punkte also stark fallende Radeonpreise und die SIS Ankündigung, haben den Erscheinungstermin jetzt doch bissl beschleunigt.
Ansonsten hätts so denke ich paar Wochen noch länger gedauert.
Unregistered
2002-03-20, 14:20:52
...
und nochn thread..;)
verkettung...verkettung
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=14237
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=13347
...
mike49
2002-03-20, 15:56:53
Weiß jemand ob die auch 128MB oder wie manchmal berichtet doch nur 64MB haben wird ?
harkpabst_meliantrop
2002-03-20, 16:58:41
Originally posted by Richthofen
da erzählt die CT aber Müll.
Davon war nie die Rede. Also ich hab keine Pressemitteilung gesehen in der das Stand.
Nur dass sich in der Richtung, was man alles nicht gesehen hat, so schlecht unwiderlegbar argumentieren lässt.
Auf Anhieb fällt mir zumindest kein guter Grund ein, sich das aus den Fingern zu saugen.
Originally posted by mike49
Weiß jemand ob die auch 128MB oder wie manchmal berichtet doch nur 64MB haben wird ?
Ich glaub die soll 128MB haben. Falls aber eine Ti4200 mit 64MB rauskommt, und die dann auch noch deutlich billiger ist als mit 128MB würde ich sie mir wahrscheinlich kaufen. 128MB sind in den nächsten 2 Jahren wahrscheinlich absolut sinnlos.
Richthofen
2002-03-20, 17:34:43
würd ich nicht sagen.
Je nachdem bis zu welcher Auflösung du mit FSAA zocken willst.
Gut ich denke mal du spielst eher nicht 1600 mal 1200. Dann bräuchtest momentan maximal 64 MB.
Aber in dieser Auflösung kannst 4x FSAA nur nutzen wenn 128 MB dabei sind.
Klar die GF4 T4200 sollte nicht schnell genug dafür sein...
Mal abwarten.
@harkpabst
Ach da hat die CT bzw Heise einfach irgendwo was aufgeschnappt.
Wahrscheinlich bei TheInquire.
Diese Drecksseite sollte man lieber nicht zu oft zitieren. Da wird viel erzählt wenn der Tag lang ist und vieles nicht ganz uneigennützig (Aktienmärkte)
Die CT hat nämlich neulich doch glatt berichtet AMD würde in Q1 2002 schwarze Zahlen schreiben wollen und hätte dies nun dahingehend korrigiert, das man nun doch Verluste schreibt.
Davon hatte AMD nie geredet und die CT hatte einfach irgendwas aufgeschnappt was bei Inquire stand.
Das ist auch totaler Blödsinn. Hector Ruiz von AMD hat gesagt schwarze Zahlen gibts erst in Q2 2002 und in Q1 noch einen kleinen Verlust. Der Aktienkurs an dem Tag hat sich jedenfalls fett bewegt.
Auf TheInquire geb ich nüscht ausser nen dicken Haufen.
Davon hatte AMD nie geredet und die CT hatte einfach irgendwas aufgeschnappt was bei Inquire stand.
Unreal Soldier
2002-03-20, 18:12:37
Hi leute,
ich denk für eine Graka wie die ti4200 lohnen sich 250-280€ denn man kann diese karten hochtakten wenn man Glückhat auch auf ti4400 niveau, was bedutet dass man sehr viel Geld gespart hat. Ich denk ich werde mir solch eine Karte besorgen sie übertakten und mir 150€ sparen.
MFG
Unreal Soldier
pervert
2002-03-20, 22:32:02
Originally posted by Unreal Soldier
Hi leute,
ich denk für eine Graka wie die ti4200 lohnen sich 250-280€ denn man kann diese karten hochtakten wenn man Glückhat auch auf ti4400 niveau, was bedutet dass man sehr viel Geld gespart hat. Ich denk ich werde mir solch eine Karte besorgen sie übertakten und mir 150€ sparen.
Ganz genau!
Die Karte wird sicher ganz locker Ti4400 Niveau erreichen. Und Preis/Leistung sind hervorragend für NVidia-Verhältnisse.
Blickt man mal zurück, kann man sagen, dass vieles was im Spielesektor Rang und Namen hat, auch heute noch auf den Engines von Q3 und Unreal basiert. Die Ti4200 (wenn Sie denn auch 128MB hat) ist nicht nur Aufgrund des Preises für Aufrüster interessant, sondern weil sie vermutlich auch ideal mit den kommenden Innovationen Unreal2 und Doom3 harmonieren wird. Diese Projekte werden mit ihrer Technik sicher der Wegweiser für die gesamte Branche sein. Und das bedeutet man bekommt hier ein "Schnäppchen", mit dem man es "3D-technisch" noch ganz locker die nächsten 2-3 Jahre aushalten kann (Performance mal außen vor gelassen). Ich denke mal so viel "VALUE" gabs schon lange nicht mehr im Graka Sektor, wenn überhaupt schon einmal!
Wenn ich mir außerdem die nicht sehr innovationsfreudige Entwicklergemeinde ansehe (ich spielte letztlich mal Max Payne halbwegs flüssig mit gewohnter Optik auf einer TNT1!) und dabei Innovationsbremsen wie die GeForce4 MX betrachte, könnte sich eine richtige GF4 (und ähnliche Karten) zu einem echten Dauerbrenner entwickeln. Ich bin mir sicher, dass der technische Stand dieser Karten für viele Jahre ausreichen wird, um alle Spiele perfekt darstellen zu können, was deren Anspruch an 3D-Funktionen betrifft. Aber auch bei Spielen die diese Hardware dann endlich mal fordern, kann man annehmen, dass die Performance einer Ti4200 für eine Weile ausreicht. Ganz im Gegensatz zum letzten Lowcost Wunder Ti200, die ja zumindest bei der Funktionalität mithalten kann.
Ich denke es war schon lange nicht mehr so interessant aufzurüsten, wie dieses Jahr mit Ti4200 bzw. Unreal2 & Doom3! Denn eigentlich könnte man auch heute noch mit einer TNT2 Ultra ganz gut leben. Erst diese Engines und diese 3D-Hardware bringen WIRKLICHEN Fortschritt in die Optik neuer Games!
Kellwolf
2002-03-21, 13:04:24
Sage mal glaubst du selber was du da schreibst..... spätestens bei der G5 wird alles noch "schöner,besser,bunter" wetten......
MFG
Kellwolf
trollkopf
2002-03-21, 14:24:49
@pervert, wass zahlt dir nvidia dafür ;)...
Originally posted by Richthofen
würd ich nicht sagen.
Je nachdem bis zu welcher Auflösung du mit FSAA zocken willst.
Gut ich denke mal du spielst eher nicht 1600 mal 1200. Dann bräuchtest momentan maximal 64 MB.
Aber in dieser Auflösung kannst 4x FSAA nur nutzen wenn 128 MB dabei sind.
Klar die GF4 T4200 sollte nicht schnell genug dafür sein...
Mal abwarten.
Jo, bei meinem 17Zoll Monitor Zock ich höchstens mit 1152*864.
1152*864*4(32bit pro Pixel)*4(4xAA)*3(triple buffering) sind etwa 48MB für den Framebuffer.
Dann bleiben noch ca. 16MB für den Rest, aber mit Texturenkompression solle das locker reichen. Notfalls kann ich auch auf double buffering umschalten. Bei mehr als 1152*864 mit 4xAA kriegt bricht auch eine GF4 füllratenmäßig ganz schön ein.
Ich glaub ohne Voltage mod lässt sich die Ti4200 nicht besonders weit übertakten. Aber mit glaub ich schon, dass etwa 4600er Taktraten drin sein müssten.
Ich hoffe ja immer noch dass ati bald etwas vergleichbar schnelles rausbringt.
Quasar
2002-03-21, 16:31:32
Originally posted by Tomp
Bei mehr als 1152*864 mit 4xAA kriegt bricht auch eine GF4 füllratenmäßig ganz schön ein.
Nicht wirklich. Rechnerisch mag das stimmen, aber für MOHAA scheint's noch zu reichen.
Ich glaub ohne Voltage mod lässt sich die Ti4200 nicht besonders weit übertakten. Aber mit glaub ich schon, dass etwa 4600er Taktraten drin sein müssten.
Das wage ich stark zu bezweifeln. Allein der RAM der 4400 ist schon eine halbe ns langsamer, die 4200er wird nochmals lahmer sein.
Ich denke eher, im Schnitt kommt man vom Chip her auf 4400er Takt, und beim RAM hängts stark davon ab, welche Chips da verbaut werden.
->4600-Level: Keine Chance
Ich hoffe ja immer noch dass ati bald etwas vergleichbar schnelles rausbringt.
Hope is frail but hard to kill ;)
Originally posted by Tomp
1152*864*4(32bit pro Pixel)*4(4xAA)*3(triple buffering) sind etwa 48MB für den Framebuffer.
Die Rechnung stimmt nicht ganz. Korrekt wäre:
1152*864*4*11 (4x Backbuffer, 4x Z-Buffer, 1x Buffer zum Downfiltern, 2x "Front"buffer -> Triple Buffering) = 41,77 MiB
Diese Rechnung geht davon aus, dass 4xAA nicht im RAMDAC gefiltert wird.
Quasar
2002-03-21, 16:50:09
Wird's auch wohl nicht, da der Framebuffer schon das un-aliased'te Bild enthält.
Originally posted by Xmas
Die Rechnung stimmt nicht ganz. Korrekt wäre:
1152*864*4*11 (4x Backbuffer, 4x Z-Buffer, 1x Buffer zum Downfiltern, 2x "Front"buffer -> Triple Buffering) = 41,77 MiB
Diese Rechnung geht davon aus, dass 4xAA nicht im RAMDAC gefiltert wird.
Umso besser ;)
pervert
2002-03-21, 21:27:47
Originally posted by Kellwolf
Sage mal glaubst du selber was du da schreibst..... spätestens bei der G5 wird alles noch "schöner,besser,bunter" wetten......
Uninteressant. Ausschlaggebend sind die 3DEngines. Und die verändern sich nicht so großartig, wenn Sie erstmal fertig sind. Was zukünftig noch an tollen Features kommen wird, wird erstmal weniger von Bedeutung sein. Das Beispiel Q3 und Unreal zeigt es deutlich. Seit Fertigstellung dieser Engines hat sich kaum etwas weiterentwickelt. So wird es sich auch weiterhin verhalten. Ist leider auch verständlich. Die große Masse hat ja nicht einmal Karten, die diese neuen Möglichkeiten voll unterstützen. Außerdem frage ich mich, welche Funktionen zukünftig für eine derart große optische Revolution sorgen sollen, wie es bald durch massiven Einsatz von Pixel und Vertexshadern der Fall sein wird. Für mich ein wahrer Quantensprung in der 3D Spielegrafik.
Natürlich werden sich bessere Karten für manchen lohnen, aber nicht in dem Umfang, wie der aktuelle Schritt zu den Anforderungen von Doom3 und Unreal2.
Und Werbung machen für NVidia will ich hier auch nicht. Wenn ATI etwas vergleichbares in Preis und Leistung bieten kann, umso besser. Tatsache bleibt aber: Aufrüsten war schon lange nicht mehr so lohnenswert!
Ich rechne mit ca. 300 € für die Ti4200, dann 400 und 500 für die anderen beiden Modelle.
pervert,
ich möchte mir eine GeForce4 nicht (oder kaum) wegen den PixelShadern kaufen, sondern eher wegen der guten Roh-Leistung und dem effizienten Anti-Aliasing.
pervert
2002-03-21, 23:25:00
Dann schau dir mal X-Box spiele an und sage mir einfach mal was cooler aussieht, bzw. wichtiger ist. Ein angenehmer Nebeneffekt ist es allemal mehr Performance für FSAA und Co zu haben, aber endlich mal frische Grafik und Polygonpower zu sehen (und hier die richtige Performance zu haben) ist mir wesentlich wichtiger. Einige X-Box Demos haben mich total vom Hocker gerissen. Einfach Wahnsin der Detailgrad der Spielfiguren (und Texturen), sowie eine wahre Effektorgie! Es wird wohl noch sehr lange dauern, bis PC-Spiele überwiegend SO aussehen.
Wie kommst Du auf 300 Euro? Guck Dir doch mal die Listenpreise in $ für die Ti4600 und und prüfe was sie hier kosten. Verfügbar sind sie ja schon.
Mein Tipp: 250, 350, 475 - Tendenz schnell fallend (da Einführungspreis).
Matthias2x
2002-03-22, 02:43:37
ein Blick in die "nv4_disp.inf" des neuen 28.32 Detonators bringt abschließend Klarheit :D ->
NVidia.Nv25.4 = "NVIDIA GeForce4 Ti 4200"
fiffy
2002-03-22, 02:58:57
Originally posted by pervert
Uninteressant. Ausschlaggebend sind die 3DEngines. Und die verändern sich nicht so großartig, wenn Sie erstmal fertig sind. Was zukünftig noch an tollen Features kommen wird, wird erstmal weniger von Bedeutung sein. Das Beispiel Q3 und Unreal zeigt es deutlich. Seit Fertigstellung dieser Engines hat sich kaum etwas weiterentwickelt. So wird es sich auch weiterhin verhalten. Ist leider auch verständlich. Die große Masse hat ja nicht einmal Karten, die diese neuen Möglichkeiten voll unterstützen. Außerdem frage ich mich, welche Funktionen zukünftig für eine derart große optische Revolution sorgen sollen, wie es bald durch massiven Einsatz von Pixel und Vertexshadern der Fall sein wird. Für mich ein wahrer Quantensprung in der 3D Spielegrafik.
Natürlich werden sich bessere Karten für manchen lohnen, aber nicht in dem Umfang, wie der aktuelle Schritt zu den Anforderungen von Doom3 und Unreal2.
An dieser Argumentation ist wirklich was dran. Insofern wird sich der technische Standard von Unreal2/Doom3/Xbox noch eine ganze Weile halten und die GF4 wird noch sehr, sehr lange mit den meisten Spielen zurechtkommen.
harkpabst_meliantrop
2002-03-22, 03:01:40
Originally posted by Matthias2x
ein Blick in die "nv4_disp.inf" des neuen 28.32 Detonators bringt abschließend Klarheit :D ->
NVidia.Nv25.4 = "NVIDIA GeForce4 Ti 4200"
Es gab auch mal Matrox (Beta-) Treiber, in denen eine G800 auftauchte ...
Aber ich will ja nicht unken.
fiffy
2002-03-22, 03:06:07
doch, du willst unken. ;)
und im gegensatz zur G800 wurde der Ti4200 nun offiziell angekündigt.
harkpabst_meliantrop
2002-03-22, 11:40:17
Originally posted by fiffy
doch, du willst unken. ;)
Vielleicht ein bisschen...
und im gegensatz zur G800 wurde der Ti4200 nun offiziell angekündigt.
Na, das wissen wir ja mittlerweile. Ich wollte nur darauf hinweisen, dass das Studium der INF-Files nicht immer ein zuverlässiger Weg zur Vorhersage von Hardware-Neuheiten ist.
Quasar
2002-03-22, 11:43:57
IMHO wird sie auch 128MB in der Standardkonfig haben. Da für die 250MHz Takt 4ns RAM ausreicht, wird sich die Preisdifferenz nicht entscheidend auswirken, imho.
BTW:Originally posted by Quasar 03/17/02
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=14237
Nein, schon deutlich früher....
Wer weiß, vielleicht noch diesen Monat :)
Das wurde mir mittlerweile bestätigt.
Kellwolf
2002-03-22, 13:16:53
bedenke aber bitte das die X-Box die grafiken auf 768 x 512 (pal)
ausgibt....und da denke ich das die performance noch lange reicht,
wenn du x-box spiele auf 1024 x 768 oder höher aufbläßt wird auch dort
die performance auch zusammenbrechen, und wie man hierliest wollen ja alle auf auflösungen ab 1024 x 768 oder höher mit ani,4xaa und effekte auf highgamen, und das schaft auch die x-box net denke die nächste generation, von konsolen vieleicht, PC grafikkarten wohl sehr viel früher, warten wirs ab.
Kellwolf
pervert
2002-03-22, 21:43:31
Originally posted by Quasar
IMHO wird sie auch 128MB in der Standardkonfig haben. Da für die 250MHz Takt 4ns RAM ausreicht, wird sich die Preisdifferenz nicht entscheidend auswirken, imho.
Ich glaube nicht, das es nur 4ns sein werden. Bisher hatten alle neueren Karten große Spielraüme, was die Zugriffszeiten anging. Das wird erst recht für die "halbwegs massentgaugliche" Ti4200 gelten.
Quasar
2002-03-22, 21:49:03
Mag sein, mag aber auch nicht sein. Schließlich will man ja die TI4200 ins gleich Preissegment wie die R8500LE drücken, sprich möglichst um €200. Da muss ziemlich gespart werden.
pervert
2002-03-22, 21:55:11
Originally posted by Kellwolf
bedenke aber bitte das die X-Box die grafiken auf 768 x 512 (pal)
ausgibt....und da denke ich das die performance noch lange reicht,
wenn du x-box spiele auf 1024 x 768 oder höher aufbläßt wird auch dort
die performance auch zusammenbrechen, und wie man hierliest wollen ja alle auf auflösungen ab 1024 x 768 oder höher mit ani,4xaa und effekte auf highgamen, und das schaft auch die x-box net denke die nächste generation, von konsolen vieleicht, PC grafikkarten wohl sehr viel früher, warten wirs ab.
Kellwolf
Also meine bescheidene Meinung ist, dass 3D Games die die Hardware der X-Box ausreizen, einfach besser aussehen, als mit Spielereien "verschönerte PC Spiele". Die etwas niedrigere Auflösung ist am Fernseher sowieso ohne Bedeutung. Ich würde am Monitor jedenfalls 100x lieber Games mit der Technik von Doom3 oder Kreed in 640x480 spielen als RtCW und Co. mit 1600x1200 und zukunfts-FSAA. Wie ich schon erwähnte, bringen die aktuell eingeführten Technikfeatures einen so hohen optischen Gewinn wie nie zuvor - und bei der X-BOX nutzen Entwickler diese von vornherein auch, ganz im Gegensatz zum PC! Hier "ruled" eben das, was die Masse hat und das ist zur Zeit leider noch eine erbärmliche GF2 MX!!!
Schaut euch mal alles an, was es so an X-BOX Präsentationen gibt und Ihr werdet heulen bei dem Gedanken, dass PC-Spiele auf einer GF4 sogar noch BESSER aussehen könnten, wenn die Entwickler nur wollten/könnten! Auf www.giga.de gabs mal eine 40min Präsentation zum saugen, die auch in deren TV-Programm ausgestrahlt wurde. Mir hatte einiges vom dem Gezeigten jedenfalls ziemlich die Sprache verschlagen.
Umso mehr ärgere ich mich über Massenmarkt taugliche (zurück~) Entwicklungen wie die GF4 MX, die den PC Spielemarkt in Ihrer Entwicklung sicher weiter ausbremsen wird.
pervert
2002-03-22, 21:56:49
Originally posted by Quasar
Mag sein, mag aber auch nicht sein. Schließlich will man ja die TI4200 ins gleich Preissegment wie die R8500LE drücken, sprich möglichst um €200. Da muss ziemlich gespart werden.
Die Karte wird (min) 3.8ns haben. Ich wette mit jedem, der zuviel Geld hat :D
Quasar
2002-03-22, 21:58:48
Und ich wette mit jedem, der will, daß es vom Hersteller abhängen wird. :)
pervert
2002-03-22, 22:01:48
Originally posted by Quasar
Und ich wette mit jedem, der will, daß es vom Hersteller abhängen wird. :)
Das kommt hinzu. Aber welcher HErsteller will schon gerne als "overclockers nightmare" dastehen?
Quasar
2002-03-22, 23:53:34
ProLink z.B. schreckt davor offenbar nicht zurück, und liefert z.B. seine GF4MX440 Karten mit 5ns-RAM aus. Fast alle anderen verbauen 4ns.
pervert
2002-03-23, 00:01:39
Nun, wenn selbst im Lowcost Segment nun überwiegend höherwertige Speicher eingesetzt werden, bestätigt dies meine Vermutung ja sogar. Dann wird dies 2 Preisklassen höher erst recht so bzw. besser sein.
Naja und BILLIG-Anbieter wie Prolink beachte ich erst gar nicht. GÜNSTIGER als z. B. MSI waren die bisher auch nicht, diese wahren aber wenigstens eine gewisse Mindestqualität.
Quasar
2002-03-23, 00:12:44
Tja, pervert, das macht die Sache natürlich schwierig zu diskutieren, wenn du gewisse Dinge einfach ignorieren willst. Sorry.
pervert
2002-03-23, 00:19:15
Ich ignoriere gar nichts!
Was interessieren einen die Ausnahmen irgendwelcher Billigheimer, wenn 95% aller Hersteller vernünftige Speicher verbauen???
Das es IMMER schwarze Schafe gibt, die noch schlechteren Müll produzieren ist klar. Das hat die Vergangeheit nur zu oft gezeigt! Hier gehts aber um die Masse an Anbietern.
Quasar
2002-03-23, 00:21:34
Ja, das bestreitet ja auch keiner. Nur Schrott würde ich dieses Produkt nicht nennen. Es ist auf 200MHz Speichertakt spezifiziert und dafür reichen RAMs mit 5ns aus.
Die Hersteller mit 4ns waren Inno3D, Gainward und Leadtek. Sind das auch Billiganbieter/noNames oder fallen die schon unter die zu berücksichtigenden Vertreter ihrer Zunft?
pervert
2002-03-23, 00:34:50
Ich glaube nicht, dass wir dieses Thema weiter zerpflücken müssen. Leadtek und erst recht Gainward gehören wohl kaum zu den "Billigstanbietern". Dir fallen sicher selbst bessere Beispiele ein. Beide haben sich bei Übertaktern einen guten Ruf verschafft und werden kaum mit 4ns RAMs auf einer Ti4200 ankommen.
Quasar
2002-03-23, 00:37:52
Die genannten Hersteller waren Beispiele. Und die Basis des Beispiels lag bei den erwähnten MX-Karten.
Aber wir werden ja sehen, ob man sich mit "tollen" TI4200 wieder das Geschäft mit den 4400ern versauen wird.
BTW, setzt das Referenzdesign der TIs auf pBGA-RAM, das wird eh schon ein höherer Kostenfaktor sein, als normales Packaging.
pervert
2002-03-23, 00:55:32
Originally posted by Quasar
BTW, setzt das Referenzdesign der TIs auf pBGA-RAM, das wird eh schon ein höherer Kostenfaktor sein, als normales Packaging.
Das ist ein Argument. Aber ob die von mir genannten 3.8ns so viel teurer sein werden?
Warten wirs ab und führen diesen Thread im April fort, wenn die ersten Karten getestet wurden :-).
Und was das "Geschäft versauen" angeht: Mit 4ns wird man die minimal höheren Takte einer 4400 wohl genauso gut erreichen. Wie die jüngere Vergangenheit hier zeigte, sind entsprechende Spannungen wohl etwas wichtiger. Der größere Unterschied besteht außerdem beim Coretakt.
Quasar
2002-03-23, 01:14:41
Tja, uns bleibt wohl nichts anderes übrig. Und glaub mir, ich wäre der letzte, der etwas gegen gute OC-Eigenschaften hätte. :)
Was die mögliche Begrenzung durch veränderte Spannungen angeht, da hab ich schon schlimmere Dinge gehört, war aber alles nur Spekulation.
Ich weiß nicht wo das Problem liegt. Es werden Karten mit schnellerem und welche mit langsamerem Speicher rauskommen. Die mit dem langsamerem braucht man doch nicht zu kaufen wenn man vorhat zu übertakten. Beim Chip gibt es sowieso kaum Unterschiede. Die werden bloß durch eine niedrige Spannung künstlich langsam gehalten.
Wenn eine Ti4200 mit 3.6ns Speicher rauskommt, sollten mit voltage mod fast die Taktraten einer Ti4600 drin sein.
Tomp,
wie möchstest du bitte mit 3,6 ns RAM auf 325 MHz kommen? (Ok, das ist nicht unmöglich, aber bedeutet, große Latenz-Zeiten in Kauf nehmen zu müssen. MHz ist nicht alles, auch niedrige Latenzzeiten sind für die Performance wichtig.)
Originally posted by aths
Tomp,
wie möchstest du bitte mit 3,6 ns RAM auf 325 MHz kommen? (Ok, das ist nicht unmöglich, aber bedeutet, große Latenz-Zeiten in Kauf nehmen zu müssen. MHz ist nicht alles, auch niedrige Latenzzeiten sind für die Performance wichtig.)
Ich hab ja gesagt fast und nicht ganz so schnell. 300Mhz könnten schon drin sein glaub ich.
Piffan
2002-03-23, 19:00:31
Originally posted by pervert
Also meine bescheidene Meinung ist, dass 3D Games die die Hardware der X-Box ausreizen, einfach besser aussehen, als mit Spielereien "verschönerte PC Spiele". Die etwas niedrigere Auflösung ist am Fernseher sowieso ohne Bedeutung. Ich würde am Monitor jedenfalls 100x lieber Games mit der Technik von Doom3 oder Kreed in 640x480 spielen als RtCW und Co. mit 1600x1200 und zukunfts-FSAA.
Ja, jedem seine Meinung! Mir sagt die irre Flackerei von Kreed überhaupt nicht zu! Wie Doom mal wird, weiß doch wohl auch noch niemand der hier anwesenden.....
Meine bescheidene Meinung: Die derzeitige Grafik ist schon recht gut, sie muß nicht nennenswert durch ausgeflippte Effekte aufgeblasen werden. Wenn die vorhandene Technik ordentlich ausgereizt wird und den Spieleentwicklern nicht die Ideen ausgehen, dann gibts noch prima Spiele.
Was ich aber nie wieder möchte: Pixelbrei erleben oder Wabern von Texturen sehen. Ich halte die Bildverbesserungen für sehr wichtig, darum sind es für mich nicht "Spielereien", wenn man Aufwand in die Bildqualität steckt....Auch ein altes Spiel macht mehr Spaß bei augenschonender Optik! Spiele immer wieder gerne Jedi, zur Zeit habe ich auch Tomb 3 am Wickel.....Man muß mal so ein Spiel mit und ohne hoher Auflösung plus Aniso plus AA sehen.....
Soll aber nicht heißen, daß ich bestimmte Effekte nicht mag: So ist funktionierendes Bumpmapping sicher eine echte Bereicherung, realistische Beleuchtung trägt auch gewaltig zur Atmosphäre bei... Alles, wo es hingehört und paßt. Aber wenn es am Ende auf pure Effekthascherei hinausläuft (Kreed), dann kommt ganz schnell Langeweile auf....Oder Giants: Meiner Meinung nach sieht die gefurchte Haut von Kabuto nicht so sonderlich klasse aus, vom Terrain- Bumpmapping rede ich gar nicht..Wenn dann mal endlich neue Technik in ein Spiel fließt, dann wirkt es oft bemüht oder überstrapaziert...
pervert
2002-03-23, 21:45:47
Mir gehts hier mehr um den extrem hohen Polygoncount durch Vertexshader, der unter Anderem endlich realistische Modelle möglich macht. Genauso wichtig ist mir ebenfalls die Möglichkeit durch den Pixelshader Fotorealiste Ausleutung zu erzeugen, was einfach für "Realismus pur" sorgt. Das sieht man bei den Shots von Kreed und Doom3 schon ganz gut. Sicher kann man das sicher noch "realistischer" bzw besser aussehen lassen.
Natürlich mag ich auch keinen Pixelbrei. Gehen wir einfach mal davon aus, FSAA wäre normal und würde die Performance nicht beeinflussen etc. Was ist dir dann lieber: eine 640er oder 800er Grafik in Fotorealistischer Renderqualität oder ein "häßlich unnatürliches" Spiel in 1600x1200, das mit einigen Spielerein noch ein wenig aufgmotzt wurde? Jeder der schon einige gute X-BOX Demos gesehen hat, kan nmir nur zustimmen (kommt natürlich auch ein wenig auf den Spieltyp an!).
Aber Vorlieben hin oder her, wir befinden uns mit Doom3 und Co. ja auf einem guten Weg dorthin und müssen uns nicht mehr allzulange mit der erbärmlichen Grafik aktueller Spiele abgeben.
Kellwolf
2002-03-24, 13:56:01
So eigentlich sprichst du mir aus der seele, mir währenGames auch lieber die auf 800 x 600mit einen guten bild und den jetzt möglichen
garfileffekten lieber als dieses ständige " Neue Graka (egal ob ATI oder Nvidia oder sonst wer) mit noch mehr Funktionen die kein Gameprogrammer benutz oder noch nicht, sondern mal entlich ein game das vorhandene Technik nutz und ausreitzt, würde ich sofort in einer niedrigeren Auflösung spielen und mich an der grafikpracht ergötzen,
aber seit geraumer Zeit kommen super Techdemos heraus und die games, pustekuchen also das vorzeigegame Aquanox rennt genau so gut auf meinem drittrechner mit G2 pro wie auf meiner G3 die ich mir (so eigentlich wegen besserer Spielegrafik) gekauft habe.Ich werde erst meine Graka wieder wechseln wenn die Spieleprogrammierer mir gezeigt haben wofür ich eine G4 brauche ( bitte jetzt nichtwieder mit dem Spruch kommen ich spiele auf einem 19 oder 21 zöller habe ich auch) und das einzige was ich jetzt mit der rechenpower mache ist uralt games in höherer Auflösung zocken obwohl mir besssere oder auch realistische Grafik in z.B 800 x 600 lieber währen als ein Doom3 in 1600x 1200 mit X fach AA und wiss gott und die Hersteller allein was noch kommt.
MFG
Kellwolf
Quasar
2002-03-24, 13:57:46
Dazu sag ich nur: Henne-Ei-Problem!
pervert
2002-03-24, 23:41:20
Ein gutes Beispiel was eigentlich mit einer aktuellen Karte, sogar einer GF2 möglich ist, ist der Nature Bench im 3DMark 2001.
Als ich den das erste mal sah, fielen mir fast die Augen aus. Kein PC-Game bietet auch nur annähernd eine solche Grafik.
pervert,
ich sehe zwischen realistischen Modellen und VertexShadern jetzt keinen vernünftigen Zusammenhang.
ShiShingu
2002-03-28, 17:00:25
Ich bin eher für ne Radeon 7500 Retail...
Doomtrain
2002-03-28, 18:46:30
Originally posted by ShiShingu
Ich bin eher für ne Radeon 7500 Retail...
Arg.
pervert
2002-03-29, 22:41:00
Originally posted by aths
pervert,
ich sehe zwischen realistischen Modellen und VertexShadern jetzt keinen vernünftigen Zusammenhang.
Ach ja? Habe ich hier irgendwas falsch verstanden?
Die Vertex-Einheit ist doch für die Polygonleistung verantwortlich, nicht war? Und was macht eine GF4 mit zweien dieser Einheiten am besten?
Polygonstarke Modelle ermöglichen = Realistischere Spiefiguren/Landschaften, anstelle von Games im coolen Quake1 "Dreieckslook" :D
Ehrlich gesagt, versteh ich deine Frage nicht :)
Quasar
2002-03-29, 23:10:30
Was aths in seiner kryptischen Art sagen wollte, ist, daß VertexShader nur Operationen an schon vorhandenen Vertices vornehmen, die aber von irgendwoher kommen müssen. Selbstständig den Polygoncount erhöhen, wie es n- oder RT-Patches (oder andere HOS) tun, können sie nicht. Die Initialberechnung bleibt daher bei der CPU, nur die Animation mittels Keyframe Interpolation, Vertex Blending etc. kann vom Vertex-Shader übernommen werden.
pervert
2002-03-30, 00:04:14
Was bleibt ist ja wohl dennoch eine höhere Framerate, bei Polygonstarken Szenen, oder nicht?
Sieht man doch im 3DMark!
Quasar
2002-03-30, 00:11:21
Ja, aber hier beginnt schon die CPU zu bremsen, gut zu sehen am Car HQ-Test. Was nützen einer Karte noch soviele Vertexshader, wenn die CPU nicht genügend Daten zum "shaden" liefern kann?
pervert
2002-03-30, 00:14:37
Also ohne eine starke CPU dennoch keine hohen Polygoncounts? Das kann ich irgendwie nicht glauben.
Wie schafft dann die X-BOX diese hyperrealisten 3D-Figuren in manchen Games???
Quasar
2002-03-30, 00:20:50
Extreme SSE-Optimierungen?
GloomY
2002-03-30, 02:03:12
Ist zwar etwas OT, aber trotzdem:
Originally posted by aths
Tomp,
wie möchstest du bitte mit 3,6 ns RAM auf 325 MHz kommen? (Ok, das ist nicht unmöglich, aber bedeutet, große Latenz-Zeiten in Kauf nehmen zu müssen. MHz ist nicht alles, auch niedrige Latenzzeiten sind für die Performance wichtig.) Bei Graka-RAM ist vor allem der Durchsatz entscheidend. Dort werden oftmals sehr viele Pixel nacheinander (z.B. wenn sie in der gleichen Zeile sind) gelesen bzw. geschrieben. Wenn einmal adressiert wurde, können daher die folgenden Bytes in einem Burst geschrieben werden.
Die Latenzzeiten sind eher unwichtig, wenn man dafür einen höheren Takt erreichen kann.
Beim Hauptspeicher sieht die Sache ganz anders aus: Dort werden oftmals nur einzelne 32-Bit Werte einer Variablen geschrieben/gelesen. Danach muss oftmals wieder komplett neu adressiert werden (mit allen zugehörigen Latenzen), um eine andere Variable zu bearbeiten, die aber ganz woanders im Speicher liegt.
Daher ist dort der Gewinn durch einen höheren Durchsatz eher gering. Niedrigere Latenzzeiten machen aber schon einiges aus, da viel häufiger die Speicheradressen verändert werden.
Quasar
2002-03-30, 09:22:42
Und wie erklärst du dann den extremen Performancegewinn durch den vierfachen 32Bit-Speicherkontroller bei der GF3/GF4TI, selbst wenn man Z-Kompression und Z-OccC abschaltet?
Quasar scheint mich zu verstehen :)) (Bezogen auf den VertexShader)
pervert, Transformation ist das Ende der Geometrie-Pipeline, ein gutes Stück bleibt weiterhin CPU-Arbeit. Ohne starke CPU kannst du Hochpolygonmodelle knicken. Bei realistische Figuren lassen sich häufig etliche Polygone einsparen, wenn man entsprechende Bump Maps nutzt.
GloomY, es passiert recht selten, dass eine CPU ein einzelnes Datenwort direkt aus dem RAM holen muss, der Löwenanteil geht über den Cache.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.