Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 5 Karte
Golden Hind
2002-09-30, 21:14:49
Am Mitwoch in neuen PC Games Ausgabe:
Erste Fakten zur GeForce5-Grafikkarten-Generation
PC Games : http://www.pcgames.de/?menu=0400
Komplett: http://www.pcgames.de/?menu=0401&show=index
Hatstick
2002-09-30, 21:24:35
gibt es ja noch nicht viel zu vermuten.mal schauen ob pcgames was neues bringt.
aber das wird meine auf jeden fall meine sein.
beutzt die gf5 jetzt schon den ddr-2 speicher oder erst als option für später?
Golden Hind
2002-09-30, 21:51:53
Ich habe gehört, dass NVidia so etwas wie 8X mal statt 4X mal Agp plannt. Ich bin kein Spezialist, aber so was habe ich gehört.
Hatstick
2002-09-30, 21:59:57
das führen sie ja schon mit der gf4 ein.
mich würde mal die unterstützung des dd-ram2 speichers interessieren.
weiss da jemand was genaueres?
Liquaron
2002-09-30, 22:05:58
ich glaube sie soll ddr-ram2 unterstützen habe ich zumindest irgendwo noch gelesen. Und sie soll beim Antialiasing kaum performance verlieren.
Aber jetzt mal ehrlich. Nvidia schmeißt jetzt hier einen haufen von Spekulationen auf den Markt damit sich keiner die Radeon 9700 pro holt und sie dann lieber auf ne Gef5 warten. Ob diese Features dann auch umgesetzt werden ist etwas anderes. Das ist schon fast wie in der Politik. Übrigens haste dir mal gedanken gemacht wieviel die Geforce5 kosten wir wenn sie ddr2 hat und so? also ich werde sie mir auf keinen fall holen. VIEEEEEL zu teuer wird sie am anfang sein.
Hatstick
2002-09-30, 22:20:27
aber nvidia klotzt und kleckert nicht.
sie hat eine von grund auf neue struktur und ist zudem in 0,13m gefertigt so das in verbindung mit dd-ram2 speicher neue taktungsrekorde aufgestellt werden.
und ich denke der fortschritt wird grösser sein als der zwischen der gf3 und gf4ti.
gruss!
Originally posted by hatstick
und ich denke der fortschritt wird grösser sein als der zwischen der gf3 und gf4ti.
Aber Hallo. Wenn das nicht so ist, kaufe ich mir auch keine - darauf können die wetten. Habe extra die 4 ausgelassen weil mir der Unterschied einfach zu gering ist ... und dann nochmal 400 € auf den Tisch legen -> net mit mir ;)
Unreal Soldier
2002-10-01, 00:34:22
Hey leute soviel ich weiß wird NVidia den geforce-markennamen ab dem NV30 sterben lassen und mit etwas neuem im Markt werben. falls ich Unrecht hab bitte kommentieren und korrigieren.
MFG
Unreal Soldier
Salvee
2002-10-01, 00:55:05
IMO wäre das 'Aussterben' des Namen Geforce keine gute Idee.
Dann und wann jobbe ich in einem PC-Laden, und selbst der älteste Opa, der da reinmarschiert (nichts gegen alte Leute, ihr wisst hoffentlich wie ich das meine ;)), stammelt irgend etwas von 'Ich suche 'nen PC mit einer Geforce'. Der Name ist fast so bekannt wie 'Pentium', ganz im Gegensatz zu nVidia aka nvidea aka nvida aka vidia aka...etc.
Aber let's wait and see.
Immer die PC Games und die Benamung. Ich erinnere mich noch an das Spiel "C&C4" - was es nie gab. RA2 wurde nie offiziell als C&C4 verkauft, nicht mal für den deutschen Markt. Dass der NV30 wieder GeForce genannt werden wird, sieht nicht so aus. Aber Hauptsache erst mal schreiben. Typisch PCG.
Tarkin
2002-10-01, 14:44:34
Originally posted by aths
Immer die PC Games und die Benamung. Ich erinnere mich noch an das Spiel "C&C4" - was es nie gab. RA2 wurde nie offiziell als C&C4 verkauft, nicht mal für den deutschen Markt. Dass der NV30 wieder GeForce genannt werden wird, sieht nicht so aus. Aber Hauptsache erst mal schreiben. Typisch PCG.
rate mal was im Gamestar 11/2003 steht ...
;D ist doch eh immer das Gleiche. Solche Dumm-Dödel.
IMO kann man diese Zeitschriften allesamt ins KLO spülen! (Gamestar, PCGH, PCG, etc...)
Immer gehts "Athlon hin, Geforce her, blah, blah, ... Windows XP streng geheim , blah, blah, Counter Strike blah, blah, ... Waküs blahblahblah, ..."
zum :pukeface:
Pussycat
2002-10-01, 15:13:17
Aber die PCGH hat wenigstens 'streng geheime' infos zur 9700. Dafür hat PCG natürlich 'streng geheime' Infos zu den Warcraft III-Einheiten
BlackBirdSR
2002-10-01, 15:30:24
die PCGH hat streng geheime Infos zur R300?
hmm ich erinnere mich nur dass sie immer betont haben dass die NV30 bald kommt, und momentan nicht mehr sagen dürfen (können :D)
Aber von der R300 hat man von der PCGH nichts streng geheimes gehört, das nicht jede andere billige Hardware Zeitschrift auch wusste nach der offiziellen Vorstellung durch ATI.
die könnten eigentlich den CPU Teil runterschrauben auf das minimal erträgliche. Das hat noch keine Zeitschrift richtig hinbekommen,was auch verständlich ist, bei der Tiefe an Informationen.
Pussycat
2002-10-01, 16:06:45
Nö, das schreiben die nicht weil es so ist. Warscheinlicht stand im Test nur das AA schnell ist, das teil 8 pipes hat etc.
Lost Prophet
2002-10-02, 17:19:57
Hey leute soviel ich weiß wird NVidia den geforce-markennamen ab dem NV30 sterben lassen und mit etwas neuem im Markt werben. falls ich Unrecht hab bitte kommentieren und korrigieren.
Was ich hörte
soll sie
OMEN heißen
Aber GeForce soll trotzdem irgenwo im Hintergrund weiterlaufen
gruß
Axel
Wird bestimmt "Geilforce" heissen ;D
[dzp]Viper
2002-10-03, 01:39:40
oder sie entscheiden sich doch für gayforce ;D
Dautzen
2002-10-04, 00:55:24
GeForce Omen... klingt scheisse!
Omen GeForce... klingt auch scheisse!
Omann GayForce klingt geil :-)
Boris
2002-10-04, 14:08:35
der name "Dreamforce" ist auch mal gefallen...
Gohan
2002-10-04, 14:22:07
"Dreamforce" ? Klingt für mich mehr nach... aufjedenfall nicht nach einer Grafikkarte...
Exxtreme
2002-10-04, 14:24:00
Also ich habe in einem anderen Thread "CineForce" vorgeschlagen.
;)
Gruß
Alex
StefanV
2002-10-04, 14:38:57
Originally posted by Boris
der name "Dreamforce" ist auch mal gefallen... naja, da könnte NV eventuell Problem von SEGA (Dreamcast) bekommen...
Pussycat
2002-10-04, 19:11:17
Originally posted by Purple_Stain
Was ich hörte
soll sie
OMEN heißen
Aber das stand nicht zufällig in den specs mit 'NVblur', 'a hole in the middle of the GPU' und '1400 MHz'?
Unglaublich, wie lange die specs geglaubt wurden. Vor allem, als das Loch und NVblur beim kopieren immer mehr verschwunden.
Unregistered
2002-10-05, 20:07:34
In der neuen PC-Welt gibt es ein paar interessante Neuigkeiten über die Karte: Sie wird im November vorgestellt, erste Karten könnten bereits im Dezember erscheinen.
Besonders wichtig: Die NV30 wird zukunftssicher sein.
Demirug
2002-10-05, 20:15:33
Originally posted by Unregistered
Besonders wichtig: Die NV30 wird zukunftssicher sein.
Nichts für ungut. Aber im PC Bereich ist nichts wirklich "zukunftssicher". Ich teile die Meinung von vielen hier das die Karte für die ersten echten DX9 Spiele wohl zu langsam sein wird.
Quasar
2002-10-05, 21:51:40
Vielleicht hat "sie" ja Pixel- und Vertexshader 3.0 samt allen anderen Anforderungen von DX9 und 10. :D
Das Ganze dann als PCI-only Ausführung und per Multi-Board-Interface koppelbar und schon kann man 6 "davon" in Reihe schalten....
Das wäre verhältnismäßig zukunftssicher, aber sonst...
:lol:
Dunkeltier
2002-10-06, 21:22:44
Originally posted by Demirug
Nichts für ungut. Aber im PC Bereich ist nichts wirklich "zukunftssicher". Ich teile die Meinung von vielen hier das die Karte für die ersten echten DX9 Spiele wohl zu langsam sein wird.
Aber warum? Mit der Geforce 3 (dem Original!) kann man heutzutage locker alle DX8 Games spielen (Aquanox, Comanche, etc.). Also werden R300 und NV30 trotz dessen das sie vor DX9 da sind wohl kaum zu langsam sein.
Iceman346
2002-10-06, 22:36:00
Originally posted by Dunkeltier
Aber warum? Mit der Geforce 3 (dem Original!) kann man heutzutage locker alle DX8 Games spielen (Aquanox, Commanche, etc.). Also werden R300 und NV30 trotz dessen das sie vor DX9 da sind wohl kaum zu langsam sein.
Es gibt noch keine wirklich auf DX8 optimierten Spiele, alle bisher sind DX7 Spiele mit einigen wenigen DX8 optimierten Effekten. Das erste Spiel das DX8 ordentlich ausnutzt wird wohl Doom 3 sein und ob da die GF3 noch reichen wird wird man sehen.
Lost Prophet
2002-10-07, 18:23:23
Originally posted by Pussycat
Aber das stand nicht zufällig in den specs mit 'NVblur', 'a hole in the middle of the GPU' und '1400 MHz'?
Unglaublich, wie lange die specs geglaubt wurden. Vor allem, als das Loch und NVblur beim kopieren immer mehr verschwunden.
schon möglich das das da stand
ich habs mal im forum (gut zugegeben, schon ein paar wochen her) aufgeschnappt
hab mich dann nicht weiter damit beschäftigt
dh "falsch" (wenn das überhaupt irgenwer sagen kann)
cya
axel
Unregistered
2002-10-07, 20:26:02
Originally posted by Iceman346
Es gibt noch keine wirklich auf DX8 optimierten Spiele, alle bisher sind DX7 Spiele mit einigen wenigen DX8 optimierten Effekten. Das erste Spiel das DX8 ordentlich ausnutzt wird wohl Doom 3 sein und ob da die GF3 noch reichen wird wird man sehen.
ich dachte Doom 3 wird ein opengl-Spiel?
und das wird auch noch auf uralt-Karten laufen, wenn auch nicht flüssig....
Iceman346
2002-10-07, 21:20:15
Originally posted by Unregistered
ich dachte Doom 3 wird ein opengl-Spiel?
und das wird auch noch auf uralt-Karten laufen, wenn auch nicht flüssig....
Ja sicher ists ein Open GL Spiel aber es ist das erste das Shader richtig ausnutzt. Alles vorher waren doch nur einzelne Effekte.
Unregistered
2002-10-09, 10:45:55
Ich denke da wird zuerst unreal 2 rauskommen welches auch ordenltich ps benutzt.
Ausserdem wird der nv30 den r300 nicht schlagen. Alelrdings wird es eine multichiplösung mit 2 chips geben.
Sehet und werdet staunen *gg
Dunkeltier
2002-10-09, 13:53:54
Originally posted by Unregistered
Ich denke da wird zuerst unreal 2 rauskommen welches auch ordenltich ps benutzt.
Ausserdem wird der nv30 den r300 nicht schlagen. Alelrdings wird es eine multichiplösung mit 2 chips geben.
Sehet und werdet staunen *gg
Bist du Hellseher? Haste 'ne Glaskugel? Warum sollte NVidia zu einen wesentlich teureren 2 Chipboard greifen, statt eine GPU mit fetter Anbindung zu nehmen (256 Bit RAM Interface)? Denn: 2 GPU's + Board mit entsprechenden Layout + extra Stromversorgung = teuer
Unregistered
2002-10-09, 18:27:59
warts ab
zudem haben sie nur kein 256 bit spiecherinterface ;) drum brauchen sie eine multichip lösung um die perfomance krone zurückzuerobern :)
Dunkeltier
2002-10-09, 21:44:40
Multichip ist absolut unwahrscheinlich, zu teuer, zu aufwendig, zu...was weiß ich. Auf jeden Fall wird sich in der heutigen Zeit kein Hersteller mehr auf sowas einlassen.
Zudem wird der bald erscheinende NV30 direkt von dem R350 geplättet, ATI wartet ja nur noch auf die Vorstellung 'ihrer' neuen GPU.
MeLLe
2002-10-09, 22:09:00
Ausschliessen würde ich Multichip aber bei all den Verspätungen und angeblichen Problemen, die nV mit dem NV30 hat, nicht.
Grundsätzlichsind ja alle nV-Chips seit dem NV15 (?) multichip-fähig...
egdusp
2002-10-10, 00:20:53
Originally posted by Dunkeltier
Zudem wird der bald erscheinende NV30 direkt von dem R350 geplättet, ATI wartet ja nur noch auf die Vorstellung 'ihrer' neuen GPU.
Aus dir sollte ein zweiter Nostredamus werden. Während die Gerüchte zum NV30 zurzeit hochspekulativ sind, existieren solche Gerüchte für den R350 praktisch überhaupt nicht. Wenn man mal davon absieht, dass sich die .13 gegen .15 und DX 9 gegen DX 9.1 Gerüchte ungefähr die Waage halten.
Dass ATI auf den NV30 wartet ist sehr wahrscheinlich.
Aber nur um entsprechende Marketing und Vertriebsmaßnahmen zu Ergreifen, und nicht um einen längst enwickelten neuen Chip zu launchen.
Man sieht ja bereits wie langwierig es ist, das Radeon 9700 Design auf Radeon 9500 Pro zu stutzen, obwohl "nur" das RAM Interface halbiert werden muss. Und dass ATI den Radeon 9500 verzögert um nVidia mit ihren GF4 Ti 4200 alleine das Mittelsegment zu überlassen, kann ausgeschlossen werden.
Oh man, ich muss gerade einen Flug nach Puerto Rico buchen, meine Glaskugel meldet mir da eine UFO Landung .:O
mfg
egdusp
Dunkeltier
2002-10-10, 00:51:35
Originally posted by egdusp
Aus dir sollte ein zweiter Nostredamus werden. Während die Gerüchte zum NV30 zurzeit hochspekulativ sind, existieren solche Gerüchte für den R350 praktisch überhaupt nicht. Wenn man mal davon absieht, dass sich die .13 gegen .15 und DX 9 gegen DX 9.1 Gerüchte ungefähr die Waage halten.
Dass ATI auf den NV30 wartet ist sehr wahrscheinlich.
Aber nur um entsprechende Marketing und Vertriebsmaßnahmen zu Ergreifen, und nicht um einen längst enwickelten neuen Chip zu launchen.
Man sieht ja bereits wie langwierig es ist, das Radeon 9700 Design auf Radeon 9500 Pro zu stutzen, obwohl "nur" das RAM Interface halbiert werden muss. Und dass ATI den Radeon 9500 verzögert um nVidia mit ihren GF4 Ti 4200 alleine das Mittelsegment zu überlassen, kann ausgeschlossen werden.
Oh man, ich muss gerade einen Flug nach Puerto Rico buchen, meine Glaskugel meldet mir da eine UFO Landung .:O
mfg
egdusp
Du glaubst doch nicht ernsthaft, das ATI
die Schmach auf sich sitzen läßt (die Performancekrone und damit Prestige zu verlieren)
weiter die Radeon 9700 mit den teuren und aufwendigen 0,15µm Verfahren fertigt
den Markt der wenigen Top-Gameperfomance Karten komplett NVidia überläßt...
Quasar
2002-10-10, 01:30:31
Angesichts des bisherigen Marktauftrittes von ATi kann ich mir das durchaus vorstellen. Evtl. kommt im Frühjahr ein geshrinkter R300, der vielleicht auch höher getaktet sein wird, aber einen Re-Launch wird's, wie bisher, wohl eher im Sommer geben.
egdusp
2002-10-10, 13:02:40
Originally posted by Dunkeltier
Du glaubst doch nicht ernsthaft, das ATI
die Schmach auf sich sitzen läßt (die Performancekrone und damit Prestige zu verlieren)
weiter die Radeon 9700 mit den teuren und aufwendigen 0,15µm Verfahren fertigt
den Markt der wenigen Top-Gameperfomance Karten komplett NVidia überläßt...
Das hat nichts mit Wollen sondern eher mit Könen zu tun. Ich bezweifle das ATI in der Lage ist ihren .13 Prozess so schnell zu perfektionieren, dass sie zeitgleich mit NV in .13 produzieren können.
Bei NV sitzen bestimmt nicht die unfähigeren Ingenieure. Diese arbeiten seit Monaten daran, während ATI momentan noch immer nit dem Radeon 9x00 Design beschäftigt ist.
ATI wird keinen .13 Chip zeitgleich oder kurze Zeit später als NV rausbringen können.
NV macht dass, was Intel mit dem P4 gemacht hat. Um jeden Preis auf Zukunft setzten. Dadurch ergeben sich kurzfristig Nachteile, die sich aber langfristig wieder auszahlen.
Natürlich wird der NV Vorsprung nicht so riesig werden, da beide auf TSMC angewiesen sind, aber andererseits ist ein kleiner Zeitvorsprung im GraKa Sektor viel bedeutender als im CPU Sektor. Da kürzere Entwicklungszyklen.
mfg
egdusp
AlfredENeumann
2002-10-10, 13:23:02
Originally posted by egdusp
Das hat nichts mit Wollen sondern eher mit Könen zu tun. Ich bezweifle das ATI in der Lage ist ihren .13 Prozess so schnell zu perfektionieren, dass sie zeitgleich mit NV in .13 produzieren können.
Bei NV sitzen bestimmt nicht die unfähigeren Ingenieure. Diese arbeiten seit Monaten daran, während ATI momentan noch immer nit dem Radeon 9x00 Design beschäftigt ist.
ATI wird keinen .13 Chip zeitgleich oder kurze Zeit später als NV rausbringen können.
Wer sagt denn, daß ATI in der Zwischenzeit nicht heimlich an einer 0.13 Version arbeitet ?
Nur weil du davon nix hörst das ATI sowas macht, mnuß es nicht heißen das die unfähig sind. Schließlich haben die mal locker ein 110mio Transistorenmonster in 0.15 auf den Tisch gelegt. Das soll denen mal einer nachmachen !!!!
egdusp
2002-10-10, 13:46:10
AFAIK arbeitet ATI mit 2 Designteams. Das ex ArtX Team hat den Radeon 9700 fertiggestellt und wird jetzt an den Radeon 9500 Designs sitzen, denn diese sind für ATI enorm wichtig, um mit GF4 Ti 4200 konkurieren zu können. Das 2. Designteam hat den Radeon 9000 im Juni oder so fertiggestellt und wird sich nun wahrscheinlich mit einem komplett neuen Design beschäftigen.
Das Problem mit dem .13 Prozess ist nicht alleine vom Chipfertiger (also TSMC) lösbar, sondern muss auch schon beim Design des Chips berücksichtigt werden (Stichwort: Signallaufzeiten und Interferrenzen).
Dieses Wissen hat ATI noch nicht und wird es auch nicht, wenn man sich die Vorlaufzeiten von AMD, Intel und jetzt NV betrachtet, so schnell sich zulegen können.
mfg
egdusp
RyoHazuki
2002-10-13, 23:39:23
dieser unregistred spricht mir irgendwie von der Seele!!!
1. Nvidia hat bei einem Interview betont, dass sie aufjedenfall ein 128bit speicherinterface benutzen werden!
2. dezember 2000 wurde 3dfx gekauft, ergo S-L-I !!!
3. irgendwann mitte 2001 wurde im ganzem web berichtet, dass nvidia erstmals 3dfx technik im !!! NV30 !!! einsetzen wird!!
4. meiner meinung nach, wirde der NV30 single chip mit dem Radeon9700Pro gleichziehen ! Begründung :
siehe GF4TI 4600, wenn man dieser karte nen Chiptakt von 400 MHZ verpasst, einen speichertakt von 900 MHZ, würde die karte in der REINPERFORMANCE (sprich: kein AA, kein AF) gleichziehen, wenn nicht sogar etwas schneller!!! Siehe doch mal den geringen abstand zwischen GF4 TI und Radeon9700 unter SPIELEN und nicht 3Dmark !
NV30 single chip wird wohl nicht langsamer sein als eine GF4 TI ! sowas wäre markttechnisch ziemlich dumm! 800 MHZ speichertakt und CBMC 3 werden dass möglich machen, dass die karte gleichzieht!
der NV30 Multichip, wird evtl. langsamer getakt werden als der single chip! begründung: 800 MHZ speicher zu hohe kosten! der chip evtl. auch um ein spätriges Refresh der multilösung vorzustellen! sobald die fertigungstechnik verbessert ist (siehe GF2 ULTRA ) ! Diese wird dann wohl mit höchstmöglichen taktraten + dualchiplösung gegen den R350 antreten!
das meiner meinung mach die einzig richtig sinnvolle lösung! da Nvidia nciht auf den R300 gefasst war! ich meins ernst, nicht gefasst!!!!
Exxtreme
2002-10-13, 23:49:05
@ RyoHazuki
Also an Multichip glaube ich nicht. Es macht nämlich die GraKa sehr teuer und man verliert die meisten AGP-Fähigkeiten. Beim Problem #2 kann man sich mit einer AGP-Bridge behelfen so wie es ATi tut nur ich glaube nicht, daß NV eine funktionierende AGP-Bridge hat.
Ausserdem soll SLI nicht so günstig bei Pixelshadern sein.
Und die Rohperformance ist heutzutage sowieso weniger interessant. Wichtiger ist die Performance bei Features wie AF und AA. Der Parhelia hat auch eine relativ geringe Rohperformance, verliert beim AA aber sehr wenig Leistung und kann sich so ggü. einer GF4Ti4600 meist knapp behaupten.
Solange nichts über den NV30 bekannt ist, kann man nur darüber spekulieren.
Gruß
Alex
RyoHazuki
2002-10-14, 00:01:52
OK ! könnte sein! Mal schauen...
zur Matrox Parhelia, falls du eine hast, übertakte sie mal !!!
Dieser chip ist ein meisterwerk ! Grund :
Er setzt höhere chiptaktraten in PURE LEISTUNG um ! das kann man bei keiner anderen karte behaupten!
ich würde so gerne eine Parhelia mit 400 MHZ chiptakt sehen! diese würde echt die radeon einstampfen! ich mein es ernst! dazu noch nen MEM takt von 800 MHZ ! glaube mir diese performance ist zwar nicht viel schneller als R9700 aber, mit FAA 16x, AF so hoch wie es geht, 1600x1200x32 rollt die karte alles um! es hört sich verrückt an aber dieses chipdesign, ist perfekt balanciert! leider noch im anfangsstadium! zurückzuführen auf die niedrigen taktraten!
Demirug
2002-10-14, 00:01:58
Exxtreme,
laut der Gerüchteküche haben die NV Jungs schon seit der Ur-Geforce einen AGP-Bridge im Chipdesign. Da sie aber bisher wohl noch nie benutzt wurde kann man sich da aber nicht so sicher sein.
SLI ist seit das T&L auf dem Chip gemacht wird (DX7) nicht mehr zu gebrauchen. Multichip geht natürlich schon noch aber dafür muss was besseres als SLI her.
Eine gewiesse Rohleistung ist aber schon wichtig. Denn wenn diese schon zu niedrig ist hast du auch nichst mehr davon wenn sie beim AA/AF kaum einbricht.
RyoHazuki,
ich glaube nicht das NV wirklich überrascht vom R300 war. Die beiden belauern sich doch ständig so das man wohl sehr gut abschätzen kann was der andere macht.
RyoHazuki
2002-10-14, 00:04:22
hmm gleichzeitig gepostet!
lies oben!
Exxtreme
2002-10-14, 00:09:06
Originally posted by RyoHazuki
OK ! könnte sein! Mal schauen...
zur Matrox Parhelia, falls du eine hast, übertakte sie mal !!!
Dieser chip ist ein meisterwerk ! Grund :
Er setzt höhere chiptaktraten in PURE LEISTUNG um ! das kann man bei keiner anderen karte behaupten!
Kein Wunder. Das Teil hat nur 4 Renderpipes und ein 256 Bit RAM-Interface. Also sehr viel überschüssige, aber leider nicht genutzte Bandbreite.
Originally posted by RyoHazuki
ich würde so gerne eine Parhelia mit 400 MHZ chiptakt sehen! diese würde echt die radeon einstampfen! ich mein es ernst! dazu noch nen MEM takt von 800 MHZ ! glaube mir diese performance ist zwar nicht viel schneller als R9700 aber, mit FAA 16x, AF so hoch wie es geht, 1600x1200x32 rollt die karte alles um! es hört sich verrückt an aber dieses chipdesign, ist perfekt balanciert! leider noch im anfangsstadium! zurückzuführen auf die niedrigen taktraten!
Ich glaube nicht, daß ein 400 Mhz Parhelia der R9700 gefährlich werden kann. Dazu fehlt ihm die Füllrate, bedingt durch die 4 Renderpipes. Ausserdem besitzt die R300 sehr viel mehr Optimierungen ála Framebuffer-Kompression, CBMC, HSR usw.
Gruß
Alex
Originally posted by RyoHazuki
Er setzt höhere chiptaktraten in PURE LEISTUNG um ! das kann man bei keiner anderen karte behaupten!
Das tun ALLE Kartem die staendig am Fillrate-Limit laufen.
RyoHazuki
2002-10-15, 16:54:15
mit wieviel MHZ wäre die Parhelia nicht mehr fillratenlimitiert ??? 400 ?
Pussycat
2002-10-15, 21:12:36
Originally posted by Exxtreme Beim Problem #2 kann man sich mit einer AGP-Bridge behelfen so wie es ATi tut nur ich glaube nicht, daß NV eine funktionierende AGP-Bridge hat.
So wie der Sage?
zeckensack
2002-10-15, 23:21:03
Originally posted by RyoHazuki
mit wieviel MHZ wäre die Parhelia nicht mehr fillratenlimitiert ??? 400 ? Bei knapp unter doppeltem Speichertakt, so ganz grob Pi mal Daumen.
Also zB 500MHz Core und 280Mhz Mem.
Das kriegen die aber nicht hin.
Der Parhelia ist IMO ein Fehldesign.
Nicht hauen, ich find's auch schade, daß Matrox nicht so richtig oben mitmischen kann.
RyoHazuki
2002-10-15, 23:35:21
mal ehrlich, kann schon sein das es ein fehldesign ist, aber... mit nem 0,13 micron gefertigtem chip + 2 pipelines mehr + 100 MHZ mehr takt müsste evtl das fillratenlimit aufheben! oder? Also eine 6x2 architektur! wäre sowas hinzubekommen in 5 monaten ?
zeckensack
2002-10-15, 23:41:09
Ich bin lediglich der Meinung, daß dem Chip mehr Pixelpipelines gut tun würden, um das Mißverhältnis wenig Füllrate/viel Bandbreite wieder hinzubügeln. 6 könnte sein, 8 ist aber irgendwie traditonell naheliegender ;)
Ob und wenn ja, wann die das hinkriegen, darüber kann und will ich nicht urteilen. Ich kenne mich mit Chipdesign nun überhaupt nicht aus. :stareup:
RyoHazuki
2002-10-16, 00:06:05
naja, ok!
Absolute traumkarte,
Matrox Parhelia
+ Z-Compression = LMA II
+ 130 MHZ mehr Chiptakt = 350 MHZ CHIP
+ 2-4 extra Pipelines = 6 - 8 Pixel Pipes
+ 75-100 MHZ DDR(150-200 MHZ)mehr MEM Takt
= 350-375 MHZ MEM (DDR700-750)
+ Pixel Shader 2.0 = Direct X9
+ 128 MB mehr Textur Speicher = 256 MB Grafikspeicher
Total: Zwar immernoch nicht die schnellste karte, aber die ausbalancierteste!!! Qualität = unübertroffen!
robbitop
2002-10-26, 14:59:17
mehr Pixelpipelines hauen den Transitorcount hoch (6Pipes passen nicht in das Interfce...8wären optimal..aber bei 8x1 oder 8x2 würden ungefähr 50MIO mehr Transistoren ..ausserdem würde das ein teures langwieriges Redesign erfordern...)...
man wird wahrscheinlich im TriSetup intensiv arbeiten für eine PixelPipe DX9 Complaint wäre das sowieso nötig.
Weiterhin steigert man die Effizienz der 4xVS und ich denke die Texelfüllrate könnte effizienter werden..denn bei Tri Filterung wäre es ein 4x2 Design ..und soziemlich jedes Game arbeitet mit 2 TRextutrschichten...somit könnte das recht effektiv genutzt werden.
Somit wären das 8Texel per Zyclus was auch einer R300 bei gleichem Takt entspricht (trotzdem laufen beide auf Füllratenlimit).
Die Frage ist, ob ein CBMC und ein Z-Occlusion Culling eingebaut werden und ein FAA mit Z Glättung und Stencilschattensupport....
wäre sehr gut...3DLabs beherrscht dieses Verfahren afaik ja auch...und ich hbae gehört dass die MGA Ingeneure genau wissen wie man die Fehler fixt.
Im 0,13µ Verfahren (UMC hat noch Probs und die Anpassung dürfte noch bissi dauern)liessen sich 350Mhz Takt bei ca 90Mio Trans locker realisieren und damit würde die Karte wesendlich besser performen..schade dass man auf 4 Pipes designd hat..vieleicht wird es ja bei dem nächsten Redisign geändert..man musste eben zu sehr auf den Transistor count @0,15µ achten
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.