Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI R400 im juli?!?! R350 "early spring"
nagus
2002-12-04, 08:10:58
http://rage3d.com/board/showthread.php?threadid=33651124&perpage=20&pagenumber=1
sehr geil!
Tarkin
2002-12-04, 08:21:39
http://event.on24.com/eventRegistration/EventLobbyServlet?target=register.jsp&eventid=1242&key=DE26761E21AC88D77F231454CC304E28&sourcepage=register
(aus dem finance.yahoo.com ATYT Message Board)
* DX9 notebook part in Spring. (This would coincide with M10/RV350 rumors)
* Attitude is "Capture the Flag" (technology leadership) and hold on to it. No "one shot wonders." Continue to drive that technology into lower cost segments.
* I believe he said something like money wise (Profit? Revenue? Not sure...) the "high-end" 1/3 of the market is actually about the same as each of the other segments. Volume is certainly less. (I'll have to listen to this part again...)
* Based on what they saw at Comdex (NV30). ATI feels very good about their lineup through the spring when they'll introduce some new products, up to the R-400 in the Summer (post July).
* ATI is trying to continue its "revolutionary" tech / product introduction on a 12 month cycle, with a "kicker" in between (at about the 6 month point.)
* When asked if ATI might unleash the R350 to pre-empt the NV30 given NV30 expected availability in Feb, Orton said something like R350 will be ready for "spring"...but said he was keeping "exactly when in spring" close to his vest...and it likely depended somewhat on exactly what the competition produces and when.
*Sounds like R400 is expected to be introduced sometime "after July".
*Integrated chipset solution strategy: target notebook market first, then migrate to PC market. Claims ATI's integrated solutions captured 18% of notebook market in 8 weeks...about 50/50 AMD/Intel platforms. Expect ATI to start to really push desktop integrated solutions next summer. (Will still concentrate on notebooks for now.)
* ATI did not want to be held hostage by memory tech for its bandwidth, and was the reason to go to 256 bit bus. Feels that they have a lot of overhead against the competition for the "spring performance benchmarks"...given they have both 256 bit bus and DDR-II to draw from.
seahawk
2002-12-04, 09:37:15
Also könnte early spring = Februar/März sein ??
Das wäre geil, dann kaufe ich garantiert keine FX.
nagus
2002-12-04, 15:26:37
ich schätze mal, dass ATI details veröffentlicht, sobald die ersten GFFX auf dem markt auftauchen.
[ncp]EasyChiller
2002-12-04, 16:57:00
das wäre zumindest marketing-teschn. ziemlich angebracht - und eben jenes was NVDA grade mit dem FX macht ... die Meute hinhalten ein Konkurrenzprodukt zu kaufen! ;D
Tarkin
2002-12-04, 18:01:05
ich glaub eher das Gegeteil ist der Fall.
Durch die Aussage, dass die nv30 erst im Feb. verfügbar sein wird, und dann wahrscheinlich an die 600 EUR kostet ...
Viele werden sich denken, warum eigentlich warten?
Um dann herauszufinden, dass die FX ca 20% schneller ist, dafür aber 50% mehr kostet als eine 9700er PRO.
zeckensack
2002-12-04, 18:10:29
Originally posted by seahawk
Also könnte early spring = Februar/März sein ??
Das wäre geil, dann kaufe ich garantiert keine FX. Der kalendarische Frühling beginnt immer Ende März.
Tiamat
2002-12-04, 18:48:41
Originally posted by Tarkin
ich glaub eher das Gegeteil ist der Fall.
Durch die Aussage, dass die nv30 erst im Feb. verfügbar sein wird, und dann wahrscheinlich an die 600 EUR kostet ...
Viele werden sich denken, warum eigentlich warten?
Um dann herauszufinden, dass die FX ca 20% schneller ist, dafür aber 50% mehr kostet als eine 9700er PRO.
Net ganz ;D
Entweder 20% schneller und anfangs 30% teurer (FX 5800) oder 20-40% schneller und anfangs 50% teurer (Fx5800 Ultra)
Was soll denn der R400 werden ,sicher ne Dx 10 Karte oder? Ich bezweifel das wir ne Dx 10 Karte im Jahre 2003 zu Gesicht bekommen...
Salvee
2002-12-04, 19:29:49
Originally posted by Tiamat
Was soll denn der R400 werden ,sicher ne Dx 10 Karte oder? Ich bezweifel das wir ne Dx 10 Karte im Jahre 2003 zu Gesicht bekommen...
Ob DX10 oder nicht, ATi wird 2003 eine neue Kartengeneration auf den Markt bringen. Auf DX9 haben sie ja auch nicht gewartet.
ollix
2002-12-04, 20:19:45
Originally posted by Salvee
Ob DX10 oder nicht, ATi wird 2003 eine neue Kartengeneration auf den Markt bringen. Auf DX9 haben sie ja auch nicht gewartet.
Dann warscheinlich mit PS3.0 und anderem netten kram. Aber an DirectX 10 sollte man lieber nicht denken, solange man noch nichtmal Spiele hat, die DX8 richtig ausnutzen...
Demirug
2002-12-04, 20:58:32
Da ich nicht glaube das die Refreshs (R350, NV35) die 3.0 Shader haben werden bleibt also für ATI und NVIDIA für R400 und NV40 noch genügend zu tun.
Was für ATI und NVIDIA da allerdings etwas ärgerlich sein wird ist das dann das Kaufargument "neue DX-Version" entfallen wird.
MeLLe
2002-12-04, 21:26:03
Originally posted by Tiamat
Ich bezweifel das wir ne Dx 10 Karte im Jahre 2003 zu Gesicht bekommen...
Ich bezweifel, dass wir "echte" DX9-Spiele in 2003 zu sehen bekommen...
Unreal Soldier
2002-12-04, 21:27:44
Ich denk nicht dass der NV40 und der R400 DX10 chips werden. Es wuredn nicht einmal DX9.0 in Final rausgebracht und dazu passende Games um Dx9 mal in Fahrt zu bringen was eher ca.2004 passieren wird. Übrigens ist DX10 nicht einmal spezifizeirt und es existiert gar nichts drüber. Der NV40 und R400 werden eher mehr ein Feinschliff der NV30/35 und R300/350 sein, wobei man die Bandbreitenschonunungsmassnahmen verbessert und die jeglichen mini Bugs oder kleine Schwächen der Chips entfernt, dazu noch ein bisschne mehr Power als die NV30/35 und R300/R350 und shwubidischwups wie haben eine neue Kartengenaration. Dazu wünsch ich mir von den Herstellern die AA Methoden mal zuu verfeinern und sie so trimmen dass neben Spitzenqualität for free sein sollten.
VoodooJack
2002-12-04, 23:29:06
R400 betreffend: Also "post July" ist definitiv nach Juli. Ich tippe mal auf September 2003, genau ein Jahr nach der R300, um im neuen ATI-Zyklus zu bleiben.
R350 betreffend: Es steht für mich schon seit längerer Zeit fest, dies ist immerhin nicht der erste Hinweis, dass wir im März 2003, zeitgleich mit dem Eintrudeln der ersten GeforceFXes in Deutschland, die R350 in Deutschland kaufen können. Mal sehen, welche Karte billiger ist. Von der Leistung her dürften sie sich in etwa die Waage halten.
Quasar
2002-12-04, 23:32:08
Die einzige x50er von ATi war bislang die RV250, von der einige auch 350MHz und mehr erwartet haben. :)
Mal schauen, ob die uns nicht doch noch überraschen.
AlfredENeumann
2002-12-05, 00:58:13
Originally posted by Quasar
Die einzige x50er von ATi war bislang die RV250, von der einige auch 350MHz und mehr erwartet haben. :)
Mal schauen, ob die uns nicht doch noch überraschen.
Glaube ich kaum das es diesmal eine RV350 wird. LowCost Versionen vom R300 gibt es mehr als ausreichend. Ich denke da eher an eine aufgepumplte Version die nicht unbedingt viel schneller ist. Vielleicht ein paar neue schmankerl und DDR2.
Quasar
2002-12-05, 01:14:29
Originally posted by AlfredENeumann
LowCost Versionen vom R300 gibt es mehr als ausreichend.
Bin mir da nicht so sicher. Low-Cost im Sinne des VK sicherlich, aber ganz bestimmt keine Low-Costs im Sinne von ATi, sprich, günstigen Herstellungskosten, da jede dieser Varianten immer noch auf dem R300 basieren und nur (imo) verkauft werden, um nicht einen so hohen Ausschuss zu haben. Im Prinzip dasselbe, wie bei der R8500, von der es die LE gab, nur eben mit ein paar mehr Varianten.
Sobald der Yield hoch genug ist, werden die kleineren Versionen aussterben und die RV250 wird vom vermeintlichen R350, der IMO ein RV350 wird, verdrängt, mit der ATi dann auch wieder ordentlich verdienen wird.
Ein echter Low-Cost Chip zeichnet sich eben durch kostenoptimiertes Design aus, 4x1 war schon ein guter Schritt, Transi-Einsparung durch wegknipsen der DVD-HW war aus BWL-Sicht ebenso logisch. Wenn jetzt noch zwei der vier Vertexshader abknapst, mit der eine 1,1GPix-Karte wohl eh ein wenig überbestückt ist, könnte man den R300-Core mit optimiertem Design in 0,13µ und einem ca.-Takt von 375-400MHz als sehr guten und potenten Budget-Chip zur Ablösung der RV250 launchen.
Salvee
2002-12-05, 01:50:01
Originally posted by Quasar
Bin mir da nicht so sicher. Low-Cost im Sinne des VK sicherlich, aber ganz bestimmt keine Low-Costs im Sinne von ATi, sprich, günstigen Herstellungskosten, da jede dieser Varianten immer noch auf dem R300 basieren und nur (imo) verkauft werden, um nicht einen so hohen Ausschuss zu haben.
Ist so nicht richtig. 9500Pro, 9700 und 9700Pro benutzen den gleichen R300 Chip. Die 9500 ohne Pro weicht aber davon ab.
Die-Size ist unverändert (und damit ein grosser Kostenfaktor), Unterschiede und somit Einsparungen (wenn auch evtl. nicht grossartiger Natur)
ergeben sich aus einfacherer Prüfung und vor allem einem anderen Packaging.
Quelle : Beyond3D (http://www.beyond3d.com/articles/9500/index.php?p=2)
Quasar
2002-12-05, 01:55:42
Hm, in deinem Link kann ich keine Widersprüche zu meinen Aussagen entdecken. Sicher ist es möglich das Packaging der 128Bit-Varianten und möglicherweise auch der 4Pipelinigen Version einfacher zu gestalten, am zugrundeliegenden Silizium ändert dies jedoch nichts, es vereinfacht lediglich das PCB-Design und spart Kosten bei dessen Produktion.
Salvee
2002-12-05, 02:12:26
Habe schlecht gequotet, zumindest dieser Vergleich stimmt IMO nicht 100% ;)
"Im Prinzip dasselbe wie bei der R8500, von der es die LE gab, nur eben mit ein paar mehr Varianten"-> reine Taktunterschiede
R85k und LE sind 100% identisch, die R300er Reihe nicht in Bezug auf 9500 (zwar nur in korinthenkackerischen Dimensionen beim Silizium, aber deutlicher beim 'fertigen Chip', an dem beim 128Bit-Interface nun weniger 'Balls' baumeln (billiger) nach meinem Verständnis des Textes). Am besten einfach mal den Chip von deiner 9500 abreissen und nachzählen ;)
Quasar
2002-12-05, 02:20:41
Ja, das Packaging mag anders sein, aber das ermöglicht keinen preiswerteren Chip in der Züchtung, da das Silizium identisch ist. Wir drehen uns im Kreis....
Salvee
2002-12-05, 02:38:07
In Bezug auf die Züchtung und Belichtung (oder wie sich das nennt) hast du natürlich 100% Recht. Die Unterschiede beginnen erst danach.
Das 'currently' deutet aber eine Änderung an, deine 0,13µ Theorie könnte also sehr gut hinkommen.
mapel110
2002-12-05, 03:11:27
jo, vielleicht stellt ati auch einfach so klangheimlich um auf 0.13 ohne grosses tam tam so wie es eigentlich bei den prozessoren geschieht.
wäre imo auch ganz klug, um erfahrung in der fertigungsweise zu sammeln für die nächste generation.
und natürlich auch einen refresh des refresh vielleicht mal zwischendurch einzustreuen :)
Ailuros
2002-12-05, 04:53:01
Originally posted by Demirug
Da ich nicht glaube das die Refreshs (R350, NV35) die 3.0 Shader haben werden bleibt also für ATI und NVIDIA für R400 und NV40 noch genügend zu tun.
Was für ATI und NVIDIA da allerdings etwas ärgerlich sein wird ist das dann das Kaufargument "neue DX-Version" entfallen wird.
Ich stimme zu zum zweiten Paragraph, aber mit dem ersten hab ich noch ein paar Zweifel. Grund waere dass eine Firma X, NV35 als Gegner anpeilt.
Momentan heisst es immer noch abwarten und Klappe halten; doch wird irgendwas gefluestert im Hintergrund dass eine auesserst gehasste Firma fuer ein sehr langes Dokument anfragen koennte, was einem anderem Markt Vorsprung geben koennte.
Ailuros
2002-12-05, 04:59:12
Originally posted by mapel110
jo, vielleicht stellt ati auch einfach so klangheimlich um auf 0.13 ohne grosses tam tam so wie es eigentlich bei den prozessoren geschieht.
wäre imo auch ganz klug, um erfahrung in der fertigungsweise zu sammeln für die nächste generation.
und natürlich auch einen refresh des refresh vielleicht mal zwischendurch einzustreuen :)
Das dass grosse "tam tam" ausfaellt, kann vielleicht auch der Grund sein dass die Geruechte von frischen tape-outs mehr mit mainstream als mit high-end zu tun haben.
Ein "V" kann bei ATI ein paar entscheidende Differenzen bedeuten. ;)
mapel110
2002-12-05, 05:06:56
Originally posted by Ailuros
Das dass grosse "tam tam" ausfaellt, kann vielleicht auch der Grund sein dass die Geruechte von frischen tape-outs mehr mit mainstream als mit high-end zu tun haben.
Ein "V" kann bei ATI ein paar entscheidende Differenzen bedeuten. ;)
liegt doch mittlerweile klar auf der hand, dass der r350 auf 0.15 hergestellt wird, oder ???
meinst du was anderes ?
Ailuros
2002-12-05, 06:13:37
Wie gesagt ich hab nur von Geruechten gehoert. Obwohl diese eine Anzeige sein koennen, kann man nie absolut sicher sein.
Meiner Meinung nach macht es mehr Sinn hoehere Taktraten fuer mainstream bei ATI, als im high end. Ich schaetze dabei dass NV31 nicht nur auf 275MHz getaktet sein wird mit .13um.
Wenn du das ganze Spekulations-puzzle zusammenklebst: wenn kein 256bit bus im mainstream, dann hoehere Taktrate.
Sicher bin ich mir trotzdem nicht.
mapel110
2002-12-05, 07:12:36
halte ich für unnötig. ati hat ja jetzt schon probleme, die radeon 9500/9500pro/9700 vernüftig preislich zu platzieren.
imo muss die 9500 stark im preis fallen, da sie quasi nur die leistung einer radeon 8500 bringt.
Demirug
2002-12-05, 07:43:30
mapel110, ich gebe dir recht das die 9500 preislich viel zu dicht an der 9500 Pro plaziert ist. Wie ich aber an anderer Stelle schon mal erwähnt habe fürchte ich das dieser Preis schon die Schwelle darstellt die für ATI überhaupt noch was bringt. Alles darunter könnte derzeit schon zu verlusten führen. Aber wie gesagt reine Spekulation.
Unregistered
2002-12-05, 08:54:00
Originally posted by Demirug
mapel110, ich gebe dir recht das die 9500 preislich viel zu dicht an der 9500 Pro plaziert ist. Wie ich aber an anderer Stelle schon mal erwähnt habe fürchte ich das dieser Preis schon die Schwelle darstellt die für ATI überhaupt noch was bringt. Alles darunter könnte derzeit schon zu verlusten führen. Aber wie gesagt reine Spekulation.
sehe ich auch so. Der R300 ist nun mal ein teurer Chip.
@Quasar;
lies dir mal die Info durch.
Es wird einen R350 in 0.15µm als Highend-Chip geben
und
einen RV350 / M10 in 0.13µm (wahrscheinlich 4x1)
beide Chips haben soweit ich "weiß" das Tapeout hinter sich. Kommen also fast gleichzeitig ( wie R9000 / R9700Pro ) im März/April auf den Markt. Der NV30 hat damit nur max. 1Monat Vorsprung. Wenn die ersten Karten erhältlich sind gibts auch schon die Vorstellung dieser neuen ATi-Chips/Karten.
Quasar
2002-12-05, 09:32:16
Welche Info meinst du? Den Thread von nagus oder den Yahoo-Biz Auszug von Tarkin?
In beiden sehe ich keinerlei intiale Hinweise auf den R350 von jemand anderem, als mir unbekannten Board-Members bei Rage3D.com.
Wenn der RV350 in 130nm hergestellt wird, wird auch der R350 in 130nm hergestellt.
Unregistered
2002-12-05, 09:55:38
er meint CMRLKN oder wie der Typ heisst ausm Beyon3D Forum.
Der arbeitet irgendwo bei TSMC in der Ecke und hat die recent Tapeouts verkündet.
Enthalten R350 in 0.15
RV350 in 0.13
Und von Nvidia die Mainstream Parts in 0.13
Originally posted by HOT
Wenn der RV350 in 130nm hergestellt wird, wird auch der R350 in 130nm hergestellt.
....sagte die Kristallkugel.
Unregistered
2002-12-05, 10:20:21
Originally posted by HOT
Wenn der RV350 in 130nm hergestellt wird, wird auch der R350 in 130nm hergestellt.
Nein, nicht unbedingt!
Wenn der 0,13µ Prozess nicht sonderlich gut ist, dann lohnt es sich nicht für komplexere Designs.
Mit einem 'halben R300' könnte man fast die hälfte der DIE Fläche einsparen, wodurch das DIE kleiner wird und die Kosten sinken.
Bei einem kleineren Chip lohnt es sich eher auf einen aktuelleren Prozess umzusteigen, als auf einem mit 'nem Monster DIE.
Letzteres lohnt nur dann, wenn der Prozess auch wirklich gut ist, wenn er das nicht ist, dann kanns sogar sein, daß der kleinere Prozess teurer ist als der größere, weil der Ausschuß größer ist.
Bei kleineren DIEs ist das nicht ganz so tragisch, bei größeren schon...
Ailuros
2002-12-05, 11:18:36
Es gibt aber noch eine Kleinigkeit: ueberlegt mal wie 9500/PRO's hergestellt werden.
Es ist eine pure Sache von Anfrage; wenn die Anfrage im mainstream hoeher ist als erwartet kann es sogar mehr kosten langfristig als erwartet. Da ist man mit einem die shrink schon besser dran.
Ja ich meinte CMRLKN und nicht nur.....
Unregistered
2002-12-05, 11:35:21
Originally posted by Ailuros
Wie gesagt ich hab nur von Geruechten gehoert. Obwohl diese eine Anzeige sein koennen, kann man nie absolut sicher sein.
Meiner Meinung nach macht es mehr Sinn hoehere Taktraten fuer mainstream bei ATI, als im high end. Ich schaetze dabei dass NV31 nicht nur auf 275MHz getaktet sein wird mit .13um.
Wenn du das ganze Spekulations-puzzle zusammenklebst: wenn kein 256bit bus im mainstream, dann hoehere Taktrate.
Sicher bin ich mir trotzdem nicht.
How about...
meine Lieblingsversion :
RV350 @ 400-550 MHz mit 4x1 TMU's / 256bit Interface / 250 - 300 MHz DDR-RAM
Schnelles DDR-RAM oder DDR2-RAM ist IMHO für den Mainsttream-Bereich noch viel zu teuer. Ein 256bit Interface, das ATi ja schon beherrscht sollte wesentlich günstiger sein. Wenn Nvidia dann 400MHz-RAM braucht für die selbe Leistung (und dafür Premiumpreise zahlen muss) ist ATi vielleicht fein raus.
Demirug
2002-12-05, 11:59:50
Beim schnellen DDR-I Ram gebe ich dir Recht. Wenn man sich aber die verfügbaren Unterlagen zu DDR-II Ram anschaut sollte ein DDR-II Chip welcher die gleiche Datenmenge pro Pin wie ein DDR-I Chip liefert günstiger in der Herstellung sein. Da aber die Ausbeute bei den DDR-I Chips mit geringen Takten bereits sehr gut ist lohnt dort die DDR-II Technik nicht.
Ich bin nach wie vor der Meinung das der Kostenfaktor beim 256 Bit Interface unterschätzt wird. Denn die mindestens 128 Signale mehr wirken sich an vielen stellen aus:
- Trotz Flipchip wird der Chip teurer da ja mehr kontakte nach Aussen geführt werden müssen
- Das Boarddesign wird nicht unerheblich komplizierter.
- Die zusätzlichen Datenleitungen müssen terminiert werden.
Das sind zwar alles nur Kleinigkeiten aber in der Summe macht es doch etwas aus. Sonst würde ATI ja auch nicht die 9500 Pro und die 9700 im Programm haben. Der Preisunterschied dieser beiden Karten reduziert um steuern und die Gewinnspanne (die bei Computerhardware nicht so hoch ist) dürfte also im wesentlichen dem unterschied zwischen einem 128 und 256 Bit Interface bei ATI entsprechen.
Ailuros
2002-12-05, 12:38:01
Originally posted by Unregistered
How about...
meine Lieblingsversion :
RV350 @ 400-550 MHz mit 4x1 TMU's / 256bit Interface / 250 - 300 MHz DDR-RAM
Schnelles DDR-RAM oder DDR2-RAM ist IMHO für den Mainsttream-Bereich noch viel zu teuer. Ein 256bit Interface, das ATi ja schon beherrscht sollte wesentlich günstiger sein. Wenn Nvidia dann 400MHz-RAM braucht für die selbe Leistung (und dafür Premiumpreise zahlen muss) ist ATi vielleicht fein raus.
Tja nur mit dem Unterschied dass ich fuer weder/noch - was Takt-/Speicherraten betrifft - spekuliert habe. Der Codename R300 beinhaltet 9500/9700/PRO, wobei RV350 Anhalt an der R350 Architektur zu nehmen erscheint.
Mir ist es sowieso egal wie hoch Taktrate oder Speicherbandbreite bei jeder Karte ist; viel wichtiger ist mir die Effizienz einer Architektur.
Unregistered
2002-12-05, 12:40:07
Originally posted by Demirug
Beim schnellen DDR-I Ram gebe ich dir Recht. Wenn man sich aber die verfügbaren Unterlagen zu DDR-II Ram anschaut sollte ein DDR-II Chip welcher die gleiche Datenmenge pro Pin wie ein DDR-I Chip liefert günstiger in der Herstellung sein. Da aber die Ausbeute bei den DDR-I Chips mit geringen Takten bereits sehr gut ist lohnt dort die DDR-II Technik nicht.
Ich bin nach wie vor der Meinung das der Kostenfaktor beim 256 Bit Interface unterschätzt wird. Denn die mindestens 128 Signale mehr wirken sich an vielen stellen aus:
- Trotz Flipchip wird der Chip teurer da ja mehr kontakte nach Aussen geführt werden müssen
- Das Boarddesign wird nicht unerheblich komplizierter.
- Die zusätzlichen Datenleitungen müssen terminiert werden.
Das sind zwar alles nur Kleinigkeiten aber in der Summe macht es doch etwas aus. Sonst würde ATI ja auch nicht die 9500 Pro und die 9700 im Programm haben. Der Preisunterschied dieser beiden Karten reduziert um steuern und die Gewinnspanne (die bei Computerhardware nicht so hoch ist) dürfte also im wesentlichen dem unterschied zwischen einem 128 und 256 Bit Interface bei ATI entsprechen.
Glaube ich eigentlich nicht. Schließlich wird die Gewinnspanne bei den R9700(Pro) - Chips wesentlich größer sein, als bei den R9500(Pro)-Chips. Ich habe einmal gelesen, das ein R9700-Chip den selben Gewinn wie 10 R9000-Chips bringt. Irgendjemand hat jemand auch mal erwähnt, das das gesamte Board in der Herstellung nur 10$ kosten soll, und die Zusatzkosten für 256bit nur unwesentlich sind (solange das Board die selben 6 oder 8 Layer hat).
Ich erwarte sogar, das ein 400-500MHz-Board teurer ist als ein 250-300MHz Board, da die gesamte Abschirmung zwischen den Layern und Leitungen aufwendiger ist.
Originally posted by Ailuros
Der Codename R300 beinhaltet 9500/9700/PRO, wobei RV350 Anhalt an der R350 Architektur zu nehmen erscheint.
Wie sieht denn dann deiner Meinung nach das Verhaeltnis von R200 zu RV250 aus? Gelle, zu dumm, dass es keinen R250 gab.;)
Ailuros
2002-12-05, 15:55:29
Danke dass Du mich daran errinnerst, dass ATI wie auch jeder IHV nicht nur roadmaps umwirft oder je nach yields ihre Entscheidungen aendert.
http://www.3dcenter.de/artikel/2001/08-13a.php
Nach den Spezifikationen darfst Du ruhig was aus RV250 geworden ist mit der heutigen 9500- nonPRO vergleichen. Der einzige Unterschied ist die sowieso nutzlose dx9.0 Komplianz. :)
Ich habe einmal gelesen, das ein R9700-Chip den selben Gewinn wie 10 R9000-Chips bringt. Irgendjemand hat jemand auch mal erwähnt, das das gesamte Board in der Herstellung nur 10$ kosten soll, und die Zusatzkosten für 256bit nur unwesentlich sind (solange das Board die selben 6 oder 8 Layer hat).
Na das waehr schoen :D
Link vielleicht?
Originally posted by Ailuros
Danke dass Du mich daran errinnerst, dass ATI wie auch jeder IHV nicht nur roadmaps umwirft oder je nach yields ihre Entscheidungen aendert.
http://www.3dcenter.de/artikel/2001/08-13a.php
Nach den Spezifikationen darfst Du ruhig was aus RV250 geworden ist mit der heutigen 9500- nonPRO vergleichen. Der einzige Unterschied ist die sowieso nutzlose dx9.0 Komplianz. :)
Nein, der RV250 ist der R9000 und kein 9500. Von 9500 bis 9700 sind alles R300 Chips.
Ailuros
2002-12-05, 16:16:18
Ooooops Mist da hast Du recht. ;)
Meiner meinung nach wird der RV350 entweder eine billiger zu fertigende version des R300 (0.13, vielleicht beschneidung im design), oder aber er wird ne höher getaktete version des selbigen um dem NV30 konkurrenz zu bieten.
Ersteres aber scheint mir warscheinlicher, da das V ja für Value steht und ein RV350 sonst ja dem R350 Konkurrenz sein würde.
Pussycat
2002-12-05, 17:40:12
Originally posted by Unregistered
(solange das Board die selben 6 oder 8 Layer hat).
Es hat doch 10, oder?
Demirug
2002-12-05, 18:07:05
Originally posted by Pussycat
Es hat doch 10, oder?
dazu gibt es unterschiedliche Aussagen: Manche sprechen von 10 Layern andere von einem sehr komplexen 8 Layer PCB.
Unregistered
2002-12-05, 20:10:20
Originally posted by Ailuros
quote:
--------------------------------------------------------------------------------
Ich habe einmal gelesen, das ein R9700-Chip den selben Gewinn wie 10 R9000-Chips bringt. Irgendjemand hat jemand auch mal erwähnt, das das gesamte Board in der Herstellung nur 10$ kosten soll, und die Zusatzkosten für 256bit nur unwesentlich sind (solange das Board die selben 6 oder 8 Layer hat).
--------------------------------------------------------------------------------
Auwei, wenn das RH liest.
:lol: :rofl: :lol:
AlfredENeumann
2002-12-05, 20:44:35
Originally posted by ow
Wie sieht denn dann deiner Meinung nach das Verhaeltnis von R200 zu RV250 aus? Gelle, zu dumm, dass es keinen R250 gab.;)
zum R250 gabs ja nur Gerüchte. Man sollte es ne Radeon 8500 XT (sprich Ultra) sen, mal ein Radeon 8500 Maxx.
Der Treiber ist ja fürs Mxx Design ausgerichtet IMHO, wenn man sich die REG-Einträge anschaut.
-error-
2002-12-05, 21:52:52
ICh denke die R350 ist ne 9700PRO mit DDR2
nagus
2002-12-05, 22:01:30
Originally posted by Powerd by ATI
ICh denke die R350 ist ne 9700PRO mit DDR2
und mit sicherheit ist der chip höher getaktet (~ 375+MHz würde ich mal schätzen...)
btw, wieviel mehr transistoren würde ein 8x2 design gegenüber 8x1 TMUs verschlingen?
Demirug
2002-12-05, 22:08:00
Originally posted by nagus
und mit sicherheit ist der chip höher getaktet (~ 375+MHz würde ich mal schätzen...)
btw, wieviel mehr transistoren würde ein 8x2 design gegenüber 8x1 TMUs verschlingen?
nagus, einfach noch ne TMU ranbauen dürfte nicht so viel bringen. Denn das zusätzliche Textursample müsste ja auch irgendwo verarbeitet werden. Deswegen würde das wohl grössere Änderungen in den Pixelshadern nach sich ziehen und ob das in 0,15 noch wirtschaftlich machbar ist kann ich wirklich nicht sagen.
[ncp]EasyChiller
2002-12-05, 23:07:07
ich schließe mich "Powered by Ati" an:
Mein Spekulatius: R350 vom Design und den Features "nur" ne R300, auch der Fertigungsprozess bleibt gleich, jedoch vielleicht optimiertes Design (Transistoranzahl oder Leistung) und auf alle Fälle mit DDR2-Interface, vielleicht noch einen Chiptakt gegen die 400MHz (aber eher leicht drunter) und einen Ramtakt welche dann eher leicht über 400 liegen dürfte! ;D
Ailuros
2002-12-06, 05:25:30
Demirug,
korrigier mich hier bitte wenn ich's falsch verstanden habe, aber wuerde ein 8x2 setup nicht mehr Sinn machen fuer PS/VS3.0 Hartware?
Mein Spekulatius: R350 vom Design und den Features "nur" ne R300, auch der Fertigungsprozess bleibt gleich, jedoch vielleicht optimiertes Design (Transistoranzahl oder Leistung) und auf alle Fälle mit DDR2-Interface, vielleicht noch einen Chiptakt gegen die 400MHz (aber eher leicht drunter) und einen Ramtakt welche dann eher leicht über 400 liegen dürfte!
Mehr oder weniger sehe ich dass auch so. Nur dass IHV's von der Erfahrung mit jedem chip immer mehr dazugewinnen und kleine Rafinessen (***) in der Architektur verbessern koennen. Beispiel waere hier NV20--->NV25; der Unterschied liegt nicht nur bei hoeherer Taktrate/Bandbreite.
Wenn ein IHV eine Architektur hoeher taktet und mit schnellerem Speicher ausruestet, ist es selten nur ein "uebertakteter" X chip. Dabei wird Transistoren-Anzahl hoeher (wie Du schon gesagt hast) und der ganze Design auf die "neuen" Spezifikationen optimiert.
***edit:
Software und Hartware.
Demirug
2002-12-06, 08:31:13
Originally posted by Ailuros
Demirug,
korrigier mich hier bitte wenn ich's falsch verstanden habe, aber wuerde ein 8x2 setup nicht mehr Sinn machen fuer PS/VS3.0 Hartware?
Also die Vertexshader Version brauchen wir dabei erst mal nicht zu berücksichtigen ausser das die VS 3.0 auch eine TMU brauchen aber die sollte besser von den TMUs der Pixelpiplines unabhängig sein.
Die PS 2.0 erlauben immer noch das Arbeiten mit einem Phasen model (wie die PS 1.4) auch wenn das nach aussen hin nicht sofort ersichtlich ist. Der R300 Chip benutzt auch scheinbar noch ein Phasen model den sonst würde zum Beispiel die Beschrängung auf maximal 4 abhängige Texture fetchs und das vorhandensein von 2 rechenprocessoren (Address und Color) nicht wirklich erklärbar sein.
Wir wissen ja das der R300 Texturkoordinaten und Farbinformationen mit unterschiedlicher genauigkeit rechnet. Aufgrund dieser Information gehe ich von folgendem Ablauf in der Pixelpipline aus.
1. Berechnen der Koordinaten für den 1.Fetch
2. 1.Fetch
3. Berechnen der Koordinaten für den 2.Fetch
4. 2.Fetch
5. Berechnen der Koordinaten für den 3.Fetch
6. 3.Fetch
7. Berechnen der Koordinaten für den 4.Fetch
8. 4.Fetch
9. Berechnen der Pixelfarbe
Sollten die Abhängikeitstiefe kleiner 4 sein kann man natürlich entsprechende schritte (phasen) weglassen.
Es können ja im Prinzip 3 Aktionen gleichzeitig durchgeführt werden. Eine Texturefetch, eine mathematische operation auf Texturkoordinaten und eine mathematische operation auf Farbinformationen. Die frage ist nun wie viele Pixel man gleichzeitig durch die Pipeline schiebt. Mindestens 3 werden es wohl sein. Jeweils immer einer in der Texturekoordinaten Einheit einer in der TMU und einer in der Farbeinheit. Wenn es wirklich jemand sehen will könnte ich mich sogar das durchringen ein Diagramm dafür zu erstellen.
Bei diesem Aufbau wäre es also durchaus möglich noch mehr TMUs pro Pipe hinzuzufügen. Allerdings besteht dann die Gefahr das die Einheiten möglicher weise nicht mehr ausgeglichen sind.
Bei den PS 2.0+ gibt es aber die option der unlimitierten Abhängigkeit bei Texturefetchs (bei PS 3.0 zwingen). Mit einer Phasenpipeline wird das recht kompliziert für den Treiber solche monstershader dann noch richtig zu zerlegen. Zudem steigt die Wahrscheinlichkeit das einzelne Teile der Pipeline leerlaufen stark an. Deswegen ging NVIDIA ja auch einen anderen weg. Alle Berechnungen werden in der selben Einheit durchgeführt dadurch entfällt die Phasenaufteilung und diese Einheit läuft mit maximaler Effektivität sie kann lediglich von der TMU gebremst werden. Und auch das lässt sich durch entsprechende massnahmen im Treiber (PS Programm optimierung auf fetch early use late) und der Hardware optimieren.
Wenn ich nicht vollkommen daneben liege heist das folgendes: ATI hat beim R300 die R200 Technik im wesentlichen nur auf Fliesspunkt aufgebohrt und die Anzahl der ops, register usw erhöht. Sollte sich ATI nicht entschliessen diese Pipeline zum erreichen eine höheren PS Version grundlegend zu überarbeiten sehe ich massive Probleme auf die Treiberprogrammierer zukommen.
sorry, irgendwie bin ich jetzt vollkommen vom Thema abgekommen.
Ailuros
2002-12-06, 10:12:44
Was heisst hier "sorry"? Von dem Zeug kann ich gar nicht genug bekommen, ueberhaupt wenn's so einfach gemacht wird.
Deswegen ging NVIDIA ja auch einen anderen weg. Alle Berechnungen werden in der selben Einheit durchgeführt dadurch entfällt die Phasenaufteilung und diese Einheit läuft mit maximaler Effektivität sie kann lediglich von der TMU gebremst werden.
http://www.beyond3d.com/articles/nv30r300/index.php?p=2
Den einzigen Unterschied zwischen NV30 und VS3.0 den ich oben sehen kann sind die fehlenden "nested loops" und "texture lookup" Kapazitaeten im letzteren, korrekt?
Was ich mir bis jetzt nicht im klaren bin, ist ob bei NV30 genauso wie bei R300 die Hardware T&L Einheit fehlt. Wenn das so ist dann werden wohl alle T&L Operationen von der VS Einheit durchgefuehrt.
Ueberdumme Frage: so manche SoC's, wie auch CPU's beginnen so langsam multithreading zu implementieren (wobei die Effizienz bis jetzt fraglich sein koennte, ueberhaupt bei CPU's). Waere es eine Option auch fuer Geometrie Prozessoren der Zukunft?
Hier Spekulation von Digit-Life in ihrem ersten GF FX Vorstellung's-Artikel:
DX9.1/NV4x/R400 - vertex and pixel shaders with totally controlled command streams without any limitations in size.
DX10 - possible generation of new vertices in a shader and expended possibilities of the system of shader instructions.
A fully symmetric scheme of a programmable GPU as an array of full-featured shader processors without any predetermined architectural division into pixel and vertex shaders tessellating or selecting texture units.
Mit einer multi-array Auflage von Shader Prozessoren in einer programmierbaren Einheit, koennte dann eventuell multi-threading nicht auch eine Moeglichkeit sein, oder ist die Idee zu idiotisch?
Demirug
2002-12-06, 11:05:48
Originally posted by Ailuros
http://www.beyond3d.com/articles/nv30r300/index.php?p=2
Den einzigen Unterschied zwischen NV30 und VS3.0 den ich oben sehen kann sind die fehlenden "nested loops" und "texture lookup" Kapazitaeten im letzteren, korrekt?
Ja wobei die "nested loops" beim NV30 ja scheinbar schon über die VS 3.0 forderung hinausgehen. NVIDIA braucht beim VS wohl nur noch eine TMU hinzuzufügen. Aber die Vertexshader machen mir in Summe sowieso weniger sorgen. Die PS 3.0 sind eine harte nuss.
Was ich mir bis jetzt nicht im klaren bin, ist ob bei NV30 genauso wie bei R300 die Hardware T&L Einheit fehlt. Wenn das so ist dann werden wohl alle T&L Operationen von der VS Einheit durchgefuehrt.
Beim der Rechen power die durch die Vertexshader erzeugt wird wäre es nicht sehr angebracht da noch eine Fixed T&L Einheit einzubauen. NVIDIA hat diese ja schon mit dem NV25 entfernt.
Ueberdumme Frage: so manche SoC's, wie auch CPU's beginnen so langsam multithreading zu implementieren (wobei die Effizienz bis jetzt fraglich sein koennte, ueberhaupt bei CPU's). Waere es eine Option auch fuer Geometrie Prozessoren der Zukunft?/SIZE]
GPU arbeiten ja schon massiv parrallel. Allerdings wird auf alle Daten das gleiche Programm angewendet. Bei den Vertexshader macht das dynamische Wechseln des Programms pro Vertex IMO nicht so viel Sinn. In den PixelShader könnte das schon eher was bringen. Die frage ist allerdings wie gut sich das mit einer hohen Effiziens vereinen läst wenn man ständig das Programm ändert.
[SIZE=1]Hier Spekulation von Digit-Life in ihrem ersten GF FX Vorstellung's-Artikel:
DX9.1/NV4x/R400 - vertex and pixel shaders with totally controlled command streams without any limitations in size.
DX10 - possible generation of new vertices in a shader and expended possibilities of the system of shader instructions.
A fully symmetric scheme of a programmable GPU as an array of full-featured shader processors without any predetermined architectural division into pixel and vertex shaders tessellating or selecting texture units.
Mit einer multi-array Auflage von Shader Prozessoren in einer programmierbaren Einheit, koennte dann eventuell multi-threading nicht auch eine Moeglichkeit sein, oder ist die Idee zu idiotisch?
Nach derzeitigem Stand gibt es kein DX 9.1. Das was digit life da angibt sind im Prinzip die 3.0 Versionen der Shader.
DX10: da hat digitlife wohl diese eine Grafik mit der angeblichen DX10 Pipeline gefunden: Dort wurden die Vertex und Pixelshader durch etwas ersetzt was man AFAIR "Integrated Shader" nannte. Ich glaube aber ehrlich gesagt nicht das es dabei um das Hardwaremodel ging. Denn es gab dort ebenfalls grafiken der "alten" Pipelines und auch diese zeigten nicht das Hardwaremodel sonder die API-Representation. So wurde bei DX8 zum Beispiel die PS und die DX7-Pixelstages als Alternative Pfade gezeigt. In der DX8-Hardware ist aber beides das gleiche. Das einzige was ich mir vorstellen könnte ist das man die TMUs und ALUs vollständig von den Vertex und Pixel Pipelines trennt und die Vertex und Pixelshader dann dynamisch Rechenzellen und TMUs zugeordent bekommen. Aber das würde für die API unsichtbar sein.
zeckensack
2002-12-06, 12:01:06
Originally posted by AlfredENeumann
Der Treiber ist ja fürs Mxx Design ausgerichtet IMHO, wenn man sich die REG-Einträge anschaut. Ich halte das für eine (trotzdem immer wiederkehrende) Verwechslung mit dem tatsächlich vorhandenen zweiten Display-Controller.
Und der wird ja auch idR installiert (guckst du in Desktop->Rechtsklick->Einstellungen->"Anzeige"-Dropdown.
Nix Maxx, IMO :)
Quasar
2002-12-06, 12:07:36
Zecki,
Ich glaube aber, es ging dabei nicht um den "SECONDARY", sondern darum, dass explizit irgendwas "MAXXimales" in der .inf einiger Treiber stand....AFAIR.
AlfredENeumann
2002-12-06, 12:48:17
Originally posted by zeckensack
Ich halte das für eine (trotzdem immer wiederkehrende) Verwechslung mit dem tatsächlich vorhandenen zweiten Display-Controller.
Und der wird ja auch idR installiert (guckst du in Desktop->Rechtsklick->Einstellungen->"Anzeige"-Dropdown.
Nix Maxx, IMO :)
Nix Secondary. Für so blöd mußt du mich nun auch nicht halten. Der Treiber bietet per Registry (ich glaube der Radeonator kann das auch) das MAXX-Menü im Treiber freizuschalten.
Unregistered
2002-12-06, 14:20:02
Originally posted by Ailuros
Tja nur mit dem Unterschied dass ich fuer weder/noch - was Takt-/Speicherraten betrifft - spekuliert habe. Der Codename R300 beinhaltet 9500/9700/PRO, wobei RV350 Anhalt an der R350 Architektur zu nehmen erscheint.
Mir ist es sowieso egal wie hoch Taktrate oder Speicherbandbreite bei jeder Karte ist; viel wichtiger ist mir die Effizienz einer Architektur.
mir nicht ganz, da ein RV350 @550MHz mit 256bit Speicherinterface es sehr leicht machen würde, die bisherigen R9700+R9500Pro zu ersetzen. Man muss nur den neuen Chip anstelle des alten auf das Board setzen. Und das ist etwas, was ATi bei Mobile-Chips schon immer(?) so macht. Beim R7500M => R9000M hat es jedenfalls super funktioniert. Wäre doch Klasse, wenn durch diesen Kniff R9700-Leistung für $150 (200Euro) möglich würden. >träum< ;)
Ailuros
2002-12-06, 14:30:55
Demirug,
Danke erstmal fuer die ausfuehrliche Antwort. Jedoch:
GPU arbeiten ja schon massiv parrallel. Allerdings wird auf alle Daten das gleiche Programm angewendet. Bei den Vertexshader macht das dynamische Wechseln des Programms pro Vertex IMO nicht so viel Sinn. In den PixelShader könnte das schon eher was bringen. Die frage ist allerdings wie gut sich das mit einer hohen Effiziens vereinen läst wenn man ständig das Programm ändert.
Doofes Szenario: Ein sehr komplizierter pixel shader mit einem sehr einfachen vertex shader (oder auch anders herum) in einer Applikation. Wuerde das nicht das rendern zurueckhalten? (ie vertex shader execution muss auf Beendung des komplizierten pixel shader Programms warten).
Das obere gilt nicht nur fuer das vorigen vereinte PS/VS Szenario, aber auch fuer heutige Prozessoren.
Die Idee kommt nur daher dass es immer besser sein sollte wenn "idle time" von units minimalisiert werden.
Was dx9.1 betrifft, bin ich mir nicht sicher ob ich es hier schon erwaehnt habe, aber ich stimme Dir zu dass es hoechstwahrscheinlich kein dx9-Refresh geben wird. Microsoft hat diesmal klugerweise dafuer gesorgt dass dx9 so viel wie moeglich beinhaltet, damit sich dieses laecherliche hin und her von dx8.0-dx8.1 nicht nochmal wiederholt. Ergo nur dx9 Kompliante Karten in 2003. ;)
Unregistered
2002-12-06, 14:33:08
Originally posted by Unregistered
mir nicht ganz, da ein RV350 @550MHz mit 256bit Speicherinterface es sehr leicht machen würde, die bisherigen R9700+R9500Pro zu ersetzen. Man muss nur den neuen Chip anstelle des alten auf das Board setzen. Und das ist etwas, was ATi bei Mobile-Chips schon immer(?) so macht. Beim R7500M => R9000M hat es jedenfalls super funktioniert. Wäre doch Klasse, wenn durch diesen Kniff R9700-Leistung für $150 (200Euro) möglich würden. >träum< ;)
Ach ja, bevor mir jemand vorwirft ein FanATiker zu sein.
Ich denke nicht, das ATi mit dem RV350 550MHz erreicht (schließlich schafft der NV30 nur mit extrem aufwendiger Kühlung 500MHz) aber ich hoffe darauf (=träum).
Ailuros
2002-12-06, 14:39:43
Originally posted by Unregistered
mir nicht ganz, da ein RV350 @550MHz mit 256bit Speicherinterface es sehr leicht machen würde, die bisherigen R9700+R9500Pro zu ersetzen. Man muss nur den neuen Chip anstelle des alten auf das Board setzen. Und das ist etwas, was ATi bei Mobile-Chips schon immer(?) so macht. Beim R7500M => R9000M hat es jedenfalls super funktioniert. Wäre doch Klasse, wenn durch diesen Kniff R9700-Leistung für $150 (200Euro) möglich würden. >träum< ;)
Sollte Dir aber egal sein. Hauptsache wie schnell und wie gut etwas auf Deinen Bildschirm kommt. Ich kann Dir nur sagen dass ATI noch lange nicht das ArtX-Portofolio ausgequetscht hat.
So wie Du es darstellst waere R350 nur ein hoeher getakteter R300 mit schnellerem Speicher, ausser dass ich Dich nicht richtig verstanden habe.
OT: Ist das Austauschverhaeltnis zwischen Dollar und euro schon wieder gestiegen?
Ailuros
2002-12-06, 14:41:54
Originally posted by Unregistered
Ach ja, bevor mir jemand vorwirft ein FanATiker zu sein.
Ich denke nicht, das ATi mit dem RV350 550MHz erreicht (schließlich schafft der NV30 nur mit extrem aufwendiger Kühlung 500MHz) aber ich hoffe darauf (=träum).
Fanatisch ist nur jemand der zu Gunsten seiner Lieblingsfirma, ungerechtfertigt konkurierende Loesungen gnadenlos in den Boden zu stampfen versucht.
zeckensack
2002-12-06, 14:43:01
Originally posted by AlfredENeumann
Nix Secondary. Für so blöd mußt du mich nun auch nicht halten. Der Treiber bietet per Registry (ich glaube der Radeonator kann das auch) das MAXX-Menü im Treiber freizuschalten. Es liegt mir fern dich für blöd zu halten, lieber AEN.
Ich hab's einfach nicht besser gewußt, und wild vor mich hin geplappert, entschuldige bitte :)
zeckensack
2002-12-06, 14:47:45
Originally posted by Ailuros
OT: Ist das Austauschverhaeltnis zwischen Dollar und euro schon wieder gestiegen? Nö, ziemlich genau eins zu eins (Klick mich (http://www.oanda.com/convert/classic?lang=de)).
Trotzdem zahlt man hier meist ein wenig drauf. Mit richtig harten Bandagen kämpfen die Hersteller eben nur auf dem US-Markt.
Quasar
2002-12-06, 14:49:54
Hier zahlste im Vergleich zu den US-Retailpreisen auch drauf, weil nochmal die Einfuhrumsatzsteuer draufkommt. Auch nicht zu verachten...
Es sei denn, du stellst deinen PC in den Freihafen oder hast ihn auf einer Luxusyacht ausserhalb der 7-Meilen Zone ;)
Ailuros
2002-12-06, 14:53:49
Originally posted by zeckensack
Nö, ziemlich genau eins zu eins (Klick mich (http://www.oanda.com/convert/classic?lang=de)).
Trotzdem zahlt man hier meist ein wenig drauf. Mit richtig harten Bandagen kämpfen die Hersteller eben nur auf dem US-Markt.
In ganz extremen Faellen (z.B heute mit einer R300 die jemand vielleicht bei einem online Verkaeufer fuer 300-320$ findet), lohnt es sich sogar die etwas teuren Transport-Gebueren zu zahlen.
Das letzte Mal wo ich gefragt habe kostete shipping aus der US and die 50$. Mometan sind R9700PRO's sowieso nicht billiger als 450-490 euros hier (alle Preise ohne Steuern).
Demirug
2002-12-06, 15:11:41
Originally posted by Ailuros
Doofes Szenario: Ein sehr komplizierter pixel shader mit einem sehr einfachen vertex shader (oder auch anders herum) in einer Applikation. Wuerde das nicht das rendern zurueckhalten? (ie vertex shader execution muss auf Beendung des komplizierten pixel shader Programms warten).
Das obere gilt nicht nur fuer das vorigen vereinte PS/VS Szenario, aber auch fuer heutige Prozessoren.
Die Idee kommt nur daher dass es immer besser sein sollte wenn "idle time" von units minimalisiert werden.
Nix doofes Szenario eher das normale problem. Irgendeine Stelle in der Pipeline ist immer der Flaschenhals. und in der Regel wandert der sogar schon bei einzelnen Primitives in der Pipeline. Folgende Situation:
Ein Playermodel soll gerendert werden. Die Vertex und Pixelshader dafür sind eigentlich recht gut ausgelichen, denkt man. Ärgerlich ist dabei nur das sich ja das Pixel pro Dreieck verhältniss entfernungsabhängig ändert. Kommt man näher werden die Dreiecke grösser was mehr last in der Pixelpipeline erzeugt (Vertextshader laufen leer) entfernt man sich werden die Dreiecke kleiner und die Vertexshader kommen der Pixelpipline nicht mehr hinterher. Sowas passiert auch wenn dann zum Beispiel viele Dreiecke hintereinander durch das Trisetup verworfen (Early-Z, Backface, usw.) werden. Dann läuft der Vertexshader heiss aber in der Pixelpipline kommt nichts mehr an. Im Moment versuchen die IHV das Problem mit Caches zwischen den Einheiten abzudämpfen. Aber auch die sind irgendwann leer bzw voll.
Vorsicht ich träume jetzt ein wenig:
Ein optimaler Chip sollte in der Hardware einfach nur Shader haben. Der Befehlssatz dieser Shader soll sich sowohl für Vertex wie auch Pixeloperationen eignen. Zugriff auf den Texturspeicher ist selbstredent. Die Inputregister können auf den Pre Shader Vertexcache und den post trisetup pixelcache zugreifen. Die Aussgänge schreiben auf den Post Shader Vertexcache und die AA-Sampler.
Jedesmal wenn nun ein Shader meldet das er das Programm abgearbeitet hat und die Ausgangswerte übertragen sind bekommt er eine neue Aufgabe. Das kann dann entweder eine Vertex oder eine Pixelberechnung sein. In Vertex lastigen Situationen würden dann mehr schader auf die Vertex berechnung angesetzt und in Pixel lastigen stellt man sie auf die Pixelberechnung um. Und fertig ist die selbstoptimierende Renderpipeline.
Originally posted by Demirug
Die PS 3.0 sind eine harte nuss.Die werden ja kaum standardisiert worden sein, ohne dass die HW-Hersteller eine Ahnung haben, wie sie das realisieren wollen. PS.3.0 erwarte ich frühestens bei R400 bzw. NV40, und das ist ja noch ein wenig hin...
Demirug
2002-12-06, 17:40:31
Originally posted by aths
Die werden ja kaum standardisiert worden sein, ohne dass die HW-Hersteller eine Ahnung haben, wie sie das realisieren wollen. PS.3.0 erwarte ich frühestens bei R400 bzw. NV40, und das ist ja noch ein wenig hin...
Ich weis sogar das mindestens schon 3 Hersteller daran arbeiten. Die aussage bezog sich eher darauf das die PS 3.0 nichts sind was man mal einfach so aus dem Handgelenk macht.
Pussycat
2002-12-06, 19:09:43
Wie wär's mit getrennt z- und Farbwertkompression im R350?
Karümel
2002-12-06, 19:39:59
Originally posted by Demirug
Vorsicht ich träume jetzt ein wenig:
Ein optimaler Chip sollte in der Hardware einfach nur Shader haben. Der Befehlssatz dieser Shader soll sich sowohl für Vertex wie auch Pixeloperationen eignen. Zugriff auf den Texturspeicher ist selbstredent. Die Inputregister können auf den Pre Shader Vertexcache und den post trisetup pixelcache zugreifen. Die Aussgänge schreiben auf den Post Shader Vertexcache und die AA-Sampler.
Jedesmal wenn nun ein Shader meldet das er das Programm abgearbeitet hat und die Ausgangswerte übertragen sind bekommt er eine neue Aufgabe. Das kann dann entweder eine Vertex oder eine Pixelberechnung sein. In Vertex lastigen Situationen würden dann mehr schader auf die Vertex berechnung angesetzt und in Pixel lastigen stellt man sie auf die Pixelberechnung um. Und fertig ist die selbstoptimierende Renderpipeline.
Öhm wäre so etwas eigentlich in der Praxis wirklich möglich oder würde es bestimmte Sachen an dieser Sache woran es scheitern würde?
Demirug
2002-12-06, 20:11:56
Originally posted by Karümel
Öhm wäre so etwas eigentlich in der Praxis wirklich möglich oder würde es bestimmte Sachen an dieser Sache woran es scheitern würde?
technisch sehe ich derzeit kein hinderniss. Es ist aber aufwendiger als die Trennung von vertex und pixelshader.
Originally posted by Demirug
technisch sehe ich derzeit kein hinderniss. Es ist aber aufwendiger als die Trennung von vertex und pixelshader.
Sowas wäre doch aufm P10 möglich, oder?
Der hat ja simd einheiten, die eigentlich mit allem klarkommen müssten. Also auch abwechselnd vertex und pixel berechnungen.
Demirug
2002-12-06, 21:25:51
Originally posted by burk23
Sowas wäre doch aufm P10 möglich, oder?
Der hat ja simd einheiten, die eigentlich mit allem klarkommen müssten. Also auch abwechselnd vertex und pixel berechnungen.
Nein die Einheiten des P10 haben nach wie vor einen festen Platz in der Pipeline.
Ailuros
2002-12-06, 23:21:53
Demirug,
Wuehl mal hier durch; es hilft vielleicht zu verstehen wodurch meine Fragen enstanden sind (musste leider die offizielle Publizierung abwarten):
http://www.pvrgenerations.co.uk/cgi-bin/viewarticle.cgi?page=/articles/2002/kristof1102&printer=0&pagenum=1
Hoffentlich hat's mein Freund Thowe schon gelesen ;)
edit: uebrigens auch detaillierte Erklaerungen was FableMark betrifft, fuer Die die es interessiert.
Demirug
2002-12-06, 23:42:22
Ailuros, ja das habe ich schon heute mittag überfolgen aber was wirklich neues erfährt man dort nicht, oder habe ich was übersehen?
Ailuros
2002-12-06, 23:56:12
Keine Ahnung. Meine Hyperthreading und idle time Fragen was PS/VS betrifft stammen aus diesem Teil:
TBDR maintain their well-known advantages. Their advanced form of HSR makes sure that hidden pixels are not textured; even more the Pixel Shader does not process them at all. Obviously this capability increases its advantage when the hidden pixel has a very complex shader connected to it. Today's games might have pixels with 2 or 3 textures attached to them. Tomorrow's games will have pixels with complex shaders using up to 16 different textures (which can be sampled multiple times by the same shader) and tens or hundreds of arithmetic operations. It's obvious that if such a complex pixel can be skipped, because it is not visible, there is a huge reduction of both bandwidth and processing power. The more complex shaders get, the more essential it becomes to avoid doing useless work. This advantage is further amplified when using full floating point render targets, writing out a 128 bit value (or larger, when using DX9's Multiple Render Targets) to memory only to overwrite it at a later stage with another value is a huge bandwidth waste. Another advantage TBDR has is that vertex and pixel processing is completely decoupled, the vertex and pixel shaders work on completely different scenes meaning that there is a significant reduction of the chance that the vertex shader will stall the pixel shader (complex vertex shader with simple pixel shader) or the other way around (simple vertex shader with very complex pixel shader). Reducing the idle time of pipeline components is yet another way to be more efficient.
Da kam der digit-life Ausschnitt ins Spiel wo ich automatisch an die multi-array Spekulation dachte. Daher dachte ich an die Alternative von multithreading (unter einer Moeglichkeit dass PS/VS unifiziert werden).
Metatron1
2002-12-07, 12:44:55
Hi Leute
(Spekulations - Modus AN)
Ich habe mir den ganzen Thread durchgelesen und ich möchte mal meinen Senf dazu geben.
Ich glaube nicht das der R350 nur eine höher getaktete Version zum R300 sein wird. Es müßten ein paar Änderungen da sein um das Ziel zu erreichen die GeForceFx in den Boden zu Rammen.
Beispiel:
Meine R300 geht ohne Modifikation bis 400/728Mhz. Bei dem Takt komme ich zwar fast an die von Nvidia veröffentlichen Benchmarks ran, die welche mein Monitor zumindest zuläßt, aber die Karte wird schon mit Standard Kühlung sehr sehr heiß.
Mit Modifikation geht es auf max. 435/750Mhz und da wird die Karte mit 2x-9x9 cm Lüfter, hinten und vorne, gekühlt und wird da schon Sau Heiß.
Bei der Taktrate bin ich zum Beispiel beim Nature Test 3FPS vor der FX und im DoomIII Alpha 1.5FPS dahinter ;)
Daraus würde ich Schlußfolgern:
1*) Die R350 in 0.15 wird nur eine R300 mit höherem Takt mit max. 400-450Mhz + DDRII und kommt mir einer Monster Kühlung daher wie bei der GeForceFX?
oder
2*) Die R350 kommt Später, wegen 0.13, und es kommt zuerst eine 9700 Ultra Raus(oder 9900Ultra??) mit 400-450Mhz + 400Mhz DDR1, 256Bit oder DDR2??
Damit wäre die R300-9700Ultra, wenn es sie gibt, in etwa gleich schnell und vielleicht mal schneller als die GeForcFX.
Es wird dafür die RV350 vorgestellt in 0.13
oder
3*) Die muß R350 in 0.13 ;) kommt in etwa, oder etwas später, zum Launch der GeForceFX mit ca. 500-550Mhz + DDR2, 256bit?? ohne Monster Kühlung da die ATI Karten bis jetzt immer besser wahren in bezug auf Hitze Entwicklung + Kühlung ;)
(/Spekulations - Modus AUS)
Das waren jetzt reine Spekulation meinerseits. Also bitte nicht Hauen ;)
Gruß
Meta
Richthofen
2002-12-07, 12:53:25
R350 Tapeout ist in 0.15 erfolgt. Es kann als ziemlich gesichert angesehen werden, das er in 0.15 ist.
davidzo
2002-12-07, 13:55:48
also, ich wollte hier nocheinmal einiges klarstellen:
1. der radeon 9500 (ohne pro) hat immer noch genau dieselbe core, nämlich den r300! Er ist nicht kleiner wie hier behauptet wird, sondern, es ist nur im BIOS ein Teil des Chips deaktiviert. Das macht ATI deshalb, weil bei der Produktion die Rendering 80% des Chips einnehmen! Also nehmen sie die Chips, bei denen eine oder mehrere Pipelines kaputt sind und schalten diese im BIOS aus. Das heißt nicht, das bei allen Chips kaputte pipelines verbaut sind!
2. Glaube ich das ATI bestimmt wenigstens etwas auf dem papier und ein paar Testsamnples zu bieten haben wird, wenn der gefurze FX kommt! Die werden Garantiert nen schnelleren Chip als den R300 bieten! Aber für sehr warscheinlich halte ich auch das sie beides rausbringen eben nen gefurzeFXkiller und ne abgespeckte version des r300 in 130nm mit optimiertem abwärmedesign und so rausbringen.
3. Wird der R400 wohl kaum schon wieder ein aufgebohrter r300 sein, d.h. der alte chip mit nen paar neuen features! Klar wird der r400 nicht DX10 sein, doch rechne ich eher mit einer völlig neuen Konstruktion, denn ATI ist nicht so wie nvidia, die ihre chips rausbringen ohne sie vorher auf abwärme usw. optimiert zu haben und dann nen halbes jahr später ne höhergetaktete version mit nen neuen namen aufn Markt zu schmeißen! der r300 ist schon hammer optimiert, da kann man nicht mehr viel basteln!
Ich Tippe ehr auf nen neuen Chip des ehemaligen R8500 team, die nun ja arbeitslos sind ;) weil sie den radeon 9000 auch schon fertig haben. Der R300 hatte ja auch gar nichts mit dem radeon 8500 zu tun, eben weil er von dem Flipper tema geschaffen wurde, das Ati eingekauft hatte... ich denke die beiden top teams von ATI werden sich immer abwechseln! so ist als nächstes das Flipper Team mit einer neuen Version des R300 dran, danach wieder das R8500 Team mit dem R400. Würde mich wundern wenn die nicht schon dabei sind irgendwas fetes zu konstruieren.
Deswegen gehe ich davon aus, das der R400 eine völlige Neuentwicklung sein wird. Man muss nicht immer von DirectX ausgehen, neue DirectX version= neuer Chip ? - nee, es gibt auch andere features die einen Chip wesentlich mehr von der Vorherigen Generation unterscheiden!
4. Glaube ich nicht das nvidia lange 3D König sein wird. Ihre bisherige Rolle werden sie wohl nie wieder Richtig einnehmen können! Denn bisher haben sie in weiser vorraussicht immer Chips mit hoher rohleistung gebaut, die aber noch nicht besonders ausgefeilt waaren, dafür aber später noch upgedaten werden konnten. Das ist auch der Grund das sie nie richtig mit Taktraten spielen konnten, weil ihre Chips einfach Schlichtweg zu schlecht gegen abwärme konstruiert waren! ATI ist hier das Vorbild, schon die 8500er Reihe war ein Vorbild in mhz und abwärme (die Geforce 3 ti500 hatte damals 240mhz unbd die radeon 275 und diese konnte man locker passiv kühlen). Dafür bringt nvidia bald später den optimierten chip raus bastelt noch ein paar marketingtechnische extrafeatures rein und taktet ihn wieder bis zur schmerzgrenze und verkauft ihn als nagelneuen chip. Bei der Geforce FX haben sie erstmalig einen anderen Weg eingeschlagen. Diese ist nicht wesentlich updatefähig, weil sonst die gesamte konstruktion verändert werden müsste. Sie hat schon extreme Taktraten, sie wird sowieso schon glüphend heiß, sie hat nur ein 128bittiges Speicherinterface, das sich nur noch minimal aufbohren lässt. Nach dem Geforce FX werden wir wohl ziemlich lange auf nvidia warten müssen bis etwas neues kommt, wenn überhaupt. Ich bin der Meinung das der Geforce FX und den Aufwand den sie gemacht haben und noch machen müssen udn das geld das dabei drauf geht nvidia die Vormachtstellung der letzten jahre rauben wird! 130nm hat viel gekostet, sie haben erstmals Weihnachten verpasst, sie bringen erstmals aufwenidige schöne aber unnötig teure Technik heraus und der chip ist eben sehr schlecht ausbaufähig!
Bisher hatte ATI immer den Technologiebonus knapp bekommen - und war im hintertreffen, weile s einfach viel kostet, die Karten mit Technik aus´zustatten, die der Anwender nicht sieht und die womöglich nie genutzt werden
Jetzt ist es umgekehrt, Ati hat das Weihnachtsgeschäft im Rücken, nividia hat es verpasst, und nvidia bringt tolle und fortschrittliche technik daher, die ich gut heiße, doch die wohl im Massenmarkt keine Chance haben wird... - nevidia wird ins hintertreffen gelangen genau wie Ati bisher immer... wohlmöglich werden sie nächstes jahr wieder das Weihnachtsgeschäft verpassen und zwischendurch nichts gro0es rausbringen können, da der Chip eben nciht ausbaufähig ist s.o. --> Siehe Ati damals mit den ersten radeons und danach wieder mit der R8500, sie hatten beide male knapp Weihnachten verpasst und sind trotz kleiner Vorsprünge zwischen druch ins hintertreffen geraten.
So, das ist im groben und ganzen meine Meinung, ins detail bin ich nicht gegangen ;)
daflow
2002-12-07, 14:53:33
Originally posted by davidzo
...
abgespeckte version des r300 in 130nm mit optimiertem abwärmedesign und so rausbringen.
...
der r300 ist schon hammer optimiert, da kann man nicht mehr viel basteln!
...
Is das nicht n Widerspruch?
Originally posted by davidzo
Bei der Geforce FX haben sie erstmalig einen anderen Weg eingeschlagen. Diese ist nicht wesentlich updatefähig, weil sonst die gesamte konstruktion verändert werden müsste. Sie hat schon extreme Taktraten, sie wird sowieso schon glüphend heiß,
Hm, das sind jetz aber reine Spekulationen, oder gibts dafür irgenwelche Belege?
Originally posted by davidzo
128bittiges Speicherinterface, das sich nur noch minimal aufbohren lässt
in wiefern lässt sich da was 'aufbohren'?
Originally posted by davidzo
Nach dem Geforce FX werden wir wohl ziemlich lange auf nvidia warten müssen bis etwas neues kommt, wenn überhaupt.
Also ich glaub nicht das der NV30 das letzte Produkt seien wird, das es von Nvidia geben wird :;)
Originally posted by davidzo
Nach dem Geforce FX werden wir wohl ziemlich lange auf nvidia warten müssen bis etwas neues kommt, wenn überhaupt. Ich bin der Meinung das der Geforce FX und den Aufwand den sie gemacht haben und noch machen müssen udn das geld das dabei drauf geht nvidia die Vormachtstellung der letzten jahre rauben wird! 130nm hat viel gekostet, ...
ATI hatte noch kein Tapeout in 0.13, wird es ATI denn weniger Zeit/Geld kosten dies zu implementieren?! :;)
Originally posted by davidzo
Jetzt ist es umgekehrt, Ati hat das Weihnachtsgeschäft im Rücken, nividia hat es verpasst,
Denn NV30 wirds nicht vor Weihnachten geben-> IM High-end segment gibts also nur den R300, aber in wiefern sich das auf die Gewinne im Weihnachtsgeschäft auswirkt? Hat irgenjemand darüber wirklich RELEVANTE Zahlen? Alles andere ist sehr spekulativ.
Hab auf alle Fälle nicht den Eindruck das es Nvidia richtig schlecht ginge
Richthofen
2002-12-07, 15:32:28
"
ATI hatte noch kein Tapeout in 0.13, wird es ATI denn weniger Zeit/Geld kosten dies zu implementieren?! :;)
"
Doch hatten sie. Den RV350 also eine abgespeckte Variante.
Ansonsten geb ich dir Recht, nach einem R350 in 0.13 sieht es nicht aus und auch ansonsten wird ATI nicht drumm herumkommen eigene Erfahrungen mit 0.13 zu machen.
seahawk
2002-12-07, 16:35:27
Glaube ich auch. Die Erfahrungen die NV machen mußte wird ATI auch machen müssen.
Weiterhin glaube ich dass es für NV einfacher ist ein 256Bit Interface zu entwicklen, als für ATI einen Highend Chip auch 0,13 um umzustellen.
Sicherlich war die Entscheidung von ATI bei dem R300 noch auf 0,15 zu setzen und den Chip dafür mit einem 256Bit Interface zu versehen besser, als die Entscheidung von NV sofort auf 0,13 zu setzen.
Dies gilt zumindest für die gegenwärtige Situation. Es bleibt abzuwarten, wie die weitere Entwicklung sein wird. Der R400 dürfte der erste Highend Chip von ATI sein der in 0,13 kommen wird. Vielleicht werden sie dann ähnliche Erfahrungen machen wie NV jetzt.
Dies ist ja nicht eine Frage des Chipdesigns sondern der Produktion in Kombination mit dem Chipdesign. Es würde mich wundern, wenn ATI da nicht auch Überraschungen erleben würde. (Siehe z.B. auch AMD mit dem Thouroghbred)
Momentan haben beide Firmen imho in etwas die gleichen Chancen.
Rampage 2
2002-12-07, 19:06:00
Also ich werde mir die Refresh-Version vom R400 zulegen (R450 ?)!!
Mit ihr dürften auch DX-8 Games bei 1600x1200x32Bit und AA+AF spielbar
sein. Oder ich kaufe (sofern NV vorher nicht untergeht:() den NV45
kaufen. Beides dürfte locker ausreichen. Aber für mich reicht eine
R300 manchmal einfach nicht aus, deswegen.
Auf jeden Fall erwarte ich, dass beide Konzerne endlich 8xRGAA und
höheres AF einführen.
Iceman346
2002-12-07, 20:04:41
Originally posted by Rampage 2
Auf jeden Fall erwarte ich, dass beide Konzerne endlich 8xRGAA und
höheres AF einführen.
Warum? Ich sehe jetzt schon zwischen 4x und 6x AA praktisch keinen Unterschied mehr (schon garnicht in 1600x1200) und genauso verhält sichs mit 8x AF zu 16x AF.
Mir würde es reichen wenn ich alle jetzigen und zukünftigen Spiele flüssig mit 4x oder 6x AA + 16x AF spielen kann.
Pussycat
2002-12-07, 20:23:21
Ihr vergisst den R350 in 0,13. Nach mehreren Gerüchten gibt's erst eine R350 in 0,15 und dann eine in 0,13.
seahawk
2002-12-07, 20:58:20
Ne an den 0,13 R350 glaube ich nicht. Wo soll der noch reinpassen ?? In den 6 Monaten zwischen R350 und R400 ?? RV350 in 0,13 vielleicht.
Thowe
2002-12-07, 21:06:08
Originally posted by Iceman346
Warum? Ich sehe jetzt schon zwischen 4x und 6x AA praktisch keinen Unterschied mehr (schon garnicht in 1600x1200) und genauso verhält sichs mit 8x AF zu 16x AF.
Mir würde es reichen wenn ich alle jetzigen und zukünftigen Spiele flüssig mit 4x oder 6x AA + 16x AF spielen kann.
Also da ich dank TFT (bald 19") gezwungen bin 1280x1024 zu nutzen, dieses Technologie bedingt gegenüber einen Monitor so oder so wesentlich nötiger AA/AF braucht, kann ich auch einen Unterschied zwischen den einzelnen AF und vor allem AA Stufen sehen. Deshalb hoffe und erwarte ich von der Serie 5 ein dementsprechend brauchbares AA/AF. Das AA/AF der 9700 die ich zur Zeit nutze ist zwar schon sehr gut, aber bei weitem nicht optimal.
Thowe
2002-12-07, 21:11:12
Originally posted by seahawk
Weiterhin glaube ich dass es für NV einfacher ist ein 256Bit Interface zu entwicklen, als für ATI einen Highend Chip auch 0,13 um umzustellen.
Einfach ein 256Bit Interface zu entwickeln bringt es nicht, da muss auch die Möglichkeit geschaffen werden es effektiv zu nutzen. Ich habe leider recht wenige Informationen was ATis nächsten Chips angeht, jedoch glaube ich sehr fest daran, das der 130nm Prozess durchaus schon "in Arbeit" ist.
Demirug
2002-12-07, 21:20:42
Originally posted by Thowe
Einfach ein 256Bit Interface zu entwickeln bringt es nicht, da muss auch die Möglichkeit geschaffen werden es effektiv zu nutzen. Ich habe leider recht wenige Informationen was ATis nächsten Chips angeht, jedoch glaube ich sehr fest daran, das der 130nm Prozess durchaus schon "in Arbeit" ist.
Wenn ich den Aufbau des NV30 richtig verstanden habe ist der gesamte Chip durch einen Cache vom Speicherinterface entkoppelt. Man könnte also recht leicht die Speicheranbindung breiter machen. Aber wenn der Chip im normalen Betrieb nicht am Speicherlimit hängt wäre das natürlich überflüssig. Man verbessert einen Chip Leistungstechnisch ja immer dort wo es am meisten hackt.
Thowe
2002-12-07, 21:39:27
Originally posted by Ailuros
Hoffentlich hat's mein Freund Thowe schon gelesen ;)
Jetzt ja =)
Thowe
2002-12-07, 21:42:02
Originally posted by Demirug
Wenn ich den Aufbau des NV30 richtig verstanden habe ist der gesamte Chip durch einen Cache vom Speicherinterface entkoppelt. Man könnte also recht leicht die Speicheranbindung breiter machen. Aber wenn der Chip im normalen Betrieb nicht am Speicherlimit hängt wäre das natürlich überflüssig. Man verbessert einen Chip Leistungstechnisch ja immer dort wo es am meisten hackt.
Eben, also müsste der Core-Takt erhöht werden oder der Vorteil wäre der vielleicht günstigere Speicher - alles eher nicht.
robbitop
2002-12-07, 22:30:45
nach der Bezeichnung R400 müsste dieser Chip ein komplett neues Design haben. ABER: nach dem abgewandelten moore's Law haben die neuen Chips immer doppelte Transistorenanzahlen und 200Mio Transistoren halte ich @130nm CuProzess @550-600Mhz für utopisch.
Ich denke es wird wohl eher ein aufgebohrter R3xx sein, so wie der NV25 auch ein sehr aufgebohrter Nv20 war und nicht bloss uebertaktet (fragt dazu aths!). Ein neuer Chip das wäre von den Kosten und Zeit her nicht wirklich komplett machbar (nur reine Speku). Und ich schätze dass der R350 dank 150nm nur sehr leichte Änderungen haben wird. Vermutlich kann man die NVxx und Rxxx nicht mehr nach den Ziffern vergleichen. Denn der NV40 wird sehr wahrscheinlich ein komplett neuer Chip wovon ich beim R400 nicht ausgehe. Der R350 hat nur eine Aufgabe: die PerformanceKrone zu sichern bzw nicht zu stark hinten zu liegen. Er wird optimiert auf hohe taktraten und die 150nm Yields dürften auch besser sein und hopp isser höher getaktet und natürlich DDR2 Ram rauf.
ich vermute ja immernoch dass das 256bit Interface allein nicht der Hauptgrund des Speeds des R300 ist (man vergleiche R9700 vs 9500Por bei selben Takten...).
@demi
könntest du mal was zum Unterschied der Compression zw R3xx und NV3x sagen ausser dass jener nur im FSAA Falle @R3xx eintritt.
Ist eine getrennte Z Kompression im NV30 enthalten?
Demirug
2002-12-07, 23:39:02
Originally posted by robbitop
nach der Bezeichnung R400 müsste dieser Chip ein komplett neues Design haben. ABER: nach dem abgewandelten moore's Law haben die neuen Chips immer doppelte Transistorenanzahlen und 200Mio Transistoren halte ich @130nm CuProzess @550-600Mhz für utopisch.
neues Design ist immer so eine Sache. Ich habe den Eindruck gerade in der Pixelpipeline vom R300 eine starke verwandschaft zu der Pixelpipeline des R200 erkannt zu haben.
@demi
könntest du mal was zum Unterschied der Compression zw R3xx und NV3x sagen ausser dass jener nur im FSAA Falle @R3xx eintritt.
Nein leider weis ich dazu auch nicht mehr als die alle anderen auch.
Bekannt ist wie gesagt das es beim R300 nur in Verbindung mit AA funktioniert. ob das beim NV30 genauso ist weiss man noch nicht. Es ist allerdings aufgrund der unterschiedlichen Breite eines Memorykanals (64 zu 32) und der höhren Anzahl von MultiSamples pro Pixel (6 zu 4) anzunehmen das ATI grössere Tiles komprimiert als NVIDIA. ATI benutzt AFAIK 8*8 Pixel blöcke und gibt eine maximale Kompression von 24:1 an. Allerdings müssen dafür alle Pixel die gleiche Farbe haben. Wie viele zwischen stuffen es zwischen 1:24 und keine Kompression gibt ist unbekannt.
Beim NV30 kann ich nur spekulieren den alles was man weiss ist das es eine Kompression mit bis zu 4:1. Aufgrund dessen was sonst noch bekannt ist würde ich darauf tippen das NVIDIA 32 AA-Sample (also 8 Pixel bei 4xAA) in eine Packet steckt. Ob die Kompression immer benutzt wird oder nur beim AA ist schwer zu sagen. Sicherlich gibt es Verfahren die es auch erlauben eine Kompression zu erreichen wenn nicht mehrfach der gleiche Farbwert vorhanden ist in wie weit aber soetwas benutzt wird weis ich nicht.
Ist eine getrennte Z Kompression im NV30 enthalten?
AFAIK ja
Originally posted by Thowe
Also da ich dank TFT (bald 19") gezwungen bin 1280x1024 zu nutzen, dieses Technologie bedingt gegenüber einen Monitor so oder so wesentlich nötiger AA/AF braucht, kann ich auch einen Unterschied zwischen den einzelnen AF und vor allem AA Stufen sehen.Weshalb braucht man mit einem TFT "mehr" AF???
Thowe
2002-12-08, 11:58:14
Originally posted by aths
Weshalb braucht man mit einem TFT "mehr" AF???
Sagen wir es mal so, während viele auf einem normalen Monitor durch seine eh vorhandenen Unschärfe nicht mehr so schnell einen Unterschied beim AF siehst, siehst man es auf einem TFT noch recht gut. Also nicht viel mehr wird benötigt beim AF, aber beim AA ist es so oder so wesentlich krasser.
Lost Prophet
2002-12-08, 12:08:04
Originally posted by robbitop
nach der Bezeichnung R400 müsste dieser Chip ein komplett neues Design haben. ABER: nach dem abgewandelten moore's Law haben die neuen Chips immer doppelte Transistorenanzahlen und 200Mio Transistoren halte ich @130nm CuProzess @550-600Mhz für utopisch.
moore's law ist doch AFAIK 18 monate also insgesamt doppelte transis der r300 bei r450 oder r500
es warn doch 18 oder??
cya axel
Ailuros
2002-12-08, 13:44:02
Kleinigkeit: der Schwung von .13 auf .11 wird viel leichter sein, als .15 zu .13, falls Transistoren-Anzahl Sorgen machen sollte; obwohl ich trotz allem bezweifle dass man fuer die naechste Generation gleich zweimal so viel Transistoren braucht. Wenn man schon base-level dx9.0 Komplianz hat, braucht man nicht die doppelten Transistoren fuer high-level dx9.0 Komplianz.
[ncp]EasyChiller
2002-12-08, 13:49:27
wiso sollte die Umstellung auf 0.11 leichter sein? ... und echt 0.11 - soll der nächste Schritt danne nicht gleich de 0,09 werden? ???
Crazytype
2002-12-09, 18:29:33
naja es könnte auch erst nur auf .10 runtergesetzt werden(so wie bei modernen ddr rams) aber ihr scheint zu vergessen ,dass ddrII nach samsungs spezifikationen eigentlich 4 daten pro flanke übertragen kann also bei 250 Mhz effektive 1000Mhz...(nvdia hat dies fraglicherweise nicht genutzt)
aber als ich die geforce fx gesehen hab musste ich echt lachen... son dicker kühler,okay 500 MHz sind viel aber es ist ein kleiner fertigungsprozess und ddrII wird nicht so heiß/verbraucht nicht so viel strom wie ddrI.
Da haben die ati inginieure mehr zustande gebracht mit 150 nanometer
Demirug
2002-12-09, 18:38:05
Originally posted by Crazytype
naja es könnte auch erst nur auf .10 runtergesetzt werden(so wie bei modernen ddr rams) aber ihr scheint zu vergessen ,dass ddrII nach samsungs spezifikationen eigentlich 4 daten pro flanke übertragen kann also bei 250 Mhz effektive 1000Mhz...(nvdia hat dies fraglicherweise nicht genutzt)
NEIN und nochmal NEIN. Auch wenn es auf allen möglichen Seiten steht wird es dadurch nicht richtiger. DDR-II überträgt wie DDR-I auch jeweils 2 Bits pro Takt (also ein Bit pro Flanke). Das einzige was mit 250 MHZ läuft sind die internen RAM-Zellen.
aber als ich die geforce fx gesehen hab musste ich echt lachen... son dicker kühler,okay 500 MHz sind viel aber es ist ein kleiner fertigungsprozess und ddrII wird nicht so heiß/verbraucht nicht so viel strom wie ddrI.
Was den Kühler angeht sag ich einfach mal abwarten. Es wird auch Karten ohne dieses Monsterteil geben.
Da haben die ati inginieure mehr zustande gebracht mit 150 nanometer
In wie fern mehr?
MeLLe
2002-12-09, 19:29:51
Originally posted by Demirug
NEIN und nochmal NEIN. Auch wenn es auf allen möglichen Seiten steht wird es dadurch nicht richtiger. DDR-II überträgt wie DDR-I auch jeweils 2 Bits pro Takt (also ein Bit pro Flanke). Das einzige was mit 250 MHZ läuft sind die internen RAM-Zellen.
Full Ack. Besser hätt ich net antworten können. Was Marketing alles anrichten kann, ist schon erstaunlich.
"AGP-8x bringt doppelte 3DMark-Scores als mit AGP-4x."
"Geforce4MX ist schneller als Geforce3."
oder eben
"DDR-II verdoppelt die Lesitung von DDR-I."
Das ist nicht nur erstaunlich, nein - es ist erschreckend zugleich. Denn der gemeine Dau glaubt gern und kauft gut.
Originally posted by Demirug
Was den Kühler angeht sag ich einfach mal abwarten. Es wird auch Karten ohne dieses Monsterteil geben.
Um nicht zu sagen "...geben müssen."
Denn nicht jeder kann oder will sich zwei Slots mit einer Karte vernageln. Und auch die Leute sollten ja laut nVidias Bestreben Karten kaufen, auf denen einer ihrer Chips sitzt. :|
Originally posted by Demirug
In wie fern mehr?
Gute Frage ;)
[ncp]EasyChiller
2002-12-09, 21:36:24
das "inwievern" meinte er halt eben anscheinend NUR auf die Leistungsaufname des Chips bezogen.
Aber es spielt halt nicht nur die Transistoren-Anzahl und der Fertigungsprozess und der Takt eine Rolle für die Leisungsaufnahme, sondern auch wie die Transisoren genutzt wurden!
und so einfach lässt sich NICHT sagen das ATI in bezug auf die Leisungsaufnahme bessere Arbeit geleistet hat!
Weil - grobe rechnung:
mit steigender Frequenz erhöht sich die Wärmeleistung linear
die strukturgröße müsste eigentlich indirekt quadratisch prop. sein
und nun fehlt noch die Betriebsspannung ... diese wieder quadratisch direkt
Um jetzt beide Chips zu vergleichen müsstes du diese bei gleicher Spannung und gleicher Frequenz betreiben (und dann noch ins Verhältnis zur Transistorenanzahl setzen) um halbwegs brauchbares Ergebnis zu erziehlen!
Denn es kann doch gut sein, das nvda um die 500 MHz zu erreichen (welche wirklich endlich mal nen beachtlicher Sprung wären) ebenfalls noch die Spannungen angehoben hat! Es könnte ebenfalls sein, das ATI mit standardmäßig höheren Spannungen ihren R300 sogar höher hätte takten können, das sie davon jedoch abgesehen haben um die betreffenden Karten noch innerhalb der normalen AGP-Spezifikationen zu halten (und so den externen Stromanschluss zu umgehen)! ;D
Originally posted by [ncp]EasyChiller
Denn es kann doch gut sein, das nvda um die 500 MHz zu erreichen (welche wirklich endlich mal nen beachtlicher Sprung wären) ebenfalls noch die Spannungen angehoben hat! Es könnte ebenfalls sein, das ATI mit standardmäßig höheren Spannungen ihren R300 sogar höher hätte takten können, das sie davon jedoch abgesehen haben um die betreffenden Karten noch innerhalb der normalen AGP-Spezifikationen zu halten (und so den externen Stromanschluss zu umgehen)! ;D
Ganz einfach: ATI hat keinen höheren Chiptakt gebraucht um an die Geschwindigkeitskrone zu kommen, also brauchen sie auch keine höhere spannung und sparen sich dadurch den teuren Lüfter.
Wenn der NV30 mal draussen ist und dann auch wirklich schneller ist als der R300, dann wird auch ATI die Chipspannung erhöhen, nen Monsterkühler draufbappen und nen Chiptakt von über 400Mhz liefern. Oder aber sie kommen eben gleich mitm R350, der vielleicht auch nicht anderes als ersteres ist.
Ailuros
2002-12-09, 23:49:13
Vor einiger Zeit hiess es vom ATI-camp dass der NV30 nieee faehig waere einer R300 nichtmal ebenbuertig zu sein, weil der letztere einen breiteren bus hat ergo mehr Bandbreite. Da haben so manche vergebens angemerkt, dass man nur von dem bus die Effizienz einer Architektur nicht beurteilen kann.
Natuerlich wird ATI die Taktrate bei ihrem high end Modell hoeher ansetzen, innerhalb von ein paar Monaten, wobei auch NV dann ein bisschen spaeter auf einen breiteren bus kommen kann usw usw.
Konkurrenz ist doch ne schoene Sache oder?
[ncp]EasyChiller
2002-12-09, 23:53:56
ach ja - noch mal nen paar zahlen: 0.13µ zu 0.15µ bringt ungefähr "nur" 25% erspaarniss bei gleicher Spannung. ... hingegen ein Chiptakt von 500 zu 325 stellt eine energetische erhöhung um 54% dar!! Beides ineinandergehaun (also [0.15µ und 325MHz] zu [0.13µ und 500MHz] ) resultiert danne immerhin noch in ein "Wärmeplus" von ca 15% ... also mal soviel zum "Monsterkühler"! ;D
:O :O :O
(bin mir jetzt nicht 100%ig sicher ob ich eigentlich mit der Annahme, das die Strukturgröße nur quadratisch (oder doch in 3. potenz) eingeht Recht gehabt habe ... aber das sagt mir zumindest mein Verstand ... da müsste ich jetzt mal genau wissen was da eigentlich verändert wird ... im Grunde doch nur die STRUKTURBREITE - also nicht die höhe - oder? ... im Falle 3. Potenz wären es eben: 35% Einspaarung und 54% Erhöhung würden immerhin in +/-0% Erhöhung resultieren)
Birdman
2002-12-10, 00:24:24
seit wann erhöht sich die Verlustleistung quadratisch wenn die Freuquenz ansteigt? Bei der Spannung trifft dies wohl zu, nicht aber bei den Mhz. (diese gehen linear)
Wenn dem so wäre müsste Intel schon lange mit flüssig-Stickstoff kühlen um die 3Ghz unter der schmelztemperatur zu halten.
Salvee
2002-12-10, 00:50:13
@ [ncp]EasyChiller
Demirug hat in einem anderen Thread (bin zu faul zum suchen) geposted, dass der Übergang von 0,15 zu 0,13µ und der zusätzliche Kupfer- statt Aluprozess ca. 75% Leistungssteigerung(Taktsteigerung) ermöglichen. Die Angaben hatte er von TSMC direkt, ich betrachte sie jedenfalls erstmal als Tatsache ;) (solange nicht widerlegt)
[ncp]EasyChiller
2002-12-10, 01:51:03
@Birdman: oops - hasst recht - iss ja nur ne lineare Abhängigkeit! ;D ... habs oben korregiert! =)
@Salvee: gut ... das von Alu auf CU umgestellt wurde hatte ich nicht gewusst :) ... 75% ist wesentlich mehr als ich gedacht hätte! =)
TruPlaya
2002-12-10, 10:09:01
Das war ein genialer Schachzug von ATI alle Energien in die Radeon9700Pro zu stecken, während gleichzeitig schon die Pläne für den SPRING Refresh getätigt werden. Man "wollte" aggressiver als NVIDIA arbeiten und hat es somit auch geschafft. Ich denke das NVIDIA erst mit einem SpringRefresh der GeforceFX (Welche Ich meines jetzigen Wissenstandes als FLOP sehe, da diese eine neue Generation darstellen sollte und somit ein AF bzw AA ohne derartige Geschwindigkeitsverluste mitbringen sollte.) wieder Leistungsmässig an ATI herankommen kann. Wenn ATI sein Tempo behält, sieht es aber schlecht für NVIDIA aus.
Meine "IDEEN" zu den SPECS:
R350 --> DDRII etwas höher getaktet als GeforceFX / evtl bessere aufteilung der Speichersegmente / DirectX 9.1 ausgelegt / Displacement Mapping
Ah, ein weiterer, der irgendwelche GFfx Benches hat.
Immer nur her damit, wie ist denn die Leistung der Gffx ohne und mit AA/AF? Bitte mit kompletter Systemangabe.
TruPlaya
2002-12-10, 10:24:04
Einfach an die Fakten und an die Vergangenheit denken, wie es schon so oft im GraKa Markt war. Passt einer nicht auf, ist das sein Tod.
Wer wie NVIDIA seine Energien auch in andere Projekte steckt, steckt weniger in den Grafikkarten, und NVIDIA hatte ne Menge zu tun, siehe XBOX / NForce2 / DVD Player ;) ......
Ati hat sich besonnen und mit dem Team, wo für den FlipperCHIP in der Gamecube verantwortlich sind, zusammengeschlossen und kämpft nun gegen das BÖSE (Nvidia)
=)
seahawk
2002-12-10, 11:22:34
Originally posted by TruPlaya
Einfach an die Fakten und an die Vergangenheit denken, wie es schon so oft im GraKa Markt war. Passt einer nicht auf, ist das sein Tod.
Wer wie NVIDIA seine Energien auch in andere Projekte steckt, steckt weniger in den Grafikkarten, und NVIDIA hatte ne Menge zu tun, siehe XBOX / NForce2 / DVD Player ;) ......
Ati hat sich besonnen und mit dem Team, wo für den FlipperCHIP in der Gamecube verantwortlich sind, zusammengeschlossen und kämpft nun gegen das BÖSE (Nvidia)
=)
Aua. Baut ATI nicht auch Chipsets ????
Und die Fakten hätte ich gerne.
robbitop
2002-12-10, 15:14:03
imho nicht so komplexe Chjipsätze (guckt euch ma den Nforce an mit seiner Soundlösung, dem Meminterface und der Prefetch unit und nebenbei eine nette OnBoard Lösung und DualChannel...der beste SoA Chipsatz allerzeiten)
Ailuros
2002-12-10, 15:43:18
Originally posted by ow
Ah, ein weiterer, der irgendwelche GFfx Benches hat.
Immer nur her damit, wie ist denn die Leistung der Gffx ohne und mit AA/AF? Bitte mit kompletter Systemangabe.
Hmmm ich koennte schwer vorhersehen (verdammte Kristallkugel :P ) wie die Performance von 4xOGMS auf FX sein koennte im Vergleich zu R300; jedenfalls theoretisch wenn NV mit adaptive anisotropic meint, was ich darunter verstehe (between 1x and 16x varying number of samples, depending on the needs of the surfaces and as rotationally invariant as before), sollte die Wiedergabe nicht mehr einbrechen als wenn man bei NV25 in D3D auf texturing stage "0" Level 8x einsetzt und bei den restlichen nur Level 1x. Nur eine pure Schaetzung.
Aber selbst wenn mir jemand sagen wuerde dass NV30 z.B. ungefaehr =/<20% einbusst mit adaptivem Level 8x, dann sagt mir dass auch nichts. 20% von was? ;)
Crazytype
2002-12-10, 17:18:19
ich meine das sich die samsung spezifikationen von ddrII für grafikkarten unterscheiden und in den specs gelesen zu haben ,dass sie 4 daten pro takt übertragen könnten, was ich damit meine ,dass ati einen "besseren job" getan hat erleutere ich wie folgt:
100 Millionen zu 120 Millionen transistoren ist kaum ein unterschied
150 zu 130 nanometer
325 DDRI zu 500 MHz ddrII(mit niedrigerer spannung)
und obwohl nvidia kupfer interconnects benutzt, ddrII mit weniger spannung, einem niedrigeren fertigungsprozess und kaum mehr transistoren(fast sogar spezielle dialektolysen ala low-k benutzt hätten) verstopfen sie 2!!!! pci steckplätze(okaj es handelte sich hierbei nicht um die final version aber trotzdem bedenklich)
deswegen finde ich es um so erstaunlicher ,was ati aus den schon langen benutzten 150 nanometer gezaubert hat...
zeckensack
2002-12-10, 17:26:21
Quasar scheint empirisch herausgefunden zu haben, daß eine R9k7Pro den darunterliegenden PCI-Slot auch zur Kühlung braucht, obwohl sie ihn physikalisch betrachtet natürlich nicht belegt ...
Demirug
2002-12-10, 17:37:47
Originally posted by Crazytype
ich meine das sich die samsung spezifikationen von ddrII für grafikkarten unterscheiden und in den specs gelesen zu haben ,dass sie 4 daten pro takt übertragen könnten,
Lies nochmal. Das gilt nur intern nicht auf dem Datenbus.
was ich damit meine ,dass ati einen "besseren job" getan hat erleutere ich wie folgt:
100 Millionen zu 120 Millionen transistoren ist kaum ein unterschied
150 zu 130 nanometer
325 DDRI zu 500 MHz ddrII(mit niedrigerer spannung)
und obwohl nvidia kupfer interconnects benutzt, ddrII mit weniger spannung, einem niedrigeren fertigungsprozess und kaum mehr transistoren(fast sogar spezielle dialektolysen ala low-k benutzt hätten) verstopfen sie 2!!!! pci steckplätze(okaj es handelte sich hierbei nicht um die final version aber trotzdem bedenklich)
deswegen finde ich es um so erstaunlicher ,was ati aus den schon langen benutzten 150 nanometer gezaubert hat...
- es sind 2 Slots in Summe (1 AGP + 1 PCI)
- 107 zu 125 sind 16,8% mehr
- 325 zu 500 sind 53,8% mehr
in gleichen Process hätte haben wir also 79,6 % mehr. TSMC gibt nun an das 0.15 zu 0.13 und Alu zu Kupfer etwas 75% bringt. Es gibt also etwas mehr wärme abzuführen. Wenn der Monsterkühler auch schon für die low-k Transitoren gedacht war in welche Bereichen wären die Taktraten dann wohl gegenagen? Zum anderen ist fast zu 100% sicher das es auch eine andere Kühllösung geben wird.
Ich möchte die Leistung von ATI nicht schmälern da sie mit den 107 mill transitoren ja ein gutes stück über die von TSMC spezifizierten 96 mill transitoren hinausgekommen sind. Ein entgültiges Urteil wird man aber erst fällen können wenn man dann mal eine Karte zum Messen hat.
[ncp]EasyChiller
2002-12-10, 17:58:03
ich will nur mal an die Parphelia-Presamples erinnern.... die hatten noch nen größeren Kühler drauf als die ersten FX-Boards hier! ;D
:O
seahawk
2002-12-10, 18:35:33
ATI's R350, RV350 taped out already?
Nvidia may have missed the boat
By Jansen Ng: Dienstag 10 Dezember 2002, 16:08
THE INQUIRER has received several tips recently regarding ATI's R350 and RV350.
The first reiterates that ATI's R350 is being built on a 0.15 micron process. ATI's RV350 mainstream part is however being built on a 0.13 micron process.
What is new is that both the R350 and the RV350 have already taped out with their production partner TSMC, which did not do quite as good a job with their friend Nvidia.
The Nvidia NV30 super graphics VPU was planned to be launched using TSMC's 130nm copper and Chemical Vapor Deposition (CVD) low k dielectric process using Applied Materials' CVD low k Black Diamond product to wipe the floor with ATI. That would have been the first chip tape out for volume production using the most advanced foundry process currently available.
ATI has been more conservative in its process selection by relying on TSMC's proven 0.15 micron copper process without a low k dielectric.
Nvidia's GeForce FX using the NV30 chipis expected to be available to consumers in February, missing the Christmas boat. Many people have been snapping up Radeon 9700s and Radeon 9500s because they are widely available, and the best performing products to boot.
ATI's taping out means that those people who were waiting until February for NV30 might as well give up and buy Radeons now for little Timmy, or else wait a little bit into February and buy a Radeon 9900 Pro. µ
StefanV
2002-12-10, 19:07:54
Originally posted by [ncp]EasyChiller
ich will nur mal an die Parphelia-Presamples erinnern.... die hatten noch nen größeren Kühler drauf als die ersten FX-Boards hier! ;D
:O
Ach, wirklich??
Das sehe ich anders, soo groß war der Prototyp Parhelia Kühler auch wieder nicht.
War etwa so groß wie der Kühler, der jetzt auf der FireGL X1 sitzt, eher kleiner...
Quasar
2002-12-10, 19:39:26
Originally posted by zeckensack
Quasar scheint empirisch herausgefunden zu haben, daß eine R9k7Pro den darunterliegenden PCI-Slot auch zur Kühlung braucht, obwohl sie ihn physikalisch betrachtet natürlich nicht belegt ...
Wobei ich mir durchaus vorstellen kann, dass auch eine GF4 Ti mit 300MHz oder so zu Bildfehlern zu bewegen ist, wenn man (PCI-Spec-gerecht) den Lüfter quasi tötet...
MeLLe
2002-12-10, 20:37:45
Originally posted by seahawk
[...] By Jansen Ng: Dienstag 10 Dezember 2002, 16:08
THE INQUIRER [...]
Ich war mal so frei, den wahrscheinlich korrekten Teil des Postings zu quoten.
fett dargestellt: - der Grund für die [...]s
[ncp]EasyChiller
2002-12-11, 02:27:40
hat mal noch jemand irgendwo (oder nen Link zu) nen Bild von den Matrox-Parphelia-betaboard-kühler? (hab grad gesucht - aber leider nix im web gefunden :( ) ... wollte den nochmal optisch mit dem jetzigen auf der Serien-Parphelia vergleichen! ;D
Pussycat
2002-12-12, 13:14:01
Hier isser:
http://athena.tweakers.net/ext/i.dsp/1022020290.jpg
Originally posted by Stefan Payne
Ach, wirklich??
Das sehe ich anders, soo groß war der Prototyp Parhelia Kühler auch wieder nicht.
War etwa so groß wie der Kühler, der jetzt auf der FireGL X1 sitzt, eher kleiner...
Ach wirklich?
Guckst du hier obendrueber und sagst uns dann, wie da der erste PCI-Slot des Mobos noch nutzbar sein soll.
zeckensack
2002-12-12, 13:57:39
ow,
Schau dir die FireGL X1 erstmal an:
http://www.guru3d.com/-/20020808-01.jpg
Sehe ich.
Scheint mir etwas flacher zu sein als der Kuehler auf dem Parhelia beta-Board. Davon abgesehen ist die FireGL ja eine echte AGP-Pro Karte (btw. schau mal, wo das PCB im Bezug auf die Slotbleche sitzt, erinnert dich das an was?;)) und darf 2 Slots belegen.
/edit: und btw. sehe ich immer noch keinen richtigen Bezug zum GFfx Kuehler. Wo ist denn da der Vergleich?
Bei diesem Parhelia-Kühler gehe ich sogar davon aus dass er 2 PCI-Slots verdeckt.
zeckensack
2002-12-12, 14:43:07
Originally posted by ow
btw. schau mal, wo das PCB im Bezug auf die Slotbleche sitzt, erinnert dich das an was?;)Jau, ich weiß was du meinst, aber das ist IMO eine optische Täuschung.
Schau dir den kleinen Sub-DIN-Stecker für die Shutterbrille an. Das schwarze Plastik davon kann man auch noch sehen, der sitzt also auf der Oberseite der zweiten Etage. Die DVI-Ports sitzen genau eine Slot-Höhe drunter, also auch auf der Oberseite der Platine, nicht darunter ;)
@zeckensack:
Meinen wir auch sicher dasselbe??
Denke dir einfach das Slotblech mit dem Sub-DIN weg und die Karte sieht genauso aus wie jede andere.
Ansonsten würde sie auch nicht ins Gehäuse passen.:D
zeckensack
2002-12-12, 18:34:16
Ich dachte du meinst unsere Debatte damals zum NV30-Previewboard. Da hatte ich in den AGP-(non-Pro-)Specs gekramt und ein Schaubildchen von einer Karte gefunden, das zwei Slothöhen belegt, bei dem das PCB aber in der Mitte sitzt. Dh ein Slot davor, einer dahinter.
Und das ist bei der FireGL IMO nicht der Fall (noch ein Indiz: durch das Loch des Slotblechs rechts neben dem DVI-Port kann man noch die grüne PCB-Oberfläche sehen).
Also: daß die Karte um das Shutter-Blech reduziert aussähe, wie eine stinknormale AGP-Karte mit zuvielen Pins und einem zu dicken Kühler :D,
der Meinung bin ich auch.
Was meintest du denn dann?
[ncp]EasyChiller
2002-12-12, 18:41:33
@Pussycat: DanKe! ;D
@ALL: Also nun vergleiche mann mal den Beta-Parphelia-Kühler mit dem jetzigen verbauten:
(Ich finde schon das das ein EXTREMER Unterschied ist!)
Beta:
http://athena.tweakers.net/ext/i.dsp/1022020290.jpg
Jetzt:
http://danke.homeip.net/parphelia.jpg
(mann möge mir das linken des bildes von thg verzeihen!) =)
zeckensack
2002-12-12, 18:43:43
Originally posted by [ncp]EasyChiller
(mann möge mir das linken des bildes von thg verzeihen!) =) Sowas verzeihen wir hier nie, weil nämlich außer dir (der du das Bild noch im Browser-Cache hast) niemand das Bild sehen kann.
Sollte mittlerweile eigentlich bekannt sein :eyes:
[ncp]EasyChiller
2002-12-12, 18:46:55
habs schon bemerkt und gefixt! =) (sorry - hab vorher noch keine Bilder was von THG gelinkt) :D
Originally posted by zeckensack
Ich dachte du meinst unsere Debatte damals zum NV30-Previewboard. Da hatte ich in den AGP-(non-Pro-)Specs gekramt und ein Schaubildchen von einer Karte gefunden, das zwei Slothöhen belegt, bei dem das PCB aber in der Mitte sitzt. Dh ein Slot davor, einer dahinter.
Und das ist bei der FireGL IMO nicht der Fall (noch ein Indiz: durch das Loch des Slotblechs rechts neben dem DVI-Port kann man noch die grüne PCB-Oberfläche sehen).
Also: daß die Karte um das Shutter-Blech reduziert aussähe, wie eine stinknormale AGP-Karte mit zuvielen Pins und einem zu dicken Kühler :D,
der Meinung bin ich auch.
Was meintest du denn dann?
Schön, dann sind wir uns ja einig. Genau das meinte ich:)
Das PCB in der Mitte zwischen den Slotblechen kann nicht sein, dann passen die Slotbleche nicht in´s Gehäuse oder die Karte nicht in den AGP-Slot.:D
Originally posted by [ncp]EasyChiller
habs schon bemerkt und gefixt! =) (sorry - hab vorher noch keine Bilder was von THG gelinkt) :D
das gleiche solltest du mal mit deinem bild in der sig machen, weil ich da auch nur den Platzhalter sehe.
[ncp]EasyChiller
2002-12-12, 19:58:14
@burk23: das liegt daran, das mir 2 IBM's wechgeraucht sind ... eine davon war die systempladde von meinem Server! :( ... hab mittlerweile nen neuen Server aufgezogen, allerdings läuft bei dem der dynddns-client noch nicht (habsch noch nicht geinstet) ... ;D
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.