PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: New 90nm GF7s by January, Next-Gen in H1 2006, plus RSX NREs until mid-Q1.


Seiten : 1 2 3 [4] 5

Gast
2006-03-05, 18:20:56
Ehrlich gesagt kann mich weder G71 noch R5xx so richtig überzeugen (ausgehend von ner 256er 7800 GTX).

Ich warte ganz eindeutig lieber auf die nächste Generation.Exakt so werde ich es auch handhaben, ebenso ausgehend von einer 7800GTX/256.

Hugo
2006-03-05, 18:26:21
Das die hier noch keiner gepostet hat?

CPU@1800Mhz / 7900GT@default

3DMark03
http://img462.imageshack.us/img462/8429/7900gt3dm033rn.th.jpg (http://img462.imageshack.us/my.php?image=7900gt3dm033rn.jpg)

3DMark05
http://img462.imageshack.us/img462/7905/7900gt3dm052wp.th.jpg (http://img462.imageshack.us/my.php?image=7900gt3dm052wp.jpg)

3DMark06
http://img462.imageshack.us/img462/826/7900gt3dm061bb.th.jpg (http://img462.imageshack.us/my.php?image=7900gt3dm061bb.jpg)

/edit

hier noch ein Bild der Leadtek 7900GThttp://img203.imageshack.us/img203/5426/leadtek7900gtpcb0sk.th.jpg (http://img203.imageshack.us/my.php?image=leadtek7900gtpcb0sk.jpg)


Wenn die Benchs stimmen ist die 7900GT nicht viel schneller als die 7800GT.
Futuremark 3000+ 7800GT SLI (http://service.futuremark.com/compare?3dm06=91146)

Gast
2006-03-05, 18:51:21
Wenn die Benchs stimmen ist die 7900GT nicht viel schneller als die 7800GT.
Futuremark 3000+ 7800GT SLI (http://service.futuremark.com/compare?3dm06=91146)
N1, wenn ich's richtig verstanden habe, war nur der Murks03-Wert mit SLI, die beiden anderen waren Single-Karte.

Also sollte eine 7900 GT ~10% schneller als ein 7800-GT-SLI-Setup im Murks06 sein. ;D


Q

sklave_gottes
2006-03-05, 18:59:12
Also sollte eine 7900 GT ~10% schneller als ein 7800-GT-SLI-Setup im Murks06 sein.

das halte ich für unmöglich

robbitop
2006-03-05, 19:07:41
Nur läßt sich die 7900GT mit Sicherheit ordentlich übertakten...

J0ph33
2006-03-05, 19:14:44
SLI war schätze ich auch beim 06er bench an, nur limitierte da die CPU extrem...

der typ, der das ding getestet hat meinte, er bekäme nur beim 03er einen SLI-score, bei den anderen einen singlescore, womit nicht gesagt ist, dass er die dinger auch einzeln getestet hat...auf dem 06er-screen ist SLI definitiv an...und das ergebnis scheint auch logisch

Gast
2006-03-05, 20:16:00
Die bringen schon was. Schau dir mal FEAR an. In Zukunft (also die nächsten Monate) wird der Trend immer und immer mehr in diese Richtung gehen. Ich kauf' doch keine Grafikkarte für nur ein paar Wochen/Monate.

ich denke eher dass fear eher durch die extremen performanceeinbußen bei NVs FSAA die x1900 so gut darstellen lässt, weniger die shaderpower.

robbitop
2006-03-05, 22:59:58
ich denke eher dass fear eher durch die extremen performanceeinbußen bei NVs FSAA die x1900 so gut darstellen lässt, weniger die shaderpower.
Dann würde die X1800 ja auch so gut darstehen. Aber die X1900 ist ein ganzes Stück schneller. Besonders natürlich bei NoAA/AF ... aber immer noch mehr als merkbar mit AA/AF. Shaderleistung wird eben immer wichtiger.

Was auf der G7x viel kostet, ist weniger das AA als vielmehr das AF. Liegt an der nicht vorhandenen Entkopplung der Einheiten.

Gast
2006-03-05, 23:08:59
Was auf der G7x viel kostet, ist weniger das AA als vielmehr das AF. Liegt an der nicht vorhandenen Entkopplung der Einheiten.

nicht bei fear, dort kostet das AF nur recht wenig leistung, auch HQ gegenüber treiberdefault macht nicht viel aus (zumindest bei der 6800GT, aber bei der 7800er wird das ja nicht schlimmer sein ;) )

reunion
2006-03-05, 23:11:46
Richtig, AF bekommt man bei FEAR fast 4 free. Der Unterschied zwischen bi-Filterung und 16xAF-tri beträgt auf einer 7800GTX 256 keine 10%, nur AA frisst enorm Leistung.

ShadowXX
2006-03-05, 23:19:27
nicht bei fear, dort kostet das AF nur recht wenig leistung, auch HQ gegenüber treiberdefault macht nicht viel aus (zumindest bei der 6800GT, aber bei der 7800er wird das ja nicht schlimmer sein ;) )

Juppss...gibt genug postings von AiL hier, wo er mehrfach "demonstriert" hat, das AF bei FEAR quasi "for free" ist.

Und auch meine Erfahrung mit FEAR und einer 7800GTX sprechen eher dafür, das das AA das Problem der nVs bei FEAR ist (den der Shaderpower ist's nicht, wie man an den ohne AA/AF Messungen sehen kann).

robbitop
2006-03-05, 23:20:00
Hm das wundert mich aber sehr. Vieleicht ist bei der GTX der VRAM dann voll?
Niemand kann mir erzählen, dass die etwas bessere Granularität im Memcontroller der R5xx so viel ausmacht.

Gast
2006-03-05, 23:21:56
Dann würde die X1800 ja auch so gut darstehen. Aber die X1900 ist ein ganzes Stück schneller. Besonders natürlich bei NoAA/AF ... aber immer noch mehr als merkbar mit AA/AF. Shaderleistung wird eben immer wichtiger.


ich glaube das fear viel mehr an der stencilleistung hängt wie manche glauben, welche ja auch vom x1800 auf den x1900 verbessert wurde.

scheinbar hat nv aus irgendeinem grund probleme die stencilleitung mit FSAA auf den boden zu bringen.

robbitop
2006-03-05, 23:24:42
Stencilleistung? Glaube kaum, dass da der Flaschenhals liegt. Beide Karten können 16 Stencilops pro Takt verarbeiten.

Gast
2006-03-05, 23:35:10
Stencilleistung? Glaube kaum, dass da der Flaschenhals liegt. Beide Karten können 16 Stencilops pro Takt verarbeiten.


beide können 32 stencilop/takt, die radeon mit FSAA allerdings 64, während NV immer nur 32 kann.

reunion
2006-03-05, 23:38:44
Hm das wundert mich aber sehr. Vieleicht ist bei der GTX der VRAM dann voll?

Dann musste aber die GTX512 überproportional höhere Ergebnisse liefern, was sie nicht tut.


Niemand kann mir erzählen, dass die etwas bessere Granularität im Memcontroller der R5xx so viel ausmacht.


Ich denke das sollte man dabei auch nicht vergessen:

http://img402.imageshack.us/img402/9734/kaigai128ay.jpg (http://imageshack.us)

Gast
2006-03-05, 23:40:44
Niemand kann mir erzählen, dass die etwas bessere Granularität im Memcontroller der R5xx so viel ausmacht.

nö, fear reagiert auch sehr schlecht auf speicherübertaktung.

robbitop
2006-03-05, 23:53:14
Naja die G70 hat bereits ein recht gutes Cachesystem. Und man darf nicht vergessen, dass viele R5xx Neuerungen PR mäßig aufgepusht worden sind ohne Ende. Ich erinnere an das Threadingkonzept. Das war größtenteils seit R300 verbaut.

32 Stencil OPs nur wenn keine Farbe gerendert wird. Bricht aber ab 2xAA beim G70 auf 16 Stenicl OPs pro Takt ein. Die Radeon kann bis zu 2xMSAA 32 Stencil OPs bearbeiten IIRC. Das sollte allerdings kein Flaschenhals sein. Ist ja eine Sache von nur einem Takt. Ganz im Gegensatz zum Shading und zur Texturfilterung. Vieleicht hat es ja eher mit dem Blending zu tun...

Xmas
2006-03-06, 00:13:29
beide können 32 stencilop/takt, die radeon mit FSAA allerdings 64, während NV immer nur 32 kann.
Das ist falsch, R520, R580 und G70 können 32 Stencil-Ops pro Takt (Und Stencil-Ops sind pro Sample). Ohne AA kann das jedoch nur G70, die Radeons schaffen dann nur 16.

aths
2006-03-06, 00:17:25
beide können 32 stencilop/takt, die radeon mit FSAA allerdings 64, während NV immer nur 32 kann.Radeon mit MSAA 64? Gibt es da Benches, die das belegen?

LovesuckZ
2006-03-06, 08:20:02
http://www.nvnews.net/vbulletin/showthread.php?t=65835

Nightspider
2006-03-06, 08:25:21
7900GTX hat 48 ALUs !!!!????? :eek:
OMG, die wird alles wegrulen.

Ailuros
2006-03-06, 08:30:43
Richtig, AF bekommt man bei FEAR fast 4 free. Der Unterschied zwischen bi-Filterung und 16xAF-tri beträgt auf einer 7800GTX 256 keine 10%, nur AA frisst enorm Leistung.

Gilt fuer alle Karten; nochmal zur Erinnerung (nicht fuer Dich LOL):

http://users.otenet.gr/~ailuros/fear.png

Ailuros
2006-03-06, 08:39:17
Hm das wundert mich aber sehr. Vieleicht ist bei der GTX der VRAM dann voll?
Niemand kann mir erzählen, dass die etwas bessere Granularität im Memcontroller der R5xx so viel ausmacht.

GeForces sind immer noch besser mit dem Umgang von GPU und System-speicher generell.

Der groessere Verlust an Leistung mit 4xAA in Spielen wie Fear hat aber nichts damit zu tun. R5x0 verlieren in 1600 hier ~24-25% im Vergleich zu 1xAA und G7x von ~45-50%.

Wenn es nicht zu einer gute Portion am Speichercontroller liegt, dann erklaer mir mal warum R5x0 in OGL Spielen mit AA so stark ploetzlich in Leistung aufgeholt haben.

LovesuckZ
2006-03-06, 08:42:07
7900GTX hat 48 ALUs !!!!????? :eek:
OMG, die wird alles wegrulen.

Sie haben jetzt auch schon 48:
Pro Pipeline 2 Shaderunits (http://www.3dcenter.de/artikel/nv40_pipeline/index2.php)

Ailuros
2006-03-06, 08:51:15
7900GTX hat 48 ALUs !!!!????? :eek:
OMG, die wird alles wegrulen.

Guten Morgen sie sind auch auf Marketing reingefallen. 7800-wasauchimmer hatten schon immer 48 ALUs in diesem Sinn.

G7x ALU:

subunit1: 4D MADD = 8 FLOPs
subunit2: 4D MADD = 8 FLOPs

R5x0 ALU:

subunit1: 4D MADD = 8 FLOPs
subunit2: 4D ADD = 4 FLOPs

Im ersten Fall ist es minus die jeweiligen texture OPs bei der einen "subunit" und im zweiten Fall die Faelle wo man die extra ADDs nicht einsetzen kann.

Dementsprechend:

7800GTX 256:

24 SIMD channels * 16 FLOPs * 0.43 GHz = 165 GFLOPs

7800GTX 512:

24 SIMD channels * 16 FLOPs * 0.55 GHz = 211 GFLOPs

7900GTX:

24 SIMD channels * 16 FLOPs * 0.65 GHz = 250 GFLOPs

X1800XT:

16 SIMD channels * 12 FLOPs * 0.625GHz = 120 GFLOPs

X1900XT:

16 SIMD channels * 36 FLOPs * 0.65 GHz = 374 GFLOPs

Und von mir aus koennen jetzt wieder manche ueber die oeden FLOP Rechnungen protestieren. Besser diese als das jemand jetzt ploetzlich denkt die angegebenen "48 ALUs" in diesem PR slide waeren was besonderes pfffff ;)

Ailuros
2006-03-06, 08:53:17
Was wohl aber keiner bemerkte ist dass NV die G71 um ~10% schneller in Fear als die R580 angiebt LOL ;)

***edit: zwar sind die Resultate verpfuscht, denn soviel erreicht eine R520, aber falls sie tatsaechlich 44 fps mit der G71 erreichen, haben sich mal wieder manche zu frueh ueber eine "grosse" Niederlage gefreut ;)

Ich wuerde auch die die-size Zahlen beachten. G71 hat weniger Transistoren.

Gandharva
2006-03-06, 08:55:19
http://www.nvnews.net/vbulletin/showthread.php?t=65835Bei den FEAR Benches hat wohl ein NV Mitarbeiter R520 mit R580 verwechselt. Obwohl ich nicht denke das G71 bei 1600x1200 4xAA / 16AF 44fps schaffen wird.Die GTX 512 schafft da grade mal 35. Das wäre ein Anstieg um fast 26%.

Ailuros
2006-03-06, 09:00:10
Bei den FEAR Benches hat wohl ein NV Mitarbeiter R520 mit R580 verwechselt. Obwohl ich nicht denke das G71 bei 1600x1200 4xAA / 16AF 44fps schaffen wird.Die GTX 512 schafft da grade mal 35. Das wäre ein Anstieg um fast 26%.

Sie haben ein bisschen mit den Einheiten generell rumgemunkelt, da flieg nochmal ein bisschen redundantes Zeug raus und die Effizienz wurde leicht gesteigert.

Die 44 fps sind ja NV's Resultate ich will Resultate von unabhaengigen Quellen sehen.

Gandharva
2006-03-06, 09:09:00
Die 44 fps sind ja NV's Resultate ich will Resultate von unabhaengigen Quellen sehen.Evtl. sind das die min. fps bei 1024x768 4AA / 16AF. Würde auch in etwa passen. X-D

robbitop
2006-03-06, 09:30:09
Wenn es nicht zu einer gute Portion am Speichercontroller liegt, dann erklaer mir mal warum R5x0 in OGL Spielen mit AA so stark ploetzlich in Leistung aufgeholt haben.
Tweak im Speichercontroller und man hat den OGL Part etwas verbessert im Treiber.

Aber mal anders herum gefragt: warum bringt eine Memoryübertaktung bei AA/AF in FEAR bei der G70 kaum etwas? Dann kann es doch nicht an der Bandbreite liegen.
Ich kann mir vorstellen, dass es vieleicht woanders hakt (ROPs z.B.).

Ailuros
2006-03-06, 09:41:52
Tweak im Speichercontroller und man hat den OGL Part etwas verbessert im Treiber.

Aber mal anders herum gefragt: warum bringt eine Memoryübertaktung bei AA/AF in FEAR bei der G70 kaum etwas? Dann kann es doch nicht an der Bandbreite liegen.
Ich kann mir vorstellen, dass es vieleicht woanders hakt (ROPs z.B.).

Zwar gut geraten, aber es ist auch nicht irrelevant zur Bandbreite. Eine effizientere ROP kann die Bandbreite aus besser ausnutzen. Wie klingt es so? ;)

robbitop
2006-03-06, 09:43:55
Zwar gut geraten, aber es ist auch nicht irrelevant zur Bandbreite. Eine effizientere ROP kann die Bandbreite aus besser ausnutzen. Wie klingt es so? ;)
Na dann erleben wir zum G71 vieleicht eine Überraschung in FEAR? :D

seahawk
2006-03-06, 10:19:08
Am aufälligsten ist die kleine Die-Size. Das muss finanziell unheimlich interessant sein. Die GX2 Lösung war wohl von Anfang an geplant.

robbitop
2006-03-06, 10:31:14
Am aufälligsten ist die kleine Die-Size. Das muss finanziell unheimlich interessant sein. Die GX2 Lösung war wohl von Anfang an geplant.
Es ist ja soziemlich nur ein Shrink. Und wir wissen ja, dass G70 deutlich weniger Transistoren als R580 besaß.

seahawk
2006-03-06, 11:44:03
50% weniger ?

Gast
2006-03-06, 12:18:52
das halte ich für unmöglich
Das ist nur die Folgerung aus den geposteten Bildern und den Angaben desjenigen dazu, der sie gepostet hat. Keine genuine Behauptung meinerseits.

Q

Gast
2006-03-06, 12:19:36
ich denke eher dass fear eher durch die extremen performanceeinbußen bei NVs FSAA die x1900 so gut darstellen lässt, weniger die shaderpower.
Jo. Aber das glaubt einem hier ja keiner. :)


Q

robbitop
2006-03-06, 12:23:46
Jo. Aber das glaubt einem hier ja keiner. :)


Q
Ich schon. Sonst wäre AF ja teuer. Ist das G70 AA generell teuer oder nur vor Allem in FEAR? (denn wie gesagt bringt RAM OC hier wohl wenig)

Gast
2006-03-06, 12:25:48
50% weniger ?
Irgendwie sieht es für mich nach den Bildern von NVNews so aus, als wäre der G71 ein Chip für die Investoren und die Verfügbarkeit, weniger für Performance-Enthusiasten.

Wenn das wirklich stimmt und eine 1 am Anfang der Die-Size steht wohingegen beim R580 noch knapp eine drei ist, dann wäre der "totale Preiskrieg" eröffnet und in dem kann Ati momentan nur verlieren.


Q

Gast
2006-03-06, 12:28:00
Ich schon. Sonst wäre AF ja teuer. Ist das G70 AA generell teuer oder nur vor Allem in FEAR? (denn wie gesagt bringt RAM OC hier wohl wenig)
Speziell FEAR. Irgendwo habe ich hier mal was gemessen - mehr oder weniger parallel zu Ailuros. Über 1024 kostet 4xAA beinahe 50% Performance, selbst mit rein bilinearem Texturfilter. Das ist kein Normalfall. Der wäre eher so, wie du beschrieben hast, dass AF auf der Geforce aus bekannten Gründen mehr kostet, während AA auf beiden Karten im Großen und Ganzen etwa gleichteuer ist.


Q

robbitop
2006-03-06, 12:33:21
Speziell FEAR. Irgendwo habe ich hier mal was gemessen - mehr oder weniger parallel zu Ailuros. Über 1024 kostet 4xAA beinahe 50% Performance, selbst mit rein bilinearem Texturfilter. Das ist kein Normalfall. Der wäre eher so, wie du beschrieben hast, dass AF auf der Geforce aus bekannten Gründen mehr kostet, während AA auf beiden Karten im Großen und Ganzen etwa gleichteuer ist.


Q
Hm dann sagt FEAR vieleicht doch nicht so viel über die R580/G7x aus und ist vielmehr ein blinder hype...
Wer weiß, vieleicht ist der Issue per Treiber oder per HW im G71 gefixt.

seahawk
2006-03-06, 12:41:38
Irgendwie sieht es für mich nach den Bildern von NVNews so aus, als wäre der G71 ein Chip für die Investoren und die Verfügbarkeit, weniger für Performance-Enthusiasten.

Wenn das wirklich stimmt und eine 1 am Anfang der Die-Size steht wohingegen beim R580 noch knapp eine drei ist, dann wäre der "totale Preiskrieg" eröffnet und in dem kann Ati momentan nur verlieren.


Q

Naja, nach den Experimienten mit den 2GPUs auf einen Board Lösungen schon mit dem NV40 war es imho eine der denkbaren Varianten, dass NV einen Shrink macht und bei der Topversion auf 2 GPUs setzt. Ich konnte an den 32 Pipe-Chip immern ur schwer glauben, weil im NV Line-up dann der Chip zwischen G71 und G73 fehlte. Dies könnte ein sehr cleverer Schachzug sein.

chrisihamm
2006-03-06, 13:30:48
Hi,

das die Diefläche des R580 um 80% größer sein soll als die des G71 bei nur 26%mehr Transistoren,halte ich für falsch.Wer weiß was NVIDIA da wieder verglichen hat.


mfg

Gandharva
2006-03-06, 13:41:19
http://i16.photobucket.com/albums/b14/denniszzz/7900GTX.jpg

http://i16.photobucket.com/albums/b14/denniszzz/7900GTXSpec.jpg

http://i16.photobucket.com/albums/b14/denniszzz/3dmark2006.jpg

Geile Grafik! X-D

http://forums.hardwarezone.com/showthread.php?t=1229856&page=1&pp=15

ShadowXX
2006-03-06, 13:41:30
Hm dann sagt FEAR vieleicht doch nicht so viel über die R580/G7x aus und ist vielmehr ein blinder hype...
Wer weiß, vieleicht ist der Issue per Treiber oder per HW im G71 gefixt.

Das es im G71 gefixt ist mag sein...trotzdem wäre es interesannt zu wissen, woran es liegt, das nVs AA bei FEAR so einbricht...

(Wobei ich dazusagen muss, das nV generell etwas stärker als ATI mit AA einbricht aber Q hat schon recht, das es bei FEAR extrem ist).

Das bei FEAR nV vs. ATI das ganze eher daran liegt, das nV so "schlecht" ist, war auch immer meine Meinung (denn wie schon mal erwähnt kann man ja bei den ohne AA/AF-Messungen sehen, das es nicht am Shaderpower liegt).

reunion
2006-03-06, 13:51:29
Gilt fuer alle Karten; nochmal zur Erinnerung (nicht fuer Dich LOL):

http://users.otenet.gr/~ailuros/fear.png


Genau das habe ich gesucht.

Was wohl aber keiner bemerkte ist dass NV die G71 um ~10% schneller in Fear als die R580 angiebt LOL ;)

***edit: zwar sind die Resultate verpfuscht, denn soviel erreicht eine R520, aber falls sie tatsaechlich 44 fps mit der G71 erreichen, haben sich mal wieder manche zu frueh ueber eine "grosse" Niederlage gefreut ;)


Vermutlich wurden einfach die Ergebnisse von G71 und R580 vertauscht.


Ich wuerde auch die die-size Zahlen beachten. G71 hat weniger Transistoren.

Die Die-Size-Angaben sind vollkommen unrealistisch. Da der verwendete Prozess identisch zu R580 ist, müsste G71 laut diesen Angaben höchstens 200mio Transistoren haben. Soviel kann man nicht einsparen, ohne den Chip zu kastrieren. Aber vermutlich wurde da auch einfach was "vertauscht".

Gandharva
2006-03-06, 14:00:34
Die Die-Size-Angaben sind vollkommen unrealistisch. Da der verwendete Prozess identisch zu R580 ist, müsste G71 laut diesen Angaben höchstens 200mio Transistoren haben. Soviel kann man nicht einsparen, ohne den Chip zu kastrieren.Warum nicht? Ailuros hat doch bereits erwähnt das redundante Teile entfernt wurden. Ein reiner Shrink würde bei etwa 220mm² liegen. So unwahrscheinlich ist das finde ich nicht.

reunion
2006-03-06, 14:10:46
Warum nicht? Ailuros hat doch bereits erwähnt das redundante Teile entfernt wurden. Ein reiner Shrink würde bei etwa 220mm² liegen. So unwahrscheinlich ist das finde ich nicht.


Dann stimme die Angaben zu R580 nicht.

http://www.xbitlabs.com/images/video/radeon-x1900xtx-illustrations/chips_sm.jpg

http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_6.html

Nur durch einen Shrink von 110nm auf 90nm und das entfernen einiger redundanter Teile kann man niemals um so viel kleiner als R580 werden. Da müsste sich ja die Die-Größe von G70 ausgehend mehr als halbiert haben.

Gandharva
2006-03-06, 14:35:23
330mm²*0,67 = 221,1mm² -> reiner Shrink

wenn man nun noch ~14% durch Redundanzen/Änderungen eingespart hat ist man bei ~190mm².

reunion
2006-03-06, 14:55:05
330mm²*0,67 = 221,1mm² -> reiner Shrink


Und genau da liegt das Problem. nV gibt für R580 352mm² an, dieser ist allerdings deutlich kleiner als G70, also stimmen entweder die 330mm² für G70, oder die 352mm² für R580 nicht.

wenn man nun noch ~14% durch Redundanzen/Änderungen eingespart hat ist man bei ~190mm².

Auch diese 14% halte ich für verdammt viel. Ich kann mir nicht vorstellen, dass bei G70 soviel "unnötig" ist.

up¦²
2006-03-06, 15:43:40
http://www.nvnews.net/vbulletin/attachment.php?attachmentid=16602&stc=1&d=1141617836

Das märchen vom rotkäppchen:
Oh R580, warum hast du einen so großen die size? :tongue:

Wechselbalg
2006-03-06, 15:44:18
Die Entfernung von Redundanz dürfte abseits von der Größe aber ja eher die Wirtschaftlichkeit des Chips wieder etwas senken, je nachdem wie fehleranfällig das ganze ist.

Aber mir erscheinen die Unterschiede da auch etwas zu groß. Mal abwarten was sich dann letzten Endes zeigen wird.

Gandharva
2006-03-06, 17:14:43
Die Entfernung von Redundanz dürfte abseits von der Größe aber ja eher die Wirtschaftlichkeit des Chips wieder etwas senken, je nachdem wie fehleranfällig das ganze ist.Wieso nicht alles raus was nur irgendwie unnötig ist? Durch den doch sehr späten Umstieg auf 90nm sollte der Prozess bei TSMC mittlerweile einwandfrei laufen und somit Redundanz fast unnötig werden. G71 ist der letzte seiner Art und für G80 wird NV wohl wieder ein komplett neues Design erarbeitet haben. Da war sicher der ein oder andere Respin nötig, aber wenn die Zahlen stimmen scheint es sich ausgezahlt zu haben. G80 erwarte ich auch in 90nm.

Mancko
2006-03-06, 17:19:53
Also ich glaube auch eher, dass hier ein Verschreiber vorliegt.
Bei so einer DIE Size Differenz wie dort angegeben, wäre ATI ja bereits geliefert. Da hätten die nicht den Hauch einer Chance über den Preis mitzugehen. Also ich mag daran nicht glauben.

Sicherlich glaube ich, dass der G71 in der Herstellung deutlich billiger als der R580 ist, weil kleiner und wohl auch bessere thermische Daten aber so ein Unterschied wäre das totale K.O für ATI in dieser Runde.
Dann könnte NV es sich ja leisten die DUAL GPU Karten Version ca. 100 Euro oberhalb der X1900XTX anzusiedeln und diese total zu vernichten in der Performance.
Dann würde ATI weiter zurückfallen und noch mehr Marktanteil abgeben müssen und vor allem würde das deren Bilanzen erheblich eintrüben.

Ich bin da noch skeptisch. Sicherlich denke ich wird Nvidia bei der gesamten Runde die Oberhand behalten über alle Produkte weg aber an so einen immensen Vorteil glaube ich jetzt auch nicht.

Gandharva
2006-03-06, 17:44:20
Bei so einer DIE Size Differenz wie dort angegeben, wäre ATI ja bereits geliefert. Da hätten die nicht den Hauch einer Chance über den Preis mitzugehen. Also ich mag daran nicht glauben.NV will saftig Gewinn machen. Dies geschieht aber nicht durch Schleuderpreise. ;)

Dann könnte NV es sich ja leisten die DUAL GPU Karten Version ca. 100 Euro oberhalb der X1900XTX anzusiedeln und diese total zu vernichten in der Performance.100€ werden nicht reichen nach der Preissenkung, aber sehr viel mehr wird es wohl nicht sein wenn sich die Preise der kommenden NV Grakas einmal gefestigt haben.

reunion
2006-03-06, 18:08:23
Wieso nicht alles raus was nur irgendwie unnötig ist?

Weil dadurch die Ausbeute sinkt?


Durch den doch sehr späten Umstieg auf 90nm sollte der Prozess bei TSMC mittlerweile einwandfrei laufen und somit Redundanz fast unnötig werden.

Das trifft auf den 110nm Prozess mindestens im selben Maße zu.

Gandharva
2006-03-06, 18:12:45
Weil dadurch die Ausbeute sinkt?Text bitte fertig lesen.Das trifft auf den 110nm Prozess mindestens im selben Maße zu.Um den es hier aber nicht geht.

reunion
2006-03-06, 18:17:57
Text bitte fertig lesen.


:|


Um den es hier aber nicht geht.


Und wie es um den geht. Du schreibst dass der 90nm Prozess schon so ausgereift ist, dass Redundanz fast unnötig ist. Und ich halte entgegen, dass der 110nm Prozess noch wesentlich ausgereifter war/ist, und da offensichtlich diese Redundanz nicht unnötig war. Ergo ist deine Schlussfolgerung unlogisch.

Gandharva
2006-03-06, 18:26:13
Und wie es um den geht. Du schreibst dass der 90nm Prozess schon so ausgereift ist, dass Redundanz fast unnötig ist. Und ich halte entgegen, dass der 110nm Prozess noch wesentlich ausgereifter war/ist, und da offensichtlich diese Redundanz nicht unnötig war. Ergo ist deine Schlussfolgerung unlogisch.Weil du nicht kapierst auf was ich hinaus will. Deswegen solltest du ja fertig lesen... Für einen reinen Shrink hat das alles viel zu lange gedauert. Deshalb wurden wohl einige (unnötige) Ehrenrunden in Form von Respins eingelegt um trotz extrem niedrigem Transistorcount gute Ausbeute zu haben. -> Gewinnmaximierung! Beim G70 und 110nm war dies nicht der Fall, somit erübrigt sich dein Hinweis darauf. Es ging mir nicht primär darum das der 90nm Prozess ausgereift sei (war eine reine Randbemerkung), sondern das NV den Chip diesmal wohl besser auf den Prozess eingestellt hat.

reunion
2006-03-06, 18:37:10
Weil du nicht kapierst auf was ich hinaus will. Deswegen solltest du ja fertig lesen...


Ich habe fertig gelesen. Nur ergibt der Text keinen Sinn.


Für einen reinen Shrink hat das alles viel zu lange gedauert. Deshalb wurden wohl einige (unnötige) Ehrenrunden in Form von Respins eingelegt um trotz extrem niedrigem Transistorcount gute Ausbeute zu haben. -> Gewinnmaximierung! Beim G70 und 110nm war dies nicht der Fall, somit erübrigt sich dein Hinweis darauf. Es ging mir nicht primär darum das der 90nm Prozess ausgereift sei (war eine reine Randbemerkung), sondern das NV den Chip diesmal wohl besser auf den Prozess eingestellt hat.

Das finale Silizium des G71 hat die Revision A2. Es waren also nicht mehr Respins/Tapeouts als bei G70. Im übrigen steigern mehrere Tapeouts nicht zwangsläufig die Ausbeute, und Redundanz machen diese schon gar nicht unnötig. Desweiteren kostet jedes zusätzliche Tapeout Millionen, es wäre also nicht sehr sinnvoll zum Zwecke der Gewinnmaximierung hier ein paar "Ehrenrunden" zu drehen.

Sunrise
2006-03-06, 18:54:02
Irgendwie sieht es für mich nach den Bildern von NVNews so aus, als wäre der G71 ein Chip für die Investoren und die Verfügbarkeit, weniger für Performance-Enthusiasten.

Wenn das wirklich stimmt und eine 1 am Anfang der Die-Size steht wohingegen beim R580 noch knapp eine drei ist, dann wäre der "totale Preiskrieg" eröffnet und in dem kann Ati momentan nur verlieren.


Q
Naja, die 1 am Anfang mag dort zwar stehen, die sollte man aber schon aufrunden, im Grunde steht dort also eine 200. Das ist aber trotzdem eine mehr als nur beachtliche Leistung. Man sieht jetzt im Vergleich sehr schön, wie "teuer" es ist, diverse Funktionalitäten anzubieten (seitens ATi), welche NV bewusst in dieser Generation weggelassen hat.

Unter anderem betonte ich bereits deshalb auch mehrfach und deutlich, dass sich NV in dieser Runde sicher keine Sorgen um ihre Margen und letztendlich um ihre Gewinne machen muss.

G71 hat starke Optimierungen hinsichtlich der Packdichte erfahren, die Redundanz wurde weitmöglichst aufgehoben (GT und GTX are one and the same), stattdessen wurden genügend Respins vorgenommen um dies möglichst auszugleichen und die Yields und Margen zu sichern. Hier hat sich NV viel Zeit genommen, aber es scheint sich gelohnt zu haben.

G73 ist allerdings eine andere Geschichte.

Mancko
2006-03-06, 19:00:03
NV will saftig Gewinn machen. Dies geschieht aber nicht durch Schleuderpreise. ;)


Das ist ja richtig nur bei so einer DIE size Differenz könnte ATI senken wie sie wollen. Sie könnten nicht mithalten und würden die eigenen Bilanzen total kaputt machen. Man darf ja eins nicht vergessen. Nvidia hat nach wie vor im Schnitt 10% Margenvorteil trotz größerem Fertigungsprozess und größerem DIE.
Wenn sie diesen in dem Maße wie dort aufgeführt reduzieren könnten, ist ATI nicht mehr konkurenzfähig ohne entweder weiter Boden am Markt zu verlieren oder aber die eigenen Bilanzen und damit den Aktienkurs kaputt zu machen.
Deswegen glaube ich noch nicht an die Zahlen.
Das wäre eine totale Dominanz bis zum R600 / G80. Das klingt mir ein wenig zu gut und zu einfach. Das Nvidia Vorteile hat und insgesamt seit dem Launch des NV40 durchweg besser abschneidet und auch abgeschnitten hat, daran glaube ich auch. Das wird auch nach dem G71 noch so sein. Aber nicht in dem Maße wie es die Folie vermuten lassen würde.
Wenn doch muss ich meinen Hut ziehen.

Sunrise
2006-03-06, 19:00:28
Die Entfernung von Redundanz dürfte abseits von der Größe aber ja eher die Wirtschaftlichkeit des Chips wieder etwas senken, je nachdem wie fehleranfällig das ganze ist.
Wenn man genügend Respins tätigt und der Prozess selbst "reif" genug ist und das Design komplett auf den neuen Prozess adaptiert wurde, ist die Wirtschaftlichkeit wohl sicher mehr als nur ausgeglichen. Dies ist aber hoch-spekulativ, da uns hier interne Daten vorliegen müssten, um das letztendlich zu bestätigen.

Sunrise
2006-03-06, 19:12:21
Das ist ja richtig nur bei so einer DIE size Differenz könnte ATI senken wie sie wollen. Sie könnten nicht mithalten und würden die eigenen Bilanzen total kaputt machen. Man darf ja eins nicht vergessen. Nvidia hat nach wie vor im Schnitt 10% Margenvorteil trotz größerem Fertigungsprozess und größerem DIE.Du hast es kurz und bündig auf den Punkt gebracht.

reunion
2006-03-06, 19:34:38
So, ich habe mich jetzt mal ein wenig erkundigt, ATi gibt für R580 eine Die-Size von 314.5 mm² an.

MikBach
2006-03-06, 19:35:11
Das es im G71 gefixt ist mag sein...trotzdem wäre es interesannt zu wissen, woran es liegt, das nVs AA bei FEAR so einbricht...
Stencil Shadows?
Demi hat doch mal gesagt, dass bei FEAR etwa 50% der Rechenzeit auf die Stencil Shadows fallen, zumindest bei ATI.
http://www.beyond3d.com/forum/showpost.php?p=683272&postcount=35

Vielleicht kommen die ROPs von ATI damit besser zurecht. Zusammen mit dem besseren Speichercontroller könnte dabei was rumkommen.

(Wobei ich dazusagen muss, das nV generell etwas stärker als ATI mit AA einbricht...)
Ack.

Sunrise
2006-03-06, 19:44:17
So, ich habe mich jetzt mal ein wenig erkundigt, ATi gibt für R580 eine Die-Size von 314.5 mm² an.
18,5mm (b) x 19mm (l) sind bei mir immernoch ~ 352mm².

Gandharva
2006-03-06, 19:45:32
Das ist ja richtig nur bei so einer DIE size Differenz könnte ATI senken wie sie wollen. Sie könnten nicht mithalten und würden die eigenen Bilanzen total kaputt machen. Man darf ja eins nicht vergessen. Nvidia hat nach wie vor im Schnitt 10% Margenvorteil trotz größerem Fertigungsprozess und größerem DIE.[QUOTE=Sunrise]Du sagst es. ATI würde bei einem extremen Preiskampf nicht mithalten können. Das denke ich auch. Jedoch denke ich nicht das dieser Preiskampf so eintreffen wird. Darauf zielte auch meine obige Aussage ab. NV wird IMO ihre Preise im Verhältnis zur Leistung von R520/R580 und gewünschtem eigenen Absatz anpassen (NV hat diesbezüglich ja wie es scheint alle Freiheit der Welt) und durch den sehr kleinen Chip noch bessere Margen denn je erzielen. Starker Preiskampf kann IMO gar nicht im Sinne von NV sein. Das würde den eigenen Gewinn schmälern. ;)

Gandharva
2006-03-06, 19:47:39
Es waren also nicht mehr Respins/Tapeouts als bei G70.Es deutet jedoch alles auf das Gegenteil hin.

Demirug
2006-03-06, 19:50:44
Das finale Silizium des G71 hat die Revision A2. Es waren also nicht mehr Respins/Tapeouts als bei G70. Im übrigen steigern mehrere Tapeouts nicht zwangsläufig die Ausbeute, und Redundanz machen diese schon gar nicht unnötig. Desweiteren kostet jedes zusätzliche Tapeout Millionen, es wäre also nicht sehr sinnvoll zum Zwecke der Gewinnmaximierung hier ein paar "Ehrenrunden" zu drehen.

Simulator...

reunion
2006-03-06, 19:51:15
18,5mm (b) x 19mm (l) sind bei mir immernoch ~ 352mm².


ATi gibt 314.5mm² an, das kannst du im übrigen auch bei zahlreichen Reviews etc. nachlesen. Hier zB:
http://www.techreport.com/reviews/2006q1/radeon-x1900/index.x?pg=1
http://www.forumpcs.com.br/review.php?r=148174&page=6

Wie kommst du auf 18,5mm x 19mm?

deekey777
2006-03-06, 19:53:45
NVIDIA 7900GT and 7900GTX 3DMarks (http://www.dailytech.com/article.aspx?newsid=1121)
We already had a fairly thorough look at GeForce 7900GT, GeForce 7900GTX, and GeForce 7600GT -- all expected to launch just a few days from now. The Quad SLI ready GeForce 7900GTX will launch on the 22nd of March.

Sunrise
2006-03-06, 19:59:08
ATi gibt 314.5mm² an, das kannst du im übrigen auch bei zahlreichen Reviews etc. nachlesen. Hier zB:
http://www.techreport.com/reviews/2006q1/radeon-x1900/index.x?pg=1
http://www.forumpcs.com.br/review.php?r=148174&page=6

Wie kommst du auf 18,5mm x 19mm?
Was ATi angibt ist mir eigentlich relativ egal, die Die-Size kann man ja jederzeit selbst nachmessen.

Im Übrigen sind die 352mm² von Davey bestätigt und dem traue ich ehrlich gesagt mehr als deinen Links. Ich habe leider im Moment keinen Zugriff auf eine Karte, sonst hätte ich das selbst nochmal nachgemessen.

mapel110
2006-03-06, 19:59:33
Der 05er Wert kommt mir niedrig vor.
512 GTX schafft dort schon 8200 Punkte mit ähnlichem System.

reunion
2006-03-06, 20:02:11
Was ATi angibt ist mir eigentlich relativ egal, die Die-Size kann man ja jederzeit selbst nachmessen.


Aber was nV angibt ist glaubwürdig(er)?
Wie man von den 333mm² des G70 (ebenfalls laut nV) auf 196mm² bei G71 gekommen sein will, will ich erstmal sehen. Irgendwie lustig, dass jeder blind die nV-Folien schluckt.

Sunrise
2006-03-06, 20:07:29
Aber was nV angibt ist glaubwürdig(er)?
Wie man von den 333mm² des G70 (ebenfalls laut nV) auf 196mm² bei G71 gekommen sein will, will ich erstmal sehen. Irgendwie lustig, dass jeder blind die nV-Folien schluckt.Mir ist es genauso egal, was NV angibt, da ich der Letzte bin, der irgendwelchen Marketing- und/oder Folien-Aussagen von IHVs Glauben schenkt. Aber danke für die Unterstellung. ;)

Für die ganz schwierigen Fälle: http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=105&orderby=release_date&order=Order&cname=

crane
2006-03-06, 20:08:39
Der 05er Wert kommt mir niedrig vor.
512 GTX schafft dort schon 8200 Punkte mit ähnlichem System.

05 wurde aber anscheinend auch mit 1280x1024 gebencht - dann würde es hinkommen.

mapel110
2006-03-06, 20:10:59
05 wurde aber anscheinend auch mit 1280x1024 gebencht - dann würde es hinkommen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/12/#abschnitt_3dmark05
Nö, :P

dildo4u
2006-03-06, 20:14:14
05 wurde aber anscheinend auch mit 1280x1024 gebencht - dann würde es hinkommen.
Ne kommst nicht jedenfalls nicht wenn NV die Karte gegen die 1900XTX setzte die macht bei 1280 immernoch 10000 Punkte :eek: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/12/#abschnitt_3dmark05

Gandharva
2006-03-06, 20:16:53
Ich verstehe nicht warum sowohl ATI oder auch NV bei der Chipgröße Falschangaben machen sollten? Bei Benchmarks ist das was anderes. Da kritzelt man einen Wert hin ohne System + Auflösung anzugeben. Sich da was passendes rauszusuchen fällt wohl keinem schwer und nachprüfen kann das niemand im Nachhinein. Aber weshalb bei der Größe fälschen? Diese ist Fakt und jeder der die Graka später zu Hause hat kann dies ohne Probleme mit einer Schiebelehre nachmessen.

Paul Brain
2006-03-06, 20:29:53
Aber weshalb bei der Größe fälschen? Diese ist Fakt und jeder der die Graka später zu Hause hat kann dies ohne Probleme mit einer Schiebelehre nachmessen.Vielleicht gibt es hier unterschiedliche Sichtweisen? Ich bin da ja kein Fachmann, aber wenn das Die aus dem Wafer herausgeschnitten wird, muß es da nicht etwas Verschnitt geben, um die eigentliche Logik nicht zu beschädigen? Evtl. kommt die Diskrepanz daher... :confused:

Mancko
2006-03-06, 20:32:45
[QUOTE=Mancko]Das ist ja richtig nur bei so einer DIE size Differenz könnte ATI senken wie sie wollen. Sie könnten nicht mithalten und würden die eigenen Bilanzen total kaputt machen. Man darf ja eins nicht vergessen. Nvidia hat nach wie vor im Schnitt 10% Margenvorteil trotz größerem Fertigungsprozess und größerem DIE.Du sagst es. ATI würde bei einem extremen Preiskampf nicht mithalten können. Das denke ich auch. Jedoch denke ich nicht das dieser Preiskampf so eintreffen wird. Darauf zielte auch meine obige Aussage ab. NV wird IMO ihre Preise im Verhältnis zur Leistung von R520/R580 und gewünschtem eigenen Absatz anpassen (NV hat diesbezüglich ja wie es scheint alle Freiheit der Welt) und durch den sehr kleinen Chip noch bessere Margen denn je erzielen. Starker Preiskampf kann IMO gar nicht im Sinne von NV sein. Das würde den eigenen Gewinn schmälern. ;)

Das ist richtig aber denoch werden sie das Pricing so ansetzen, dass ihr Marktanteil steigt. Das können die sich leisten und haben noch immer höhere Margen als heute. ATI kann sich das aufgrund der schlechten Bilanzen zuletzt nicht leisten oder die Börse straft sie ab, was wiederum das Aufkaufrisiko erhöht.

Gandharva
2006-03-06, 20:39:43
Vielleicht gibt es hier unterschiedliche Sichtweisen? Ich bin da ja kein Fachmann, aber wenn das Die aus dem Wafer herausgeschnitten wird, muß es da nicht etwas Verschnitt geben, um die eigentliche Logik nicht zu beschädigen? Evtl. kommt die Diskrepanz daher... :confused:Da beide bei TSMC fertigen lassen denke ich das dieser Verschnitt gleich groß ist.Das ist richtig aber denoch werden sie das Pricing so ansetzen, dass ihr Marktanteil steigt. Das können die sich leisten und haben noch immer höhere Margen als heute. ATI kann sich das aufgrund der schlechten Bilanzen zuletzt nicht leisten oder die Börse straft sie ab, was wiederum das Aufkaufrisiko erhöht.Die Kartellbehörden werden IMO einem Aufkauf von ATI nicht zustimmen. Diese Gefahr sehe ich hier nicht. Ansonsten gebe ich dir auch hier Recht. :)

Gast
2006-03-06, 20:40:18
ist dies nun gut oder eher enttäauschend
die X1900 XT sollte damit wohl keine Probleme haben, und die XTX sollte bedeutend schneller sein.
etwas entäuschend NV würde ich sagen.
Benchmark wurden in 1280 x 1024 gefahren.

Earlier today some preliminary benchmarks of GeForce 7900GT and GeForce 7900GTX were leaked onto the internet pending the March 9, 2006 launch.

System Configuration:
Athlon 64 FX-55
1GB DDR400 (2x512MB)
nForce4 motherboard

All tests were performed with a 1280x1024 resolution. The cards tested claimed 1.2ns DDR3 for both cards. ForceWare 84.12 was used for testing.

GeForce 7900GTX 512MB
650mhz core clock, 1600MHz memory clock
3dmark 03: 17800
3dmark 05: 7600
3dmark 06: 5200

GeForce 7900GT 256MB
450mhz core clock, 1300MHz memory clock
3dmark 03: 13800
3dmark 05: 7000
3dmark 06: 4550

For reference, 3dmark06 on a similar system scores approximately 4700 for a GeForce 7800GTX 512MB running at stock speeds.

reunion
2006-03-06, 20:41:51
Mir ist es genauso egal, was NV angibt, da ich der Letzte bin, der irgendwelchen Marketing- und/oder Folien-Aussagen von IHVs Glauben schenkt. Aber danke für die Unterstellung. ;)


Ich weiß, ich lese ja auch nicht den ersten Beitrag von dir.
Das wollte ich dir damit im übrigen auch nicht unterstellen.


Für die ganz schwierigen Fälle: http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=105&orderby=release_date&order=Order&cname=

Das kenne ich. Nur wer A sagt muss auch B sagen können.

LovesuckZ
2006-03-06, 20:46:21
Default G71/G73: Summary & Pre-Launch Speculation Frenzy (http://www.beyond3d.com/forum/showthread.php?t=28924)

Gandharva
2006-03-06, 20:47:32
etwas entäuschend NV würde ich sagen.- Enttäuschend aus Sicht des Verbrauchers -> JA

NV hat eine GPU die sehr günstig zu produzieren ist, aber anstatt diesen Vorteil an den Verbraucher weiter zu geben wird wohl der Großteil davon zur Gewinn-/Marktanteilssteigerung verwendet werden.

- Enttäuschend aus Sicht von NV -> NEIN

Siehe oben.

Gast
2006-03-06, 20:48:14
Nur wer A sagt muss auch B sagen können.Nö, er kann auch erkennen, dass A falsch war.

Sunrise
2006-03-06, 20:51:33
Da beide bei TSMC fertigen lassen denke ich das dieser Verschnitt gleich groß ist.Er meint etwas Anderes. NV könnte die tatsächliche Die-Size von R580 (das komplette Package, mit Schiebelehre gemessen) der technischen Die-Size (von Blue-Prints bzw. der eigenen Data-Sheets) von G71 gegenüberstellen. Das "verdreht" natürlich die Realität etwas, denn was zählt ist letztendlich nicht die technische, sondern die tatsächliche Größe, die vom Wafer geschnitten wird.

Genau aus diesem Grund sollte man solchartige Folien immer hinterfragen.

LovesuckZ
2006-03-06, 20:55:01
- Enttäuschend aus Sicht des Verbrauchers -> JA
NV hat eine GPU die sehr günstig zu produzieren ist, aber anstatt diesen Vorteil an den Verbraucher weiter zu geben wird wohl der Großteil davon zur Gewinn-/Marktanteilssteigerung verwendet werden.


Die 7900GT soll für 299 bis 349$ eingeführt werden.
Dies ist seit langem die erste "High End" Karte, die als Startpreis unter 300$ liegen könnte.
Der Preisvorteil von Nvidia wird schon an den Verbraucher weitergegeben.

Sunrise
2006-03-06, 20:56:43
Das kenne ich. Nur wer A sagt muss auch B sagen können.B könnte ich dir wie gesagt jederzeit gerne sagen, wenn ich B auch die Karte momentan vorliegen hätte. Paul Brain hat da eben aber etwas angesprochen, dass tatsächlich der Fall sein könnte, und hier werden wir warten müssen, bis wir eine Messung von G71 haben oder wir wissen, welche Angaben sich jetzt auf was genau beziehen.

Gandharva
2006-03-06, 20:58:07
Er meint etwas Anderes. NV könnte die tatsächliche Die-Size von R580 (das komplette Package, mit Schiebelehre gemessen) der technischen Die-Size (von Blue-Prints bzw. der eigenen Data-Sheets) von G71 gegenüberstellen. Das "verdreht" natürlich die Realität etwas, denn was zählt ist letztendlich nicht die technische, sondern die tatsächliche Größe, die vom Wafer geschnitten wird.

Genau aus diesem Grund sollte man solchartige Folien immer hinterfragen.THX, an so etwas hatte ich noch nicht gedacht. Die auch von dir angesprochenen ~200mm² ausgehend von ~330mm² ob nun technisch oder tatsächlich halte ich jedoch für realisierbar.

Gandharva
2006-03-06, 21:00:39
Die 7900GT soll für 299 bis 349$ eingeführt werden.
Dies ist seit langem die erste "High End" Karte, die als Startpreis unter 300$ liegen könnte.
Der Preisvorteil von Nvidia wird schon an den Verbraucher weitergegeben.In Anbetracht der Dual G71 und der GTX mit wesentlich höheren Taktraten würde ich die GT im oberen Midrange einstufen.

LovesuckZ
2006-03-06, 21:02:56
In Anbetracht der Dual G71 und der GTX mit wesentlich höheren Taktraten würde ich die GT im oberen Midrange einstufen.

Oder "unteres High End"? ;)
Der Kern bleibt bestehen:
Eine neue, so leistungsstarke Karte für 299€ gab es seit der 6800NU nicht.
Wenn überhaupt.

Gandharva
2006-03-06, 21:06:05
Oder "unteres High End"? ;)
Der Kern bleibt bestehen:
Eine neue, so leistungsstarke Karte für 299€ gab es seit der 6800NU nicht.
Wenn überhaupt.OK :)

Als komplett falsch wird sich meine obige Aussage trotzdem nicht erweisen.

Rampage 2
2006-03-06, 21:21:20
Wenn die 3DMark-Werte wirklich stimmen, dann braucht Nvidia gar nicht erst zur Cebit zu kommen - zumindest wenn sie sich nicht blamieren wollen. Und dass sie 1.2ns RAM einsetzen anstatt 1.1ns ist eine Frechheit. Ich kaufe mir wohl höchstwahrscheinlich eine X1900XTX CrossFire und lass es mir gutgehen...

Wechselbalg
2006-03-06, 21:35:27
Da ist man mal etwas weg, aber man erlaube mir zurückzugreifen :D

Wenn man genügend Respins tätigt und der Prozess selbst "reif" genug ist und das Design komplett auf den neuen Prozess adaptiert wurde, ist die Wirtschaftlichkeit wohl sicher mehr als nur ausgeglichen. Dies ist aber hoch-spekulativ, da uns hier interne Daten vorliegen müssten, um das letztendlich zu bestätigen.

Ich wollte auch nur sagen, dass wenn Redundanz entfernt wird, man das ganze nicht 1:1 in Kostenersparnisse umrechnen sollte und zu der Kalkulation des endgültigen Preises ja dann viele weitere Dinge noch mit hereinspielen. Aber da sind wir dann ja vermutlich ohnehin einer Meinung, da neben internen Daten, ja sogar zusätzlich nur Bruchstücke des Produktes bisher durchsickerten, die noch keine endgültigen Schlüsse über die Marktposition zulassen. Wird eventuell ja auch eine Effektivität vs. Effizienz Debatte dann werden. ^^

Mancko
2006-03-06, 22:00:46
Die Kartellbehörden werden IMO einem Aufkauf von ATI nicht zustimmen. Diese Gefahr sehe ich hier nicht. Ansonsten gebe ich dir auch hier Recht. :)

Natürlich würden Sie das. Ich habe ja nicht gesagt dass Nvidia der Käufer ist. Für den Fall würde ich Dir Recht geben. Da ist aus Kartellrechtlicher Sicht nix drinn aber andere Interessenten dürften durchaus nur ist das nicht in ATIs Interesse. Firmen wollen sich grundätzlich nicht gern kaufen lassen, es sei denn es geht nicht anders.
Aus diesem Grund auch meine Bemerkung hinsichtlich des stark eingeschränkten Handlungsspielraums von ATI.

Gast
2006-03-06, 22:16:58
Natürlich würden Sie das. Ich habe ja nicht gesagt dass Nvidia der Käufer ist. Für den Fall würde ich Dir Recht geben. Da ist aus Kartellrechtlicher Sicht nix drinn aber andere Interessenten dürften durchaus nur ist das nicht in ATIs Interesse. Firmen wollen sich grundätzlich nicht gern kaufen lassen, es sei denn es geht nicht anders.
Aus diesem Grund auch meine Bemerkung hinsichtlich des stark eingeschränkten Handlungsspielraums von ATI.
Du schreibts die ganz zeit offen das Ati verkauft wird.Junge weisst du eigentlich wie gross Ati ist?Die Firma kann niemals einer in denn nächsten 10 Jahren aufkaufen.

reunion
2006-03-06, 22:25:12
Er meint etwas Anderes. NV könnte die tatsächliche Die-Size von R580 (das komplette Package, mit Schiebelehre gemessen) der technischen Die-Size (von Blue-Prints bzw. der eigenen Data-Sheets) von G71 gegenüberstellen. Das "verdreht" natürlich die Realität etwas, denn was zählt ist letztendlich nicht die technische, sondern die tatsächliche Größe, die vom Wafer geschnitten wird.

Genau aus diesem Grund sollte man solchartige Folien immer hinterfragen.

Wie schon zuvor gesagt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4049128#post4049128), irgendwo wird hier jedenfalls mit zweierlei Maß gemessen, da NV für R580 352mm² angibt, und für G70 333mm², und das, obwohl selbst ein Blinder erkennen würde, dass G70 größer als R580 ist.

http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_6.html

Gandharva
2006-03-06, 23:17:10
Natürlich würden Sie das. Ich habe ja nicht gesagt dass Nvidia der Käufer ist. Für den Fall würde ich Dir Recht geben. Da ist aus Kartellrechtlicher Sicht nix drinn aber andere Interessenten dürften durchaus nur ist das nicht in ATIs Interesse.Auch einem Verkauf an einen dritten würden die Kartellbehörden aufgrund der Möglichkeit einer Monopolstellung seitens NV wohl nie zustimmen.Du schreibts die ganz zeit offen das Ati verkauft wird.Junge weisst du eigentlich wie gross Ati ist?Die Firma kann niemals einer in denn nächsten 10 Jahren aufkaufen.Es gibt so einige Firmen auf dieser Welt die einen Kauf von ATI finanziell Schultern könnten.Wie schon zuvor gesagt, irgendwo wird hier jedenfalls mit zweierlei Maß gemessen, da NV für R580 352mm² angibt, und für G70 333mm², und das, obwohl selbst ein Blinder erkennen würde, dass G70 größer als R580 ist.Primär ging es hier (mir zumindest) erstmal um die Verkleinerung G70 -> G71. Diese liegt rein theoretisch mit ~330mm² -> ~200mm² im Bereich des Möglichen.

Mancko
2006-03-06, 23:20:47
Auch einem Verkauf an einen dritten würden die Kartellbehörden aufgrund der Möglichkeit einer Monopolstellung seitens NV wohl nie zustimmen.

Quatsch. Wenn jemand mit richtig viel Kohle einsteigt, ist das sogar noch im Sinne des Wettbewerbs. Das würden die Kartellbehörden nicht verhindern.
Anyway back on topic. Es ging ja nicht darum das ATI die Kohle ausgeht.
Hauptaussage von mir war, dass sie deutlich weniger Preisspielraum als Nvidia haben, wenn die Angaben auf den Folien passen und ATI als Firma nicht abgewertet werden will.

sklave_gottes
2006-03-06, 23:25:48
Wie schon zuvor gesagt, irgendwo wird hier jedenfalls mit zweierlei Maß gemessen, da NV für R580 352mm² angibt, und für G70 333mm², und das, obwohl selbst ein Blinder erkennen würde, dass G70 größer als R580 ist.

ich frage mich auch was hier die ganze zeit rumspekuliert wird.
man sieht doch eindeutig das hier was mit falschen dingen zu geht....

fizzo
2006-03-06, 23:27:10
Primär ging es hier (mir zumindest) erstmal um die Verkleinerung G70 -> G71. Diese liegt rein theoretisch mit ~330mm² -> ~200mm² im Bereich des Möglichen.

wenn ich xbitlabs bilder vergleiche entspricht das dann ~250ATImm2 ;)

spaß bei seite, mir als endverbrauch ist egal wie viel nv oder ati marge auf die gpu`s haben. konkurenz belebt das geschaeft und wenn ich ati`s reaktion ( http://www.hartware.de/news_39535.html) auf den g71 sehe kann uns das ja nur recht sein.

fuer mich persoenlich hat ati auch nach dem 9. maerz das interessantere produkt zum konkurenzfaehigen preis.....

Gandharva
2006-03-06, 23:31:16
Quatsch.Mit Sicherheit nicht. Wer sagt das der Käufer das Kerngeschäft von ATI (Grafikkarten) genau so priorisiert wie ATI selbst vor dem Kauf? Aber ja, back to topic.

Gandharva
2006-03-06, 23:34:42
ich frage mich auch was hier die ganze zeit rumspekuliert wird.
man sieht doch eindeutig das hier was mit falschen dingen zu geht....Vielleicht weil wir hier in einem Spekulationsforum sind und manche die Dinge, im Gegensatz zu anderen, hinterfragen möchten und so ein Forum als Plattform dazu benutzen?

Gandharva
2006-03-06, 23:39:28
fuer mich persoenlich hat ati auch nach dem 9. maerz das interessantere produkt zum konkurenzfaehigen preis.....Sehe ich momentan auch so. Dazu kommt noch das die Strategie von NV erstmal aufgehen muss und dazu muss sich der G71 auch gut verkaufen.

Sunrise
2006-03-06, 23:42:35
...da NV für R580 352mm² angibt, und für G70 333mm²...Das gibt Davey übrigens auch an, eine Antwort folgt hoffentlich bald. Eine sehr peinliche Angelegenheit für B3D, wie ich finde.

dildo4u
2006-03-06, 23:44:12
So schlecht steht Nvidia nicht da wenn sie schon zum 3 mal den selben Chip bringen also fast keine Entwicklungskosten hatten und Trotzdem noch gut mithalten.

ShadowXX
2006-03-06, 23:44:14
Vielleicht weil wir hier in einem Spekulationsforum sind und manche die Dinge, im Gegensatz zu anderen, hinterfragen möchten und so ein Forum als Plattform dazu benutzt?

Aber er hat trotzdem irgendwie recht...das der G70 größer als der r580 ist, sieht ein blinder mit dem Krückstock.

Gandharva
2006-03-06, 23:52:37
Das gibt Davey übrigens auch an, eine Antwort folgt hoffentlich bald. Eine sehr peinliche Angelegenheit für B3D, wie ich finde.Naja, aufgrund von Bildern, die bekanntlich vergrößert und verkleinert werden können, auf die tatsächliche Größe zu schliessen halte ich für gewagt. Da vertraue ich eher auf die B3D Aussagen da die Seite ansonsten auch sehr penibel ist.

reunion
2006-03-06, 23:54:28
Vielleicht weil wir hier in einem Spekulationsforum sind und manche die Dinge, im Gegensatz zu anderen, hinterfragen möchten und so ein Forum als Plattform dazu benutzen?

Schön und gut. Nur wenn ich bei manchen knapp sieben Seiten diskuttieren muss, um bei einer derartig logischen und simplen Angelegenheit Gehör zu finden, dann hat das nichts mit "hinterfragen" zu tun.

reunion
2006-03-06, 23:58:45
Naja, aufgrund von Bildern, die bekanntlich vergrößert und verkleinert werden können, auf die tatsächliche Größe zu schliessen halte ich für gewagt. Da vertraue ich eher auf die B3D Aussagen da die Seite ansonsten auch sehr penibel ist.

xbitlabs ist auch nicht ganz blöd:

http://www.xbitlabs.com/images/video/radeon-x1900xtx-illustrations/chips_bg.jpg

Im übrigen steht in faktischen jedem G70 vs. R580 Review das G70 größer ist.

Alleine schon wenn man das sieht, kann man doch ganz eindeutig sagen, dass die Proportionen der nV-Folie nicht stimmen können. Dafür müsste die Die-Größe im Vergleich zum G70 fast geviertelt worden sein.

Sunrise
2006-03-07, 00:06:55
Naja, aufgrund von Bildern, die bekanntlich vergrößert und verkleinert werden können, auf die tatsächliche Größe zu schliessen halte ich für gewagt. Da vertraue ich eher auf die B3D Aussagen da die Seite ansonsten auch sehr penibel ist.Ja, nur misst Davey bei B3D normalerweise immer selbst nach. Das, was reunion sagen will, ergibt also schon Sinn. Bei diesen Größen (G70 vs. R580) stimmt definitiv etwas nicht.

Gandharva
2006-03-07, 00:06:55
@reunion

Das sagt erstmal gar nichts. Oder sind diese Spreader genormt in ihrer Größe? Wenn ja, dann ist da was faul.

aths
2006-03-07, 00:11:34
Ich halte diese seitenlangen Diskussionen um die Diegröße für verfehlt. Uns Kunden interessiert der Preis der Karte und die Lautstärke des Lüfters, und ob es eine 1- oder 2-Slot-Kühllösung ist. Wie groß der verbaute Chip ist, kann uns schnurzpiepe sein.

reunion
2006-03-07, 00:12:01
@reunion

Das sagt erstmal gar nichts. Oder sind diese Spreader genormt in ihrer Größe? Wenn ja, dann ist da was faul.


Ich habe keine Ahnung, ob die Teile genormt sind. Ich nehme allerdings stark an, dass diese in diesem Fall gleich groß sind, sonst würde xbitlabs diese wohl kaum so gegenüberstellen. Die werden schon nachgemessen haben, wie schon gesagt, ganz blöd sind die auch nicht.

Gandharva
2006-03-07, 00:12:31
Schön und gut. Nur wenn ich bei manchen knapp sieben Seiten diskuttieren muss, um bei einer derartig logischen und simplen Angelegenheit Gehör zu finden, dann hat das nichts mit "hinterfragen" zu tun.Jetzt aber mal halblang. Zu Anfang ging es nur um den NV Shrink G70 -> G71 und nicht wie groß der R580 dazu im Verhältnis ist. 330 -> 200 ist IMO drin was auch andere bereits genau so vermuten und genau das hast du Anfangs bestritten. Zur ATI/NV Verhältnisgeschichte hat sich das erst danach entwickelt. Ich würde sogar behaupten du hast es dazu gemacht. ;) Nichtsdestotrotz: Mich interessiert das jetzt.

reunion
2006-03-07, 00:16:51
Jetzt aber mal halblang. Zu Anfang ging es nur um den NV Shrink G70 -> G71 und nicht wie groß der R580 dazu im Verhältnis ist. 330 -> 200 ist IMO drin was auch andere bereits genau so vermuten und genau das hast du Anfangs bestritten. Zur ATI/NV Verhältnisgeschichte hat sich das erst danach entwickelt.

Schön langsam wirds zwar lächerlich, aber ich stellte bewusst vom ersten Beitrag an das Verhältnis zu R580 her. Diese 200 bestritt ich stets nur im verhältnis zu den 352 des R580, da dies wie schon erwähnt aus mehrern grunden unmöglich ist. Ich wusste zu beginn nicht, wie groß G70 ist. So, und jetzt gehts ins Bett. Gn8.

Gast
2006-03-07, 00:30:18
Ich will jetzt auch nicht auf 200 vs. 350 mm² herumreiten, selbst wenn es 250 vs. 330 mm² sind, dürfte das preislich mehr Spielraum für Nv bedeuten.

Da dies in jedem Falle einen Vorteil für uns Kunden bedeutet, kann ich beim besten willen den aggressiven Tonfall einiger hier nur leise schmunzelnd als sehr bezeichnend einschätzen. :)


Q

Gandharva
2006-03-07, 00:45:25
Ich will jetzt auch nicht auf 200 vs. 350 mm² herumreiten, selbst wenn es 250 vs. 330 mm² sind, dürfte das preislich mehr Spielraum für Nv bedeuten.

Da dies in jedem Falle einen Vorteil für uns Kunden bedeutet, kann ich beim besten willen den aggressiven Tonfall einiger hier nur leise schmunzelnd als sehr bezeichnend einschätzen. :)


QDas dies in jedem Fall für den Verbraucher einen (Preis)Vorteil bedeutet muss sich erst herausstellen. Die 7900GT ist auf dem Papier nichts anderes als eine 7800GTX. Für so eine Karte würde ich jetzt auch nicht wirklich viel mehr als 300€ ausgeben wollen.

sklave_gottes
2006-03-07, 00:49:13
Abwarten,
185mm²(g71) zu 350mm²(r580) ist doch mehr als komisch.
Dazu ist der g70 viel grösser im vergleich zum r580 und misst "nur" 330mm².
Noch dazu wissen wir noch nicht mal, ob nicht doch noch ein paar transis dazu gekommen sind.(von g70 auf g71)
also r580 hat 354mm² der r520 soll 288mm² so müste der g70 laut den bildern wenn sie denn stimmen minimum 460mm² haben was auch sehr komisch scheint.

Ailuros
2006-03-07, 01:36:36
Genau das habe ich gesucht.

Kopieren, speichern und fuer zukuenftigen moeglichen Brauch behalten. Steht kein copyright drauf ;)

Vermutlich wurden einfach die Ergebnisse von G71 und R580 vertauscht.

Wie gesagt ich warte auf unabhaengige Resultate. So enttaeuschend ist die G71 Leistung aber trotzdem nicht (und ja irrelevant zu dem PR Mist) trotz unendlichem "zu wenig Bandbreite" Gelaber :P


Die Die-Size-Angaben sind vollkommen unrealistisch. Da der verwendete Prozess identisch zu R580 ist, müsste G71 laut diesen Angaben höchstens 200mio Transistoren haben. Soviel kann man nicht einsparen, ohne den Chip zu kastrieren. Aber vermutlich wurde da auch einfach was "vertauscht".

Bleib mal bei der Kleinigkeit stecken dass G71 weniger Transistoren hat als G70; das ist die einzige wichtige Kleinigkeit hier. Die niedrigere Chipkomplexitaet kann auf vieles deuten wie z.B. einen Anteil der Erklaerung des Preisdrucks, eine moegliche sehr gute Uebertaktbarkeit oder weiss der Geier was noch.

Ailuros
2006-03-07, 01:38:31
Ich will jetzt auch nicht auf 200 vs. 350 mm² herumreiten, selbst wenn es 250 vs. 330 mm² sind, dürfte das preislich mehr Spielraum für Nv bedeuten.

Da dies in jedem Falle einen Vorteil für uns Kunden bedeutet, kann ich beim besten willen den aggressiven Tonfall einiger hier nur leise schmunzelnd als sehr bezeichnend einschätzen. :)


Q

Gott sei Dank gibt es Beitraege wie diesen; einen Schuss Logik braucht man immer.

Ailuros
2006-03-07, 01:40:48
Das dies in jedem Fall für den Verbraucher einen (Preis)Vorteil bedeutet muss sich erst herausstellen. Die 7900GT ist auf dem Papier nichts anderes als eine 7800GTX. Für so eine Karte würde ich jetzt auch nicht wirklich viel mehr als 300€ ausgeben wollen.

ATI hat schon eine Preisreduktion angekuendigt und es handelt sich nichts anderes um eine Reaktion auf das was NVIDIA plant. Also wenn davon der Verbraucher nicht profitieren soll, weiss ich auch nicht mehr wo's langgeht.

Konkurrenz ist eben eine feine Sache in solchen Faellen.

Fetza
2006-03-07, 02:00:50
Ich halte diese seitenlangen Diskussionen um die Diegröße für verfehlt. Uns Kunden interessiert der Preis der Karte und die Lautstärke des Lüfters, und ob es eine 1- oder 2-Slot-Kühllösung ist. Wie groß der verbaute Chip ist, kann uns schnurzpiepe sein.

ack! ich würde allerdings noch die damit zu erzielende performance und bq hinzurechnen!

aths
2006-03-07, 03:12:48
ack! ich würde allerdings noch die damit zu erzielende performance und bq hinzurechnen!Ich beziehe mich hier nur auf die physikalischen Größen der Karte. Beispielsweise ist es vollkommen schnurz, ob ein, zwei oder noch mehr GPUs genutzt werden – solange die Karte vernünftig (leise) gekühlt werden kann, nicht zu schwer oder zu lang ist (so dass sie problemlos überall einzubauen ist) und die Signalqualität stimmt (falls man noch den analogen Ausgang nutzt) ist alles in Butter.

Beim Speicher interessiert z. B. auch nicht, wie viel ns der hat und mit welchen Latenzen er läuft. Es interessiert allein die Performance, die er im Zusammenspiel mit dem Memory Controller liefert. Immerhin kann man aus den Speicher-Spezifikationen ein paar Rückschlüsse auf die zu erwartende Leistung ziehen, sofern die Interfacebreite bekannt ist.

Die Diegröße ist aber mal vollkommen uninteressant. Wenn ATIs Chip einen größeren Die hat, und NV einen kleinen – na und? Mag NV bei den Stückkosten sparen, so mussten sie doch erst mal zusätzlichen Entwicklungsaufwand reinstecken.

Gast
2006-03-07, 08:29:25
Ich beziehe mich hier nur auf die physikalischen Größen der Karte. Beispielsweise ist es vollkommen schnurz, ob ein, zwei oder noch mehr GPUs genutzt werden – solange die Karte vernünftig (leise) gekühlt werden kann, nicht zu schwer oder zu lang ist (so dass sie problemlos überall einzubauen ist) und die Signalqualität stimmt (falls man noch den analogen Ausgang nutzt) ist alles in Butter.

Beim Speicher interessiert z. B. auch nicht, wie viel ns der hat und mit welchen Latenzen er läuft. Es interessiert allein die Performance, die er im Zusammenspiel mit dem Memory Controller liefert. Immerhin kann man aus den Speicher-Spezifikationen ein paar Rückschlüsse auf die zu erwartende Leistung ziehen, sofern die Interfacebreite bekannt ist.

Die Diegröße ist aber mal vollkommen uninteressant. Wenn ATIs Chip einen größeren Die hat, und NV einen kleinen – na und? Mag NV bei den Stückkosten sparen, so mussten sie doch erst mal zusätzlichen Entwicklungsaufwand reinstecken.


Ack. Kommt mir langsam so vor als wären hier nur noch Shareholder unterwegs die jetzt in RH-Manier bejubeln, das nV den Leuten das Geld noch besser aus der Tasche ziehen kann.

Und mal so nebenbei, das Die ist nicht der einzige Kostenfaktor auf einem Endprodukt "Grafikkarte". Sollte also nV hier einem Kostenvorteil haben, lassen wir es hoch gegriffene 20$/Einheit im HighEnd sein, müssen sie diesen erst einmal per durchgesetzten Marktpreis als Marge realisieren, Entwicklungskosten und sonstige Vorleistungen mal außer acht gelassen.

Also, immer schön die Füße still halten und nicht bei jedem Hype mitzappeln.

Armaq
2006-03-07, 09:09:43
Ich beziehe mich hier nur auf die physikalischen Größen der Karte. Beispielsweise ist es vollkommen schnurz, ob ein, zwei oder noch mehr GPUs genutzt werden – solange die Karte vernünftig (leise) gekühlt werden kann, nicht zu schwer oder zu lang ist (so dass sie problemlos überall einzubauen ist) und die Signalqualität stimmt (falls man noch den analogen Ausgang nutzt) ist alles in Butter.

Beim Speicher interessiert z. B. auch nicht, wie viel ns der hat und mit welchen Latenzen er läuft. Es interessiert allein die Performance, die er im Zusammenspiel mit dem Memory Controller liefert. Immerhin kann man aus den Speicher-Spezifikationen ein paar Rückschlüsse auf die zu erwartende Leistung ziehen, sofern die Interfacebreite bekannt ist.

Die Diegröße ist aber mal vollkommen uninteressant. Wenn ATIs Chip einen größeren Die hat, und NV einen kleinen – na und? Mag NV bei den Stückkosten sparen, so mussten sie doch erst mal zusätzlichen Entwicklungsaufwand reinstecken.

Kannst du das irgendwie belegen?
Wenn NV einfach nur eine Shrink durchführt, sollte sich der Entwicklungsaufwand doch extrem in Grenzen halten, oder?

Warum interessiert dich nicht, was auf der Karte verbaut ist? Die verbauten Einzelteile lassen doch sehr genaue Rückschlüsse auf evtl. Engpässe, oder Verbesserungsmöglichkeiten zu? Es sei denn, wir sprechen von einem optimalen Ergebniss. ;)

Gast
2006-03-07, 09:33:46
Die Diegröße ist aber mal vollkommen uninteressant. Wenn ATIs Chip einen größeren Die hat, und NV einen kleinen – na und? Mag NV bei den Stückkosten sparen, so mussten sie doch erst mal zusätzlichen Entwicklungsaufwand reinstecken.

Also NVs Entwicklungskosten werden insgesamt deutlich unter denen von ATI gelegen haben. Darf ich es kurz ausführen?

NV40
G70 ~ NV40
G71 = G70 bis auf Kleinigkeiten
RSX = G71 + Veränderungen beim Interface

Alles in allem kocht Nvidia mit nur geringen Veränderungen auf der NV40 Architektur.
Bei ATI sieht die Sache anders aus.

R4xx (nur SM2)
R520 SM3
R580 SM3 + deutlich aufgebohrter Shader
Xenos ein Unified Design usw...

Alles in allem ist Nvidias Lineup deutlich kosteneffizienter. Auch die Wiederverwendbarkeit bzw. Modularität scheint besser zu gewesen zu sein und auch besser zu sein. Anders lassen sich die enormen Margenunterschiede nicht erklären.

Deshalb ist es schon wichtig zu klären, wie groß der G71 DIE nun wirklich im Vergleich zu R580 ist. Ich hatte ja eingangs Zweifel an der Korrektheit der Folie diesbezüglich geäußert. Sollten die Angaben jedoch korrekt sein ist ATI im Handlungsspielraum stark eingeschränkt. Bei so einem Unterschied ließe sich auf der Preisebene ohne starke Auswirkungen aufs finanzielle nicht viel drehen.

Gast
2006-03-07, 09:48:32
Deshalb ist es schon wichtig zu klären, wie groß der G71 DIE nun wirklich im Vergleich zu R580 ist. Ich hatte ja eingangs Zweifel an der Korrektheit der Folie diesbezüglich geäußert. Sollten die Angaben jedoch korrekt sein ist ATI im Handlungsspielraum stark eingeschränkt. Bei so einem Unterschied ließe sich auf der Preisebene ohne starke Auswirkungen aufs finanzielle nicht viel drehen.



Und mal so nebenbei, das Die ist nicht der einzige Kostenfaktor auf einem Endprodukt "Grafikkarte". Sollte also nV hier einem Kostenvorteil haben, lassen wir es hoch gegriffene 20$/Einheit im HighEnd sein, müssen sie diesen erst einmal per durchgesetzten Marktpreis als Marge realisieren, Entwicklungskosten und sonstige Vorleistungen mal außer acht gelassen.

robbitop
2006-03-07, 09:49:22
Für die Ausführung bei NV solltest du NV3x hinzufügen, da hier das CineFX Design eingeführt worden ist (worauf auch NV4x basiert).
Bei ATI kannst du R4xx wegnehmen. Der gehört zu R3xx (und der eigentlich zu R2xx).

Gandharva
2006-03-07, 10:02:13
Ich halte diese seitenlangen Diskussionen um die Diegröße für verfehlt. Uns Kunden interessiert der Preis der Karte und die Lautstärke des Lüfters, und ob es eine 1- oder 2-Slot-Kühllösung ist. Wie groß der verbaute Chip ist, kann uns schnurzpiepe sein.Ich möchte nur kurz darauf hinweisen das Du nicht die Allgemeinheit der Kunden repräsentierst auch wenn deine Schreibe auf anderes hindeutet.Ack. Kommt mir langsam so vor als wären hier nur noch Shareholder unterwegs die jetzt in RH-Manier bejubeln, das nV den Leuten das Geld noch besser aus der Tasche ziehen kann.Wenn man die letzten paar Seiten an Beiträgen nicht ordendlich liest und zudem eine engstirnige Sichtweise hat, könnte man zu so einem Schluss kommen.

Gandharva
2006-03-07, 10:59:07
http://www.theinquirer.net/images/articles/redgreens.gif

http://www.theinquirer.net/?article=30089

seahawk
2006-03-07, 11:05:21
Wenn das stimmt, dann ist bei NV alles in Butter. 2x 7900GX2 wäre allerdings viel spannender. Und selbst wenn eine 7900GX2 20% langsamer als 2 GTX sein sollte, dann ist sie weiterhin die mit Abstand schnellste Karte und im für 799 ein echtes Schnäppchen.

[dzp]Viper
2006-03-07, 11:15:24
Wenn das stimmt, dann ist bei NV alles in Butter. 2x 7900GX2 wäre allerdings viel spannender. Und selbst wenn eine 7900GX2 20% langsamer als 2 GTX sein sollte, dann ist sie weiterhin die mit Abstand schnellste Karte und im für 799 ein echtes Schnäppchen.

nochmal auf Deutsch bitte?! :D

Chris Lux
2006-03-07, 11:29:25
http://www.theinquirer.net/images/articles/redgreens.gif

http://www.theinquirer.net/?article=30089
OMG kann man nicht noch irgend eine logarithmische skala nutzen, damit der grüne anteil gegen null geht und der rote gehen +unendlich.
;)

O RLY?
2006-03-07, 11:47:56
OMG kann man nicht noch irgend eine logarithmische skala nutzen, damit der grüne anteil gegen null geht und der rote gehen +unendlich.
;)

http://img112.imageshack.us/img112/3044/012ty.jpg

So besser ;D

Ailuros
2006-03-07, 11:54:09
OMG kann man nicht noch irgend eine logarithmische skala nutzen, damit der grüne anteil gegen null geht und der rote gehen +unendlich.
;)

Die klassischen Graphs der Laecherlichkeit.

Ailuros
2006-03-07, 11:55:03
So besser ;D

13900 vs. 14100

O RLY?
2006-03-07, 11:56:47
13900 vs. 14100
Schau mal genau hin ;)

Gandharva
2006-03-07, 12:00:25
Schau mal genau hin ;)Dein Graph ist falsch! 13800 vs. 14100 und nicht wie es sein sollte 13900 vs. 14100.

Ailuros
2006-03-07, 12:03:40
NV40
G70 ~ NV40
G71 = G70 bis auf Kleinigkeiten
RSX = G71 + Veränderungen beim Interface

Ein Consolen-chip ist nie so einfach realisierbar, egal ob er mit PC GPU sehr verwandt aussieht.


R4xx (nur SM2)
R520 SM3
R580 SM3 + deutlich aufgebohrter Shader
Xenos ein Unified Design usw...

Wie robbi schon sagte in beiden Faellen fehlen Dir sowohl NV3x als auch R3xx. ATI hat selber angegeben dass man R4xx Entwicklung eher in "man-hours" als in "man-months" zaehlen sollte.

Eher so:

R3xx/4xx
R520/580 fuer PC
Xenos (SM3.0 USC)
R5x0 fuer Nintendo Revolution

Alles in allem ist Nvidias Lineup deutlich kosteneffizienter. Auch die Wiederverwendbarkeit bzw. Modularität scheint besser zu gewesen zu sein und auch besser zu sein. Anders lassen sich die enormen Margenunterschiede nicht erklären.

Im guten Ganzen ja. Weniger komplizierte und so verschiedene Designs wie bei ATI.

Deshalb ist es schon wichtig zu klären, wie groß der G71 DIE nun wirklich im Vergleich zu R580 ist. Ich hatte ja eingangs Zweifel an der Korrektheit der Folie diesbezüglich geäußert. Sollten die Angaben jedoch korrekt sein ist ATI im Handlungsspielraum stark eingeschränkt. Bei so einem Unterschied ließe sich auf der Preisebene ohne starke Auswirkungen aufs finanzielle nicht viel drehen.

Hilft es dass der Transistoren-Unterschied zwischen R580 und G71 nahe an die 100M Grenze schlaegt?

O RLY?
2006-03-07, 12:03:48
Ups, mein Fehler :uroll:

Jetzt aber:

http://img219.imageshack.us/img219/4554/024ki.jpg

Ailuros
2006-03-07, 12:04:50
Schau mal genau hin ;)

bin ich blind oder was?

http://www.theinquirer.net/images/articles/redgreens.gif

da steht 13900, aber wie dem auch sei, genug mit dem albernen Zeug.

Ailuros
2006-03-07, 12:06:52
Wenn das stimmt, dann ist bei NV alles in Butter. 2x 7900GX2 wäre allerdings viel spannender. Und selbst wenn eine 7900GX2 20% langsamer als 2 GTX sein sollte, dann ist sie weiterhin die mit Abstand schnellste Karte und im für 799 ein echtes Schnäppchen.

So besonders ist GX2 letztendlich doch nicht.

Gast
2006-03-07, 12:17:39
Hilft es dass der Transistoren-Unterschied zwischen R580 und G71 nahe an die 100M Grenze schlaegt?

ja tut es. Ich glaub dir das einfach mal, da ich denke, dass du es wissen wirst. :)
Das wäre aber schon ein Hammer, an den bisher nur die wenigsten im Vorfeld gedacht haben. Ist ja schön das alle auf der Performance und ähnlichem rumreiten nur wenn diese im Rahmen des R580 liegt, der DIE aber Nahe an ATIs Mainstream mit 100 Mille weniger als R580 heranreicht und Nvidia so auch Dual GPU Karten für Benchmarksiege liefern kann, dann ist die Runde doch im Prinzip bis zum G80 / R600 gelaufen.

robbitop
2006-03-07, 12:20:18
@AiL
Ist Revolution eher mit R5xx (wobei ich R520/80.. eher als ein Hybrid-design zw R420.. und C1/R400/R600 sehe) verwand oder eher mit C1?
Kann mir nicht vorstellen, dass man mit 3 grundverschiedenen Designs herumwerkelt.

Ailuros
2006-03-07, 13:08:03
@AiL
Ist Revolution eher mit R5xx (wobei ich R520/80.. eher als ein Hybrid-design zw R420.. und C1/R400/R600 sehe) verwand oder eher mit C1?
Kann mir nicht vorstellen, dass man mit 3 grundverschiedenen Designs herumwerkelt.

Revolution hat afaik einen "blah" R5x0 basierenden chip. Viele Consoleros erhoffen sich staerkere Leistung als Xenos, aber meine Infos deuten auf das genaue Gegenteil.

Ailuros
2006-03-07, 13:20:22
ja tut es. Ich glaub dir das einfach mal, da ich denke, dass du es wissen wirst. :)
Das wäre aber schon ein Hammer, an den bisher nur die wenigsten im Vorfeld gedacht haben. Ist ja schön das alle auf der Performance und ähnlichem rumreiten nur wenn diese im Rahmen des R580 liegt, der DIE aber Nahe an ATIs Mainstream mit 100 Mille weniger als R580 heranreicht und Nvidia so auch Dual GPU Karten für Benchmarksiege liefern kann, dann ist die Runde doch im Prinzip bis zum G80 / R600 gelaufen.

Also mit der D3D10 Runde wuerde ich noch nicht spekulieren wer hier gewinnen wuerde; momentan sieht mir hier ATI besser aus und das hauptsaechlich weil Xenos nach den Entwicklern selber einfacher zum coden aussieht als RSX. Es kann durchaus sein dass ATI die erste D3D10 gewinnt.

7900GX2 wird nicht anfangs einzeln verkauft werden, sondern in quad-SLi configs von System-bauenden Firmen. Bei den $799 und geschaetzten 1GB GDDR3 fuer die Dinger erwarte ich ehrlich gesagt auch nicht mehr als etwas weniger als 2*GT.


NVIDIA ging es IMHO am meisten diesmal um Stromverbrauch im mobilen Markt. ATI stellt erst jetzt ihre R520 basierenden laptop chip vor und ich bezweifle dass sie weniger Strom verbrauchen als equivalente G7x-laptop chips. R580-basierende mobile chips sind auch noch im Anlauf.

Ich stell mal eine andere Frage und wer sich die Realitaet herauslesen kann soll es gut sein. Was macht mehr Sinn eine high end PC GPU fertigzustellen die um sagen wir mal 20% schneller ist als GTX512 aber um einiges mehr Strom verbraucht oder einen konservativeren Weg zu gehen mit weniger Leistungsgewinn zum Vorgaenger der aber um einiges bessere Chancen hat, Marktanteile zu gewinnen im Notebook-Markt wo ATI momentan der absolute Fuehrer ist?

Irgendwo gewinnt man und irgendwo verliert man. Wenn man alles durch den Durchschnitt laufen laesst und an "sales synergy" denkt ist es tatsaechlich fraglich ob NVIDIA die falsche Entscheidung auch fuer diese Runde getroffen hat.

Das alles natuerlich von einer laienhaften Markt-analysen-Perspektive; als Verbraucher gibt es genug Grund ueber NVIDIA zu meckern denn ATI liefert seit der R520 tatsaechlich mehr Bildqualitaet pro Euro.

O RLY?
2006-03-07, 13:21:31
Revolution hat afaik einen "blah" R5x0 basierenden chip. Viele Consoleros erhoffen sich staerkere Leistung als Xenos, aber meine Infos deuten auf das genaue Gegenteil.
Ähem, sollte der Revolution nicht einen nur höher getakteten "Flipper" (vom aktuellen GameCube)-Grafikchip haben? Weil HD-auflösungen, usw. wird die Konsole auch nicht bieten.

Ailuros
2006-03-07, 13:24:22
Ähem, sollte der Revolution nicht einen nur höher getakteten "Flipper" (vom aktuellen GameCube)-Grafikchip haben? Weil HD-auflösungen, usw. wird die Konsole auch nicht bieten.

Wenn das wahr ist, desto schlimmer fuer Nintendo. Wie gesagt AFAIK (und das bedeutet natuerlich keine Garantie) steckt in Revolution ein R5x0 Abschlag, oder um es noch genauer zu machen ein chip der um einiges weniger liefert als R5x0/PC.

fizzo
2006-03-07, 13:24:44
Revolution hat afaik einen "blah" R5x0 basierenden chip. Viele Consoleros erhoffen sich staerkere Leistung als Xenos, aber meine Infos deuten auf das genaue Gegenteil.

ich kenne keinen "consoleros", welcher der meinung ist, dass die grafikleistung des revolution hoeher ist als die der 360ig. warum auch? fuer 480p braucht man bei weiten nicht so viel rohpower als fuer 720p.....

geruechte zu folge soll der revolution ja nur die zweifache leistung des gamecubes haben....was ich jedoch in anbedracht der abstammung vom r5x0 im verhaeltnis zum flipper stark bezweifle.

jetzt aber genug ot ;)

Ailuros
2006-03-07, 13:27:05
ich kenne keinen "consoleros", welcher der meinung ist, dass die grafikleistung des revolution hoeher ist als die der 360ig. warum auch? fuer 480p braucht man bei weiten nicht so viel rohpower als fuer 720p.....

geruechte zu folge soll der revolution ja nur die zweifache leistung des gamecubes haben....was ich jedoch in anbedracht der abstammung vom r5x0 im verhaeltnis zum flipper stark bezweifle.

jetzt aber genug ot ;)

Dann gehe einfach nicht von 4 quads aus wenn Du an R5x0 denkst. Wo sind die <4 quad R520 chips bis jetzt ueberhaupt?

reunion
2006-03-07, 13:29:48
Revolution hat afaik einen "blah" R5x0 basierenden chip. Viele Consoleros erhoffen sich staerkere Leistung als Xenos, aber meine Infos deuten auf das genaue Gegenteil.


Beim dem anvisierten Preis der Revo sollte das auch klar sein, man hört immer wieder Gerüchte es wäre nur ein RV530.

Ailuros
2006-03-07, 13:31:04
Beim dem anvisierten Preis der Revo sollte das auch klar sein, man hört immer wieder Gerüchte es wäre nur ein RV530.

Zwischen RV530 und R520.

robbitop
2006-03-07, 13:31:54
@AiL
wie kann man von RSX auf G80 schließen?

robbitop
2006-03-07, 13:33:04
Zwischen RV530 und R520.
RV560 X-D

reunion
2006-03-07, 13:36:51
Kopieren, speichern und fuer zukuenftigen moeglichen Brauch behalten. Steht kein copyright drauf ;)


Thx, wusste ich nicht.


Wie gesagt ich warte auf unabhaengige Resultate. So enttaeuschend ist die G71 Leistung aber trotzdem nicht (und ja irrelevant zu dem PR Mist) trotz unendlichem "zu wenig Bandbreite" Gelaber :P


Ich habe nie behauptete, dass die G71-Leistung enttäuschen sein wird. Der Chip hat allerdings trotzdem zu wenig Bandbreite, sonst müsste der Performancevorteil bei unveränderter Architektur im Vergleich zur GTX512 ständig bei 18% liegen, momentan siehts aber eher nach ~8-10% aus.

Etwas anderes habe ich nie behauptet, und das wird sich auch bestätigen.

OMG kann man nicht noch irgend eine logarithmische skala nutzen, damit der grüne anteil gegen null geht und der rote gehen +unendlich.
;)


Solche Skalen sind eine Frechheit in meine Augen, und nichts anderes.

Hilft es dass der Transistoren-Unterschied zwischen R580 und G71 nahe an die 100M Grenze schlaegt?

Ich tippe mal auf 292mio Transitoren. X-D

[...] der DIE aber Nahe an ATIs Mainstream mit 100 Mille weniger als R580 heranreicht [...]

ATis Mainstream hat nochmal >100mio Transistoren weniger.

Gast
2006-03-07, 13:43:52
Die Skala sieht doch Lustig aus.;)Hat mich heute zum 1 mall zum Lachen gebracht.:biggrin:

Gast
2006-03-07, 13:45:50
BTW, laut meiner Schieblehre hat ein G70 rund 353 mm².


Q

Ailuros
2006-03-07, 13:46:52
@AiL
wie kann man von RSX auf G80 schließen?

Du hast Dir wohl was falsch rausgelesen. Um es klarer zu machen: im Vergleich zwischen RSX und Xenos - und ja stets nach der Meinung einiger Entwickler - ist der letztere flexibler um darauf zu entwickeln. Es mag zwar auf Anhieb als nur eine Kleinigkeit klingen, aber falls ATI aehnliches mit ihrem ersten D3D10 Design gelingen sollte, sieht es mir ueberhaupt nicht schwarz fuer ATI momentan aus. Ganz im Gegenteil.

Ailuros
2006-03-07, 13:54:03
Ich habe nie behauptete, dass die G71-Leistung enttäuschen sein wird. Der Chip hat allerdings trotzdem zu wenig Bandbreite, sonst müsste der Performancevorteil bei unveränderter Architektur im Vergleich zur GTX512 ständig bei 18% liegen, momentan siehts aber eher nach ~8-10% aus.

Wo sind die unabhaenigen offizielle Resultate die jegliches Prozentual bestaetigen? Der Durchschnitt wird hoeher sein wenn man ein gesund grosse Anzahl von Spielen zur Hand nimmt und nicht nur wahlweise 4-5 Benchmarks.

Ich tippe mal auf 292mio Transitoren.

Ob es jetzt X oder Y Anzahl genau sind ist nebenwichtig. Nun denk mal an abgeschlachtete Notebook-chips von der einen und anderen Seiten und den geschaetzten Stromverbrauch jeweils, dann kommst Du dann schon auf was ich hinaus will.

robbitop
2006-03-07, 14:11:53
Du hast Dir wohl was falsch rausgelesen. Um es klarer zu machen: im Vergleich zwischen RSX und Xenos - und ja stets nach der Meinung einiger Entwickler - ist der letztere flexibler um darauf zu entwickeln. Es mag zwar auf Anhieb als nur eine Kleinigkeit klingen, aber falls ATI aehnliches mit ihrem ersten D3D10 Design gelingen sollte, sieht es mir ueberhaupt nicht schwarz fuer ATI momentan aus. Ganz im Gegenteil.
Ja das ist mir klar. Ich frage mich nur, in wiefern du darauf kommst, dass die erste D3D10 Runde möglicherweise an ATI geht. ;)

Audigy
2006-03-07, 14:40:20
Ja das ist mir klar. Ich frage mich nur, in wiefern du darauf kommst, dass die erste D3D10 Runde möglicherweise an ATI geht. ;)
wenn das in den nächsten wochen rauskommt (D3D10) dann geht die runde ganz klar an nvidia
die haben schon ne karte mit D3D10 aufn markt (7800GS für AGP)

AnarchX
2006-03-07, 14:42:59
wenn das in den nächsten wochen rauskommt (D3D10) dann geht die runde ganz klar an nvidia
die haben schon ne karte mit D3D10 aufn markt (7800GS für AGP)
:|
Woher soll die 7800GS D3D10 können ? Die ist wie alles erhätliche D3D9.0c

seahawk
2006-03-07, 14:47:12
So besonders ist GX2 letztendlich doch nicht.

Auf lange Sicht halte ich die 7900GX2 für einen Meilenstein. :biggrin:

Ailuros
2006-03-07, 14:49:21
wenn das in den nächsten wochen rauskommt (D3D10) dann geht die runde ganz klar an nvidia
die haben schon ne karte mit D3D10 aufn markt (7800GS für AGP)

Die gesamte G7x Linie hat nichts im geringsten mit voller D3D10 Komplianz zu tun, gilt aber genauso fuer R5x0/RV5x0.

Ailuros
2006-03-07, 14:51:43
Auf lange Sicht halte ich die 7900GX2 für einen Meilenstein. :biggrin:

Nach dem MSRP einer 7900GT, kosten 2*7900GT@SLi $598. Natuerlich ist ein Unterschied 2*256MB vs. 1024MB.

Gandharva
2006-03-07, 16:22:46
Nach dem MSRP einer 7900GT, kosten 2*7900GT@SLi $598. Natuerlich ist ein Unterschied 2*256MB vs. 1024MB.EVGA 7900GTX $765 (http://www.mwave.com/mwave/Deepsearch.hmx?SCriteria=7900+GTX&updepts=&DNAME=&Pname=&DID=&Pid=&ALL=y&Sort=price&Thumb=YTM) -> Kaufen, kaufen, marsch, marsch… ;D

Gast
2006-03-07, 16:26:34
EVGA 7900GTX $765 (http://www.mwave.com/mwave/Deepsearch.hmx?SCriteria=7900+GTX&updepts=&DNAME=&Pname=&DID=&Pid=&ALL=y&Sort=price&Thumb=YTM) -> Kaufen, kaufen, marsch, marsch… ;D
Ne zu teuer für die Leistung.;)

DrumDub
2006-03-07, 16:32:28
Nach dem MSRP einer 7900GT, kosten 2*7900GT@SLi $598. Natuerlich ist ein Unterschied 2*256MB vs. 1024MB. öhmm... isses beim gx2 nicht auch 2*512mb?

Ailuros
2006-03-07, 16:58:06
öhmm... isses beim gx2 nicht auch 2*512mb?

Ich sagte ja dass es 1024MB auf GX2 sind. 2*7900GT@SLi sind 2*256MB.

Ailuros
2006-03-07, 17:00:25
EVGA 7900GTX $765 (http://www.mwave.com/mwave/Deepsearch.hmx?SCriteria=7900+GTX&updepts=&DNAME=&Pname=&DID=&Pid=&ALL=y&Sort=price&Thumb=YTM) -> Kaufen, kaufen, marsch, marsch… ;D

1. Du antwortest auf einen Post wo ich 7900GT erwaehne mit 7900GTX Preisen?

2. EVGA hat hoehere Taktraten, deshalb kostet ihre 7900GT auch etwas ueber $350.

3. Ich kaufe gar nichts. Danke.

Gandharva
2006-03-07, 17:21:16
Es ging um Preise und nichts weiter. Spaß scheinst du wohl keinen zu verstehen. Naja, egal...

Ailuros
2006-03-07, 17:25:22
Es ging um Preise und nichts weiter. Spaß scheinst du wohl keinen zu verstehen. Naja, egal...

Mir geht der Humor aus wenn ich solche Preise sehe und sowohl Hersteller als auch retailer gehoeren eins aufs Dach wenn sie solche Preise verlangen (und nein das hat nichts mit Dir persoenlich zu tun).

Wenn NVIDIA nicht dafuer sorgt dass ihre 7900GTX nicht billiger als das hier: http://www.pricewatch.com/prc.aspx?i=37&a=972062 verkauft wird, dann spinnen sie total.

Gandharva
2006-03-07, 17:29:14
Mir geht der Humor aus wenn ich solche Preise sehe und sowohl Hersteller als auch retailer gehoeren eins aufs Dach wenn sie solche Preise verlangen (und nein das hat nichts mit Dir persoenlich zu tun).

Wenn NVIDIA nicht dafuer sorgt dass ihre 7900GTX nicht billiger als das hier: http://www.pricewatch.com/prc.aspx?i=37&a=972062 verkauft wird, dann spinnen sie total.Dazu gibt es ja Preisempfehlungen seitens der Hersteller. Möglich sind solche Preise im Endeffekt ja nur weil es (dumme) Menschen gibt die so viel bezahlen.

aths
2006-03-07, 17:58:18
Kannst du das irgendwie belegen?
Wenn NV einfach nur eine Shrink durchführt, sollte sich der Entwicklungsaufwand doch extrem in Grenzen halten, oder?Der G71 ist nicht nur einfach ein Shrink. Für den war so oder so mindestens ein neues Tape-Out erforderlich.


Warum interessiert dich nicht, was auf der Karte verbaut ist? Die verbauten Einzelteile lassen doch sehr genaue Rückschlüsse auf evtl. Engpässe, oder Verbesserungsmöglichkeiten zu? Es sei denn, wir sprechen von einem optimalen Ergebniss. ;)"Ergebnis" mit nur einem s hinten. Mich interessiert als Kunde das Produkt und nicht, wie es realisiert wurde. Die Realisierung interessiert mich als Ingenieur – doch beim besten Willen bin ich trotz abgeschlossenem Ingenieursstudium am Fachbereich Elektrotechnik und Information nicht ausgebildet genug, fachliche Gespräche zu Die-Größen zu führen. Dass allgemein gilt "je kleiner desto besser" ist klar, aber man kann nicht aus einer kleinen Diegröße direkt schlussfolgern, dass NV damit jetzt den großen Schnitt machen würde.

Mumins
2006-03-07, 18:47:22
http://www.grafikkartenpower.de/shop/catalog/product_info.php?products_id=105&osCsid=75f169e71d3a3aae6d756a3751ae86da

GTX schon lieferbar für 533 €

Gast
2006-03-07, 18:48:46
http://www.grafikkartenpower.de/shop/catalog/product_info.php?products_id=105&osCsid=75f169e71d3a3aae6d756a3751ae86da

GTX schon lieferbar für 533 €
Der Preis ist garnicht mall schlecht aber Lohnt die Karte?

Gast
2006-03-07, 19:07:44
Der Preis ist garnicht mall schlecht aber Lohnt die Karte?
Das hängt, wie immer, ganz von deinen Präferenzen ab. Wenn du einen leisen Kühler, mäßige Temperaturen, Option auf Supersampling, FP16-Texturfilter, VTF usw. haben willst und nicht bereits eine 7800 GTX oder besser besitzt, dürfte sie sich lohnen.

Wenn du allerdings mit 4xMSAA nicht zufrieden bist, dir jede Textur-Unschärfe ins Auge sticht, du HDR nur mit FSAA geniessen kannst und auf regelmäßige,monatliche Treiber-Updates stehst, dann lohnt sie sich nicht.


Q

seahawk
2006-03-07, 19:32:25
Nach dem MSRP einer 7900GT, kosten 2*7900GT@SLi $598. Natuerlich ist ein Unterschied 2*256MB vs. 1024MB.

Ich meinte mehr in technologischer Hinsicht. Dual-GPU.

seahawk
2006-03-07, 19:35:00
Mir geht der Humor aus wenn ich solche Preise sehe und sowohl Hersteller als auch retailer gehoeren eins aufs Dach wenn sie solche Preise verlangen (und nein das hat nichts mit Dir persoenlich zu tun).

Wenn NVIDIA nicht dafuer sorgt dass ihre 7900GTX nicht billiger als das hier: http://www.pricewatch.com/prc.aspx?i=37&a=972062 verkauft wird, dann spinnen sie total.

Ist halt der early adopter Aufschlag für die völlig Ungeduldigen. Ich frage mich ja nur ob sich ne 7800GT auf 7900GT Aufrüstung lohnt, oder ob ich die Generation überspringe.

fizzo
2006-03-07, 19:36:39
Ich meinte mehr in technologischer Hinsicht. Dual-GPU.

meilenstein? was war dann die voodoo 5500?

Sunrise
2006-03-07, 19:49:40
meilenstein? was war dann die voodoo 5500?
Das war von seahawk etwas ungeschickt formuliert. Er meinte wohl eher den "Vorsprung", den NV ggü. ATi damit hat. SLi ist im oberen High-End etwas Exklusives (für einen entsprechenden, exklusiven Preis) und da ATi mit entsprechenden Produkten aufholt, wahrt man sich dieses Exklusivität mit diesem neuen Produkt.

Denn rein technologisch ist das eher schon zu Eis erstarrter, kalter Kaffee.

fizzo
2006-03-07, 20:06:06
Das war von seahawk etwas ungeschickt formuliert. Er meinte wohl eher den "Vorsprung", den NV ggü. ATi damit hat. SLi ist im oberen High-End etwas Exklusives (für einen entsprechenden, exklusiven Preis) und da ATi mit entsprechenden Produkten aufholt, wahrt man sich dieses Exklusivität mit diesem neuen Produkt.

Denn rein technologisch ist das eher schon zu Eis erstarrter, kalter Kaffee.

aha...nett umschrieben ;)

gibt es schon was neues von davey in der causa "DIE-groesse"?

crane
2006-03-07, 20:24:16
http://www.grafikkartenpower.de/shop/catalog/product_info.php?products_id=105&osCsid=75f169e71d3a3aae6d756a3751ae86da

GTX schon lieferbar für 533 €

Schon vor dem Release die erste rasante Preissenkung.
Jetzt schon für unschlagbar günstige € 465,- :wink:

Gast
2006-03-07, 20:39:02
Schon vor dem Release die erste rasante Preissenkung.
Jetzt schon für unschlagbar günstige € 465,- :wink:

Ist die KArte wirklich so schlecht oder kann Nvidia mit Preise nur so umsich schmeissen.

AnarchX
2006-03-07, 20:41:35
Ist die KArte wirklich so schlecht oder kann Nvidia mit Preise nur so umsich schmeissen.

Der G71 ist ziemlich billig in der Herstellung, deshalb kann Nvidia in dieser Runde mehr mit dem Preis als mit der Leistung punkten.

fizzo
2006-03-07, 20:43:18
Ist die KArte wirklich so schlecht oder kann Nvidia mit Preise nur so umsich schmeissen.

schau dir mal div. preise von anderen grafikkarten in diesem shop an......ein schlaraffenland oder gibt es da einen haken?

haette da ein paar schnaeppchen im auge ;)

edit: z.b. (http://www.grafikkartenpower.de/shop/catalog/product_info.php?cPath=40&products_id=31&osCsid=75f169e71d3a3aae6d756a3751ae86da)

Gast
2006-03-07, 20:49:46
schau dir mal div. preise von anderen grafikkarten in diesem shop an......ein schlaraffenland oder gibt es da einen hacken?

haette da ein paar schnaeppchen im auge ;)

edit: z.b. (http://www.grafikkartenpower.de/shop/catalog/product_info.php?cPath=40&products_id=31&osCsid=75f169e71d3a3aae6d756a3751ae86da)


http://www.geizhals.at/deutschland/a184941.html
^^Unglaublich^^Unglaublich^^

Gast
2006-03-07, 20:51:26
http://www.geizhals.at/deutschland/a184941.html
^^Unglaublich^^Unglaublich^^
Wer will da denn bitte noch ne veraltete Geforce 7900 GTX (zu parteisch ich weiss sry).^^Oder mall gucken wie sich die Karte überhaupt schlägt kenn ja noch nicht die Performance der Karte aber man kanns schon erarnen das die KArte keine X1900 XT schlagen wird...^^

Gandharva
2006-03-07, 21:30:24
gibt es schon was neues von davey in der causa "DIE-groesse"?Jein, er weicht aus ;)

http://www.beyond3d.com/forum/showpost.php?p=713010&postcount=25

Wer hat den Thread dort eigendlich eröffnet? War doch sicher einer von hier.schau dir mal div. preise von anderen grafikkarten in diesem shop an......ein schlaraffenland oder gibt es da einen hacken?Was ich so gehört habe gibt es dort unglaublich miesen Service gratis dazu.

fizzo
2006-03-07, 21:40:54
Jein, er weicht aus ;)

http://www.beyond3d.com/forum/showpost.php?p=713010&postcount=25

Wer hat den Thread dort eigendlich eröffnet? War doch sicher einer von hier.


glaube ich auch - sunrise ist ja auch an vorderster front dabei ;)

Was ich so gehört habe gibt es dort unglaublich miesen Service gratis dazu.

bei den preisen....aber ~ 50€ unter dem bestbieter bei geizhals :uponder:

Gast
2006-03-07, 21:49:52
edit: z.b. (http://www.grafikkartenpower.de/shop/catalog/product_info.php?cPath=40&products_id=31&osCsid=75f169e71d3a3aae6d756a3751ae86da)Oha, die sollten mal aufpassen. Mit der UK-Version von Call of Duty 2 zu werben, halte ich nicht für sonderlich intelligent.

Mumins
2006-03-07, 21:53:08
glaube ich auch - sunrise ist ja auch an vorderster front dabei ;)



bei den preisen....aber ~ 50€ unter dem bestbieter bei geizhals :uponder:

Das ist ein 1 Mann Laden, da hat man im Gewährleistungsfall nur Ärger mit dem Typen.

Gast
2006-03-07, 22:17:35
Was ich so gehört habe gibt es dort unglaublich miesen Service gratis dazu.

Service brauche ich nicht, hatte bisher ca 10 Grakas und nie ging eine davon kaputt!

sklave_gottes
2006-03-07, 22:24:22
die preise sind alle ohne MWS :-)
lege mal eine in den warenkorb und mach weiter bis zur letzten übersicht dann siehst du das am ende noch die MWS drauf kommt.

also dann ist nichts mehr so super billig :-(

Gast
2006-03-07, 22:28:20
die preise sind alle ohne MWS :-)
lege mal eine in den warenkorb und mach weiter bis zur letzten übersicht dann siehst du das am ende noch die MWS drauf kommt.

also dann ist nichts mehr so super billig :-(

Lol, eine größere Verarschung hab ich schon lange nicht mehr gesehen!

Black-Scorpion
2006-03-07, 22:31:51
Lol, eine größere Verarschung hab ich schon lange nicht mehr gesehen!
Das ist nicht nur verarsche sondern bei Endkundenshops verboten.
Dort müssen alle Preise inkl. MWST angegeben sein.
Das mit COD2 geworben wird setzt dem ganzen die Krone auf.

Gast
2006-03-07, 22:37:48
Naja bald is es soweit und wir sind schlauer.Hoffentlich kommt die Karte bald damit es entlich losgehen kann das geheule...

Ailuros
2006-03-08, 00:55:07
Ich meinte mehr in technologischer Hinsicht. Dual-GPU.

Es gab aber schon dual-chip GPUs von einzelnen Vendors (obwohl leicht verkorkst was die Aufteilung der lanes betrifft). So ein Monstrum kommt nicht in mein System und ich halte auch nebenbei nicht besonders viel von multi-GPU setups.

Wenn sie in der absehbaren Zukunft GX2 dann einzeln verkaufen koennte es interessant werden, anstatt von 2*GTs es wird aber trotzdem teurer sein als die letzteren wegen der hohen Speichermenge auf der GX2.

seahawk
2006-03-08, 09:15:03
Naja ich dachte eher SLI mit zwei Karten zu SLI mit zwei GPUs on board hinzu GPUs mit 2 Cores ...

seahawk
2006-03-08, 09:23:13
meilenstein? was war dann die voodoo 5500?

Die Voodoo 5500 war zwar das gleiche Konzept, ist aber leider vorzeitig gestorben. Auch wenn man sagen kann, dass die GPUs von der Voodoo 2 über die 5500 hinzu heutigen GPUs diese Entwicklung irgendwie schon gemacht haben.

Ailuros
2006-03-08, 11:29:40
Naja ich dachte eher SLI mit zwei Karten zu SLI mit zwei GPUs on board hinzu GPUs mit 2 Cores ...

Fuer den anspruchsvollen Profi ist sowas Gold wert und da spielen Unkosten auch keine Rolle mehr, denn er verdient ja von der Arbeit auf der Hardware.

Die Voodoo 5500 war zwar das gleiche Konzept, ist aber leider vorzeitig gestorben. Auch wenn man sagen kann, dass die GPUs von der Voodoo 2 über die 5500 hinzu heutigen GPUs diese Entwicklung irgendwie schon gemacht haben.

Heutige multi-chip oder multi-GPU setups skalieren auch Geometrie, was damals nicht der Fall war und zu ziemlich viel Redundanz bei dual-wasauchimmer processing fuehrte.

Eben weil Geometrie heutzutage gut gesteigert werden kann, machen solche configs auch viel mehr Sinn im Profi-Markt.

seahawk
2006-03-08, 12:11:30
Deswegen sehe ich die GX2 als kleinen Meilenstein sie bringt Profitechnik ins Consumersegment.

reunion
2006-03-08, 12:36:44
BTW, laut meiner Schieblehre hat ein G70 rund 353 mm².


Q

Inzwischen haben wir jedemenge Werte, die absolut nicht zusammenpassen.
;D


Btw, hier eine vollständige G71-Karte. Wenn man sich mit Photoshop etwas mühe gibt, kann man schön sehen, dass das Die gar nicht so klein ist Verhältnis zum R580.

http://img117.imageshack.us/img117/7807/5996556qq.jpg (http://imageshack.us)

Gast
2006-03-08, 12:44:47
Inzwischen haben wir jedemenge Werte, die absolut nicht zusammenpassen.
;D


Btw, hier eine vollständige G71-Karte. Wenn man sich mit Photoshop etwas mühe gibt, kann man schön sehen, dass das Die gar nicht so klein ist Verhältnis zum R580.

http://img117.imageshack.us/img117/7807/5996556qq.jpg (http://imageshack.us)
Ehrlich gesagt vertraue ich einem Lineal und besonders einer Schieblehre etwas mehr als Photoshop. :-)


Q

Ailuros
2006-03-08, 12:50:23
Ehrlich gesagt vertraue ich einem Lineal und besonders einer Schieblehre etwas mehr als Photoshop. :-)


Q

Ein bisschen unfair denn irgendwie hab ich das Gefuehl dass Du die Bilder des chips auf einer Schieblehre schon gesehen hast LOL :biggrin:

Gast
2006-03-08, 12:52:04
Ein bisschen unfair denn irgendwie hab ich das Gefuehl dass Du die Bilder des chips auf einer Schieblehre schon gesehen hast LOL :biggrin:
Wenn es so wäre, könnte ich mir ja auch Fotos machen und sie in Photosoap betrachten. ;D


Q

Gast
2006-03-08, 12:52:39
kann mir wer sagen, warum die 2 Klötzchen, wo 1R1 und 1R5 draufsteht, so schief drauf sind?

[dzp]Viper
2006-03-08, 12:54:53
Also wenn ich die Bilder mit den bereits vorhanden Bilder vergleiche, kommt mir die Karte auf dem aktuellen Bild ARG Kurz vor... glaube nicht, dass dies eine 7900GTX ist. Eher irgendeine kleine Version..

up¦²
2006-03-08, 13:11:29
Vielleicht verrückt: aber ... :rolleyes:
könnte ja auch sein, dass der winzige core eine viel größere oberfläche der keramikpackung verpasst bekommen hat, um ihm überhaupt gut oder besser kühlen zu können!

robbitop
2006-03-08, 13:14:16
Vielleicht verrückt: aber ... :rolleyes:
könnte ja auch sein, dass der winzige core eine viel größere oberfläche der keramikpackung verpasst bekommen hat, um ihm überhaupt gut oder besser kühlen zu können!
Das ist kein Keramik sondern Kunststoff.

Ailuros
2006-03-08, 13:15:31
Viper']Also wenn ich die Bilder mit den bereits vorhanden Bilder vergleiche, kommt mir die Karte auf dem aktuellen Bild ARG Kurz vor... glaube nicht, dass dies eine 7900GTX ist. Eher irgendeine kleine Version..

Es ist auch nur eine GT. Es geht ihm eher um den chip und nicht das PCB.

Coda
2006-03-08, 13:59:00
Deswegen sehe ich die GX2 als kleinen Meilenstein sie bringt Profitechnik ins Consumersegment.Wieso das denn? Das dürfte ganz normales SLI zwischen 2 Chips auf dem gleichen Package sein.

Heutige multi-chip oder multi-GPU setups skalieren auch GeometrieNur mit AFR.

Btw, hier eine vollständige G71-Karte. Wenn man sich mit Photoshop etwas mühe gibt, kann man schön sehen, dass das Die gar nicht so klein ist Verhältnis zum R580.Dürften <75% Fläche sein.

Das ist kein Keramik sondern Kunststoff.Nö Silizium - ja das ist wirklich die Rückseite des Wafers.

Viper']Also wenn ich die Bilder mit den bereits vorhanden Bilder vergleiche, kommt mir die Karte auf dem aktuellen Bild ARG Kurz vor... glaube nicht, dass dies eine 7900GTX ist. Eher irgendeine kleine Version..Das ist auch keine. Das PCB dürfte ziemlich identisch zum G70 werden. Das ist allerhöchstens eine GT.

robbitop
2006-03-08, 14:08:20
Wieso das denn? Das dürfte ganz normales SLI zwischen 2 Chips auf dem gleichen Package sein.


Vermutlich nicht mal das... (sieht mir ähnlich aus wie eine Quantum3D Voodoo2)

http://static.hardwareluxx.de:443/hardware/andreas/News/NVIDIA_EditorsDay2006_Graka.JPG

http://techreport.com/etc/2006q1/ces/nv-quad-sli.jpg

Coda
2006-03-08, 14:09:20
Vermutlich nicht mal das... (sieht mir ähnlich aus wie eine Quantum3D Voodoo2)Doch doch. Da ist zwischen allen Chips eine SLI-Verbindung da.

Gast
2006-03-08, 14:12:01
Dürften <75% Fläche sein.

Du hast "beinahe" einen Zahlendreher drin...
;)

Q

deekey777
2006-03-08, 14:13:02
http://www.slizone.com/object/slizone_quadsli.html :|

Gandharva
2006-03-08, 14:15:06
Na wenigstens ist der Kühler endlich andersrum montiert. Ist aber auch schon das einzig schöne an diesem hässlichen Monster. 2 Chips auf einem Package? Sieht mit eher nach 2 zusammengeklebten Karten aus. Pfui!

Coda
2006-03-08, 14:21:56
Das ist auch G70 Quad-SLI für Dell (alt), das dürfte bei G71 anders aussehen.

Gandharva
2006-03-08, 14:23:45
Das ist auch G70 Quad-SLI für Dell (alt), das dürfte bei G71 anders aussehen.Ach so. Ich dachte das sei der GX2.

MSABK
2006-03-08, 14:32:10
Ich denk mal das die Geforce GX2 genauso aussehen wird.

Es wäre nämlich zuviel aufwand für NV einen DualCore Chip zu entwickeln, da wo der G80 schon ansteht.

dildo4u
2006-03-08, 14:33:35
http://coolaler.kj.idv.tw/albatron7900gtx/1.JPG


http://img111.imageshack.us/img111/3308/112qj.gif

Default
http://coolaler.kj.idv.tw/albatron7900gtx/5.gif

Mit OC auf 710/1860
http://coolaler.kj.idv.tw/albatron7900gtx/10.gif

http://forum.coolaler.com/showthread.php?t=119861&page=1&pp=10

Hat 1.1ns Ram lief mit 930mhz also DDR 1860mhz

robbitop
2006-03-08, 14:35:22
Doch doch. Da ist zwischen allen Chips eine SLI-Verbindung da.
Das ist doch schon immer so oder? Ich hatte auf eine Lösung mit einem Board und 2 Chips gehofft.

robbitop
2006-03-08, 14:36:32
Nö Silizium - ja das ist wirklich die Rückseite des Wafers.

Ich ging jetzt vom Package aus.

Xmas
2006-03-08, 15:13:28
Btw, hier eine vollständige G71-Karte. Wenn man sich mit Photoshop etwas mühe gibt, kann man schön sehen, dass das Die gar nicht so klein ist Verhältnis zum R580.

http://img117.imageshack.us/img117/7807/5996556qq.jpg (http://imageshack.us)
Der Chip der hier zu sehen ist, ist ganz offensichtlich gar nicht für dieses PCB gedacht.

Gandharva
2006-03-08, 15:16:56
Der Chip der hier zu sehen ist, ist ganz offensichtlich gar nicht für dieses PCB gedacht.Woran erkennst du das wenn ich fragen darf?

Coda
2006-03-08, 15:23:32
Das ist doch schon immer so oder? Ich hatte auf eine Lösung mit einem Board und 2 Chips gehofft.So wird es wahrscheinlich auch sein - wie gesagt, das ist die Lösung für Dell noch mit G70-Chips.

robbitop
2006-03-08, 15:34:19
So wird es wahrscheinlich auch sein - wie gesagt, dass ist die Lösung für Dell noch mit G70-Chips.
"das" in diesem Fall nur mit einem "s" :D

Good to know. Dann bin ich mal gespannt auf die echte GX2.

up¦²
2006-03-08, 15:38:41
ECS schlägt zu: pc chips ahoi!
eine 7900!
http://www.hardspell.com/pic/2006/3/8/41e2e8d0-4b58-415a-86d3-472ee5a9f206.jpg

Coda
2006-03-08, 15:39:16
"das" in diesem Fall nur mit einem "s" :DJaaa. Das mach ich sonst richtig, war ein Versehen. Nach einem Komma kommt man bei das immer in Versuchung dass zu schreiben ;)

DiGiTaL
2006-03-08, 16:26:02
http://coolaler.kj.idv.tw/albatron7900gtx/13.gif

AA und HDR funktionieren jetzt?

Oder ging das mit 8xS AA schon mit den G70?

Gast
2006-03-08, 16:29:39
http://coolaler.kj.idv.tw/albatron7900gtx/13.gif

AA und HDR funktionieren jetzt?

Oder ging das mit 8xS AA schon mit den G70?
Das Bild ist Blödsinn. Ich kann den Treiber auch nach dem 3DMark öffnen und dort einstellen, was ich will.



Q

DiGiTaL
2006-03-08, 16:35:30
Das Bild ist Blödsinn. Ich kann den Treiber auch nach dem 3DMark öffnen und dort einstellen, was ich will.
Q

Das glaube ich nicht!

Die Werte sind ja eindeutig geringer wie ohne AA/AF.

Und ich denke mal nicht, dass das AF alleine so viel Leistung kostet. Oder doch?
Und ich denke auch nicht, dass er die Karte extra niedriger taktet für dieses Bild.

Gast
2006-03-08, 16:45:04
Das glaube ich nicht!

Die Werte sind ja eindeutig geringer wie ohne AA/AF.

Und ich denke mal nicht, dass das AF alleine so viel Leistung kostet. Oder doch?
Und ich denke auch nicht, dass er die Karte extra niedriger taktet für dieses Bild.
Dein Glaube sei dir unbenommen. Aber versuch mal im Treiber irgendein AA einzustellen und schau, ob es bsw. in AoE3 übernommen wird (im Shader-"sehr hoch"-Modus). :)


Q

Gast
2006-03-08, 16:48:42
ECS schlägt zu: pc chips ahoi!
eine 7900!
http://www.hardspell.com/pic/2006/3/8/41e2e8d0-4b58-415a-86d3-472ee5a9f206.jpg
Die Karte sieht ja fast aus, wie eine 7800 GTX ;D
Ob das wohl wirklich eine 7900? ;)


Q

mapel110
2006-03-08, 17:49:42
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/maerz/cebit06_geforce_7900_gtx_7900_gt/
nur 600 Mhz Chiptakt?! omg...

/edit
okay, war ein Tippfehler von CB. Hätt mich auch schwer gewundert.

Gast
2006-03-08, 17:55:16
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/maerz/cebit06_geforce_7900_gtx_7900_gt/
nur 600 Mhz Chiptakt?! omg...

Alter Schwede, haben die noch noch was anderes gemacht, außer Shrinken?

reunion
2006-03-08, 17:59:03
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/maerz/cebit06_geforce_7900_gtx_7900_gt/


Warum hat die 7900GT eigentlich einen extra Stromanschluss?
Bei dem Kühler/Spannungswandlern kann das Teil kaum >75W verbraten.

robbitop
2006-03-08, 18:04:01
Warum hat die 7900GT eigentlich einen extra Stromanschluss?
Bei dem Kühler/Spannungswandlern kann das Teil kaum >75W verbraten.
Es ist günstiger die Spannung aus dem Kabel zu ziehen. (vom PCB Aufwand)

Gast
2006-03-08, 18:05:03
Warum hat die 7900GT eigentlich einen extra Stromanschluss?
Bei dem Kühler/Spannungswandlern kann das Teil kaum >75W verbraten.
Eine 6200-AGP hat auch einen Extra-Anschluss und dürfte auch kaum die vollen 42W ausschöpfen. Das wird eine Frage der leichteren Verteilung auf die einzelnen Leitungen sein. Schau dir mal die Xbit-Artikel zum Thema Leistungsaufnahme an, da gehen unterschiedliche Karten auch unterschiedliche Wege in Sachen Verteilung der Spannungen/Stromstärken.


Dazu kommt: Je mehr direkt vom Netzteil aufgenommen wird, desto niedriger der Gesamtverbrauch, da die Verluste auf dem Mainboard entfallen.


Q

reunion
2006-03-08, 18:52:20
Dazu kommt: Je mehr direkt vom Netzteil aufgenommen wird, desto niedriger der Gesamtverbrauch, da die Verluste auf dem Mainboard entfallen.


Q

Schön, nur bin ich über jedes zusätzliche Kabel froh, welches ich nicht im Gehäuse verlegen muss. Zudem sollten die Verluste über das Mainboard minimal sein.

Gandharva
2006-03-08, 18:57:50
Schön, nur bin ich über jedes zusätzliche Kabel froh, welches ich nicht im Gehäuse verlegen muss. Zudem sollten die Verluste über das Mainboard minimal sein.Das hätte aber mehr Änderungen am PCB (7800 -> 7900) bedeutet und somit NV auch mehr Geld gekostet.

/edit

Unglaublich wie billig die 7900GT Karten aussehen.

dildo4u
2006-03-08, 19:00:53
Das hätte aber mehr Änderungen am PCB (7800 -> 7900) bedeutet und somit NV auch mehr Geld gekostet.
Ist doch eh unssin es haben alle auch ATI karten die weit Weniger Brauchen extra PCI-E Anschlüsse.Ich finds Super das das 7900GT PCB wieder so schön Kompackt ist eine X1800XL oder 1900XL hat ja die selben extreme überlänge wie die Großen Karten.

Gast
2006-03-08, 19:32:53
eine X1800XL oder 1900XL hat ja die selben extreme überlänge wie die Großen Karten.
Weil ind denn Karten auch mehr drinsteckt.

Gast
2006-03-08, 19:44:01
Woran erkennst du das wenn ich fragen darf?

weil das package zu klein für das PCB ist ;)

du erkennst an der außenseite an den linien wie groß eigentlich ein package für dieses PCB sein sollte, und man sieht sogar anschlussstellen für die pins neben dem package ;)

Wixi
2006-03-08, 21:22:00
1000!