PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: New 90nm GF7s by January, Next-Gen in H1 2006, plus RSX NREs until mid-Q1.


Seiten : 1 2 [3] 4 5

reunion
2006-02-21, 20:31:28
Beim 7900GT-Artikel gab es ein Update:

Note: For two GeForce 7900 GT-based graphics cards running in NVIDIA SLI configurations, a minimum 450W system power supply (with 12V rating of 26A) is recommended.


Quick specifications for GeForce 7900GT from NVIDIA documents:


PCIe native
450MHz core frequency
256-bit memory interface
40GB/sec. memory bandwidth
11B pixels/sec. fill rate
~900M vertices/sec.
24 pixels per cycle
Built in dual-link DVI support for 2560x1600 resolution


http://www.dailytech.com/article.aspx?newsid=907

Übrigens gibts jetzt auch Bilder zur 7600GT (http://www.dailytech.com/article.aspx?newsid=908), welche definitiv anders aussehen, als bei der angeblich gefakten 7900GT.

Gast
2006-02-21, 20:33:20
Wo siehst du denn die 7800GT im Vorteil? :confused:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/26/#abschnitt_performancerating_qualitaet
Wenn man noch bedenkt, dass die X1800XL HDRR mit AA rendern kann und dabei die bessere BQ aufgrund von wu-AF hat, dann spricht eigentlich alles gegen die 7800GT.Die Werte von CB sind hier mit Vorsicht zu genießen, da die gewählten Einstellungen nicht vergleichbar sind. Hier wurden die Cheats bei ATI angelassen, während man sie bei NV ausgemacht hat. Außerdem wurden bei AoE3 Einstellungen verwendet, die himmelschreiender Unsinn sind (64bit-Framebuffer vs. 32bit-Framebuffer, MSAA vs. SSAA). Demnach sind die Werte für den Anus.

Die x1800xl kann vielleicht HDRR+MSAA, dafür fehlen ihr aber ein paar andere Features, wie die Filterung von Floating-Point-Texturen und der Vertex Texture Fetch.

Black-Scorpion
2006-02-21, 21:02:15
AoE3 benutzt die Einstellung von sich aus.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3909378&postcount=284

reunion
2006-02-21, 21:08:35
Mal ne Frage. Wir wissen, dass der Chip der 7600 mit 8 und 12 Pipes verfügbar ist. Glaubt einer hier wirklich, dass der nächste NV Chip dann 32 Pipes hat ?

Eben, das hab' ich im 7600-Thread auch schon angesprochen. Momentan deutet wirklich alles auf einen 6-Quad-G71 hin.

Ailuros
2006-02-21, 21:08:43
Beim 7900GT-Artikel gab es ein Update:



http://www.dailytech.com/article.aspx?newsid=907

Übrigens gibts jetzt auch Bilder zur 7600GT (http://www.dailytech.com/article.aspx?newsid=908), welche definitiv anders aussehen, als bei der angeblich gefakten 7900GT.

Und Sie haben auch recht mein Herr. GTX mit 200 mehr.

Gast
2006-02-21, 21:11:34
AoE3 benutzt die Einstellung von sich aus.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3909378&postcount=284Ich weiß, das ist aber trotzdem kein Grund so zu benchen. Dann schaltet man eben das HDR-Rendering ab, wie es alle anderen Seiten, die was auf sich halten, auch machen. Mit HDR-Rendering lassen sich die Werte von ATI und NV Karten jedenfalls nicht vergleichen.

Gast
2006-02-21, 21:11:57
Mit HDR-Rendering lassen sich die Werte von ATI und NV Karten jedenfalls nicht vergleichen.Zumindest nicht in diesem Spiel (AoE3).

Gast
2006-02-21, 21:13:56
Wobei das was die ATIs hier bieten nicht einmal HDR-Rendering ist (Int10).

Black-Scorpion
2006-02-21, 21:16:28
Ich weiß, das ist aber trotzdem kein Grund so zu benchen. Dann schaltet man eben das HDR-Rendering ab, wie es alle anderen Seiten, die was auf sich halten, auch machen. Mit HDR-Rendering lassen sich die Werte von ATI und NV Karten jedenfalls nicht vergleichen.
Wer Spiele bencht soll das bei solchen Karten auch so machen wie gespielt wird.
Sonst kann man gleich mit 640x480 und 16bit benchen.
Und die anderen Seiten die was auf sich halten benchen z.T. auch mit Treiber Default Einstellung.
Aber das stört keinen.

Gast
2006-02-21, 21:22:20
Wer Spiele bencht soll das bei solchen Karten auch so machen wie gespielt wird.Hmm, ja ok, aber dann soll man bitte nicht die Werte in einem Balkendiagramm nebeneinander stellen als seien sie zu vergleichen. Warum bringt Ensemble für AoE3 eigentlich nicht einen FP16-HDRR-Pfad für R520/R580? Der FX10-Modus war doch eher für x800 u. ä. gedacht...

Mit Treiberdefault benchen ist genauso schwachsinnig wie HQ vs. AI on.

Gast
2006-02-21, 21:35:22
Wer Spiele bencht soll das bei solchen Karten auch so machen wie gespielt wirdMal ehrlich: Hältst du es vergleichbar einen 64bit-Framebuffer gegen einen 32bit-Framebuffer zu benchen? Ersteres bedeutet doppelten Bandbreitenanspruch...

Black-Scorpion
2006-02-21, 22:07:37
Mal ehrlich: Hältst du es vergleichbar einen 64bit-Framebuffer gegen einen 32bit-Framebuffer zu benchen? Ersteres bedeutet doppelten Bandbreitenanspruch...
Du meinst das interessiert den Leser der Benchmarks?
Der will wissen wie Karte A mit gleichen Einstellungen im Spiel gegen Karte B dasteht.
Balken ahoi.
Und wenn nVidia das 1010102 Format nicht kann, dann Pech gehabt.

Warum sollte also darauf Rücksicht genommen werden?

Gast
2006-02-21, 22:16:22
Du meinst das interessiert den Leser der Benchmarks?
Der will wissen wie Karte A mit gleichen Einstellungen im Spiel gegen Karte B dasteht.
Balken ahoi.
Und wenn nVidia das 1010102 Format nicht kann, dann Pech gehabt.

Warum sollte also darauf Rücksicht genommen werden?lol? Das 10-10-10-2-Format ist in AoE3 nur reingenommen worden, da die alten ATI x800er kein FP16 können.

Gast
2006-02-21, 22:17:43
Warum sollte also darauf Rücksicht genommen werden?Ja, klar. Weil Nvidia vor langer Zeit schon GPUs mit fortschrittlicher Technik rausgebracht hat, sollen sie in Benchmarks benachteiligt werden?

SKYNET
2006-02-21, 22:18:56
X1800GTO hat ne 256Bit speicheranbindung und dürfte gerade unter AA im Vorteil sein.


hat nix zu sagen, die bandbreite ner 9800pro ist auch höher als von ner 6600GT, dennoch wird sie gnadenlos gebügelt! ;)

Black-Scorpion
2006-02-21, 22:27:32
lol? Das 10-10-10-2-Format ist in AoE3 nur reingenommen worden, da die alten ATI x800er kein FP16 können.
ATI kann keine FP16-Texturfilterung.
Das ist also nicht für die X800er Karten.

deekey777
2006-02-21, 22:40:05
lol? Das 10-10-10-2-Format ist in AoE3 nur reingenommen worden, da die alten ATI x800er kein FP16 können.
Die neuen doch auch.

Die alten Radeon ab R300 beherrschen aber dieses Format auch, gibt's auch dieses INT10 HahaDR in AoE3?

deekey777
2006-02-22, 00:20:20
http://www.dailytech.com/article.aspx?newsid=915

PCIe native
655MHz core frequency
256-bit memory interface
52GB/sec. memory bandwidth
15B pixels/sec. fill rate <- eher Texel/s
1450M vertices/sec.
24 pixels per cycle
Built in twin dual-link DVI support for twin 2560x1600 resolution displays

Gast
2006-02-22, 00:34:53
Naja, wenn sich das bewahrheiten sollte, sehe ich keinen Grund nicht bei meinem G70GTX@490/650 zu bleiben. Besser für die Geldbörse ist es allemal und leistungsmäßig wirds wohl auch bis G80/R600 reichen.

Ailuros
2006-02-22, 00:46:51
Naja, wenn sich das bewahrheiten sollte, sehe ich keinen Grund nicht bei meinem G70GTX@490/650 zu bleiben. Besser für die Geldbörse ist es allemal und leistungsmäßig wirds wohl auch bis G80/R600 reichen.

Εin refresh ist selten wirklich eine Aufruestung wert.

seahawk
2006-02-22, 08:11:53
hat nix zu sagen, die bandbreite ner 9800pro ist auch höher als von ner 6600GT, dennoch wird sie gnadenlos gebügelt! ;)

Dafür ist sie uas ner älteren Generation und hat weniger GPU-Power.

Und der Abstand bei der Speicherbandbreite ist durch den höhrertaktenden Ram auch geringer.

SKYNET
2006-02-22, 12:32:14
Dafür ist sie uas ner älteren Generation und hat weniger GPU-Power.

Und der Abstand bei der Speicherbandbreite ist durch den höhrertaktenden Ram auch geringer.


ja, aber es ging hier um bandbreiten limitierung, und das kann bei viel AA schnell passieren, tuts aber net bei der 6600GT, ist zu 80-90% der fälle mit 4x/8x schneller als ne 9800pro!

NV hat da halt ein gutes speicher managment, das wird auch die 7600GT haben... von daher würde ich nicht vorschnell urteilen, das der 7600GT die bandbreite ausgeht! ;)

SKYNET
2006-02-22, 12:33:29
Naja, wenn sich das bewahrheiten sollte, sehe ich keinen Grund nicht bei meinem G70GTX@490/650 zu bleiben. Besser für die Geldbörse ist es allemal und leistungsmäßig wirds wohl auch bis G80/R600 reichen.


kommt druff an was man spielt... F.E.A.R. ist ne einzelnde GTX schon manchmal überfordert.... zumindest wenns an die auflösungen geht die ich zocke, da macht selbst ne GTX512 schlapp... wenn sie denn alleine wäre!

deekey777
2006-02-22, 13:43:50
[...]

NV hat da halt ein gutes speicher managment, das wird auch die 7600GT haben... von daher würde ich nicht vorschnell urteilen, dass der 7600GT die bandbreite ausgeht! ;)
Hat sie nicht, auch wenn es im Vergleich zur 9800Pro besser aussieht. Bisher gab es mehrere Wünsche, daß nVidia den Speichercontroller verbessert (siehe ATi).
Die Bandbreite kann der 7600GT schon ausgehen, aber wer mit so hohen Einstellungen spielen will, sollte zu der nächsthöheren Klasse greifen.

SKYNET
2006-02-22, 13:51:07
Hat sie nicht, auch wenn es im Vergleich zur 9800Pro besser aussieht. Bisher gab es mehrere Wünsche, daß nVidia den Speichercontroller verbessert (siehe ATi).
Die Bandbreite kann der 7600GT schon ausgehen, aber wer mit so hohen Einstellungen spielen will, sollte zu der nächsthöheren Klasse greifen.


ist wohl logisch, das man(n) ;o) zur höheren klasse greift wenn man große auflösungen mit AA/AF zocken will, aber - ich - denke, bei 1600*1200 2x/4x wird die 7600GT, für die meisten spiele reichen... =)

mapel110
2006-02-22, 13:53:34
ist wohl logisch, das man(n) ;o) zur höheren klasse greift wenn man große auflösungen mit AA/AF zocken will, aber - ich - denke, bei 1600*1200 2x/4x wird die 7600GT, für die meisten spiele reichen... =)
Dafür reicht die 7800 GT gerade so...
Ich würd eher sagen, für 1280x1024 und 2xAA/4xAF sollte sie reichen.

deekey777
2006-02-22, 15:17:01
http://www.dailytech.com/article.aspx?newsid=915

PCIe native
655MHz core frequency
256-bit memory interface
52GB/sec. memory bandwidth
15B pixels/sec. fill rate <- eher Texel/s
1450M vertices/sec.
24 pixels per cycle
Built in twin dual-link DVI support for twin 2560x1600 resolution displays
Was vergessen:
No confirmed board pictures were available at the time of this article but the GeForce 7900 GTX is set to be a dual-slot design.
655 MHz sind nicht so einfach zu erreichen.

LovesuckZ
2006-02-22, 15:28:17
Was vergessen:


Das ist weitaus interessanter:

The documents from NVIDIA also indicate that GeForce 7900 GTX will be "twice as fast as previous generation chipsets" in floating-point performance,[...]

selbe Quelle

reunion
2006-02-22, 15:43:57
Kommt drauf an, was nV unter "previous generation chipsets" versteht. Das könnte sich genauso auf NV40 oder was auch immer beziehen.

Sunrise
2006-02-22, 16:03:30
655 MHz sind nicht so einfach zu erreichen.
Da hatte wohl jemand wirklich Humor.

Paul Brain
2006-02-22, 16:23:18
Was vergessen:
No confirmed board pictures were available at the time of this article but the GeForce 7900 GTX is set to be a dual-slot design.
655 MHz sind nicht so einfach zu erreichen.
Wäre interessant, mit welchen Taktraten die "Quad-SLi-Edition" arbeiten wird:

"NVIDIA does have one trick up its sleeve. In late March, NVIDIA wil also announce a single slot version of the GeForce 7900 specifically for Quad SLI setups. "

Nachdem meinereiner nur ein Single-Slot-Design brauchen kann, wär das natürlich ein Hit... :)
Ich mag die Graka sowieso wasserkühlen, aber wo krieg man schon ein passendes Single-Slot-Slotblech her, wenn die Graka mit einem Dual-Slot-Blech geliefert wird... :-/

deekey777
2006-02-22, 16:29:46
Da hatte wohl jemand wirklich Humor.
Hauptsache mehr als die X1900XTX

Sunrise
2006-02-22, 16:36:12
Hauptsache mehr als die X1900XTX
Ja, genau das meinte ich.

Eigentlich sollten diese Grenzwerte je nach Ausbeute errechnet werden, man kann bei diesem Takt aber davon ausgehen, dass dieser auch gewählt wurde, um die Marketing-Abteilung nicht komplett verhungern zu lassen.

Ailuros
2006-02-23, 03:37:00
Kommt drauf an, was nV unter "previous generation chipsets" versteht. Das könnte sich genauso auf NV40 oder was auch immer beziehen.

GeForce 7900 GX2/GTX/GT ;)

Ailuros
2006-02-23, 03:45:17
Ja, genau das meinte ich.

Eigentlich sollten diese Grenzwerte je nach Ausbeute errechnet werden, man kann bei diesem Takt aber davon ausgehen, dass dieser auch gewählt wurde, um die Marketing-Abteilung nicht komplett verhungern zu lassen.

Es sind 650MHz und nicht 655. Duerfte ein einfacher typo sein.

Palpatin
2006-02-23, 05:01:05
http://www.hartware.de/news_39485.html ich hatte eigenlich schon mit 32 pipes gerechnet .... zum gleichziehen mit ati sollte es reichen aber vorbeikommen denk ich wird man mit 24 pipes nicht.... falls die nachricht sich bestätigt

mapel110
2006-02-23, 05:03:35
http://www.hartware.de/news_39485.html ich hatte eigenlich schon mit 32 pipes gerechnet .... zum gleichziehen mit ati sollte es reichen aber vorbeikommen denk ich wird man mit 24 pipes nicht.... falls die nachricht sich bestätigt
Bei nvidia kommts sowieso erstmal wieder darauf an, etwas in großen Mengen lieberbar zu haben, was gegen die X1900er ankommt. Da gibts derzeit sehr wenig, schon gar nicht zu konkurrenzfähigen Preisen.

Coda
2006-02-23, 08:37:58
Evtl. gibts ja auch wieder ne "Ultra" wenns sein muss. Im Chips aussortieren ist nVIDIA ja gut in letzter Zeit X-D

Ailuros
2006-02-23, 09:09:48
Evtl. gibts ja auch wieder ne "Ultra" wenns sein muss. Im Chips aussortieren ist nVIDIA ja gut in letzter Zeit X-D

Nah-uh :biggrin:

Godmode
2006-02-23, 09:26:31
Das ist weitaus interessanter:

Könnte es vielleicht sein, dass sie die Shaderunits verbessert haben?

mapel110
2006-02-23, 09:29:57
Könnte es vielleicht sein, dass sie die Shaderunits verbessert haben?
An Shaderpower mangelt es nicht, nur an Bandbreite. Wäre wirklich die falsche Baustelle, wenn sie das gemacht haben.

Godmode
2006-02-23, 09:46:14
An Shaderpower mangelt es nicht

Vielleicht an theoretischer Shaderpower, aber bei der praktischen Shaderpower schon, im Vergleich zu den X1900.

mapel110
2006-02-23, 09:57:06
Vielleicht an theoretischer Shaderpower, aber bei der praktischen Shaderpower schon, im Vergleich zu den X1900.
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/26/#abschnitt_performancerating
Schau dir die Werte ohne AA/AF an, da schlägt sich die GTX512 sehr gut.

Sunrise
2006-02-23, 10:55:13
Es sind 650MHz und nicht 655. Duerfte ein einfacher typo sein.Der Fehler müsste dann aber auch bereits in den AIB-Dokumenten stehen, denn Kristopher zitiert die 655 MHz zweimal im selben Artikel und korrigiert hat er es nachträglich auch nicht. Denn von 650 MHz ging ich auch aus, das ist mittlerweile auch sicher kein Geheimnis mehr.

Undertaker
2006-02-23, 12:04:51
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/26/#abschnitt_performancerating
Schau dir die Werte ohne AA/AF an, da schlägt sich die GTX512 sehr gut.

das dürfte afaik eher an der im vergleich zur x1900 sehr großen füllrate liegen, von der immernoch sehr viele games profitieren...

das was ich aktuell so zum g71 höre, lässt mich schon etwas schmunzeln, wenn ich an die aussagen von einigen nutzern hier im forum vor noch nicht allzu langer zeit denke:

32 pipes
750mhz chiptakt
1000mhz speichertakt :D

Ailuros
2006-02-23, 14:21:26
das dürfte afaik eher an der im vergleich zur x1900 sehr großen füllrate liegen, von der immernoch sehr viele games profitieren...

das was ich aktuell so zum g71 höre, lässt mich schon etwas schmunzeln, wenn ich an die aussagen von einigen nutzern hier im forum vor noch nicht allzu langer zeit denke:

32 pipes
750mhz chiptakt
1000mhz speichertakt :D

Dann schmunzel aber nicht zu lange. Du bekommst sogar mehr quads auf einer GPU aus der G71 Reihe nur eben wohl nicht mit der Taktrate.

reunion
2006-02-23, 14:48:38
WE got the latest prices of the upcoming Nvidia cards. The Geforce 7900 GTX 512 card is set to cost €549 in Europe. Some partners, however, plan to price them higher. The guys like EVGA and BFG and partially XFX always like to price their cards more than the others.
We already reported that G71 looks like a die shrink of G70 and won't bring any miraculous features. It has 24 pipelines working at higher clock from 7800 GTX 512 speeds and that’s about it. Nvidia will be able to clock it to a 650MHz core and memory should work at 1600MHz.

The Geforce 7900 GT is set to cost around $299 in the US but Europeans will be able to buy this card for a more realistic €329. It is close enough anyway, but I think that different partners will price them differently.

Both cards support SLI and will be showcased and launched at CeBIT. The cards should be available just after launch, we know that Nvidia is ready to ship some 7900 GTX at launch day - we heard that 7900 GT will be available a few weeks later. We could be wrong about.

From our shoes it looks like X1900 with its 48 pixel pipelines looks like a performance leader, but it's still too early to say. µ


http://www.theinq.com/?article=29871

Gast
2006-02-23, 14:50:25
löl? "From our shoes...." -> 7800 GTX/512 + ~18%?


Q

reunion
2006-02-23, 14:54:44
7800 GTX/512 + ~18%?

Q


- ~6% Speicherbandbreite = ?

Gast
2006-02-23, 15:12:14
From our shoes it looks like X1900 with its 48 pixel pipelineslooks like a performance leader, but it's still too early to say. µWas treibt Fuad eigentlich dazu diesen Marketing-DAU-Blödsinn von 48 Pipelines abzuschreiben? :cop:

Coda
2006-02-23, 15:30:58
Weil Fuad einfach keine Ahnung hat? X-D

Gandharva
2006-02-23, 15:54:15
Besseres AF kann man wohl sicher knicken. Hoffe mal das NV den Speichercontroller verbessert hat, weil sonst wird die Karte nicht wirklich schneller sein als eine GTX 512. Naja, irgendwas müssen sie fast geändert haben, weil für "nur" nen shrink hat das alles viel zu lange gedauert.

ShadowXX
2006-02-23, 15:56:23
Besseres AF kann man wohl sicher knicken. Hoffe mal das NV den Speichercontroller verbessert hat, weil sonst wird die Karte nicht wirklich schneller sein als eine GTX 512. Naja, irgendwas müssen sie fast geändert haben, weil für "nur" nen shrink hat das alles viel zu lange gedauert.

Vielleicht hatten Sie ja Probleme beim "shrinken".....(bzw. bei der Produktion danach. Bei ATI lief es Anfangs mit 90nm ja auch nicht gerade rund).

Coda
2006-02-23, 16:11:19
ATI hatte nie Probleme mit dem Prozess. Das war ein Fehler in externer IP.

Besseres AF kann man wohl sicher knicken. Hoffe mal das NV den Speichercontroller verbessert hat, weil sonst wird die Karte nicht wirklich schneller sein als eine GTX 512. Naja, irgendwas müssen sie fast geändert haben, weil für "nur" nen shrink hat das alles viel zu lange gedauert.Evtl. ein 8-fach unterteilter Speichercontroller. Das würde wohl einiges bringen.

Gandharva
2006-02-23, 16:26:07
Evtl. ein 8-fach unterteilter Speichercontroller. Das würde wohl einiges bringen.Das hätten sie dann schön von ATI abgekupfert. Der R520/580 besitzt ja 8 32Bit Kanäle.

Coda
2006-02-23, 16:28:05
Es ist ja auch eine wahnsinnige geistige Leistung darauf zu kommen, dass eine weitere Unterteilung die Speichergranularität verbessert X-D

Oh mann Leute. Bitte verwendet nicht das Wort "Abkupfern" im Zusammenhang mit trivialen Dingen die nur Designentscheidungen sind.

Gast
2006-02-23, 16:29:41
Das hätten sie dann schön von ATI abgekupfert. Der R520/580 besitzt ja 8 32Bit Kanäle.Und? Muss doch deshalb nicht gleich schlecht sein. ATI kupfert ebenso von NV ab. Solange sie die guten Eigenschaften der Konkurrenzprodukte abkupfern, sehe ich da auch kein Problem, eher einen Vorteil. Denkst du ohne NVs Transparenz-AA, hätte ATI jemals AAA verfügbar gemacht?

Coda
2006-02-23, 16:34:11
Bitte, keine Diskussion darüber. Das macht einfach so schrecklich wenig Sinn X-D

Die Idee ist doch schon lange bei beiden angekommen, ATI hat halt als erster das Konzept bis zur 8-fachen Unterteilung getrieben. Und jetzt? NVIDIA hat soweit ich weiß zuerst einen unterteilten Speichercontroller überhaupt eingesetzt.

Gandharva
2006-02-23, 16:35:47
Meine Fresse... wie man sich an einem Wort so aufgeilen kann!

Furzegal ob das ne lapidare Entscheidung war oder ist. ATI hats als erster gemacht und NV zieht evtl. nach. Also ist das Wort "abkupfern" hier genau richtig am Platze.

Mir persönlich ist es völlig egal ob einer vom anderen etwas abkupfert/abgekupfert hat, solange für den Verbraucher (mich) dabei ordendlich was rausspringt.

Coda
2006-02-23, 16:38:02
Naja obwohl es evtl. auch schwierig wird für nVIDIA, da sie noch eine Crossbar zum Speicher einsetzen. Das Ding würde ziemlich groß werden bei einer verdopplung der Kanäle und evtl. ist auch das andere Zeug nur auf 64bit ausgelegt.

Verlassen würde ich mich noch nicht drauf - es kommt jetzt darauf an wieviel nVIDIA überhaupt am Chip geändert hat oder ob es wirklich nur ein Die-Shrink ist.

Gast
2006-02-23, 16:39:03
Mir persönlich ist es völlig egal ob einer vom anderen etwas abkupfert/abgekupfert hat, solange für den Verbraucher (mich) dabei ordendlich was rausspringt.Da stimme ich dir ja zu. Nur warum sprichst du dann großartig vom "Abkupfern" als sei es etwas negatives?

Gandharva
2006-02-23, 16:44:13
Da stimme ich dir ja zu. Nur warum sprichst du dann großartig vom "Abkupfern" als sei es etwas negatives?Glaub mir, wenn ich etwas ins Negative ziehen will, dann wirst du den Unterschied bemerken.

afgg
2006-02-23, 17:42:45
In denn letzten Wocjen hat sich ja viel geändert.An Anfang glaubte man noch das der G71 ein Performance Killer wird jetzt muss die Karte erstmall zeigen ob sie überhaupt im stande ist eine X1900 XTX zu überhollen.Lieg ich richtig ?

Ati schiebt bestimmt als Rache (7800 512 MB GTX)noch ein höher getakteten Chip nach ?

Gast
2006-02-23, 17:45:15
- ~6% Speicherbandbreite = ?
Irrelevant, weil es daran nicht hakt, IMO.


Q

Coda
2006-02-23, 17:51:43
In denn letzten Wocjen hat sich ja viel geändert.An Anfang glaubte man noch das der G71 ein Performance Killer wird jetzt muss die Karte erstmall zeigen ob sie überhaupt im stande ist eine X1900 XTX zu überhollen.Lieg ich richtig ?Ja, das hast du richtig verstanden soweit ich es beurteilen kann.

Ati schiebt bestimmt als Rache (7800 512 MB GTX)noch ein höher getakteten Chip nach ?Brauchen sie dann ja nicht.

Irrelevant, weil es daran nicht hakt, IMO.Wenn der Speichercontroller wirklich verbessert wurde wir das evtl. eh kompensiert.

Ailuros
2006-02-23, 18:15:48
Es geht NVIDIA hauptsaechlich um niedrigere Preise und dieses wird sich wohl auch nicht am ersten Tag zeigen. Fuer die Ultra-Verrueckten wird es noch ein ultra-high end ultra teures Dingsda geben dass noch keiner erwaehnt hat.

Kann leider noch nichts dazu sagen.

Godmode
2006-02-23, 18:43:37
Es geht NVIDIA hauptsaechlich um niedrigere Preise und dieses wird sich wohl auch nicht am ersten Tag zeigen. Fuer die Ultra-Verrueckten wird es noch ein ultra-high end ultra teures Dingsda geben dass noch keiner erwaehnt hat.

Kann leider noch nichts dazu sagen.

10 Quads ;D

Gast
2006-02-23, 19:05:55
Wahrscheinlich eine mit 3-Slot Kühlung mit nochmals erhöhten Taktraten die wohl nur annähernd reichen werden, um der X1900XT standzuhalten. Lustig die Geschichte, jetzt macht Nvidia genau das, was ATI bei der R4xx Generation vollzogen hat. The never ending story,.......

Coda
2006-02-23, 19:08:16
Nein das ist es nicht :D

Gandharva
2006-02-23, 19:30:21
Es geht NVIDIA hauptsaechlich um niedrigere Preise und dieses wird sich wohl auch nicht am ersten Tag zeigen.Also eins ist für mich ziemlich klar. Mit diesen Karten kann/wird NV richtig gut Geld verdienen.

robbitop
2006-02-23, 19:30:37
Vermutlich der versprochene 8 Quad Chip ..

Gast
2006-02-23, 19:40:35
NV wird halt auch mal das Pech haben, widerfahren sein welches ATI durchmachen musste.
NUR mit dem Unterschied das NV keine Infos über mögliche Probleme mit der Umstellung auf 90 kekanntgab oder was durchsickerte .
Deshalb schnell relaisen und damit günstig anbieten.
Rechne dass auch NV von seinem G71 mehr erwartet hat, als er letztendlich kann.
Aber so ist halt der Markt- mal zieht der eine,- mal der andere davon
nun war mal ATI wieder am Zug.

Ailuros
2006-02-23, 19:53:03
Vermutlich der versprochene 8 Quad Chip ..

Niet :biggrin:

robbitop
2006-02-23, 19:58:54
Hm naja einen Weg muss man ja gehen. Entweder über die Skallierung der Einheiten oder aber über den höheren Takt.

*lol* oder man zieht G80 vor nur für High End (so wie es einige hier mal spekuliert haben)

ShadowXX
2006-02-23, 20:14:48
Hm naja einen Weg muss man ja gehen. Entweder über die Skallierung der Einheiten oder aber über den höheren Takt.

*lol* oder man zieht G80 vor nur für High End (so wie es einige hier mal spekuliert haben)

Na was wohl....es wird eine Ultra Variante mit 1GB Speicher und 700-750MHz Takt geben.

Die wird dann wohl 7900GTX/1024 heissen.....

mapel110
2006-02-23, 20:15:47
Na was wohl....es wird eine Ultra Variante mit 1GB Speicher und 700-750MHz Takt geben.

Die wird dann wohl 7900GTX/1024 heissen.....
Jo, sowas wollte man ja auch vorallem im quadro-Bereich bringen. Aber die Leistungsaufnahme von solch einem Teil muss doch heftig sein. Obs ein externes Netzteil geben wird?! :D

Gast
2006-02-23, 20:17:02
Toll und was soll so eine KArte bringen ausser 1000 Euro geldweckschmeisserei.:P

robbitop
2006-02-23, 20:29:29
Na was wohl....es wird eine Ultra Variante mit 1GB Speicher und 700-750MHz Takt geben.

Die wird dann wohl 7900GTX/1024 heissen.....
Das hat Coda verneint. (was immer das zu sagen hat :|)

ShadowXX
2006-02-23, 20:31:52
Toll und was soll so eine KArte bringen ausser 1000 Euro geldweckschmeisserei.:P

Die Benchmark-Krone?

Stell dir sowas mal als Quad-SLI vor....mindestanforderung an das NT 80A auf der 12V-Leitung (oder besser gleich ein Servergehäuse mit 2 NTs).


Das hat Coda verneint. (was immer das zu sagen hat )


Ich glaub die Verneinung bezog sich auf was anderes (nämlich darauf, das nV das gleiche wie ATI beim r4x0 macht).

Ailuros
2006-02-23, 20:42:36
Κommt ganz drauf an was ihr unter einer "Ultra" versteht. Gleiches teures Basiskonzept wie bis jetzt, nur andere Realisierung.

robbitop
2006-02-23, 20:45:06
Κommt ganz drauf an was ihr unter einer "Ultra" versteht. Gleiches teures Basiskonzept wie bis jetzt, nur andere Realisierung.
GDDR4? :D

reunion
2006-02-23, 20:46:08
Irrelevant, weil es daran nicht hakt, IMO.


Q


Irrelevant ist das sicher nicht. Der Coretakt mag zwar mehr ausrichten, aber auch die Speicherbandbreite trägt seinen Teil bei. Speziell wenn am Speichercontroller nichts verbessert wurde, könnte das um einiges relevanter sein, als manchen hier lieb ist IMO.

Ailuros
2006-02-23, 20:46:34
Nein.

Ailuros
2006-02-23, 20:48:28
Irrelevant ist das sicher nicht. Der Coretakt mag zwar mehr ausrichten, aber auch die Speicherbandbreite trägt seinen Teil bei. Speziell wenn am Speichercontroller nichts verbessert wurde, könnte das um einiges relevanter sein, als manchen hier lieb ist IMO.

Diese Runde faellt auf quasi Gleichstand also koennen sich "manche" und Du auch gleich die Energie sparen. Interessant wird es erst in H2 2006.

reunion
2006-02-23, 20:49:22
Es geht NVIDIA hauptsaechlich um niedrigere Preise und dieses wird sich wohl auch nicht am ersten Tag zeigen.


Für mich sieht das eher so aus, als ob G71 zu spät und zu langsam ist, und man deshalb über den Preis gehen muss. Denn aus reiner Kundenfreundlichkeit wird man sich darauf wohl kaum einlassen.

Ailuros
2006-02-23, 20:52:26
Für mich sieht das eher so aus, als ob G71 zu spät und zu langsam ist, und man deshalb über den Preis gehen muss. Denn aus reiner Kundenfreundlichkeit wird man sich darauf wohl kaum einlassen.

Nur etwas mehr als 2 Wochen bis Du Deine Antwort hast. Man geht auch ueber den Preis bei Gleichstand.

reunion
2006-02-23, 20:57:18
Diese Runde faellt auf quasi Gleichstand also koennen sich "manche" und Du auch gleich die Energie sparen.

Natürlich wird es grob betrachtet ein Gleichstand. Selbst die 7800 GTX 512 liegt ja nicht wirklich weit zurück. Nur hat das absolut nichts mit meiner Aussage zu tun, dass die Speicherbandbreite auch nicht ganz unwichtig ist.

Ailuros
2006-02-23, 21:07:39
Natürlich wird es grob betrachtet ein Gleichstand. Selbst die 7800 GTX 512 liegt ja nicht wirklich weit zurück. Nur hat das absolut nichts mit meiner Aussage zu tun.

Eben weil die GTX512 nicht so weit zurueck liegt, entfaellt Dein "zu langsam" erstmal. Die +18% sind schaetzungsweise gut moeglich, eben weil es mit aller wahrscheinlichkeit 8VS mit 725MHz sind.

***edit zum edit:

....dass die Speicherbandbreite auch nicht ganz unwichtig ist.

VS Leistung ist irrelevant zur Bandbreite. ***/edit

Zu spaet definitiv, sonst waere die GTX512 ueberfluessig gewesen. Aber bei NV's Umsatzzahlen fuer 2005 muessen sie sich ja Sorgen machen oder?

ShadowXX
2006-02-23, 21:15:49
Nein.

2x4 Quad Dual Core? (also 2x ein 16Piper auf einem Package oder Die zusammengefasst).

reunion
2006-02-23, 21:27:45
Eben weil die GTX512 nicht so weit zurueck liegt, entfaellt erstmal Dein "zu langsam" erstmal.

Zu langsam für nV. Das Ziel eines Herstellers sollte es ja wohl sein, den Konkurrenten zu übertrumpfen, und nicht nur ungefair gleich schnell zu sein.


Die +18% sind erstmal schaetzungsweise gut moeglich, eben weil es erstmal mit aller wahrscheinlichkeit 8VS mit 725MHz sind.


Naja, ob die VS wirklich limitierten? Beim 3dmark vielleicht, aber sonst wohl kaum.

Und sonst bringt eine Erhöhung des Coretaktes um 18% ohne einer dazu linear steigenden Bandbreite mit Sicherheit keine durchgehende Performancesteigerung von 18%. Aber darüber haben wir schon in einem anderen Thread ziemlich lange diskuttiert.

http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3857198#post3857198

***edit zum edit:

VS Leistung ist irrelevant zur Bandbreite. ***/edit


Keine Ahnung, was du mir damit sagen willst.


Zu spaet definitiv, sonst waere die GTX512 ueberfluessig gewesen. Aber bei NV's Umsatzzahlen fuer 2005 muessen sie sich ja Sorgen machen oder?

Davon war auch keine Rede.

Gast
2006-02-23, 21:56:27
Das einzige, was beim G71 leistungstechnisch zählt ist doch, ob der Speichercontroller verbessert wurde oder nicht. Denn wenn selbst eine normale GTX512 so effizient mit der Speicherbandbreite bei Antialiasing umgehen könnte wie der R580, dann würde das doch alleine schon reichen um die Konkurrenz zu schlagen. Von daher würde ich sagen, das, gesetzt dem Fall der Speichercontroller wurde deutlich verbessert, 650Mhz@6q locker ausreichen für die schnellste Karte.

Mancko
2006-02-23, 22:13:55
Für mich sieht das eher so aus, als ob G71 zu spät und zu langsam ist, und man deshalb über den Preis gehen muss. Denn aus reiner Kundenfreundlichkeit wird man sich darauf wohl kaum einlassen.

Also 1.5 Monate später als ATIs R580 halte ich für absolut verschmerzbar. Da sah es mit ATIs Verspätung beim R520 im Vergleich zum G70 wesentlich übler aus.
Wenn Nvidia beim DIE an Komplexität gespart hat, dann macht es durchaus Sinn über den Preis zu gehen. Durch den Vorsprung mit dem G70 und den NV40 Derivaten hat Nvidia in vielen Segmenten klare Vorteile vor allem was das Zeitfenster angeht.
Deswegen reicht Gleichstand und dafür Preiskampf um das bisherige Wachstum auf Kurs zu halten. Nur weil ATI mit dem R580 einen guten Launch hingelegt hat ändert sich ja nicht gleich der ganze Markt und das Konsumentenverhalten. Es dauert bis sich das bemerkbar macht und setzt vor allem vorraus, dass in anderen Segmenten das selbe getätigt wird. Nur das war ja bisher bei ATI nicht der Fall.
Sie haben nicht den Luxus und können Produkte aus der alten Generation verramschen, da diese keine Käufer mehr findet. Non-SM3 Ware will keiner mehr.

Wenn AIL Recht behält und nicht viel gedreht wurde am G70, dann ist er billiger in der Fertigung. Man wird eventuell am Kühleraufbau etwas ablesen können. Hier hatte ATI in letzter Zeit Rückstand, da Nvidia's Produkte ein besseres thermales Verhalten geboten haben.

mapel110
2006-02-23, 22:17:02
Keine Ahnung, was du mir damit sagen willst.

Er will damit sagen, dass Vertexleistung nicht von der Bandbreite abhängig ist. Die wird also "durchschlagen", sodass etwas anderes limitiert.

Sunrise
2006-02-23, 22:41:45
Sie haben nicht den Luxus und können Produkte aus der alten Generation verramschen, da diese keine Käufer mehr findet. Non-SM3 Ware will keiner mehr.Das können sie natürlich und findet auch schon eine ganze Weile statt, nur eben mit einer etwas anderen Ausgangslage. Im Prinzip ist dies auch absolut nichts Neues, denn es wird in den kommenden Monaten ebenso praktiziert werden. Die "GTO-Brand" ist für nichts Anderes geschaffen worden.

Wenn AIL Recht behält und nicht viel gedreht wurde am G70, dann ist er billiger in der Fertigung."Noch bessere Margen" ist eines der angepeilten Ziele von NV. Mit der relativen Verspätung von G7X hat man auch sichergestellt, dass dieses Ziel auch erreichbar ist (Respins).

seahawk
2006-02-24, 08:24:23
Vermutlich der versprochene 8 Quad Chip ..

Eher ne 12 Quadlösung :D

Godmode
2006-02-24, 11:39:06
Eher ne 12 Quadlösung :D

Vieleicht realisiert mit zwei 6 Quad Dies?

DrumDub
2006-02-24, 12:25:09
Eher ne 12 Quadlösung :D war das jetzt nen tipp? könnte ja auf quads halbiert und dann wieder mal zwei genommen hinauslaufen: shaderunit 1-shaderunit2*2. aber ich denke, dieser eingriff wäre etwas zu heftig.

Ailuros
2006-02-24, 14:47:12
Zu langsam für nV. Das Ziel eines Herstellers sollte es ja wohl sein, den Konkurrenten zu übertrumpfen, und nicht nur ungefair gleich schnell zu sein.

Wieso war die GTX256 deutlich schneller als R520? Die beiden jagen sich ja sowieso Kragen an Kragen in den letzten paar Monaten. Welcher der beiden hat bei Dir den ueberklaren Vorsprung wenn es zu Leistung kommt?

Wuerdest Du Bildqualitaet sagen pro fps oder pro Euro, wuerde ich sofort auf ATI deuten und in dem Fall steht dieses ausser Zweifel.

Naja, ob die VS wirklich limitierten? Beim 3dmark vielleicht, aber sonst wohl kaum.

Einen Anteil spielt es immer mit, ausser Dir ist ein Spiel bewusst dass ueberhaupt keine VS benutzt. SS2 hat bis zu 5x mal so viel VS wie PS calls stellenweise.

Und sonst bringt eine Erhöhung des Coretaktes um 18% ohne einer dazu linear steigenden Bandbreite mit Sicherheit keine durchgehende Performancesteigerung von 18%. Aber darüber haben wir schon in einem anderen Thread ziemlich lange diskuttiert.

Und ich bestehe auch darauf dass die GTX512 mehr Bandbreite hat als sie braucht. Du bist derjenige der es nicht einsehen will. Rechne Dir doch selber die Prozentuale zwischen GTX512 und GTX256 mit und ohne 4xAA in 1600 aus und nimm dann noch die Prozente fuer den doppelt so grossen Framebuffer davon ab. Tridam hat diese sogar analysiert in einem seiner reviews.

Keine Ahnung, was du mir damit sagen willst.

Dass VS nicht von der Bandbreite abhaengen vielleicht?

Davon war auch keine Rede.

Es gehoert aber dazu, da Du Dir so selbstsicher bist was genau die Ziele von NVIDIA sind. Man arbeitet auch fieberhaft an der wahren naechsten Generation (genauso wie ATI) und man versucht eben die Ausgaben zu minimalisieren, damit eben auch die Gewinne noch mehr steigen.

Ailuros
2006-02-24, 14:54:55
Also 1.5 Monate später als ATIs R580 halte ich für absolut verschmerzbar. Da sah es mit ATIs Verspätung beim R520 im Vergleich zum G70 wesentlich übler aus.
Wenn Nvidia beim DIE an Komplexität gespart hat, dann macht es durchaus Sinn über den Preis zu gehen. Durch den Vorsprung mit dem G70 und den NV40 Derivaten hat Nvidia in vielen Segmenten klare Vorteile vor allem was das Zeitfenster angeht.
Deswegen reicht Gleichstand und dafür Preiskampf um das bisherige Wachstum auf Kurs zu halten. Nur weil ATI mit dem R580 einen guten Launch hingelegt hat ändert sich ja nicht gleich der ganze Markt und das Konsumentenverhalten. Es dauert bis sich das bemerkbar macht und setzt vor allem vorraus, dass in anderen Segmenten das selbe getätigt wird. Nur das war ja bisher bei ATI nicht der Fall.
Sie haben nicht den Luxus und können Produkte aus der alten Generation verramschen, da diese keine Käufer mehr findet. Non-SM3 Ware will keiner mehr.

Wenn AIL Recht behält und nicht viel gedreht wurde am G70, dann ist er billiger in der Fertigung. Man wird eventuell am Kühleraufbau etwas ablesen können. Hier hatte ATI in letzter Zeit Rückstand, da Nvidia's Produkte ein besseres thermales Verhalten geboten haben.

Der Kuehler auf der GTX sieht mir genauso aus als wie der Kuehler auf der GTX512. Was neues zu entwickeln brauchten sie nicht. Ich wuerde erstmal die Uebertaktbarkeit sowohl des cores als auch des Speichers abwarten bevor ich zu Schlussfolgerungen komme.

seahawk
2006-02-24, 16:12:16
war das jetzt nen tipp? könnte ja auf quads halbiert und dann wieder mal zwei genommen hinauslaufen: shaderunit 1-shaderunit2*2. aber ich denke, dieser eingriff wäre etwas zu heftig.

Eine Vermutung, Wer darf schon Tips geben ?

DrumDub
2006-02-24, 17:56:55
Eine Vermutung, Wer darf schon Tips geben ? stimmt natürlich. war auch eher ne rhetorische frage meinerseits. :D

Rampage 2
2006-02-24, 18:12:28
Also ich würde nochmal die voraussichlichen Specs zur G71 auflisten (korrigiert mich bitte!):

- gefertigt in 90nm-Technologie
- 24 Pixelpipelines
- 32 TMU's
- 32 ALU's
- 10 Vertex Shader
- 256Bit-Speicherinterface
- 650-750 MHz Chiptakt
- 800-1000 (1.6-2GHz) MHz GDDR4-Speichertakt
- 512-1024MB Grafikspeicher

Das ergibt:

- 15.6 - 18 Gpixel/sek. Pixelfüllrate
- 20.8 - 24 Gtexel/sek. Texelfüllrate
- 1.625 - 1,875 Gtriangles/sek. Geometrieleistung

Und?

Gast
2006-02-24, 18:17:49
Ich bezweifle, dass wir auf G71-Karten schon GDDR4 sehen werden...

Coda
2006-02-24, 18:44:40
Also ich würde nochmal die voraussichlichen Specs zur G71 auflisten (korrigiert mich bitte!):

- gefertigt in 90nm-Technologie
- 24 Pixelpipelines
- 32 TMU's
- 32 ALU's
- 10 Vertex Shader
- 256Bit-Speicherinterface
- 650-750 MHz Chiptakt
- 800-1000 (1.6-2GHz) MHz GDDR4-Speichertakt
- 512-1024MB Grafikspeicher

Das ergibt:

- 15.6 - 18 Gpixel/sek. Pixelfüllrate
- 20.8 - 24 Gtexel/sek. Texelfüllrate
- 1.625 - 1,875 Gtriangles/sek. Geometrieleistung

Und?Die sind mit Sicherheit falsch.

reunion
2006-02-24, 18:46:24
Wieso war die GTX256 deutlich schneller als R520? Die beiden jagen sich ja sowieso Kragen an Kragen in den letzten paar Monaten. Welcher der beiden hat bei Dir den ueberklaren Vorsprung wenn es zu Leistung kommt?

Wuerdest Du Bildqualitaet sagen pro fps oder pro Euro, wuerde ich sofort auf ATI deuten und in dem Fall steht dieses ausser Zweifel.


Das habe ich auch alles nicht angezweifelt. Trotzdem wäre es für nV besser, wenn man schneller als ATi wäre. Besonders da es mit der Bildqualität eben nicht so rosig aussieht.


Einen Anteil spielt es immer mit, ausser Dir ist ein Spiel bewusst dass ueberhaupt keine VS benutzt. SS2 hat bis zu 5x mal so viel VS wie PS calls stellenweise.


VS-Leistung ist IMO im Überfluss vorhanden, noch mehr wird höchstens in Ausnahmesituationen einen Vorteil bringen.

Takten die VS des G70 nicht auch höher als der restliche Core?


Und ich bestehe auch darauf dass die GTX512 mehr Bandbreite hat als sie braucht. Du bist derjenige der es nicht einsehen will. Rechne Dir doch selber die Prozentuale zwischen GTX512 und GTX256 mit und ohne 4xAA in 1600 aus und nimm dann noch die Prozente fuer den doppelt so grossen Framebuffer davon ab. Tridam hat diese sogar analysiert in einem seiner reviews.


Ich rede nicht von der 7800 GTX 512, sondern von der 7900 GTX 512.

6800Ultra: 6.8GTexels/s mit 35,2 GB/s
7800GTX 256: 10.3 GTexels/s mit 38.4 GB/s
7800GTX 512: 13.2 GTexels/s mit 54.4 GB/s
7900GTX 512: 15.6 GTexels/s mit 51.2 GB/s

Die 7900GTX 512 hat die geringste Bandbreite im Verhältnis zu ihrer Füllrate.

Und ich kann mich noch gut an deine Test erinnern, in welchen selbst deine 7800 GTX 256 einen Vorteil aus höheren Bandbreite schlug. AFAIK sprachst du von 5% bei 15%iger Übertaktung. Außerdem gabst du an, dass du bei einer reinen Coretakterhöhung von 15% ca. 10% mehr Performance erhieltest. Bei der 7900 GTX 512 wird dies logischerweise stärker ausgeprägt sein. Ergo wird G71 durch 18% mehr Coretakt bei verringerter Speicherbandbreite mit Sicherheit keinen Performancegewinn von 18% erziehlen.


Dass VS nicht von der Bandbreite abhaengen vielleicht?


Achso.


Es gehoert aber dazu, da Du Dir so selbstsicher bist was genau die Ziele von NVIDIA sind. Man arbeitet auch fieberhaft an der wahren naechsten Generation (genauso wie ATI) und man versucht eben die Ausgaben zu minimalisieren, damit eben auch die Gewinne noch mehr steigen.

Macht man das nicht ohnehin immer so?

Ailuros
2006-02-24, 19:17:40
Das habe ich auch alles nicht angezweifelt. Trotzdem wäre es für nV besser, wenn man schneller als ATi wäre. Besonders da es mit der Bildqualität eben nicht so rosig aussieht.

Weil sie ein besonders schweres Jahr hatten oder was? Um Missverstaendnissen zu entgehen, NVIDIA ist nicht derjenige der mir nichts dir nichts aufholen musste und muss. Das heisst jetzt natuerlich nicht dass sie sich ganz zuruecklehnen und auf ihren Lorbeeren kauen, aber bei einem Refresh kann man sowieso nicht allzu viel mehr aendern. Also drueckt man mit dem Preis und mit etwas anderem:

http://www.bit-tech.net/news/2006/02/24/nvidia_quad_sli_launch_date/

Hier sieht man auch die 7900GX2 die ich schon erwaehnte und falls die $799 stimmen sind das nicht besonders viel fuer die ultra Verrueckten (sorry folks!) dort draussen. Was kosteten 2*7800GTX@SLi beim launch genau? Eben.

VS-Leistung ist IMO im Überfluss vorhanden, noch mehr wird höchstens in Ausnahmesituationen einen Vorteil bringen.

Takten die VS des G70 nicht auch höher als der restliche Core?

GTX256= 430 core, 470 vs
GTX512= 550 core, 550 vs.


Ich rede nicht von der 7800 GTX 512, sondern von der 7900 GTX 512.

7800GTX 256: 10.3 GTexels/s mit 38.4 GB/s
7800GTX 512: 13.2 GTexels/s mit 54.4 GB/s
7900GTX 512: 15.6 GTexels/s mit 51.2 GB/s

Die 7900GTX 512 hat die geringste Bandbreite im Verhältnis zu ihrer Füllrate.

Und ich kann mich noch gut an deine Test erinnern, in welchen selbst deine 7800 GTX 256 einen Vorteil aus höheren Bandbreite schlug. AFAIK sprachst du von 5% bei 15%iger Übertaktung. Außerdem gabst du an, dass du bei einer reinen Coretakterhöhung von 15% ca. 10% mehr Performance erhieltest. Bei der 7900 GTX 512 wird dies logischerweise stärker ausgeprägt sein. Ergo wird G71 durch 18% mehr Coretakt bei verringerter Speicherbandbreite mit Sicherheit keinen Performancegewinn von 18% erziehlen.

Und was ist mit echten GTX512 Tests in der Zwischenzeit? Ich hab den Speicher auf stolze 1GHz geschafft ohne extravagante Kuehlungen waehrend ich mir immer noch den Kopf zerbreche wo ATI die Voltage festgeschnuert hat dass ich bei bestem Willen nicht ueber 800MHz auf der X1900 kommen kann und das in beiden Faellen mit 1.1ns GDDR3.

Deine Schlussvolgerungen beziehen sich nur stur auf die Bandbreite und nochmal bis Du es endlich schnallst, die GTX512 hat auch 2x mal so viel Speicher, wobei GeForces von 512MB vs. 256MB im Vergleich zu ihren direkten Konkurrenten weniger profitieren.

GTX256 hat fuer 10.32GTexels 38.4 GB/s; rechne ich dieses hoch braeuchte normalerweise eine GTX512 bei 13.2 GTexels/s dann 49 GB/s. Beim gleichen Verhaeltnis muesste die 7900GTX 58 GB/s haben. Ich kann es zwar noch nicht wissen wie uebertaktbar der Speicher auf den letzteren sein wird, aber dass man 900MHz nicht erreichen kann will ich mal ernsthaft bezweifeln. Noch mehr bezweifle ich dass es einen wesentlichen Unterschied machen wird wenn man die Taktrate nicht auch erhoeht.

Macht man das nicht ohnehin immer so?

Nein. NV4x/G7x war eine Basis-architektur die fuer die gesamte NV4x und die gesamte G7x Linie diente und auch RSX fuer PS3. Ohne Modifikationen und Aufwand kommt es nie zu einem Consolen-chip, aber je verwandter desto leichter und desto weniger Resourcen.

ATI im Gegensatz:

Xenos fuer XBox360
R420 fuer PC ("only man-hours according to ATI)
R5x0 fuer Nintendo Revolution
R5x0 fuer PC
R6xx fuer PC

Wie verwandt einige davon sind weisst Du wohl selber; das erste und das letzte sind eben USCs aber das ist dann auch schon alles.

Gast
2006-02-24, 19:36:32
@Ailuros

Frage etwas abseits:
Meint IHR die X1800 GTO kann der NV 7800 GS Paroli bieten, oder wird die ATI Karte da unten durchfallen bei den Specs?

Ailuros
2006-02-24, 20:22:22
@Ailuros

Frage etwas abseits:
Meint IHR die X1800 GTO kann der NV 7800 GS Paroli bieten, oder wird die ATI Karte da unten durchfallen bei den Specs?

Sie koennen mich auch "duzen" mein Herr ;)

Wenn es Leistungsgleichstand waere, ist selbst dann die Antwort nicht offensichtlich? GTO aber selbstverstaendlich ;)

ShadowXX
2006-02-24, 20:32:31
Also ich würde nochmal die voraussichlichen Specs zur G71 auflisten (korrigiert mich bitte!):

- gefertigt in 90nm-Technologie
- 24 Pixelpipelines
- 32 TMU's
- 32 ALU's
- 10 Vertex Shader
- 256Bit-Speicherinterface
- 650-750 MHz Chiptakt
- 800-1000 (1.6-2GHz) MHz GDDR4-Speichertakt
- 512-1024MB Grafikspeicher

Das ergibt:

- 15.6 - 18 Gpixel/sek. Pixelfüllrate
- 20.8 - 24 Gtexel/sek. Texelfüllrate
- 1.625 - 1,875 Gtriangles/sek. Geometrieleistung

Und?

Eher so:

- gefertigt in 90nm-Technologie
- 24 Pixelpipelines
- 24 TMU's
- 24 (48*) ALU's
- 16 (?) ROPs
- 8 (10?) Vertex Shader
- 256Bit-Speicherinterface
- 655 MHz Chiptakt
- 800MHz GDDR3-Speichertakt
- 512MB Grafikspeicher

* je nach Zählweise

Ailuros
2006-02-25, 01:55:28
Eher so:

- gefertigt in low-k 90nm-Technologie
- 24 SIMD channels
- 24 TMU's
- 24 (48*) ALU's
- 16 ROPs
- 8 (@725MHz) VS MIMD
- 256Bit-Speicherinterface
- 650 MHz Chiptakt
- 800MHz GDDR3-Speichertakt
- 512MB Grafikspeicher

* je nach Zählweise

Ein paar Schoehnheitsaenderungen ;)

Godmode
2006-02-25, 02:19:47
Ein paar Schoehnheitsaenderungen ;)

Gibt es irgendwo Benches von einer GTX mit dem Takt, dann wäre das Rätsel schon gelöst?

Gast
2006-02-25, 02:46:15
Gibt es irgendwo Benches von einer GTX mit dem Takt, dann wäre das Rätsel schon gelöst?Hmm, irgendwie glaube ich aber auch nicht, dass NV rein gar nichts am G70 geändert hat, außer ihn in 90nm lowk zu fertigen und ihn 100Mhz höher zu takten. Evtl. haben sie ja doch noch irgendwas verbessert.

Rampage 2
2006-02-25, 03:07:49
Gut - dann eben nur 24 Pixelpipelines. Aber die 32 Textureinheiten (TMU's) dürften so gut wie sicher sein.

Xmas
2006-02-25, 03:18:38
Nein, die beiden Zahlen sind so gut wie sicher identisch.

Ailuros
2006-02-25, 03:22:11
Gut - dann eben nur 24 Pixelpipelines. Aber die 32 Textureinheiten (TMU's) dürften so gut wie sicher sein.


15.6 Billion Pixels/sec (was eigentlich 15.6 bilinear filtered Billion Texels/sec heissen sollte), aber so stehts auf NV's Hauptseite bei anderen GPUs auch drauf.

15600 / 650 = 24 TMUs

Rampage 2
2006-02-25, 05:01:46
keine 32 TMU's - das heißt dann, dass Nvidia's G71 ungefähr so tauglich ist wie ein Pusterohr... :mad:

Coda
2006-02-25, 09:37:39
Gut - dann eben nur 24 Pixelpipelines. Aber die 32 Textureinheiten (TMU's) dürften so gut wie sicher sein.Das macht keinen Sinn, da das bei nVIDIA streng gekoppelt ist.

Gast
2006-02-25, 09:40:34
Hoffentlich bricht die 7900 nicht so derbe bei AA-af settings ein dann wer die Karte für mich eine überlegung wert wenn der Preis stimmt!Wird die Karte eigentlich HDR-AA ünterstützen?Wenn nicht wer das ein bisschen schade weil UT 2007 das bestimmt unterstütz..

AnarchX
2006-02-25, 09:52:17
Hoffentlich bricht die 7900 nicht so derbe bei AA-af settings ein dann wer die Karte für mich eine überlegung wert wenn der Preis stimmt!Wird die Karte eigentlich HDR-AA ünterstützen?Wenn nicht wer das ein bisschen schade weil UT 2007 das bestimmt unterstütz..

Da sie auf der Architektur des G70 basiert wird sie genau so prozentual einbrechen wie es aktuelle Karten machen, am besten vergleicht man mit der GTX 512MB.

HDR-AA wird es in der Form wie es ATI anbietet auch nicht geben, aber laut Nvidia soll es ein Work-Around für den G70 geben, nur fraglich ob das von den Entwicklern verwirklicht wird.


So taktisch unklug ist der G71 meiner Meinung nach nicht, man produziert mit einfachen Mitteln eine Karte die wohl mit dem R580 gleichziehen/leicht übertrumpfen kann und zudem wohl auch zu einem guten Preis anbietbar ist. So kann sich Nvidia auf den G80 konzentrieren, mit dem man dann wieder punkten kann.

Gast
2006-02-25, 10:23:06
Sie koennen mich auch "duzen" mein Herr ;)

Wenn es Leistungsgleichstand waere, ist selbst dann die Antwort nicht offensichtlich? GTO aber selbstverstaendlich ;)

FRAGE: dann denkst du das es Gleichstand geben könnte?
Event. kann ATI ja noch den Takt der X1800 GTO anheben lassen.
denke das sie schlussendlich höher als 500/500 getaktet werden wird und dies ausschliesslich für die AGP Variante. (600/550)
Denn in allen Foren wird darüber geschrieben dass ATI den Abverkauf des R520 mit AGP Karten extrem fördern könnte- also denke ich, dass dies nicht spurlos bei ATI vorbeigehen wird.

Expandable
2006-02-25, 11:36:35
Wird die Karte eigentlich HDR-AA ünterstützen?Wenn nicht wer das ein bisschen schade weil UT 2007 das bestimmt unterstütz..

Fraglich, ob Du UT07 mit HDR-Rendering und ohne AA überhaupt flüssig spielen kannst (in vernünftiger Auflösung und höchsten Details)... da würde ich mir über HDR-AA erst mal keine Gedanken machen ;)

Ich versteh das Theater um HDR + AA sowieso nicht. HDR einfach ausschalten. Sieht eh scheiße aus und ist saulahm (zumindest, was ich bis jetzt gesehen habe: Lost Coast, Splinter Cell 3, Serious Sam 2, FarCry. Da hat HDR keine sichtbaren Vorteile, bzw. keine Vorteile, die einem während des Spielens auffallen (und nur darauf kommt es an). Diesen saublöden aber ach so coolen "Die-Augen-des-Spieler-müssen-sich-an-die-neuen-Lichtverhältnisse-anpassen"-Effekt,
kann man ja wohl voll in die Tonne kloppen (wenn man das schon macht, dann bitte realistisch. Meine Augen gewöhnen sich NICHT in 0.6 Nanosekunden an grelles Sonnenlicht, wenn ich aus einer dunklen Höhle komme. Aber vielleicht sind meine Augen ja auch einfach nur kaputt.

Sorry für OT...

reunion
2006-02-25, 11:44:46
Weil sie ein besonders schweres Jahr hatten oder was? Um Missverstaendnissen zu entgehen, NVIDIA ist nicht derjenige der mir nichts dir nichts aufholen musste und muss. Das heisst jetzt natuerlich nicht dass sie sich ganz zuruecklehnen und auf ihren Lorbeeren kauen, aber bei einem Refresh kann man sowieso nicht allzu viel mehr aendern. Also drueckt man mit dem Preis und mit etwas anderem:

http://www.bit-tech.net/news/2006/02/24/nvidia_quad_sli_launch_date/

Hier sieht man auch die 7900GX2 die ich schon erwaehnte und falls die $799 stimmen sind das nicht besonders viel fuer die ultra Verrueckten (sorry folks!) dort draussen. Was kosteten 2*7800GTX@SLi beim launch genau? Eben.


Warum so forsch? Da hab' ich wohl einen empfindlichen Nerv getroffen. :)
Niemand redet davon, dass nV jetzt den Bach runter geht, oder sonst irgendwie unlösbare Probleme bekommt.

Nur wenn man sich die anvisierten Preise (http://www.xbitlabs.com/news/video/display/20060223090220.html) ansieht, merkt man doch recht schnell, dass nV nicht damit rechnet, R580 schlagen zu können. $499 für die 7900GTX 512, das sind immerhin 150$ weniger als ATi für die X1900XTX verlangt. Gar $299 für die 7900GT ist ja schon fast ein Schleuderpreis, und auch die von dir angesprochene Dual-G71-Karte ist mit $799 nicht gerade teuer, eine 7800GTX 512 kostete zeitweise das gleiche.


GTX256= 430 core, 470 vs
GTX512= 550 core, 550 vs.


Danke.


Und was ist mit echten GTX512 Tests in der Zwischenzeit? Ich hab den Speicher auf stolze 1GHz geschafft ohne extravagante Kuehlungen waehrend ich mir immer noch den Kopf zerbreche wo ATI die Voltage festgeschnuert hat dass ich bei bestem Willen nicht ueber 800MHz auf der X1900 kommen kann und das in beiden Faellen mit 1.1ns GDDR3.


Was du mit deiner X1900 machst, weiß ich nicht, hier im Forum gibt es jedenfalls genug Leute, welche >900Mhz erreichen. Ganz davon abgesehen taktet die 7900GTX 512 nunmal "nur" mit 800Mhz, ob, bzw. wie weit sich diese dann übertakten lässt, wird man sehen müssen.


Deine Schlussvolgerungen beziehen sich nur stur auf die Bandbreite und nochmal bis Du es endlich schnallst, die GTX512 hat auch 2x mal so viel Speicher, wobei GeForces von 512MB vs. 256MB im Vergleich zu ihren direkten Konkurrenten weniger profitieren.


Das habe ich schon lange "geschnallt". Was du immer mit deiner doppelten RAM-Menge willst, weiß ich sowieso nicht. Mit einen solchen Vergleich braucht man erst gar nicht anfangen, da man sowieso nie weiß, wieviel Leistung man aus der höheren Speicherbandbreite, und wieviel aus den doppelten VRAM bezieht. Ich beziehe mich also bewusst nur auf die Speicherbandbreite.



GTX256 hat fuer 10.32GTexels 38.4 GB/s; rechne ich dieses hoch braeuchte normalerweise eine GTX512 bei 13.2 GTexels/s dann 49 GB/s. Beim gleichen Verhaeltnis muesste die 7900GTX 58 GB/s haben.


Eben, und wenn man nunmal sieht, dass selbst die GTX 256 von höherer Speicherbandbreite profitiert, und keine lineare Leistungssteigerung mit dem Coretakt zustandebringt, dann wird das bei der 7900 GTX 512 mit Sicherheit nicht anders sein. Es müsste bei dieser sogar noch stärker ausgeprägt sein - die +18% sind also unrealistisch IMHO.


Ich kann es zwar noch nicht wissen wie uebertaktbar der Speicher auf den letzteren sein wird, aber dass man 900MHz nicht erreichen kann will ich mal ernsthaft bezweifeln. Noch mehr bezweifle ich dass es einen wesentlichen Unterschied machen wird wenn man die Taktrate nicht auch erhoeht.


Die 7900GTX 512 wird sich mit ihren default-Taktraten messen müssen.


Nein. NV4x/G7x war eine Basis-architektur die fuer die gesamte NV4x und die gesamte G7x Linie diente und auch RSX fuer PS3. Ohne Modifikationen und Aufwand kommt es nie zu einem Consolen-chip, aber je verwandter desto leichter und desto weniger Resourcen.

ATI im Gegensatz:

Xenos fuer XBox360
R420 fuer PC ("only man-hours according to ATI)
R5x0 fuer Nintendo Revolution
R5x0 fuer PC
R6xx fuer PC

Wie verwandt einige davon sind weisst Du wohl selber; das erste und das letzte sind eben USCs aber das ist dann auch schon alles.

Das ist mir bekannt.

Ailuros
2006-02-25, 12:27:59
Warum so forsch? Da hab' ich wohl einen empfindlichen Nerv getroffen. :)
Niemand redet davon, dass nV jetzt den Bach runter geht, oder sonst irgendwie unlösbare Probleme bekommt.

Ich bin genau so forsch wenn es sich um ATI Zeug handelt. Was aber auch nicht viele behaupten koennen.

Nur wenn man sich die anvisierten Preise (http://www.xbitlabs.com/news/video/display/20060223090220.html) ansieht, merkt man doch recht schnell, dass nV nicht damit rechnet, R580 schlagen zu können. $499 für die 7900GTX 512, das sind immerhin 150$ weniger als ATi für die X1900XTX verlangt. Gar $299 für die 7900GT ist ja schon fast ein Schleuderpreis, und auch die von dir angesprochene Dual-G71-Karte ist mit $799 nicht gerade teuer, eine 7800GTX 512 kostete zeitweise das gleiche.

R580 hat auch 380M.


Was du mit deiner X1900 machst, weiß ich nicht, hier im Forum gibt es jedenfalls genug Leute, welche >900Mhz erreichen. Ganz davon abgesehen taktet die 7900GTX 512 nunmal "nur" mit 800Mhz, ob, bzw. wie weit sich diese dann übertakten lässt, wird man sehen müssen.

Ich hab auf jeden Fall keine extravaganten Kuehlungsloesuengen benutzt und es ist auch nicht "meine" X1900. Waere es ein Einzelfall wuerde ich es erst gar nicht erwaehnen..

Das habe ich schon lange "geschnallt". Was du immer mit deiner doppelten RAM-Menge willst, weiß ich sowieso nicht. Mit einen solchen Vergleich braucht man erst gar nicht anfangen, da man sowieso nie weiß, wieviel Leistung man aus der höheren Speicherbandbreite, und wieviel aus den doppelten VRAM bezieht. Ich beziehe mich also bewusst nur auf die Speicherbandbreite.

Es ist mir schon klar dass man eben alles gerade so hindreht wie es gerade passt:

http://www.behardware.com/articles/599-12/the-geforce-7800-gtx-512-mb-the-new-king-of-3d.html

Ich nehme nochmal die Resultate aus diesem Review:

http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx.html

(from 1xAA/1xAF to 4xAA/16xAF)

Fear:
GTX512 -45%
GTX256 -48%

BF2:
GTX512 -28%
GTX256 -33%

Chronicles of R:
GTX512 -40%
GTX256 -44%

CoD2:
GTX512 -23%
GTX256 -38%

Far Cry (Research)
GTX512 -22%
GTX256 -42%

Quake4:
GTX512 -6%
GTX256 -22%

SS2:
GTX512 -35%
GTX256 -46%

Komischerweise sind die Unterschiede gerade da besonders gross wo Applikationen auch viel mehr Texture Memory verbrauchen. Schieb ich jetzt in Q4 noch die 8.8% auf die 6% Unterschied haette eine G70@430/600 512MB hoechstwahrscheinlich ~15% Unterschied zwischen 1x und 4xAA und eine G70@550/850 512MB dann eben 22%.


Eben, und wenn man nunmal sieht, dass selbst die GTX 256 von höherer Speicherbandbreite profitiert, und keine lineare Leistungssteigerung mit dem Coretakt zustandebringt, dann wird das bei der 7900 GTX 512 mit Sicherheit nicht anders sein. Es müsste bei dieser sogar noch stärker ausgeprägt sein - die +18% sind also unrealistisch IMHO.

Die laecherlichen 5% sind nicht der Rede wert. Hier nochmal ein DX7.0 schweres multitexturing Spiel mit variierten Frequenzen:

http://users.otenet.gr/~ailuros/UT2k4.png

Das sind "gigantische" 9% beim ersten Balken und davon ist die Mehrzahl sowieso vom Latenz-Unterschied der Speicher-untertaktung. Und so Bandbreiten-Unterfuettert ist G71 sowieso nicht.


Die 7900GTX 512 wird sich mit ihren default-Taktraten messen müssen.

Pffff kein einziger Zweifel, nur kann eben dann durch Uebertaktungs-Tests sehen was dem Ding genau fehlt und was nicht.

Ailuros
2006-02-25, 12:33:02
FRAGE: dann denkst du das es Gleichstand geben könnte?
Event. kann ATI ja noch den Takt der X1800 GTO anheben lassen.
denke das sie schlussendlich höher als 500/500 getaktet werden wird und dies ausschliesslich für die AGP Variante. (600/550)
Denn in allen Foren wird darüber geschrieben dass ATI den Abverkauf des R520 mit AGP Karten extrem fördern könnte- also denke ich, dass dies nicht spurlos bei ATI vorbeigehen wird.

Was genau interessiert Dich? Sture fps oder fps + >IQ? Falls es der zweite Fall sein sollte, ist die X1800 eigentlich eine Einbahnstrasse.

sklave_gottes
2006-02-25, 12:44:44
Was genau interessiert Dich? Sture fps oder fps + >IQ? Falls es der zweite Fall sein sollte, ist die X1800 eigentlich eine Einbahnstrasse.

sorry das verstehe ich jetzt nicht.

mfg martin

Ailuros
2006-02-25, 12:54:39
sorry das verstehe ich jetzt nicht.

mfg martin

R5x0 und auch RV5x0 liefern mehr Bildqualitaet insgesamt pro fps oder pro € im Vergleich zur Konkurrenz.

Gast
2006-02-25, 13:31:12
@Ailuros
meinst nun das die X1800 GTO eine gute Mainstram Karte wird und die Leistung der 7800 GS toppen kann oder nicht.
Die fps minimal sind mir sehr wichtig, den die BQ geht ja immer zugunsten ATI !
ich würde gern in 1280 x 1024 4xAA 8AF zocken
und games wie Farcry ud Co in 1024 x 768 AA+HDR 8AF !
meinst ne X1800 GTO wird dies packen.
fps um die 30 würden mir bereits ausreichen wenn diese frames konstant bleiben würden.
Dank DIR !

Gandharva
2006-02-25, 13:44:08
In Spielen wie FEAR oder CoD2 brauchst du eine X1900XT um 1280x1024 4xAA / 16AF + gute BQ spielen zu können.

Quasar
2006-02-25, 14:11:48
[…] wobei GeForces von 512MB vs. 256MB im Vergleich zu ihren direkten Konkurrenten weniger profitieren.

Wie kommst du darauf? Ich war immer der Meinung, genau das Gegenteil ist der Fall. Oder beziehst du das jetzt auf bis zu 6xAA+HDR vs. 4xAA ohne HDR?

reunion
2006-02-25, 14:12:20
R580 hat auch 380M.


Jeder Hersteller versucht die Gewinne zu maximieren. Würde G71 einen Preis auf R580-Niveau rechtfertigen, würde man die Karten auch entsprechend einordnen.


Es ist mir schon klar dass man eben alles gerade so hindreht wie es gerade passt:

http://www.behardware.com/articles/599-12/the-geforce-7800-gtx-512-mb-the-new-king-of-3d.html

Ich nehme nochmal die Resultate aus diesem Review:

http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx.html

(from 1xAA/1xAF to 4xAA/16xAF)

Fear:
GTX512 -45%
GTX256 -48%

BF2:
GTX512 -28%
GTX256 -33%

Chronicles of R:
GTX512 -40%
GTX256 -44%

CoD2:
GTX512 -23%
GTX256 -38%

Far Cry (Research)
GTX512 -22%
GTX256 -42%

Quake4:
GTX512 -6%
GTX256 -22%

SS2:
GTX512 -35%
GTX256 -46%

Komischerweise sind die Unterschiede gerade da besonders gross wo Applikationen auch viel mehr Texture Memory verbrauchen. Schieb ich jetzt in Q4 noch die 8.8% auf die 6% Unterschied haette eine G70@430/600 512MB hoechstwahrscheinlich ~15% Unterschied zwischen 1x und 4xAA und eine G70@550/850 512MB dann eben 22%.


Ich verstehe nicht, was du mit diesem Vergleich bezwecken willst. Natürlich bringen die zusätzlichen 256MB einen Vorteil, das wird decke ich auch niemand abstreiten.


Die laecherlichen 5% sind nicht der Rede wert. Hier nochmal ein DX7.0 schweres multitexturing Spiel mit variierten Frequenzen:


Die 5% zeigen, dass die GTX256 eben nicht mehr Bandbreite hat, als sie benötigt. Bei der 7900GTX 512 wird das entsprechend stärker zur geltung kommen.

Viel intressanter sind in diesem Fall allerdings die 10% Performancegewinn bei 15%iger Coretaktsteigerung.


http://users.otenet.gr/~ailuros/UT2k4.png

Das sind "gigantische" 9% beim ersten Balken und davon ist die Mehrzahl sowieso vom Latenz-Unterschied der Speicher-untertaktung. Und so Bandbreiten-Unterfuettert ist G71 sowieso nicht.


Du misst den Bandbreitenvorteil mit AF? Kein Wunder, dass du keinen großen Unterschied feststellst. Warum kein AA?

Btw, welches Spiel und welche Auflösung?

reunion
2006-02-25, 14:13:26
Wie kommst du darauf? Ich war immer der Meinung, genau das Gegenteil ist der Fall. Oder beziehst du das jetzt auf bis zu 6xAA+HDR vs. 4xAA ohne HDR?

http://www.behardware.com/articles/599-12/the-geforce-7800-gtx-512-mb-the-new-king-of-3d.html

Quasar
2006-02-25, 14:19:25
http://www.behardware.com/articles/599-12/the-geforce-7800-gtx-512-mb-the-new-king-of-3d.html
Interessant. Aber noch aussagekräftiger wäre dazu eine Messung der VRAM-Auslastung. :D

seahawk
2006-02-25, 17:01:37
reunion, Du mußt dich etwas von konservativen Denken lösen. Die GTX muss nicht die X1900XTX schlagen. Die NV Produkte werden in Sachen Geschwindigkeit immer mindestens ein Unentschieden erreichen. (was für NV ausreicht)

Gandharva
2006-02-25, 17:37:35
reunion, Du mußt dich etwas von konservativen Denken lösen. Die GTX muss nicht die X1900XTX schlagen. Die NV Produkte werden in Sachen Geschwindigkeit immer mindestens ein Unentschieden erreichen. (was für NV ausreicht)Wird sie IMO auch nicht müssen. Dafür gibts die 700€ Horrorkarte.

seahawk
2006-02-25, 17:43:33
Die aber wieder selber vergleichseweise billig ist.

reunion
2006-02-25, 20:22:22
reunion, Du mußt dich etwas von konservativen Denken lösen. Die GTX muss nicht die X1900XTX schlagen. Die NV Produkte werden in Sachen Geschwindigkeit immer mindestens ein Unentschieden erreichen. (was für NV ausreicht)

Ich wiederhole mich inzwischen, wenn ich schreibe, dass dies für nV kein Problem darstellt. Wo du hier also eine konservative Denkweise erkennen willst, kann ich bei besten Willen nicht nachvollziehen.

Ailuros
2006-02-27, 10:24:59
Jeder Hersteller versucht die Gewinne zu maximieren. Würde G71 einen Preis auf R580-Niveau rechtfertigen, würde man die Karten auch entsprechend einordnen.

Wuerde ich aber nicht fuer die Preise der GTX512 (G70) sagen und ueberhaupt bei Vorstellung.


Ich verstehe nicht, was du mit diesem Vergleich bezwecken willst. Natürlich bringen die zusätzlichen 256MB einen Vorteil, das wird decke ich auch niemand abstreiten.

Der Leistungsvorsprung einer GTX512 im Vergleich zu einer GTX256 in zumindest 1600 mit 4xAA ist dank einer Kombination der hoeheren Bandbreite der ersten und des doppelt so grossen Framebuffers.

Es gibt keine bekannten Daten bis jetzt die vorschlagen dass die GTX512 auch wirklich ihre volle Bandbreite braucht.

Die 5% zeigen, dass die GTX256 eben nicht mehr Bandbreite hat, als sie benötigt. Bei der 7900GTX 512 wird das entsprechend stärker zur geltung kommen.

Die GTX256 waere Bandbreiten-limitiert wenn eine Steigerung der Speicherfrequenz zumindest genauso viel bringen wuerde als eine Steigerung der Taktrate. Im Gegenteil wenn ich jeweils Takt um X% oder Speicher um X% erhoehe, ist der Gewinn fuer die Taktrate bei Y*2 im Vergleich zum Speicher.

Viel intressanter sind in diesem Fall allerdings die 10% Performancegewinn bei 15%iger Coretaktsteigerung.

Siehe oben.


Du misst den Bandbreitenvorteil mit AF? Kein Wunder, dass du keinen großen Unterschied feststellst. Warum kein AA?

Btw, welches Spiel und welche Auflösung?

UT2k4 1600*1200 4xAA Primeval 4 bots :P

[dzp]Viper
2006-02-27, 11:39:29
Inquirer :D

G71, 7900 GTX is eight to ten per cent faster (http://www.theinquirer.net/?article=29928)


It's Nvidia's partners that are whining about these chips - not me.
X-D

Gandharva
2006-02-27, 11:56:40
Lustig geschrieben. :)

Wenn Fuad Recht hat mit der geringeren Abnahme der Chips, dann könnte für NV der Schuss nach hinten losgehen. Sie haben dann zwar einen Chip den sie billigst produzieren können aber nicht an die Frau bringen...

Naja, bissl was wird schon hinten bleiben für NV.

Kladderadatsch
2006-02-27, 12:10:59
Most of the companies already have the samples and tested them but they are not happy with the performance. First tests indicate that in the best case scenario, Geforce 7900 GTX cards are eight to ten per cent faster than the last and rarely available Geforce 7800 GTX 512 card.

This means that 7900 GTX might get close to ATI's X1900 XTX card but it will lose in many of the benchmarks.
das können die sich ja wohl auch nicht leisten- warum sollten sie auch?

mapel110
2006-02-27, 12:19:06
Das mit der Abnahme ist ja wohl Schwachsinn.
Die Hersteller können ohnehin kaum die Nachfrage abschätzen und dann wollen sie es auf einmal im High End, wo ohnehin wenig verkauft wird, abschätzen können?! :|
Da hat sicher Inq wohl zuviel in irgendwas hineininterpretiert.

Enttäuscht können sie schon sein von der Performance, viel mehr kann man wohl auch nicht erwarten als die 10 %.

Sternenkind
2006-02-27, 12:24:10
ich sage nur LOL wenn das stimmen sollte! und der relative günstige Preis spricht wohl auch dafür, dass es NICHT die mega nvidia karten werden wird...

Wo seid ihr Tombmans und Skynets dieser Welt , die gesagt haben die/der G71 wird ja sooo viel besser und schneller werden als die x1900 Serie.

:lol:

mapel110
2006-02-27, 12:26:56
ich sage nur LOL wenn das stimmen sollte! und der relative günstige Preis spricht wohl auch dafür, dass es NICHT die mega nvidia karten werden wird...

Wo seid ihr Tombmans und Skynets dieser Welt , die gesagt haben die/der G71 wird ja sooo viel besser und schneller werden als die x1900 Serie.

:lol:
Es wird wohl noch etwas später eine "Bench-Edition" hinterhergeschoben mit 750 Mhz Coretakt und schnellerem Speicher.

Sternenkind
2006-02-27, 12:29:17
oh toll... sowas wie die 7800gtx 512? schnell aber nicht verfügbar?

ok... :lol:

Gandharva
2006-02-27, 12:34:33
das können die sich ja wohl auch nicht leisten- warum sollten sie auch?Worauf beziehst du dich da jetzt genau?

Gandharva
2006-02-27, 12:37:19
Das mit der Abnahme ist ja wohl Schwachsinn.
Die Hersteller können ohnehin kaum die Nachfrage abschätzen und dann wollen sie es auf einmal im High End, wo ohnehin wenig verkauft wird, abschätzen können?! :|Naja, denkst du nicht das die Hersteller wissen, was, wovon, wie oft im Schnitt verkauft wird und danach ihren Einkauf richten?

ShadowXX
2006-02-27, 12:40:53
Es wird wohl noch etwas später eine "Bench-Edition" hinterhergeschoben mit 750 Mhz Coretakt und schnellerem Speicher.

Ne...da kommt doch die von AiL schon verlinkte Dual-Lösung für 799Dollar.

mapel110
2006-02-27, 12:41:12
Naja, denkst du nicht das die Hersteller wissen was, wovon, wie oft im Schnitt verkauft wird und danach ihren Einkauf richten?
Man bestellt sowieso nicht auf Vorrat sondern eben wie viele für einen Zeitpunkt gebraucht werden. Am Anfang produziert man erstmal "wie immer" und dann schaut man nach, wie sich das Produkt verkauft und orientiert sich an der Nachfrage. Wenn man am Anfang zuviel produziert hat, ist das völlig egal, weil man den Vorrat ja noch dadurch abbauen kann, indem man später weniger bestellt.
Ne...da kommt doch die von AiL schon verlinkte Dual-Lösung für 799Dollar.
7900 Dual als offizielles Produkt? Muss den Thread hier nochmal lesen...

reunion
2006-02-27, 12:45:26
Enttäuscht können sie schon sein von der Performance, viel mehr kann man wohl auch nicht erwarten als die 10 %.

Eben, bei nur 18% mehr Chiptakt und verringerter Bandbreite war nicht mehr zu erwarten. Auch wenn es manche nicht wahr haben wollen.

7900 Dual als offizielles Produkt? Muss den Thread hier nochmal lesen...


Ja, 'ne "7900GX2" mit 2 G71-Chips für $799. Nach guter alter 3dfx-Manier. :)

ShadowXX
2006-02-27, 12:52:35
Ja, 'ne "7900GX2" mit 2 G71-Chips. Nach guter alter 3dfx-Manier. :)

Wobei ich noch nicht glaube, das es 2 24Piper auf der Karte sein werden, sondern eher 2 16Pipe-Chips (womit wir wieder bei den "Gerüchte" 32-Pipes wären).

Gandharva
2006-02-27, 12:58:21
Man bestellt sowieso nicht auf Vorrat sondern eben wie viele für einen Zeitpunkt gebraucht werden. Am Anfang produziert man erstmal "wie immer" und dann schaut man nach, wie sich das Produkt verkauft und orientiert sich an der Nachfrage. Wenn man am Anfang zuviel produziert hat, ist das völlig egal, weil man den Vorrat ja noch dadurch abbauen kann, indem man später weniger bestellt.So würde IMO nur ein mieser Einkauf agieren. Dort wo ich bisher im Einkauf war kauft niemand einfach mal blauäugig wie immer ein. Oder verstehe ich dich da falsch?

reunion
2006-02-27, 13:01:11
Wuerde ich aber nicht fuer die Preise der GTX512 (G70) sagen und ueberhaupt bei Vorstellung.


Die GTX512 hatte aufgrund ihrer begrenzten Verfügbarkeit einen Sonderstatus.


Der Leistungsvorsprung einer GTX512 im Vergleich zu einer GTX256 in zumindest 1600 mit 4xAA ist dank einer Kombination der hoeheren Bandbreite der ersten und des doppelt so grossen Framebuffers.


Logisch.


Es gibt keine bekannten Daten bis jetzt die vorschlagen dass die GTX512 auch wirklich ihre volle Bandbreite braucht.



Man sieht, dass die GTX256 von höherer Bandbreite profitiert, warum sollte das für die GTX512 nicht zutreffen? Außerdem wird man ja wohl kaum zum Spaß diesem Speicher verbaut haben.


Die GTX256 waere Bandbreiten-limitiert wenn eine Steigerung der Speicherfrequenz zumindest genauso viel bringen wuerde als eine Steigerung der Taktrate. Im Gegenteil wenn ich jeweils Takt um X% oder Speicher um X% erhoehe, ist der Gewinn fuer die Taktrate bei Y*2 im Vergleich zum Speicher.


Ja, die GTX256 ist öfter Füllraten-, als Bandbreitenlimitiert, trotzdem ist sie auch hin und wieder Bandbreitenlimitiert, sonst wäre eine Performancesteigerung durch mehr RAM-Takt gar nicht möglich.

reunion
2006-02-27, 13:03:11
So würde IMO nur ein mieser Einkauf agieren. Dort wo ich bisher im Einkauf war kauft niemand einfach mal blauäugig wie immer ein. Oder verstehe ich dich da falsch?

ACK, wenn abzusehen ist, dass ein Produkt nicht der Renner wird, dann wird man logischerweise auch nur begrenzte Stückzahlen ordern. Wenn man zuviel einkauft, und dieses Produkt lange nicht an den Mann bekommt, muss man möglicherweise mit Verlust verkaufen, da es inzwischen schon eine Preissenkung geben hätte könnte. Speziell bei Grafikkarte geht das ja extrem schnell.

reunion
2006-02-27, 13:10:41
Wobei ich noch nicht glaube, das es 2 24Piper auf der Karte sein werden, sondern eher 2 16Pipe-Chips (womit wir wieder bei den "Gerüchte" 32-Pipes wären).


Glaube ich nicht. Erstens ist es extrem unwahrscheinlich, dass gleich zwei Quads auf einem Core kaputt sind, und zweitens würde man damit durch den Effizienzverlust von SLi wohl nur minimal schneller sein als die 7900GTX 512. Vielleicht zwei 20-Piper, wobei ich zurzeit eher zu zwei vollwertigen Chips tendiere.

Kladderadatsch
2006-02-27, 13:33:37
Worauf beziehst du dich da jetzt genau?
na auf das, was ich gequotet habe;)
mir leuchtet nicht ein, warum nv bewusst eine 'niederlage' hinnehmen sollte. wofür wäre denn dann der vorsprung, von dem hier immer geredet wird?!

reunion
2006-02-27, 13:41:15
na auf das, was ich gequotet habe;)
mir leuchtet nicht ein, warum nv bewusst eine 'niederlage' hinnehmen sollte. wofür wäre denn dann der vorsprung, von dem hier immer geredet wird?!

Es ist immer die Frage, wieviel man bereit ist zu investieren. Man steckte eben den Großteil der Ressourcen in den Next-Gen-Chip, und so blieb es bei G71 bei einem Die-Shrink. Und eine Niederlage nimmt man nicht in kauf, dafür gibts die 7900GX2. So kann man mit minimalen Einsatz ein Maximum an Performance und vorallem an Gewinn erziehlen.

LovesuckZ
2006-02-27, 13:59:27
ich sage nur LOL wenn das stimmen sollte! und der relative günstige Preis spricht wohl auch dafür, dass es NICHT die mega nvidia karten werden wird...

7900GT für 299$, dem Minikühler, dem "Miniboard"?
Das ist die "Mega Karte".
Ehrlich:
Alle reden zwar immer von der schnellsten Karte, viele kaufen sich doch dann die "abgespekte".
Dann wird zwar ATi schneller sein mit der 600€ Karte gegenüber Nvidia mit der 499€.
Aber mich interessiert es nicht, da ich nicht soviel ausgeben werde.

Coda
2006-02-27, 14:03:06
Für das Marketing ist es nur eben schon wichtig, auch wenn du wohl recht hast.

Kladderadatsch
2006-02-27, 14:25:33
Und eine Niederlage nimmt man nicht in kauf, dafür gibts die 7900GX2.
die habe ich total verpennt:|
kommt die auch am 9.3?

Ailuros
2006-02-27, 15:13:19
Die GTX512 hatte aufgrund ihrer begrenzten Verfügbarkeit einen Sonderstatus.

Und warum nicht dann bei um einiges breiterer Verfuegbarkeit nicht dann auch logischerweise einen ziemlich niedrigeren Preis. Sowohl R580 als G71 sind auf low-k 90nm hergestellt; nur eben hat der erste mehr Transistoren. Darauf bezog sich mein 380M Kommentar und GTX512 ist auch nicht irrelevant da es 302M@110nm mit 550MHz sind.

Man sieht, dass die GTX256 von höherer Bandbreite profitiert, warum sollte das für die GTX512 nicht zutreffen? Außerdem wird man ja wohl kaum zum Spaß diesem Speicher verbaut haben.

Bei Ultra-seltenen Modellen ist ein seltener Speicher eine gute Ausrede.

Ja, die GTX256 ist öfter Füllraten-, als Bandbreitenlimitiert, trotzdem ist sie auch hin und wieder Bandbreitenlimitiert, sonst wäre eine Performancesteigerung durch mehr RAM-Takt gar nicht möglich.

Sowohl G7x als auch R5x0 erscheinen ziemlich balancierte GPUs fuer das was sie sein sollten. Die G70 hatte 40% mehr Fuellrate als NV40 aber nur 3GB/s mehr Bandbreite. Ueber 1600*1200 werden die Unterschiede zwischen den beiden sogar noch radikaler, weil NV40 eben nicht fuer so hohe Aufloesungen optimiert wurde. Wieviel Bandbreite eine GPU hat ist weniger wichtig, sondern was diese genau damit anstellen kann.

Ailuros
2006-02-27, 15:21:08
Eben, bei nur 18% mehr Chiptakt und verringerter Bandbreite war nicht mehr zu erwarten. Auch wenn es manche nicht wahr haben wollen.

Ich sprach von einem Gleichstand zwischen den 2 Konkurrenten. Kommt ganz drauf an wieviele und welche Spiele man unter die Lupe nehmen will.

Ja, 'ne "7900GX2" mit 2 G71-Chips für $799. Nach guter alter 3dfx-Manier. :)

GX2 ist fuer quad-SLi gedacht. Deshalb erwaehnte ich auch irgendwo "ultra-Verrueckte".

Das mit der 3dfx-Manier ist auch Quark. Nicht nur hatte ATI dual chip Loesungen vor 3dfx (Rage Fury MAXX), sondern arbeitete NV mit multi-GPU Systemen im Profi Markt bevor sich die vorigen 3dfx-engineers in der Firma anpassen konnten. Fuer die die es verpasst haben 3DLabs ist weg vom Fenster was den profi-PC Markt betrifft, was eben Dominanz im high end Bereich dieses Marktes fuer wen wohl heisst.

Das Konzept heisst sales synergy und mit diesem braucht ATI ein bisschen mehr Uebung anscheinend, was auch wieder auf die Entwicklung von zu vielen und unterschiedlichen Konzepten fuehrt. Anstatt das multi-GPU Konzept als Verzweiflungs-akt anzudeuten, wuerde ich es ein bisschen schaerfer ueberdenken.

Sowohl ATI und NVIDIA sind zu gross geworden und muessen alternative Maerkte finden, um weiter zu wachsen und den Umsatz zu steigern. NVIDIA scheint fuer die absehbare Zeit den Profi und vielleicht sogar Server Markt zu gewinnen, wobei ATI viel bessere Chancen im PDA/mobile und laptop Markt hat und haben wird.

Ailuros
2006-02-27, 15:26:03
Es ist immer die Frage, wieviel man bereit ist zu investieren. Man steckte eben den Großteil der Ressourcen in den Next-Gen-Chip, und so blieb es bei G71 bei einem Die-Shrink. Und eine Niederlage nimmt man nicht in kauf, dafür gibts die 7900GX2. So kann man mit minimalen Einsatz ein Maximum an Performance und vorallem an Gewinn erziehlen.

Nur die 2 GPUs fuer quad SLi kosten $1600. Gewinn machen IHVs im mainstream Markt. Je hoeher der Preis desto kleiner ist der Gewinn (***edit: wenn ueberhaupt).

G71 vs. GTX512 ist in etwa wie R480 vs. R420.

Sunrise
2006-02-27, 15:40:27
Nur die 2 GPUs fuer quad SLi kosten $1600. Gewinn machen IHVs im mainstream Markt. Je hoeher der Preis desto kleiner ist der Gewinn.

G71 vs. GTX512 ist in etwa wie R480 vs. R420.
Ailuros, das würde ich in Ruhe nochmal gründlich überdenken.

Ailuros
2006-02-27, 15:53:25
Ailuros, das würde ich in Ruhe nochmal gründlich überdenken.

Inwiefern? Falls Du den zweiten Satz meinen solltest, eine GTX512 haette es nie geben sollen und G71 korrigiert erstmal die miese Verfuegbarkeit der ersten und das natuerlich abgesehen von der finalen Leistung und auch natuerlich davon abgesehen dass R480 kein wirklicher die shrink war.

Sunrise
2006-02-27, 15:59:19
...G71 korrigiert erstmal die miese Verfuegbarkeit der ersten und das natuerlich abgesehen von der finalen Leistung und auch natuerlich davon abgesehen dass R480 kein wirklicher die shrink war.
Mit diesen Einschränkungen kann man den Vergleich sicher gelten lassen. Allerdings auch wirklich nur im Sinne der Verfügbarkeit.

Ich meinte aber insbesondere deine Aussage mit dem Gewinn.

Ailuros
2006-02-27, 16:05:40
Mit diesen Einschränkungen kann man den Vergleich sicher gelten lassen. Allerdings auch wirklich nur im Sinne der Verfügbarkeit.

Es fehlte die notwendige Erlaeuterung das ist mir schon klar.

Ich meinte aber insbesondere deine Aussage mit dem Gewinn.

Ich hab zwar keine Ahnung was die specs einer GX2 betrifft aber ich schaetze auch mit 1024MB GDDR3 pro board.

Gandharva
2006-02-27, 16:08:46
Es fehlte die notwendige Erlaeuterung das ist mir schon klar.Die fehlt zur Gewinnsache IMO immer noch, da die Aussage: "Je höher der Preis desto geringer der Gewinn" mit Sicherheit nicht allgemeingültig ist. Da spielen noch viel mehr Faktoren mit hinein.

Sunrise
2006-02-27, 16:09:19
Ich hab zwar keine Ahnung was die specs einer GX2 betrifft aber ich schaetze auch mit 1024MB GDDR3 pro board.
Ich meine jetzt nicht alle SKUs mit G71 on-board, sondern eher diese "Verallgemeinerung":
Gewinn machen IHVs im mainstream Markt. Je hoeher der Preis desto kleiner ist der Gewinn.

mapel110
2006-02-27, 16:14:37
Ich meine jetzt nicht alle SKUs mit G71 on-board, sondern eher diese "Verallgemeinerung":
Ist doch wohl klar wie AIl das gemeint hat. Desto höher der Preis wird, desto weniger Käufer gibts, desto weniger Gewinn absolut fällt ab, weil eben kleinere Mengen verkauft werden, nicht weil die Marge pro Einheit zu klein wäre.

Gandharva
2006-02-27, 16:18:28
Ist doch wohl klar wie AIl das gemeint hat. Desto höher der Preis wird, desto weniger Käufer gibts, desto weniger Gewinn absolut fällt ab, weil eben kleinere Mengen verkauft werden, nicht weil die Marge pro Einheit zu klein wäre.Das ist IMO genau so falsch, weil ein höherer Preis nicht immer weniger Absatz zur Folge hat.

seahawk
2006-02-27, 17:00:04
So schwer ist es doch gar nicht. :rolleyes:

NV kann den G71 als Shrink des G70 preiswert herstelle, die Entwicklungskosten waren gering. Man ist gut gegen X1900GTO, X1900XL aufgestellt und kann einen Preiskampf locker mitgehen. Gegen die X1900XTX stellt man die GX², die zwar deutlich teure aber durch SLI auch deutlich scneller ist. Gleichzeitig sichert man sich so die absolute Leistungskrone, da man Quad-Sli fahren kann. Für den Profimarkt braucht man sowieso die Dual-Chip-Lösung. Diese nu nauch im Gamermarkt zu verwenden ist sicherlich insgesamt preiswerter, als einen zusätzlich 32Pipechip für diesen MArkt zu verwenden.

(Außerdem hat man so noch viel Wachstumspotential für den G80 ;) )

Sunrise
2006-02-27, 17:31:21
Ist doch wohl klar wie AIl das gemeint hat. Desto höher der Preis wird, desto weniger Käufer gibts, desto weniger Gewinn absolut fällt ab, weil eben kleinere Mengen verkauft werden, nicht weil die Marge pro Einheit zu klein wäre.Die Marktgesetze und/oder eine gegebene Preis-/Menge-Relation stelle ich nicht in Frage, die kenne ich natürlich selbst. Mir geht es eher darum, dass man von einem MSRP einer SKU/einer Multi-Chip-Lösung sicher nicht auf den Gewinn des IHVs schließen kann, also in diesem, von Ailuros angesprochenen Fall, bezogen auf seine angesprochene $1600 teure Lösung. Pro Einheit, nicht absolut.

Mit einer gedachten $1600 teuren 4-Chip Lösung, muss das für den IHV eben nicht weniger Gewinn bedeuten, da der IHV pro verkaufter GPU (unter Berücksichtigung des Marktes) abrechnet.

Überhaupt muss man hier differenzieren, zwischen den theoretisch und praktisch zwar anwendbaren Marktgesetzen und den jeweiligen Märkten, bei denen diese Gesetze aber teilweise auch durch die gebotene Mehr-Performance fast vollkommen außer Kraft gesetzt werden.

Der Workstation-Markt wächst bei Nvidia um etwa 40% von Jahr zu Jahr, und hier sind exorbitante Margen (Gewinne) im Spiel, was auch mit ein Grund ist, warum NV hier eine "günstige" Gelegenheit nutzt, um im Vergleich zum Desktop-Markt völlig überzogene Preise für im Endeffekt die gleiche GPU verlangen zu können. Rein aus der Sicht des IHVs, versteht sich.

Quad-SLi gäbe es nicht, wäre der Wunsch nach Mehr-Performance nicht vorhanden, und natürlich NVs Wunsch, dadurch den Absatz noch weiter steigern zu können und gleichzeitig die Margen zu maximieren.

Als "netten" Nebeneffekt wahrt man sich dadurch den Vorsprung und kann dadurch natürlich auch problemlos den MSRP sehr niedrig ansetzen. Der Gewinn für den IHV muss pro Einheit darunter aber nicht leiden, im Gegenteil.

Ailuros
2006-02-28, 11:38:52
Die Marktgesetze und/oder eine gegebene Preis-/Menge-Relation stelle ich nicht in Frage, die kenne ich natürlich selbst. Mir geht es eher darum, dass man von einem MSRP einer SKU/einer Multi-Chip-Lösung sicher nicht auf den Gewinn des IHVs schließen kann, also in diesem, von Ailuros angesprochenen Fall, bezogen auf seine angesprochene $1600 teure Lösung. Pro Einheit, nicht absolut.

$799 fuer GX2; und ich frage nochmal mit 512MB oder 1024MB GDDR3 fuer die GPU insgesamt?

Mit einer gedachten $1600 teuren 4-Chip Lösung, muss das für den IHV eben nicht weniger Gewinn bedeuten, da der IHV pro verkaufter GPU (unter Berücksichtigung des Marktes) abrechnet.

Uhmmmm FOB fuer GX2 ist $699.

Überhaupt muss man hier differenzieren, zwischen den theoretisch und praktisch zwar anwendbaren Marktgesetzen und den jeweiligen Märkten, bei denen diese Gesetze aber teilweise auch durch die gebotene Mehr-Performance fast vollkommen außer Kraft gesetzt werden.

Ich hab doch sales synergy oben erwaehnt, und wenn wir schon diese Preise erwaehnen ist es wohl klar dass es sich um mainstream PC handelt, denn Quadros sind um einiges teurer.

Der Workstation-Markt wächst bei Nvidia um etwa 40% von Jahr zu Jahr, und hier sind exorbitante Margen (Gewinne) im Spiel, was auch mit ein Grund ist, warum NV hier eine "günstige" Gelegenheit nutzt, um im Vergleich zum Desktop-Markt völlig überzogene Preise für im Endeffekt die gleiche GPU verlangen zu können. Rein aus der Sicht des IHVs, versteht sich.

Quad-SLi gäbe es nicht, wäre der Wunsch nach Mehr-Performance nicht vorhanden, und natürlich NVs Wunsch, dadurch den Absatz noch weiter steigern zu können und gleichzeitig die Margen zu maximieren.

Kein Zweifel siehe oben.

Als "netten" Nebeneffekt wahrt man sich dadurch den Vorsprung und kann dadurch natürlich auch problemlos den MSRP sehr niedrig ansetzen. Der Gewinn für den IHV muss pro Einheit darunter aber nicht leiden, im Gegenteil.

Ich hab zwar keine Ahnung aber ich hab das Gefuehl dass GX2 nicht auf den vollen 650MHz getaktet sein wird, nur so nebenbei.

Sonst zweiter Paragraph: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4024990&postcount=661

Ich hab das meiste in anderen Worten schon erwaehnt, bevor ich zu dem Post in Frage weiter unten kam. Ich hab eben mal wieder fuer mainstream PC ausgekapselt.

Ailuros
2006-02-28, 11:41:23
(Außerdem hat man so noch viel Wachstumspotential für den G80 ;) )

Neben all dem Geblubber ob G71 dies oder das, es ist wohl doch am Ende besser wenn G80 ein bisschen Luftraum fuer einen moeglichen Leistungsunterschied im Vergleich zu G71 hat als gar keinen oder dass er sogar noch langsamer ankommen koennte.

Sunrise
2006-02-28, 15:35:30
$799 fuer GX2; und ich frage nochmal mit 512MB oder 1024MB GDDR3 fuer die GPU insgesamt?Pro GPU, nicht pro SKU. Darauf bezog sich mein Kommentar zu den Gewinnen (und nur aus Sicht des IHVs, was du angesprochen hattest).
Aus der Sicht der AIBs sieht die Sache natürlich anders aus.

Ich hab doch sales synergy oben erwaehnt, und wenn wir schon diese Preise erwaehnen ist es wohl klar dass es sich um mainstream PC handelt, denn Quadros sind um einiges teurer.Du hattest anscheinend noch daran geschrieben (dein Edit war um 15:50), während ich meine allererste Frage (15:40) zur Erläuterung deiner Aussage im ersten Beitrag abgeschickt hatte. Hätte ich diesen Teil im gleichen Absatz vorgefunden, wäre ich darauf auch nicht eingegangen.

Nur, im gleichen Absatz eine $1600 teure Lösung als Beispiel zu nennen, dann auf Mainstream zu kommen und daraus eine Schlussfolgerung bzgl. des Gewinns des IHVs abzuleiten, ist aus meiner Sicht etwas unglücklich. :wink:

Ich hab zwar keine Ahnung aber ich hab das Gefuehl dass GX2 nicht auf den vollen 650MHz getaktet sein wird, nur so nebenbei.
Wenn ich mir anschaue, dass NV für die GTX bereits Dual-Slot-Kühlung benötigt und dies ja auch eines der Grundlagen war, mit denen ich/wir seit letztem Jahr auf B3D spekuliert hatten, dann denke ich, ist es abzusehen, dass man mit Zweien solcher GPUs und schnellem Speicher, doch reichlich schnell an thermische Grenzen stoßen sollte. Insofern ist deine Vermutung mehr als nur möglich, wenn nicht sogar zwingend erforderlich.

mapel110
2006-02-28, 15:38:49
Neben all dem Geblubber ob G71 dies oder das, es ist wohl doch am Ende besser wenn G80 ein bisschen Luftraum fuer einen moeglichen Leistungsunterschied im Vergleich zu G71 hat als gar keinen oder dass er sogar noch langsamer ankommen koennte.
Wenn sie beim G71 das Speicherinterface nicht verbessert haben, gibts für G80 noch reichlich Spielraum nach oben. Da muss man keine Luft lassen.

Ich denke auch, das nvidia sicherlich nicht damit gerechnet hat, wie gut die zusätzliche Shaderpower beim R580 durchschlägt.

Ailuros
2006-02-28, 16:22:09
Pro GPU, nicht pro SKU. Darauf bezog sich mein Kommentar zu den Gewinnen (und nur aus Sicht des IHVs, was du angesprochen hattest).
Aus der Sicht der AIBs sieht die Sache natürlich anders aus.

Angenommen es sind 1GB ram auf einer GX2, sieht mir der Luftraum fuer Gewinne im PC mainstream Markt nicht besonders gross aus bei einem $799 MSRP (stets im Vergleich zu $499 bei einer 512MB 7900GTX).

Du hattest anscheinend noch daran geschrieben (dein Edit war um 15:50), während ich meine allererste Frage (15:40) zur Erläuterung deiner Aussage im ersten Beitrag abgeschickt hatte. Hätte ich diesen Teil im gleichen Absatz vorgefunden, wäre ich darauf auch nicht eingegangen.

Ich hatte reunion's Post zu schnell gelesen und sah den 3dfx "hint" erst nachdem ich geantwortet hatte.

Nur, im gleichen Absatz eine $1600 teure Lösung als Beispiel zu nennen, dann auf Mainstream zu kommen und daraus eine Schlussfolgerung bzgl. des Gewinns des IHVs abzuleiten, ist aus meiner Sicht etwas unglücklich. :wink:

Unkosten fuer GPU Herstellung und Verkaufsvolumen. Ein quad-SLi setup koennte ja froh sein wenn er selbst ein 0.5 Prozentual erreichen wuerde und selbst das ist grosszuegig. Gegenueber einem eingeschaetzten 30-35% fuer mainstream GPUs sehe ich nicht ein was hier gerade ungluecklich sein soll. Stets nur auf mainstream PC und keine profi-Maerkte konzentiert.


Wenn ich mir anschaue, dass NV für die GTX bereits Dual-Slot-Kühlung benötigt und dies ja auch eines der Grundlagen war, mit denen ich/wir seit letztem Jahr auf B3D spekuliert hatten, dann denke ich, ist es abzusehen, dass man mit Zweien solcher GPUs und schnellem Speicher, doch reichlich schnell an thermische Grenzen stoßen sollte. Insofern ist deine Vermutung mehr als nur möglich, wenn nicht sogar zwingend erforderlich.

Falls meine These Hand und Fuss haben sollte, erklaert es mir leicht den Unterschied zwischen GT@450 und GTX@650MHz.

450MHz ---> GT
550MHz (?) ---> GX2
650MHz ---> GTX

Ailuros
2006-02-28, 16:28:23
Wenn sie beim G71 das Speicherinterface nicht verbessert haben, gibts für G80 noch reichlich Spielraum nach oben. Da muss man keine Luft lassen.

Ich denke auch, das nvidia sicherlich nicht damit gerechnet hat, wie gut die zusätzliche Shaderpower beim R580 durchschlägt.

Die Vorraussetzungen fuer D3D10 sind ziemlich gross, was bei X extra Transistorn-Aufwand fuer Komplianz die Chancen fuer viel mehr Leistung mindern wuerde.

Ich schaetze eigentlich nicht mehr als 48 PS ALUs auf G80 (aber wohl doch entkoppelt diesmal). Wo klingt der Unterschied groesser was finale Leistung betrifft? Bei 6 oder 8 quads bei einem theoretischen G71?

NVIDIA war schon ~Ende 2004 bewusst dass R580 drei mal so viel ALUs als R520 haben wird.

Sunrise
2006-02-28, 17:52:42
Angenommen es sind 1GB ram auf einer GX2, sieht mir der Luftraum fuer Gewinne im PC mainstream Markt nicht besonders gross aus bei einem $799 MSRP (stets im Vergleich zu $499 bei einer 512MB 7900GTX).Diese Diskussion verfolge ich bei B3D auch schon eine Weile und ich kann mir ehrlich gesagt nur an den Kopf fassen, zu welchen Schlussfolgerungen manche Leute dort kommen.

Alleine schon aus der Perspektive, dass Nvidia mit Sicherheit keine SKUs vorstellen wird, bei denen sie sich ins eigene Fleisch schneiden würden, die Margen also gering bis unterdurchschnittlich sein müssten, wäre die abgesetzte Menge (den Markt mal komplett außen vorgelassen) entsprechend hoch.

Wenn wir mal die 7900GT als Beispiel nehmen, dann dient ihnen diese als Basis, und natürlich müssen bereits dort entsprechende Margen vorhanden sein, um letztendlich Gewinne (gerechnet auf die Masse) einzufahren.

NVs Ziel ist es ja gerade bei G7X, "die Margen noch weiter zu steigern". Durch 90nm sind ihre ohnehin schon sehr guten Margen auf 110nm mindestens gleich gut (auch wieder auf die Masse gerechnet), sodass sie diesen Vorteil auch 1:1 mitnehmen.

Bei der GTX und/oder der GX2 (dieser Suffix erinnert mich irgendwie an S3) sind die Margen, bzw. letzendlich die Gewinne in Summe und in Masse sicherlich geringer, betrachtet man aber nur die GPUs, also isoliert von dem Rest, dann dürfte das keine Rolle spielen, da sie ohnehin beträchtliche Gewinne mit G70@110nm einfuhren und fahren. Denn die Mengen sind hier ohnehin geringer, und wenn sie dadurch 5% verlieren sollten (was ich nicht glaube, denn NV ist bei den Margen bereits weit über 30%), ist das sicher kein Beinbruch.

Gegenueber einem eingeschaetzten 30-35% fuer mainstream GPUs sehe ich nicht ein was hier gerade ungluecklich sein soll. Stets nur auf mainstream PC und keine profi-Maerkte konzentiert.Du machst im Vergleich zu deiner anfänglichen, sehr allgemein gehaltenen Aussage jetzt mehrfache Einschränkungen, was natürlich den Sinn (für den Leser) insgesamt etwas verändert. Unglücklich formuliert deshalb, weil die - nimmst du deinen nachträglichen Edit einmal weg - Reihenfolge, in der du deine obigen 3 Aussagen gemacht hattest etwas "unglücklich" war. Darauf bezog sich das.

Nachdem du das nachträglich editiert hattest, hast du deine Aussage nachvollziehbarer gemacht und jetzt verstehe ich auch, was du damit sagen wolltest.

Falls meine These Hand und Fuss haben sollte, erklaert es mir leicht den Unterschied zwischen GT@450 und GTX@650MHz.

450MHz ---> GT
2x 550MHz (?) ---> GX2
650MHz ---> GTXIst möglich. Man muss (auch hinsichtlich Dell) in einem vorgegebenen "thermal envelope" bleiben, und die Kühlung sollte (bei Quad-SLi wird die Sache ja umso kritischer) natürlich im Stande sein, die Wärme auch abzuführen. Zusätzlich spielen hier die Yields eine wichtige Rolle, denn davon haben wir aktuell keine Eindrücke oder Aussagen. Die GT muss breit verfügbar sein und die GTX wird wohl am oberen, sicheren Ende des Möglichen liegen, insofern hätte die GX2 dazwischen natürlich auch reichlich Platz.

Ailuros
2006-02-28, 23:52:05
Du machst im Vergleich zu deiner anfänglichen, sehr allgemein gehaltenen Aussage jetzt mehrfache Einschränkungen, was natürlich den Sinn (für den Leser) insgesamt etwas verändert. Unglücklich formuliert deshalb, weil die - nimmst du deinen nachträglichen Edit einmal weg - Reihenfolge, in der du deine obigen 3 Aussagen gemacht hattest etwas "unglücklich" war. Darauf bezog sich das.

Ich denke eben mehr als ich schreibe; definitiv ein Fehler denn niemand kann mit mir mitdenken.

Ist möglich. Man muss (auch hinsichtlich Dell) in einem vorgegebenen "thermal envelope" bleiben, und die Kühlung sollte (bei Quad-SLi wird die Sache ja umso kritischer) natürlich im Stande sein, die Wärme auch abzuführen. Zusätzlich spielen hier die Yields eine wichtige Rolle, denn davon haben wir aktuell keine Eindrücke oder Aussagen. Die GT muss breit verfügbar sein und die GTX wird wohl am oberen, sicheren Ende des Möglichen liegen, insofern hätte die GX2 dazwischen natürlich auch reichlich Platz.

7k9GTX hat den gleichen Kuehler als GTX512 (sieht mir zumindest identisch aus) und die 7k9GT hat einen ziemlich kleinen der nichtmal den Speicher ueberdeckt. Eine GX2 hab ich noch nicht gesehen bis jetzt.

Sunrise
2006-03-01, 00:00:56
Ich denke eben mehr als ich schreibe; definitiv ein Fehler denn niemand kann mit mir mitdenken.
Dafür ist ja glücklicherweise das Forum da, damit man sich austauschen kann und ggf. seine Aussagen so zurechtrücken kann, wie sie auch gemeint waren.

Um ein kleines Lob vorwegzuschicken: Mit dir kann man sich sehr gut unterhalten, eben da ich auch weiß, das hier einiges an Background vorhanden ist. Dass man nicht immer alles ausführlichst zu Papier bringen bzw. im Forum niederschreiben kann, ist natürlich jederzeit auch vollkommen nachvollziehbar.

LovesuckZ
2006-03-01, 13:10:36
Just before we are ready to file this, another reader from Belgium this time informed us about Point of View cards listed at its distributor. This listed Pe16 GeForce 7900GTX 512DDR3 TV/Out 2DVI 2VGA Video SLI No Games POV card for €492.72 including VAT, Pe16 GeForce 7900GT 256DDR3 TV/Out 2DVI 2VGA Video SLI for €293.00 including VAT and Pe16 GeForce 7600GT 256DDR3 TV/Out 2DVI 2VGA Video SLI POV for €197.70 including VAT.

http://www.theinquirer.net/?article=29983

[dzp]Viper
2006-03-01, 13:13:58
http://www.theinquirer.net/?article=29983

Von Gigabyte nun auch in Polen.. aber die Preise X-D


They listed GeForce 7900 GTX Gigabyte 512MB ViVO & DVI (PCI-E) with a product number, GRGF79GTXGANX79X512VB for 3100 Polish Zloty, approx €821, they listed GeForce 7900 GT Gigabyte 256MB ViVO & DVI (PCI-E) product number GRGF79GTGANX79T256DB for 1449 Zloty including VAT, approximately €384 and the last but not the least GeForce 7600 GT Gigabyte NX76T256DB-RH 256MB TV & DVI (PCI-E) product number GRGF76GTGANX76T256DB for 869 Zloty, some €230.

MuLuNGuS
2006-03-01, 13:18:39
Viper']Von Gigabyte nun auch in Polen.. aber die Preise X-D

scheint mir ein typo zu sein, die meinten sicher 2100 zloty = ~557€.

reunion
2006-03-01, 13:55:56
Und warum nicht dann bei um einiges breiterer Verfuegbarkeit nicht dann auch logischerweise einen ziemlich niedrigeren Preis.


Das ist klar. Bei besserer Verfügbarkeit wäre der Preis natürlich deutlich niedriger ausgefallen.


Sowohl R580 als G71 sind auf low-k 90nm hergestellt; nur eben hat der erste mehr Transistoren. Darauf bezog sich mein 380M Kommentar und GTX512 ist auch nicht irrelevant da es 302M@110nm mit 550MHz sind.


Der Markt regelt den Preis. Selbst wenn G71 nur 10mio Transistoren hätte, und trotzdem schneller als R580 wäre, würde nV für G71 mehr verlangen können, als ATi für R580.


Bei Ultra-seltenen Modellen ist ein seltener Speicher eine gute Ausrede.


Toll, und was hat man davon?
Würde der Speicher wie von dir behauptete overkill sein, würde man mit Sicherheit die Taktraten zurückschrauben und damit den Gewinn in die Höhe schrauben.


Sowohl G7x als auch R5x0 erscheinen ziemlich balancierte GPUs fuer das was sie sein sollten. Die G70 hatte 40% mehr Fuellrate als NV40 aber nur 3GB/s mehr Bandbreite. Ueber 1600*1200 werden die Unterschiede zwischen den beiden sogar noch radikaler, weil NV40 eben nicht fuer so hohe Aufloesungen optimiert wurde. Wieviel Bandbreite eine GPU hat ist weniger wichtig, sondern was diese genau damit anstellen kann.

Natürlich, nur wurde am G70 offensichtlich nichts verändert, also wird G71 logischerweise auch dieselbe Bandbreiten-Effizienz wie G70 aufweisen.


GX2 ist fuer quad-SLi gedacht. Deshalb erwaehnte ich auch irgendwo "ultra-Verrueckte".


Trotzdem kann man die Karte auch einzeln verwenden.


Das mit der 3dfx-Manier ist auch Quark. Nicht nur hatte ATI dual chip Loesungen vor 3dfx (Rage Fury MAXX), sondern arbeitete NV mit multi-GPU Systemen im Profi Markt bevor sich die vorigen 3dfx-engineers in der Firma anpassen konnten. Fuer die die es verpasst haben 3DLabs ist weg vom Fenster was den profi-PC Markt betrifft, was eben Dominanz im high end Bereich dieses Marktes fuer wen wohl heisst.

Das Konzept heisst sales synergy und mit diesem braucht ATI ein bisschen mehr Uebung anscheinend, was auch wieder auf die Entwicklung von zu vielen und unterschiedlichen Konzepten fuehrt. Anstatt das multi-GPU Konzept als Verzweiflungs-akt anzudeuten, wuerde ich es ein bisschen schaerfer ueberdenken.

Sowohl ATI und NVIDIA sind zu gross geworden und muessen alternative Maerkte finden, um weiter zu wachsen und den Umsatz zu steigern. NVIDIA scheint fuer die absehbare Zeit den Profi und vielleicht sogar Server Markt zu gewinnen, wobei ATI viel bessere Chancen im PDA/mobile und laptop Markt hat und haben wird.

Das ist mir alles bewusst. Das war doch nur eine Anspielung auf den 3dfx-Kauf von nV.

reunion
2006-03-01, 14:02:52
Noch was vom INQ: http://www.theinq.com/?article=29985

Undertaker
2006-03-01, 14:27:01
die widersprechen sich in der news irgendwie selber... außerdem ist 650 -> ~710mhz eher wenig...

Ailuros
2006-03-01, 16:13:23
Der Markt regelt den Preis. Selbst wenn G71 nur 10mio Transistoren hätte, und trotzdem schneller als R580 wäre, würde nV für G71 mehr verlangen können, als ATi für R580.

Behalte man den Gedanken (***).

Toll, und was hat man davon?
Würde der Speicher wie von dir behauptete overkill sein, würde man mit Sicherheit die Taktraten zurückschrauben und damit den Gewinn in die Höhe schrauben.

Gleiches gilt auch fuer G71. Sowohl die GTX als auch die GTX512 haben 1.1ns Speicher. Du wolltest was nochmal sagen?

Natürlich, nur wurde am G70 offensichtlich nichts verändert, also wird G71 logischerweise auch dieselbe Bandbreiten-Effizienz wie G70 aufweisen.

Was wurde zwischen NV40 und G70 nicht veraendert genau was die Bandbreiten-Effizienz betrifft? Mir ist zwar fuer G71 keine Aenderungen bewusst aber ich erwarte auch keine.

Anders rum gefragt wieso schnallt ATI nicht mehr Bandbreite auf ihre R580?

Trotzdem kann man die Karte auch einzeln verwenden.

Hast Du den Gedanken oben behalten? Ja den --->(***) hier. Warum dann nur $799 und nicht um einiges mehr? Spekuliere ich auf 2*550MHz + 1GB GDDR3 ist das Resultat teilweise bis zu +80% ueber der GTX512.

Das ist mir alles bewusst. Das war doch nur eine Anspielung auf den 3dfx-Kauf von nV.

Ist aber genauso Bloedsinn wie mit aehnlichen Anspielungen auf den ArtX Aufkauf von ATI.

Ailuros
2006-03-01, 16:15:21
Noch was vom INQ: http://www.theinq.com/?article=29985

Die Anspielung hab ich schon weiter oben im Thread gemacht und sie bezog sich eher auf Vendors wie BFG und mit welchen Takt und Speicher-frequenzen diese ihre GPUs vorstellen werden. Aber natuerlich nicht nur mit $499; ist ja wohl verstaendlich.

reunion
2006-03-01, 22:47:38
Behalte man den Gedanken (***).


Okay. =)


Gleiches gilt auch fuer G71. Sowohl die GTX als auch die GTX512 haben 1.1ns Speicher. Du wolltest was nochmal sagen?


Das offenbar beide daraus einen Vorteil erziehlen, sonst würde man einen solchen Speicher nicht verbauen.


Hast Du den Gedanken oben behalten? Ja den --->(***) hier. Warum dann nur $799 und nicht um einiges mehr? Spekuliere ich auf 2*550MHz + 1GB GDDR3 ist das Resultat teilweise bis zu +80% ueber der GTX512.


Naja, der Preis ist immerhin um 60% höher als bei der GTX512, und SLi skaliert ja auch bei weitem nicht immer linear.

Fetza
2006-03-02, 00:16:53
Anders rum gefragt wieso schnallt ATI nicht mehr Bandbreite auf ihre R580?


Weil die füllrate im vergleich zum r520 sich nicht erhöht hat, weiterhin 16 pixelpipelines und 16 TMUs. Im vergleich zum G71 der doch angeblich 16 pixelpipelines mehr haben soll und mit 650> mehr takt wohl doch auf eine erheblich größere füllrate kommen sollte. D.h schätze ich mal das dieser chip auch sehr angewiesen sein wird auf speichertakt.

greetz

Fetza

Ailuros
2006-03-02, 01:24:34
Naja, der Preis ist immerhin um 60% höher als bei der GTX512, und SLi skaliert ja auch bei weitem nicht immer linear.

GTX512 hatte einen MSRP von $500 beim launch oder was genau hab ich jetzt verpasst?

Multi-GPU Loesungen skalieren in ziemlich den meisten neuesten Spielen. Zwar hast Du trotz allem mit der Skalierung schon recht (ich schrieb uebrigens bis zu), aber zwei X1900XTs wuerden mich momentan etwas ueber $1000 kosten, und da skaliert die Leistung insgesamt noch weniger wenn kein AFR Profil eingesetzt wurde.

Ailuros
2006-03-02, 01:30:27
Weil die füllrate im vergleich zum r520 sich nicht erhöht hat, weiterhin 16 pixelpipelines und 16 TMUs. Im vergleich zum G71 der doch angeblich 16 pixelpipelines mehr haben soll und mit 650> mehr takt wohl doch auf eine erheblich größere füllrate kommen sollte. D.h schätze ich mal das dieser chip auch sehr angewiesen sein wird auf speichertakt.

greetz

Fetza

Wer spielt heutzutage noch multitexturing schwere DX7.0 Spiele wie UT2004?

X1900XT=

48 ALUs * 12 FLOPs * 0.65GHz = 374 GFLOPs / 49.6 GB/s

7900XT=

24 ALUs * 16 FLOPs * 0.65GHz = 250 GFLOPs / 51.2 GB/s

Eine korrektere Antwort waere dass R5x0 durch ihren Speichercontroller ihre Bandbreite mit Multisampling besser ausnutzen koennen.

Gast
2006-03-02, 11:06:06
Kann man das wirklich so rechnen, schließlich sind die ALUs des G70/71 ja um einiges Leistungsstärker (sollte man hier nicht eher von 48 ALUs sprechen?!) als bei der X1900

ShadowXX
2006-03-02, 11:24:48
Kann man das wirklich so rechnen, schließlich sind die ALUs des G70/71 ja um einiges Leistungsstärker (sollte man hier nicht eher von 48 ALUs sprechen?!) als bei der X1900

Das mit den 48ALus beim G70 kommt auf die Sichtweise an:

G70 hat entweder 24 ALus, die jeweils 2 MADD können oder 48 ALUs die jeweils 1 MADD können.
....Rein rechnerrisch kommt natürlich das gleiche bei raus.

r580 hat 48 ALUs die jeweils 1 MADD + 1ADD können.

Also hat der r580 defintiv mehr Rechenleistung im PS-ALU-Bereich (die Taktraten nehmen sich ja nix).

Ailuros
2006-03-02, 11:56:48
Kann man das wirklich so rechnen, schließlich sind die ALUs des G70/71 ja um einiges Leistungsstärker (sollte man hier nicht eher von 48 ALUs sprechen?!) als bei der X1900

Welchen Unterschied macht es ob ich 48 * 8 FLOPs oder 24 * 16 FLOPs rechne?

Jedesmal wenn ich erwaehnte dass G70 48 ALUs hat, kamen die ATI Heinis an und sagten dass R580 dann gleich 96 hat. Den Wirrwarr koennen sich beide schenken ich zaehle mit Absicht nur noch in FLOPs/ALU.

robbitop
2006-03-02, 12:01:05
Das mit den 48ALus beim G70 kommt auf die Sichtweise an:

G70 hat entweder 24 ALus, die jeweils 2 MADD können oder 48 ALUs die jeweils 1 MADD können.
....Rein rechnerrisch kommt natürlich das gleiche bei raus.

r580 hat 48 ALUs die jeweils 1 MADD + 1ADD können.

Also hat der r580 defintiv mehr Rechenleistung im PS-ALU-Bereich (die Taktraten nehmen sich ja nix).
Nun die ADD4 sind allerdings nicht immer verfügbar, wenn auch ein ADD4 aus der MAD Unit verfügbar wäre (da aus der MiniALU verfügbar). Genaueres müsste man mal nachmessen.
Allerdings hat R580 einen großen Vorteil durch die Entkopplung der Einheiten.
Bei Dot3 Mapping hingegen kann G70 wieder punkten durch NRM_PP 4free.
Insgesamt sollte R580 aber natürlich etwas vorn liegen.
Mir geht nur diese stupide Rechnerei mit den MADDs (was neuerdings zur Mode wird) auf den Geist. Es wird allerdings immer schwieriger die PS Leistung differenziert zu betrachten.
Z.B. ist diese Rechnerei ziemlich nutzlos, wenn die ALUs nicht splitten können. Dann sagt das Ergebnis nicht viel über die Realität aus (oder wenn noch andere Faktoren klemmen) ... siehe NV3x.

ShadowXX
2006-03-02, 13:27:32
Nun die ADD4 sind allerdings nicht immer verfügbar, wenn auch ein ADD4 aus der MAD Unit verfügbar wäre (da aus der MiniALU verfügbar). Genaueres müsste man mal nachmessen.
Allerdings hat R580 einen großen Vorteil durch die Entkopplung der Einheiten.
Bei Dot3 Mapping hingegen kann G70 wieder punkten durch NRM_PP 4free.
Insgesamt sollte R580 aber natürlich etwas vorn liegen.

Du erwähnst es ja bereits indirekt...in der G70 Pipeline sind auch die 2 MADDs nicht immer verfügbar.


Mir geht nur diese stupide Rechnerei mit den MADDs (was neuerdings zur Mode wird) auf den Geist. Es wird allerdings immer schwieriger die PS Leistung differenziert zu betrachten.
Z.B. ist diese Rechnerei ziemlich nutzlos, wenn die ALUs nicht splitten können. Dann sagt das Ergebnis nicht viel über die Realität aus (oder wenn noch andere Faktoren klemmen) ... siehe NV3x.
Prinzipiell stimme ich dir zu....aber wie sonst soll man das ganze theoretisch noch betrachten?

Es wird immer schwerer und wenn man dann an die US-Architekturen denkt, wirds noch komplizierter.

Im großen und ganze glaube ich sowieso nicht, das sich r580 und G71 sich groß was geben/nehmen werden.....im Overall wird das auf ein Pari rauslaufen (wie fast immer in letzter Zeit....)

reunion
2006-03-02, 13:46:27
GTX512 hatte einen MSRP von $500 beim launch oder was genau hab ich jetzt verpasst?


Ich dachte du sprichst von der 7900GTX 512. Die 7800GTX 512 gibt es ja auch schon einige Monate, logisch, dass die Karte aus P/L-Sicht heute nicht mehr konkurrenzfähig ist.

Aber auch diese wird mit dem Launch des G71 im Preis fallen müssen, oder was wahrscheinlicher ist, die Karte fliegt komplett aus dem Sortiment.


Multi-GPU Loesungen skalieren in ziemlich den meisten neuesten Spielen. Zwar hast Du trotz allem mit der Skalierung schon recht (ich schrieb uebrigens bis zu), aber zwei X1900XTs wuerden mich momentan etwas ueber $1000 kosten, und da skaliert die Leistung insgesamt noch weniger wenn kein AFR Profil eingesetzt wurde.

Richtig, aber wie schon gesagt, wenn ich von der 7900GTX 512 mit 650/800 um 499$ ausgehen, geht der Preis für einen Dual-Karte mit vermutlich deutlich niedrigeren Taktraten um 799$ schon halbwegs in Ordnung. ATi wird sich natürlich auch etwas im Preis mäßigen müssen.

Ailuros
2006-03-02, 14:24:06
Insgesamt sollte R580 aber natürlich etwas vorn liegen.

"Etwas" ist mir zu maessig.

Mir geht nur diese stupide Rechnerei mit den MADDs (was neuerdings zur Mode wird) auf den Geist. Es wird allerdings immer schwieriger die PS Leistung differenziert zu betrachten.
Z.B. ist diese Rechnerei ziemlich nutzlos, wenn die ALUs nicht splitten können. Dann sagt das Ergebnis nicht viel über die Realität aus (oder wenn noch andere Faktoren klemmen) ... siehe NV3x.

Kritik ist steril wenn man nichts besseres als Gegenvorschlag anbieten kann.

Fetza
2006-03-03, 06:11:36
Wer spielt heutzutage noch multitexturing schwere DX7.0 Spiele wie UT2004?

X1900XT=

48 ALUs * 12 FLOPs * 0.65GHz = 374 GFLOPs / 49.6 GB/s

7900XT=

24 ALUs * 16 FLOPs * 0.65GHz = 250 GFLOPs / 51.2 GB/s

Eine korrektere Antwort waere dass R5x0 durch ihren Speichercontroller ihre Bandbreite mit Multisampling besser ausnutzen koennen.

Ich glaube da haben wir uns jetzt missverstanden. Was du sagst ist mir durchaus klar, ich wollte vielmehr damit sagen, das der g71 (so wie ich eben aus den news entnommen habe nun doch nicht) 32 pipes haben sollte, und er deshalb sehr dringend auf höheren speichertakt angewiesen wäre aufgrund der daraus resultierenden größeren füllrate. Oder habe ich da was falsch verstanden?

greetz

Fetza

Ailuros
2006-03-03, 13:09:05
Ich glaube da haben wir uns jetzt missverstanden. Was du sagst ist mir durchaus klar, ich wollte vielmehr damit sagen, das der g71 (so wie ich eben aus den news entnommen habe nun doch nicht) 32 pipes haben sollte, und er deshalb sehr dringend auf höheren speichertakt angewiesen wäre aufgrund der daraus resultierenden größeren füllrate. Oder habe ich da was falsch verstanden?

greetz

Fetza

Fuer mich war die Entscheidung fuer 6 quads eher relevanter zu der vorhergesehenen Leistung von G80 als alles andere.

Angenommen sie wissen dass in 90 oder 80nm irgendwo 400-450M Transistoren reingequetscht werden koennen bei einer X logischen Taktrate. Minus die ziemlich hohen Vorraussetzungen fuer D3D10..... ich schaetze also dass mit 6 quads mehr Luftraum uebrig bleiben wuerde, damit G80 nicht am Ende als nur marginal oder gleichschneller (im Vergleich zu G71) Technologie-Vorzeiger wird.

ATI wird es hier auch nicht besonders leicht haben; der Pegel mit den 380M des R580 und dessen Bildqualitaet ist nicht gerade niedrig gesetzt. Plus D3D10 und sagen wir mal 2x mal so viel Leistung scheint mir auch hier im Raum des unmoeglichen momentan.

***edit: die Entscheidung wurde wohl auch nicht im letzten Moment getroffen; wohl eher schon vor G70 auf die Ladentische kam und man wusste gewiss schon damals wie man G80 einschaetzen kann.

Nightspider
2006-03-03, 15:29:58
PCGH hat ja angeblich alle 6 neuen 7800/7900 Karten bekommen aber darf erst aber der Cebit berichten.
Dann haben die von PCGH ja jetzt genug Zeit, um die Grakas zu testen und uns dann ausführliche Berichte zu geben.

Bin wirklich auf die wahre Leistung der 7900GT/X gespannt. :)

Ailuros
2006-03-03, 16:38:53
PCGH hat ja angeblich alle 6 neuen 7800/7900 Karten bekommen aber darf erst aber der Cebit berichten.
Dann haben die von PCGH ja jetzt genug Zeit, um die Grakas zu testen und uns dann ausführliche Berichte zu geben.

Bin wirklich auf die wahre Leistung der 7900GT/X gespannt. :)

Was wohl eine 7900GT leisten wird mit 450MHz im Vergleich zu einer 7800GTX@430MHz?

Gast
2006-03-03, 16:46:27
Was wohl eine 7900GT leisten wird mit 450MHz im Vergleich zu einer 7800GTX@430MHz?
Sie wird knapp unter X1800 XT Level sein was zu schwach ist weil die 7900 Gt kein HDr-AA kann ganz einfach.Die 7900 Serie wird keine neuen Futures bieten das ist eine Frechheit?Weil bald jedes Spiel HDr-AA unterstützt oder?

Gast
2006-03-03, 16:49:05
Weil bald jedes Spiel HDr-AA unterstützt oder?

nö sicher nicht, es wird noch einige zeit die ausnahme bleiben.

bis HDR (und falls vorhanden dann natürlich auch FSAA) breitflächig verwendet wird sind sicherlich D3D10-karten standard.

Gast
2006-03-03, 17:03:02
Sie wird knapp unter X1800 XT Level sein was zu schwach ist weil die 7900 Gt kein HDr-AA kann ganz einfach.Die 7900 Serie wird keine neuen Futures bieten das ist eine Frechheit?Weil bald jedes Spiel HDr-AA unterstützt oder?Streng dich doch bitte mal ein wenig an beim Schreiben. Deine Texte lassen sich ja kaum lesen. Wenn du nicht weißt, wie ein Wort geschrieben wird, gibt es (Inet sei dank) genug Möglichkeiten nachzusehen, wie man es denn richtig schreibt.

Ailuros
2006-03-03, 17:07:57
Sie wird knapp unter X1800 XT Level sein was zu schwach ist weil die 7900 Gt kein HDr-AA kann ganz einfach.Die 7900 Serie wird keine neuen Futures bieten das ist eine Frechheit?Weil bald jedes Spiel HDr-AA unterstützt oder?


Was die gesamte G7x Serie kann oder nicht kann ist bekannt und Du sagst mir auch nichts neues. Sonst aendert Dein Gelabere aber leider auch nichts an was der eine oder andere IHV am Ende verkaufen wird. Ergo zu Deinem Bereuen werden sich GPUs wie 7900GT weiterhin sehr gut verkaufen.

Gast
2006-03-03, 17:46:29
Ne werden sie nicht!Wenn eine 7900 GT langsamer ist als eine X1800 XT warum sollte sich dann einer die Karte kaufen?:rolleyes:Die X1800 XT kann immerhin mit besseren Futures Punkten,ich hoffe das die Reviewer das auch dazu schreiben.
Die X1800 Punktet wegen besserer Bildqualität,hq-AF unf HDr-AA.Jeder schlaue Käfer wird die Finger von der 7900 Gt lassen!Nur die wirklichen fanboys werden sich die Karte kaufen.

Meine Meinung.

Ailuros
2006-03-03, 17:50:37
Ne werden sie nicht!Wenn eine 7900 GT langsamer ist als eine X1800 XT warum sollte sich dann einer die Karte kaufen?:rolleyes:Die X1800 XT kann immerhin mit besseren Futures Punkten,ich hoffe das die Reviewer das auch dazu schreiben.

Erstens sind es Features, zweitens ist die X1800 am auslaufen dank X1900 und drittens kostete weder eine X1800XT oder X1900XT nur $299 beim Launch.

Die billigste X1800XL die Du momentan in den US finden kannst kostet $330. Wobei aber die 7900GT mit etwa 7800GTX Leistung ankommt (die momentan ~$415 kostet) und das fuer $299.

Die X1800 Punktet wegen besserer Bildqualität,hq-AF unf HDr-AA.Jeder schlaue Käfer wird die Finger von der 7900 Gt lassen!Nur die wirklichen fanboys werden sich die Karte kaufen.

Dass ATI die hoehere Bildqualitaet hat werde ich nicht verleugnen, dass Du aber selber mehr als nur ein fanboy klingst auch nicht. Ein Future dass durchaus stoerend klingt.

Gast
2006-03-03, 17:58:53
Erstens sind es Features, zweitens ist die X1800 am auslaufen dank X1900 und drittens kostete weder eine X1800XT oder X1900XL nur $299 beim Launch.



Dass ATI die hoehere Bildqualitaet hat werde ich nicht verleugnen, dass Du aber selber mehr als nur ein fanboy klingst auch nicht. Ein Future dass durchaus stoerend klingt.

Ob eine X1800 Xt beim Launch 499 $ gekostet hat wird jetzt bestimmt keinen mehr intressieren weil die Karte jetzt schon für 350 Euro zu kaufen gibt.Kann mir doch egal sein wie teuer die X1800 XT mall gekostet hat,wenn die 7900 GT gelaunched wird ist die X1800 XT preislich schon fast auf denn gleichen Level.Und dann zählt halt die pure Performance und da Punktet Ati dann.Die X1800 XT ist grade das P/L schnäppchen ich kann mir nicht vorstellen das sich das ändert wenn die 7900 GT rauskommt weil sie nicht wirklich der überflieger wird wie es aussieht.

Krustovsky
2006-03-03, 18:11:29
Darüber hinaus ist HDRR + AA im Moment (egal welche Spiele es unterstützen) in meinen Augen kein Argument. Es fehlt einfach allen am Markt befindlichen Karten an Leistung, um es in ansprechenden Auflösungen genießen zu können.

Ailuros
2006-03-03, 19:55:18
Ob eine X1800 Xt beim Launch 499 $ gekostet hat wird jetzt bestimmt keinen mehr intressieren weil die Karte jetzt schon für 350 Euro zu kaufen gibt.

Eine X1800XT mit 350 Euro? Einen Link bitte denn fuer so viel bekommt man heute im besten Fall eine XL auf dem europaeischen Markt.

Die X1800XT kostete mehr als $499 beim launch, soviel kostet sie auch heute noch:

http://www.pricewatch.com/prc.aspx?i=37&a=829252

Kann mir doch egal sein wie teuer die X1800 XT mall gekostet hat,wenn die 7900 GT gelaunched wird ist die X1800 XT preislich schon fast auf denn gleichen Level.

Du nix verstehen oder wollen nix verstehen ja?

X1800XL 256MB:

http://www.pricewatch.com/prc.aspx?i=37&a=850965

minimal $370 momentan

7800GT 256MB:

http://www.pricewatch.com/prc.aspx?i=37&a=729489

minimal $275 momentan

7800GTX 256MB:

http://www.pricewatch.com/prc.aspx?i=37&a=375260

minimal $415 momentan

Mal fettgedruckt:

Eine 7900GT duerfte mit 450MHz und 6 quads etwa das gleiche leisten als eine 7800GTX, und dabei kostet die erste $299, waehrend die 7800GTX immer noch heute $415 kostet.

Und dann zählt halt die pure Performance und da Punktet Ati dann.Die X1800 XT ist grade das P/L schnäppchen ich kann mir nicht vorstellen das sich das ändert wenn die 7900 GT rauskommt weil sie nicht wirklich der überflieger wird wie es aussieht.

Die 512MB X1800XT liegt nicht auf dem gleichen Preis und Leistungsniveau einer X1800XL 256MB, einer 7800GT 256MB und schon gar nicht auf dem einer 7900GT 256MB.

7900GT wird die 7800GT ersetzen, mit einem aehnlichen wie heutigen Strassenpreis aber 7800GTX leistung.

reunion
2006-03-03, 20:01:48
Eine X1800XT mit 350 Euro? Einen Link bitte denn fuer so viel bekommt man heute im besten Fall eine XL auf dem europaeischen Markt.


connect3D Radeon X1800 XT, 256MB GDDR3 ab 333€: http://www.geizhals.at/eu/a168735.html
connect3D Radeon X1800 XT, 512MB GDDR3 ab 359€: http://www.geizhals.at/eu/a168707.html


Die X1800XT kostete mehr als $499 beim launch, soviel kostet sie auch heute noch:

http://www.pricewatch.com/prc.aspx?i=37&a=829252


Huch, die haben wohl die ein oder andere Preissenkung verpasst. :|

Mal fettgedruckt:

Eine 7900GT duerfte mit 450MHz und 6 quads etwa das gleiche leisten als eine 7800GTX, und dabei kostet die erste $299, waehrend die 7800GTX immer noch heute $415 kostet.


Ja, und 'ne X1800XT bekommst du heute schon fast zum Preis der 7900GT.

fizzo
2006-03-03, 20:02:14
Massive Preissenkung bei ATI? (http://www.hartware.de/news_39535.html)

sehr interssant....

mapel110
2006-03-03, 20:05:01
Massive Preissenkung bei ATI? (http://www.hartware.de/news_39535.html)

sehr interssant....
hat aber weniger mit dem thread hier zu tun.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4039490#post4039490

fizzo
2006-03-03, 20:06:35
hat aber weniger mit dem thread hier zu tun.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4039490#post4039490

ich habe mich nur auf ailuros post bezueglich preis/leistung bezogen....

Black-Scorpion
2006-03-03, 20:07:30
Eine X1800XT mit 350 Euro? Einen Link bitte denn fuer so viel bekommt man heute im besten Fall eine XL auf dem europaeischen Markt.

Die X1800XT kostete mehr als $499 beim launch, soviel kostet sie auch heute noch:

http://www.pricewatch.com/prc.aspx?i=37&a=829252

GigaByte GV-RX18T512V-B für 349,- Euro (http://www.alternate.de/html/shop/productDetails.html?artno=JBXY01&artno=JBXY01&)
PowerColor Radeon X1800XT für 351,59Euro (http://www.mix-computer.de//mix/shop/productDetails.html?&artNo=JBXO57&)
Connect3D (Retail) X1800XT für 358.99Euro (http://www.bestseller-computer.de/?ID=10555)

'edit'
Du nix verstehen oder wollen nix verstehen ja?
Du verstehen das $ Preise hier keine Sau interessieren?

Ailuros
2006-03-03, 21:35:13
Die Preissenkung sehe ich jetzt erst und nein es tut mir leicht, die hat mich hier noch nicht erreicht; ich bekomme XL's immer noch fuer 360 Euros.

Du verstehen das $ Preise hier keine Sau interessieren?

Ich stecke den Fehler gerne ein, selbst wenn ich mit vierbeinigen Tieren diskuttiere. :P

Fetza
2006-03-04, 02:40:24
Ehrlich gesagt kann ich mir nicht vorstellen, das der g71 noch wirklich gut gegen r580 dastehen wird, ohne chipinterne verbesserungen. Denn alleine durch den höheren takt wird die karte nicht attraktiv genug sein. Da ich jetzt mal davon ausgehe das die bildquali wohl gleichbleiben wird.

Aber warten wir`s mal ab. Mein hauptanliegen ist sowieso mehr, das durch den release des g71 ati endlich die preise des r580 mal auf unter 450 euro senkt. Sollte nv das schaffen wäre die karte somit für mich trotzdem ein glücksfall :D

greetz

Fetza

Ailuros
2006-03-04, 08:05:57
Ehrlich gesagt kann ich mir nicht vorstellen, das der g71 noch wirklich gut gegen r580 dastehen wird, ohne chipinterne verbesserungen. Denn alleine durch den höheren takt wird die karte nicht attraktiv genug sein. Da ich jetzt mal davon ausgehe das die bildquali wohl gleichbleiben wird.

Aber warten wir`s mal ab. Mein hauptanliegen ist sowieso mehr, das durch den release des g71 ati endlich die preise des r580 mal auf unter 450 euro senkt. Sollte nv das schaffen wäre die karte somit für mich trotzdem ein glücksfall :D

greetz

Fetza


http://www.xbitlabs.com/news/video/display/20060303052240.html

Fetza
2006-03-05, 07:02:29
*freu* =)

robbitop
2006-03-05, 08:47:12
Die X1800XT hat aber auch Nachteile:
-sehr hohe Leistungsaufnahme
-50EUR teurer als der Einführungspreis der 7900GT
-geringere Shaderleistung
-liegt beim Takt fast am limit ... die 7900GT hingegen mit 450MHz und 90nm ... naja das kann sich jeder denken

Dafür hat die X1800XT mehr VRAM, Area AF, (und jetzt die noch unbedeutenden Features:) HDR-AA, schnelles dyn Branchin

Ailuros
2006-03-05, 09:09:57
Die X1800XT hat aber auch Nachteile:
-sehr hohe Leistungsaufnahme
-50EUR teurer als der Einführungspreis der 7900GT
-geringere Shaderleistung
-liegt beim Takt fast am limit ... die 7900GT hingegen mit 450MHz und 90nm ... naja das kann sich jeder denken

Dafür hat die X1800XT mehr VRAM, Area AF, (und jetzt die noch unbedeutenden Features:) HDR-AA, schnelles dyn Branchin

Die Vorteile ueberwiegen die Nachteile aber schon. Und fuer das was man insgesamt bekommt, haben sich die theoretischen 50 Euro Unterschied schon seit langem ausgezahlt.

robbitop
2006-03-05, 09:12:29
Naja, die Füllrate und die PS Leistung der 7900GT sind doch schon höher als die der X1800XT. Das dürfte sich bemerkbar machen.

Coda
2006-03-05, 10:22:13
Ehrlich gesagt kann mich weder G71 noch R5xx so richtig überzeugen (ausgehend von ner 256er 7800 GTX).

Ich warte ganz eindeutig lieber auf die nächste Generation.

reunion
2006-03-05, 10:30:34
(und jetzt die noch unbedeutenden Features:) HDR-AA, [...]

Als unbedeutend würde ich HDR-AA nicht sehen, zumindest 2xAA sollte mit einer X1800XT meistens möglich sein.

Naja, die Füllrate und die PS Leistung der 7900GT sind doch schon höher als die der X1800XT. Das dürfte sich bemerkbar machen.

Naja, bei der Füllrate sind es mit default-Taktraten wirklich nur Nuancen (10.8 vs. 10 GTexel/s), und ob er bei der Shaderleistung in der Praxis wirklich so schlecht dasteht, wage ich auch zu bezweifeln.

Ehrlich gesagt kann mich weder G71 noch R5xx so richtig überzeugen (ausgehend von ner 256er 7800 GTX).

Ich warte ganz eindeutig lieber auf die nächste Generation.


Von einer 7800GTX aus aufzurüsten, wäre auch wirklich Luxus IMHO. Ich gurke hingegen noch immer mit einer 6600GT herum, welche mittlerweile doch arg überholt ist, und stehe vor dem selben Problem. Aber naja, einen R300 bekommt man leider nicht jede Generation. Dann wirds halt wieder eine Mittelklassekarte.

Gandharva
2006-03-05, 11:54:25
Das die hier noch keiner gepostet hat?

CPU@1800Mhz / 7900GT@default

3DMark03
http://img462.imageshack.us/img462/8429/7900gt3dm033rn.th.jpg (http://img462.imageshack.us/my.php?image=7900gt3dm033rn.jpg)

3DMark05
http://img462.imageshack.us/img462/7905/7900gt3dm052wp.th.jpg (http://img462.imageshack.us/my.php?image=7900gt3dm052wp.jpg)

3DMark06
http://img462.imageshack.us/img462/826/7900gt3dm061bb.th.jpg (http://img462.imageshack.us/my.php?image=7900gt3dm061bb.jpg)

/edit

hier noch ein Bild der Leadtek 7900GTWill be intime for IT Show... but might not have enough stock to satisfy the demand... :cool: http://img203.imageshack.us/img203/5426/leadtek7900gtpcb0sk.th.jpg (http://img203.imageshack.us/my.php?image=leadtek7900gtpcb0sk.jpg)

mapel110
2006-03-05, 11:59:22
hm, normalweise ist doch der SM2 Score bei der 7800er zumindest höher als der SM3 Score. :|

Coda
2006-03-05, 12:09:14
Aber naja, einen R300 bekommt man leider nicht jede Generation.Bzw. so schwache Konkurenz ;)

Von einer 7800GTX aus aufzurüsten, wäre auch wirklich Luxus IMHO.Naja das dyn. branching von R5xx hätte mich schon gereizt zum rumspielen, aber mit dem TMUs kann ich drauf verzichten, weil das eigentlich wichtiger ist für mich im Moment (für Hacks hab ich einfach keine Zeit). Mir hätts dann auch ne X1800XL getan, also ein Sidegrade.

Mumins
2006-03-05, 12:20:44
Die X1800XT hat aber auch Nachteile:
-sehr hohe Leistungsaufnahme
-50EUR teurer als der Einführungspreis der 7900GT
-geringere Shaderleistung
-liegt beim Takt fast am limit ... die 7900GT hingegen mit 450MHz und 90nm ... naja das kann sich jeder denken

Dafür hat die X1800XT mehr VRAM, Area AF, (und jetzt die noch unbedeutenden Features:) HDR-AA, schnelles dyn Branchin

Meine X1800 läßt sich beim Core um 100MHz übertakten. Ich denke nicht, dass Nvidia so blöd ist und die GT sich um 200MHz übertakten läßt. Da wird einfach weniger Volt draufgegeben und schon geht nix.

robbitop
2006-03-05, 12:27:52
Meine X1800 läßt sich beim Core um 100MHz übertakten. Ich denke nicht, dass Nvidia so blöd ist und die GT sich um 200MHz übertakten läßt. Da wird einfach weniger Volt draufgegeben und schon geht nix.
BIOS VCore erhöhen und gut ist. ~600MHz werden schon drin sein.

Das wären dann ~14,4GTex/sek. Eine R520 mit 700MHz Core schafft 11,2GTex/sek.

Ganz ehrlich: die Präsenz von R580 allein läßt mich schaudern, einen R520 mit nur 16 ALUs zu kaufen. Das und die 110W die das Ding in der Praxis verballert.

reunion
2006-03-05, 12:43:28
BIOS VCore erhöhen und gut ist. ~600MHz werden schon drin sein.


Mit einer guten Kühlung vielleicht, mit dem Minikühler wage ich das allerdings zu bezweifeln.


Das wären dann ~14,4GTex/sek. Eine R520 mit 700MHz Core schafft 11,2GTex/sek.


Nur wird das Teil dann ganz schön an der Bandbreite hängen.

Ganz ehrlich: die Präsenz von R580 allein läßt mich schaudern, einen R520 mit nur 16 ALUs zu kaufen. Das und die 110W die das Ding in der Praxis verballert.

Sehe ich ähnlich, ich würde auch auf die X1900XL warten.

sklave_gottes
2006-03-05, 12:44:13
Ganz ehrlich: die Präsenz von R580 allein läßt mich schaudern, einen R520 mit nur 16 ALUs zu kaufen. Das und die 110W die das Ding in der Praxis verballert.

Die x1900 verballert noch mehr.Die alus bringen noch kaum was.Bei einem preis bis 350€ imo mit 512MB die beste karte.Die 7900gt muss erst zeigen das sie für 350€ verfügbar ist.

Coda
2006-03-05, 13:02:40
Mit einer guten Kühlung vielleicht, mit dem Minikühler wage ich das allerdings zu bezweifeln.Jo. Und? :D

Atma
2006-03-05, 13:06:21
Das die hier noch keiner gepostet hat?

CPU@1800Mhz / 7900GT@default

Läuft die 7900GT hier wirklich als SLI wie auf den Bildern oder als Single Karte ? Weil 4635 Punkte im 3DM 06 etwas schwach wären für SLI.

Gandharva
2006-03-05, 13:47:59
BIOS VCore erhöhen und gut ist. ~600MHz werden schon drin sein.Hat schon bei der 7800GTX nicht funktioniert und nur durch Zufall bei der 7800GT. Da wird man wohl einen Hardmod machen müssen, was sicher nicht jedermanns Sache ist.Ganz ehrlich: die Präsenz von R580 allein läßt mich schaudern, einen R520 mit nur 16 ALUs zu kaufen. Das und die 110W die das Ding in der Praxis verballert.Hab hier mit meinem 380W NT keine Probleme. Selbst mit OC auf 720/900.

Gandharva
2006-03-05, 13:49:31
Läuft die 7900GT hier wirklich als SLI wie auf den Bildern oder als Single Karte ? Weil 4635 Punkte im 3DM 06 etwas schwach wären für SLI.Bild 1 -> SLi
Bild 2 -> Non SLi
Bild 3 -> Non SLi

wenns stimmt...

SLi soll jedoch überall aktiviert gewesen sein. Evtl. ein Treiberbug.

Gast
2006-03-05, 14:10:34
Thema HDR+AA: Wieviele Spiele unterstützen das aktuell "out of the box"? Mir fällt eigentlich nur AoE3 ein, wenn man INT10:10:10:2 als HDR durchgehen lassen will. Far Cry, SeSAM2 und ein Spiel, für das der HDR-Patch AFAIK noch nicht angekündigt wurde, brauchten erst einiges an "Nacharbeit".


Solange ich für (beinahe) jedes Spiel einen extra-Patch abwarten muss, um das Killer-Feature (wie es einige sehen) auch nutzen zu können, ist es für mich beinahe wertlos.

Demgegenüber würde ich das WU AF als extrem nett-zu-haben ansehen, wenn es denn nur endlich eine halbwegs leise gekühlte X1900 (gern auch XL oder AiW) geben würde. Daher mein Apell an die Boardhersteller: Bastelt endlich Zalmans, Arctic Coolings oder sonstwas auf eure Karten!!!

Q
(Und nein, ich werde mir meine Garantie nicht durch Kühlertauschen kaputtmachen)

reunion
2006-03-05, 14:19:54
Demgegenüber würde ich das WU AF als extrem nett-zu-haben ansehen, wenn es denn nur endlich eine halbwegs leise gekühlte X1900 (gern auch XL oder AiW) geben würde. Daher mein Apell an die Boardhersteller: Bastelt endlich Zalmans, Arctic Coolings oder sonstwas auf eure Karten!!!


Die X1900 AIW soll relativ leise sein.

Gast
2006-03-05, 14:23:04
Die hat den, in meinen Ohren, nicht-leisen Kühler der X1800 XL und eine GPU, die mehr Hitze produziert. Das führt mich nicht gerade direkt zu der Annahme, dass hier der Kühler deutlich leiser operiert.


Q

reunion
2006-03-05, 15:51:12
Die hat den, in meinen Ohren, nicht-leisen Kühler der X1800 XL und eine GPU, die mehr Hitze produziert. Das führt mich nicht gerade direkt zu der Annahme, dass hier der Kühler deutlich leiser operiert.


Q

Ich dachte du schreibst für CB?

Die Kühllösung an sich erstaunt im positiven Sinne: Unter Windows rotiert der Lüfter im Lautstärke-Bereich der X1800 XL, belastet man das System, dreht er zudem kaum auf und bleibt auf einem verhältnismäßig angenehmen Niveau.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_all-in-wonder_radeon_x1900/1/#abschnitt_einleitung

robbitop
2006-03-05, 15:59:29
Sehe ich ähnlich, ich würde auch auf die X1900XL warten.
400EUR für eine 256MiB Karte? :|
Wärens tatsächlich 512 gewesen, wäre ich wohl auch schwach geworden..

robbitop
2006-03-05, 16:00:41
Die x1900 verballert noch mehr.Die alus bringen noch kaum was.Bei einem preis bis 350€ imo mit 512MB die beste karte.Die 7900gt muss erst zeigen das sie für 350€ verfügbar ist.
Die bringen schon was. Schau dir mal FEAR an. In Zukunft (also die nächsten Monate) wird der Trend immer und immer mehr in diese Richtung gehen. Ich kauf' doch keine Grafikkarte für nur ein paar Wochen/Monate.

robbitop
2006-03-05, 16:01:58
Hat schon bei der 7800GTX nicht funktioniert und nur durch Zufall bei der 7800GT. Da wird man wohl einen Hardmod machen müssen, was sicher nicht jedermanns Sache ist.Hab hier mit meinem 380W NT keine Probleme. Selbst mit OC auf 720/900.
Netzteil, ok aber was ist mit der abzuführenden Wärme? Und selbst dann brauchst du schon ein ziemlich gutes 380W NT (Antec?).

robbitop
2006-03-05, 16:03:25
(Und nein, ich werde mir meine Garantie nicht durch Kühlertauschen kaputtmachen)
Stand neulich mal in irgendner Zeitschrift (Interview mit nem Rechtsanwalt), dass es nicht zu Garantieverlust führt. Das entbehrt jeglicher rechtlichen Grundlage.

reunion
2006-03-05, 16:07:07
400EUR für eine 256MiB Karte? :|
Wärens tatsächlich 512 gewesen, wäre ich wohl auch schwach geworden..

Abwarten, die Preise sind nicht mehr aktuell.

Stand neulich mal in irgendner Zeitschrift (Interview mit nem Rechtsanwalt), dass es nicht zu Garantieverlust führt. Das entbehrt jeglicher rechtlichen Grundlage.

Na dann viel Spaß vor Gericht.

Netzteil, ok aber was ist mit der abzuführenden Wärme? Und selbst dann brauchst du schon ein ziemlich gutes 380W NT (Antec?).

Wenn dich der Garantierverlust sowieso nicht schmerzt, brauchst du nur bsw. einen AC Accelero X2 montieren, das Teil ist praktisch lautlos, und kühlt wesentlich besser als der Standardkühler.

sklave_gottes
2006-03-05, 16:19:41
Die bringen schon was. Schau dir mal FEAR an. In Zukunft (also die nächsten Monate) wird der Trend immer und immer mehr in diese Richtung gehen. Ich kauf' doch keine Grafikkarte für nur ein paar Wochen/Monate.

das es immer mehr bringen wird und bei FEAR schon sehr gut durchschlägt sehe ich auch.Aber gerade mit aa/af ist der zuwachs noch sehr bescheiden.
Man sieht sehr gut am vergleich x1900AIW gegen x1800xt das gerade mit aa/af die 3 alus gerade mal 50-75 mhz ausmachen.Der Preis ist aber zur zeit 350€ zu 490€.
Ich verstehe nur eins nicht:
Wie kommen die drauf das das verhältnis textur zu arithmetischer leistung bei FEAR 8 zu 1 ist???
wenn es so wäre müsten die 3 alus doch viel besser durch kommen oder ?

Gast
2006-03-05, 17:10:51
Ich dachte du schreibst für CB?



http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_all-in-wonder_radeon_x1900/1/#abschnitt_einleitung
Das ist schon ein bißchen her und für CB habe ich auch nie Lautstärke-Messungen gemacht. Die X1800 XL habe ich allerdings schon mehrfach in Aktion erlebt und mir ist der Lüfter nunmal zu laut. Ich bin da vielleicht etwas verwöhnt, komme ich doch von einem komplett passiven System (bis auf den nahezu unhörbaren Netzteillüfter.

Wie gesagt, da warte ich lieber bis sich endlich mal einer der Hersteller dazu durchringt, mal nicht das Referenzdesign zu benutzen. Ich hoffe, das wird der Fall sein, da ich nicht annehme, dass die X1900-Reihe eine so kurze Lebensspanne wie die X1800 haben wird. :)

@Robbit:
reunion hat es zwar schon gesagt, aber Recht haben und Recht bekommen ist nur was für Leute mit einer umfangreichen Rechtschutzversicherung ;)


Q

Gandharva
2006-03-05, 18:09:34
Netzteil, ok aber was ist mit der abzuführenden Wärme? Und selbst dann brauchst du schon ein ziemlich gutes 380W NT (Antec?).Der Standardkühler pustet die warme Abluft direkt aus dem Gehäuse. Aber auch mit dem VF700 gibts keine Temperaturprobleme. Ja, hab hier ein Antec True Power.