PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 3]


Seiten : 1 2 3 4 5 6 7 [8]

reunion@work
2008-05-30, 11:04:51
So minimal wie AMDs RnD-Budget?

Aber so groß sind doch Framebuffer nun auch wieder nicht, sodass wenn wirklich Texturdaten und co. von beiden GPUs nur einmal abgelegt werden müssten, man doch einiges an Speicher gewinnt.

Zwei getrennte GPUs an einem Frame rechnen zu lassen bringt eben elementare Probleme mit sich, die ich einem AMD in der momentanen Lage eher nicht zutraue zu lösen.

Die ständige Abgleichung und Synchronisierung des VRAM bei zwei GPUs, welche parallel auf einen VRAM zugreifen und zwei unterschiedliche Frames berechnen wäre wohl enorm aufwändig. Man müsste ständig kontrollieren ob Daten, welche von der anderen GPU gerade verwendet werden ev. für den nächsten Frame noch brauchbar sind, ob diese momentan überhaupt gelöscht werden können oder nicht, etc. pp.

Das ist mit Sicherheit deutlich mehr Aufwand als einfach eine GPU am Ringbus "zu teilen".

Hvoralek
2008-05-30, 11:11:49
Die Texturen bleiben auch nicht gleich.Wieso sollten zwei GPUs, die an derselben Szene rechnen, unterschiedliche Texturen im RAM "auf Vorrat" haben müssen?

Die ständige Abgleichung und Synchronisierung des VRAM bei zwei GPUs, welche parallel auf einen VRAM zugreifen und zwei unterschiedliche Frames berechnen wäre wohl enorm aufwändig. Man müsste ständig kontrollieren ob Daten, welche von der anderen GPU gerade verwendet werden ev. für den nächsten Frame noch brauchbar sind, ob diese momentan überhaupt gelöscht werden können oder nicht, etc. pp.Was muss man da großartig abgleichen? Beide GPUs bekommen ihre Framebuffer, mit denen die jeweils andere nichts zu schaffen hat, es gibt einen Block mit den Texturen, die für die gerade gerenderte Szene und damit von beiden GPUs benötigt benötigt werden, und fertig. Es werden doch nicht bei jedem Frame Texturen nachgeladen oder gelöscht.

reunion@work
2008-05-30, 11:13:12
Die ständige Abgleichung und Synchronisierung des VRAM bei zwei GPUs, welche parallel auf einen VRAM zugreifen und zwei unterschiedliche Frames berechnen wäre wohl enorm aufwändig. Man müsste ständig kontrollieren ob Daten, welche von der anderen GPU gerade verwendet werden ev. für den nächsten Frame noch brauchbar sind, ob diese momentan überhaupt gelöscht werden können oder nicht, etc. pp.


/Edit: Und vorallem sehe ich dann keinen Sinn darin den VRAM zu sharen. Man müsste die meisten Daten trotzdem wieder doppelt anlegen, da ich mir nicht vorstellen kann, dass dabei sonderlich viel Synergie entstehen würde. Die Bandbreite würde sich für jeden GPU halbieren. Viel Aufwand für wenig Gewinn. Ne, daran glaube ich nicht. Wenn der VRAM geshared wird, dann wird man sinniger Weise auch auf AFR verzichten.

mr orange
2008-05-30, 11:14:02
Nvidia GT200 successor tapes out (http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes)
hier auf deutsch -
Löst Nvidia den GT200 bereits im September ab?
http://www.hardware-infos.com/news.php?news=2107

Hvoralek
2008-05-30, 11:27:35
/Edit: Und vorallem sehe ich dann keinen Sinn darin den VRAM zu sharen. Man müsste die meisten Daten trotzdem wieder doppelt anlegen, da ich mir nicht vorstellen kann, dass dabei sonderlich viel Synergie entstehen würde.Was müsste man denn doppelt anlegen außer den Framebuffern?

Die Bandbreite würde sich für jeden GPU halbieren.Man müsste bei einem shared VRAM ja beide GPUs mit jedem Speicherbaustein verbinden, würde also nur die Hälfte der Anschlüsse an den Bausteinen nutzen. Ich sehe da aber auch nicht das Problem (abgesehen von der Verdrahtung auf der Platine): Wenn man z.B. zwei Chips mit 256- bit- SI hat, nimmt man eben 16 Speicherbausteine und verbindet jeweils 16 Bits mit jeder GPU. Die GPUs können also ihr SI voll nutzen, man braucht halt eine dem "Gesamt- SI" entsprechende Anzahl an Speicherbausteinen.

Viel Aufwand für wenig Gewinn. Ne, daran glaube ich nicht. Wenn der VRAM geshared wird, dann wird man sinniger Weise auch auf AFR verzichten.Wenn man Texturen nur noch einmal lagern muss, spart man eine ganze Menge Speicher. Und wenn Du das als "viel Aufwand" bezeichnest, wüsste ich gerne, wie Du eine Verbindung zwischen mehreren GPUs mit der Bandbreite eines chipinternen Interfaces nennen würdest. Was ich übrigens bei R8xx immer noch für möglich halte und worauf ich hoffe. Darauf wetten würde ich allerdings nicht, auch aus einem einheitlichen VRAM kann man es mMn nicht sicher herleiten. Langfristig ist das aber wohl der einzige Weg; anders bekommt man Mikroruckler und AFR- Lags nicht weg, ohne dass die Skalierung in den Keller geht. Ich wäre allerdings erstaunt, wenn man dann einfach mehrere identische Chips verbaut. Wenn man schon eine GPU über mehrere Dice verteilt und die entsprechend anbindet, wäre es interessant, dann gleich Chips mit unterschiedlichen Einheiten zu fertigen.

Daredevil
2008-05-30, 11:28:12
Das hört sich so nach R600 und R670 an...
( Wobei das Ding natürlich schneller wird, aber heiß und Laut mag eben nicht jeder, naja dafür wird es bestimmt auch so schnell wie es sich anhört... :) )

AnarchX
2008-05-30, 11:28:22
http://img95.imageshack.us/img95/3406/gtx200seriespricenk1go9.jpg (http://imageshack.us)

pest
2008-05-30, 11:31:01
heißt das NV ordnet den GTX260 unter der 9800GX2 ein?

AnarchX
2008-05-30, 11:33:29
Man müsste bei einem shared VRAM ja beide GPUs mit jedem Speicherbaustein verbinden, würde also nur die Hälfte der Anschlüsse an den Bausteinen nutzen. Ich sehe da aber auch nicht das Problem (abgesehen von der Verdrahtung auf der Platine): Wenn man z.B. zwei Chips mit 256- bit- SI hat, nimmt man eben 16 Speicherbausteine und verbindet jeweils 16 Bits mit jeder GPU. Die GPUs können also ihr SI voll nutzen, man braucht halt eine dem "Gesamt- SI" entsprechende Anzahl an Speicherbausteinen.

Wenn RV870 mit einer Shared-Logik für den MC kommt, dann dürfte es doch auch kein Problem sein für beide GPUs ihren Ringbus zu verbinden.
Dazu scheint es wohl auch schon ein Patent von AMD zu geben.

heißt das NV ordnet den GTX260 unter der 9800GX2 ein?
Preislich wohl schon. ;)

Daredevil
2008-05-30, 11:33:32
Denke nicht das die die GX2 einordnen wollen... die machen sich ja sonst schon wieder selber Konkurenz und bekommen die GTX260 schlecht verkauft bzw. müssten dann mitm Preis runter.

Dort stehts ja auch im Klaren.
Die 9800GTX bleibt und die GX2 wird durch die neuen Karten ersetzt.

Gast
2008-05-30, 11:36:41
heißt das NV ordnet den GTX260 unter der 9800GX2 ein?

geht es event. um den preis?

tombman
2008-05-30, 11:42:12
Hmm, 649$ für die 280er. Na, da bin ich mal gespannt welcher Händler sich daran hält ;)

Wenns die .de + .at Händler mit dem Deppenaufschlag übertreiben importiert ich das Teil, weil es auch MIT Zoll günstiger käme....
(UNTER 530€ pro Stück inkl. Zoll/Transport, bei zwei Stück wirds noch billiger...)

ShadowXX
2008-05-30, 11:46:21
Hmm, 649$ für die 280er. Na, da bin ich mal gespannt welcher Händler sich daran hält ;)

Wenns die .de + .at Händler mit dem Deppenaufschlag übertreiben importiert ich das Teil, weil es auch MIT Zoll günstiger käme....
(UNTER 530€ pro Stück inkl. Zoll/Transport, bei zwei Stück wirds noch billiger...)
Hmmm...nach momentanen Kurs ca. 420 + MWST = ca. 500 Euro.

D.h. 600 Euro werden die Händler am Anfang sicher nehmen. Da ich keine MWST zahlen muss (wird über die Firma gekauft) ist der Preis für mich dann OK.

Gosh
2008-05-30, 11:49:28
http://img95.imageshack.us/img95/3406/gtx200seriespricenk1go9.jpg (http://imageshack.us)

650...NV hat den Po mächtig weit offen

Snoopy69
2008-05-30, 12:04:31
Man kann nur nicht einfach mal so vier Speicherchips mehr an das SI klatschen.


Wieso nicht? Die 9800GTX ist nichts als eine aufgeblasene 8800er. Man hätte das SI von dort einfach übernehmen können...

Aber nein, es ist sicher so wie ich schrieb...
Mit minimalem Kostenaufwand (billiges SI + weniger Ram´s) mehr Gewinn erzielen. Auch wenn es nur 1€ pro Karte ausmacht.


@ tombman

Denk doch mal daran...
Weniger Abwärme bedeutet bessere OC-Möglichkeit. :)
Wolltest du dich nicht vor ein paar Monaten aus der Highend-Szene zurückziehen (nach dem Verkauf deines T-SLI)? :wink:

Achso, der GT200 ist ja kein Highend :ulol:
Wenn die Leistung stimmt (will die doppelte fps-Leistung), dann ist mir der Verbrauch eig. auch egal. Wird auf jeden Fall weniger sein als mit meiner jetzigen Config. Ist aber trotzdem arm von NV uns mit ALTER Technik zu bedienen.

Schlammsau
2008-05-30, 12:08:09
jeder ist selbst schuld, wenn er für doppelte Leistung, dass dreifache zahlt!

MuLuNGuS
2008-05-30, 12:09:48
jeder ist selbst schuld, wenn für doppelte Leistung, dass dreifache zahlt!

wut?

dat ist doch ein ganz normaler generationssprung?!

reunion@work
2008-05-30, 12:09:54
Was muss man da großartig abgleichen? Beide GPUs bekommen ihre Framebuffer, mit denen die jeweils andere nichts zu schaffen hat, es gibt einen Block mit den Texturen, die für die gerade gerenderte Szene und damit von beiden GPUs benötigt benötigt werden, und fertig. Es werden doch nicht bei jedem Frame Texturen nachgeladen oder gelöscht.

Aha, nagut, dann wäre das kein Problem. Mal sehen wie AMD das löst.

Und wenn Du das als "viel Aufwand" bezeichnest, wüsste ich gerne, wie Du eine Verbindung zwischen mehreren GPUs mit der Bandbreite eines chipinternen Interfaces nennen würdest.

Das wäre vielleicht teuer, aber nicht unbedingt RnD aufwändig.

Schlammsau
2008-05-30, 12:20:38
wut?

dat ist doch ein ganz normaler generationssprung?!

ja klar...High End war schon immer überproportional teuer!
8800Ultra und jetzt die GTX280. Leider ist das normal und wenn man "Vernünftig" ist sollte man das auch nicht unterstützen!
Es entzieht sich mir jeglicher Logik auch nur einen Cent mehr als 400€ (2x 9800GTX je 200€) für diese Karte auszugeben! Aber vielleicht wird sie ja so günstig!:cool:

AnarchX
2008-05-30, 12:22:29
Es entzieht sich mir jeglicher Logik auch nur einen Cent mehr als 400€ (2x 9800GTX je 200€) für diese Karte auszugeben! Aber vielleicht wird sie ja so günstig!:cool:
Die Leistung eine 98GTX SLI ist nicht vergleichbar mit der einer GTX 280.

Hvoralek
2008-05-30, 12:23:19
Wieso nicht? Die 9800GTX ist nichts als eine aufgeblasene 8800er. Man hätte das SI von dort einfach übernehmen können...Die 9800 GTX verwendet keinen G80, sondern G92. Der hat nun einmal nur 4*64 bit. Man hätte natürlich G92 mit 6*64 ausstatten können, allerdings hätte man dann auch zwingend sechs ROP- Blöcke verbauen müssen, was den Chip wieder größer und teurer gemacht hätte. Das ist in den Produktionskosten sicher kein Unterschied von 1€. Der Chip selbst wäre ein paar Dollar teurer in der Produktion, der Speicher kostet nochmal ein bisschen und die Platine wäre aufwändiger gewesen. Ich schätze, insgesamt hätte das beim Endkundenpreis um die 30 - 40€ ausgemacht. Und den größeren Chip hätte man auch bei der 8800 GT/ GTS 512 verbauen müssen, die dementsprechend auch teurer geworden wären.

Ein G92 mit 6 ROP- Clustern wäre sicher ein interessanter Chip gewesen. Er hätte halt nur nicht das Marktsegment getroffen, das man damit erreichen wollte.

Snoopy69
2008-05-30, 12:23:39
jeder ist selbst schuld, wenn er für doppelte Leistung, dass dreifache zahlt!
Ist doch normal, dass etwas Neues Anfangs viel Geld kostet.
Ich hab für 2x 16GB SSDs auch 800€ bezahlt (jetzt für 280€ je Stück).

Anarchy-HWLUXX
2008-05-30, 12:24:27
Nur haben die Leute ohne SLI Brett dikese Option nicht - also alle mit Intel oder AMD Chipsatz :rolleyes:

Gast
2008-05-30, 12:27:25
hier auf deutsch -
Löst Nvidia den GT200 bereits im September ab?
http://www.hardware-infos.com/news.php?news=2107

September????

Ich dachte zw. Tape-out und Serienfertigung liegen ca. 6Monate. Wäre also der November

Snoopy69
2008-05-30, 12:31:50
Ich schätze, insgesamt hätte das beim Endkundenpreis um die 30 - 40€ ausgemacht. Und den größeren Chip hätte man auch bei der 8800 GT/ GTS 512 verbauen müssen, die dementsprechend auch teurer geworden wären.

Oje, ich werd arm :ulol:
Wie gesagt, für eine gute Karte lege ich auch ein paar hundert € mehr hin. Aber die 9800GTX ist für mich keine gute Karte. Gute GPU, aber den Rest kann man vergessen.


@ all

Intel kam mit dem QX9650 auch sofort mit 45mn. Ist dessen Technik so alt gewesen?

Hvoralek
2008-05-30, 12:38:46
ja klar...High End war schon immer überproportional teuer!
8800Ultra und jetzt die GTX280. Leider ist das normal und wenn man "Vernünftig" ist sollte man das auch nicht unterstützen!
Es entzieht sich mir jeglicher Logik auch nur einen Cent mehr als 400€ (2x 9800GTX je 200€) für diese Karte auszugeben! Aber vielleicht wird sie ja so günstig!:cool:Du hältst Mikroruckler immer noch genauso für ein Ammenmärchen wie andere Leute VRAM- Probleme bei G8x, oder?

Oje, ich werd arm :ulol:
Wie gesagt, für eine gute Karte lege ich auch ein paar hundert € mehr hin. Aber die 9800GTX ist für mich keine gute Karte. Gute GPU, aber den Rest kann man vergessen.Wie schon gesagt: G92 sollte G80 nicht ablösen, sondern in normalen Auflösungen die gleiche Leistung für deutlich weniger Geld bieten. Wenn Du eine High- End- Karte für entsprechende Auflösungen möchtest, fragst Du einfach ein anderes Marktsegment nach. Dass der Bereich seit Ende 2006 nicht mehr bedient wurde, ist ärgerlich, klar.

Intel kam mit dem QX9650 auch sofort mit 45mn. Ist dessen Technik so alt gewesen?Penryn ist nur leicht umgebaut gegenüber Conroe von Mitte 2006.

Snoopy69
2008-05-30, 12:40:25
Wenn Du eine High- End- Karte für entsprechende Auflösungen möchtest, fragst Du einfach ein anderes Marktsegment nach. Dass der Bereich seit Ende 2006 nicht mehr bedient wurde, ist ärgerlich, klar.

Welches Segment?

mrt
2008-05-30, 12:45:01
Man müsste bei einem shared VRAM ja beide GPUs mit jedem Speicherbaustein verbinden, würde also nur die Hälfte der Anschlüsse an den Bausteinen nutzen. Ich sehe da aber auch nicht das Problem (abgesehen von der Verdrahtung auf der Platine): Wenn man z.B. zwei Chips mit 256- bit- SI hat, nimmt man eben 16 Speicherbausteine und verbindet jeweils 16 Bits mit jeder GPU. Die GPUs können also ihr SI voll nutzen, man braucht halt eine dem "Gesamt- SI" entsprechende Anzahl an Speicherbausteinen.
Wenn man es so machen will gehört man erschossen... ;)
Shared Memory macht nur über Chipinterconnect Sinn.

Unyu
2008-05-30, 12:45:10
Welches Segment?
Du suchst im Performance Bereich (9800GTX) nach der Lösung.

Dabei kommt raus, das du High-End willst, also GTX 280.

reunion@work
2008-05-30, 12:48:07
GT200 - der "heilige" Chip? :D

http://img169.imageshack.us/img169/6605/gt200cjzo7pm6.jpg

Noch ergänzend dazu:

Due to its large die size on 65nm process technology, the yield rate will be poor and that drives costs up. CJ told us that cost of making a GT200 die is about $100-120 which is very high so Nvidia will need to drive costs down. INQ has suggested a 55nm version of GT200 coming in September to drive costs down which is line with our previous speculation.

http://www.vr-zone.com/articles/Nvidia_GT200_Die_Shot_Exposed/5813.html

Hvoralek
2008-05-30, 12:49:51
Welches Segment?High- End- Modelle an der Grenze des z.Z. technich Machbaren mit grausigem Preis- Leistungs- Verhältnis. Da gab es seit 8800 GTX/ Ultra nichts mehr. Aber GT200 wird wahrscheinlich wieder etwas für Dich sein.

Shared Memory macht nur über Chipinterconnect Sinn.Über was? :confused:

Schlammsau
2008-05-30, 12:50:11
Du hältst Mikroruckler immer noch genauso für ein Ammenmärchen wie andere Leute VRAM- Probleme bei G8x, oder?
:confused: ich dürfte heute meine zweite Karte bekommen und dann werd ich schon erleben, wie schlimm die Microruckler wirklich sind! Es geht nicht darum was ich momentan für 400 Teuronen bekomme, sondern was es wirklich wert ist! Wenn man nach dem geht ist CF bzw. SLi viel zu teuer, da die Mehrleistung ja zwischen 0,9 und 1,7 facher Leistung schwankt! Dafür das doppelte zu zahlen, ein Witz!!!!
Aber eine einzelne Karte für 600€+ zu kaufen, die "nur" doppelt so schnell wie eine 200€ Karte ist, ist in diesen Preisbereichen für mich nicht nachvollziehbar!
Aber jedem das Seine..........

Anarchy-HWLUXX
2008-05-30, 12:50:34
Intel kam mit dem QX9650 auch sofort mit 45mn. Ist dessen Technik so alt gewesen?

Das war um die schlechte lieferbarkeit der 45er zu verstecken ... die nachfrage nach CPUs im 500€+ bereich ist ja sehr überschaubar, die kleinen 45er kommen jetzt erst so richtig in fahrt.

reunion@work
2008-05-30, 12:51:09
Wenn man es so machen will gehört man erschossen... ;)
Shared Memory macht nur über Chipinterconnect Sinn.

Meine Rede. Alles andere wäre viel zu umständlich bei nur geringem Vorteilen.

AnarchX
2008-05-30, 12:52:17
Wobei ich wie der Gast diesen September-Termin von der Zeitplanung fraglich finde, außerdem wäre für einen 55nm Shrink, der in 2009 hinein weiterleben soll, der Schritt auf ein kleineres SI inkl. GDDR5 wohl auch sinnvoll.

reunion@work
2008-05-30, 12:57:08
Wobei ich wie der Gast diesen September-Termin von der Zeitplanung fraglich finde,

Der September-Termin könnte IMHO durchaus hin kommen. GT200 kommt wohl etwas spät. nV verspach einen 1TFLOp-Chip mit DP im Q4/07, und außer GT200 sehe ich nichts was auf diese Beschreibung passen könnte.


außerdem wäre für einen 55nm Shrink, der in 2009 hinein weiterleben soll, der Schritt auf ein kleineres SI inkl. GDDR5 wohl auch sinnvoll.

Oder man kann das mehr an Bandbreite ohnehin dringend brauchen. Denn die etwas über 30% mehr Bandbreite ggü. einem G80 hauen mich nicht gerade vom Hocker. Aber vielleicht wird das SI auch gekürzt, wer weiß?

mrt
2008-05-30, 13:00:06
Über was? :confused:
Eine Verbindung zwischen >= 2 Chips/Dies. In diesem Fall wohl auf dem Träger/Package (MCM).

Hvoralek
2008-05-30, 13:06:12
:confused: ich dürfte heute meine zweite Karte bekommen und dann werd ich schon erleben, wie schlimm die Microruckler wirklich sind! Es geht nicht darum was ich momentan für 400 Teuronen bekomme, sondern was es wirklich wert ist! Wenn man nach dem geht ist CF bzw. SLi viel zu teuer, da die Mehrleistung ja zwischen 0,9 und 1,7 facher Leistung schwankt! Dafür das doppelte zu zahlen, ein Witz!!!!
Aber eine einzelne Karte für 600€+ zu kaufen, die "nur" doppelt so schnell wie eine 200€ Karte ist, ist in diesen Preisbereichen für mich nicht nachvollziehbar!
Aber jedem das Seine..........Gerade in diesen Preisbereichen ist es völlig normal, dass man für Mehrleistung überproportional mehr bezahlen muss (Wie Du schon selbst sagst, gilt das ja auch für SLI/ CF). Das entzieht sich auch nicht "jeglicher Logik". Wenn jemand diese Mehrleistung haben möchte, sie ihm einen solchen Aufpreis wert ist und es niemanden gibt, der genauso schnelle Karten günstiger anbietet, soll er doch damit glücklich werden.

Eine Verbindung zwischen >= 2 Chips/Dies. In diesem Fall wohl auf dem Träger/Package (MCM).Dann geht an Dich die gleiche Frage wie an reunion: Warum ergibt shared Memory nur dann Sinn?

derwalde
2008-05-30, 13:14:19
ich hab meine entscheidung bereits getroffen. erst kommt mir die Radeon HD 4870 XT rein, und dann 2 monate nach release(wenn die preise sich normalisiert haben) der gt200b. ist zumindest für mich die optimalste lösung im moment.

Snoopy69
2008-05-30, 13:15:11
High- End- Modelle an der Grenze des z.Z. technich Machbaren mit grausigem Preis- Leistungs- Verhältnis. Da gab es seit 8800 GTX/ Ultra nichts mehr. Aber GT200 wird wahrscheinlich wieder etwas für Dich sein.


Der GT200 ist für mich kein wirkliches Highend. Da fehlt noch einiges. Wenn die Leistung aber ausreicht, damit ich mein SLI rausschmeissen (Scheissendreck³), dann kann (muss) ich damit leben. Was Besseres gibts ja leider nicht als den GT200 ;(
Ist eig. sehr schade, da ich beide Karten mit diesem schönen Kühler ausgestattet hab (gerade mal 9Mon. alt) ;(

http://www.abload.de/thumb/2199_1oxg.jpg (http://www.abload.de/image.php?img=2199_1oxg.jpg)


@ derwalde

Bei der Gurke, die du mom. drin hast kannst du dich schon über die ATI freuen.

derwalde
2008-05-30, 13:19:50
@ derwalde

Bei der Gurke, die du mom. drin hast kannst du dich schon über die ATI freuen.

ich hatte ja vorher die 8800 ultra drin, also ist der performancesprung zur 4870 nicht wirklich groß. ich brauch aber endlich was neues, die 8400 macht nicht wirklich spaß ;D;D;D

Gast
2008-05-30, 13:23:45
ich hatte ja vorher die 8800 ultra drin, also ist der performancesprung zur 4870 nicht wirklich groß.


Da gibt es keinen Performancesprung.

derwalde
2008-05-30, 13:25:48
Da gibt es keinen Performancesprung.

oder so. ;p. hauptsache keine 25 euro karte mehr im rechner!

Anarchy-HWLUXX
2008-05-30, 13:28:30
Der GT200 ist für mich kein wirkliches Highend.

nV bewegt sich an der grenze des technisch machbaren, NV I/O Chip damit mehr performanceträchtige Transistoren auf dem DIE Platz haben, 512er SI mit doublesided RAM bestückung, Stromverbrauch und Hitzeentwicklung gerade noch so im kontrollierbarebn bereich ... was willst du noch ?

55nm ? Nope, nV hat sicher keine lust mit neusten fertigungstechniken zu experimentieren ... ATi hat ja vorgemacht was da alles schiefgehen kann.

mrt
2008-05-30, 13:32:07
Dann geht an Dich die gleiche Frage wie an reunion: Warum ergibt shared Memory nur dann Sinn?
Naja wenn ich RAM-Bausteine mit 2 Ports verwende gewinn ich eigentlich nichts dazu, es gibt keinen RAM der schnell genug wäre mal ganz von den Kosten abgesehen, zudem besteht hier die akute Gefahr von Datenkorruption --> taugt nichts.

Alles andere verlangt einen Interconnect, egal ob nun zwischen 2 oder mehr identischen Chips oder zwischen verschiedenen, egal ob auf dem Trägermaterial oder auf dem PCB oder sonstwie ;D

ps: Ist hier offtopic, würde besser in den RV870-Thread passen.

Gast
2008-05-30, 13:41:01
soll wohl ein Witz sein oder? :hmm:



http://www.abload.de/img/gtx200seriespricenk1w1p.jpg (http://www.abload.de/image.php?img=gtx200seriespricenk1w1p.jpg)

mrt
2008-05-30, 13:44:49
Da ist nur der Preis gemeint und nicht die Leistung.

gbm31
2008-05-30, 13:45:15
du kommst 2 seiten zu spät.

Snoopy69
2008-05-30, 13:46:14
nV bewegt sich an der grenze des technisch machbaren, NV I/O Chip damit mehr performanceträchtige Transistoren auf dem DIE Platz haben, 512er SI mit doublesided RAM bestückung, Stromverbrauch und Hitzeentwicklung gerade noch so im kontrollierbarebn bereich ... was willst du noch ?

55nm ? Nope, nV hat sicher keine lust mit neusten fertigungstechniken zu experimentieren ... ATi hat ja vorgemacht was da alles schiefgehen kann.
Was ich will? Ein gescheites 2D-Profil mit niedrigerem Takt und 1,0 VGPU (und niedriger). Denk doch mal an die Lebensdauer :wink:

ATI hat es aber jetzt hinter sich (ich meine das Schwerste) und NV hat es noch vor sich. Mir sagt das nur, dass NV sich selbst nicht sicher ist. Irgendwann sind deren Die´s 1/4 so gross wie die ganze Platine.

Und dass die GPU bei nur 55mn und weniger das Gleiche verbraucht stimmt nicht. Bei mehr Transistoren gebe ich euch Recht, aber nicht bei der gleichen Anzahl. Da MUSS die Verlustleistung sinken. Das ist so und wird auch immer so bleiben...


soll wohl ein Witz sein oder? :hmm:



http://www.abload.de/img/gtx200seriespricenk1w1p.jpg (http://www.abload.de/image.php?img=gtx200seriespricenk1w1p.jpg)
Was für ein Witz? Der Preis?
Ist völlig normal...

dildo4u
2008-05-30, 13:52:46
Und dass die GPU bei nur 55mn und weniger das Gleiche verbraucht stimmt nicht. Bei mehr Transistoren gebe ich euch Recht, aber nicht bei der gleichen Anzahl. Da MUSS die Verlustleistung sinken. Das ist so und wird auch immer so bleiben...
Und? NV will die Ultra Version des GT200(GT200b) mit Sicherheit höher Takten um die X2 4870 deutlich zu schlagen von daher wird sich der GT200b im selben Verbrauchsbereich befinden wie der GT200 sind halt High-End Chips die vorallem durch Leistung beeindrucken solln.Für Midrange hat NV bald den G92 in 55nm.

mapel110
2008-05-30, 13:52:49
Und dass die GPU bei nur 55mn und weniger das Gleiche verbraucht stimmt nicht. Bei mehr Transistoren gebe ich euch Recht, aber nicht bei der gleichen Anzahl. Da MUSS die Verlustleistung sinken. Das ist so und wird auch immer so bleiben...
Naja, viele meinen, 2400er und 3400er Radeons hätten das Gegenteil bewiesen. Aber da bin ich mit dir einer Meinung. Die Chips sind nicht vergleichbar. DX10 vs DX10.1 und der Taktunterschied. Also kann man nicht sagen, dass 55nm nichts bringt.

AnarchX
2008-05-30, 13:55:36
Und dass die GPU bei nur 55mn und weniger das Gleiche verbraucht stimmt nicht. Bei mehr Transistoren gebe ich euch Recht, aber nicht bei der gleichen Anzahl. Da MUSS die Verlustleistung sinken. Das ist so und wird auch immer so bleiben...
Das ist nicht korrekt, ein kleiner Fertigungsprozess bringt in erster Linie eine geringere Die-Size, die Verbrauchssenkung kann eintreten, aber muss nicht, da eben auch nachteilige Effekte wie Leckströme bei kleinerer Schaltkreisgröße auftreten können.

So ist das aktuelle Negativ-Beispiel dafür RV635 der trotz weniger Transitoren als RV630, mehr als dieser bei gleichem Takt verbraucht.

Hvoralek
2008-05-30, 13:59:13
Naja wenn ich RAM-Bausteine mit 2 Ports verwende gewinn ich eigentlich nichts dazu, es gibt keinen RAM der schnell genug wäre mal ganz von den Kosten abgesehen, zudem besteht hier die akute Gefahr von Datenkorruption --> taugt nichts.Sind Bausteine mit 2x16 bit so viel teurer und langsamer als welche mit 1x32?

Was ich will? Ein gescheites 2D-Profil mit niedrigerem Takt und 1,0 VGPU (und niedriger). Denk doch mal an die Lebensdauer :wink:Ich hätte jetzt eher mit D3D10.1 gerechnet, denn das fehlt dem Ding wirklich noch. Wer 600€ für eine Karte ausgibt und damit leben kann, unter Last wohl mehr als 200W zu verbraten, wird sich wohl nicht ernsthaft darüber aufregen, wenn das Ding dann im Leerlauf auch noch 60 oder 70W braucht statt vll. technisch machbarer 30 oder 40W. Wirklich sparsam wird so ein Chip auch mit gut funktionieren Stromsparmechanismen nicht werden.

Am sinnvollsten wäre eigentlich, wenn man sowieso wieder einen NVIO verwendet, da gleich noch eine Art Billigst- GPU reinzusetzen (praktisch einen IGP) und den Hauptchip abzuschalten, wenn er nicht gebraucht wird, eine Art Hybrid- SLI auf einer Platine. Ich glaube aber nicht, dass Nvidia das anbieten wird; man möchte ja noch "richtige" Hybrid- SLI- MoBos verkaufen :frown:

deekey777
2008-05-30, 14:00:19
Das ist nicht korrekt, ein kleiner Fertigungsprozess bringt in erster Linie eine geringere Die-Size, die Verbrauchssenkung kann eintreten, aber muss nicht.

So ist das aktuelle Negativ-Beispiel dafür RV635 der trotz weniger Transitoren als RV630, mehr als dieser bei gleichem Takt verbraucht.
http://www.xbitlabs.com/articles/video/display/msi-hd3650_4.html
Die MSI HD3650 ist mit 750 MHz niedriger getaktet als die HD2600XT, dazu noch GDDR3 mit 800 MHz. Aber es sieht nicht schlecht aus.

Snoopy69
2008-05-30, 14:00:20
Und? NV will die Ultra Version des GT200(GT200b) mit Sicherheit höher Takten um die X2 4870 deutlich zu schlagen von daher wird sich der GT200b im selben Verbrauchsbereich befinden wie der GT200 sind halt High-End Chips die vorallem durch Leistung beeindrucken solln.Für Midrange hat NV bald den G92 in 55nm.
Wenn ich von gleichen Bedingungen die Takt, VGPU und Transistoranzahl ausgehe (ausser Strukturbreite) dann sinkt die Leistungsaufnahme. Daran gibt es nichts zu rütteln.
Mir ist natürlich eine Karte mit 55nmlieber, die ich wesentlich höher takten kann bei gleicher Stromaufnahme einer 65mn-GPU
Nach meiner Erfahrung macht eine Takterhöhung nur halb soviel aus wie eine Erhöhung der VGPU

Snoopy69
2008-05-30, 14:03:39
Das ist nicht korrekt, ein kleiner Fertigungsprozess bringt in erster Linie eine geringere Die-Size, die Verbrauchssenkung kann eintreten, aber muss nicht, da eben auch nachteilige Effekte wie Leckströme bei kleinerer Schaltkreisgröße auftreten können.


Die Regel ist aber eine Andere...
Weniger nm = weniger Verbrauch (bei gleicher Technik und Transi-Anzahl)

Du geht allerdings von Worst-Case aus.

Sieh dir nur die ganzen CPUs und Graka´s an. Die Leistung steigt stärker an als der Stromverbrauch. Was sagt mir das als alter Energieelektroniker? :wink:

dildo4u
2008-05-30, 14:04:45
Nach meiner Erfahrung macht eine Takterhöhung nur halb soviel aus wie eine Erhöhung der VGPU
Eine Erhöhung der VGPU beim GT200b ist nicht ausgeschlossen wenn NV sich ein hohes Ziel bei den Taktraten gesetzt hat.Intel muss trotz 45nm bei den ganz dicken Quads Cores mit 3.2GHz auch noch mal deutlich den V-Core erhöhen.Der TDP Wert steigt dort auch vergleichsweise extrem an bei den Xtreme Modellen für die letzen 200mhz+ die noch drauf kommen im Vergleich zu den normalen 45nm Quads.

Anarchy-HWLUXX
2008-05-30, 14:05:50
Was ich will? Ein gescheites 2D-Profil mit niedrigerem Takt und 1,0 VGPU (und niedriger). Denk doch mal an die Lebensdauer :wink:

ATI hat es aber jetzt hinter sich (ich meine das Schwerste) und NV hat es noch vor sich. Mir sagt das nur, dass NV sich selbst nicht sicher ist. Irgendwann sind deren Die´s 1/4 so gross wie die ganze Platine.

Und dass die GPU bei nur 55mn und weniger das Gleiche verbraucht stimmt nicht. Bei mehr Transistoren gebe ich euch Recht, aber nicht bei der gleichen Anzahl. Da MUSS die Verlustleistung sinken. Das ist so und wird auch immer so bleiben...


Einsparungen beim Verbrauch sind nicht wirklich ein kriterium bei High-End - da zählt überwiegend die Performance - 55nm würd den verbrauch im idealfall senken und höhere Taktraten ermöglichen, wobei dann der höhere takt schonwieder den Verbrauch auf das vorherige niveau anhebt bei entsprechend mehr Power. Als bonus dann noch mehr DIEs pro Wafer ...

Wenn die meldung zum GT200b stimmt und es nicht der G92b ist dann hat nV offensichtlich zuerst die "sichere" und teure Variante angefangen und dann recht flott eine wirtschaftlichere in 55nm hinterherzuschieben.

Das Timing stimmt - die 65nm GT200 kommt vor der neuen ATi Serie, die 55er wäre aber erst monate anch den ATi Karten gekommen was evtl. nen Führungswechsel im Leistungsranking bedeutet hätte - und das mit ner Performance GPU, was dank der 65nm Variante ja nicht passieren wird.

Ailuros
2008-05-30, 14:06:26
Wer zum Teufel hat ueberhaupt behauptet dass die GTX280 nur um 2x mal so schnell sein wird als eine 9800GTX? So viel Unsinn in nur ein paar Seiten hab ich schon lange nicht mehr gelesen.

Die 55nm Variante wird erstmal zu einer radikalen Preissenkung fuehren und einem die der um <30% kleiner ist als GT200 und nein es ist immer noch nicht das Ende der gesamten Geschichte. Es wird noch mehr "Ueberraschungen" geben.

deekey777
2008-05-30, 14:07:47
Wer zum Teufel hat ueberhaupt behauptet dass die GTX280 nur um 2x mal so schnell sein wird als eine 9800GTX? So viel Unsinn in nur ein paar Seiten hab ich schon lange nicht mehr gelesen.

Die 55nm Variante wird erstmal zu einer radikalen Preissenkung fuehren und einem die der um <30% kleiner ist als GT200 und nein es ist immer noch nicht das Ende der gesamten Geschichte. Es wird noch mehr "Ueberraschungen" geben.
Lass mich raten: Der G200 ist eigentlich der umgelabelte R700? ;(

Snoopy69
2008-05-30, 14:07:57
Eine Erhöhung der VGPU beim GT200b ist nicht ausgeschlossen wenn NV sich ein hohes Ziel bei den Taktraten gesetzt hat.Intel muss trotz 45nm bei den ganz dicken Quads Cores mit 3.2GHz auch noch mal deutlich den V-Core erhöhen das TDP steigt dort auch vergleichsweise extrem an bei den Xtreme Modellen.
Ich rede ja nicht von mehr VGPU...
Überhaupt ist die VGPU bei kleinerer Strukturbreite maximal gleich als höher nm. Eher geringer. Jeder OCer müsste das wissen...
Schon bei 0,01V weniger Spannung wird weniger verbraten. Bei sehr vielen Transistoren ist 0,01V +/- nicht wenig.

@ Ailuros

Woher weisst di das alles? Betatester?
Ich hatte hier gelesen dass sie ca. 3x schneller wäre. Daraufhin wurde mir gesagt, dass das zuviel wäre und es max. 2x einer 9800GTX wäre.

Steht jmd in Verbindung mit anderen Foren? ist dort der Wissenstand über den GT200 gleich?

dildo4u
2008-05-30, 14:11:23
Wer zum Teufel hat ueberhaupt behauptet dass die GTX280 nur um 2x mal so schnell sein wird als eine 9800GTX? So viel Unsinn in nur ein paar Seiten hab ich schon lange nicht mehr gelesen.

Dan ganze entwickelte sich aus den angeblich gesicherten Vantage Ergebnissen von C.J.

mictasm
2008-05-30, 14:11:27
Wer zum Teufel hat ueberhaupt behauptet dass die GTX280 nur um 2x mal so schnell sein wird als eine 9800GTX? So viel Unsinn in nur ein paar Seiten hab ich schon lange nicht mehr gelesen.

Die 55nm Variante wird erstmal zu einer radikalen Preissenkung fuehren und einem die der um <30% kleiner ist als GT200 und nein es ist immer noch nicht das Ende der gesamten Geschichte. Es wird noch mehr "Ueberraschungen" geben.

Ich falle hier gleich in Ohnmacht. Ich brauche eine Zeitmaschine!

Schlammsau
2008-05-30, 14:11:33
Wer zum Teufel hat ueberhaupt behauptet dass die GTX280 nur um 2x mal so schnell sein wird als eine 9800GTX? So viel Unsinn in nur ein paar Seiten hab ich schon lange nicht mehr gelesen.

Die 55nm Variante wird erstmal zu einer radikalen Preissenkung fuehren und einem die der um <30% kleiner ist als GT200 und nein es ist immer noch nicht das Ende der gesamten Geschichte. Es wird noch mehr "Ueberraschungen" geben.

Du hast das behauptet, und zwar wo du geschrieben hast, die Vantage Scores der GTX seien Richtig! ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6538909#post6538909
8800Ultra 24xx Points
280GTX 41xx Points

Du hast recht, die 280GTX wird demnach wohl nichteinmal doppelt so schnell!

deekey777
2008-05-30, 14:12:42
Du hast das behauptet, und zwar wo du geschrieben hast, die Vantage Scores seien Richtig!
Und weiter? Gibt es außer Vantage keine Spiele?:|

Anarchy-HWLUXX
2008-05-30, 14:13:42
Du hast das behauptet, und zwar wo du geschrieben hast, die Vantage Scores seien Richtig!
Vantage != Gamingperformance

Nebenbei war das ja auch nur ein wert ... um da was einschätzen zu können müsste da ne ganze Sammlung an Scores daherkommen mit verschiedenen Auflösungen und verschiedenen AA/AF Settings.

AnarchX
2008-05-30, 14:14:08
Die Regel ist aber eine Andere...
Weniger nm = weniger Verbrauch (bei gleicher Technik und Transi-Anzahl)

Das ist vielleicht deine "Faustregel", aber selbst in Mikroelektronikvorlesungen im universitären Rahmen wird als primärer Vorteil von kleineren Fertigungsprozessen die Verringerung der Die-Size und somit die Kostenersparnis für den Hersteller angeführt.

Natürlich besteht bei einem kleineren Prozess wieder das Potential den ASIC ensprechend zu optimieren, sodass man eine Spannungssenkung erzielen kann, aber das ist wieder eine andere Baustelle, die in so manchen Fall eben erst später in Angriff genommen wurde.

Schlammsau
2008-05-30, 14:22:54
Vantage != Gamingperformance

Nebenbei war das ja auch nur ein wert ... um da was einschätzen zu können müsste da ne ganze Sammlung an Scores daherkommen mit verschiedenen Auflösungen und verschiedenen AA/AF Settings.

Also wenn die Scores stimmen, wie Ailuros schon angemerkt hat, hat der GT200 max. 1,8 fache Leistung eines G80 im Vantage!
Was denkt ihr den? Das Games auf einmal doch 2,5x schneller sind?
Ich bitte euch! Der Vantage ist zwar kein Game, aber dennoch lässt sich damit die Performance zuverlässig vergleichen!
Ihr lebt in einer Traumwelt und pisst euch bei dem kleinsten Kommentar, zur Performance schon fast in die Hosen! ;D

Godmode
2008-05-30, 14:25:30
Wer zum Teufel hat ueberhaupt behauptet dass die GTX280 nur um 2x mal so schnell sein wird als eine 9800GTX? So viel Unsinn in nur ein paar Seiten hab ich schon lange nicht mehr gelesen.

Die 55nm Variante wird erstmal zu einer radikalen Preissenkung fuehren und einem die der um <30% kleiner ist als GT200 und nein es ist immer noch nicht das Ende der gesamten Geschichte. Es wird noch mehr "Ueberraschungen" geben.

Das ist gut zu hören! Kannst du uns verraten gegen wen Nvidia hier eigentlich spielt? Gegen ATI sicher nicht, wenn man von den voraussichtlichen Leistungen der 4xxx Radeons ausgeht. Tun die das hauptsächlich wegen CUDA, wegen Intel oder haben sie von ATI mehr erwartet?


Ihr lebt in einer Traumwelt und pisst euch bei dem kleinsten Kommentar, zur Performance schon fast in die Hosen! ;D

Nur wenn er von Ail kommt.

Snoopy69
2008-05-30, 14:27:04
Das ist vielleicht deine "Faustregel", aber selbst in Mikroelektronikvorlesungen im universitären Rahmen wird als primärer Vorteil von kleineren Fertigungsprozessen die Verringerung der Die-Size und somit die Kostenersparnis für den Hersteller angeführt.

Natürlich besteht bei einem kleineren Prozess wieder das Potential den ASIC ensprechend zu optimieren, sodass man eine Spannungssenkung erzielen kann, aber das ist wieder eine andere Baustelle, die in so manchen Fall eben erst später in Angriff genommen wurde.
Theor. Vorlesungen interessieren mich wenig. Ist sehe nur die Praxis und ich hab recht viel und oft mit HW zu tun. Ein Nicht-OCer kann das eig. nicht wissen.

Mal ein ganz simples Beispiel...
Ein Widerstand mit 2 Belastung verbrät mit als ein SMD-Widerstand mit gleicher Impedanz. Gleiches gilt für Transistoren. Jetzt muss man es nur noch auf viele Millionen Transistoren übertragen.
Der Anteil an Leckströmen ist gering, sonst wäre die CPU/GPU Ausschuss.

Der_Korken
2008-05-30, 14:28:28
Mich stört an den Vantage-Benches, dass der Unterschied zwischen GTX 280 und GTX 260 so klein sind. Der GTX 280 müsste doch ungefähr 25% schneller sein, da der GTX 260 etwa 20% seiner Funktionseinheiten deaktiviert hat.

Gast
2008-05-30, 14:29:40
Ich rede ja nicht von mehr VGPU...
Überhaupt ist die VGPU bei kleinerer Strukturbreite maximal gleich als höher nm. Eher geringer. Jeder OCer müsste das wissen...
Schon bei 0,01V weniger Spannung wird weniger verbraten. Bei sehr vielen Transistoren ist 0,01V +/- nicht wenig.


Nur blöd das der RV670 trotz 55nm und weniger Trasistoren mehr Spannung hat als ein R600 in 80nm....

ATI hat KEINEN Vorteil mit den 55nm, begreift das doch endlich mal! 55nm und 65nm sind klar gleichwertig, man hat nur weniger fläche dafür natürlich auch höhere kosten pro Waver...

Snoopy69
2008-05-30, 14:40:22
Nur blöd das der RV670 trotz 55nm und weniger Trasistoren mehr Spannung hat als ein R600 in 80nm....


Das hat wohl andere Gründe...
Ein kleines Bauteil benötigt IMMER weniger Stromaufnahme bei gleicher Spannung. Warum hier mehr VGPU draufgegeben wird kann damit zusammenhängen, dass versucht wird mehr MHz rauszuholen oder weil die GPU einfach bockschlecht ist, um stabil mit einem bestimmten Takt zu laufen.
Qualitativ gute CPU´s brauchen auch weniger VCore bzw. können extrem hohe Takte fahren bei Default-VCore. 50% mehr Takt ist bei Intel ja nichts mehr besonderes. Versuch das mit bei Graka´s...

Wusstet ihr überhaupt, dass die 8800 Ultra 0,05V mehr VGPU hat und nur deshalb mehr Takt erreicht? Einziger grosser Unterschied ist der bessere Ram

Gast
2008-05-30, 14:41:33
Also wenn die Scores stimmen, wie Ailuros schon angemerkt hat, hat der GT200 max. 1,8 fache Leistung eines G80 im Vantage!
Was denkt ihr den? Das Games auf einmal doch 2,5x schneller sind?
Ich bitte euch! Der Vantage ist zwar kein Game, aber dennoch lässt sich damit die Performance zuverlässig vergleichen!
Ihr lebt in einer Traumwelt und pisst euch bei dem kleinsten Kommentar, zur Performance schon fast in die Hosen! ;D

so denk ich mir das auch 1.8 ist realistisch aber mehr auch nicht.

Wenn die Punkte stimmen kommt die GTX280 nicht an 2x8800 Ultras ran, das wäre dann schon bissel lol.

Snoopy69
2008-05-30, 14:44:27
so denk ich mir das auch 1.8 ist realistisch aber mehr auch nicht.

Wenn die Punkte stimmen kommt die GTX280 nicht an 2x8800 Ultras ran, das wäre dann schon bissel lol.
Mit dem Unterschied, dass die FPS in Vantage bei SLI wenig Wert sind. Du kannst davon 30% abziehen - das sind dann deine wahren FPS.

Ailuros
2008-05-30, 14:49:11
@ Ailuros

Woher weisst di das alles? Betatester?

Ich hab den Luxus nicht einen sondern mehrere Voegel zu haben.

Ich hatte hier gelesen dass sie ca. 3x schneller wäre. Daraufhin wurde mir gesagt, dass das zuviel wäre und es max. 2x einer 9800GTX wäre.

Dann erinner demjenigen der Dir den Bloedsinn erzaehlt hat dass die 9800GTX nur 512MB Speicher hat und zu wenig Bandbreite hat. Wenn Du jetzt scharf nachdenkst stell Dir mal den Unterschied in sehr hohen Aufloesungen mit AA vor. Uebrigens hat CJ auch wieder recht und im Vergleich zu G80 (und NICHT G92) hat GT200 eine 3x fache ROP-blending Leistung.

Steht jmd in Verbindung mit anderen Foren? ist dort der Wissenstand über den GT200 gleich?

Manche Sachen folgen der einfachsten Logik. Siehe oben.

Gast
2008-05-30, 14:55:53
Mit dem Unterschied, dass die FPS in Vantage bei SLI wenig Wert sind. Du kannst davon 30% abziehen - das sind dann deine wahren FPS.

???

ohne SLI 26xx Punkte
mit SLi 48xx Punkte

(in Extreme)

Snoopy69
2008-05-30, 14:58:07
Ok, nun die fps x 0,66. Das wären dann keine 4000 Punkte mehr :wink:
NICHT auf die angezeigten/gemessenen fps verlassen. Das ist der grösste Fehler, den man bei SLI machen kann.
Angezeigte/gemessene 30fps = gefühlte 20fps. Das gilt eig für den ganzen fps-Bereich. Also angezeigte 40 = gefühlte 26fps. Wobei es ab da eig. fast egal ist. Bei ECHTEN 30fps sowieso.

Hätte ich den Thread mit Mikrorucklern eher gelesen, hätte ich mit nie SLI zugelegt. Ich rate auch jedem davon ab. Ein Kenner wird auch wissen, dass hohe Punktezahlen bei SLI eig. nix wert sind. Nur für Ahnungslose.

Ailuros
2008-05-30, 15:01:55
Du hast das behauptet, und zwar wo du geschrieben hast, die Vantage Scores der GTX seien Richtig! ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6538909#post6538909
8800Ultra 24xx Points
280GTX 41xx Points

Du hast recht, die 280GTX wird demnach wohl nichteinmal doppelt so schnell!

Viel Spass beim endlosen Vantage spielen. Dementsprechende Antworten hast Du dafuer schon bekommen.


Teil 4: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=417352