PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 3]


Seiten : 1 [2] 3 4 5 6 7 8

GeneralHanno
2008-05-18, 14:59:05
wenn man sich die daten so anguckt (und von einger gewissen transistoreneffizienz ausgeht), dann MUSS der GT200 mindestens die doppelte G92 performence erreichen ...

tombman
2008-05-18, 14:59:53
sprich nicht von dir selber:)es ist einfach so,für nv ist effizienz ein fremdwort,das war schon immerso und die sind ja auch nicht belehrbar.
Ich pisse auf Effizienz. Wenn Nvidia einen Naquada-generator auf der Karte braucht um schneller zu sein, dann solls so sein ;D

gamingforce
2008-05-18, 15:00:16
es wird schon mehr als +50% sein.
es geht ja das gerücht um das man gegenüber der jetzigen karten die effizent der SP um +50% gesteigert hat. dazu kommt es ja noch das der GT200 scheinbar über 240SP von denen besitzt.
auch die bandbreite ist ja durch das 512bit SI gewachsen.

die 512 Bit bringen aber einem nicht viel würd ich sagen, die 9800GTX hat viel weniger wie ne 8800 Ultra und ist trotzdem genauso schnell sie ist erst schneller in hohen Auflösung mit viel AA und AF als die 9800 GTX.

Ich würd auch sagen die Bandbreite Spielt nicht soooo ein gro0ßer Rolle.

Raff
2008-05-18, 15:02:14
die 512 Bit bringen aber einem nicht viel würd ich sagen, die 9800GTX hat viel weniger wie ne 8800 Ultra und ist trotzdem genauso schnell sie ist erst schneller in hohen Auflösung mit viel AA und AF als die 9800 GTX.

Ich würd auch sagen die Bandbreite Spielt nicht soooo ein gro0ßer Rolle.

Wart's ab. Wenn die GT200-ROPs 8x MSAA in einem Rutsch schaffen, dann wird dieser Modus dank der hohen Bandbreite übelst abgehen. Vermutlich.

MfG,
Raff

gamingforce
2008-05-18, 15:03:12
wenn man sich die daten so anguckt (und von einger gewissen transistoreneffizienz ausgeht), dann MUSS der GT200 mindestens die doppelte G92 performence erreichen ...

das wird es, ein G92 zu schlagen ist leicht, sobald man 8xAA erreiht hat ist selbst ne X2 schneller wie ne GX2.

Ich hoffe der Gt200 wird in höheren AA Stufen besser wie der G92, wenn ich mit dem 8800GTS SLi (512MB) höher wie 4xAA gehe ist ruhe im Schacht und nichts ausser alte Spiel ist mehr Spielbar :(
Aber das liegt wohl auch mit daran das sie nur 512 MB VRAM haben.

gamingforce
2008-05-18, 15:03:31
Wart's ab. Wenn die GT200-ROPs 8x MSAA in einem Rutsch schaffen, dann wird dieser Modus dank der hohen Bandbreite übelst abgehen. Vermutlich.

MfG,
Raff

ja ich hoffe :)

deekey777
2008-05-18, 15:08:23
Wart's ab. Wenn die GT200-ROPs 8x MSAA in einem Rutsch schaffen, dann wird dieser Modus dank der hohen Bandbreite übelst abgehen. Vermutlich.

MfG,
Raff
Das glauche ich nicht, Tim.

Gast
2008-05-18, 15:32:02
Das Ding wird ein rießen Flop,ihr müßt von G80 Ultra Leistung in 1920x1200 und höher mit AA ausgehen und nicht von dem G90 und 92 Quark Karten.Und dann noch ohne DX10.1,nix neues ist das Ding,ein weiterer Augenwischiwaschi Aufguß und ich wette 3 Wochen später kommt die GT200/GX2.

Gast
2008-05-18, 15:36:51
Das Ding wird ein rießen Flop,ihr müßt von G80 Ultra Leistung in 1920x1200 und höher mit AA ausgehen und nicht von dem G90 und 92 Quark Karten.Und dann noch ohne DX10.1,nix neues ist das Ding,ein weiterer Augenwischiwaschi Aufguß und ich wette 3 Wochen später kommt die GT200/GX2.

haha das kannste dir eh abschminken.es wird nie eine gt200 mit 2 kernen geben.da müsste man ja ein iglo zum kühlen haben:)

Raff
2008-05-18, 15:41:58
Das glauche ich nicht, Tim.

Weil? :)

MfG,
Raff

Sterems
2008-05-18, 15:45:05
Das Ding wird ein rießen Flop,ihr müßt von G80 Ultra Leistung in 1920x1200 und höher mit AA ausgehen und nicht von dem G90 und 92 Quark Karten.Und dann noch ohne DX10.1,nix neues ist das Ding,ein weiterer Augenwischiwaschi Aufguß und ich wette 3 Wochen später kommt die GT200/GX2.

Trotzdem wird das ding schneller sein als vergleichbare Ati produkte:Das zählt ganz allein bei Käuferschichten.....

w0mbat
2008-05-18, 15:58:21
Trotzdem wird das ding schneller sein als vergleichbare Ati produkte:Das zählt ganz allein bei Käuferschichten.....

Nein, das zählt vielleicht bei 5% der Käufer, aber das wirst du auch mal lernen wenn du groß bist.

Sterems
2008-05-18, 16:03:24
Nein, das zählt vielleicht bei 5% der Käufer, aber das wirst du auch mal lernen wenn du groß bist.

Sieht man ja an den verkaufszahlen.Du meinst mit Sicherheit 95% und nicht 5%.;)

Gast
2008-05-18, 16:06:02
Sieht man ja an den verkaufszahlen.Du meinst mit Sicherheit 95% und nicht 5%.;)

Welche Verkaufszahlen? Quelle? Link?

Gast
2008-05-18, 16:13:33
Sieht man ja an den verkaufszahlen.Du meinst mit Sicherheit 95% und nicht 5%.;)


Über google findet man einige Verkaufszahlen die leider komplett G80, G92 oder einfach nur GF 8000er Serie deklariert werden. Die 8800GTX hat sich schon extrem gut für eine 500€ Karte verkauft, die Ultra liegt absolut im Rahmen des gegeben.


Bei GTX 280 wird das aber eher wieder auf ein normales Niveau runter gehen, es gab ja ende 2006 nur 7900GTX und X1950XT die gegen den G80 Chancenlos waren und mit jedem neuen Treiber immer mehr an Boden verloren hatten.

Nun musst du bedenken das ATI keine super Schnelle Grafikkarte auf den Markt bringt, aber dafür eine die günstig zu produzieren ist und trotzdem nach GTX 280 das schnellste sein wird........Der Markt hat sich dann also wieder stabilisiert.


Auf jeden Fall kann Nvidia den GT200 mit 512bit SI nicht günstig anbieten.

Gast
2008-05-18, 16:20:43
Trotzdem wird das ding schneller sein als vergleichbare Ati produkte:Das zählt ganz allein bei Käuferschichten.....

Was ist vergleichbar? Wo schneller? Was zählt bei den Käuferschichten: Preis, Speed, IDLE-Stromverbrauch, Last-Stromverbrauch, Marke, VRAM-Größe, Lüfter-Lautstärke, Lüfter-Leistung, OC-Potential...?

Du denkst zu eindimensional.

Gast
2008-05-18, 16:26:51
haha das kannste dir eh abschminken.es wird nie eine gt200 mit 2 kernen geben.da müsste man ja ein iglo zum kühlen haben:)
Das ist NV doch schnurz.
Und wenn keine GX2,dann kommt ne GDDR5 zum Jahreswechsel mit DX10.1,die neue ATI X2 raucht die GT200 doch in der Pfeife,glaubste NV schau da zu,wie schnell war die "alte" GX2 da....

Gast
2008-05-18, 16:42:49
^^^^Waaaaaah, das ist ja Spam. Wegen solchen Leuten wird der nette Gast-Account noch abgeschafft :(.

Das wurde glaub noch nicht gepostet: http://forum.donanimhaber.com/m_23295300/tm.htm

Entspricht aber weitgehend den bekannten Fakten, oder?

Godmode
2008-05-18, 17:04:14
^^^^Waaaaaah, das ist ja Spam. Wegen solchen Leuten wird der nette Gast-Account noch abgeschafft :(.

Das wurde glaub noch nicht gepostet: http://forum.donanimhaber.com/m_23295300/tm.htm

Entspricht aber weitgehend den bekannten Fakten, oder?

Das wurde schon ein paar Seiten vorher von AnarchX gepostet.

Gast
2008-05-18, 17:06:09
...es gab ja ende 2006 nur 7900GTX und X1950XT die gegen den G80 Chancenlos waren und mit jedem neuen Treiber immer mehr an Boden verloren hatten.


Die X1950XTX nicht vergessen die nur 919% langsamer ist wie die 8800GTS 640mb ;)

http://www.abload.de/img/poy68y.jpg (http://www.abload.de/image.php?img=poy68y.jpg)


Für die 7900GTX sieht es aber echt übel aus ;D

http://www.abload.de/img/onuhfw.jpg (http://www.abload.de/image.php?img=onuhfw.jpg)

Henroldus
2008-05-18, 17:15:14
Die X1950XTX nicht vergessen die nur 19% langsamer ist wie als die 8800GTS 640mb ;)

http://www.abload.de/img/poy68y.jpg (http://www.abload.de/image.php?img=poy68y.jpg)

du meintest sicherlich 19% aber auch das ist falsch:
100 von 119 sind nämlich 16% langsamer->wer rechnen kann ist klar im vorteil ;)

Gast
2008-05-18, 17:18:19
du meintest sicherlich 19% aber auch das ist falsch:
100 von 119 sind nämlich 16% langsamer->wer rechnen kann ist klar im vorteil ;)

Jo war ein Tipfehler (kann ja nicht editieren).

Schau doch aufs Rating, ich sehe 19% da ;) naja wayne..

Gast
2008-05-18, 17:19:21
Mal eine Frage an die Spezialisten:
Die angenommenen Features (32 (?) ROPs , 80 TMUs, 240SPs ); zu wieviel Prozent Mehrleistung gegenüber dem G80 sollten die theoretisch führen?

Ailuros
2008-05-18, 17:26:37
Mal eine Frage an die Spezialisten:
Die angenommenen Features (32 (?) ROPs , 80 TMUs, 240SPs ); zu wieviel Prozent Mehrleistung gegenüber dem G80 sollten die theoretisch führen?

Wenn man machen Geruechten folgen wuerde, so viel wie GeForce im Vergleich zu TNT2.

AnarchX
2008-05-18, 17:43:17
Der "step back" scheint wohl die Halbierung der Adressierer zu sein, sodass GT200 nur mit 40 TA und 80 TFs daher kommt.

Sollte wohl mehr als ausreichend sein, vorallem, wenn man die gesparten Transitoren in sinnvollere Einheiten/Optimierungen stecken kann.;)

LovesuckZ
2008-05-18, 17:45:30
Der "step back" scheint wohl die Halbierung der Adressierer zu sein, sodass GT200 nur mit 40 TA und 80 TFs daher kommt.

Sollte wohl mehr als ausreichend sein, vorallem, wenn man die gesparten Transitoren in sinnvollere Einheiten/Optimierungen stecken kann.;)

Ich frage mich, warum angenommen wird, dass die TA zuviel kosten. Wären sie so teuer - wieso hätte nVidia sie dann in G84/86 wieder eingebaut?

reunion
2008-05-18, 17:48:04
Ich frage mich, warum angenommen wird, dass die TA zuviel kosten. Wären sie so teuer - wieso hätte nVidia sie dann in G84/86 wieder eingebaut?

Die Dinger müssen für D3D10 voll auf FP32 ausgelegt sein, die sind sicher alles andere als billig. Zumal wohin sollen sonst die 754mio Transistoren bei G92, trotz zwei fehlender ROP-Cluster verschwunden sein?

LovesuckZ
2008-05-18, 17:49:17
Die Dinger müssen für D3D10 voll auf FP32 ausgelegt sein, die sind sicher alles andere als billig. Zumal wohin sollen sonst die 754mio Transistoren bei G92, trotz zwei fehlender ROP-Cluster verschwunden sein?

Und weil sie so teuer sind, haut man sie in die Low- bzw. Midrange Modelle ein? Das klingt widersprüchlich.

reunion
2008-05-18, 17:54:45
Und weil sie so teuer sind, haut man sie in die Low- bzw. Midrange Modelle ein? Das klingt widersprüchlich.

Ja das ist seltsam. Ich habe sowieso nie verstanden warum man die Dinge wieder eingefügt hat, denn wirkliche Leistungssprünge konnte man deshalb nie feststellen. Eine mögliche Erklärung wäre, dass im Low- und Midragebereich wohl weit weniger oft AF angewendet wird, und es deshalb dort vermutlich mehr Sinn macht gleich viele Texturen adressieren und filtern zu können.

AnarchX
2008-05-18, 17:55:32
Imo, machen doch TA=TFs bei diesen Modellen gerade Sinn, da hier meist optimierte bzw. niedriger eingestellte Filterung zum Einsatz kommt bzw. ganz darauf verzichtet wird.

Godmode
2008-05-18, 17:56:33
Wenn man machen Geruechten folgen wuerde, so viel wie GeForce im Vergleich zu TNT2.

Und von welcher TNT2 bzw Geforce 256 reden wir?

edit:
http://de.wikipedia.org/wiki/NVIDIA_Riva
vs
http://de.wikipedia.org/wiki/Nvidia-GeForce-256-Serie

Gast
2008-05-18, 18:10:03
QX9770@4GHz
4GB DDR2 800
X38DQ6
Vista 64

http://www.bilder-space.de/upload/4DUipM3G6MUBIGg.png

Grestorn
2008-05-18, 18:14:33
wo kommt die Grafik her?

Superheld
2008-05-18, 18:15:04
schicke Balken;)

Gast
2008-05-18, 18:16:33
hat ein freund von mir im inet gefunden und mir per mail geschickt wollte ich nicht vorenthalten ob jedoch was wahres dran ist sei dahingestellt. kann auch sein das tabellen erstellen in den letzten tagen einfach in ist

LovesuckZ
2008-05-18, 18:17:35
Klar, auf einer Image-Host Seite. Hat wohl nach 4DUipM3G6MUBIGg.png gesucht. :ugly:

Gast
2008-05-18, 18:19:54
Klar, auf einer Image-Host Seite. Hat wohl nach 4DUipM3G6MUBIGg.png gesucht. :ugly:
Und wie sollte der Gast das Bild sonst ins Forum stellen? Du bist ja clever.

LovesuckZ
2008-05-18, 18:20:57
Indem er den schon gesetzt link benutzt? :rolleyes:

Schlammsau
2008-05-18, 18:25:52
3x mehr Leistung als ne GTS....ist doch genau die Leistung auf die hier Spekuliert wird. Oder nicht?

=Floi=
2008-05-18, 18:39:30
im großen und ganzen passt das schon (zumindest bei den alten karten)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis

Gast
2008-05-18, 18:48:15
Indem er den schon gesetzt link benutzt? :rolleyes:
Wo steht das er den Link per Mail bekommen hat? Vielleicht einfach nur das Bild per Anhang. Man kann seine Paranoia auch übertreiben.

gamingforce
2008-05-18, 19:07:08
QX9770@4GHz
4GB DDR2 800
X38DQ6
Vista 64

http://www.bilder-space.de/upload/4DUipM3G6MUBIGg.png

sehr witzig, wer bitte soll das glauben?

Ich hab mit 2x 8800GTS 512 MB schon wie da auf dem Bild der Gt200 ;D

MEDIC-on-DUTY
2008-05-18, 19:23:07
sehr witzig, wer bitte soll das glauben?

Ich hab mit 2x 8800GTS 512 MB schon wie da auf dem Bild der Gt200 ;D

Jetzt kommt die Zeit der Excelleros. :D

Gast
2008-05-18, 19:31:02
Hoffe Nvidia bringt die Karte bald, sonst werden wir mit gefakten Benchmarks überschwemmt...

Gast
2008-05-18, 19:32:18
Hoffe Nvidia bringt die Karte bald, sonst werden wir mit gefakten Benchmarks überschwemmt...

was heist bald termin steht doch genau in einem monat:)

crux2005
2008-05-18, 19:37:49
Der "step back" scheint wohl die Halbierung der Adressierer zu sein, sodass GT200 nur mit 40 TA und 80 TFs daher kommt.

Sollte wohl mehr als ausreichend sein, vorallem, wenn man die gesparten Transitoren in sinnvollere Einheiten/Optimierungen stecken kann.;)

was habe ich gesagt ;D

=Floi=
2008-05-18, 20:08:46
könnte der eine chip der als io chip gesehen wurde nicht ein externer physx chip sein? (bzw. physx in diesem chip integriert?)

AnarchX
2008-05-18, 20:09:18
Ganz sicher nicht. PhysX wird nach CUDA portiert.

Gast
2008-05-18, 20:24:01
QX9770@4GHz
4GB DDR2 800
X38DQ6
Vista 64

http://www.bilder-space.de/upload/4DUipM3G6MUBIGg.png

Selten so gelacht.
Deswegen wurde die Bilddatei um 18:07 erst erstellt. Ganze 3 Minuten vor deinem Post. Beim nächsten mal fälschen bitte etwas mehr anstrengen ja?

Schlammsau
2008-05-18, 20:29:50
hier noch eine kleine Zusammenfassung der bisherigen Speku´s.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/geforce_gtx_200_physx_directx_101/

AffenJack
2008-05-18, 20:42:04
hatten wir vor 6 seiten schon, wenn was schon bei cb ankommt kann man sich eigentlich fast immer sicher sein,dass es hier schon war^^

Slipknot79
2008-05-18, 21:32:06
wo kommt die Grafik her?


Vermutlich Excel :tongue:

Dadi
2008-05-19, 09:20:24
Was ich gerne wissen würde,

meint ihr der Stromverbrauch im IDLE wird hoch sein?
Ist da was gelöst worden?
Spekuliert mal… ob der Verbrauch an Strom genauso sein wird wie bei einer 9800 GTX im Idle, mehr? Weniger?

mapel110
2008-05-19, 09:25:27
Ich würd sagen, da nvidia ja mit Hybrid-SLI etwas im Angebot für die Stromsparfüchse hat, wird sich der reguläre idle-Verbrauch wohl eher steigern. Ergo nvidia hat da nichts verbessert, denke ich.

Schlammsau
2008-05-19, 09:25:50
Ich denke mal angesichts der gebotenen Leistung, deutlich über dem der 9800GTX!
Bisher ist ja schon einiges über den GT200 bekannt geworden, aber von einem verbessertem Stromsparmechanismuss, hab ich noch nichts gehört/gelesen!

Dadi
2008-05-19, 09:41:57
Und die Temperaturentwicklung? Wenn die so wie bei der 9800 GX2 wird, dann wird das wohl nichts für mich werden. (fand die 8800 GTX etwas angenehmer)…
Vor allem jetzt vorm Sommer brauch ich keine Heizung ^^

Bezüglich dem Stromsparmechanisum, versteh ich nicht was so schwer sein kann. Eine kleine externe Lösung die an der Karte liegt, wäre doch nicht schlecht. z.B. wenn man 2D Darstellung hat (OS, IDLE) dass sich die Karte ausschaltet und nur der externe Teil für 2D arbeitet. Bin kein Fachmann, aber so schwer kanns nicht sein.

Unyu
2008-05-19, 10:35:48
Und die Temperaturentwicklung?
Je nach Lautstärke.

Zauberer
2008-05-19, 11:15:28
Hi Leute!
Ich denke, dass für einen Preis von 500€, die GeForce 280 GTX mindestens 25% schneller als eine 9800 GX2 sein sollte.
Weil die 9800 GX2 bekommt man schon für ca. 400€, und nach erscheinen der GeForce 280 GTX, wird der Preis der 9800 aller Wahrscheinlichkeit nach fallen.
War bei den 8800er Karten ja auch so, obwohl die alten 8800er Karten teilweise ein besseres Preis Leistungsverhältnis hatten (nach Veröffentlichung der 9800er Serie), und die 9800er Serie nichts neues bieten.

Also eine 9800 GX2 muss deutlich geschlagen werden (nicht die 9800 GTX, wie ich hier leider lesen musste), sonst lohnt sich nicht das Aufrüsten auf die 280 GTX nicht.
Aber ich denke, es lohnt sich sowieso nicht, es sei denn die 280 GTX ist 50% schneller als die 9800 GX2, dann müsste man sich das überlegen.

AnarchX
2008-05-19, 11:17:48
Naja, die GTX 280 liefert im Gegensatz zur GX2 "echte" FPS. ;)

Sonyfreak
2008-05-19, 11:19:53
QX9770@4GHz
4GB DDR2 800
X38DQ6
Vista 64

http://www.bilder-space.de/upload/4DUipM3G6MUBIGg.pngAbgesehen davon, dass ich das Bild für ne Fälschung halte, würde ich mich freuen, wenn es um die Endleistung der GTX tatsächlich so bestellt wäre. :)

mfg.

Sonyfreak

gamingforce
2008-05-19, 11:36:50
selbst wenn das stimmt, 30 FPS in den Settings? ;D
ne GX2 oder X2 schafft das ja schon locker :rolleyes:
wäre also ziemlich arm, wurde nicht gesagt 2560x1600 4xAA 16xAF Very High total flüssig ? xD

Godmode
2008-05-19, 11:55:13
selbst wenn das stimmt, 30 FPS in den Settings? ;D
ne GX2 oder X2 schafft das ja schon locker :rolleyes:
wäre also ziemlich arm, wurde nicht gesagt 2560x1600 4xAA 16xAF Very High total flüssig ? xD

Also ich sehe hier mit 9800 GTX SLI gerade mal 19,5 FPS:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis

Mit der GX2 bzw. X2 sieht es noch düsterer aus:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/18/#abschnitt_crysis

Und auch Q-SLI bzw Crossfire-X hilft hier nichts mehr:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_crossfire_x_nvidia_quad-sli/17/#abschnitt_crysis

Eigentlich macht es keinen Sinn über diese Zahlen zu diskutieren, da wir einfach nicht wissen was genau gebencht wurde.

dargo
2008-05-19, 12:03:57
selbst wenn das stimmt, 30 FPS in den Settings? ;D
ne GX2 oder X2 schafft das ja schon locker :rolleyes:

In deinen Träumen vielleicht.


wäre also ziemlich arm, wurde nicht gesagt 2560x1600 4xAA 16xAF Very High total flüssig ? xD
Das bezog sich auf GT200GTX280@SLI.

Odal
2008-05-19, 12:06:49
QX9770@4GHz
4GB DDR2 800
X38DQ6
Vista 64

http://www.bilder-space.de/upload/4DUipM3G6MUBIGg.png


lol alles klar...GT200 ist als singlechip 35% schneller als ne 4870 X2 Multi Chip Lösung ^^

wovon träumt der ersteller des diagramms eigentlich nachts?

AnarchX
2008-05-19, 12:09:01
lol alles klar...GT200 ist als singlechip 35% schneller als ne 4870 X2 Multi Chip Lösung ^^

Das ist ja noch das glaubwürdigste am Diagramm. ;)

dargo
2008-05-19, 12:14:10
lol alles klar...GT200 ist als singlechip 35% schneller als ne 4870 X2 Multi Chip Lösung ^^

wovon träumt der ersteller des diagramms eigentlich nachts?
Vielleicht mal endlich von einer High-End Lösung seitens AMD?
Ich sehe das übrigens genauso wie AnarchX wenn ich die Die-Sizes vergleiche und dabei die CF-Skalierung betrachte.

Gast
2008-05-19, 12:35:48
Besagte Grafik ist tatsächlich noch die wahrscheinlichste (wenn auch vermutlich gefälschte) Prognose.

Gast
2008-05-19, 12:47:23
lol alles klar...GT200 ist als singlechip 35% schneller als ne 4870 X2 Multi Chip Lösung ^^

wovon träumt der ersteller des diagramms eigentlich nachts?


hab ich mich auch gerade gefragt,so wie es auschaut wird die ja gerade mal nur 25% schneller als die einzelkern verion sein:)

MEDIC-on-DUTY
2008-05-19, 12:55:52
Sollten die Hausnummern stimmen, dann wäre Crysis sogar in der "flüssigen" Very-High-all-on-Zone angekommen. Ein SLI-System dürfte dann min. nochmal 25% drauflegen - beeindruckend.

reunion
2008-05-19, 13:03:17
Ich sehe das übrigens genauso wie AnarchX wenn ich die Die-Sizes vergleiche und dabei die CF-Skalierung betrachte.

Naja, vergiss nicht den Fertigungsvorteil von ATi. RV770 wird bei 256mm² Die-Size immerhin auf knapp 900mio Transistoren kommen, GT200 bei 575mm² auf kaum mehr als 1.3Mrd.

Ailuros
2008-05-19, 15:23:18
lol alles klar...GT200 ist als singlechip 35% schneller als ne 4870 X2 Multi Chip Lösung ^^

wovon träumt der ersteller des diagramms eigentlich nachts?

Ihr koennt die albernen vorzeitigen Leistungsdiagramme gerne gleich vergessen bis zum offiziellen Launch, aber da Crysis sich sowieso nicht besonders gut mit SLi/CF verhaelt klingt so eine Relation gar nicht mal so unwahrscheinlich zumindest theoretisch.

Von dem abgesehen es gibt noch keine R700-Testboards.

dildo4u
2008-05-19, 15:31:36
I aber da Crysis sich sowieso nicht besonders gut mit SLi/CF verhaelt klingt so eine Relation gar nicht mal so unwahrscheinlich zumindest theoretisch.

CF versagt(ca 40% Mherleistung) bei Crysis SLI (ca75% Mherleistung)hingegen skaliert sogar sher gut.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/19/#abschnitt_crysis

reunion
2008-05-19, 15:38:22
CF versagt(ca 40% Mherleistung) bei Crysis SLI (ca75% Mherleistung)hingegen skaliert sogar sher gut.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/19/#abschnitt_crysis

Nimm mal ein anderes Level und schon ist Sense.

Ailuros
2008-05-19, 15:39:09
CF versagt bei Crysis SLI skaliert sogar sher gut.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/19/#abschnitt_crysis

Der angebliche vorige Test war in 1680*1050 mit 4xAA. Selbst in 1280 4xAA ist der Unterschied zwischen 3870 und einer 3870X2 etwa auf gleichem Niveau wie zwischen G92 und G92*2, egal ob die Ausgangsleistung bei der 3870 um einiges niedriger ist.

SLi skaliert in 1680 w/4xAA hier eher beschissen, aber auch nur weil der GX2 der Framebuffer ausgeht LOL. So und wer will mir jetzt beweisen wieviel Speicher die angebliche 4870X2 genau hatte?

Nochmal: beschaeftigt Euch bitte mit ernsthafterem Zeug als den Bloedsinn den jeder aufs Netz jagt. Bunte Graphen kann jeder zusammenschmieren.

Winter[Raven]
2008-05-19, 16:04:05
Ich sag das jetzt mal so...

Wenn ich als Entwickler ein Monsterchip bekommen würde, der D3D10 Software zum Vorgeneration wirklich in Masse nutzbar macht, dann würde ich auf .1 Support verzichten. Ich würde lieber EXTRA-Sachen als D3D10 einbauen, als das diese mit AA in .1 nicht in entsprechender Perf. laufen.

Und so GROß sind die Vorteile nun auch wieder nicht. Mit D3D11 werden die natürlich zur Pflicht.

MEDIC-on-DUTY
2008-05-19, 16:09:26
Der angebliche vorige Test war in 1680*1050 mit 4xAA. Selbst in 1280 4xAA ist der Unterschied zwischen 3870 und einer 3870X2 etwa auf gleichem Niveau wie zwischen G92 und G92*2, egal ob die Ausgangsleistung bei der 3870 um einiges niedriger ist.

SLi skaliert in 1680 w/4xAA hier eher beschissen, aber auch nur weil der GX2 der Framebuffer ausgeht LOL. So und wer will mir jetzt beweisen wieviel Speicher die angebliche 4870X2 genau hatte?

Nochmal: beschaeftigt Euch bitte mit ernsthafterem Zeug als den Bloedsinn den jeder aufs Netz jagt. Bunte Graphen kann jeder zusammenschmieren.

Wer etwas weiß, darf nix sagen und wer nix weiß, meint etwas sagen zu müssen :D

robbitop@work
2008-05-19, 16:13:44
Von dem abgesehen es gibt noch keine R700-Testboards.
Aber es gibt RV770PRO Testboards. Davon 2x einbauen und CF aktivieren. ;-)

Gast
2008-05-19, 17:03:59
Nimm mal ein anderes Level und schon ist Sense.

Was an der CPU liegt...

Nightspider
2008-05-19, 17:05:14
Ich weiß gar nicht was die AMD-Fanboys hier schonwieder rumzicken...

Laut dem Diagramm ist der GT200 doppelt so schnell, in diesen schon etwas über dem Durchschnitt liegenden Einstellungen...

Und das nach 1,5 Jahren !!!

Dass das Diagramm keinen offiziellen Ursprung hat kann sich jeder denken. Ich bezweifle das jemand beide Karten einen Monat vor Release hat.

Wenn AMD zudem selbst sagt, das der R770 ein Mainstream Chip wird brauchen nicht alle AMD-Fanboys aufmucken, nur weil Nvidia sich halbwegs an den Zeitplan hält und nach langer Zeit, ganzen 1,5 Jahren, endlich wieder mal eine Grafikkarte herausbringt, die doppelt so schnell ist

Da brauch hier nicht jeder AMD-Fanboy rumspamen, dass das Diagramm von einem NV-Fanboy gemacht wurde...

Das AMD nicht das maximal machbare auf dem Markt wirft heist ja nicht, das NV das nicht darf. AMD ist finanziell angeschlagen, da darf man nichts all zu großes erwarten.


Liebe Gäste, benehmt euch einmal erwachsen...danke...

AnarchX
2008-05-19, 17:17:37
Laut neuesten Gerüchten soll die GTX 280 im 3DMark Vantage knapp über 7.000 Punkte erreichen, im Extreme Preset.;)

Adam D.
2008-05-19, 17:28:45
Laut neuesten Gerüchten soll die GTX 280 im 3DMark Vantage knapp über 7.000 Punkte erreichen, im Extreme Preset.;)
AFAIK kommt doch eine GX2 auf knapp 3500 Punkte. Doppelte Punktzahl ... Naja, keine Ahnung, wie aussagekräftig das ist.

Nakai
2008-05-19, 17:31:07
Laut neuesten Gerüchten soll die GTX 280 im 3DMark Vantage knapp über 7.000 Punkte erreichen, im Extreme Preset.;)

Was etwa 12.000 Punkte unter normalen Settings sein werden. Sehr nett, wie ich finde.
Das passt auch zu 50% schneller als altes Highend...;)


mfg Nakai

€:AFAIK kommt doch eine GX2 auf knapp 3500 Punkte. Doppelte Punktzahl ... Naja, keine Ahnung, wie aussagekräftig das ist.

Würde mich nicht wundern wenn da der Speicher knapp wird...

dildo4u
2008-05-19, 17:31:09
Tombman kommt mit X Preset auf 4800 mit seinem 8800GTX SLI.

dildo4u
2008-05-19, 17:32:29
Was etwa 12.000 Punkte unter normalen Settings sein werden. Sehr nett, wie ich finde.
Das passt auch zu 50% schneller als altes Highend...;)


mfg Nakai
100% Schneller als eine 8800GTX 9800GTX die schaffen ca 6500 die GT280 13000 wurde schon vor ein paar Tagen geleaked.X2 und GX2 sind natürlich keine Alternavite zu einer Singlechip Lösung.


http://www.pcgameshardware.de/aid,641923/Test/Benchmark/3DMark_Vantage_Die_Rueckkehr_des_Mikroruckelns/

Nakai
2008-05-19, 17:35:21
100% Schneller als eine 8800GTX 9800GTX die schaffen ca 6500 die GT280 13000 wurde schon vor ein paar Tagen geleaked.

Ja, ich meinte blos, dass es zu den 50% höhere Performance passen würde.


mfg Nakai

Gast
2008-05-19, 17:42:57
Haut mich jetzt nicht um die 7000 Pkt. Aber 14000 Pkt. wären eine Meisterleistung :) (Ein wenig Ironie dabei...)

Dennoch: Bei den nächsten Highend-Games ruckelt es denn schon wieder bei hohen Settings in DirectX10 auf diesem Highend ! Und immerhin, dieses Highend wird uns einige Zeit begleiten bis das nächste Highend vor der Tür steht.

MfG,
ein besorgter Gast :)

pest
2008-05-19, 18:01:21
X7000 sind ca. P20000 ~ > 2x9800GX2 ?

Gast
2008-05-19, 18:04:46
Haut mich jetzt nicht um die 7000 Pkt. Aber 14000 Pkt. wären eine Meisterleistung :) (Ein wenig Ironie dabei...)

Dennoch: Bei den nächsten Highend-Games ruckelt es denn schon wieder bei hohen Settings in DirectX10 auf diesem Highend ! Und immerhin, dieses Highend wird uns einige Zeit begleiten bis das nächste Highend vor der Tür steht.

MfG,
ein besorgter Gast :)
Mich besorgt eher, was die sogenannten Highend-Games sein werden. Also die zukünftigen Portierungen werden wohl kaum extreme Power brauchen, selbst wenn sie gegenüber der Konsolenversion etwas aufpeppt werden. Also bleibt nur Crysis als Muster-High-End-Game" übrig. Oder man ballert mit extrem hohen Auflösungen oder SS um sich.

LovesuckZ
2008-05-19, 18:06:40
1080p bzw. 1200p sind Argumente für diese Karte. Und beide Auflösungen werden immer billiger.

Die gelbe Eule
2008-05-19, 18:08:01
Tombman kommt mit X Preset auf 4800 mit seinem 8800GTX SLI.

Ich auf 4.000 mit OC'ed GT 1024MB SLi, also sind die 7.000 sehr beachtlich.

Gast
2008-05-19, 18:14:27
Naja, vergiss nicht den Fertigungsvorteil von ATi. RV770 wird bei 256mm² Die-Size immerhin auf knapp 900mio Transistoren kommen, GT200 bei 575mm² auf kaum mehr als 1.3Mrd.

RV770 ist aber nicht der direkte Konkurrent zur GTX280. Er wird sich in Preis und Leistung mit der abgespeckten GTX260 messen dürfen.

Godmode
2008-05-19, 18:19:52
Wenn sich diese Skalierung auch in realen Spielen zeigt, ist doch alles wunderbar!

Ich habe vorher was bei B3D oder INQ? gelesen, dass mit GT200 neue SLI-Modes kommen werden, ist dazu schon was bekannt?

Gast
2008-05-19, 18:23:05
Laut neuesten Gerüchten soll die GTX 280 im 3DMark Vantage knapp über 7.000 Punkte erreichen, im Extreme Preset.;)
wenn man ein paar noch besitzen tut dann sollte man wissen das das niemals möglich wäre.da müsste die gt200 ja knapp 480shader usw. haben und die speicherbandbreite würde auch nie und nimmer reichen.

Gast
2008-05-19, 18:24:22
wenn man ein paar noch besitzen tut dann sollte man wissen das das niemals möglich wäre.da müsste die gt200 ja knapp 480shader usw. haben und die speicherbandbreite würde auch nie und nimmer reichen.


im sli ist es möglich aber stimmt schon alleine bestimmt nicht.

Godmode
2008-05-19, 18:34:03
im sli ist es möglich aber stimmt schon alleine bestimmt nicht.

Ich denke es könnte doch möglich sein, da der GX2 in diesem Setting vielleicht der VRAM ausgeht.

Gast
2008-05-19, 18:42:07
Ich denke es könnte doch möglich sein, da der GX2 in diesem Setting vielleicht der VRAM ausgeht.

lass die gx2 mal raus,mit der kann man eh nicht vergleichen da sie einfach viel zustark einknickt bei quality settings,nimm mal tombman´s wert als maßstab,der kommt auf 4800 mit 2 gtx im sli,dann kann man sich ausmalen das die gt200 das im sli schafft aber nicht alleine:)

Gast
2008-05-19, 18:43:44
lass die gx2 mal raus,mit der kann man eh nicht vergleichen da sie einfach viel zustark einknickt bei quality settings,nimm mal tombman´s wert als maßstab,der kommt auf 4800 mit 2 gtx im sli,dann kann man sich ausmalen das die gt200 das im sli schafft aber nicht alleine:)

das wären dann ca. die 50% mehr performance zur alten generation,also erhofft euch mal nicht zuviel sonst fällt man tief:)

Schlammsau
2008-05-19, 18:46:51
Ich auf 4.000 mit OC'ed GT 1024MB SLi, also sind die 7.000 sehr beachtlich.
Der Wert ist unrealistisch......:P

Sonyfreak
2008-05-19, 19:04:40
Der Wert ist unrealistisch......:PUnrealistisch schon, aber man wird ja noch träumen dürfen oder? ;)

mfg.

Sonyfreak

Godmode
2008-05-19, 19:08:22
lass die gx2 mal raus,mit der kann man eh nicht vergleichen da sie einfach viel zustark einknickt bei quality settings,nimm mal tombman´s wert als maßstab,der kommt auf 4800 mit 2 gtx im sli,dann kann man sich ausmalen das die gt200 das im sli schafft aber nicht alleine:)

Da der Ventage sehr gut mit SLI skaliert, wäre eine einzelne GT200 Karte gerade mal 45 % schneller als eine GTX! CPU Limit vergessen wir in diesem Preset mal. Sollte sich das bewahrheiten, dann wäre das ziemlich peinlich, wenn man bedenkt wie fett dieser Chip wird!

X7000 Punkte würden gut zu den bisherigen Gerüchten passen, IMO.

Gast
2008-05-19, 19:11:18
Der Wert ist unrealistisch......:P

Weil?

Der_Korken
2008-05-19, 19:15:31
Vielleicht holt der GT200 beim Vantage deutlich mehr aus seinen Recheneinheiten raus. Ich denke mal, Nvidia wird auch an den Shadern noch ordentlich optimiert haben in der langen Zeit. Das könnte sich eben gerade unter DX10 stark bemerkbar machen. Sollten sich die X7000 tatsächlich auf einen einzelnen GT200 beziehen, naja, mich würds nicht überraschen.

Schlammsau
2008-05-19, 19:19:39
Vielleicht holt der GT200 beim Vantage deutlich mehr aus seinen Recheneinheiten raus. Ich denke mal, Nvidia wird auch an den Shadern noch ordentlich optimiert haben in der langen Zeit. Das könnte sich eben gerade unter DX10 stark bemerkbar machen. Sollten sich die X7000 tatsächlich auf einen einzelnen GT200 beziehen, naja, mich würds nicht überraschen.

Doppelte GX2 Performance?? Neeee Leute......nicht euer ernst!
Das ist ja schon fast Vervierfachung der G80 Performance!
An den Weihnachtsmann glaubt ihr wohl auch noch! :cool:

Schlammsau
2008-05-19, 19:27:45
Jetzt ernsthaft, Verdoppelung zum schnellsten derzeit verfügbarem Single G92, scheint mir realistisch!
Alles andere wäre absolut sinnfrei!

Aber wenn doch doppelte GX2 Leistung erreicht würde, müsste doch die GX2 im nöchsten Monat für rund 250€ oder noch weniger zu haben sein, eine 8800GT dürfte dann bei 75€ liegen oder?
Der GT200 soll ja "nur" um die 500$ kosten!
Neeee, nicht wirklich Leute!!!!!!

K4mPFwUr$t
2008-05-19, 19:41:30
würde ich auch sagen, +100% allgemein und vll. +150+200% in bestimmten szenarien.

=Floi=
2008-05-19, 19:41:42
bei 240 shadereinheiten @ 2,2ghz bekommt man 3X so viel shaderleistung, wie bei der 8800GTX
wenn die shaderleistung immer wichtiger wird könnte sich hier die neue karte durchaus in bestimmten szenarien so weit absetzten

Der_Korken
2008-05-19, 19:44:04
Doppelte GX2 Performance?? Neeee Leute......nicht euer ernst!
Das ist ja schon fast Vervierfachung der G80 Performance!
An den Weihnachtsmann glaubt ihr wohl auch noch! :cool:

Ich beziehe mich jetzt auf die 4800 Punkte von Tombmans GTX SLI, da der G80 imho am ehesten mit dem GT200 vergleichbar ist. Der G92, insbesondere die GX2 krankte ja gelegentlich an zu wenig VRAM in hohen Settings, was auch hier der Fall sein könnte. Je nachdem, wie gut SLI skaliert, wären das etwa 2,5fache G80 Performance. Das halte ich bei doppeltem Transistorcount und 1,5 Jahren weitere Optimierung durchaus für realistisch.

würde ich auch sagen, +100% allgemein und vll. +150+200% in bestimmten szenarien.

Jo, so könnte man das auch formulieren.

Gast
2008-05-19, 19:44:21
Crysis z.b. wird auf der GT200 enorm geil rennen ich denke um den Faktor 2,5 schneller als eine 8800 Ultra

Gast
2008-05-19, 19:47:45
Crysis is die falsche Meßlatte... Welche Engines werden auf Konsolen eingesetzt, welche PC Games kommen dieses Jahr mit DX10 Grafik, das ist die Meßlatte.

Gast
2008-05-19, 19:48:36
Crysis is die falsche Meßlatte... Welche Engines werden auf Konsolen eingesetzt, welche PC Games kommen dieses Jahr mit DX10 Grafik, das ist die Meßlatte.

Falsch an Crysis werden sich die neuen Karten messen lassen müssen. Vorwärts immer, rückwärts nimmer!

K4mPFwUr$t
2008-05-19, 19:48:44
@=Floi=
das shaderpower allein nichts wert ist sieht man gut bei der 9800GTX.
die 9800GTX hat zwar die höhere rohpower, aber bei VRAM und bandbreite kränkelt sie.

in 1280x1024 ohne groß AA ist die 98GTX vorne, bei steigender auflösung und AA setting bricht sie zu stark ein.
auch wenn man beim G9x eine VRAM komprimierung einsetzt.

Schlammsau
2008-05-19, 19:49:23
Ich beziehe mich jetzt auf die 4800 Punkte von Tombmans GTX SLI, da der G80 imho am ehesten mit dem GT200 vergleichbar ist. Der G92, insbesondere die GX2 krankte ja gelegentlich an zu wenig VRAM in hohen Settings, was auch hier der Fall sein könnte. Je nachdem, wie gut SLI skaliert, wären das etwa 2,5fache G80 Performance. Das halte ich bei doppeltem Transistorcount und 1,5 Jahren weitere Optimierung durchaus für realistisch.
Aber doch nicht zu diesem spekuliertem Preis!
Überlegt doch mal, wie weit die Preise der anderen Karten fallen müssen!
High End hatte schon immer den schlechtesten P/L Faktor!
Da reicht es nicht bei Verdoppelung der Leistung, den Preis einer GTX mal 2 zu nehmen, sondern eher mal 3! Das wären ein minimum von 600 Teuronen.....
Wenn ihr dann noch von einer Verdreifachung der Leistung ausgeht, dann sollte der Preis bei 800€ aufwärts liegen. Bei den momentanen Hardwarepreisen versteht sich!

tombman
2008-05-19, 19:50:40
Laut neuesten Gerüchten soll die GTX 280 im 3DMark Vantage knapp über 7.000 Punkte erreichen, im Extreme Preset.;)
WTF????????
Ich habe mit GTX SLI (oc) gerade mal 4800 bei Extreme :eek:

Schlammsau
2008-05-19, 19:55:38
WTF????????
Ich habe mit GTX SLI (oc) gerade mal 4800 bei Extreme :eek:

Ich habe Gerüchte gehört, dass der R700 weit über die 8000 Points im im Xtreme Mode schafft!

w0mbat
2008-05-19, 19:57:11
Ich habe Gerüchte gehört, dass der R700 weit über die 8000 Points im im Xtreme Mode schafft!

Falsch! Nicht weit, es waren nur 8017 Pkt. :tongue:

K4mPFwUr$t
2008-05-19, 19:58:02
wunschvorstellung, mehr sind das nicht.

du bestreitest die doppelte performance einer 9800GX2, aber hällst 8000Punkte bei extreme mode bei einem RV chip der gerade mal 900mio transis hat für möglich?

Schlammsau
2008-05-19, 19:58:03
Falsch! Nicht weit, es waren nur 8017 Pkt. :tongue:

Stimmt :up:

wunschvorstellung, mehr sind das nicht.

du bestreitest die doppelte performance einer 9800GX2, aber hällst 8000Punkte bei extreme mode bei einem RV chip der gerade mal 900mio transis hat für möglich?

einem R Chip!

tombman
2008-05-19, 19:58:36
Ich habe Gerüchte gehört, dass der R700 weit über die 8000 Points im im Xtreme Mode schafft!
Die Gerüchte sind nur so gut, wie der von dem sie kommen- und du bist nicht AnarchX ;)

K4mPFwUr$t
2008-05-19, 20:01:20
@Schlammsau
ok habs aus gewohnheit gelesen RV770.
allerdings glaube ich kaum das zwei RV770 einen GT200 schlagen bei einer durchschnittskalierung von x1.5.

außer man hat kräftig an CF gearbeitet, was ich aber kaum glaube.

tombman
2008-05-19, 20:02:42
Vantage und Crysis- daran wird sich alles messen ;)

Konsolenports rennen ja mit jetziger hw schon perfekt...

mictasm
2008-05-19, 20:03:43
Jetzt ernsthaft, Verdoppelung zum schnellsten derzeit verfügbarem Single G92, scheint mir realistisch!
Alles andere wäre absolut sinnfrei!

Aber wenn doch doppelte GX2 Leistung erreicht würde, müsste doch die GX2 im nöchsten Monat für rund 250€ oder noch weniger zu haben sein, eine 8800GT dürfte dann bei 75€ liegen oder?
Der GT200 soll ja "nur" um die 500$ kosten!
Neeee, nicht wirklich Leute!!!!!!

Die GX2 wird nur kurz billiger und wird dann verschwinden. Genauso bei den kleineren Karten, es gibt dann einfach mehr Leistung für gleiche Preise. Der Rest wird einfach nicht weiter angeboten.
Und nochmal für dich: Das ist kein Nachfolger für die ganzen G92 Derivate, nur der G80 GTX/Ultra ist der richtige Vergleich.

Der_Korken
2008-05-19, 20:06:05
Aber doch nicht zu diesem spekuliertem Preis!
Überlegt doch mal, wie weit die Preise der anderen Karten fallen müssen!
High End hatte schon immer den schlechtesten P/L Faktor!
Da reicht es nicht bei Verdoppelung der Leistung, den Preis einer GTX mal 2 zu nehmen, sondern eher mal 3! Das wären ein minimum von 600 Teuronen.....
Wenn ihr dann noch von einer Verdreifachung der Leistung ausgeht, dann sollte der Preis bei 800€ aufwärts liegen. Bei den momentanen Hardwarepreisen versteht sich!

Erstens wären die 7000 Punkte keine Verdreifachung und zweitens würde diese Leistung nur in wenigen Anwendungen erreicht, wie zum Beispiel der 3D Mark. In den meistens Spielen schlägt dann eher eine Verdopplung durch, mit viel AA auch noch mehr. Außerdem wären die 500€ etwa dreimal so viel wie im Moment eine 8800GTS 512 kostet. Da halte ich eine Ver2,5fachung weiterhin für realistisch.

Schlammsau
2008-05-19, 20:11:15
Erstens wären die 7000 Punkte keine Verdreifachung und zweitens würde diese Leistung nur in wenigen Anwendungen erreicht, wie zum Beispiel der 3D Mark. In den meistens Spielen schlägt dann eher eine Verdopplung durch, mit viel AA auch noch mehr. Außerdem wären die 500€ etwa dreimal so viel wie im Moment eine 8800GTS 512 kostet. Da halte ich eine Ver2,5fachung weiterhin für realistisch.

wir reden hier von einem spekuliertem Preis von um die 500 Dollar nicht Euro! Bei dem günstigen Dollar Kurs, wären das bei uns in D kurz nach dem Launch, Strassenpreise um die 400€! :eek:
Das kann ich nicht glauben.....nicht bei 200-300% Mehrleistung zu einer 8800GTX (G80)! 2 GX2 kosten immo noch rund 900€!
Entweder die Karte wird deutlich teurer als bisher angenommen oder sie ist einfach nicht so schnell wie es hier einige gern hätten.
Ihr könnt es euch aussuchen!

AnarchX
2008-05-19, 20:13:51
Natürlich wird die GTX 280 keinen MSRP von $499 haben...

deLuxX`
2008-05-19, 20:14:19
Ihr könnt es euch aussuchen!
Oder auch nicht.;)

Es kommt wies kommt. Egal was jemand hier im Forum sagt.

Schlammsau
2008-05-19, 20:15:51
Natürlich wird die GTX 280 keinen MSRP von $499 haben...

und wie hoch wird dieser dann sein?

tombman
2008-05-19, 20:16:05
Wenn die GTX 280 doppelt so schnell wie heutige Karten ist, dann wird die beim Händler nicht unter 600€ zu haben sein, da wette ich drauf.

K4mPFwUr$t
2008-05-19, 20:17:06
@schlammsau
vermutung:
G80 als ausgangsbais ...
128SP vs. 240SP = +87.5% SP
SP effizent 100% vs. 150% = +50% SP effizenz (laut gerücht)
386bit SI vs. 512bit SI = +33% mehr bandbreite allein durch das SI (GDDR3 takt bleibt wohl so)

@tombman
beim launch wäre das nichts neues, da fetten die händler die leute eh gerne ab.
wird aber sicherlich wie beim G80 auch noch ein paar wochen in den höheren preisregionen sein.
aber auf dauer kann ich mir beim besten willen nicht 600€ straßenpreis vorstellen.

Schlammsau
2008-05-19, 20:18:14
Wenn die GTX 280 doppelt so schnell wie heutige Karten ist, dann wird die beim Händler nicht unter 600€ zu haben sein, da wette ich drauf.
Das ist doch schonmal ein realistischerer Preis!
Aber gehen wir jetzt mal von 2,5 bis 3 facher Leistung aus! Wie hoch wird der Preis dann sein?

AnarchX
2008-05-19, 20:18:21
und wie hoch wird dieser dann sein?
Wohl nicht unter $599, laut PHK.

Der_Korken
2008-05-19, 20:18:23
wir reden hier von einem spekuliertem Preis von um die 500 Dollar nicht Euro! Bei dem günstigen Dollar Kurs, wären das bei uns in D kurz nach dem Launch, Strassenpreise um die 400€! :eek:
Das kann ich nicht glauben.....nicht bei 200-300% Mehrleistung zu einer 8800GTX (G80)! 2 GX2 kosten immo noch rund 900€!
Entweder die Karte wird deutlich teurer als bisher angenommen oder sie ist einfach nicht so schnell wie es hier einige gern hätten.
Ihr könnt es euch aussuchen!

Achso, 500$ sind natürlich ein Kampfpreis bei der Leistung; da muss ich dir Recht geben. Aber es würde nicht zusammenpassen mit den restlichen Specs. 575mm² klingen nach 2,5facher Leistung, aber nicht nach $500 UVP ...

Don Vito
2008-05-19, 20:18:25
und wie hoch wird dieser dann sein?
Ich denke bein uns min 1:1 also zwischen 500 und 700euro (Standárd -bis =OC Modelle, Wakümodelle)

tombman
2008-05-19, 20:20:42
Und der Ditech (= .at Laden in Wien) wirds als einziger lagernd haben mit 699€ Preis ;D;D

Gast
2008-05-19, 20:21:30
und gibts auch schon leute die 2 von den monster kaufen werden?

Schlammsau
2008-05-19, 20:22:24
schon gelesen....der R700 soll auch ähnlich hohe Preise haben!
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6514409#post6514409
Was schliessen wir daraus?

Godmode
2008-05-19, 20:22:28
Und der Ditech (= .at Laden in Wien) wirds als einziger lagernd haben mit 699€ Preis ;D;D

Dann lass dir gleich mal zwei Stück davon reservieren, damit du uns mit den Benchmarks versorgen kannst!

Don Vito
2008-05-19, 20:22:44
Und der Ditech (= .at Laden in Wien) wirds als einziger lagernd haben mit 699€ Preis ;D;D
Wird mit sicherheit bei örtlichen so sein, war am 8. November 2006 bei mir mit den 8800gtxen auch so.

Nach einem Monat dann bestimmt um 550 -600 Euro rum.

Schlammsau
2008-05-19, 20:26:43
Wird mit sicherheit bei örtlichen so sein, war am 8. November 2006 bei mir mit den 8800gtxen auch so.

Nach einem Monat dann bestimmt um 550 -600 Euro rum.

ich denke mal mangels Konkurrenz wird der Preis nicht so schnell fallen!

K4mPFwUr$t
2008-05-19, 20:27:00
@Schlammsau
du schreibst immer so als wäre jedes gerücht fakt.
und wenn die X² auf dem selben preislevel liegt, kann man davon ausgehen das sich eine preisschlacht entwickeln wird. was für uns kunden nur gut sein kann.

außerdem greife ich lieber zu einem produkt wo ich immer 100% leistung habe und mir nicht irgendwellche treiber und SLI/CF profile antuen muss.

edit:
es ist normal das die händler die erste zeit gerne abfetten, ist nichts neues seit der X800XT und 6800U.

Don Vito
2008-05-19, 20:27:53
ich denke mal mangels Konkurrenz wird der Preis nicht so schnell fallen!

Wo hatte die 8800gtx eine echte Konkurenz?

Schlammsau
2008-05-19, 20:28:44
@Schlammsau
du schreibst immer so als wäre jedes gerücht fakt.
und wenn die X² auf dem selben preislevel liegt, kann man davon ausgehen das sich eine preisschlacht entwickeln wird. was für uns kunden nur gut sein kann.

außerdem greife ich lieber zu einem produkt wo ich immer 100% leistung habe und mir nicht irgendwellche treiber und SLI/CF profile antuen muss.

hab ich nicht, sonst würde ich ja die 300% Leistung ja auch für voll nehmen!

Wo hatte die 8800gtx eine echte Konkurenz?
hmmm.........

Taigatrommel
2008-05-19, 20:29:52
Naja, beim Launch sollte man schon serhr deutlich auf die Preise achten. Damals wollte ich meine 8800 GTX zuerst bei ARLT.com kaufen, die haben schlappe 50,- Euro in der ersten Woche auf den UVP aufgeschlagen. Erst nach einer Woche hat man dann zum normalen Preis verkauft. Offenbar gibt es halt genug Leute, die auch ein paar Euros über UVP ausgeben möchten, um die Karte schnellstmöglich im Rechner zu haben. Von daher darf man den Händlern wohl kaum einen Vorwurf machen....

Gast
2008-05-19, 20:30:25
@Schlammsau
du schreibst immer so als wäre jedes gerücht fakt.
und wenn die X² auf dem selben preislevel liegt, kann man davon ausgehen das sich eine preisschlacht entwickeln wird. was für uns kunden nur gut sein kann.

außerdem greife ich lieber zu einem produkt wo ich immer 100% leistung habe und mir nicht irgendwellche treiber und SLI/CF profile antuen muss.

edit:
es ist normal das die händler die erste zeit gerne abfetten, ist nichts neues seit der X800XT und 6800U.


das stimmt bei gleicher leistung wäre man ja blöd nicht auf die singlekarte zugreifen aber ich kann mir im besten willen nicht vorstellen das eine x2 nur gleich schnell ist,wohl eher 25% schneller

Gast
2008-05-19, 21:41:09
edit:
es ist normal das die händler die erste zeit gerne abfetten, ist nichts neues seit der X800XT und 6800U.


Hat eher mit der GF2Ultra für 1000 - 1400Mark angefangen, dafür müssen dann diese aber ansonsten bluten von daher geht das io.


UVP: 649$ wenn es wirklich so ein Monster wird

dargo
2008-05-19, 22:52:43
Naja, vergiss nicht den Fertigungsvorteil von ATi. RV770 wird bei 256mm² Die-Size immerhin auf knapp 900mio Transistoren kommen, GT200 bei 575mm² auf kaum mehr als 1.3Mrd.
Das ist auch wieder wahr. :) Wobei, wie sicher sind diese 1,3Mrd?

Godmode
2008-05-19, 23:17:57
Auf B3D wird spekuliert, dass die Arbeit der TFs beim GT200 eventuell von den SPs übernommen wird? Somit könnte man das Idlen der TFs vermindern und die Auslastung noch weiter erhöhen. Im Prinzip wären das also Software TFs, die 100 % flexibel sind. Durch das wegfallen der TFs können mehr SPs verbaut werden, bzw. die SPs verbessert werden, da ja mehr Die-Fläche zur Verfügung steht.

Hat jemand ne Ahnung wieviel GFlops die Fixed Function TFs vom G80 raushauen?
Was meint ihr dazu, möglich? Oder geht sich das noch nicht aus mit GT200?

Ailuros
2008-05-19, 23:31:17
Man spricht bei B3D ueber FP32 Filterung; nicht besonder relevant fuer heutige Verhaeltnisse.

Godmode
2008-05-19, 23:44:40
Man spricht bei B3D ueber FP32 Filterung; nicht besonder relevant fuer heutige Verhaeltnisse.

Ok, ich hab mich da auf ein Posting bezogen, was eigentlich als Frage gestellt war:
http://forum.beyond3d.com/showpost.php?p=1163974&postcount=1187

genau hier beschreibt Arun was du sagst, also nur der FP32 Filter.... hab ich irgendwie überlesen:
http://forum.beyond3d.com/showpost.php?p=1163570&postcount=1126

Ich frage mich aber trotzdem ob es Sinn machen würde, keine TMUs mehr zu verwenden, sondern nur mehr general purpose Logik zu verbauen? Bzw ob so ein Design jetzt schon möglich wäre oder die Chips dazu einfach noch zu wenig Power haben.

Odal
2008-05-20, 00:36:07
Ok, ich hab mich da auf ein Posting bezogen, was eigentlich als Frage gestellt war:
http://forum.beyond3d.com/showpost.php?p=1163974&postcount=1187

genau hier beschreibt Arun was du sagst, also nur der FP32 Filter.... hab ich irgendwie überlesen:
http://forum.beyond3d.com/showpost.php?p=1163570&postcount=1126

Ich frage mich aber trotzdem ob es Sinn machen würde, keine TMUs mehr zu verwenden, sondern nur mehr general purpose Logik zu verbauen? Bzw ob so ein Design jetzt schon möglich wäre oder die Chips dazu einfach noch zu wenig Power haben.

dann sind wir bald bei cpu's angelangt
das macht doch die stärke von custom chips aus...für ganz bestimmte einsatzgebiete ne effiziente und performante lösung zu bieten

Godmode
2008-05-20, 00:50:06
dann sind wir bald bei cpu's angelangt
das macht doch die stärke von custom chips aus...für ganz bestimmte einsatzgebiete ne effiziente und performante lösung zu bieten

Das ist natürlich ein gewichtiges Argument! Aber ich denke in Zukunft wird es trotzdem in diese Richtung (GeneralPurpose) gehen, wie es das Fortschreiten der 3D-Technik in den letzten Jahren schon zeigte. Die Frage die sich immer stellt, ist eben wie viel wird mit einem bestimmten Aufwand erreicht? Das Verhältnis Ertrag zu Aufwand muss nur immer ausgeglichen sein.

Ailuros
2008-05-20, 10:34:31
dann sind wir bald bei cpu's angelangt
das macht doch die stärke von custom chips aus...für ganz bestimmte einsatzgebiete ne effiziente und performante lösung zu bieten

Wenn D3D11 GPUs noch mehr in Richtung MIMD ruecken werden (worueber ich mir schon fast sicher bin, nur ueber den Grad bin ich mir nicht sicher), dann heisst es u.U. noch einen Schritt naeher zur generellen CPU-Logik.

Und als Laie kann ich mir so was gar nicht anders vorstellen sonst waere es ja wieder quasi ein Rueckschritt in Richtung NV4x/G7x. Anders ich kann mir sehr schwer sowas bei GT200 vorstellen. Man steckt nochmal 8 Prozessoren zum Design dazu um diese teilweise mit TEX Befehlen zu beschaeftigen? Man gewinnt zwar Transistoren fuer die fehlenden TF Einheiten (und man gewinnt natuerlich auch von der enormen ALU-Frequenz) aber dafuer klingen mir dann 240 SPs auch wieder ziemlich wenig. Sonst haetten sie auf irgendwo 320SPs gehen koennen.

Snoopy1978
2008-05-20, 10:37:58
Ich weis nicht ob das schon gepostet worden ist.Aber ich füge es trotzdem mal ein.
http://forums.vr-zone.com/showthread.php?t=277971

Dort wird behauptet eine GTX280 wäre doppelt so schnell wie eine GX2.Die Quelle ist "PCInlife".

pest
2008-05-20, 10:48:23
Bull:ucatch::ucatch::ucatch::ucatch:

gamingforce
2008-05-20, 10:59:03
;D

Ailuros
2008-05-20, 11:03:14
Noch kein Kommentar; aber manchen von Euch wird das Lachen bald im Hals stecken bleiben.

Godmode
2008-05-20, 11:07:52
Ich bin mir sicher das der GT200 in bestimmten Szenarien sogar schneller als 2 * GX2 sein wird, da Q-SLI einfach scheisse ist. Außerdem geht den G92 der VRAM aus, wodurch die Framerate extrem einbricht. In diesen Fällen sollten dann Steigerungen von G92 * 4 und mehr möglich sein.

Ich denke im Durchschintt wird dieser Chip 2.0 - 2.5 mal so schnell wie ein G92 sein, wenn man den bisherigen Daten und Gerüchten glauben schenken darf.

Adam D.
2008-05-20, 11:08:52
Na gut, das wird sicher nicht in jeder Applikation drin sein, aber in Extremsituationen wird das sicher mal möglich sein. ~600mm² + Nvidia = Teh Pwnage

Moralelastix
2008-05-20, 11:09:32
Noch kein Kommentar; aber manchen von Euch wird das Lachen bald im Hals stecken bleiben.

Positiv oder negativ?

mapel110
2008-05-20, 11:11:25
Außerdem geht den G92 der VRAM aus,
Nicht nur VRam, sondern auch Bandbreite und bei 8xAA auch die Z-Füllrate. Bei 8xAA könnte GT200 am stärksten davon ziehen gegenüber der alten Generation.

Godmode
2008-05-20, 11:11:46
Positiv oder negativ?

Ich denke er meint das im Positiven Sinne, da die Leute über ihm über diese Zahlen lachen.

Godmode
2008-05-20, 11:14:49
Nicht nur VRam, sondern auch Bandbreite und bei 8xAA auch die Z-Füllrate. Bei 8xAA könnte GT200 am stärksten davon ziehen gegenüber der alten Generation.

Das ist natürlich richtig und habe ich mal wieder unterschlagen.

Weiß man eigentlich schon ob das Triangle-Setup beim GT200 aufgebohrt wird?

dargo
2008-05-20, 11:17:57
Noch kein Kommentar; aber manchen von Euch wird das Lachen bald im Hals stecken bleiben.
Die Botschaft ist angekommen. ;)
Ich erwarte zwar vom GT200 viel, aber wenn ich bei dir zwischen den Zeilen lese und alles mehr oder weniger richtig interpretiere dann wäre es sogar möglich, dass ich die neue GPU gar unterschätze.

Odal
2008-05-20, 11:19:46
nv wird keinen wunderchip aus dem hut zaubern wenn es nicht notwendig ist
warum auch wenn man so die kunden mit möglichst wenig einsatz häppchenweise abfüttern kann

Godmode
2008-05-20, 11:22:45
nv wird keinen wunderchip aus dem hut zaubern wenn es nicht notwendig ist
warum auch wenn man so die kunden mit möglichst wenig einsatz häppchenweise abfüttern kann

IMO will sich NV einfach gegen Intel gut aufstellen!

Odal
2008-05-20, 11:27:22
IMO will sich NV einfach gegen Intel gut aufstellen!

lol? seit wann hat intel im HighEnd Bereich was zu melden?
Die habens doch gerade erst fertigbekommen überhaupt DX10 unterstützung in ihre vermurksten Treiber zu bekommen....

da brauch man nichts zu dominieren was nicht da ist....

für den markt wo intel mitmischt braucht man eher stromsparende lösungen und kein monster von chip

Adam D.
2008-05-20, 11:30:42
lol? seit wann hat intel im HighEnd Bereich was zu melden?
Die habens doch gerade erst fertigbekommen überhaupt DX10 unterstützung in ihre vermurksten Treiber zu bekommen....

da brauch man nichts zu dominieren was nicht da ist....

für den markt wo intel mitmischt braucht man eher stromsparende lösungen und kein monster von chip
Das wird sich in Zukunft extrem ändern. Spätestens 2010 mischt Intel da oben auch mit und dann wird das ganze Grafikkarten-Geschäft mächtig durcheinander gebracht. Was Intel an Geldern, Know-How und Technologie hat, wird IMO massiv unterschätzt. In 2 Jahren wird sich Nvidia wohl mit Intel um die Krone prügeln...

Snoopy1978
2008-05-20, 11:37:22
Ich erwarte zwar vom GT200 viel, aber wenn ich bei dir zwischen den Zeilen lese und alles mehr oder weniger richtig interpretiere dann wäre es sogar möglich, dass ich die neue GPU gar unterschätze.


Es sieht so aus als ob Nividia mit ihrem neuen Chip keine Gefangenen machen wird.

Winter[Raven]
2008-05-20, 11:38:39
IMO will sich NV einfach gegen Intel gut aufstellen!

Korrekt, wie schon mehrmals angemerkt, AMD spielt in Nvidia Plänen nur eine untergeordnete Rolle.

In 2 Jahren wird sich Nvidia wohl mit Intel um die Krone prügeln.

In zwei Jahren vielleicht nicht, aber früh genug.

Intel fehlt bei all dem Geld, Technik immer noch die Erfahrung mit Gpus, ob Fertigung oder Design.

gamingforce
2008-05-20, 11:40:00
Noch kein Kommentar; aber manchen von Euch wird das Lachen bald im Hals stecken bleiben.

;D

ich glaube weniger.

Godmode
2008-05-20, 11:42:34
lol? seit wann hat intel im HighEnd Bereich was zu melden?
Die habens doch gerade erst fertigbekommen überhaupt DX10 unterstützung in ihre vermurksten Treiber zu bekommen....

da brauch man nichts zu dominieren was nicht da ist....

für den markt wo intel mitmischt braucht man eher stromsparende lösungen und kein monster von chip

Du hast schon Recht, momentan haben sie nicht wirklich was zu bieten! Wenn Intel aber richtig los legt, kann es für NV ganz schön gefährlich werden. Alleine schon die fortschrittlichere Prozesstechnologie im Vergleich zu TSMC könnte für NV ein Problem werden. Intel hat Unmengen an Ressourcen und nur weil sie bis jetzt nichts auf die Reihe gebracht haben, was GPUs betrifft, kann sich das in Zukunft verdammt schnell ändern!

NV will in Zukunft viel Geld mit GPGPU machen und da ist Performance/Watt extrem wichtig um sich gegen die Konkurenten durchzusetzen.

Adam D.
2008-05-20, 11:46:01
;6516206']
In zwei Jahren vielleicht nicht, aber früh genug.

Intel fehlt bei all dem Geld, Technik immer noch die Erfahrung mit Gpus, ob Fertigung oder Design.
Naja, wird sich rausstellen, inwieweit Intel da so viel Erfahrung braucht. Ich bin mir aber - so wie du - recht sicher, dass Nvidia Intel momentan viel mehr fürchtet als ATi. Dabei ist ATi gar nicht schlecht aufgestellt. Allein das zeigt mir, welchen Respekt Nvidia vor Intel hat ;)

Odal
2008-05-20, 12:01:47
Du hast schon Recht, momentan haben sie nicht wirklich was zu bieten! Wenn Intel aber richtig los legt, kann es für NV ganz schön gefährlich werden. Alleine schon die fortschrittlichere Prozesstechnologie im Vergleich zu TSMC könnte für NV ein Problem werden. Intel hat Unmengen an Ressourcen und nur weil sie bis jetzt nichts auf die Reihe gebracht haben, was GPUs betrifft, kann sich das in Zukunft verdammt schnell ändern!

NV will in Zukunft viel Geld mit GPGPU machen und da ist Performance/Watt extrem wichtig um sich gegen die Konkurenten durchzusetzen.

das mag ja sein das intel in ferner zukunft mal was ernsthaftes bringen "könnte" bis dahin kann man aber schon wieder zig GPU generationen verkaufen...und die armen irren immer wieder abzocken, die jedesmal auf den gleichen Trick reinfallen (GF9 serie - GF8 Serie) das ihnen praktisch selbe technologie mehrmals verkauft wird....nur eben mal 10-20% schneller

das würde jede firmenleitung ausnutzen und energie geld und know-how in effizientere modernere billiger zu fertigende architekturen hineinzustecken und leistungstechnisch nur kleine schritte zu machen....
als gewinn halt genauso GPUs verkaufen die aber deutlich billiger zu fertigen sind da "kleineres DIE" und effizienter Prozeß (wenig ausschuss)

es gibt keinen grund ohne konkurenz bei jeder generation riesen sprünge zu machen...

wenn dann doch mal intel auftaucht kann man ja immer noch einen "großen und breiten chip" fertigen (basierend auf aktueller architektur aber mit allen ausgespielten trümpfen)...solange verkauft man halt was "mit konkurenz" nur mainstream wär als highend...sozusagen angezogene handbremse

AnarchX
2008-05-20, 12:07:44
http://img408.imageshack.us/img408/3195/2008052067f341eb10196f0ou9.jpg (http://imageshack.us)
http://img255.imageshack.us/img255/7627/200805206b8dc888025e771eu8.png (http://imageshack.us)

http://www.itocp.com/thread-8904-1-1.html

dargo
2008-05-20, 12:09:11
das mag ja sein das intel in ferner zukunft mal was ernsthaftes bringen "könnte" bis dahin kann man aber schon wieder zig GPU generationen verkaufen...und die armen irren immer wieder abzocken, die jedesmal auf den gleichen Trick reinfallen (GF9 serie - GF8 Serie) das ihnen praktisch selbe technologie mehrmals verkauft wird....nur eben mal 10-20% schneller

:|

Wer zwingt die Leute denn einen G92 zu kaufen wenn man schon einen G80 sein eigen nennt? Steht da auf jeder Verpackung - Kauf mich, sofort!? :D
Gegen Sucht gibts Therapien...

Edit:
Wie sieht es eigendlich mit einem Display-Port beim GT200 aus? Wieder keiner an Bord?

Armaq
2008-05-20, 12:15:03
Ich kann mich immer nur wiederholen, Intel macht soviel Cash in einem Quartal, dass sich jeder etablierte Konkurrent natürlich, schon rein wirtschaftlich, in die Hose sch... vor Angst. :)

Für Nvidia geht es um das nackte Überleben. Wenn Intel den Markt tritt, muss Nvidia weit vorne sein und sich allein über den Ruf Puffer verschaffen. Intels KnowHow zu unterschätzen ist schlicht unklug. Sie können sich jedes Talent von den Hochschulen wegkaufen und bei der Konkurrenz abwerben.

Cash is King.

reunion
2008-05-20, 12:20:32
Wer zwingt die Leute denn einen G92 zu kaufen wenn man schon einen G80 sein eigen nennt? Steht da auf jeder Verpackung - Kauf mich, sofort!? :D
Gegen Sucht gibts Therapien...


Und wieviele Leute wissen, dass eine 9800GTX bestenfalls gleichschnell ist wie eine 8800GTX?

Adam D.
2008-05-20, 12:22:09
Und wieviele Leute wissen, dass eine 9800GTX bestenfalls gleichschnell ist wie eine 8800GTX?
Die Leute, die kurz bei Google "Geforce 9800GTX Review" eingeben, bevor sie 250€ ausgeben :wink:

dildo4u
2008-05-20, 12:22:46
Ich kann mich immer nur wiederholen, Intel macht soviel Cash in einem Quartal, dass sich jeder etablierte Konkurrent natürlich, schon rein wirtschaftlich, in die Hose sch... vor Angst. :)

Für Nvidia geht es um das nackte Überleben. Wenn Intel den Markt tritt, muss Nvidia weit vorne sein und sich allein über den Ruf Puffer verschaffen. Intels KnowHow zu unterschätzen ist schlicht unklug. Sie können sich jedes Talent von den Hochschulen wegkaufen und bei der Konkurrenz abwerben.

Cash is King.
Es haben doch in letzter Zeit ein paar Wissenschaftler bei AMD gekündigt.Ich glaub da waren auch Leute von ATI dabei oder?Vieleicht holt sich Intel die ja ins Team.

dargo
2008-05-20, 12:23:59
Und wieviele Leute wissen, dass eine 9800GTX bestenfalls gleichschnell ist wie eine 8800GTX?
Ich bitte dich... wer sich nicht informiert ist selbst schuld. Ich könnte auch fragen wieviele "Noobs" wissen, dass ein Intel-IGP-Chipsatz nicht zum Zocken geeignet ist.

reunion
2008-05-20, 12:24:20
Ich kann mich immer nur wiederholen, Intel macht soviel Cash in einem Quartal, dass sich jeder etablierte Konkurrent natürlich, schon rein wirtschaftlich, in die Hose sch... vor Angst. :)

Für Nvidia geht es um das nackte Überleben. Wenn Intel den Markt tritt, muss Nvidia weit vorne sein und sich allein über den Ruf Puffer verschaffen. Intels KnowHow zu unterschätzen ist schlicht unklug. Sie können sich jedes Talent von den Hochschulen wegkaufen und bei der Konkurrenz abwerben.

Cash is King.

So ist es. Bei der ATi-Übernahme soll eine ganze Armada an Ingenieuren zu Intel abgewandert sein. Auch sonst dürften quer durch die Industrie fähige Leute einen besser bezahlten Job bei Intel angetreten haben. Zu glauben Intel habe nicht das nötige know-how ist lächerlich. Mit Geld kann man alles kaufen.

reunion
2008-05-20, 12:28:57
Die Leute, die kurz bei Google "Geforce 9800GTX Review" eingeben, bevor sie 250€ ausgeben :wink:

Und wie viele Leute glaubst du machen das?

Ich bitte dich... wer sich nicht informiert ist selbst schuld. Ich könnte auch fragen wieviele "Noobs" wissen, dass ein Intel-IGP-Chipsatz nicht zum Zocken geeignet ist.

Tja, so ist es aber. Oder warum glaubst du bringt nV den G92 als 9800GTX heraus? Sicherlich nicht ohne Hintergedanken so mehr Kohle machen zu können.

Godmode
2008-05-20, 12:30:32
http://img408.imageshack.us/img408/3195/2008052067f341eb10196f0ou9.jpg (http://imageshack.us)
http://img255.imageshack.us/img255/7627/200805206b8dc888025e771eu8.png (http://imageshack.us)

http://www.itocp.com/thread-8904-1-1.html

Also wenn man das mit den Bilder aus dem 1. Post vergleicht, dann gibt es da eine klare Übereinstimmung. Ich komme leider nicht mehr auf diese chinesische Website drauf.

Wissen wir eigentlich schon was zu dem neuen SLI-Mode, der mit GT200 komme soll?

dargo
2008-05-20, 12:31:27
Tja, so ist es aber. Oder warum glaubst du bringt nV den G92 als 9800GTX heraus? Sicherlich nicht ohne Hintergedanken so mehr Kohle machen zu können.
Nochmal - Unwissenheit schützt nicht vor Strafe.

reunion
2008-05-20, 12:33:13
Nochmal - Unwissenheit schützt nicht vor Strafe.

Nochmal - nV macht es dem Kunden alles andere als leicht. Wer sich nicht umfassend informiert, fällt auf die Nase. Der Name suggeriert immerhin eine neue Generation.

dargo
2008-05-20, 12:34:56
Nochmal - nV macht es dem Kunden alles andere als leicht. Wer sich nicht umfassend informiert, fällt auf die Nase. Der Name suggeriert immerhin eine neue Generation.
Dann verklage doch NV wenn du dich damit besser fühlst. :cool:

AnarchX
2008-05-20, 12:35:34
Wissen wir eigentlich schon was zu dem neuen SLI-Mode, der mit GT200 komme soll?
Link?

Godmode
2008-05-20, 12:36:29
Link?

Ich such mal, aber ich glaube ich habs bei B3D gelesen.

darkcrawler
2008-05-20, 12:39:37
Nochmal - Unwissenheit schützt nicht vor Strafe.

...enthält, dass man den kunden für den kauf bestraft ;)
somit stimmts du also indirekt reunions aussage zu

ausserdem (sollte) ist kunde könig und gehört nicht bestraft :P

K4mPFwUr$t
2008-05-20, 12:40:37
@reunion
und dein schützling ATI macht sowas nicht?
HD2000 ---> HD3000 wo es nur ein refresh ist.

@darkcrawler
wer sich nicht informiert und sich blind von zahlen leiten lässt ist schon immer und überall auf die nase gefallen.

Slipknot79
2008-05-20, 12:43:04
Die Leute, die kurz bei Google "Geforce 9800GTX Review" eingeben, bevor sie 250€ ausgeben :wink:


Naja ich kenne jemanden, der meint, dass VRAM-Größe etwas über die Leistung der Graka aussagt :rolleyes: Muss mir eh jedes Mal einen Karton auf den Kopf aufsetzten wenn er neben mir steht. :redface:

darkcrawler
2008-05-20, 12:44:47
@reunion
und dein schützling ATI macht sowas nicht?
HD2000 ---> HD3000 wo es nur ein refresh ist.


das ja nu mal der absolute äpfel birnen vergleich, du schreibst es selbst _refresh_ bei amd und was hat sich von gf8x g92 zu gf9x g92 geändert?... ;)

dargo
2008-05-20, 12:44:48
@darkcrawler
wer sich nicht informiert und sich blind von zahlen leiten lässt ist schon immer und überall auf die nase gefallen.
Vollkommen korrekt. Ihr tut so als ob das nur bei den IHVs zutreffen würde. Das ganze Leben funktioniert so.

PS: das war natürlich nicht auf dich K4mPFwUr$t bezogen.

AnarchX
2008-05-20, 12:45:09
Naja ich kenne jemanden, der meint, dass VRAM-Größe etwas über die Leistung der Graka aussagt :rolleyes: Muss mir eh jedes Mal einen Karton auf den Kopf aufsetzten wenn er neben mir steht. :redface:

Dann wäre doch bei der 9800 GTX alles in Ordnung, da sie nur 512MB schnell ist, während die 88 GTX 768MB leistet. ;D

Naja, bei einer 250€ 9800 GTX wird wohl auch der dümmste Kunde etwas nachdenklich werden.

Ist hier aber nicht wirklich das Topic. ;)

Odal
2008-05-20, 12:45:51
Nochmal - Unwissenheit schützt nicht vor Strafe.

das ist doch vollkommen wurscht ob man selbst schuld ist wenn man auf die namensgebung reinfällt...

wichtig ist das es scheinbar eine beliebte praktik ist altes durch namensänderung als etwas neues zu verkaufen...

und da dies praktiziert wird scheint man damit ja erfolgreich und es gibt genug die "bestraft werden"

also warum sollte man mit dieser tradition brechen und den leuten plötzlich nun wirklich 100% mehrperformance verkaufen wollen? nicht so wie bei 88GTX->98GTX ergibt für mich keinen sinn wenn keine wirkliche konkurenz da ist

deLuxX`
2008-05-20, 12:46:48
Wer sich nicht umfassend informiert, fällt auf die Nase.
Das Fazit eines Reviews lesen ist "umfassend inormiert"?
Egal wie doof die Bezeichnung ist, und das ist sie, wer einfach kauft ohne sich zu informieren dem gehört es nicht anders.
Egal ob Grafikkarte, Kühlschrank, Auto.

reunion
2008-05-20, 12:47:11
Dann verklage doch NV wenn du dich damit besser fühlst. :cool:

Ganz großes Kino. Sich hier hinzustellen und so zu tun, als ob das vollkommen i.O. wäre, obwohl hier ganz offensichtlich versucht wird den Kunden zu täuschen, ist in meinen Augen einfach nur asozial. Aber schon klar, du bist sicher allwissend.

@reunion
und dein schützling ATI macht sowas nicht?
HD2000 ---> HD3000 wo es nur ein refresh ist.


Deine Meinung geht mir am Arsch vorbei. Habe ich behauptet das es woanders nicht so ist? Es ist immerhin ein Refresh, obwohl ich das auch in keinster Weise gut heiße.

Das Fazit eines Reviews lesen ist "umfassend inormiert"?
Egal wie doof die Bezeichnung ist, und das ist sie, wer einfach kauft ohne sich zu informieren dem gehört es nicht anders.
Egal ob Grafikkarte, Kühlschrank, Auto.

Richtig, aber das muss man dann ja nicht unbedingt auch noch gut heißen und verteidigen.

darkcrawler
2008-05-20, 12:48:59
das ist doch vollkommen wurscht ob man selbst schuld ist wenn man auf die namensgebung reinfällt...

wichtig ist das es scheinbar eine beliebte praktik ist altes durch namensänderung als etwas neues zu verkaufen...

und da dies praktiziert wird scheint man damit ja erfolgreich und es gibt genug die "bestraft werden"

also warum sollte man mit dieser tradition brechen und den leuten plötzlich nun wirklich 100% mehrperformance verkaufen wollen? nicht so wie bei 88GTX->98GTX ergibt für mich keinen sinn wenn keine wirkliche konkurenz da ist


G92b als 108000GTX :tongue::D

wär doch vollkomm i.o., nech? da muss noch was gehn mit g92 :D

Nakai
2008-05-20, 12:49:10
und da dies praktiziert wird scheint man damit ja erfolgreich und es gibt genug die "bestraft werden"

Due ganzen DAUs merken doch nichtmal, dass sie bestraft werden, dass ist doch grad das lustige...;)

mfg Nakai

K4mPFwUr$t
2008-05-20, 12:49:19
@Slipknot79
sollche leute kaufen sicherlich auch bei medie markt die 8600 mit 1GB oder 2GB VRAM zu völlig übertriebenen preisen. es macht nur einem aggresiv wenn sollche leute meinen man hätte keine ahnung.

aber es gibt zum glück noch andere, die einem um rat beten oder sich wenigstens im laden von fähigen leuten beraten lassen. (wozu die meisten leute hinter der theke nicht zählen)

@darkcrawler
glaube ich eher kau, alleine wegen dem 10000.
entweder wird man den G92b als 9900 verkaufen oder er wird die kleineren bereiche abdenken mit GT200.
vom notebookeinsatz mal ganz abgesehen, wofür er ja eigentlich gemacht wurde.

Odal
2008-05-20, 12:52:16
@reunion
und dein schützling ATI macht sowas nicht?
HD2000 ---> HD3000 wo es nur ein refresh ist.

@darkcrawler
wer sich nicht informiert und sich blind von zahlen leiten lässt ist schon immer und überall auf die nase gefallen.

naja wenigstens ist die 3870 in praktisch allen belangen meist deutlich besser als der "Vorgänger" sowohl in stromverbrauch als auch kühlerdesign und lautstärke als auch Techlevel (DX10.1) als auch Leistung...

das einzige wo sie federn lassen musste war im speicherinterface aber das macht sich höchstens bei der leistung bemerkbar (die ja stimmt) und nicht so wie beim G80 zu G92 wo letzterer öfter mal langsamer ist kein neues techlevel bietet und auch noch über weniger speicherausbau verfügt (von sonder 1GB varianten die nachgeschoben wurden mal abgesehen)

darkcrawler
2008-05-20, 12:54:39
@darkcrawler
glaube ich eher kau, alleine wegen dem 10000.
entweder wird man den G92b als 9900 verkaufen oder er wird die kleineren bereiche abdenken mit GT200.
vom notebookeinsatz mal ganz abgesehen, wofür er ja eigentlich gemacht wurde.


mönsch wurst soll ich noch ironie-tags setzen :confused: :redface:

Odal
2008-05-20, 12:55:50
G92b als 108000GTX :tongue::D

wär doch vollkomm i.o., nech? da muss noch was gehn mit g92 :D

ich könnte mir da durchaus vorstellen das nvidia das ding als 10800GTX unters volk jubelt :D

aber selbst wenn würde ich mir eher denken das der GT200 deutlich langsamer wird wie einige hier meinen (niedrige spannung und takt um verlustleistung und stromhunger zu minimieren) und das nach ein paar monaten wieder so ein "pseudo refresh" nachgeschoben wird...vielleicht wieder mit DIE shrink
und ähnlich der 88GT und GTS auf den massenmarkt geworfen wird

K4mPFwUr$t
2008-05-20, 12:57:46
@darkcrawler
sry, ich habe mein gespür für ironie verloren.
vieleicht sollte ich über die investition nachdenken mein trüffelschwein umschulen zulassen zum ironieschwein :ulol:

@Odal
das rechtfertigt trozdem keine neue generation.
im endeffekt nehmen sich A/A als auch NV in der sache nicht viel.
wer war eigentlich eher da mit der sache aus einem refresh eine neue gen zu machen?

bezüglich GT200 lass ich mich überraschen ;)

Adam D.
2008-05-20, 13:00:44
Und wie viele Leute glaubst du machen das?
Kann ich ehrlich gesagt nicht genau sagen, aber ich würde sagen, dass die Leute, die wohl überlegt in den Hardware-Kauf gehen, die deutliche Minderheit sind ;) Genau deshalb geht ja auch alles um den größten VRAM, tollsten Namen und bestes Marketing-Team.

Naja ich kenne jemanden, der meint, dass VRAM-Größe etwas über die Leistung der Graka aussagt :rolleyes: Muss mir eh jedes Mal einen Karton auf den Kopf aufsetzten wenn er neben mir steht. :redface:
Jo, s.o.. Schade um das Geld ;)

ich könnte mir da durchaus vorstellen das nvidia das ding als 10800GTX unters volk jubelt :D

aber selbst wenn würde ich mir eher denken das der GT200 deutlich langsamer wird wie einige hier meinen (niedrige spannung und takt um verlustleistung und stromhunger zu minimieren) und das nach ein paar monaten wieder so ein "pseudo refresh" nachgeschoben wird...vielleicht wieder mit DIE shrink
und ähnlich der 88GT und GTS auf den massenmarkt geworfen wird
Wenn man so einen Riesenchip entwickelt, dann weiß man, dass die Karte stromhungrig, heiß und laut wird. Man versucht es nur in einem einigermaßen erträglichen Rahmen zu halten.

Schlammsau
2008-05-20, 13:01:22
das rechtfertigt trozdem keine neue generation.
im endeffekt nehmen sich A/A als auch NV in der sache nicht viel.
wer war eigentlich eher da mit der sache aus einem refresh eine neue gen zu machen?

bezüglich GT200 lass ich mich überraschen ;)

was rechtfertigt dann eine neue Generation?

K4mPFwUr$t
2008-05-20, 13:04:48
was rechtfertigt dann eine neue Generation?
wenn schon die GPU RV670 heißt rechtfertigt es nicht darauf einen phseudo HD3000 produkt darauß zu machen. statt wie beim R600 ein HD2000 produkt.

man suggeriert den kunden einen großen leistungssprung, durch die neue generation.

aber wie gesagt, NV ist da auch nicht viel besser.

Odal
2008-05-20, 13:05:27
@Odal
das rechtfertigt trozdem keine neue generation.
im endeffekt nehmen sich A/A als auch NV in der sache nicht viel.
wer war eigentlich eher da mit der sache aus einem refresh eine neue gen zu machen?

bezüglich GT200 lass ich mich überraschen ;)


wenn du so kommst hat nvidia schon damals aus nem riva TNT nen TNT2 gemacht oder aus einer geforce2 eine geforce4(mx) gemacht

ich finde zwar 3870 auch nicht optimal als namen (2800XT und 2900XT wären angebrachter) aber der R600 hiess nunmal schon 2900XT und ein neues techlevel gabs ja auch irgendwie

Nightspider
2008-05-20, 13:09:01
Ich seh nur ein Problem:

Wenn der GT200 so schnell wird, wirds schwierig mit der Verfügbarkeit.

Ich möcht ihn mir nicht gleich am 1. Tag zu deutlich erhöhten Preisen kaufen.

Bin auch nur ein kleines Grafikkartensparschwein :ulol:

Ailuros
2008-05-20, 13:15:49
Und wieviele Leute wissen, dass eine 9800GTX bestenfalls gleichschnell ist wie eine 8800GTX?

Tut mir leid wenn jemand so bloed ist und eine 8800GTX mit einer 9800GTX ersetzt, hab ich persoenlich kein Mitleid. Wie extrem naiv kann man denn ueberhaupt sein dass jemand mit sehr geringem GPU Verstaendnis den Unterschied in Speichermenge nicht bemerken koennte?

Dass die Namensgebung beschissen ist wurde schon oefters erwaehnt. Diejenigen die dafuer verantwortlich sind gehoeren eigentlich gelyncht. Man haette dem Zeug locker irgend ein 8900-wasauchimmer verpassen koennen, GT200 dann 9xxx und jegliches GF-10 dann fuer die D3D11 echte naechste Generation reservieren.

------------------------

Was jetzt Intel betrifft von deren ersten Larabee Generation wuerde ich nichts besonderes erwarten was den gaming Markt betrifft. Fuer das was das Zeug eigentlich bestimmt ist, wird das Ding vielleicht schon maessige Erfolge zeigen koennen.

Wenn Intel ernsthaft Fuss im mainstream gaming Markt fassen will, dann wird es hoechste Zeit dass sie endlich mal anstaendige 3D Treiber an den Mann bringen. Dass sie quasi unendliche Resourcen haben ist mir persoenlich wurscht, bis jetzt hab ich nicht das geringste sehen koennen dass auf anstaendige Unterstuetzung deuten koennte. Trotz IGP Billig-scheiss gibt es keine einzige Entschuldigung fuer die bisherige miserable Unterstuetzung.

Ein erster Schritt in die richtige Richtung waere wohl eine fundamentale Aenderung in der gesamten Philosophie was solche Themen betrifft. Intel steht schon jetzt auf dem falschen Fuss mit ihren Ideen die Entwickler auf neue Pfade zu lotzen.

Ailuros
2008-05-20, 13:33:31
aber selbst wenn würde ich mir eher denken das der GT200 deutlich langsamer wird wie einige hier meinen (niedrige spannung und takt um verlustleistung und stromhunger zu minimieren) und das nach ein paar monaten wieder so ein "pseudo refresh" nachgeschoben wird...vielleicht wieder mit DIE shrink
und ähnlich der 88GT und GTS auf den massenmarkt geworfen wird

Hoffnung stirbt als letzte.

Odal
2008-05-20, 13:38:46
Hoffnung stirbt als letzte.

na so wie du das sagst müsste man ja dann bald fragen:

ab wann schreitet die regulierungsbehörde ein?

Gast
2008-05-20, 13:43:09
Hoffnung stirbt als letzte.
Weißt du auch auf welche Settings sich die hohe Leistungssteigerung bezieht? ;)

Ailuros
2008-05-20, 13:58:14
na so wie du das sagst müsste man ja dann bald fragen:

ab wann schreitet die regulierungsbehörde ein?

Wir brauchen keine Massengraeber. Diejenigen die einfacher Logik folgen koennen, wissen schon seit einiger Zeit wo es lang geht.

tombman
2008-05-20, 16:13:48
Ich seh nur ein Problem:

Wenn der GT200 so schnell wird, wirds schwierig mit der Verfügbarkeit.

Ich möcht ihn mir nicht gleich am 1. Tag zu deutlich erhöhten Preisen kaufen.

Bin auch nur ein kleines Grafikkartensparschwein :ulol:

Verfügbar wird sie wahrscheinlich schon sein, aber um 700€- die Händler werden da schlicht und einfach abzocken was geht- zumindest 14 Tage, wenn nicht sogar 1 Monat lang...

Ende 2006, als ich mir die beiden GTX + 1000Watt NT+ 680i mobo besorgt hatte, hatte mein Händler die Anweisung an die Verkäufer herausgegeben, daß sich 14 Tage NICHTS am Preis ändern darf- ein Verkäufer hats mir erzählt ;)
Da ging dann auch mit Handeln nichts :mad:

Verkauft wurde trotzdem, einfach weil alle scharf drauf waren...

Falls sich die performance tatsächlich bewahrheiten sollte, und die Abzocke wieder so abgeht, werde ich diesmal 1 Monat warten, fertig aus. (ich hoffe, ich schaffe das)

tombman
2008-05-20, 16:33:25
http://img408.imageshack.us/img408/3195/2008052067f341eb10196f0ou9.jpghttp://img255.imageshack.us/img255/7627/200805206b8dc888025e771eu8.png


:massa:

Mein neuer Götze ;D

Nightspider
2008-05-20, 16:41:25
Falls sich die performance tatsächlich bewahrheiten sollte, und die Abzocke wieder so abgeht, werde ich diesmal 1 Monat warten, fertig aus. (ich hoffe, ich schaffe das)

So habe ich es bei der 8800 GTX gemacht. Einen Monat gewartet und dann bestellt.
Ich hab immerhin "nur" 560 Euro bezahlt...gabs dann teilweise schon ab 530 glaube ich aber natürlich nicht lieferbar.

tombman
2008-05-20, 16:43:44
So habe ich es bei der 8800 GTX gemacht. Einen Monat gewartet und dann bestellt.
Ich hab immerhin "nur" 560 Euro bezahlt...gabs dann teilweise schon ab 530 glaube ich aber natürlich nicht lieferbar.
Ich habe damals beinhart 700 gezahlt, Don Vito immernoch 650...:eek:

Ok, daß die Dinger 1.5 Jahre halten wußte ja niemand :D

Anarchy-HWLUXX
2008-05-20, 16:49:56
:massa:

Mein neuer Götze ;D
*mehrwill* ... in groß :ucatch:

MEDIC-on-DUTY
2008-05-20, 16:50:30
Ich habe damals beinhart 700 gezahlt, Don Vito immernoch 650...:eek:

Ok, daß die Dinger 1.5 Jahre halten wußte ja niemand :D

Scheiss auf den Preis, wir konnten schließlich 1 1/2 Jahre dafür sparen. ;D
Und die 200 Ocken für den Verkauf der 88er bei ebay kannst noch anrechen.

tombman
2008-05-20, 16:52:21
Scheiss auf den Preis, wir konnten schließlich 1 1/2 Jahre dafür sparen. ;D
Und die 200 Ocken für den Verkauf der 88er bei ebay kannst noch anrechen.
Die wird dann aber keine 200er mehr abwerfen, das ist das Problem....150 netto, schätze ich :(

MEDIC-on-DUTY
2008-05-20, 16:53:01
*mehrwill* ... in groß :ucatch:
Hast die News schon fertig?:biggrin:

MEDIC-on-DUTY
2008-05-20, 16:54:07
Die wird dann aber keine 200er mehr abwerfen, das ist das Problem....150 netto, schätze ich :(

Dann leg die Kiste still und verkauf jetzt. Es ist Sommer und die Grafik is echt geil :D

Gast
2008-05-20, 16:58:01
Ich würde echt mal dringend empfehlen paar Monate zu warten. Wenn sogar ATI es schafft ihr Highend mit 1Gb DDR5 Speicher für 350$ auszuliefern macht das NV mit Sicherheit auch. Fast 4Ghz Speichertakt ist doch was schönes oder?

Anarchy-HWLUXX
2008-05-20, 16:59:23
Hast die News schon fertig?:biggrin:

Versteh ich net :usad:

Dann leg die Kiste still und verkauf jetzt. Es ist Sommer und die Grafik is echt geil :D

Na ja, die paar € nachen da auch nemmer den großen unterschied - dafür dann aba nen ganzen monat oder evtl. länger ohne Gescheite GraKa verbringen ...

Fetza
2008-05-20, 17:00:27
Scheiss auf den Preis, wir konnten schließlich 1 1/2 Jahre dafür sparen. ;D
Und die 200 Ocken für den Verkauf der 88er bei ebay kannst noch anrechen.

Für beide ja, aber für 2 gebrauchten gtx`n bezahlt doch kein mensch mehr 400 euro, dafür würde ich nichtmals 350 mehr hinlegen. Immerhin bekommst du doch schon zwei neue für 420 euro. Und wenn es als privatkauf, ohne garantie läuft, kann ich mir beim besten willen nicht vorstellen, das jemand mehr als 300 euro dafür berappen will. Gut ausser man findet einen "dummen" und nutzt ihn aus.

MEDIC-on-DUTY
2008-05-20, 17:03:49
Mal was anderes:
@AnarchX

Kann irgendwer die Bilder mal auf die erste Seite schmeissen zur Übersicht. Evtl. kommen doch noch größere Bilder.

MEDIC-on-DUTY
2008-05-20, 17:09:06
Für beide ja, aber für 2 gebrauchten gtx`n bezahlt doch kein mensch mehr 400 euro, dafür würde ich nichtmals 350 mehr hinlegen. Immerhin bekommst du doch schon zwei neue für 420 euro. Und wenn es als privatkauf, ohne garantie läuft, kann ich mir beim besten willen nicht vorstellen, das jemand mehr als 300 euro dafür berappen will. Gut ausser man findet einen "dummen" und nutzt ihn aus.

Jo, is was dran und die "dummen" sterben zum Glück nicht aus. Aber ich bastel mir evtl. ne tragbare Lan-Party-Lösung mit der 88er. Dafür reicht die dicke.

SLI kommt mir aber nicht mehr ins Haus. Egal ob X2 oder GTX SLI. Die Boards dafür sind einfach zu grottig und instabil. Gerade der 680i ist die Reinkarnation des Bluescreens. Seit ich den P38 habe is alles im Lot, auch OC.

AnarchX
2008-05-20, 17:54:39
Es soll eine Launch-Demo (http://translate.google.ch/translate?u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-936321-1-1.html&sl=zh-CN&tl=de&hl=de&ie=UTF-8) für die GTX 200 Serie geben, welche die Gorgonische Medusa (http://de.wikipedia.org/wiki/Medusa_%28Mythologie%29) darstellt/behandelt.

Wohl ganz nach dem Motto, eine Leistung bei der man erstarrt. :D

Anarchy-HWLUXX
2008-05-20, 17:57:45
Ich hätt dann doch lieber ne süsse Ti**enmaus wie bei der G80 :ucatch:

Gast
2008-05-20, 17:59:25
Ich hätt dann doch lieber ne süsse Ti**enmaus wie bei der G80 :ucatch:

Niemals das gleiche nochmal machen.
Medusa sieht interessant aus. Mal sehen, wie es wird.

deekey777
2008-05-20, 18:02:58
Mir wäre Illyria (http://en.wikipedia.org/wiki/Illyria_%28Buffyverse%29) lieber.

MEDIC-on-DUTY
2008-05-20, 18:05:31
Niemals das gleiche nochmal machen.
Medusa sieht interessant aus. Mal sehen, wie es wird.

So lange es nicht Alice ist :D

Anarchy-HWLUXX
2008-05-20, 18:09:34
So lange es nicht Alice ist :D
American McGee's Alice wär cool - am besten samt remake mit einer neuen Engine ;D

Nightspider
2008-05-20, 18:25:52
Ja, ich will ne neue Grafikdemo die dem 3Dmark Vantage so richtig in die Eier tritt. :biggrin:

tombman
2008-05-20, 19:37:55
Ja, ich will ne neue Grafikdemo die dem 3Dmark Vantage so richtig in die Eier tritt. :biggrin:
Mir alles egal, solange die GTX280 schneller als 2x G80GTX ist ;D

MEDIC-on-DUTY
2008-05-20, 19:52:23
American McGee's Alice wär cool - am besten samt remake mit einer neuen Engine ;D

Kann mich erinnern. War wirklich ein sehr gutes Ausnahmegame. Lange nicht mehr so schön im Surrealem abgedriftet. ;)

MEDIC-on-DUTY
2008-05-20, 19:54:31
Mir alles egal, solange die GTX280 schneller als 2x G80GTX ist ;D

Nicht mehr und nicht weniger. Jetzt kannst das Thema eigentlich bis zum Release dicht machen :tongue:

Gast
2008-05-20, 20:45:51
Tja, so ist es aber. Oder warum glaubst du bringt nV den G92 als 9800GTX heraus? Sicherlich nicht ohne Hintergedanken so mehr Kohle machen zu können.

Weil der G90 Eingestellt wurde, da ATI nur noch Low-Cost GPU wie ein RV670 Herstellt...

mrt
2008-05-20, 20:53:37
Weil der G90 Eingestellt wurde, da ATI nur noch Low-Cost GPU wie ein RV670 Herstellt...
ROFL
Das glaubst wohl selber nicht...

K4mPFwUr$t
2008-05-20, 20:58:24
gäste sind trolle, wenn sie euch nerven setzt sie einfach auf die ignorliste.
und ihr werdet sehen, das ganze spart einem vieeel stress :biggrin:

aber erlich gesagt glaube ich auch nicht daran das die 4870X² den GT200 schlagen kann, höchstens im preisleistungsverhältnis. wenn man allerdings ein auge auf die TDP wirft, liegt NV vorne (250W vs 300W bei der X²) wenn A/A nicht ein neueres stepping nachliefert.

Slipknot79
2008-05-20, 21:01:17
Die Preise werden bei uns Shice sein, soweit ist das klar. Wie sieht es bei Launches in den USA aus? Gibts da auch solche übertriebenen Preise?

dargo
2008-05-20, 22:55:25
Ganz großes Kino. Sich hier hinzustellen und so zu tun, als ob das vollkommen i.O. wäre, obwohl hier ganz offensichtlich versucht wird den Kunden zu täuschen, ist in meinen Augen einfach nur asozial. Aber schon klar, du bist sicher allwissend.

Ich bin sicherlich nicht über alles informiert. Bevor ich mir aber was kaufe setze ich mich mit dem Produkt auseinander was ich haben will. Und das bezieht sich nicht nur auf den PC-Bereich. Kaufst du auch blind ein Fahrzeug nur weil der Verkäufer es dir schmackhaft macht?

deekey777
2008-05-20, 23:16:26
http://www.dailytech.com/article.aspx?newsid=11842
Unlike the upcoming AMD Radeon 4000 series, currently scheduled to launch in early June, the D10U chipset does not support DirectX extentions above 10.0. Next-generation Radeon will also ship with GDDR4 while the June GeForce refresh is confined to just GDDR3.

GeForce GTX 280 (D10U-30):
240 SPs, 512bit-SI, 50 Prozent mehr Performance als D9-Generation, 1 GB GDDR3

GeForce GTX 260 (D10U-20)
192 SP2, 448bit-SI, 896 MB

w0mbat
2008-05-20, 23:19:14
Schade, ich hatte für meinen neuen PC im Herbst auch den GT200 im Augen, aber ohne DX10.1 wird das wohl nichts bei mir.

Und jetzt bitte nicht um den Sinn/Unsinn von DX10.1 streiten, für mich zählt es eben.

dargo
2008-05-20, 23:22:51
http://www.dailytech.com/article.aspx?newsid=11842


GeForce GTX 280 (D10U-30):
240 SPs, 512bit-SI, 50 Prozent mehr Performance als D9-Generation, 1 GB GDDR3

GeForce GTX 260 (D10U-20)
192 SP2, 448bit-SI, 896 MB
Kann mir bitte jemand endlich erklären worauf sich diese +50% beziehen? Auf die Gesamtleistung kann es eh mit 240SPs nicht sein. Heißt das jetzt die GT200 SPs sind bis zu 50% schneller als die SPs vom G80/G92? Wenn ja, wie realisiert man das?

Superheld
2008-05-20, 23:24:58
Schade, ich hatte für meinen neuen PC im Herbst auch den GT200 im Augen, aber ohne DX10.1 wird das wohl nichts bei mir.

Und jetzt bitte nicht um den Sinn/Unsinn von DX10.1 streiten, für mich zählt es eben.


ja erzähl weiter so ein MÜll, ob DX10.1 wichtig wäre:rolleyes:

Gast
2008-05-20, 23:25:10
Kann mir bitte jemand endlich erklären worauf sich diese +50% beziehen? Auf die Gesamtleistung kann es eh mit 240SPs nicht sein. Heißt das jetzt die GT200 SPs sind bis zu 50% schneller als die SPs vom G80/G92? Wenn ja, wie realisiert man das?

NVIDIA documentation claims these second-generation unified shaders perform 50 percent better than the shaders found on the D9 cards released earlier this year.
ist doch eindeutig oder?

Harry

w0mbat
2008-05-20, 23:28:57
@Superheld:

Hast du mein Posting gelesen?

[ ] Ja
[x] Nein

Nightspider
2008-05-20, 23:29:34
Dailytech hat die specs doch garantiert auch nur von anderen Seiten kopiert.

Ich glaub nicht, das schon jemand eine der neuen Karten hat.

Und wenn, hätten sie ein NDA unterschreiben müssen.

Zudem wissen wir ja, wie gut Nvidia Details geheimhalten kann.
Vielleicht streuen die auch viele Fake-Specs...

deekey777
2008-05-20, 23:29:52
ja erzähl weiter so ein MÜll, ob DX10.1 wichtig wäre:rolleyes:
Vorsicht mit Verdrehen der Augen.