PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 3]


Seiten : 1 2 3 4 [5] 6 7 8

Chris2CB
2008-05-23, 23:55:28
Na das sind ja gleich 6 Wünsche auf einmal,so geht das nicht.Vor allem 2. und 4. beissen sich da etwas.Das wäre wie als ob du einen 500 PS Motor haben möchtest der aber nur 3 Liter auf 100 Kilometer schlucken soll.
Vor allem 3. kann ich nicht nachvollziehen,viele schreien nach DX 10.1 und kabbeln sich hier verbal das man denken könnte hier unterhalten sich 10 jährige.
Vor allem wärst du auch bereit den Preis für das alles was du forderst zu bezahlen?Oder soll sich Nvidia da zurückhalten?


2 und 4 beißen sich nicht wirklich Verlustleistung ist wie der Name schon sagt nur Verlust und nicht nötig. Das ist einfach nur der Preis fürs Transistorensparen, mehr nicht.

Wenn du es mit einem Motor vergleichen willst ist das eigentlich recht einfach. ATI und Nvidia probieren aus 1,2 Liter Hubraum etwa 5000PS raus zu holen, das man dafür viel Ladedruck bräuchte der das ganze Ineffizient macht übersehen nunmal viele.

Hvoralek
2008-05-23, 23:59:09
Und den Finanzreport von nVidia lesen. ;)Die machen mit G92 sicher Verlust :rolleyes:

AMD muss keine Preise senken. Sie hätten durch das Tal gehen können - so wie nVidia. Sie haben aus dem CPU Markt nichts gelernt. Die jetzigen niedrigen Preise werden zukünftig sehr große Probleme bereiten. Hohe Margen sollte das Ziel sein. Über die Masse können sie bei einem Konkurrenten, der deutlich mehr verkauft, nicht gehen. nVidia musste nachziehen, da AMD deutlich billiger war. Schlussendlich ist der Markt eingebrochen. Und weder AMD (11 Millionen Verlust!) noch nVidia (deutlich Absturz der Margen) konnten irgendwelche positiven Aspekte daraus ziehen.Noch einmal: AMD wollte RV670- Karten ursprünglich für 200 - 300€ verkaufen. Weil Nvidia die schnellere 8800 GT bei 250€ angesetzt hat, mussten sie die Preise und damit ihre Marge sehr wohl senken. Hätten sie zwar pro Karte einen Riesengewinn machen, dafür aber vll. 10 Karten pro Monat an Hardcorefanboys verkaufen sollen? Entscheidend ist nicht Marge, sondern Gewinn, also Marge*Absatzzahlen.

mictasm
2008-05-24, 00:07:16
Eig. wolltwe ich ja mal einen QC benutzen, aber wenn man sich anguckt, wie gut die E8400 rennen...
Eben mal so auf 4GHz prügeln ist da kein Problem. Die Power ist brachial...
Aber eig. reicht mein E6600 noch völlig aus, da eher die Graka limitiert - klar, bei 1920x1200

Ich denke auch, dass dein E6600 noch reichen wird. Für eine GTX 280 brauchst du noch nicht aufrüsten. Da kannst du dann lieber später auf Quad oder Nehalem gehen.
Wenn du wieder SLI kaufst, könntest du natürlich sofort über eine CPU-Aufrüstung nachdenken. Dann würde ich aber eher einen Quad anstatt nochmal einen Dualcore nehmen.

Man bin ich gespannt auf die Karte... Es wird Zeit für eine Aufrüstung (seit Ende 2006)...

Nightspider
2008-05-24, 01:04:24
Juuhuu, hab mich wieder durch 6 Seiten fast ohne Infos gekämpft. ;D

Fanboy-Kampf im Speku-Forum ist immer noch was besonderes. :popcorn::up:

Was meint ihr, wie teuer der AquaComputer-Wakühler wird ?

Der G80-Kühler kam 90 Euro und der neue soll 20-30% dicker sein, dann wird er doch über 100 Euro kosten oder ? Kupfer ist ja nicht gerade billig.

deekey777
2008-05-24, 01:11:43
Die machen mit G92 sicher Verlust :rolleyes:

Noch einmal: AMD wollte RV670- Karten ursprünglich für 200 - 300€ verkaufen. Weil Nvidia die schnellere 8800 GT bei 250€ angesetzt hat, mussten sie die Preise und damit ihre Marge sehr wohl senken. Hätten sie zwar pro Karte einen Riesengewinn machen, dafür aber vll. 10 Karten pro Monat an Hardcorefanboys verkaufen sollen? Entscheidend ist nicht Marge, sondern Gewinn, also Marge*Absatzzahlen.

Ich empfehle dir diesen Thread durchzulesen, dann wirst du sehen, wer hier wen zu niedrigen Preisen gezwungen hat: http://forum.beyond3d.com/showthread.php?t=48031

Snoopy69
2008-05-24, 06:26:27
Juuhuu, hab mich wieder durch 6 Seiten fast ohne Infos gekämpft. ;D

Fanboy-Kampf im Speku-Forum ist immer noch was besonderes. :popcorn::up:

Was meint ihr, wie teuer der AquaComputer-Wakühler wird ?

Der G80-Kühler kam 90 Euro und der neue soll 20-30% dicker sein, dann wird er doch über 100 Euro kosten oder ? Kupfer ist ja nicht gerade billig.
Ja, "schöner" wie Kino... :ulol:
Schlimm sind nur diese unnötigen Gast-Kommentare :rolleyes:

Ich schätze 100-130€

Gast
2008-05-24, 11:12:40
Ja, "schöner" wie Kino... :ulol:

Ich schätze 100-130€

du bist ja auch mittendrin statt nur dabei :rolleyes:

LovesuckZ
2008-05-24, 12:08:48
Die machen mit G92 sicher Verlust :rolleyes:

Les ihren Finanzreport. Sie haben niedrigere Margen als erwartet. G80 ABverkauf auf niedrigem Niveau und sie können nicht die Menge an G92 liefern, die sie benötigen.


Noch einmal: AMD wollte RV670- Karten ursprünglich für 200 - 300€ verkaufen. Weil Nvidia die schnellere 8800 GT bei 250€ angesetzt hat, mussten sie die Preise und damit ihre Marge sehr wohl senken. Hätten sie zwar pro Karte einen Riesengewinn machen, dafür aber vll. 10 Karten pro Monat an Hardcorefanboys verkaufen sollen? Entscheidend ist nicht Marge, sondern Gewinn, also Marge*Absatzzahlen.

Hm, AMD's Grafikabteilung hat 11 Millionen verlust gemacht. Und nein, sie mussten die Preise nicht senken. Sie hätten auf dem Niveau bleiben können. Sie hatten zu dem Zeitpunkt gewisse Vorteile, die die Käufer zu ihnen gezogen hätte.
Und das man mit leistungsschlechteren Karten auch hohe Preise fahren kann, hat nVidia mit den G71 Karten gezeigt. Die haben sie nämlich nicht für <200€/<250$ veröffentlicht. Und auch hier war AMD der erste, der mit dem rv570 den Markt runtergezogen hat. Anscheinend verstehen sie nicht, dass Marktanteile nicht gleich finanzielle positive Auswirkungen ermöglichen.

Schlammsau
2008-05-24, 12:20:25
@LovesuckZ
Du hast doch sowas von keine Ahnung von freier Marktwirtschaft. Unglaublich!
Geiz ist geil....schonmal was von gehört? Gleichwertige Produkte teurer als die Konkurrenz Verkaufen?
Wo lebst du den?
Beide Hersteller haben den Preis gesenkt um ihre eigenen Produkte an den Mann zu bringen!
Mittlerweile kostet die 8800GT oder 9600GT nur noch nen Bruchteil von dem Preis zu dem sie Vorgestellt wurden.
Nach deiner Argumentation könnte ja nVidia bei ihrem Preisen bleiben.

Hvoralek
2008-05-24, 12:39:53
Les ihren Finanzreport. Sie haben niedrigere Margen als erwartet. G80 ABverkauf auf niedrigem Niveau und sie können nicht die Menge an G92 liefern, die sie benötigen.Dass die Margen nicht so gut sind wie ursprünglich erwartet, kann ich mir gut vorstellen. Und? Man kann offensichtlich einen 330- mm²- Chip in diesen Preisregionen immer noch profitabel anbieten. Dann wäre das doch wohl auch vor einem Jahr im damals schon betagten 90- nm- Prozess möglich gewesen, wenn man gewollt hätte.

Hm, AMD's Grafikabteilung hat 11 Millionen verlust gemacht.Inwiefern spielt das in dem Zusammenhang eine Rolle? Die Frage ist, ob sie weniger Verlust gemacht hätten, wenn eine 3870 wie geplant 300€ kosten würde.

Und nein, sie mussten die Preise nicht senken. Sie hätten auf dem Niveau bleiben können. Sie hatten zu dem Zeitpunkt gewisse Vorteile, die die Käufer zu ihnen gezogen hätte.Sie hatten einen ~15W geringeren Stromverbrauch im Leerlauf und D3D10.1. Wie viele Leute wären wohl bereit gewesen, allein wegen der beiden Vorteile fast 100€ mehr zu bezahlen als für eine ansonsten gleichwertige, ja sogar noch klar schnellere Karte?

Und das man mit leistungsschlechteren Karten auch hohe Preise fahren kann, hat nVidia mit den G71 Karten gezeigt. Die haben sie nämlich nicht für <200€/<250$ veröffentlicht.Afair kostete eine 7900GTX etwa das gleiche wie eine X1900XT. Die Karten waren etwa gleich schnell, die X1900 hatte eine bessere BQ (was im Massenmarkt aber praktisch niemand wusste), brauchte dafür aber erheblich mehr Strom, auch und gerade unter Last, und wurde mit einem Fön gekühlt. Hinzu kommt, dass Nvidia es eher schafft, Karten auch über ihren Namen zu verkaufen, sogar solchen Schrott wie eine FX5200. Ähnliches Spiel später bei der 7900GT/ X1950 Pro, die auch im gleichen Preisbereich lagen.

Snoopy69
2008-05-24, 12:47:07
Die X1900 konnte man aber anders als NV stromsparender machen.
Bios einfach mit Rabit @ 2D auf 1V und niedrigem Takt modden - fertig!
Fand ich auch bei OC ganz gut. Eben alles über Software.

Bei NV kann man dagegen nur rauf mit VGPU und VMem. Allerdings nur gelötet.


Und was stimmt davon noch oder nicht?

Ich fasse mal aus demletzen Thread zusammen, was dort besprochen wurde:

- Launchtermin H2/08 (eher Q3)
- Fertigung in 55nm
- Neues Design (kein Refresh wie die G9x), aber an die G80 Architektur angelehnt ("no real surprises")
-> DX10.1 (definitiv kein DX11)
- Großer Singelchip (keine GX2-Karte)
-> die-size größer als G80, also über 500mm² denkbar
-> hoher Verbrauch
-> mind. doppelt so viele Transistoren wie der G80 (2*680M = über 1,4 Mrd Transistoren)
- Leistungssteigerung um den Faktor ~3 zum G80
- Vermutlich GDDR5 (falls verfügbar) oder GDDR3 Speicher, kein GDDR4
- Eventuell neuer Marketingname (GF10800GTX unwahrscheinlich)

55nm stimmt mal nicht, oder?
Beim Ram wäre ich mit auch nicht sicher. Ich denke max. GDDR4

Hvoralek
2008-05-24, 13:05:27
Die X1900 konnte man aber anders als NV stromsparender machen.
Bios einfach mit Rabit @ 2D auf 1V und niedrigem Takt modden - fertig!
Fand ich auch bei OC ganz gut. Eben alles über Software.Das betrifft aber auch nur Freaks, die sich damit beschäftigen und keine Garantie auf die Karte möchten, und hilft obendrein nur im Leerlauf.

Und was stimmt davon noch oder nicht?

55nm stimmt mal nicht, oder?
Beim Ram wäre ich mit auch nicht sicher. Ich denke max. GDDR4Die Angaben sind völlig veraltet. Schau mal in den ersten Beitrag dieses Threads: - Launchtermin H2/08 (eher Q3) wahrscheinlich Juni
- Fertigung in 55nm Nein, 65 nm
- Neues Design (kein Refresh wie die G9x), aber an die G80 Architektur angelehnt ("no real surprises") Ja, wohl kleinere Umbauten, vergleichbar mit NV40 --> G70
-> DX10.1 (definitiv kein DX11) Fast sicher nur D3D 10.0
- Großer Singelchip (keine GX2-Karte) Ja
-> die-size größer als G80, also über 500mm² denkbar Ja, knapp unter 600 mm², konkret öffentlich genannt wurden 576 mm²
-> hoher Verbrauch Ja, man munkelt von 250W TDP
-> mind. doppelt so viele Transistoren wie der G80 (2*680M = über 1,4 Mrd Transistoren) Kommt bei der Größe ungefähr hin
- Leistungssteigerung um den Faktor ~3 zum G80 unsicher, ich würde eher von 2 - 2,5x G80 ausgehen
- Vermutlich GDDR5 (falls verfügbar) oder GDDR3 Speicher, kein GDDR4 höchstwahrscheinlich GDDR3 an einem 512- bit- SI. GDDR4 ist bei Nvidia fast auszuschließen.
- Eventuell neuer Marketingname (GF10800GTX unwahrscheinlich) Wahrscheinlich "Geforce GTX 280"/ "GTX 260"

AffenJack
2008-05-24, 13:07:51
@snoopy69
das man die x1900 stromsparender machen konnte,brachte aber dem normalen ahnungslosen kunden nix.Sie war als stromfresser und föhn verschrien und verkaufte sich deshalb nicht besser als die nv

guck mal auf die erste seite des 3ten teiles,da ist ne gute zusammenfassung von den aktuellen infos,müsste noch recht aktuell sien wenn ich mich nicht irre
da steht auch,dass es 65nm und gddr3 werden

pXe
2008-05-24, 13:08:12
Ob es diesmal wieder ein Launch wird wo die Karten gleich am ersten Tag verfügbar sein werden?


pXe

dargo
2008-05-24, 13:09:43
55nm stimmt mal nicht, oder?

Wie oft denn noch? :|


Beim Ram wäre ich mit auch nicht sicher. Ich denke max. GDDR4
Auch das wurde hier schon zig fach durchgekaut, NV will von GDDR4 nichts wissen!

Snoopy1978
2008-05-24, 13:12:01
Ob es diesmal wieder ein Launch wird wo die Karten gleich am ersten Tag verfügbar sein werden?


Ich denke mal schon,zumindest vom verwendeten VRam her dürfte ja nichts dagegen sprechen,da GDDR3 ja breit verfügbar ist im Gegensatz zu GDDR5.Es dürfte nichts gegen einen Hardlaunch sprechen.

LovesuckZ
2008-05-24, 13:36:06
Dass die Margen nicht so gut sind wie ursprünglich erwartet, kann ich mir gut vorstellen. Und? Man kann offensichtlich einen 330- mm²- Chip in diesen Preisregionen immer noch profitabel anbieten. Dann wäre das doch wohl auch vor einem Jahr im damals schon betagten 90- nm- Prozess möglich gewesen, wenn man gewollt hätte.

Man kann ihn nur profitabel anbieten, wenn die Absatzzahlen stimmen. Ausserdem zerstört man den Markt mit solchen riesigen Sprüngen (von ca. 125mm² auf 285mm²). Denn der Käufer erwartet bei der nächsten Generation wieder mehr Geschwindigkeit. Und das ist in einem Jahresrhythmus nicht zu schaffen. Siehe auch 1950pro und 8600GTS.


Inwiefern spielt das in dem Zusammenhang eine Rolle? Die Frage ist, ob sie weniger Verlust gemacht hätten, wenn eine 3870 wie geplant 300€ kosten würde.

Was gab es den in diesem Segment für Alternativen? 8800GTS und 2900XT. 3870 und 8800GT sind wesentlich besser als die genannten. Und beide für 299€ hätten auch gut nebeneinander leben können.


Sie hatten einen ~15W geringeren Stromverbrauch im Leerlauf und D3D10.1. Wie viele Leute wären wohl bereit gewesen, allein wegen der beiden Vorteile fast 100€ mehr zu bezahlen als für eine ansonsten gleichwertige, ja sogar noch klar schnellere Karte?

Eine 8800GT hätte keine 150€ gekostet, wenn die 3870 für 250€ im Markt gewesen wäre. nVidia hat klar auf das Segment zwischen 250€ - 350€ gezielt, um die 8800GTS Karten abzulösen. Ob nun mit 6,7 oder 8 Cluster - das müsste AMD eigentlich egal sein.


Afair kostete eine 7900GTX etwa das gleiche wie eine X1900XT. Die Karten waren etwa gleich schnell, die X1900 hatte eine bessere BQ (was im Massenmarkt aber praktisch niemand wusste), brauchte dafür aber erheblich mehr Strom, auch und gerade unter Last, und wurde mit einem Fön gekühlt. Hinzu kommt, dass Nvidia es eher schafft, Karten auch über ihren Namen zu verkaufen, sogar solchen Schrott wie eine FX5200. Ähnliches Spiel später bei der 7900GT/ X1950 Pro, die auch im gleichen Preisbereich lagen.

Und trotzdem bot nVidia einen <200mm² Die für 330€/500€ an. Das ist der Unterschied zu AMD. Die können jetzt wesentlich billiger produzieren. Statt jedoch die hohen Margen und somit den besseren finanziellen Aspekt mitzunehmen, versuchen sie mit Preisdruck aus dem Minus zu kommen. Das ist gescheitert.
Die 7900GT war fast 6 Monate eher auf dem Markt. Und auch hier sieht man, dass AMD mit aller Macht versuchte Marktanteile zugewinnen. Und gleichzeitig für die kommenden Midrange Produkte den Markt zerstörte. Und in genau diesem Zustand befinden wir uns jetzt wieder: 8800GT und 8800GTS-512 sind verdammt schnell. AMD muss also schon fast zwangsläufig ihre neuen Karten für unter 200€ verkaufen, um einen positiven Effekt zu erzielen. Und das zehrt dann auch an ihren hohen Margen, die sie sich durch die rv670 Karten erhöht haben.

Nakai
2008-05-24, 13:45:45
Die 7900GT war fast 6 Monate eher auf dem Markt. Und auch hier sieht man, dass AMD mit aller Macht versuchte Marktanteile zugewinnen. Und gleichzeitig für die kommenden Midrange Produkte den Markt zerstörte. Und in genau diesem Zustand befinden wir uns jetzt wieder: 8800GT und 8800GTS-512 sind verdammt schnell. AMD muss also schon fast zwangsläufig ihre neuen Karten für unter 200€ verkaufen, um einen positiven Effekt zu erzielen. Und das zehrt dann auch an ihren hohen Margen, die sie sich durch die rv670 Karten erhöht haben.

So ein Unsinn. Das ist die freie Marktwirtschaft.
Der RV570 und R580 bot bei späterer Software eine ähnliche Leistungssteigerung an, welche in direkter Relation zu den Diesizes der Konkurrenz stand.

Eine 8800GT hätte keine 150€ gekostet, wenn die 3870 für 250€ im Markt gewesen wäre. nVidia hat klar auf das Segment zwischen 250€ - 350€ gezielt, um die 8800GTS Karten abzulösen. Ob nun mit 6,7 oder 8 Cluster - das müsste AMD eigentlich egal sein.

8800GT war früher da...
BTW dem Kunden interessiert hauptsächlich die Performance.


mfg Nakai

LovesuckZ
2008-05-24, 13:54:07
So ein Unsinn. Das ist die freie Marktwirtschaft.

"Freie Marktwirtschaft"? Reden wir hier über ein Gesellschaftssystem :confused:


Der RV570 und R580 bot bei späterer Software eine ähnliche Leistungssteigerung an, welche in direkter Relation zu den Diesizes der Konkurrenz stand.

Und das hat nochmal genau welchen Einfluss auf die Margen? Und schlussendlich auf das, was am Ende darsteht?


8800GT war früher da...
BTW dem Kunden interessiert hauptsächlich die Performance.


Die G71 Karten kamen 2 Monate nach der der X1900XT. Und Leistung ist nicht alles. Die 3xxx Karten haben einige interessante Vorteile - man muss sie nur vermarkten.

Sorkalm
2008-05-24, 13:56:26
Die G71 Karten kamen 2 Monate nach der der X1900XT.

Joa, aber die konnte man auch ordentlich platzieren, da die X1900 XT in den hohen Preisregionen stand.

Die 8800 GT, die ja bekanntlich zu erst kam, hat doch erst diesen enormen Preisverfall eingeleitet.

LovesuckZ
2008-05-24, 14:04:37
Joa, aber die konnte man auch ordentlich platzieren, da die X1900 XT in den hohen Preisregionen stand.

Und? Warum sollte das bei 250€ nicht gehen?


Die 8800 GT, die ja bekanntlich zu erst kam, hat doch erst diesen enormen Preisverfall eingeleitet.

Nein, die 8800GT stand genau dort, wo sie stehen sollte: Als Ersatz für die 8800GTS-320. Und wenn AMD nVidia unterschätzt haben sollte (nie und nimmer 8 Cluster und 324mm²), dann ist das kein Argument, gleich mal in Panik den Preis um 60$ zu senken.

Nakai
2008-05-24, 14:04:39
"Freie Marktwirtschaft"? Reden wir hier über ein Gesellschaftssystem

Du redest davon, dass AMD den Markt kaputt gemacht hat. Ich rede davon, dass dies freie Marktwirtschaft ist.
NV kam mit der 8800GT für etwa 250€, dann kam AMD mit dem RV670. Der war leicht schwächer und deswegen hat man den Preis runtergedrückt auf etwa 200€.
Und dann ging der Preiskampf los, was für mich eine normale Konkurrenzsituation war.


mfg Nakai

LovesuckZ
2008-05-24, 14:09:27
Du redest davon, dass AMD den Markt kaputt gemacht hat. Ich rede davon, dass dies freie Marktwirtschaft ist.

Monopole gibt es auch in einer freien Marktwirtschaft. Ist das auch gut? :confused:


NV kam mit der 8800GT für etwa 250€, dann kam AMD mit dem RV670. Der war leicht schwächer und deswegen hat man den Preis runtergedrückt auf etwa 200€.


Ja und schlussendlich bedeutet ein kaputter Markt, dass weniger Geld erwirtschaftet werden kann und im schlimmsten Fall resultiert das ist einem Ausstieg von einem der beiden Hersteller. Und nVidia wird auch keine Probleme mit dem Kartellamt bekommen, wenn es AMD treffen sollte. Intel hat immernoch einen größeren Marktanteil.

Gast
2008-05-24, 14:13:23
Du redest davon, dass AMD den Markt kaputt gemacht hat. Ich rede davon, dass dies freie Marktwirtschaft ist.
NV kam mit der 8800GT für etwa 250€, dann kam AMD mit dem RV670. Der war leicht schwächer und deswegen hat man den Preis runtergedrückt auf etwa 200€.
Und dann ging der Preiskampf los, was für mich eine normale Konkurrenzsituation war.


mfg Nakai

dann könnte sich aber LovesuckZ nicht mal die 8800gt leisten:)

Hvoralek
2008-05-24, 14:15:13
Man kann ihn nur profitabel anbieten, wenn die Absatzzahlen stimmen.Hast Du nicht gerade noch die Marge allein zum Maß aller Dinge erklärt und AMD für verrückt, weil sie tatsächlich auch auf die Absatzzahlen gucken?

Ausserdem zerstört man den Markt mit solchen riesigen Sprüngen (von ca. 125mm² auf 285mm²). Denn der Käufer erwartet bei der nächsten Generation wieder mehr Geschwindigkeit. Und das ist in einem Jahresrhythmus nicht zu schaffen. Siehe auch 1950pro und 8600GTS.Was hat das mit dem (eh OT-) Thema zu tun?

Was gab es den in diesem Segment für Alternativen? 8800GTS und 2900XT. 3870 und 8800GT sind wesentlich besser als die genannten. Und beide für 299€ hätten auch gut nebeneinander leben können.Hätten sie eben nicht. Kaum jemand hätte eine 3870 gekauft, wenn er zum selben Preis eine 8800 GT hätte bekommen können. Wie viele Leute hätten sich bei der Wahl zwischen D3D10.1 und 20-25% Mehrleistung wohl für ersteres entschieden? Als Nvidia einen 7- C- Chip um 250€ angesetzt hat, war klar, dass AMD mit der 3870 darunter würde gehen müssen.

Stell Dir vor, es hätten wirklich beide fast identische Modelle in allen Preisbereichen, beide würden mit allen gute Margen erreichen, beide wären zufrieden, würden ihre Karten verkaufen und sonst nichts ändern. Fändest Du das toll?

Eine 8800GT hätte keine 150€ gekostet, wenn die 3870 für 250€ im Markt gewesen wäre. nVidia hat klar auf das Segment zwischen 250€ - 350€ gezielt, um die 8800GTS Karten abzulösen. Ob nun mit 6,7 oder 8 Cluster - das müsste AMD eigentlich egal sein.Schau Dir noch einmal die Listenpreise beim Erscheinen der GT an (zur Erinnerung: Die kam vor RV670) und dann sag mir nochmal, wer von den beiden mit aggressiver Preisgestaltung begonnen hat. Du kannst sicher sein, wenn Nvidia die GT nicht für 250€ verkauft hätte, hätte eine 3870 auch mehr als 200€ gekostet.

Und trotzdem bot nVidia einen <200mm² Die für 330€/500€ an. Das ist der Unterschied zu AMD. Die können jetzt wesentlich billiger produzieren. Statt jedoch die hohen Margen und somit den besseren finanziellen Aspekt mitzunehmen, versuchen sie mit Preisdruck aus dem Minus zu kommen. Das ist gescheitert.Es gab auch Zeiten, zu denen man einen noch kleineren Chip noch teurer verkaufen konnte. Wenn es niemanden gibt, der bessere Angebote machen kann, oder ähnliche Angebote nur mit mehr Aufwand, und die Nachfrage da ist, klar.

Die 7900GT war fast 6 Monate eher auf dem Markt. Und auch hier sieht man, dass AMD mit aller Macht versuchte Marktanteile zugewinnen. Und gleichzeitig für die kommenden Midrange Produkte den Markt zerstörte.Trotzdem war die 7900 GT der Gegenspieler zu RV570. Ich sehe auch nicht Dein Problem damit, dass man mit den sog. Mittelklassekarten Frühjahr nicht ganz die Leistung der Performancekarten der Vorgängergeneration erreicht hat. In dem Fall finde ist das nachvollziehbar, weil man die Karten technologisch erheblich aufboren musste - D3D10 kostet nun mal einiges an Transistoren.

Und in genau diesem Zustand befinden wir uns jetzt wieder: 8800GT und 8800GTS-512 sind verdammt schnell. AMD muss also schon fast zwangsläufig ihre neuen Karten für unter 200€ verkaufen, um einen positiven Effekt zu erzielen. Und das zehrt dann auch an ihren hohen Margen, die sie sich durch die rv670 Karten erhöht haben.Es ist doch absehbar, dass RV770 ein gutes Stück schneller wird als G92. Wenn Nvidia bei G92b die Taktfrequenzen nicht großartig steigern kann, kann AMD damit gut den Bereich von 200 - 300€ abdecken. Mit einem Chip, der kleiner ist als Nvidias 100- bis- 200- €- G92 im Übrigen.

Nakai
2008-05-24, 14:25:36
Monopole gibt es auch in einer freien Marktwirtschaft. Ist das auch gut? :confused:



Willst du ne Soziale Marktwirtschaft? ;)

Ja und schlussendlich bedeutet ein kaputter Markt, dass weniger Geld erwirtschaftet werden kann und im schlimmsten Fall resultiert das ist einem Ausstieg von einem der beiden Hersteller. Und nVidia wird auch keine Probleme mit dem Kartellamt bekommen, wenn es AMD treffen sollte. Intel hat immernoch einen größeren Marktanteil.

Na und?


mfg Nakai

Snoopy69
2008-05-24, 14:40:00
Das betrifft aber auch nur Freaks, die sich damit beschäftigen und keine Garantie auf die Karte möchten, und hilft obendrein nur im Leerlauf.

Und eben darum geht es doch. Nicht jeder hat einen 2. PC. Deshalb finde ich zu hohem Verbrauch in 2D sinnfrei.
Der Verlust der Garantie ist den OCern und Moddern bewusst. Da spielt Geld auch nicht so die Rolle...

@snoopy69
das man die x1900 stromsparender machen konnte,brachte aber dem normalen ahnungslosen kunden nix.Sie war als stromfresser und föhn verschrien und verkaufte sich deshalb nicht besser als die nv


Ahnungslos trifft es auf den Punkt. Ihr damaliger Konkurent hatte das Nachsehen (was OC und Perf. betraf)

Wie oft denn noch? :|


Auch das wurde hier schon zig fach durchgekaut, NV will von GDDR4 nichts wissen!

Sorry, aber ich hab nicht nur hier zu tun! 65nm und (billiges) GDDR3 ist nun klar :wink:

Odal
2008-05-24, 14:50:45
Man kann ihn nur profitabel anbieten, wenn die Absatzzahlen stimmen. Ausserdem zerstört man den Markt mit solchen riesigen Sprüngen (von ca. 125mm² auf 285mm²). Denn der Käufer erwartet bei der nächsten Generation wieder mehr Geschwindigkeit. Und das ist in einem Jahresrhythmus nicht zu schaffen. Siehe auch 1950pro und 8600GTS.


Warum erwartet man denn nen Jahresrythmus? Solange über Jahre hinweg immer das selbe Techlevel verkauft wird mit marginalen performancezusätzen ist das Entscheidung des IHV um Leute abzuzocken....
Ich wär froh wenn es diesen "Rythmus" nur mit signifikanten Leistungssteigerungen und erhöhtem Techlevel gäbe und einem die Leistung nicht immer Häppchenweise alle paar Monate angedreht werden würde....

deekey777
2008-05-24, 15:07:05
Eine sehr lustige Diskussion, aber ich empfehle nochmal diesen Thread zu lesen:
http://forum.beyond3d.com/showthread.php?t=48031
Insbesondere die Postings von Arun und sunrise sind jedem nahezulegen.

Ailuros
2008-05-24, 18:55:27
Der R580 kommt bei 650 MHz auf theoretische 374 GFLOPs, davon etwa ein Zweidrittel MADDs. Trotzdem hat man es hinbekommen, dass der GPU1-Client seit Oktober 2006 lief. Nach und nach kamen auch kleinere Grafikkarten bis zur X1600Pro.
Der aktuelle GPU2-Client funktioniert auf allen HD-Radeons ab HD2600 aufwärts.
Dass der NV-Client "erst" jetzt kommt, ist nicht schlimm, denn man hat für den GPU2-Client (der CAL/Brook+ nutzt) auch ziemlich lange gebraucht. Dass in dem tollen Diagramm kein G80 zu sehen ist, liegt eher daran, dass für den G200 geworben wird.

Errrr nein.

CJ hat es bei B3D herausgelassen und ich hab auch 2 Bestaetigungen dafuer:

GT200= 240*3*1.3GHz

Und G8x/9x ist nicht im Diagramm weil NVIDIA endlich die fehlende MUL gefunden hat ;)

crux2005
2008-05-24, 19:00:55
mehr als 30% der MUL ? :D

MEDIC-on-DUTY
2008-05-24, 19:00:57
Bin zwar kein MOD hier, aber ich würde mir gerne wieder etwas mehr Sachlichkeit von einigen Leuten hier wünschen. Auch das Rumgekeife ist nicht auszuhalten. Wir sind hier doch nicht bei CB ;)

Danke für die Aufmerksamkeit.

AnarchX
2008-05-24, 19:00:59
@Ailuros
Aber das MUL wird doch für andere Aufgaben benötigt abseits des Shadings und so wichtig waren doch Multiplikationen nicht, dass man hierdurch große Mehrleistung gewinnen könnte? :|

Und die 1.3GHz SD bedeuten dann nur ~525MHz bei den ROP/TMUs oder verringert NV wieder das Taktverhältnis?

Passt irgendwie nicht wirklich zu den aktuellen Performance-Spekulationen.

Ailuros
2008-05-24, 19:07:19
@Ailuros
Aber das MUL wird doch für andere Aufgaben benötigt abseits des Shadings und so wichtig waren doch Multiplikationen nicht, dass man hierdurch große Mehrleistung gewinnen könnte? :|

Wem von uns ist der genau Aufbau von GT200 genau bekannt? Keinem. NV setzt schon immer mehr auf MUL als auf ADD.

Und die 1.3GHz SD bedeuten dann nur ~525MHz bei den ROP/TMUs oder verringert NV wieder das Taktverhältnis?

Keine Ahnung.

Passt irgendwie nicht wirklich zu den aktuellen Performance-Spekulationen.

Wieso nicht? In Shader-limitierten Faellen koennen die ~940 GFLOPs tatsaechlich zu 3*G80 fuehren.

MEDIC-on-DUTY
2008-05-24, 19:18:56
Heutzutage braucht man echt schon 2 Kreisläufe einen für CPU@4,0GHz und den anderen für 200W Grafikkarte.

Nein, das ist sicherlich nicht erforderlich, wenn bis dato nur eine CPU und z.B. eine Festplatte im Kreislauf hängen. Ein Dualradiator mit zwei 120ern schafft das locker. Die zwei Grad mehr oder weniger machen es nicht aus. Erst wenn das Netzteil in den Kreislauf mit einbezogen wird, sollte über eine Radiatorerweiterung nachgedacht werden.

Ich würde erst einmal abwarten wie gut und leise der Kühler der 280er wirklich ist. Denn die Investition von ca. 70-90 Euro für das Kupferteil lohnen sich nur, wenn die Karte noch ausreichend OC-Potenziale mitbringt.

Und durch die größere Diefläche sollte sich das Hitzeproblem in Grenzen halten. Ich hoffe sehr, dass es auf dem Level einer 88er liegt.

AnarchX
2008-05-24, 19:34:47
Nvidia GTX260 and 280 revealed
Missed targets and low yield (http://www.theinquirer.net/gb/inquirer/news/2008/05/24/gtx260-280-revealed)

The 280 has 240 stream processors and runs at a clock of 602MHz, a massive miss on what the firm intended. The processor clock runs at 1296MHz and the memory is at 1107MHz. The high-end part has 1G of GDDR3 at 512b width.
[...]
This beast takes 236W max, so all those of you who bought mongo PSUs may have to reinvest if they ever get three or four-way SLI functional.


The smaller brother, aka low-yield, salvage part, the GTX260 is basically the same chips with 192 SPs and 896M GDDR3. If you are maths-impaired, let me point out that this equates to 24 ROPs.

The clocks are 576MHz GPU, 999MHz memory and 896MHz GDDR3 on a 448b memory interface. The power is fed by two six-pin connectors. Power consumption for this 10.5-inch board is 182W


Auch wenn es INQ ist, so passt es doch zu den letzen Spekulationen.

LovesuckZ
2008-05-24, 19:47:19
Ohman, er könnte auch einfach nachdenken. nVidia's "low Yields" beim G92 resultieren aus dem billigen Preis und somit der hohen Nachfrage.
Ebenso ist es lustig, dass sie 602Mhz für 80 TMUs und 32 ROPs als "miss" bezeichnen. Ne, Theinq ist durch den Abgang von Fudo noch schlechter geworden...

AnarchX
2008-05-24, 19:53:31
Mal eine aktualisierte Zusammenfassung:

GT200 - Zusammenfassung aktueller Gerüchte/Spekulationen:

GPU-Codename: G200
Die-Size: 575mm²
Transitorenanzahl: >1Mrd.(laut NV (http://www.golem.de/0804/58955.html)), laut letzen Spekus wohl in Richtung 1.4 Mrd.

GPU-Aufbau:
- 512-Bit, 32 (?) ROPs
- 10 Cluster mit je 8 TMUs und je 24 skalaren Shadereinheiten (Fähigkeiten noch unbekannt) -> 80 TMUs, 240SPs(Bestätigung? (http://www.marketwatch.com/news/story/nvidias-picture-brighter-stock-price/story.aspx?guid=%7BB82E0D80-25BB-49F2-9BE3-A50EFD3E8CEC%7D))

mögliches PCB-Design:
http://img232.imageshack.us/img232/5411/9900gtxside48db423adh7.jpg (http://imageshack.us)
http://www.vr-zone.com/articles/GeForce_9900_GTX_Card_Design_Exposed/5763.html
STEP-File zum selber anschauen: http://www.mediafire.com/?gem3dcyjd9y
http://img167.imageshack.us/img167/3626/200805211639524826787e5nd3.jpg (http://imageshack.us)
Fotos der Karte:
http://img89.imageshack.us/img89/1249/2008052276e7838a450d9ecmz7.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/5051/200805220692d90f068b76bwp5.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/4426/200805229183401ab0a35a1pe3.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/295/295937.shtml

möglicher Kühler:
http://img232.imageshack.us/img232/2015/129478612vohbe6.jpg (http://imageshack.us)
http://diy.pconline.com.cn/graphics/news/0805/1294786.html

SKUs:
- intern D10U-300 und -200
- Handelname: GeForce GTX 280 und 260 (http://www.hkepc.com/?id=1165&fs=c1n) (engl. (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html))
GTX 280:
- voller G200
- 240 SPs, 80 TMUs, 32 ROPs, 512-Bit
- 1GiB GDDR3
- Taktraten: 602/1296/1107MHz
- theoretische Leistung: 48 GTex/s, 933GFLOPs, 142GB/s
- 236W TDP
- 10.5" PCB

GTX 260:
- teildeaktiverter G200
- 192 SPs, 64 TMUs, 28 ROPs, 448-Bit
- 896MiB GDDR3
- Taktraten: 576/1240?/999MHz
- theoretische Leistung: 36,8 GTex/s, 714GFLOPs, 112GB/s
- 182W TDP
- 10.5" PCB

(Quelle der genaueren SKU-Daten (http://www.theinquirer.net/gb/inquirer/news/2008/05/24/gtx260-280-revealed))


- Launch: 18 Juni 2008 (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html)

spekulierte Leistung:

- flüssige Darstellung von Crysis in 2560x1600 Very High 4xAA (http://we.pcinlife.com/thread-926798-1-1.html) durch ein GT200 (GTX 280?) SLI ( ~ 3-fache 8800 GTX Leistung für eine GTX 280)
- QX9650 OC + GT200 soll mehr als 13.000 Punkte in 3DMark Vantage unter Performance (http://we.pcinlife.com/thread-933395-1-1.html)(1280x1024 1xAA/AF) erzielen (~ etwas über 8800 GTX SLI Leistung)
(Anmerkung: PHK ist bekannt für zutreffende Leaks seit einigen Jahren.)
- GTX 280 erreicht 7.000 Punkte unter 3DMark Vantage Extreme Preset (http://www.pczilla.net/en/post/11.html)
- GTX 280 unter F@H: ~2.8x HD3870, 5xPS3 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6523912&postcount=867)
- GTX 280: ~ 1.25x GTX 260 laut INQ

Hvoralek
2008-05-24, 19:56:24
Nvidia GTX260 and 280 revealed
Missed targets and low yield (http://www.theinquirer.net/gb/inquirer/news/2008/05/24/gtx260-280-revealed)

Auch wenn es INQ ist, so passt es doch zu den letzen Spekulationen.Was hat man denn erwartet? Die Taktraten sind etwas niedriger als bei G92, aber mit einem fast doppelt so großen Chip in der selben Strukturgröße (auch im selben Prozess?) ist das nicht so überraschend.

Aber entweder bin ich "maths-impaired" oder Demerjian ist es selbst. Ein 448- bit- SI ergibt nach meiner Rechnung 28 ROPs :|

AnarchX
2008-05-24, 20:00:36
Natürlich ergeben 448-Bit 28 ROPs.

Klar zeigt hier Charlie seine Einstellung gegenüber NV sehr deutlich, aber die Infos sind durchaus schlüssig und passen zu dem was auch andere Quellen in den letzten Tagen von sich gegeben haben.

crux2005
2008-05-24, 20:03:39
- 240 SPs, 80 TMUs, 32 ROPs, 512-Bit

sind es jetzt sicher 80 TMUs ?

AnarchX
2008-05-24, 20:06:02
sind es jetzt sicher 80 TMUs ?

GT200 - Zusammenfassung aktueller Gerüchte/Spekulationen:

Jedenfalls behaupten dass Ailuros und auch andere.
Selbst wenn es nur 40 TAs und 80 TFs sind, wäre das für die Endleistung nicht wirklich ein Unterschied, man wird wohl einen GT200 kaum nur bilinear filtern lassen. :D

dargo
2008-05-24, 20:08:17
Hmm, 182W TDP für die GTX 260. Das kann sich noch durchaus sehen lassen. Real sollten es ca. 140W sein, knapp über G8800GTX. Da könnte ich es ja noch mit meinem 380W NT probieren. :D
Wobei, zwei 6 Pin Adapter wird NV wohl nicht beilegen oder? ;D

Hvoralek
2008-05-24, 20:08:41
Klar, zeigt hier Charlie seine Einstellung gegenüber NV sehr deutlich, aber die Infos sind durchaus schlüssig und passen zu dem was auch andere Quellen in den letzten Tagen von sich gegeben haben.Ich hätte bei der Chipgröße ohnehin Taktraten ungefähr auf G80- Niveau erwartet. Ich frage mich nur, warum das jetzt eine Enttäuschung sein soll.

Wenn die Eckdaten stimmen, dürften 260 und 280 wohl auch näher zusammenliegen als 8800 GTX und GTS 640. Diesmal sind nur 1/5 der Cluster und 1/8 der ROPs deaktiviert statt 1/4 bzw. 1/3 und auch der Unterschied in den Taktraten ist geringer. Die 260 würde ich demnach auf gut 80% der 280- Leistung schätzen statt etwa 70% wie bei der GTS 640 gegenüber der GTX.

K4mPFwUr$t
2008-05-24, 20:10:34
@dargo
wenn die GTX 260 wirklich so niedrig liegt, sollte mein S12+ 550W kein problem mit dieser haben.
*stein vom herzen fall* :biggrin:

AnarchX
2008-05-24, 20:12:41
Ich hätte bei der Chipgröße ohnehin Taktraten ungefähr auf G80- Niveau erwartet. Ich frage mich nur, warum das jetzt eine Enttäuschung sein soll.
Halt nicht das magische TeraFLOP... ;D

Zwar finde ich 1.3GHz auch etwas wenig, für 236W TDP, aber man sollte wohl nicht von G9x/8x ausgehen, vorallem nicht wenn die spekulierte Leistung am Ende herauskommt.


Wenn die Eckdaten stimmen, dürften 260 und 280 wohl auch näher zusammenliegen als 8800 GTX und GTS 640. Diesmal sind nur 1/5 der Cluster und 1/8 der ROPs deaktiviert statt 1/4 bzw. 1/3 und auch der Unterschied in den Taktraten ist geringer. Die 260 würde ich demnach auf gut 80% der 280- Leistung schätzen statt etwa 70% wie bei der GTS 640 gegenüber der GTX.
Laut Artikel ist die 280 25% schneller als die 260.

dargo
2008-05-24, 20:19:19
@dargo
wenn die GTX 260 wirklich so niedrig liegt, sollte mein S12+ 550W kein problem mit dieser haben.
*stein vom herzen fall* :biggrin:
Lol, da kannste schon fast zwei von den Dingern dranhängen.

Laut Artikel ist die 280 25% schneller als die 260.
Dann hat Hvoralek ja recht, die GTX260 liefert 80% der GTX280. :)

GeneralHanno
2008-05-24, 20:25:28
nun, wenn man einen chip designed steckt man sich natürlich ein ziel und dass lautete beim GT200 vermutlich ~1500mhz shaderclock für die "magischen 1 TFLOP". vermutlich hat nvidia in den letzten 1-2 monaten festgestellt, dass die yield, TDP oder was auch immer bei 1,5GHz zu schlecht wäre (ATi hat beim R600 sein taktziel ja auch nicht erreicht ...) und man hat daher den shaderclock abgesenkt. das ist zwar aus psychologischer sicht ärgerlich, dennoch wird der GT200 alles bisherige rulen ;)

ich halte es für durchaus möglich, dass es nach 2-3 monaten ein besseres stepping und eine "ultra" a la GTX-290 mit 1 TFLOP geben wird (z.b. kurz vor dem 4870X2 launch ...)

AnarchX
2008-05-24, 20:27:09
ich halte es für durchaus möglich, dass es nach 2-3 monaten ein besseres stepping und eine "ultra" a la GTX-290 mit 1 TFLOP geben wird (z.b. kurz vor dem 4870X2 launch ...)
Könnte ich mir auch vorstellen, richtig böse wäre dann natürlich auch noch der Einsatz von (LowEnd-)GDDR5.:D

dargo
2008-05-24, 20:31:05
ich halte es für durchaus möglich, dass es nach 2-3 monaten ein besseres stepping und eine "ultra" a la GTX-290 mit 1 TFLOP geben wird (z.b. kurz vor dem 4870X2 launch ...)
Das wäre imho aber wieder so ne Karte die die Welt nicht braucht, genauso wie die G8800Ultra. Zumindest wenn man die Preisdifferenz zur GTX betrachtet.

Könnte ich mir auch vorstellen, richtig böse wäre dann natürlich auch noch der Einsatz von (LowEnd-)GDDR5.:D
Erstmal schauen wir mal ob es der GTX280 mit 141GB/s an Speicherbandbreite mangelt.

Snoopy1978
2008-05-24, 20:31:40
@ K4mPFwUr$t :
Da bin ich auch froh,für meinen neuen PC habe ich ein 900 Watt im Blick.Ich dachte schon ich müsste zu einem 1500 Watt Monster greifen für eine SLI Konfiguration.

Gast
2008-05-24, 20:39:02
und meint ihr die 280gtx wird so schnell wie 2 8800gtx sein? ne oder?

dargo
2008-05-24, 20:42:35
und meint ihr die 280gtx wird so schnell wie 2 8800gtx sein? ne oder?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6527587&postcount=1038

AnarchX
2008-05-24, 20:42:49
Erstmal schauen wir mal ob es der GTX280 mit 141GB/s an Speicherbandbreite mangelt.
Wer spricht von Mangel, "billigen" 1.6GHz GDDR5 genommen und schon hat man die "first single GPU over 1 TFLOP and 200GB/s BW", die man sich entsprechend bezahlen lassen kann. :D

Aber warten wir ab, vielleicht holt sich ATi ja gar den ersten Titel mit der HD4870.

Gast
2008-05-24, 20:44:46
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6527587&postcount=1038


also eher doch langsamer aber nicht viel,hoffe das es wenigstens 80% einer 8800gtx werden sonst lohnt sich der preis ja nicht.

dargo
2008-05-24, 20:48:41
Wer spricht von Mangel, "billigen" 1.6GHz GDDR5 genommen und schon hat man die "first single GPU over 1 TFLOP and 200GB/s BW", die man sich entsprechend bezahlen lassen kann. :D

Wenn ~42% mehr Speicherbandbreite in 10% Mehrleistung resultiert (nur als Beispiel) sehe ich keinen Grund und Sinn GDDR5 zu verbauen. Es sei denn 1,6Ghz GDDR5 sind dann billiger als 1,1Ghz GDDR3.

Edit:
Den einzigen Sinn von GDDR5 sehe ich beim Refresh des G(T)200. Dann kann man nämlich wieder auf 256Bit SI zurückgehen. Und ich könnte wetten das wird NV auch tun. Vielleicht auch wieder so ein "krummes" SI wie beim G80.

also eher doch langsamer aber nicht viel,hoffe das es wenigstens 80% einer 8800gtx werden sonst lohnt sich der preis ja nicht.
Richtig lesen bitte.

Gast
2008-05-24, 20:54:37
Hier sind die angeblich finalen Daten von The Inquirer übersichtlich in einer Tabelle zusammengefasst und auch noch mit 8800 Ultra und 9800 GTX gegenübergestellt:

http://www.hardware-infos.com/news.php?news=2090

Sorkalm
2008-05-24, 20:55:41
Aber warten wir ab, vielleicht holt sich ATi ja gar den ersten Titel mit der HD4870.

Sollte das ein Scherz sein?
Die Optimierungen im GT200-Design sollte man IMHO nicht unterschätzen.

Gast
2008-05-24, 20:57:44
Wenn ~42% mehr Speicherbandbreite in 10% Mehrleistung resultiert (nur als Beispiel) sehe ich keinen Grund und Sinn GDDR5 zu verbauen. Es sei denn 1,6Ghz GDDR5 sind dann billiger als 1,1Ghz GDDR3.


Richtig lesen bitte.


hmmm

GTX 280:
- voller G200
- 240 SPs, 80 TMUs, 32 ROPs, 512-Bit
- 1GiB GDDR3
- Taktraten: 602/1296/1107MHz
- theoretische Leistung: 48 GTex/s, 933GFLOPs, 142GB/s
- 236W TDP
- 10.5" PCB

ja und jetzt? da steht doch die theoretsiche leistung und die ist nicht mal ansatzweise doppelt zur 8800gtx.
an was soll ich mich denn sonst richten wenn nicht dort?
an die tmus?,shader?rops?,das ist doch im endeffekt uninteressant,wichtig ist doch was dann bei der theoretischen leistung raus kommt,oder sehe ich das falsch?

dargo
2008-05-24, 20:58:03
Sollte das ein Scherz sein?
Die Optimierungen im GT200-Design sollte man IMHO nicht unterschätzen.
Er meinte AMD/ATI könnten die ersten sein die GDDR5 nutzen. ;)

K4mPFwUr$t
2008-05-24, 21:01:01
die SP wurden ja fast verdopptel (128 vs 240) und dann noch eine +50% höhere effizenz pro SP.
wenn man nach den gerüchten geht.

AnarchX
2008-05-24, 21:01:11
GTX 280:
- voller G200
- 240 SPs, 80 TMUs, 32 ROPs, 512-Bit
- 1GiB GDDR3
- Taktraten: 602/1296/1107MHz
- theoretische Leistung: 48 GTex/s, 933GFLOPs, 142GB/s
- 236W TDP
- 10.5" PCB

ja und jetzt? da steht doch die theoretsiche leistung und die ist nicht mal ansatzweise doppelt zur 8800gtx.
an was soll ich mich denn sonst richten wenn nicht dort?
an die tmus?,shader?rops?,das ist doch im endeffekt uninteressant,wichtig ist doch was dann bei der theoretischen leistung raus kommt,oder sehe ich das falsch?
Nunja, bei GT200 soll wohl die Theorie näher an der Praxis liegen, als bei G80. ;)
(G9x-ROP-Kompression, höhere MUL-Auslastung,...)

Er meinte AMD/ATI könnten die ersten sein die GDDR5 nutzen. ;)
Nein, ich bezog mich auf das TeraFLOP, wobei das wohl nicht ohne Shaderdomain erreichbar sein sollte. Also stehen die Chancen für die GTX 290/Ultra 280 wohl besser.

dargo
2008-05-24, 21:02:13
hmmm

GTX 280:
- voller G200
- 240 SPs, 80 TMUs, 32 ROPs, 512-Bit
- 1GiB GDDR3
- Taktraten: 602/1296/1107MHz
- theoretische Leistung: 48 GTex/s, 933GFLOPs, 142GB/s
- 236W TDP
- 10.5" PCB

ja und jetzt? da steht doch die theoretsiche leistung und die ist nicht mal ansatzweise doppelt zur 8800gtx.
an was soll ich mich denn sonst richten wenn nicht dort?
an die tmus?,shader?rops?,das ist doch im endeffekt uninteressant,wichtig ist doch was dann bei der theoretischen leistung raus kommt,oder sehe ich das falsch?
Die theoretischen Zahlen zwischen G80 und G(T)200 sind nicht vergleichbar. Auch das hatte schon Ail mehrfach angedeutet.

Gast
2008-05-24, 22:03:25
Die theoretischen Zahlen zwischen G80 und G(T)200 sind nicht vergleichbar. Auch das hatte schon Ail mehrfach angedeutet.

na da bin ich ja mal gespannt ob die storyteller rechtbehalten=)

Gast
2008-05-24, 22:18:03
denke er wird, aber ich persönlich gehe beim g80 von anderen gründen aus, wieso man nicht mehr "effizienz" rausgeholt hat... schon mal an die höheren verbrauchszahlen gedacht? damals war der g80 auch so grandios, selbst heute noch, fast 2 jahre später. nvidia war meiner meinung nach auch gezwungen, keine perfekte auslastung zu generieren.

Snoopy1978
2008-05-24, 22:51:00
Es gibt da aber auch noch eine andere wichtige Frage,nämlich die ob auch eine Version für AGP geplant ist.Auf die Frage warte ich schon richtig. :biggrin:

Godmode
2008-05-24, 23:01:22
Es gibt da aber auch noch eine andere wichtige Frage,nämlich die ob auch eine Version für AGP geplant ist.Auf die Frage warte ich schon richtig. :biggrin:

Denke ich nicht, da es von den 8800er auch kein AGP Modell gab.

Gast
2008-05-24, 23:05:04
Es gibt da aber auch noch eine andere wichtige Frage,nämlich die ob auch eine Version für AGP geplant ist.Auf die Frage warte ich schon richtig. :biggrin:

würde die über den agp slot überhaupt genug saft bekommen?
glaube eher nicht

crux2005
2008-05-24, 23:07:49
ist auch egal
2x 8-Pin-Adapter und gut is

Gast
2008-05-24, 23:14:24
und der bandbreitenunterschied ist mehr oder weniger egal.

Sonyfreak
2008-05-24, 23:41:33
Eine sehr lustige Diskussion, aber ich empfehle nochmal diesen Thread zu lesen:
http://forum.beyond3d.com/showthread.php?t=48031
Insbesondere die Postings von Arun und sunrise sind jedem nahezulegen.Ist zwar total OT, aber die Diskussion ist meiner Meinung nach wirklich sehr interessant und das Gesprächsklima einfach super. Schade, dass es bei uns nur sehr selten so zugeht. :(

mfg.

Sonyfreak

deekey777
2008-05-25, 00:09:09
Das Beste ist, dass ich zum dritten Mal auf den Thread verwiesen habe, geben einige irgendein "Zeug" von sich.

tombman
2008-05-25, 01:09:05
Nvidia GTX260 and 280 revealed
Missed targets and low yield (http://www.theinquirer.net/gb/inquirer/news/2008/05/24/gtx260-280-revealed)

Hmm, ok, die Taktraten sind niedrig, aber mehr als ne G80 GTX habe ich bei der Breite auch nicht erwartet.

Aber wieso tut INQ jetzt so, als ob die Karte der totale Schrott wird?

Die Frage nach der Leistung bleibt. Die +50% dürften sich dann doch eher an der jetzigen Single Karte orientiert haben, oder?
Was aber peinlich wäre, denn dann wäre die GX2 ja schneller UND billiger-> :confused:

deekey777
2008-05-25, 01:30:07
Hmm, ok, die Taktraten sind niedrig, aber mehr als ne G80 GTX habe ich bei der Breite auch nicht erwartet.

Aber wieso tut INQ jetzt so, als ob die Karte der totale Schrott wird?

Die Frage nach der Leistung bleibt. Die +50% dürften sich dann doch eher an der jetzigen Single Karte orientiert haben, oder?
Was aber peinlich wäre, denn dann wäre die GX2 ja schneller UND billiger-> :confused:
Es tut nicht INQ, sondern Charlie D. Und der Artikel ist sehr schlecht geschrieben (irgendwie wird versucht, Fuads (auf seine eigene) lustige Art zu schreiben, nachzuahmen):

The smaller brother, aka low-yield, salvage part, the GTX260 is basically the same chips with 192 SPs and 896M GDDR3. If you are maths-impaired, let me point out that this equates to 24 ROPs.
Was stimmt hier nicht?

If you recall, last quarter NV blamed its tanking margins on the G92 yields.
Soweit ich es verstanden habe, führte der G92 an sich zur Verschlechterung der Marge, aber von schlechter Ausbeute war nichts zu lesen (8800GS ist eine Randerscheinung, nicht die Regel).

The clocks are 576MHz GPU, 999MHz memory and 896MHz GDDR3 on a 448b memory interface. The power is fed by two six-pin connectors. Power consumption for this 10.5-inch board is 182W.

Schlechte Ausbeute muss nicht bedeuten, dass die Welt untergeht, schließlich weiß keiner von uns, ob NV nicht irgendwelche Rabatte bekommt, die eine schlechte Ausbeute ausbügeln.

dildo4u
2008-05-25, 01:31:35
NVIDIA Editor's Day 2008

Just wait until June 17th when the GTX 200 series of GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card.

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=178&Itemid=1&limit=1&limitstart=0

Sorkalm
2008-05-25, 01:33:52
Soweit ich es verstanden habe, führte der G92 an sich zur Verschlechterung der Marge, aber von schlechter Ausbeute war nichts zu lesen (8800GS ist eine Randerscheinung, nicht die Regel).

Doch, Nvidia hat im der Quartals-Konferenz für das Q1/2009 (Fiskaljahr) von schlechten Yield-Raten beim G92 in den ersten Monaten gesprochen...

deekey777
2008-05-25, 01:54:41
Doch, Nvidia hat im der Quartals-Konferenz für das Q1/2009 (Fiskaljahr) von schlechten Yield-Raten beim G92 in den ersten Monaten gesprochen...
Sie sprachen von "nicht wie erwartet", "schlecht" ist für mich schon "schlecht". Dass sie der G92 so hart traff, lag an der eigenen Arroganz, den RV670 unterschätzt zu haben (der überraschend früher fertig wurde und dazu sich dazu noch besser schlug, als man es sich vorstellte). Der G92 hat einfach nicht die Kosteneffizienz wie ein RV670, muss aber zwei Sparten abdecken: High-Performance (8800GT und vielleicht GTS) und Enthuasist (9800GTX). Die 8800GT musste als "kostengünstige" Antwort gegen die HD2900Pro und insbesondere gegen die HD3800 antreten, wo ATi einen Preiskampf anzettelte.

Aber Nvidia steht aktuell sehr stark da, und sie werden aufpassen, dass so ein Mist wie letzten Herbst nicht wieder passiert.

Gast
2008-05-25, 02:05:47
Hmm, ok, die Taktraten sind niedrig, aber mehr als ne G80 GTX habe ich bei der Breite auch nicht erwartet.

Aber wieso tut INQ jetzt so, als ob die Karte der totale Schrott wird?

Die Frage nach der Leistung bleibt. Die +50% dürften sich dann doch eher an der jetzigen Single Karte orientiert haben, oder?
Was aber peinlich wäre, denn dann wäre die GX2 ja schneller UND billiger-> :confused:


wird wohl eher bei 80% liegen und in ab und zu mal bei 100% bei extrem situationen.aber du darfst auch nicht vergessen das eine 8800gtx oder ultra in hohen auflösungen +viel aa sogar schon im alleingang an eine gx2 dran kommt.

tombman
2008-05-25, 02:08:13
This was more or less the entire theme of the Spring 2008 Editor's Day: while gamers are the core of NVIDIA, the company offers gaming beyond, and go beyond gaming.

Sie haben erkannt, daß sie raus aus der "gaming only" Schiene kommen müssen- sehr gut. (genau was ich gesagt habe ;D)

Just wait until June 17th when the newest series of GeForce GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card.

:eek: Noch krasser als der Sprung von GF7 auf GF8? Der hat den Mund aber mal voll genommen- und ganz diametral zu Charlie Ds Aussagen.

Nightspider
2008-05-25, 02:23:20
:eek: Noch krasser als der Sprung von GF7 auf GF8? Der hat den Mund aber mal voll genommen- und ganz diametral zu Charlie Ds Aussagen.

Ich kann es jetzt schon nichtmehr warten...und jetzt noch 3 Wochen aushalten ? Das halt ich doch nicht durch...
Solche Meldungen machen einen doch nur noch wuschiger :D

Gast
2008-05-25, 02:47:38
da der sprung von gf7 zu 8 war genau 100%,dann bin ich mal gespannt.

Gast
2008-05-25, 02:56:08
da der sprung von gf7 zu 8 war genau 100%,dann bin ich mal gespannt.

mit AA und AF sogar fast das 3 fache.

LovesuckZ
2008-05-25, 03:26:28
Sie sprachen von "nicht wie erwartet", "schlecht" ist für mich schon "schlecht".

Sie sprechen von Problemen mit den Yields, die sie im 1Q nicht beheben konnten und somit die Margen gelitten haben.

Dass sie der G92 so hart traff, lag an der eigenen Arroganz, den RV670 unterschätzt zu haben (der überraschend früher fertig wurde und dazu sich dazu noch besser schlug, als man es sich vorstellte). Der G92 hat einfach nicht die Kosteneffizienz wie ein RV670, muss aber zwei Sparten abdecken: High-Performance (8800GT und vielleicht GTS) und Enthuasist (9800GTX). Die 8800GT musste als "kostengünstige" Antwort gegen die HD2900Pro und insbesondere gegen die HD3800 antreten, wo ATi einen Preiskampf anzettelte.

Lustig, wie man AMD mit 8 Cluster und 324mm² unterschätzt haben könnte...

=Floi=
2008-05-25, 05:22:39
das teil wird mit richtiger kühlung und kleinem vmod sicherlich wieder eine richtige oc-bombe :D

Snoopy69
2008-05-25, 06:55:02
das teil wird mit richtiger kühlung und kleinem vmod sicherlich wieder eine richtige oc-bombe :D
Mein Chiller wartet schon :D
Mit der Config in der Sig. war er schon an der Grenze und das war im Nov. :O
Aber ich denke, ich werd kein SLI mehr aufbauen, solange die Mikroruckler-Sache nicht vom Tisch ist.

AnarchX
2008-05-25, 07:39:02
Damit wäre wohl auch der Kühler bestätigt:
http://img267.imageshack.us/img267/8021/jenhsunhuangnvidiaeditozo6.jpg (http://imageshack.us)
http://img515.imageshack.us/img515/6027/nvidiaeditorsday20087b0ou8.jpg (http://imageshack.us)

btw.
http://img503.imageshack.us/img503/272/img3841oo8wa1.jpg (http://imageshack.us)
http://www.xtremesystems.org/forums/showthread.php?t=188952
:D

Snoopy69
2008-05-25, 10:52:09
Wird es vor dem Release glaubhafte Benches geben?

Snoopy1978
2008-05-25, 11:01:13
Die ersten glaubwürdigen Benches wird es wohl erst geben wenn unabhängige Tester (zB PCGH,Computerbase und Konsorten) die Karte im Labor haben.Laut PCGH ist Carsten Spille,der Graka-Meister, nach Amerika geflogen um sich dort die neuesten Produkte von Nvidia und AMD/Ati anzuschauen.

Godmode
2008-05-25, 11:03:40
Wird es vor dem Release glaubhafte Benches geben?

Ich denke mal so wie immer: Ca. eine Woche vorm Release wirds die ersten Leaks geben, die dann von eher unseriösen Seiten kommen werden.

Adam D.
2008-05-25, 11:26:23
"Bigger is better" - mal sehen ;)

"Not recommend for people who shouldn't drink it (you know who you are)" :ulol:

deekey777
2008-05-25, 11:44:14
Sie sprechen von Problemen mit den Yields, die sie im 1Q nicht beheben konnten und somit die Margen gelitten haben.



Lustig, wie man AMD mit 8 Cluster und 324mm² unterschätzt haben könnte...
Bist du der englischen Sprache nicht mächtig oder ignorierst du absichtlich den Link zum B3D-Forum? Aber so lange du ganz fest daran glaubst, was du schreibst, dann wird es so sein.

seahawk
2008-05-25, 12:02:14
Scheint ja spannender zu werden, als manchen glaubten.

Sonyfreak
2008-05-25, 12:02:17
Bist du der englischen Sprache nicht mächtig oder ignorierst du absichtlich den Link zum B3D-Forum? Aber so lange du ganz fest daran glaubst, was du schreibst, dann wird es so sein.Jetzt weiß ich was du gemeint hast. :D

mfg.

Sonyfreak

LovesuckZ
2008-05-25, 12:11:53
Bist du der englischen Sprache nicht mächtig oder ignorierst du absichtlich den Link zum B3D-Forum? Aber so lange du ganz fest daran glaubst, was du schreibst, dann wird es so sein.

Nur weil es Arun schreibt, muss es nicht die Wahrheit sein.
Du kannst gerne darlegen, wie nVidia AMD mit 8 Cluster und 324mm² unterschätzt haben könnte.

iceman.s
2008-05-25, 12:55:46
NVIDIA Editor's Day 2008



http://benchmarkreviews.com/index.php?option=com_content&task=view&id=178&Itemid=1&limit=1&limitstart=0

Bin ich der einzige, der das gelesen hat:

Video games are now seeing an added dependence on physics processing, just as well as GPU and CPU. GPU's Such as NVIDIA's upcoming GeForce graphics processor have shifted the dependence of video games onto the GPU, and added an on-board PhysX co-processor, it won't be long before the CPU really offers no level of performance for video games.

Also doch echtes Silicon für NVIDIA PhysX?!?!?

deekey777
2008-05-25, 12:59:32
Nur weil es Arun schreibt, muss es nicht die Wahrheit sein.
Du kannst gerne darlegen, wie nVidia AMD mit 8 Cluster und 324mm² unterschätzt haben könnte.
Klar, NV zahlt ja nach 3D 2006 für den G92: Je mehr der Chip in 3D 2006 erreicht, um so mehr kostet er...

Etwas Geschichte:
21. August 2007:
http://forum.beyond3d.com/showthread.php?p=1052558#post1052558
There will be 2 versions of the RV670, Gladiator and Revival, both featuring a 256-bit memory interface. Both versions will be made on TSMC's 55nm process and feature 320 streamprocessors. Samples are expected in September with mass production in December. Launch will be at the end of 2007 or the beginning of 2008.

http://forum.beyond3d.com/showthread.php?p=1052713#post1052713

Bump.



...
R650 isn't on the roadmap anymore. R680 is.

Release Januari 2008 together with RV620/RV635 (and maybe RV670 if they don't meet their December timeframe for that card. It's on the roadmap and all that's currently known is that it will support DX10.1 (SM4.1) just like the other new cards. It will support PCIe 2.0, have a 800+ Mhz clock combined with GDDR3 512MB / 1GB. It will also have display port and be manufactured on a smaller process. And ofcourse it has Enhanced CrossFire. Launchdate is currently set for Januari and suprisingly it will have UVD.

Ende August hieß es noch, dass der RV670 Ende des Jahres, vielleicht erst 2008 kommt.
http://forum.beyond3d.com/showthread.php?p=1069586#post1069586
Ende September:
And RV670 is on track for a launch in mid November.

http://forum.beyond3d.com/showthread.php?p=1070119#post1070119
Just heard from a fairly reliable source that the G92 aka GF8700 performs in between a GF8600GTS and GF8800GTS. It looks like AMD really succeeded in crashin nV's party by releasing the HD2900Pro which offers better performance for the same price one and a half months sooner. And G92 will go up against RV670 in November... and that fight should be in favor of the RV670...
There will be two versions of the GF8700, a GTS and a GX2, which was sort of confirmed by Kinc yesterday who said that there will be a GX2 version of the "die shrink".
http://forum.beyond3d.com/showthread.php?p=1070187#post1070187
http://forum.beyond3d.com/showthread.php?p=1070908#post1070908

Ich könnte noch weitere Posting von CJ aufzählen, aber ich hoffe, dass die Botschaft angekommen ist: NV hat nicht erwartet, dass der RV670 so früh kommt und musste diesen mit einem G92 kontern, der deutlich größer ist. Um das Single-Slot-Design beizubehalten, musste der Takt relativ niedrig gehalten werden, gleiches gilt fürs TDP (beide sind Kriterien für "Yield-Rate").
Auch gibt es mehrere Indizien dafür, dass es weder die 8800GT noch die 8800GTS 512 geben sollte, sondern eine Grafikkarte mit dem G92 und 6 Clustern als Bindeglied zwischen der 8800GTS und der 8600GTS, dagegen die 9800GTX sollte die eigentliche Nachfolgerin der 8800GTX/Ultra werden. Aber es stellte sich schon irgendwann im August heraus, dass eine Grafikkarte mit dem G92 und sechs Clustern keine Konkurrenz zum RV670 sein wird, da dieser schon im November kommt (und zwar als Hardlaunch), davor gab's als "Appetit-Häppchen" die 2900Pro, die fast die Performance der 2900XT lieferte, aber nur die Hälfte kostete.
Um dieser überraschenden Situation Herr zu werden, wurde die 8800GT veröffentlicht (und später die 8800GTS 512), auf der ein G92 sitzt, der deutlich größer ist als ein RV670 und dazu nicht die erwarteten Yields hatte.

LovesuckZ
2008-05-25, 13:13:24
Welcher nVidiachip sollte im 4.Quartal anstatt dem G92 veröffentlicht werden?

Gast
2008-05-25, 14:03:23
Welcher nVidiachip sollte im 4.Quartal anstatt dem G92 veröffentlicht werden?
g94?

LovesuckZ
2008-05-25, 14:04:13
g94?

Der war für das 1Q 2008 geplant.

AnarchX
2008-05-25, 14:10:50
Welcher nVidiachip sollte im 4.Quartal anstatt dem G92 veröffentlicht werden?

Der verschollene G90? Immerhin sprach ja das CUDA FAQ explizit von einer DP-GPU für Ende 07.

Wobei das im nachhinein auch GT200 sein könnte, der auf Grund der Probleme mit dem 65nm Prozess und der Schwäche von ATi, noch etwas nach hinten verschoben wurde.

Nightspider
2008-05-25, 14:32:01
Bin ich der einzige, der das gelesen hat:

Video games are now seeing an added dependence on physics processing, just as well as GPU and CPU. GPU's Such as NVIDIA's upcoming GeForce graphics processor have shifted the dependence of video games onto the GPU, and added an on-board PhysX co-processor, it won't be long before the CPU really offers no level of performance for video games.

Also doch echtes Silicon für NVIDIA PhysX?!?!?

Nvidia hat Ageia vor 3 Monaten gekauft.

Das ein seperater Chip verbaut wurde darf bezweifelt werden aber für unmöglich halte ich es nicht.

mapel110
2008-05-25, 14:48:39
Sinn macht das schon. Innerhalb von den paar Monaten kann man nicht mal eben PHysx an den bestehenden GT200 dranklatschen. Deshalb extra Chip und gleich vermarkten. Bisschen extra Routing auf die Platine. Speicher braucht das Ding auch nicht viel, Bandbreite ebenso wenig.
/edit
Und man spart sich das Umproggren von der Software, die man ja erst auf einen regulären Graka-Chip anpassen müsste.

Nightspider
2008-05-25, 14:59:57
Sinn macht das schon. Innerhalb von den paar Monaten kann man nicht mal eben PHysx an den bestehenden GT200 dranklatschen. Deshalb extra Chip und gleich vermarkten. Bisschen extra Routing auf die Platine. Speicher braucht das Ding auch nicht viel, Bandbreite ebenso wenig.
/edit
Und man spart sich das Umproggren von der Software, die man ja erst auf einen regulären Graka-Chip anpassen müsste.

Meinst du, das es so schnell geht, ne Verbindung zwischen der PPU und der GPU zu schaffen und innerhalb von 3 Monaten das Ding auf die Platine zu klatschen ?

Was meint ihr, wie groß die PPU wird ? Sollte die PPU nicht unlängst von 130 auf 90nm geshrinked werden ?

Ob Ageia und NV vllt schon vor der Übernahme zusammengearbeitet haben ?

AnarchX
2008-05-25, 15:30:13
Das ist doch Unsinn, da wurde doch offensichtlich das "PhysX Ready" auf der Featureliste falsch verstanden.

PhysX wird auf CUDA portiert und eben auch ATi angeboten auf ihren GPUs lauffähig zu machen, um eine möglichst breite Basis gegen Intels Havok zu schaffen.

Zudem war die PhysX1-PPU wohl auch ziemlicher Müll vom HW-Design.

Hvoralek
2008-05-25, 15:51:50
Der verschollene G90? Immerhin sprach ja das CUDA FAQ explizit von einer DP-GPU für Ende 07.Und es war offiziell die Rede einer TFLOPS- GPU Ende 2007, wovon G92 nun doch etwas entfernt ist.

Dass man GT200 anfangs für 2007 geplant hatte, glaube ich kaum. Es wäre schon... ehrgeizig, in einer neuen Strukturgröße gleich so einen Oschi zu fertigen.

Coda
2008-05-25, 16:54:29
Sinn macht das schon.
Nein. Absolut nicht.

Gast
2008-05-25, 17:04:16
http://www.hardware-infos.com/news.php?news=2091
Zitat:
Laut dem Nvidia-Zitat wird die neue Geforce GTX-Reihe also im Vergleich zur aktuellen Geforce 8- bzw. 9-Reihe einen größeren technologischen Sprung darstellen wie seinerzeit von der Geforce 7- auf die 8-Reihe.

achso,technologischer sprung,hatte ich wohl mit performance sprung verwechselt:)

Chris2CB
2008-05-25, 17:11:11
Ist mit der GTX 280 eigentlich das Problem mit 8xAA gelöst?????Oder kann das hier niemand sagen und ich muss auf die ersten Ergebnisse warten

K4mPFwUr$t
2008-05-25, 17:12:53
könnte gut sein das man den GT200 auf 8xAA optimiert, afaik war es ja 4xAA beim G80.
aber konkretes gibt es noch nichts.

AnarchX
2008-05-25, 17:13:40
Ist mit der GTX 280 eigentlich das Problem mit 8xAA gelöst?????Oder kann das hier niemand sagen und ich muss auf die ersten Ergebnisse warten
Dazu ist noch nichts bekannt.

könnte gut sein das man den GT200 auf 8xAA optimiert, afaik war es ja 4xAA beim G80.

Halte ich für extrem unwahrscheinlich dass man die GPU auf 8xAA "optimiert", eher wird NV wohl entsprechende Ansätze in Richtung CSAA verfolgen.

dildo4u
2008-05-25, 17:16:21
Es gibt kein 8XAA Problem der Geforce.Der 8XAA Modus bei NV ist aufwändiger zu berechnen wenn NV meint man müsse da was dran drehen verschlechtern sie einfach die Qualität auf ATI Niveau.Da aber so gut wie keine Seite 8XAA bencht kann auch sein das es keine Änderungen gibt dann ist die GTX280 da halt nur 2mal so schnell wie die ATI und nicht 3mal.

Gast
2008-05-25, 17:16:43
Scheiss 8xMSAA ist nicht so wichtig, Hauptsache die Hybriden Supersampling AA Modis sind wieder dabei.

pXe
2008-05-25, 17:19:13
Scheiss 8xMSAA ist nicht so wichtig, Hauptsache die Hybriden Supersampling AA Modis sind wieder dabei.

/sign


pXe

Hvoralek
2008-05-25, 17:24:28
Es gibt kein 8XAA Problem der Geforce.Der 8XAA Modus bei NV ist aufwändiger zu berechnen wenn NV meint man müsse da was dran drehen verschlechtern sie einfach die Qualität auf ATI Niveau.Warum sollten die 8 Samples auf G8x aufwändiger zu berechnen sein als auf R6xx? :confused:

Da aber so gut wie keine Seite 8XAA bencht kann auch sein das es keine Änderungen gibt dann ist die GTX280 da halt nur 2mal so schnell wie die ATI und nicht 3mal.Zumindest die in D recht einflussreiche CB misst eigentlich regelmäßig auch 8x/16x.

Chris2CB
2008-05-25, 17:26:39
Es gibt kein 8XAA Problem der Geforce.Der 8XAA Modus bei NV ist aufwändiger zu berechnen wenn NV meint man müsse da was dran drehen verschlechtern sie einfach die Qualität auf ATI Niveau.Da aber so gut wie keine Seite 8XAA bencht kann auch sein das es keine Änderungen gibt dann ist die GTX280 da halt nur 2mal so schnell wie die ATI und nicht 3mal.



Wenn ich das so richtig lese ist bei NV 8xAA optisch besser als 4fachen Kantenglättung???

Bei ATI geht das ja von 10000 auf 5000 auf 2500 runter, bei Nvidia von 2000 auf 10000 auf 3300 runter, also 2/4/8

reunion
2008-05-25, 17:51:25
Machst Du AMD eigentlich auch noch verantwortlich für mögliche Altlasten des R400- Grunddesigns? Was heißt "mögliche"? Daher stammt ja anscheinend dieser völlig überflüssigen Tessalator.


Diesen "völlig überflüssigen Tessalator" hat aber nicht nur AMD in ihrem Design.

GeneralHanno
2008-05-25, 18:03:46
ich glaube kaum, dass sich etwas an den ROPs (die ja u.a. das AA erledigen) geändert hat. warum?

jetzt nutzt nvidia noch GDDR3 und die ROPs sind für GDDR3 "optimiert". wenn nvidia nun von 1GHz-GDDR3 auf 2GHz-GDDR5 umsteigt (was so um weihnachten möglich wäre), dann stehen sie vor folgendem "problem":
für die gleiche speicherbandbreite wie unter GDDR3 würde nun die HÄLFTE der ROPs reichen ... ergo müsste nvidia beim umstieg auf GDDR5 die ROPs mehr oder minder grundlegend überarbeiten ...

mapel110
2008-05-25, 18:10:13
ROPs waren schon öfters überdimensioniert. Das dürfte das kleinste Problem sein bzw. gut, wenn ein Element sogut wie nie der Flaschenhals wird.
Ich hoffe stark darauf, dass nvidia dort was geändert hat. Umso weniger Leistung kostet dann schließlich auch 4xAA.
Nein. Absolut nicht.
Kann das nicht nen tragisches Kuddelmuddel geben, wenn die GPU Physx-Daten und Grafikdaten bearbeiten muss und das gleichzeitig?!

Hvoralek
2008-05-25, 18:12:13
Diesen "völlig überflüssigen Tessalator" hat aber nicht nur AMD in ihrem Design.Wer denn noch? :confused:

Bevor Du jetzt mit D3D11- Hardware ankommst: Auf Hardware, auf der der Tesselator sinnvoll nutzbar ist, ist er natürlich nicht überflüssig. Auf R6xx ist er eben nur nutzbar, wenn man Open GL nutzt und in Kauf nimmt, dass nur ein kleiner Teil der GPUs über die Funktion verfügt.

Sonyfreak
2008-05-25, 18:22:37
Wenn ich das so richtig lese ist bei NV 8xAA optisch besser als 4fachen Kantenglättung???Klar bringt der 8xAA-Modus optische Vorteile im Vergleich zu 4xAA. Welchen Sinn hätte er sonst, wenn er die Bildqualität im Vergleich zu den niedrigeren Modi nicht verbessern würde? :confused:
Bei ATI geht das ja von 10000 auf 5000 auf 2500 runter, bei Nvidia von 2000 auf 10000 auf 3300 runter, also 2/4/8Könntest du mal erläutern, was du damit ausdrücken willst?

mfg.

Sonyfreak

Hvoralek
2008-05-25, 18:28:42
Könntest du mal erläutern, was du damit ausdrücken willst?Er meint wahrscheinlich die Z- Füllraten: Bei R6xx sinken die proportional zum MSAA- Grad, bei Nvidia tun sie das nur bis 4x, auf 8x brechen sie deutlich stärker ein (Bei seiner "2000" fehlt wohl eine Null, das sollte sicherlich "20000" heißen).

reunion
2008-05-25, 18:29:39
Welcher nVidiachip sollte im 4.Quartal anstatt dem G92 veröffentlicht werden?

GT200. NV verspach eine GPU "near 1TFLOP" im Q4/07. GT200 liefert 960GFLOPs.

Sonyfreak
2008-05-25, 18:31:11
Er meint wahrscheinlich die Z- Füllraten: Bei R6xx sinken die proportional zum MSAA- Grad, bei Nvidia tun sie das nur bis 4x, auf 8x brechen sie deutlich stärker ein (Bei seiner "2000" fehlt wohl eine Null, das sollte sicherlich "20000" heißen).Ok danke für die Aufklärung. :)

mfg.

Sonyfreak

reunion
2008-05-25, 18:32:16
Wer denn noch? :confused:

PowerVR/IMG hat ebenfalls eine Tesselator-Einheit in ihren Designs. Die D3D10-Specs forderten diesen Tesselator zu beginn auch. Im laufe der Zeit wurde das Ding allerdings aus mysteriösen Gründen gestrichen. Offensichtlich zu spät für manche IHVs um darauf noch zu reagieren.


Bevor Du jetzt mit D3D11- Hardware ankommst: Auf Hardware, auf der der Tesselator sinnvoll nutzbar ist, ist er natürlich nicht überflüssig. Auf R6xx ist er eben nur nutzbar, wenn man Open GL nutzt und in Kauf nimmt, dass nur ein kleiner Teil der GPUs über die Funktion verfügt.

Die Einheit ist auch unter DirectX nutzbar.

Hvoralek
2008-05-25, 18:38:45
PowerVR/IMG hat ebenfalls eine Tesselator-Einheit in ihren Designs. Die D3D10-Specs forderten diesen Tesselator zu beginn auch. Im laufe der Zeit wurde das Ding allerdings aus mysteriösen Gründen gestrichen. Offensichtlich zu spät für manche IHVs um darauf noch zu reagieren.Dann schleppt IMG auch diese überflüssigen Schaltungen mit. Wird es dadurch besser?

Die Einheit ist auch unter DirectX nutzbar.Wie das?

reunion
2008-05-25, 18:41:50
Dann schleppt IMG auch diese überflüssigen Schaltungen mit. Wird es dadurch besser?

Natürlich nicht, nur konnte ATi nichts dafür, dass sich die "non-tesselator-Fraktion" durchsetzten und das Design wohl schon zu weit fortgeschritten war.


Wie das?

Hack?

http://img139.imageshack.us/img139/9556/hackek4.png

http://ati.amd.com/developer/gdc/2008/Tessellation_in_a_Low_Poly_World.pdf

deekey777
2008-05-25, 18:43:54
PowerVR/IMG hat ebenfalls eine Tesselator-Einheit in ihren Designs. Die D3D10-Specs forderten diesen Tesselator zu beginn auch. Im laufe der Zeit wurde das Ding allerdings aus mysteriösen Gründen gestrichen. Offensichtlich zu spät für manche IHVs um darauf noch zu reagieren.
Der Ur-NV30 hatte auch eine Tesselationseinheit auf dem Papier.

Was das 8xMSAA angeht:
Hat das Tri-Setup nicht seine Finger drin?

Nakai
2008-05-25, 18:48:42
GT200. NV verspach eine TFLOP GPU im Q4/07. GT200 liefert 960GFLOPs.

Das war, denke ich, nicht der GT200.

Es lief wohl so ab:
Nach der R600-Niederlage von ATI, erkannte NV, dass man keine neue Highend-GPU benötigen würde. G90, G92 sowie G94 waren aber auf dem Weg.
Der G90 wurde wohl gestrichen, da man wohl gute Fortschritte beim GT200 hatte und weil man keine neue Highendkarte vorläufig benötigte.
Hier kann man auch sehen, dass NV wohl ein paar Probleme mit dem 65Nm-Bereich hatte. Der G92 kam dennoch, jedoch waren nach der ersten Lieferung nicht soviele Karte erhältlich.
Man versuchte ähnliche Performance zum G80 bei besserer Marge zu bekommen, was man wohl nicht ganz erreichte.
Damals hat man wohl schon die Geforce 9-Serie geplant gehabt, wie man an den Codenamen sehen kann. Da aber ein Highendchip fehlte, tat man das vorläufig nicht, sondern entschied sich wohl den G92 noch etwas zu pimpen und dann als neues Geforce 9-Highend zu verkaufen (GX2 ahoi). Doch zuerst floss er in die Geforce 8 noch hinein.
Der RV670 haute dann auch ziemlich rein, er kam früher uns stärker als gedacht. NV musste sich anpassen, da ATI den RV670 ziemlich billig verkauft hatte und der G94 nicht in Reichweite war, senkte man den Preis des G92.
Das endete in einen ziemlich harten Preiskampf. Der G94 und die GX2 kamen dann und rissen den Markt wieder an sich.
Bei NV stand aber schon ein neuer Chip an, nämlich der GT200...

---> Bei NV hat sich wohl einiges überschnitten, was wohl für einige Änderungen gesorgt hat.


mfg Nakai

LovesuckZ
2008-05-25, 18:48:43
GT200. NV verspach eine GPU "near 1TFLOP" im Q4/07. GT200 liefert 960GFLOPs.

Damit wollte man AMD bekämpfen? :rolleyes:
Wir sind uns doch einig, dass G92 jedenfalls 1 von 2 Chips war, der pünktlich kam.

Hvoralek
2008-05-25, 18:53:03
Hack?

http://img139.imageshack.us/img139/9556/hackek4.png

http://ati.amd.com/developer/gdc/2008/Tessellation_in_a_Low_Poly_World.pdfOkay, anscheinend geht das wirklich. Allerdings bleibt die Frage, wie viele Entwickler sich mit einem Hack herumschlagen, um ein Feature zu nutzen, das sowieso nur ein kleiner Teil der D3D10- Hardware unterstützt. Da wird man im Zweifel wohl eher den Modellen von Hand ein paar mehr Polygone verpassen, die dann aber auch auf jeder Hardware angezeigt werden.

Wenn das Ding auch unter D3D nutzbar ist, muss ich allerdings die Formulierung "völlig überflüssig" korrigieren. Dann ist es durchaus möglich, dass die wirklich mal genutzt wird, insofern wäre wohl "fast sinnlos" treffender.

K4mPFwUr$t
2008-05-25, 18:56:47
*hat sich erledigt*

Chris2CB
2008-05-25, 19:01:39
Klar bringt der 8xAA-Modus optische Vorteile im Vergleich zu 4xAA. Welchen Sinn hätte er sonst, wenn er die Bildqualität im Vergleich zu den niedrigeren Modi nicht verbessern würde? :confused:
Könntest du mal erläutern, was du damit ausdrücken willst?

mfg.

Sonyfreak


Sorry, wie schon Hvoralek geschrieben hat meine ich damit Z Füllrate. Mit Optisch besser meine ich auch nicht den erhöten grad an Klättung sondern dessen allgemeine Qualität weil ja nunmal eine Nvidia Karte hier stark einbricht.

Coda
2008-05-25, 19:05:38
Kann das nicht nen tragisches Kuddelmuddel geben, wenn die GPU Physx-Daten und Grafikdaten bearbeiten muss und das gleichzeitig?!
Wieso gleichzeitig? Physik wird ein Frame versetzt berechnet. Und selbst wenn man es im gleichen Frame machen würde, muss man eh zuerst die Physik und dann die Grafik rechnen.

Snoopy69
2008-05-25, 19:10:14
Was denkt ihr?
Wird es mit dem GT200 immer noch Mikroruckler bei SLI geben oder wird daran noch gearbeitet?

deekey777
2008-05-25, 19:11:33
Was denkt ihr?
Wird es mit dem GT200 immer noch Mikroruckler bei SLI geben oder wird daran noch gearbeitet?
Was war/ist die Ursache für Mikroruckler nochmal?

K4mPFwUr$t
2008-05-25, 19:19:24
das der frameoutput nicht synchronisiert wird? :usweet:

Gast
2008-05-25, 19:50:21
Aber es stellte sich schon irgendwann im August heraus, dass eine Grafikkarte mit dem G92 und sechs Clustern keine Konkurrenz zum RV670 sein wird, da dieser schon im November kommt (und zwar als Hardlaunch), davor gab's als "Appetit-Häppchen" die 2900Pro, die fast die Performance der 2900XT lieferte, aber nur die Hälfte kostete.


ein 6-cluster-chip hätte wohl gereicht um den RV670 in schach zu halten, der 4-cluster-chip reicht ja schon für die kleinere version des RV670, man wäre nur nicht dermaßen überlegen.

pest
2008-05-25, 20:17:59
das der frameoutput nicht synchronisiert wird? :usweet:

was er bei SingleGPU auch nicht ist :rolleyes:

robbitop
2008-05-25, 20:22:19
Zudem war die PhysX1-PPU wohl auch ziemlicher Müll vom HW-Design.
Worauf begründest du diese Aussage? Welcher ASIC wäre denn deiner Meinung nach besser dafür geeignet und warum?

K4mPFwUr$t
2008-05-25, 20:25:09
@pest
schau dir einfach die frametimes von single und multi gpu an.
bei single gibt es zwar ab und an kleinste abweichungen, dagegen gleicht je nach FPS die framtime bei SLI und CF einer achterbahn :upara:

Gast
2008-05-25, 20:47:34
schau dir einfach die frametimes von single und multi gpu an.
bei single gibt es zwar ab und an kleinste abweichungen,

oh, da gibt es durchaus manchmal sehr große abweichungen, aber glücklicherweise nicht so oft wie mit SLI.

Coda
2008-05-25, 20:58:08
was er bei SingleGPU auch nicht ist :rolleyes:
Ich glaube du hast das Problem noch nicht verstanden, sonst würdest du solche Aussagen nicht bringen.

Natürlich ist die Frameausgabe bei Single-GPU "synchronisiert". Es gibt nichts zu synchronisieren. Sie rendert einfach ein Bild nach dem anderen und haut es raus.

Bei AFR passiert es dass der Renderbuffer vollläuft bei GPU-Limitierung und dann ist es halt so dass die Karten praktisch parallel anfangen zu rendern weil genug Daten vorliegen, deshalb ergibt sich das Kurz-Lang-Kurz-Lang-Geruckel. Das bilden wir uns nicht nur ein.

oh, da gibt es durchaus manchmal sehr große abweichungen, aber glücklicherweise nicht so oft wie mit SLI.
Das liegt aber rein am Workload (viele Effekte in einem Frame usw.). Dafür kann die GPU rein gar nichts.

pest
2008-05-25, 21:05:19
@pest
schau dir einfach die frametimes von single und multi gpu an.
bei single gibt es zwar ab und an kleinste abweichungen, dagegen gleicht je nach FPS die framtime bei SLI und CF einer achterbahn :upara:

die Minimum-Frametimes geben Ausschluß darüber, ob es ruckelt oder nicht
das ist bei MultiGPU genauso und nicht verfälscht.
Ob man große Sprünge zwischen Frametimes bemerkt ist subjektiv und kann bei SingleGPU auch passieren, nur wahrscheinlich nicht in der Form einer Kaskade

Jeder Nerd denkt doch inzwischen das mit SLI die Frametimes-40% genommen werden müssen, was totaler Quark ist

Ich glaube du hast das Problem noch nicht verstanden, sonst würdest du solche Aussagen nicht bringen.

Natürlich ist die Frameausgabe bei Single-GPU "synchronisiert". Es gibt nichts zu synchronisieren. Sie rendert einfach ein Bild nach dem anderen und haut es raus.


wenn aber das nachfolgende Bild "einfacher" zu berechnen ist, schwanken die Frametimes->der Effekt ist ähnlich

Coda
2008-05-25, 21:14:58
wenn aber das nachfolgende Bild "einfacher" zu berechnen ist, schwanken die Frametimes->der Effekt ist ähnlich
Ich sag's nochmal: Dafür kann die GPU oder der Treiber aber nichts. Bei den meisten Anwendungen ändert sich der Workload auch nicht so plötzlich.

Das sind ganz normale traditionelle Ruckler, die Multi-GPU natürlich genauso beeinflussen.

Gast
2008-05-25, 21:20:32
Das liegt aber rein am Workload (viele Effekte in einem Frame usw.). Dafür kann die GPU rein gar nichts.

spiel mal TDU, mit manchen treibern gibt es da extreme frametimeunterschiede und zwar ohne dass sich der bildinhalt wesentlich ändert, mit einer einzigen karte.

Coda
2008-05-25, 21:21:55
Das ist aber kein generelles Problem wie bei AFR.

mictasm
2008-05-25, 21:24:23
Außerdem wird es nur bei geringen Frameraten deutlich. Wenn genügend Leistung da ist, sind die Ruckler kaum bis nicht spürbar.

pest
2008-05-25, 21:25:41
Ich sag's nochmal: Dafür kann die GPU oder der Treiber aber nichts. Bei den meisten Anwendungen ändert sich der Workload auch nicht so plötzlich.

Das sind ganz normale traditionelle Ruckler, die Multi-GPU natürlich genauso beeinflussen.

ich hab dir auch nicht wiedersprochen ich hab nur geschrieben das der Effekt ähnlich ist

Gast
2008-05-25, 21:36:43
Außerdem wird es nur bei geringen Frameraten deutlich. Wenn genügend Leistung da ist, sind die Ruckler kaum bis nicht spürbar.
Es ist dann genau spürbar, wenn man multi-GPU eigentlich braucht. Sprich Einzelkarte schafft nur noch 20 fps, mit Multi-GPU sind's dann vielleicht 35 fps. Das wäre schon eine merkliche Verbesserung und würde den Spielfluss merklich pushen. Leider sieht's dank Mikrogezuppel in der Praxis anders aus. Im worst case läuft's optisch noch beschissener als mit einer Einzelkarte. Aber gehört eh nicht zum Thema und wenn der GT200 erscheint können die G80 Besitzer ihre SLi-Gespanne und die GX2 Gurken endlich verkaufen. Selbst wenn er nur eine 60%ige Performancesteigerung mitbringen würde, wäre das Ergebnis immer noch besser als heutige SLi-Lösungen mit High End. Traurig aber wahr.

Gast
2008-05-25, 21:49:42
Außerdem wird es nur bei geringen Frameraten deutlich. Wenn genügend Leistung da ist, sind die Ruckler kaum bis nicht spürbar.

also genau dann wenn eine singlekarte schon schnell genug wäre.

mictasm
2008-05-25, 21:54:39
also genau dann wenn eine singlekarte schon schnell genug wäre.

Genauer gesagt, wenn die Singlekarte gerade noch spielbare Frameraten liefert.

Coda
2008-05-25, 22:25:44
Außerdem wird es nur bei geringen Frameraten deutlich. Wenn genügend Leistung da ist, sind die Ruckler kaum bis nicht spürbar.
Wenn einem dann 60fps wie 30fps vorkommen brauchst du aber auch kein SLI mehr verwenden.

gamingforce
2008-05-25, 22:30:22
Wenn einem dann 60fps wie 30fps vorkommen brauchst du aber auch kein SLI mehr verwenden.

ist ja der größte blödsinn den ich je gehört hab:rolleyes:

Aber 40 FPS ist es mit SLI total flüssig, bei 30 merkt man es bei 40 ist es weg.

Gast
2008-05-25, 22:33:50
Genauer gesagt, wenn die Singlekarte gerade noch spielbare Frameraten liefert.

dummerweise ist aber eine ständig schwankende framerate wesentlich störender als eine konstant niedrige.

Coda
2008-05-25, 22:38:33
ist ja der größte blödsinn den ich je gehört hab:rolleyes:
Das kommt auf den Einzelfall an. Wenn du genug GPU-Last hast dann ist das durchaus möglich.

Ganz schlimm ist ja der neue 3DMark. Das verwendet einfach praktisch überhaupt keine CPU, weil der Overhead durch D3D10 soweit gesunken ist.

Eggcake
2008-05-25, 23:25:03
ist ja der größte blödsinn den ich je gehört hab:rolleyes:

Aber 40 FPS ist es mit SLI total flüssig, bei 30 merkt man es bei 40 ist es weg.

Schön wenns flüssig vorkommt - haste ohne SLI 30 FPS und kommt genauso flüssig vor.

Gast
2008-05-25, 23:46:31
Anscheinend beträgt der Shadertakt bei der GTX 260 sogar nur 1000 MHz statt den vermuteten 1240 MHz, die sich ja durch Hochrechnungen ergaben. Nun die anscheinend unerschütterlichen finalen Spezifikationen:

http://www.hardware-infos.com/news.php?news=2092

Don Vito
2008-05-25, 23:51:51
Anscheinend beträgt der Shadertakt bei der GTX 260 sogar nur 1000 MHz statt den vermuteten 1240 MHz, die sich ja durch Hochrechnungen ergaben. Nun die anscheinend unerschütterlichen finalen Spezifikationen:

http://www.hardware-infos.com/news.php?news=2092

Hatten wir schon...

Sorkalm
2008-05-25, 23:58:35
Hatten wir schon...

575/1000/900 für die 260 ist für mich neu, Charlie hatte zur 260 nichts genaues gesagt...:confused:

Hvoralek
2008-05-26, 00:00:29
Anscheinend beträgt der Shadertakt bei der GTX 260 sogar nur 1000 MHz statt den vermuteten 1240 MHz, die sich ja durch Hochrechnungen ergaben. Nun die anscheinend unerschütterlichen finalen Spezifikationen:

http://www.hardware-infos.com/news.php?news=2092Wahrscheinlich resultiert die Angabe zum 260- Shadertakt aus einem missglückten Versuch, einen Inq- Tippfehler zu korrigieren: The clocks are 576MHz GPU, 999MHz memory and 896MHz GDDR3 on a 448b memory interface.Gemeint sind offenbar 896 MiB 999- MHz- GDDR3. Daraus hat HWInfos dann wohl 900 MHz Speicher- und 1000 MHz Shadertakt gemacht.

Sorkalm
2008-05-26, 00:06:57
Das macht hingegen wieder Sinn. :)

Gast
2008-05-26, 00:18:27
Schaut doch mal, Hardware-Infos bezieht sich auf Gamezoom und die schreiben auch von den Taktraten in angeblich eigener Quelle (Mail). Glaube also weniger, dass es ein Tippfehler ist?!

http://www.gamezoom.net/artikel/show/0,notused,1,19210.html

Sorkalm
2008-05-26, 00:20:22
Ja, dann hat Gamezone den Fehler gemacht und die haben die Angaben wieder übernommen. ;)

Kennst du Stille Post nicht? Da kommt am Ende auch mal was anderes raus als beim Anfang, weil entweder der Erzähler oder Höhrer Fehler macht. ;)
Oder auch: Der Kollege eines Schwagers kennt jemanden, der einen kennt...

gamingforce
2008-05-26, 00:52:37
Schön wenns flüssig vorkommt - haste ohne SLI 30 FPS und kommt genauso flüssig vor.

ganz sicher nicht, zumindest nicht für mich.

Schlammsau
2008-05-26, 06:37:11
naja....wenn ein Game mit SLi gut skaliert, haste statt 30Fps mit einer einzelnen Karte, schon bis zu 60fps mit 2 Karten! Dann sollten Microruckler doch kein Problem mehr darstellen.
Werds jetzt eh bald wissen, wie sich die Microruckler amfühlen, wenn ich mein CF habe.

K4mPFwUr$t
2008-05-26, 06:40:12
du und skalierung von 200% :rolleyes:

Gast
2008-05-26, 06:54:01
Anscheinend beträgt der Shadertakt bei der GTX 260 sogar nur 1000 MHz statt den vermuteten 1240 MHz, die sich ja durch Hochrechnungen ergaben. Nun die anscheinend unerschütterlichen finalen Spezifikationen:

http://www.hardware-infos.com/news.php?news=2092

Die selben Taktraten wie bei der GX2...(280) wer für den Mist nur wegen dem 512SI ~+600 € bezahlt,dem ist nicht mehr zu helfen.

Schlammsau
2008-05-26, 07:16:42
du und skalierung von 200% :rolleyes:
was soll das nun wieder heissen?

Grestorn
2008-05-26, 07:21:48
Wieso gleichzeitig? Physik wird ein Frame versetzt berechnet. Und selbst wenn man es im gleichen Frame machen würde, muss man eh zuerst die Physik und dann die Grafik rechnen.

Das passiert aber natürlich trotzdem parallel - selbst bei einem Single Core und Single GPU System.

Während die GPU noch das letzte Frame rendert rechnet die CPU ja bereits am nächste n Frame.

Chris2CB
2008-05-26, 07:24:39
Die selben Taktraten wie bei der GX2...(280) wer für den Mist nur wegen dem 512SI ~+600 € bezahlt,dem ist nicht mehr zu helfen.


Das Sstimmt absolut....aber wenn das Teil wirklich soviel Power hat wie beschrieben:D

Anarchy-HWLUXX
2008-05-26, 10:29:21
Die selben Taktraten wie bei der GX2...(280) wer für den Mist nur wegen dem 512SI ~+600 € bezahlt,dem ist nicht mehr zu helfen.

Das Sstimmt absolut....aber wenn das Teil wirklich soviel Power hat wie beschrieben:D

Aber sonst gehts noch ? Habt ihr damals auch den Pentium 4 gekauft weil der so viele "echte MHz" hatte ?

:ubash3:

Keine ahnung von der Architektur, keine ahnung von der Komplexität aber hier einen auf alleswisser machen :rolleyes:

Gast
2008-05-26, 10:57:09
Die selben Taktraten wie bei der GX2...(280) wer für den Mist nur wegen dem 512SI ~+600 € bezahlt,dem ist nicht mehr zu helfen.
So ein Nonsense...

DerGute
2008-05-26, 12:27:01
was soll das nun wieder heissen?


dass 2 Karten nicht 200% Leistung entsprechen

tombman
2008-05-26, 12:52:18
ALso eines MUSS die GTX 280 sein- schneller als die GX2- weil sonst wird jeder reviewer von der Karte abraten- Mikroruckler und sowas kennt eh keiner, da gehts nur um fps, und wenn die GX2 da schneller ist UND billiger- na dann gute Nacht ;)

Anarchy-HWLUXX
2008-05-26, 12:57:20
ALso eines MUSS die GTX 280 sein- schneller als die GX2- weil sonst wird jeder reviewer von der Karte abraten- Mikroruckler und sowas kennt eh keiner, da gehts nur um fps, und wenn die GX2 da schneller ist UND billiger- na dann gute Nacht ;)
Nach den bisherigen stimmen seitens der Editors Day besucher wird es der GT200 nicht an leistung mangeln ... ich mach mir auch keinen kopp drum ob se schnell genug ist sondern eher wie massiv sie die jetzigen Karten versägt.

Schlammsau
2008-05-26, 13:00:30
Nach den bisherigen stimmen seitens der Editors Day besucher wird es der GT200 nicht an leistung mangeln ... ich mach mir auch keinen kopp drum ob se schnell genug ist sondern eher wie massiv sie die jetzigen Karten versägt.
ich bleib dabei....max. doppelte GTX Leistung! Was ja schon ein haufen Zeuch ist!

dildo4u
2008-05-26, 13:02:11
ich bleib dabei....max. doppelte GTX Leistung! Was ja schon ein haufen Zeuch ist!
Der Sprung ist größer als von GF7 zu GF8 und mit AA und AF war eine GF8 bis zu 3mal schneller als eine GF7.

http://s5.directupload.net/images/080526/o3eoob39.jpg

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/24/#abschnitt_performancerating_qualitaet

Man darf nich vergessen das Nvidia ca 6 Monate mher Zeit für die GT280 hatte als sonst.

Just wait until June 17th when the GTX 200 series of GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card.

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=178&Itemid=1&limit=1&limitstart=0

tombman
2008-05-26, 13:04:18
Nach den bisherigen stimmen seitens der Editors Day besucher wird es der GT200 nicht an leistung mangeln ... ich mach mir auch keinen kopp drum ob se schnell genug ist sondern eher wie massiv sie die jetzigen Karten versägt.
Links zu den Stimmen bitte (3 Minimum ;))

Ich bin eher skeptisch. Klar, 50% schneller als ne 9800gtx MUSS sie sein, geht gar ned anders von den reinen Daten her, die Frage ist, ob sie die GX2 hauen kann- erst dann wirds interessant für mich ;)

Sorkalm
2008-05-26, 13:11:21
Ich bin eher skeptisch. Klar, 50% schneller als ne 9800gtx MUSS sie sein, geht gar ned anders von den reinen Daten her, die Frage ist, ob sie die GX2 hauen kann- erst dann wirds interessant für mich ;)

Wird sie sicherlich. Sonst hätte Nvidia die 9800 GX2 einfach mit niedrigeren Taktraten oder ähnliches antreten lassen (ist ja nicht so, dass ihr eine Konkurrenzkarte direkt auf den Fersen liegt - solange der Speicher reicht), womit das Produktgefüge wieder hergestellt wäre.

Die Unternehmen besitzen alle eine Produktpolitik. ;)

Adam D.
2008-05-26, 13:20:36
Der Vorteil der GTX280 wird auch einfach sein, dass sie die Performance konstant bringen wird, das ist bei SLi ja nicht gewährleistet. Die anderen Probleme jetzt mal außen vor gelassen. Außerdem hab ich keinen Zweifel daran, dass die GTX280 die GX2 owned, für 600 Öcken müsste sie noch gut 3 Schippen oben drauf legen können.

Anarchy-HWLUXX
2008-05-26, 13:30:56
Siehe #1177 , genau über dir ...

K, is nur eine Stimme AKA Singular ;D Dann noch die Performance beim Fold00000rn ... wobei ich net weiss wie das n u auf Gaming zu übertragen ist.

Coda
2008-05-26, 14:10:34
Das passiert aber natürlich trotzdem parallel - selbst bei einem Single Core und Single GPU System.

Während die GPU noch das letzte Frame rendert rechnet die CPU ja bereits am nächste n Frame.
Was nicht heißt dass man es nicht auch sequenziell berechnen kann. Ich weiß schon von was ich rede.

Gast
2008-05-26, 14:20:26
Ist eigentlich schon bekannt, ob der G200 sowas, wie einen Idle/Stromsparmodus hat für 2D, oder läuft das ausschliesslich über Nvidias Hybrid Power Modus und Hybrid SLI fähigen Boards?

Adam D.
2008-05-26, 14:26:18
Ist eigentlich schon bekannt, ob der G200 sowas, wie einen Idle/Stromsparmodus hat für 2D, oder läuft das ausschliesslich über Nvidias Hybrid Power Modus und Hybrid SLI fähigen Boards?
Dazu gibt es noch keinerlei Informationen, aber so wie man die Situation einschätzen kann, wird wohl Idle-Strom-Sparen nur über HSLi laufen (was bei so 'ner Karte wirklich nervig ist).

Gast
2008-05-26, 14:26:52
Ist eigentlich schon bekannt, ob der G200 sowas, wie einen Idle/Stromsparmodus hat für 2D, oder läuft das ausschliesslich über Nvidias Hybrid Power Modus und Hybrid SLI fähigen Boards?
Ich vermute dass ja, sonst wäre der GT200 ein reines Leistungsupdate des G80. Gerade bei den Verbrauchsdaten wäre es dringend notwendig.

Anarchy-HWLUXX
2008-05-26, 14:27:49
Ist eigentlich schon bekannt, ob der G200 sowas, wie einen Idle/Stromsparmodus hat für 2D, oder läuft das ausschliesslich über Nvidias Hybrid Power Modus und Hybrid SLI fähigen Boards?

Nüx bekannt.

Grestorn
2008-05-26, 14:38:28
Was nicht heißt dass man es nicht auch sequenziell berechnen kann. Ich weiß schon von was ich rede.

Jeden Prozess, der parallel läuft, kann man auch sequentiell laufen lassen - das sagt ja schon Turing prinzipiell :)

Ich will Dich keinesfalls in Frage stellen, ich habe mich nur gewundert, warum Du auf die Frage, ob sich Physikberechnung und Grafikrendering nicht in die Quere kommen, antwortest diese beiden Dinge würden üblicherweise hintereinander passieren, als Grund warum sie sich nicht in der Quere kommen können.

Das klingt so, als wäre bei einem klassischen Spiel die GraKa zur Hälfte der Zeit arbeitslos... und diese Hälfte könne man jetzt einfach mit Physikberechnungen füllen.

HarryHirsch
2008-05-26, 14:48:06
Siehe #1177 , genau über dir ...

K, is nur eine Stimme AKA Singular ;D Dann noch die Performance beim Fold00000rn ... wobei ich net weiss wie das n u auf Gaming zu übertragen ist.

also aufs gaming lässt sich das 100pro nicht übertragen, denn dann müsste der rv670 schneller als nen g80/92 sein und der rv770 schneller als ne gt280 (1008 vs 933 theoretischen gflop)

Gast
2008-05-26, 15:39:29
Ja, dann hat Gamezone den Fehler gemacht und die haben die Angaben wieder übernommen. ;)

Kennst du Stille Post nicht? Da kommt am Ende auch mal was anderes raus als beim Anfang, weil entweder der Erzähler oder Höhrer Fehler macht. ;)
Oder auch: Der Kollege eines Schwagers kennt jemanden, der einen kennt...

Golem spricht nun auch von 575/1000/900 MHz (Chip/Shader/Speicher), womit man nach Gamezoom und Hardware-Infos nun die dritte Quelle wäre.
Anscheinend läuft es darauf hinaus?!

LovesuckZ
2008-05-26, 15:40:50
Links zu den Stimmen bitte (3 Minimum ;))

Ich bin eher skeptisch. Klar, 50% schneller als ne 9800gtx MUSS sie sein, geht gar ned anders von den reinen Daten her, die Frage ist, ob sie die GX2 hauen kann- erst dann wirds interessant für mich ;)

Ein doppelter G94 ist alleine schon 50% schneller.

gamingforce
2008-05-26, 16:04:18
Ein doppelter G94 ist alleine schon 50% schneller.

in was bitte ?

MAX FPS? ja das stimmt :rolleyes:

Hvoralek
2008-05-26, 16:18:23
Golem spricht nun auch von 575/1000/900 MHz (Chip/Shader/Speicher), womit man nach Gamezoom und Hardware-Infos nun die dritte Quelle wäre.
Anscheinend läuft es darauf hinaus?!Golem bezieht sich sogar ausdrücklich auf den Inquirer. Der sagt aber gerade nichts zum Shadertakt der 260. Die "999 MHz memory" sind der Speichertakt (den u.a. Golem offenbar als ALU- Takt liest), die "896 MHz GDDR3 on a 448b memory interface" offenbar ein Tippfehler (müssten MiB sein).

K, is nur eine Stimme AKA Singular ;D Dann noch die Performance beim Fold00000rn ... wobei ich net weiss wie das n u auf Gaming zu übertragen ist.Wenn an diesen Äußerungen etwas dran ist, müsste der Sprung dort sogar noch größer sein. 2,8- fache RV670- Leistung wäre von mehr als Faktor 3 gegenüber G80 (wie G80 ggü. G71) doch weit entfernt.

Zocker85
2008-05-26, 18:25:23
sind eientlich auch Midrange(oder wie man es nennt) von GTX 280/260 geplant, oder nur High End Modelle?

Sonyfreak
2008-05-26, 18:29:12
sind eientlich auch Midrange(oder wie man es nennt) von GTX 280/260 geplant, oder nur High End Modelle?Zuerst kommen mal die Highendmodelle basierend auf dem GT200-Chip. Man kann aber mit Sicherheit damit rechnen, dass im Laufe der folgenden Wochen/Monate auch neue Karten für den Performancemarkt heraus kommen.

mfg.

Sonyfreak

Nightspider
2008-05-26, 18:30:02
Zuerst kommen mal die Highendmodelle basierend auf dem GT200-Chip. Man kann aber mit Sicherheit damit rechnen, dass im Laufe der folgenden Wochen/Monate auch neue Karten für den Performancemarkt heraus kommen.

mfg.

Sonyfreak

Wochen/Monate Quartale ;)

Zocker85
2008-05-26, 18:36:40
ok super...also die 9600Gt hat dann mit GT 200 nichts mehr zu tun...nicht dass die 9600 für paar Jahre in Performancemarkt lassen :)

dargo
2008-05-26, 18:38:25
Zuerst kommen mal die Highendmodelle basierend auf dem GT200-Chip. Man kann aber mit Sicherheit damit rechnen, dass im Laufe der folgenden Wochen/Monate auch neue Karten für den Performancemarkt heraus kommen.

Also, auf Basis vom G(T)200 sind afaik keine Performancekarten geplant. Zumindest nicht solange es ihn in 65nm gibt. Dafür ist er einfach zu groß. Das Performancesegment soll afaik der G92b abdecken.

Zocker85
2008-05-26, 18:38:35
aber so günstig wie jetzt werden High End Modell nicht mehr geben, oder ? *heul*

dargo
2008-05-26, 18:40:11
aber so günstig wie jetzt werden High End Modell nicht mehr geben, oder ? *heul*
Das letzte High-End war die G8800GTX im November 2006 @599$.

Sonyfreak
2008-05-26, 18:42:29
Also, auf Basis vom G(T)200 sind afaik keine Performancekarten geplant. Zumindest nicht solange es ihn in 65nm gibt. Dafür ist er einfach zu groß. Das Performancesegment soll afaik der G92b abdecken.Naja ich nehme mal trotzdem an, dass irgendwann wieder neue Karten rauskommen, die die Architekturverbesserungen des GT200 auch in die kleineren Karten portieren. Aber der Zeitraum "Wochen/Monate" war sicherlich untertrieben. Vorerst wird der Markt sicherlich noch mit G94 und G92b-Karten abgedeckt werden.


mfg.

Sonyfreak

Gast
2008-05-26, 18:51:02
Das letzte High-End war die G8800GTX im November 2006 @599$.

Ab jetzt, Single GPU High-End bitte ;)

Sonst werden alle Multi GPU Derivate im selben Segment noch gezeigt, und das ist falsch, solange die MultiGPU Technik Microruckler und seltsame Performance Auswüchse zeigt.

dargo
2008-05-26, 19:03:58
Ab jetzt, Single GPU High-End bitte ;)

Ich dachte das wäre selbstverständlich. Ok, vor mir aus dann halt so.

Hvoralek
2008-05-26, 19:04:02
Das letzte High-End war die G8800GTX im November 2006 @599$.Was ist mit der Ultra? Selbst für High- End überteuert, aber nichtsdestotrotz High- End.

dargo
2008-05-26, 19:05:25
Was ist mit der Ultra? Selbst für High- End überteuert, aber nichtsdestotrotz High- End.
P/L einfach mies. Von daher lasse ich diese aus, gerade auch weil die kaum mehr leistet.

Snoopy1978
2008-05-26, 19:08:26
P/L einfach mies. Von daher lasse ich diese aus, gerade auch weil die kaum mehr leistet.


Naja so ist das in dem Segment "Enthusiast" eben,das gleiche gilt ja auch im CPU Sektor siehe QX9770 usw.Bin bloß mal gespannt ob uns mit der kommenden Generation auch eine Ultra Variante ins Haus steht.

Hvoralek
2008-05-26, 19:08:47
P/L einfach mies.Inwiefern ändert sich durch das P/L- Verhältnis das Marktsegment?

Die 8800 GTX war wohl das letzte empfehlenswerte High- End :wink:

LovesuckZ
2008-05-26, 19:10:57
Vorallen ist es lustig, dass dargo von High-End und sich dann erst die Karte kauft, die <333€ kostet. :lol:

dargo
2008-05-26, 19:17:17
Inwiefern ändert sich durch das P/L- Verhältnis das Marktsegment?

Die 8800 GTX war wohl das letzte empfehlenswerte High- End :wink:
So könnte man das auch sehen. :D
Naja, für mich ist die G8800Ultra sowas von überflüssig, lächerliche 5-7% Mehrleistung. Wofür NV diese Karte veröffentlicht hat wissen die wohl nur selbst. Aber wenn man das nüchtern betrachtet praktiziert NV das selbe mit dem G92 - G8800GTS vs. G9800GTX. :ugly:

Vorallen ist es lustig, dass dargo von High-End und sich dann erst die Karte kauft, die <333€ kostet. :lol:
Ich finds eher lustig, dass der NV-Fanboy Nr.1 aus dem Loch gekrochen kommt sobald das Wort High-End aus meinem Mund fällt. :ulol:

LovesuckZ
2008-05-26, 19:20:15
Ich finds eher lustig, dass der NV-Fanboy Nr.1 aus dem Loch gekrochen kommt sobald das Wort High-End aus meinem Mund fällt. :ulol:

Im Gegensatz zu dir kaufe ich High-End - und rede nicht nur darüber. :P

dargo
2008-05-26, 19:23:09
Wir sind alle stolz auf dich. Bekommst jetzt eine Lolli von NV. :comfort:

Gast
2008-05-26, 19:27:47
Eih kinners, kriegt euch wieder ein...

Alle anderen dürfen ab Mitte Juni dann ausflippen :D

GTX280/260 werden, ich bin so frei, wieder das Non-Plus-Ultra an Highend darstellen. Siehe 8800GTX/GTS, diese Karten sind auch 1,5Jahre nach Release vollkommen ausreichend für die Käufer. Und wer "mehr" haben wollte, der hat ne 2. Karte dazugekauft, fertig.
Da wir hoffentlich 2010 DX11 bekommen, passt das wieder. GTX280/260 mit 1,5Jahren Lebensdauer, sehr erfreulich. Ca. Februar 09 kann man den 55nm Mainstream Shrink erwarten, der mit GDDR5 und 256Bit SI fast ähnliche Leistungwerte erreichen wird. nV wiederholt den G80/G92, so siehts aktuell aus. G92b darf als Lückenfüller bis Q1/09 durchhalten.

Unyu
2008-05-26, 19:28:42
Wofür NV diese Karte veröffentlicht hat wissen die wohl nur selbst.
Um gegen das Monster R600 besser dazustehen. :eek: ;)

Sinnlos nur weils überteuert ist? Das zählt nicht. :)

dargo
2008-05-26, 19:31:12
Ca. Februar 09 kann man den 55nm Mainstream Shrink erwarten, der mit GDDR5 und 256Bit SI fast ähnliche Leistungwerte erreichen wird. nV wiederholt den G80/G92, so siehts aktuell aus. G92b darf als Lückenfüller bis Q1/09 durchhalten.
Wobei ich mich hier frage ob der Schritt von 65nm auf 55nm ausreicht um den G(T)200 "billig" verkaufen zu können. Beim G80 zu G92 war der Schritt von 90nm auf 65nm ja größer. Ich denke eher man wird in Richtung 45nm gehen. Ob das dann aber schon Q1 2009 geschieht darf bezweifelt werden.

Sinnlos nur weils überteuert ist? Das zählt nicht. :)
Sinnlos im Sinne von - keine brauchbare Mehrleistung. ~7% merkt kein Mensch. Wäre die Karte um ~25% schneller sähe das schon etwas anders aus. Natürlich dann mit entsprechenden Aufpreis.

Gast
2008-05-26, 19:35:58
Meinst du, der G92b in 55nm wird zusammen mit der G94 (aer also die 9600GT GPU) bis hmm April 09 gegen RV770 halten? Naja kommt auch drauf an, wie schnell AMD GPUs unterhalb des RV770 anbieten kann.

AnarchX
2008-05-26, 19:36:53
Naja, 8C und 256-Bit dürften doch einen <300mm² Chip @ 55nm ergeben.

Wobei 45nm und vorallem 40nm wohl deutlich vielversprechender sein könnten.

Wie schonmal verlinkt, das komplette GeForce 200 Lineup ist schon in Planung:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6508629&postcount=161

dargo
2008-05-26, 19:40:27
Naja, 8C und 256-Bit dürften doch einen <300mm² Chip @ 55nm ergeben.

Meinst du? So gesehen würde dann natürlich auch 55nm reichen. Aber warum gerade "nur" 8 Cluster?

Wie schonmal verlinkt, das komplette GeForce 200 Lineup ist schon in Planung:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6508629&postcount=161
Sicher, dass das alles G200 GPUs sind oder eher G2xx?

LovesuckZ
2008-05-26, 19:45:01
Naja, 8C und 256-Bit dürften doch einen <300mm² Chip @ 55nm ergeben.


Naja, der Shrink sollte schon mehr als 10% bringen.

AnarchX
2008-05-26, 19:45:11
Meinst du? So gesehen würde dann natürlich auch 55nm reichen. Aber warum gerade nur 8 Cluster?

Eben für niedrigere Preisbereiche, ohne sich einen zweiten G92 an zu tun, zudem kann man ja auf dieser Basis wieder eine großartige GX2 bauen.:D


Sicher, dass das alles G200 GPUs sind oder eher G2xx?
Natürlich andere Chips, so sind die mit einem "i" am Anfang offensichtlich IGPs für die Chipsätze.

seahawk
2008-05-26, 20:07:34
Erstmal muss man sehen wie lange NV gegen die 40nm Chips von ATI bestehen kann. Im High-End wahrscheinlich aber darunter ?

Coda
2008-05-26, 20:09:21
Welche 40nm-Chips? RV770 ist 55nm. 40nm ist dieses Jahr und wahrscheinlich auch noch bis ins 2HJ 2009 kein Thema bei TSMC.

seahawk
2008-05-26, 20:09:50
Alles was nach RV770 kommt.

Winter[Raven]
2008-05-26, 20:39:45
Lass doch erstmal die RV770 antanzen, und ich wette mit dem 40µ gibts wieder Stress... Eigentlich müsste es AMD langsam kapiert haben.... aber vielleicht auch nicht.

Gast
2008-05-26, 20:41:13
Alles was nach RV770 kommt, kommt erst zu Weihnachten... Bis dahin ist die kleine RV770 vs die G92b Karten gestellt. Eine Highend RV770 wird sich mit der GT260 messen können, was man bisher an Daten so gesehen hat eben.
Im Midrange wird die 9600GT sicher auf 55nm geschrumpft, falls die GT2xx Mainstream Karten nicht rechtzeitig kommen können. 45nm ist wie Coder schon sagte, laaange hin, ein Jahr min.

GeneralHanno
2008-05-26, 20:41:50
wie ein prozess wirklich läuft, kann dir die beste glaskugel der welt nicht verraten ;)

seahawk
2008-05-26, 22:05:39
;6532529']Lass doch erstmal die RV770 antanzen, und ich wette mit dem 40µ gibts wieder Stress... Eigentlich müsste es AMD langsam kapiert haben.... aber vielleicht auch nicht.

Wenn es nicht läuft, wenn es aber läuft dann kan man wie, bei RV670 gegen G92 an der RPesischraube drehen und NV zwingen Marge gegen Marktanteil zu tauschen.

Die 4870X2 wird min für ein Unentschieden zum High-End-Single-Chip von NV reichen, da dürfte dual Chip auf Grund der TDP kein Thema für NV sein. Eine Leistung über 9800GTX für den anversierten Preis setzt NV gewaltig unter Druck. Das ganze Midrange Angebot ist schlagartig unter extremen Druck. ATI perfromt dann in dem Segment besser und hat den billger zu fertigenden Chip. Die High-Enbd-Produkte haben doch nur hier im Forum eine Revelanz, verkaufen tun die eigentlich kaum.

AnarchX
2008-05-26, 22:09:25
Aus dem B3D:
Nurien Software (http://www.nurien.com/nurien/eng/main.php)'s "3D social networking service" Nurien running on GTX 280? NVIDIA PhysX in action, by the way.

http://www.youtube.com/watch?v=MoQh4R1-Vjs&fmt=18
http://www.youtube.com/watch?v=X9BGiMvrUrk&fmt=18
http://www.youtube.com/watch?v=x3eenx3E0X4&fmt=18

http://personal.inet.fi/atk/kjh2348fs/pics/nurien_nvidia_physx.jpg

Das wäre ja mal eine nette Demo. ;)

So muss Physik in Szene gesetzt werden... :up:

Adam D.
2008-05-26, 22:09:39
Wenn es nicht läuft, wenn es aber läuft dann kan man wie, bei RV670 gegen G92 an der RPesischraube drehen und NV zwingen Marge gegen Marktanteil zu tauschen.

Die 4870X2 wird min für ein Unentschieden zum High-End-Single-Chip von NV reichen, da dürfte dual Chip auf Grund der TDP kein Thema für NV sein. Eine Leistung über 9800GTX für den anversierten Preis setzt NV gewaltig unter Druck. Das ganze Midrange Angebot ist schlagartig unter extremen Druck. ATI perfromt dann in dem Segment besser und hat den billger zu fertigenden Chip. Die High-Enbd-Produkte haben doch nur hier im Forum eine Revelanz, verkaufen tun die eigentlich kaum.
HD4870 ~ 9800GTX
GTX280 ~ 2x9800GTX
--> HD4870X2 = Max. GTX280 + Nachteile

Dazu kommt noch der G92b ... Ich seh nicht, wo Nvidia soooo stark unter Druck ist?

Gast
2008-05-26, 22:19:13
HD4870 ~ 9800GTX
GTX280 ~ 2x9800GTX
--> HD4870X2 = Max. GTX280 + Nachteile

Dazu kommt noch der G92b ... Ich seh nicht, wo Nvidia soooo stark unter Druck ist?


sorry du musst dann blind sein

preise in etwa gleich
4870 pro=9800gtx

4870xt=25% schneller als 9800gtx

den rest kannst du dir selbst ausrechnen,falls du es drauf hast

K4mPFwUr$t
2008-05-26, 22:24:43
es gibt keine 4870pro und xt.
wozu gibt es sonst die abstufung 4830,4850,4870?

RV770pro = 4850
RV770XT = 4870

MikBach
2008-05-26, 22:29:31
Ist schon interessant, wie einige hier die Performance vorhersagen koennen...:eek:
Da koennen wir den Thread ja ins Grakaforum befoerdern. :rolleyes::|

AnarchX
2008-05-26, 22:30:22
From: Philip Scholz [mailto:PScholz@nvidia.com]

Sent: Wednesday, May 21, 2008 1:33 PM

Subject: IMPORTANT - Revised launch date: D10U (GeForce GTX 280 & 260)

Importance: High

All,

Please note the new launch date (pulled in by 1 day to align with additional Corporate Marketing initiatives): June 17th.

There are no other changes to this launch –just the 1-day date change.

Please note there are ***2 embargo dates*** for this part:

1) Channel Customer Embargo: June 3rd, 2008 (06:00 PST |14:00 GMT)*

2) Consumer/Press Embargo: June 17th, 2008 (06:00 PST |14:00 GMT)

* Channel Customer Embargo (June 3rd, 2008): To ensure there is no disruption of your current products in the channel, we are imposing an embargo for discussing these new products with your other etail, distributor and retail Channel Partners; this is the date NVIDIA will begin discussing with these Channel Partners.

PLEASE MAKE A NOTE OF THIS NEW DATE AND LET ME KNOW IF YOU HAVE ANY QUESTIONS.

Thank you

Phil

-----------------------------------------------

From: Philip Scholz

Sent: Wednesday, May 14, 2008 1:27 PM

Subject: IMPORTANT: D10U (GeForce GTX 280 & 260) Marketing Materials now available

Importance: High

******************************************************************************** ***

CONFIDENTIAL AND UNDER NVIDIA NDA

DO NOT DISCUSS THESE PRODUCTS OR MATERIALS EXTERNALLY UNTIL AFTER THE EMBARGO DATES BELOW:

3) Channel Customer Embargo: June 3rd, 2008 (06:00 PST |14:00 GMT)*

4) Consumer/Press Embargo: June 18th, 2008 (06:00 PST |14:00 GMT)

******************************************************************************** ***

Hello,

The following items are available NOW on NVONLINE (Partners.nvidia.com) for you to download:

· AIC Spec Document (to be updated with final clock specs next week; most needed information is currently available in this version)

· Box Templates with guidelines

These additional items will be available on NVONLINE starting next week (we will communicate to you when these are available):

· User Documentation (QSG and User Manual)

· Key Visual Assets

· Product Photography

· Final clocks/specs for AIC Spec Document

• Email Template

• Ad Template

• Landing Page

• Web banners

Note, that all items on NVONLINE are secured using the Adobe Policy Server – you will need your company’s respective log in information and a PC running Adobe Acrobat Reader version 7 or higher to access these files. IMPORTANT NOTE: Due to security policies within NVIDIA, ".zip" some files attached to certain Adobe PDFs have been renamed with a ".zipp" file ending. To successfully open these ".zip" files, be sure to rename them to end in ".zip" (instead of ".zipp" ) when saving to your machine.

* Channel Customer Embargo (June 3rd, 2008): To ensure there is no disruption of your current products in the channel, we are imposing an embargo for discussing these new products with your other etail, distributor and retail Channel Partners; this is the date NVIDIA will begin discussing with these Channel Partners.

If you have any questions about these Marketing materials, launch dates and embargos, or anything else relating to the new products, please contact me directly.

Thanks,

Phil
http://www.theinquirer.net/gb/inquirer/news/2008/05/26/nvidia-changes-gt200-nda-date

Snoopy69
2008-05-26, 22:32:57
Eih kinners, kriegt euch wieder ein...

Alle anderen dürfen ab Mitte Juni dann ausflippen :D

GTX280/260 werden, ich bin so frei, wieder das Non-Plus-Ultra an Highend darstellen. Siehe 8800GTX/GTS, diese Karten sind auch 1,5Jahre nach Release vollkommen ausreichend für die Käufer. Und wer "mehr" haben wollte, der hat ne 2. Karte dazugekauft, fertig.

Schön wärs...
Ich kann Crysis immer noch nicht so spielen, wie ich es gerne möchte. Ob der GT200 das kann steht auch noch in den Sternen. Ich bin jedenfalls noch weit weg von der Wunscheinstellung.

Gast
2008-05-26, 22:33:56
Aus dem B3D:


Das wäre ja mal eine nette Demo. ;)

So muss Physik in Szene gesetzt werden... :up:

Was sieht daran toll aus?

Gast
2008-05-26, 22:34:56
es gibt keine 4870pro und xt.
wozu gibt es sonst die abstufung 4830,4850,4870?

RV770pro = 4850
RV770XT = 4870

Jeder ist es aber gewöhnt also lass uns doch?Bei Ati gibts schon oft Xt und Pro kurzel.Lass uns doch.

Snoopy69
2008-05-26, 22:41:16
Aus dem B3D:


Das wäre ja mal eine nette Demo. ;)

So muss Physik in Szene gesetzt werden... :up:
Das ist keine Demo, sondern ein "Spiel"! MStar heisst es :wink:
Und die Physik sieht deshalb nur so aus, weil die Macher die Unreal-Engine für das "Weiber-Spiel" missbraucht haben :ulol:

http://www.nurien.com/nurien/kor/downloads/downloads.html

Kenne ich seit Anfang des Jahres. Da war von NV aber keine Rede...

mictasm
2008-05-26, 22:47:06
3. und 17.? Spricht das schon für eine Verfügbarkeit der Karten am 17.?

Godmode
2008-05-26, 22:49:09
Dh. wir können am 3. Juni mit ersten Leaks rechnen!:wink:

Gast
2008-05-26, 22:52:22
wenn ich mich nicht täusche, sind das nun die finalen spezfikationen der gtx 280 und gtx 260. hat sich glücklicherweise doch nichts geändert mehr am shader und speichertakt:

http://forum.donanimhaber.com/m_23508911/tm.htm

Snoopy69
2008-05-26, 22:52:44
Ich hoffe es...
Und ich hoffe, ich werde nicht enttäuscht. Dann sage ich "adé SLI" :)

@ all

Ich frag mal so durch...
Welche der beiden Karten werdet ihr nehmen?

Ich finde den Ram der GTX260 etwas zu klein. Crysis frisst bei mir ja jetzt schon weit über 700MB Videoram weg.

Sorkalm
2008-05-26, 23:04:46
Nochmal um einen Tag auf den 17. vorgezogen?

Jetzt gehts wohl darum, wer den frühesten Release hat. ;D

K4mPFwUr$t
2008-05-26, 23:06:08
wenn dann würde ich zur GTX260 greifen.
der VRAM ist ja nur ein wenig kleiner als bei der GTX280 mit 1GB.

Nightspider
2008-05-26, 23:08:37
Abwarten, die alte GTS war auch teilweise 30% langsamer als die 8800 GTX...


Soll MStar dann nur mit PPU oder NV-GPU funktionieren oder wird die Kleidung sonst per CPU langsamer oder nicht so genau berechnet, weiß da jemand was ?

Godmode
2008-05-26, 23:13:12
Ich hoffe es...
Und ich hoffe, ich werde nicht enttäuscht. Dann sage ich "adé SLI" :)

@ all

Ich frag mal so durch...
Welche der beiden Karten werdet ihr nehmen?

Ich finde den Ram der GTX260 etwas zu klein. Crysis frisst bei mir ja jetzt schon weit über 700MB Videoram weg.

Wenn sie in nen Shuttle passt, natürlich die fette!

AnarchX
2008-05-26, 23:14:51
Abwarten, die alte GTS war auch teilweise 30% langsamer als die 8800 GTX...

Die alte GTS war ja auch deutlicher beschnitten:
75% TMUs, ALUs
80% ROPs, SI
86% GPU-Takt
88% Speichertakt

Bei der GTX 260 sieht das deutlich besser aus:
80% TMUs, ALUs
88% ROPs, SI
95% GPU-Takt
91% Speichertakt

Snoopy69
2008-05-26, 23:17:12
Abwarten, die alte GTS war auch teilweise 30% langsamer als die 8800 GTX...


Soll MStar dann nur mit PPU oder NV-GPU funktionieren oder wird die Kleidung sonst per CPU langsamer oder nicht so genau berechnet, weiß da jemand was ?
K.A.
Sag jetzt bloss nicht, dass dich das Spiel interessiert :D

Nightspider
2008-05-26, 23:17:49
Die alte GTS war ja auch deutlicher beschnitten:
75% TMUs, ALUs
80% ROPs, SI
86% GPU-Takt
88% Speichertakt

Bei der GTX 260 sieht das deutlich besser aus:
80% TMUs, ALUs
88% ROPs, SI
95% GPU-Takt
91% Speichertakt

Na okay. Dann bin ich ja mal gespannt. :)

Sag jetzt bloss nicht, dass dich das Spiel interessiert

Okay ich sags nicht :D

.....ob man da wohl Fenster aufmachen kann, damit mal ein ordentlicher Luftstoß durch den Raum weht :uponder: :D

AnarchX
2008-05-26, 23:36:42
Da es hier auch rein passt:
GT200 mit 130FPS beim 720p encoding für das Iphone (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6533092&postcount=72)

Godmode
2008-05-26, 23:38:21
Da es hier auch rein passt:
GT200 mit 130FPS beim 720p encoding für das Iphone (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6533092&postcount=72)

Weiß man auch was hier ein G8x/G9x schafft?

Gast
2008-05-26, 23:39:46
Was ich mich frage: in den Mails steht ja "final clock speeds to be revealed", dann wären die 602MhZ ja mal wieder Käse vom ATI-Fanclub aka INQ

Sorkalm
2008-05-26, 23:40:54
Weiß man auch was hier ein G8x/G9x schafft?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6433023&postcount=44

@Gast: Die Mail wird älter sein als die Infos vom Editor's Day.