PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 3]


Seiten : 1 2 [3] 4 5 6 7 8

dargo
2008-05-20, 23:32:32
ja erzähl weiter so ein MÜll, ob DX10.1 wichtig wäre:rolleyes:
Also, ich finde DX10.1 ebenfalls wichtig. Allerdings geht bei mir die Leistung vor.

tombman
2008-05-20, 23:32:32
Und jetzt bitte nicht um den Sinn/Unsinn von DX10.1 streiten, für mich zählt es eben.
Warum weißt du aber selbst nicht, oder?

w0mbat
2008-05-20, 23:36:36
Warum weißt du aber selbst nicht, oder?

Natürlich weiß ich wieso es mir wichtig ist. Ich behalte meine GPU länger als zwei Jahre und bis dahin werden wir mehr und mehr DX10.1 + dessen perfektes AA sehen. Ist echt witzig das du auf die Idee kommst ich würde meine eigenen Gründe nicht wissen. Fühlst du dich angegriffen nur weil du den GT200 wohl kaufen wirst?

tombman
2008-05-20, 23:39:30
Natürlich weiß ich wieso es mir wichtig ist. Ich behalte meine GPU länger als zwei Jahre und bis dahin werden wir mehr und mehr DX10.1 + dessen perfektes AA sehen. Ist echt witzig das du auf die Idee kommst ich würde meine eigenen Gründe nicht wissen. Fühlst du dich angegriffen nur weil du den GT200 wohl kaufen wirst?
Du behältst ne Graka 2 Jahre? Was macht das bitte für einen Sinn? Bis du games siehst, wo 10.1 was bringt, gibts 100€ Grafikkarten die schneller sind als die, die du jetzt kaufen willst.
Falls es überhaupt je 10.1 Spiele geben wird :rolleyes:

w0mbat
2008-05-20, 23:41:33
Ich sehe jetzt schon AS, da muss ich nicht warten. Außerdem habe ich jetzt einen Grund zum billigeren RV770 zu greifen. Argumentier einfach nicht mit mir wenn du meine Meinung nicht anerkennen willst - ich habe doch extra drunter geschrieben daß ich keine DX10.1 Diskussion losschlagen will.

gamingforce
2008-05-20, 23:44:12
"We also heard that GeForce GTX 280 graphics card would be the last single chip design from NVIDIA. After GeForce GTX 280, NVIDIA will only bring graphics cards with double and multiple cores design."

http://www.pczilla.net/en/post/13.html

Superheld
2008-05-20, 23:47:38
wenn wir sowieso nur Konsolenportierungen bekommen wirds in Zukunft eher schlecht für Dx10.1 aussehen,
oder soll man auf GTA4 warten;D, Doom4, Crysis 2, braucht noch paar Jährchen mehr und da ist schon Dx12 raus:cool:

gamingforce
2008-05-20, 23:51:40
ich glaub aus DX10.1 wird was,ATI muss nur gut Werbung machen damit ATI hat NV gut in den A*** gef*** mit dieser DX10.1 sache, ich hab seit heute ne X2 drin weil ich die mal Testen wollte und ich glaub das SLi muss weichen ;(

w0mbat
2008-05-21, 00:13:12
Also GTX 280 = 9800GX2*1.5-1.75?

Gast
2008-05-21, 00:14:28
ich glaub aus DX10.1 wird was,ATI muss nur gut Werbung machen damit ATI hat NV gut in den A*** gef*** mit dieser DX10.1 sache, ich hab seit heute ne X2 drin weil ich die mal Testen wollte und ich glaub das SLi muss weichen ;(

du kannst ja mal deine gigantischen performance-sprünge in den vielen spielen die davon profitieren hier posten anschließend..

Don Vito
2008-05-21, 00:15:17
Ich denke 10.1 wird nicht viel interessantes bringen und warten lohnte sich ja noch nie.
Nächstes Jahr soll ja bereits DX11 kommen von daher...
Ich kann ohne leben und freue mich bereits auf die DX10.0 Performance der GT200;)

Ronny145
2008-05-21, 00:19:32
wenn wir sowieso nur Konsolenportierungen bekommen wirds in Zukunft eher schlecht für Dx10.1 aussehen,
oder soll man auf GTA4 warten;D, Doom4, Crysis 2, braucht noch paar Jährchen mehr und da ist schon Dx12 raus:cool:


Nunja, dann müsste es auch noch schlecht für D3D10 aussehen, aber vielleicht siehts ja noch schlecht aus. Assassin's Creed gibt es doch auch für Konsole, oder nicht? Das hat dem Entwickler auch nicht davon abgehalten es mit einzubauen.

Es wurden schon Gründe genannt, weshalb es nicht gut wäre wenn die Karte ohne .1 daherkommt. Eher deswegen wird es mit der Schnittstelle nun langsamer vorangehen. Die möglichen Vorteile damit kann man auch nicht wegdiskutieren. Die ganzen Leute, die das ganze nun runterspielen, wären die ersten die auf AMD schimpfen würden wenn das ganze umgedreht wäre.

Gast
2008-05-21, 00:20:51
Also GTX 280 = 9800GX2*1.5-1.75?


das könnte hinhauen aber nur dann in hohen auflösungen mit aa+af weil die gx2 karten dann max ultra wert haben.

gamingforce
2008-05-21, 00:21:05
du kannst ja mal deine gigantischen performance-sprünge in den vielen spielen die davon profitieren hier posten anschließend..

also ich muss sagen das zocken ist mit ne X2 besser wie mit 2x8800GTS 512 MB im SLI, der VRAM ist so schnell voll und das bei normalen Settings schon :(
Da hat die ATi irgendwie den längeren Atem, aber das ist OT lieber BTT.

Ich denke 10.1 wird nicht viel interessantes bringen und warten lohnte sich ja noch nie.
Nächstes Jahr soll ja bereits DX11 kommen von daher...
Ich kann ohne leben und freue mich bereits auf die DX10.0 Performance der GT200;)


sry aber ich spiel kein 3Dmark, weil das bringt mir auh nix wenn Kanten da sind die einfach stören
SLI oder CF hat man doch nur um sehr hohe Settings zu fahren oder nicht?
Wenn ich das geboten bekomme (DX10.1) dann sag ich nicht sein dazu ;)

Don Vito
2008-05-21, 00:38:44
Was hat das mit 3DMark zutun?
Mir geht es rein um die praktisch nutzbare Leistung.

tombman
2008-05-21, 01:15:59
Ich sehe jetzt schon AS, da muss ich nicht warten.
Ja, und du hast auch gesehen mit welcher Macht das wieder zurückgezogen wurde ;D

Außerdem habe ich jetzt einen Grund zum billigeren RV770 zu greifen.
OK, wenn du dir mit aller Macht einen zwingenden Grund einreden willst zur billigeren Lösung zu greifen...

Argumentier einfach nicht mit mir wenn du meine Meinung nicht anerkennen willst - ich habe doch extra drunter geschrieben daß ich keine DX10.1 Diskussion losschlagen will.
Naja, weils keine Meinung ist, sondern ein psychologischer Trick sich selbst zum Billigeren zu legitimieren ;)

Banshee18
2008-05-21, 02:34:20
Um was gehts hier nochmal? Wer sich wann wo wieso weshalb welche Grafikkarte kaufen soll? Nein? Achso, dann bin ich hier wohl falsch. :biggrin:

Fakt ist jedenfalls, dass ATi noch nie seine Extrawürste durchsetzen konnte (PS 1.4, TruForm), generell setzen sich Features, die nur ein IHV unterstützt, nicht so gut durch.
Ich denke, dass so auch D3D10.1 untergehen wird und wenn überhaupt nur 2-3 Titel etwas damit anfangen werden können. Schade, aber was will man machen?

Mal eine andere Frage: Ist schon bekannt, wie lang das neue Flaggschiff von nV werden soll? Länger als die 8800GTX? Dann müsste ich nämlich wieder mein Gehäuse bearbeiten.

James Ryan
2008-05-21, 05:46:28
Mal eine andere Frage: Ist schon bekannt, wie lang das neue Flaggschiff von nV werden soll? Länger als die 8800GTX? Dann müsste ich nämlich wieder mein Gehäuse bearbeiten.

Laut tombmanns Bildchen wird die GTX280 genauso lang werden wie eine Gf 8800/9800 GTX.

MfG :cool:

seahawk
2008-05-21, 07:08:37
Also, ich finde DX10.1 ebenfalls wichtig. Allerdings geht bei mir die Leistung vor.

Schau Dir Assains Creed an, da sieht man, dass DX10.1 Leistung ist.

AnarchX
2008-05-21, 07:29:22
http://img266.imageshack.us/img266/9607/gt200core1665ec6b1ty4.jpg (http://imageshack.us)

Henroldus
2008-05-21, 07:35:32
http://img266.imageshack.us/img266/9607/gt200core1665ec6b1ty4.jpg (http://imageshack.us)
dieselbe quelle wie gestern:
http://www.itocp.com/thread-8904-1-1.html
ist ja nur der heatspreader, die echte DIE größe ist leider nicht zu sehen, soweit also nix neues

AnarchX
2008-05-21, 07:38:45
http://img511.imageshack.us/img511/4910/geforce2001d36667432duc9.jpg (http://imageshack.us)
http://img148.imageshack.us/img148/3857/geforce2001d266675d3dkb1.jpg (http://imageshack.us)

http://forum.donanimhaber.com/m_23372076/tm.htm



Im PCinlife gibt es auch noch ein paar Gerüchte:
- 1.4 Mrd. Transitoren
- kein Teraflop-Chip, sondern knapp darunter
- >600 USD

James Ryan
2008-05-21, 07:47:46
Schon das A2-Stepping?
Nice! :D
Wann soll nochmal der Launch sein? In 4 Wochen?

MfG :cool:

Tarkin
2008-05-21, 07:49:54
also ich kanns kauf fassen was ich hier lesen - ich weiß nicht ob ich lachen oder weinen soll... :rolleyes:

Wenn man sich auf eines verlassen kann, dann auf den "Greatest nVidia Fanboy on Earth" - Tomban der uns wieder total sinnvollen Dinge einreden will wie z.b. DX10.1 ist eh total sinnlos...

seahawk
2008-05-21, 07:53:43
50% mehr als bisher bei 240SP ist doch arg enttäuschend für den Preis. Ich kann dne Hype echt nicht verstehen.

Grestorn
2008-05-21, 07:56:59
Wenn man sich auf eines verlassen kann, dann auf den "Greatest nVidia Fanboy on Earth" - Tomban der uns wieder total sinnvollen Dinge einreden will wie z.b. DX10.1 ist eh total sinnlos...
Naja, ich denke das hat weniger was mit Fanboy zu tun (Ein Vorwurf, der übrigens immer eine bunte Karte wert ist!) sondern mehr damit, dass tombman momentan den Leistungsvorsprung und andere Vorteile als wichtiger erachtet.

Und ich sehe es ganz ähnlich, wenn ich auch ernsthaft enttäuscht wäre, wenn tatsächlich kein 10.1 unterstützt werden sollte.

50% mehr als bisher bei 240SP ist doch arg enttäuschend für den Preis. Ich kann dne Hype echt nicht verstehen.
Kommt doch darauf an, worauf sich die 50% beziehen. Bei einer einzelnen 88 GTX würde ich Dir Recht geben. Bei einer GX2 nicht, denn dann wäre der neue Chip deutlich mehr als doppelt so leistungsfähig wie der G80.

seahawk
2008-05-21, 08:01:13
Leistung ist so relativ heute. Lass die NV Karte 500-600 Euro kosten und wahrscheinlich ist sie trotzdem deutlich langsamer als 2xRV770.

AnarchX
2008-05-21, 08:02:18
wahrscheinlich ist sie trotzdem deutlich langsamer als 2xRV770.
Soweit man sich erzählt:

GTX 260 ~ HD4870X2

Grestorn
2008-05-21, 08:02:27
Weil 2xR770 ja billiger wären als eine GT200, gell? :)

seahawk
2008-05-21, 08:09:09
Weil 2xR770 ja billiger wären als eine GT200, gell? :)

Davon gehe ich zumindest für die Topversion von GT200 aus. Dann hat man halt das CF Problem gegen ne evtl. leicht höhere theoretische Leistung. Allerdings frage ich mich langsam ernsthaft ob die HArdwareentwicklung der Software nicht davon läuft. Hast Du keinen Riesen-TFT, der entsprechend teuer ist, lohnt sich ein High-End_PC heute echt nicht mehr imho.

Grestorn
2008-05-21, 08:16:52
Allerdings frage ich mich langsam ernsthaft ob die HArdwareentwicklung der Software nicht davon läuft. Hast Du keinen Riesen-TFT, der entsprechend teuer ist, lohnt sich ein High-End_PC heute echt nicht mehr imho.

Das war noch nie so und ist immer noch nicht so. Nur wenn auf dem PC dauerhaft nur noch Konsolen-Portierungen rauskommen, sehe ich da eine gewisse Gefahr, und selbst dann ist noch Luft durch Auflösung und grafische Aufwertungen.

Beispiele sind - natürlich - Crysis aber auch Assassin's Creed und vermutlich Mass Effect.

Und 1920x1200 ist keine so ungewöhnliche Auflösung mehr heutzutage. Wer sich unbedingt eine High-End Karte leisten will, hat meistens auch einen entsprechenden Monitor oder zumindest ein Full-HD Gerät.

MuLuNGuS
2008-05-21, 08:39:56
Und 1920x1200 ist keine so ungewöhnliche Auflösung mehr heutzutage. Wer sich unbedingt eine High-End Karte leisten will, hat meistens auch einen entsprechenden Monitor oder zumindest ein Full-HD Gerät.

genau,

endlich futter für meinen 24"

Gast
2008-05-21, 08:43:49
für event 600€ etwas mehr Leistung als ne Ultra in der Region...die Lachen sich wirklich bei dem verkauf ihrer hardware ab G80 tot über die blödheit der Käufer.

GeneralHanno
2008-05-21, 08:47:20
Ail hat schonmal angedeutet, dass die theoretische ALU leistung des GT200 im vergleich zum RV770 lächerlich aussähe, aber dass dies nix bedeute ... ;)

€dit: die +50% könnten sich imo auf die theoretische ALU leistung (FLOP) beziehen. die 9800GTX hat 643 GFLOPs und 50% mehr sind knapp unter 1 TFLOPs (genau: 964 GFLOPs). das würde bedeuten, dass der GT200 mit etwa 1,35GHz shadertakt liefe ;) was auch zum "rückschritt" seitend B3D passte

Superheld
2008-05-21, 08:50:14
50% mehr als bisher bei 240SP ist doch arg enttäuschend für den Preis. Ich kann dne Hype echt nicht verstehen.

die 50% mehr bezieht sich nur auf die Shader Power, der Rest kommt auch noch dazu und schon sind wir bei 150%:D

Superheld
2008-05-21, 08:58:22
hier noch was
http://www.dailytech.com/article.aspx?newsid=11842

MEDIC-on-DUTY
2008-05-21, 08:58:22
Du behältst ne Graka 2 Jahre? Was macht das bitte für einen Sinn? Bis du games siehst, wo 10.1 was bringt, gibts 100€ Grafikkarten die schneller sind als die, die du jetzt kaufen willst.
Falls es überhaupt je 10.1 Spiele geben wird :rolleyes:

Darüber hinaus hat nVidia mehr Games unter "Vertrag", was DX10.1 zumindest für diese Games überflüssig macht.

Schlammsau
2008-05-21, 09:05:08
ihr seit gut....DX10.1 macht das AA Bild wesentlich schöner (siehe AC) aber nur weil euer heissgeliebter GT200 diese feature nicht unterstützt ist es unnötig?
Wenn nV sagt, es ist schlecht, dann hat es auch gefälligst schlecht zu sein! Wie die Lemminge seit ihr! *kopfschüttel*

nagus
2008-05-21, 09:08:00
Du behältst ne Graka 2 Jahre? Was macht das bitte für einen Sinn? Bis du games siehst, wo 10.1 was bringt, gibts 100€ Grafikkarten die schneller sind als die, die du jetzt kaufen willst.
Falls es überhaupt je 10.1 Spiele geben wird :rolleyes:

ich wette 1000 euro, dass du - wäre der fall genau umgekehrt - das fehlende dx10.1 bei amd kritisieren würdest.

und jetzt erzähl uns bitte keine weiteren märchengeschichten.

Tarkin
2008-05-21, 09:12:51
Naja, ich denke das hat weniger was mit Fanboy zu tun (Ein Vorwurf, der übrigens immer eine bunte Karte wert ist!) sondern mehr damit, dass tombman momentan den Leistungsvorsprung und andere Vorteile als wichtiger erachtet.

"Leistungsvorsprung und andere Vorteile"" - durch die Nichtunterstützung von DX10.1 oder wie?

Hab ich was verpasst?

Sorry, Tombman ist einfach zu durchschaubar was solche Dinge angeht .. richtig peinlich. Dreht sein nVidia Fänchen immer in den Wind, findet alles ganz toll was die so machen (auch wenns offensichtlich ist, dass es eigentlich ein Armutszeugnis ist wenn man DX10.1 nicht unterstützt) .. naja wie auch immer. Mich regt sowas einfach auf...

MEDIC-on-DUTY
2008-05-21, 09:13:36
ihr seit gut....DX10.1 macht das AA Bild wesentlich schöner (siehe AC) aber nur weil euer heissgeliebter GT200 diese feature nicht unterstützt ist es unnötig?
Wenn nV sagt, es ist schlecht, dann hat es auch gefälligst schlecht zu sein! Wie die Lemminge seit ihr! *kopfgschüttel*

Leider wird AC eine der wenigen Ausnahmen bleiben, da DX10.1 einfach noch zu wenig Marktanteil hat. Und daran wird sich so schnell auch nichts ändern. Es geht hier nicht um gut und böse, sondern ob das Fehlen von DX10.1 verschmerzbar ist oder nicht. Angesichts der zu erwartenden Rohleistung der 280 ist das wohl eher nebensächlich.

Und ja, ATI hatte vor der 88er immer die Nase vorn in Sachen Bildqualität, aber das hat sich geändert. Und ob das bei der 280er genauso sein wird, muss sich erst noch zeigen.

Und um der Fanboydiskussion etwas den Wind aus den Seegeln zu nehmen: Mir persönlich ist es egal ob ATI oder nV. Letzten Endes zählt die Performancekrone im "Drittelmix".

Grestorn
2008-05-21, 09:15:49
für event 600€ etwas mehr Leistung als ne Ultra in der Region...die Lachen sich wirklich bei dem verkauf ihrer hardware ab G80 tot über die blödheit der Käufer.

Seit wann ist gut 2 fache Leistung "etwas mehr"?

Grestorn
2008-05-21, 09:18:09
ihr seit gut....DX10.1 macht das AA Bild wesentlich schöner (siehe AC) aber nur weil euer heissgeliebter GT200 diese feature nicht unterstützt ist es unnötig?
Wenn nV sagt, es ist schlecht, dann hat es auch gefälligst schlecht zu sein! Wie die Lemminge seit ihr! *kopfschüttel*

Das Bild bei AC ist nicht wesentlich schöner. Es werden nur sehr wenige Kanten ohne 10.1 nicht AA-behandelt, sonst ist doch alles gleich.

Da finde ich es viel schlimmer, dass ATI z.B. bei Bioshock/DX10 und vielen anderen modernen Spielen GAR kein AA ermöglicht. Das muss man auch immer dagegenhalten!

seahawk
2008-05-21, 09:20:21
die 50% mehr bezieht sich nur auf die Shader Power, der Rest kommt auch noch dazu und schon sind wir bei 150%:D

Das wird man sehen müssen. Ich erwarte nicht viel von GT200, halt irgendeine Karte für 600 Euro die tolle Scores im Murks produziert.

RV770 sieht imho deutlich bedeutsamer aus, wenn es um die Marktdurchdringung und die Features geht.

Grestorn
2008-05-21, 09:21:01
"Leistungsvorsprung und andere Vorteile"" - durch die Nichtunterstützung von DX10.1 oder wie?

Hab ich was verpasst?Aller Wahrscheinlichkeit wird die GT200 auch ohne 10.1 immer noch schneller sein als eine einzelne R770 mit 10.1.

Wie man auch bei AC sieht - keine ATI schlägt die alte 8800GTX, egal ob mit oder ohne 10.1.

Und wie gesagt, es kommen ja noch andere Dinge hinzu, die selbst bei einem Leistungsgleichstand die ATI Alternative für mich ausscheiden lässt.

Schlammsau
2008-05-21, 09:24:04
Da finde ich es viel schlimmer, dass ATI z.B. bei Bioshock/DX10 und vielen anderen modernen Spielen GAR kein AA ermöglicht. Das muss man auch immer dagegenhalten!

???
Das ist doch schon seit einigen Treibern möglich! Das gleiche "Problem" hatte nV doch auch!?
Kann ich leider nicht nachvollziehen, da ich kein Bioshock habe!

gamingforce
2008-05-21, 09:24:40
D

Da finde ich es viel schlimmer, dass ATI z.B. bei Bioshock/DX10 und vielen anderen modernen Spielen GAR kein AA ermöglicht. Das muss man auch immer dagegenhalten!

:|

In Bioshock ist garnicht für AA vorgesehen weder für Nvidia noch für ATI, was man nun einstellen kann an AA ist egal weil die Bildquallität drunter leidet (Details fehlen), das schafft man dann mit ATI auch und zwar mit exe renaming, leiden zwar ein wenig die Details drunter wie bei NV aber AA funzt genauso wie bei NV:

Gast
2008-05-21, 09:24:49
Seit wann ist gut 2 fache Leistung "etwas mehr"?
2 fach in 1920x1200 mit AA im Leben nicht,dann könnte sich NV ihr SLi in den allerwertesten schieben das brauch dann kein Mensch mehr,ich hör jetzt schon das Geheule.

Grestorn
2008-05-21, 09:25:09
AA geht nach meinem Kenntnisstand bei ATI in Bioshock nur mit DX9.

Grestorn
2008-05-21, 09:26:10
2 fach in 1920x1200 mit AA im Leben nicht,dann könnte sich NV ihr SLi in den allerwertesten schieben das brauch dann kein Mensch mehr,ich hör jetzt schon das Geheule.

Die 2x Framerate wirds wohl nur in extrem GraKa limitierten Szenen geben, aber sonst rechne ich schon mit diesem Faktor (verglichen mit einer einzelnen 8800GTX).

reunion
2008-05-21, 09:27:07
2 fach in 1920x1200 mit AA im Leben nicht,dann könnte sich NV ihr SLi in den allerwertesten schieben das brauch dann kein Mensch mehr,ich hör jetzt schon das Geheule.

Das Ding wird locker doppelt so schnell wie eine 8800GTX. Bei gleichem Featureset und mehr als doppelter Transistorenanzahl kann man das allerdings auch erwarten.

Gast
2008-05-21, 09:28:14
:|

In Bioshock ist garnicht für AA vorgesehen weder für Nvidia noch für ATI, was man nun einstellen kann an AA ist egal weil die Bildquallität drunter leidet (Details fehlen), das schafft man dann mit ATI auch und zwar mit exe renaming, leiden zwar ein wenig die Details drunter wie bei NV aber AA funzt genauso wie bei NV:
jo leidet sich zu tot mit AA
http://img3.imagebanana.com/img/cj8y5cir/thumb/bioshock2008041808200967.png
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=410929&page=8&highlight=bioshock

bakalu
2008-05-21, 09:29:01
Im PCinlife gibt es auch noch ein paar Gerüchte:
- 1.4 Mrd. Transitoren
- kein Teraflop-Chip, sondern knapp darunter
- >600 USDGeForce GTX 280 has 240 SP, 120 TMUs, 1GB GDDR3 512bit, 32 ROPs.
GeForce GTX 260 has 192 SP, 96 TMUs, 896MB GDDR3 448bit, 28 ROPs.

I'm right or wrong ?

Grestorn
2008-05-21, 09:29:01
In Bioshock ist garnicht für AA vorgesehen weder für Nvidia noch für ATI, was man nun einstellen kann an AA ist egal weil die Bildquallität drunter leidet (Details fehlen)

So? Wer sagt das?

, das schafft man dann mit ATI auch und zwar mit exe renaming, leiden zwar ein wenig die Details drunter wie bei NV aber AA funzt genauso wie bei NV:

Exe renaming... Yeah right. Verzichten wir auf Shader-Optimierungen und Bug-Workarounds des Treibers und wenden wir zudem Optimierungen an, die eigentlich für ein anderen Spiel gedacht waren und sonst was für Effekte haben können - im besten Falle keine.

Es gibt kaum etwas dümmeres als sich auf exe Renaming verlassen zu müssen.

reunion
2008-05-21, 09:29:40
Weil 2xR770 ja billiger wären als eine GT200, gell? :)

In punkto Fertigung allemal. Und die Platine wird mit den 256-bit Bussen wohl auch billiger sein als nVs 512-bit SI.

Gast
2008-05-21, 09:30:52
Das Ding wird locker doppelt so schnell wie eine 8800GTX. Bei gleichem Featureset und mehr als doppelter Transistorenanzahl kann man das allerdings auch erwarten.

und noch mal im Leben nich!
das paßt dann schon eher und holt denkende Menschen mal ganz schön auf den Boden der tatsachen,
"Die 2x Framerate wirds wohl nur in extrem GraKa limitierten Szenen geben"

Das ist nen G92 Aufguß Abzock Gurke ;D und sonst nix.

mictasm
2008-05-21, 09:30:55
Goil, Nagus und Tarkin fast wie früher in einem grünen Thread ;)

AnarchX
2008-05-21, 09:31:05
GeForce GTX 280 has 240 SP, 120 TMUs, 1GB GDDR3 512bit, 32 ROPs.
GeForce GTX 260 has 192 SP, 96 TMUs, 896MB GDDR3 448bit, 28 ROPs.

I'm right or wrong ?

Momentan sieht es eher nach 10 Clustern mit je 8 TMUs und 24 ALUs (3*Vec8) aus, was dann darin resultiert:
GeForce GTX 280 has 240 SP, 80 TMUs, 1GB GDDR3 512bit, 32 ROPs.
GeForce GTX 260 has 192 SP, 64 TMUs, 896MB GDDR3 448bit, 28 ROPs.

In punkto Fertigung allemal. Und die Platine wird mit den 256-bit Bussen wohl auch billiger sein als nVs 512-bit SI.
2GHz Speichertakt dürften doch auch in gewissen Ansprüchen an das PCB resultieren.

reunion
2008-05-21, 09:32:47
und noch mal im Leben nich!
das paßt dann schon eher und holt denkende Menschen mal ganz schön auf den Boden der tatsachen,
"Die 2x Framerate wirds wohl nur in extrem GraKa limitierten Szenen geben"

Das ist nen G92 Aufguß Abzock Gurke ;D und sonst nix.

Wenn die Graka nicht limitiert nützt dir die schnellste Karte nichts, das sollte ohnehin klar sein.

Gast
2008-05-21, 09:33:40
wenn das wirklich so ist,wer brauch ne GTX?
GeForce GTX 260 has 192 SP, 64 TMUs, 896MB GDDR3 448bit, 28 ROPs>G80 Ultra

reunion
2008-05-21, 09:34:30
wenn das wirklich so ist,wer brauch ne GTX?
GeForce GTX 260 has 192 SP, 64 TMUs, 896MB GDDR3 448bit, 28 ROPs>G80 Ultra

Das ist schon deutlich abgespeckt.

Gast
2008-05-21, 09:37:01
Wenn die Graka nicht limitiert nützt dir die schnellste Karte nichts, das sollte ohnehin klar sein.

Ja schon klar ;D zumindest mir.....und deshalb...

was heißt eigendlich das>meine CPU (4.3 gig) schafft es nicht mehr einer GX2 ab 750mhz Coreclock ein Mehrfpschen zu entlocken?

=Floi=
2008-05-21, 09:41:00
zitat
Das ist nen G92 Aufguß Abzock Gurke und sonst nix.

die karte hat aber keine schwächen wie der G92
mehr rops und höhere bandbreite! (beides ideal für AA und hohe auflösungen)

Gast
2008-05-21, 09:46:31
schwächen sehe ich beim G92 nur ab 1920x1200,und die 2 fach Leistung + zum G80 will ich erstmal sehen>G80 ~30FPS>GT200 ~? in Crisis zb.was brauch ich da ne 6GHZ CPU?

reunion
2008-05-21, 09:55:27
Die-Size soll bei 576mm² liegen:
http://www.tgdaily.com/content/view/37554/135/

AnarchX
2008-05-21, 09:57:42
Die-Size soll bei 576mm² liegen:
http://www.tgdaily.com/content/view/37554/135/

Was wohl einfach von hier oder irgendwo anders im Netz abgeschrieben wurde, wenn man sich den restlichen Blödsinn im Artikel anschaut. X-D

GeneralHanno
2008-05-21, 10:29:41
vor allem das zwischen 900M und 1,1B transistoren @ 576mm² ist bullshit :D

dargo
2008-05-21, 10:33:20
Schau Dir Assains Creed an, da sieht man, dass DX10.1 Leistung ist.
Die reicht aber ATI bei weitem nicht aus um nur annäherend dem GT200 gefährlich zu werden. ;)

bakalu
2008-05-21, 10:45:18
Momentan sieht es eher nach 10 Clustern mit je 8 TMUs und 24 ALUs (3*Vec8) aus, was dann darin resultiert:This area is almost 100 mm2 larger than Nvidia’s previous 90 nm high-end GPU (G80) and a consequence of 16 processing blocks .

The GPU will have 15 processing units (240 shader processors) available on the GTX280, while the GTX260 will come with 12 units for a grand total of 192 shader processors.
Source : http://www.tgdaily.com/content/view/37554/135/

Nakai
2008-05-21, 10:51:37
2GHz Speichertakt dürften doch auch in gewissen Ansprüchen an das PCB resultieren.

Mhh, darin sehe ich kein Problem.

The GPU will have 15 processing units (240 shader processors) available on the GTX280, while the GTX260 will come with 12 units for a grand total of 192 shader processors.

Wenn man tatsächlich alles so belassen hat. Es sollten doch 10 24er Blöcke sein.

Goil, Nagus und Tarkin fast wie früher in einem grünen Thread

Da gibts nichts schön zu reden, das ist einfach jämmerlich von NV...
Mit Marktmacht versuchen einen Standart zurückzuhalten, das erinnert mich an nem Monopol...


mfg Nakai

Gast
2008-05-21, 10:54:11
So? Wer sagt das?

Exe renaming... Yeah right. Verzichten wir auf Shader-Optimierungen und Bug-Workarounds des Treibers und wenden wir zudem Optimierungen an, die eigentlich für ein anderen Spiel gedacht waren und sonst was für Effekte haben können - im besten Falle keine.

Es gibt kaum etwas dümmeres als sich auf exe Renaming verlassen zu müssen.

Das sagt die Unreal Engine 3!!!!

Allgemein ists aber egal, bei erscheinen des Spiels konnte weder ATI noch NVidia Kantenglättung in UE3 spielen, also kann man das Thema bei Seite lassen.


Im übrigen habe ich keine Ahnung wie das im Halbleiter Berreich ausschaut mit der Fertigung, aber im Metall Berreich sind große gefräste Bauteile um einiges und vor allem unverhaltnissmässig teurer als etwas kleinere. Ein Rohling für ein eigentlich 300€ Bauteil kann auch mal gut und gerne 5.000 - 10.000€ kosten. Da man ja in diesem Moment die Fräse aus der Produktion nimmt. Man kann auch etxtra eine Fräse dafür hinstellen...schön nur die läuft so wenig das der Stundensatz dann sehr hochist. Das ist in jedem anderen Berreich den ich bisher gesehen habe immer das selbe. Von daher kann man schon davon ausgehen das GT200 in etwa das 4 fache kostet wie ein RV770.

dargo
2008-05-21, 10:58:45
Von daher kann man schon davon ausgehen das GT200 in etwa das 4 fache kostet wie ein RV770.
Na klar, die GTX280 wird also ~1400$ kosten. :| ;D

deekey777
2008-05-21, 11:01:13
Das Bild bei AC ist nicht wesentlich schöner. Es werden nur sehr wenige Kanten ohne 10.1 nicht AA-behandelt, sonst ist doch alles gleich.

Da finde ich es viel schlimmer, dass ATI z.B. bei Bioshock/DX10 und vielen anderen modernen Spielen GAR kein AA ermöglicht. Das muss man auch immer dagegenhalten!
Zwar weiß nicht, was heute gilt, aber ich verweise wieder auf den iXBT-Artikel, in dem die Kantenglättung in UE3-Spielen unterdie Luppe genommen wurde: http://www.ixbt.com/video/itogi-video/test/0803_ue3aa.shtml
Deren Fazit war, dass es zwar lobenswert ist, dass NVs Programmierer Kantenglättung in UE3-Spielen anbieten, aber was sie kritisiert haben, ist, dass diese Unterstützung überhastig gemacht wurde, sprich ohne "Rücksicht auf Verluste" wie im Test moniert das fehlende Transparenz-MSAA und fehlerhaftes Transparenz-SSAA; dafür ist die Unterstützung deutlich breiter als bei der Konkurrenz. Bei ATi ließ man sich (zu) viel Zeit, dafür wurde mehr Wert auf die Sauberkeit geachtet (einwandfreies AAA).

Und eins kann ich mir nicht verkneifen: Ich kann GoW mit Kantenglättung spielen und zwar auf einer X1950GT.

Momentan sieht es eher nach 10 Clustern mit je 8 TMUs und 24 ALUs (3*Vec8) aus, was dann darin resultiert:
GeForce GTX 280 has 240 SP, 80 TMUs, 1GB GDDR3 512bit, 32 ROPs.
GeForce GTX 260 has 192 SP, 64 TMUs, 896MB GDDR3 448bit, 28 ROPs.


Vec24, nicht 3*Vec8.

Nakai
2008-05-21, 11:08:53
Vec24, nicht 3*Vec8.

Naja darüber kann man sich streiten. Selbst der G80 hatte schon 2*Vec8.


mfg Nakai

GeneralHanno
2008-05-21, 11:09:25
die kosten einer gpu lassen sich überschlagsmäßig relativ einfach berechnen. die unternehmen kaufen einen 300mm wafer (kreisdurchmesser), der mit belichtung grob 10000$ kostet. man berechnet wie viele chips auf einen wafer passen (man kennt ja die die-size und die waferfläche, verschnitt wird vernachlässigt) und dann hat man die kosten pro chip ;)

es gibt natürlich noch etliche andere faktoren: 55nm ist teurer als 65nm, verschnitt, yield (taktraten, teildeaktivierung), packing und die entwicklungskosten ;) usw.

demnach komme ich auf 81$ je GT200 und 36$ je RV770. wie gesagt die oben genannten faktoren sind NICHT mit eingerechnet. wenn anarchX nun sagt ein GT200 kostet 100$, liegt das gar nicht mal soo falsch ...

Gast
2008-05-21, 11:11:26
Na klar, die GTX280 wird also ~1400$ kosten. :| ;D

Schade das du nicht lesen kannst!!!!

Es geht bei meinem Text um Produktionskosten für den Chip. Das hat nichtmal Ansatzweise nachher etwas damit am Hut was das Endprodukt nachher kostet, zumal durch hohe Auslastung von einem Werk du Produktionskosten nach und nach fallen, was durch hohe Stückzahl zu stande kommt. Ein wiederholbare Ergebniss an einem komplexen Produkt lässt sich jeder Hersteller extra bezahlen.

Lass den RV770 mal 15$ kosten, das währen dann 60$ für den GT200. Das ganze muss dann noch selektiert/geprüft werden und verbaut werden.

Grestorn
2008-05-21, 11:12:31
Das sagt die Unreal Engine 3!!!!

Allgemein ists aber egal, bei erscheinen des Spiels konnte weder ATI noch NVidia Kantenglättung in UE3 spielen, also kann man das Thema bei Seite lassen.

Wenn wirklich jedes UE3 Engine Spiel auf diese Weise zu AA überredet werden könnte (was ich nicht glaube), dann kann man bei nVidia in Zukunft einfach die entsprechenden AA-Kompatibilitätsbits auf jedes neue Spiel übertragen. Das kann jeder Anwender auch selbst machen. Ohne Exe-Renaming.

reunion
2008-05-21, 11:14:15
die kosten einer gpu lassen sich überschlagsmäßig relativ einfach berechnen. die unternehmen kaufen einen 300mm wafer (kreisdurchmesser), der mit belichtung grob 10000$ kostet. man berechnet wie viele chips auf einen wafer passen (man kennt ja die die-size und die waferfläche, verschnitt wird vernachlässigt) und dann hat man die kosten pro chip ;)

es gibt natürlich noch etliche andere faktoren: 55nm ist teurer als 65nm, verschnitt, yield (taktraten, teildeaktivierung), packing und die entwicklungskosten ;) usw.

demnach komme ich auf 81$ je GT200 und 36$ je RV770. wie gesagt die oben genannten faktoren sind NICHT mit eingerechnet. wenn anarchX nun sagt ein GT200 kostet 100$, liegt das gar nicht mal soo falsch ...

Gerade der Verschnitt und die Yieldraten haben aber eine verdammt großen Einfluss auf die Kosten/Die. Bei einem derart großen Die wie bei GT200 ist der Verschnitt am Rand alles andere als klein, die Yieldraten sinken entsprechend. Wenn es nV auch nur schafft 50% der Dies fehlerfrei zu bekommen, wäre das verdammt gut IMO. Die Yieldraten bei G80 wurden zu beginn mit 30-40% angegeben. Einen Großteil der anderen Dies kann man dann natürlich noch immer als abgespeckte Variante verkaufen.

dargo
2008-05-21, 11:16:19
die kosten einer gpu lassen sich überschlagsmäßig relativ einfach berechnen. die unternehmen kaufen einen 300mm wafer (kreisdurchmesser), der mit belichtung grob 10000$ kostet. man berechnet wie viele chips auf einen wafer passen (man kennt ja die die-size und die waferfläche, verschnitt wird vernachlässigt) und dann hat man die kosten pro chip ;)

es gibt natürlich noch etliche andere faktoren: 55nm ist teurer als 65nm, verschnitt, yield (taktraten, teildeaktivierung), packing und die entwicklungskosten ;) usw.

demnach komme ich auf 81$ je GT200 und 36$ je RV770. wie gesagt die oben genannten faktoren sind NICHT mit eingerechnet. wenn anarchX nun sagt ein GT200 kostet 100$, liegt das gar nicht mal soo falsch ...
Ich frage hier nochmal wo diese 10000$ für den 300mm Wafer her kommen? Ich kann immer noch nicht glauben, dass sich an diesem Preis im Laufe der Zeit nichts ändert. Und selbst wenn, 80-100$ je GPU sind noch voll im Rahmen für den anvisierten Endpreis. Für die Europäer erst recht. ;)

Gast
2008-05-21, 11:17:22
Die Größe des GT200 ergibt sich durch eine Kantenlänge von jeweils 2,4 cm. Auf einen 300-mm-Wafer sollten dabei nur etwa 100 GPUs passen, was die Produktion dementsprechend kostenintensiver macht. Die Produktionskosten der GPU alleine soll pro Chip deshalb zwischen 100 und 110 US-Dollar liegen.

ich fürchte da kommt man mit 60$ pro Chip nicht so ganz hin ;)

reunion
2008-05-21, 11:21:14
Ich frage hier nochmal wo diese 10000$ für den 300mm Wafer her kommen? Ich kann immer noch nicht glauben, dass sich an diesem Preis im Laufe der Zeit nichts ändert. Und selbst wenn, 80-100$ je GPU sind noch voll im Rahmen für den anvisierten Endpreis. Für die Europäer erst recht. ;)

Das waren die Kosten einer G80-Wafer laut Arnu/B3D AFAIK. Dass die Waferkosten sinken wage ich zu bezweifeln. Durch die immer aufwändigere Entwicklung neuer Fertigungsprozesse und die immer komplexeren Maschinen würde es mich im Gegenteil gar nicht wundern, wenn die Kosten für eine Wafer ansteigen.

dargo
2008-05-21, 11:23:25
Es geht bei meinem Text um Produktionskosten für den Chip.
Sorry, dann habe ich dich falsch verstanden. Was ist aber daran so schlimm wenn das Endprodukt "nur" doppelt so viel kostet, aber mindestens doppelt so schnell sein wird? Da ist es mir persönlich als Kunde schnuppe was die GPU im Endeffekt kostet.

Anarchy-HWLUXX
2008-05-21, 11:26:06
Wo mer gerade bei yield sind ... TGDaily schreibt ja was von 15 clustern - klingt irgendwie komig da normalerweise ungrade zahlen icht wirklich ins konzept passen.

Wenn aber der 16. Cluster generell geopfert wird um den yield für die 280er nach oben zu Treiben klingt das scho sinnvoller. Und die GPUs mit vollen 16 Clustern könnt man dann später als "Ultra" verkaufen ...

Gast
2008-05-21, 11:27:26
Das waren die Kosten einer G80-Wafer laut Arnu/B3D AFAIK. Dass die Waferkosten sinken wage ich zu bezweifeln. Durch die immer aufwändigere Entwicklung neuer Fertigungsprozesse und die immer komplexeren Maschinen würde es mich im Gegenteil gar nicht wunder, wenn die Kosten für eine Wafer ansteigen.


Hängt zu stark von der Stückzahl ab die man in Auftrag gibt. Der Preis setzt sich in aller erste Linie mal durch die verwendete Fläche, Machinenpark und der Ausbeute fest. Bei einer Ausbeute von gerade mal 40% wird der GT200 auf jeden Fall extrem teuer werden. Ausser der Fertiger sagt ihr bezahlt pro Wafer nur X und was raus kommt ist Glückssache, zumindesten beim Anlaufen für die Massenproduktion.

reunion
2008-05-21, 11:27:29
Sorry, dann habe ich dich falsch verstanden. Was ist aber daran so schlimm wenn das Endprodukt "nur" doppelt so viel kostet, aber mindestens doppelt so schnell sein wird? Da ist es mir persönlich als Kunde schnuppe was die GPU im Endeffekt kostet.

In einer funktionierenden Marktwirtschaft werden die Herstellungskosten in der Regel auch an den Kunden weitergegeben.

Wo mer gerade bei yield sind ... TGDaily schreibt ja was von 15 clustern - klingt irgendwie komig da normalerweise ungrade zahlen icht wirklich ins konzept passen.

Wenn aber der 16. Cluster generell geopfert wird um den yield für die 280er nach oben zu Treiben klingt das scho sinnvoller. Und die GPUs mit vollen 16 Clustern könnt man dann später als "Ultra" verkaufen ...

Es sind so gut wie sicher 10 Cluster mit je 24 ALUs.

Gast
2008-05-21, 11:29:50
Sorry, dann habe ich dich falsch verstanden. Was ist aber daran so schlimm wenn das Endprodukt "nur" doppelt so viel kostet, aber mindestens doppelt so schnell sein wird? Da ist es mir persönlich als Kunde schnuppe was die GPU im Endeffekt kostet.


Als Kunde ja, aber hier geht es doch auch darum was am ende für ATI und NV übrig bleibt.

Odal
2008-05-21, 11:43:01
Schau Dir Assains Creed an, da sieht man, dass DX10.1 Leistung ist.

einmal die "verschenkte" mehrleistung, aber da kann man argumentieren das man das durch hohe rohleistung kompensieren kann
und dann vor allem

ihr seit gut....DX10.1 macht das AA Bild wesentlich schöner (siehe AC) aber nur weil euer heissgeliebter GT200 diese feature nicht unterstützt ist es unnötig?
Wenn nV sagt, es ist schlecht, dann hat es auch gefälligst schlecht zu sein! Wie die Lemminge seit ihr! *kopfschüttel*

genau was bringt einem die tollste neuste engine mit super effekten wenn nichtmal essenzielle dinge wie anti aliasing so gut wie möglich funktionieren

klar kann man argumentieren man könnte doch die holzhammer methode einsetzen und SSAA verwenden aber das läuft ja absolut ineffizient

irgendwie erinnert mich das an die sache mit HDRR auf dem NV40 und G70/71 sowas ist nix halbes und nix ganzes wenn man dafür auf grundlegende bildverbesserungsmöglichkeiten verzichtet

und das einige leute das auch noch versuchen zu rechtfertigen ist echt ein witz

hier gehts nicht um ein paar simple effekte die fehlen sondern hier gehts pauschal um die möglichkeit AA in DX10 Engines einzusetzen

auf AA verzichte ich eigentlich seit der GF256 nicht mehr
und jedesmal wo ein spiel da rumzickt wie es bei der UT3 engine erst der fall war...ärgert das mich

Leider wird AC eine der wenigen Ausnahmen bleiben, da DX10.1 einfach noch zu wenig Marktanteil hat. Und daran wird sich so schnell auch nichts ändern. Es geht hier nicht um gut und böse, sondern ob das Fehlen von DX10.1 verschmerzbar ist oder nicht. Angesichts der zu erwartenden Rohleistung der 280 ist das wohl eher nebensächlich.

Und ja, ATI hatte vor der 88er immer die Nase vorn in Sachen Bildqualität, aber das hat sich geändert. Und ob das bei der 280er genauso sein wird, muss sich erst noch zeigen.


Ja das AC ne Ausnahme bildet liegt eben daran das NVidia sich sträubt da was zu supporten. Das könnte alles ganz anders laufen, aber die Leute wollen einem das ja noch als Pro NVidia verkaufen so verblendet sind einige. Kein wunder das sie sich das leisten können.

Das die 88er in Sachen BQ die Nase vorn haben liegt eben an der TMU schwäche des RV670 (leider). Ich weiß nicht was die nächst mögliche Anzahl an TMUs für den RV670 wäre ohne die Architektur Effizienz in den Keller zu ziehen aber hier hätte ATI wirklich noch 100Mio Transistoren in mehr TMUs investieren können um a) nicht so die BQ "optimieren" zu müssen und b) das Ding deutlich näher an die G92 Topmodelle zu bringen


Das Ding wird locker doppelt so schnell wie eine 8800GTX. Bei gleichem Featureset und mehr als doppelter Transistorenanzahl kann man das allerdings auch erwarten.

Bei gleichem Takt sicherlich nicht...wird ja auch kein verdoppelter G80 von daher utopisch....

die kosten einer gpu lassen sich überschlagsmäßig relativ einfach berechnen. die unternehmen kaufen einen 300mm wafer (kreisdurchmesser), der mit belichtung grob 10000$ kostet. man berechnet wie viele chips auf einen wafer passen (man kennt ja die die-size und die waferfläche, verschnitt wird vernachlässigt) und dann hat man die kosten pro chip ;)

es gibt natürlich noch etliche andere faktoren: 55nm ist teurer als 65nm, verschnitt, yield (taktraten, teildeaktivierung), packing und die entwicklungskosten ;) usw.

demnach komme ich auf 81$ je GT200 und 36$ je RV770. wie gesagt die oben genannten faktoren sind NICHT mit eingerechnet. wenn anarchX nun sagt ein GT200 kostet 100$, liegt das gar nicht mal soo falsch ...

bei nem grösserem Chip ist der Ausschuß deutlich höher und nicht alles lässt sich mit deaktivierten Chipteilen noch im Midrange verscherbeln...

ausserdem dürfte das PCB bei einem 512Bit Speicherinterface nochmal mehr kosten als das PCB einer Dual 256Bit Karte...je nachdem wie clever man die zwei GPUs und den angebundenen Speicher anordnen kann

deekey777
2008-05-21, 11:44:49
Naja darüber kann man sich streiten. Selbst der G80 hatte schon 2*Vec8.


mfg Nakai
Der G80 hat 16 Kerne, aber sie sind zuweit miteinander logisch verknüpft. Logisch? :D

PS: Endlich habe ich die Bezeichnung des R600: Es ist ein Vier-Kerner mit fünf parallelen 16-Way-SIMDs.

Odal
2008-05-21, 11:45:25
Das waren die Kosten einer G80-Wafer laut Arnu/B3D AFAIK. Dass die Waferkosten sinken wage ich zu bezweifeln. Durch die immer aufwändigere Entwicklung neuer Fertigungsprozesse und die immer komplexeren Maschinen würde es mich im Gegenteil gar nicht wundern, wenn die Kosten für eine Wafer ansteigen.

sehe ich ähnlich für einen kleineren fertigungsprozeß denke ich, braucht man reineres silizium da dürfte die beschaffung anständigem Rohmaterials schon teurer werden

dargo
2008-05-21, 11:46:31
Bei gleichem Takt sicherlich nicht...wird ja auch kein verdoppelter G80 von daher utopisch....

Was haben die GT200 SPs nochmal mit den G80 SPs gemeinsam?

Nakai
2008-05-21, 11:47:50
Der G80 hat 16 Kerne, aber sie sind zuweit miteinander logisch verknüpft. Logisch? :D

Natürlich, aber es sind theoretisch 16 Vec8-SIMDs. Es werden immer 2 Vec8 über MIMD verbunden. Der GT200 sollte daher immer 3 Vec8 über MIMD pro Cluster kombinieren.
Alles andere wäre ein Rückschritt.


mfg Nakai

dargo
2008-05-21, 11:48:27
sehe ich ähnlich für einen kleineren fertigungsprozeß denke ich, braucht man reineres silizium da dürfte die beschaffung anständigem Rohmaterials schon teurer werden
Das würde wiederum bedeuten, dass ein Wafer für ATI teurer ist.

reunion
2008-05-21, 11:53:21
Das würde wiederum bedeuten, dass ein Wafer für ATI teurer ist.

Nein, 55nm ist ein optischer Shrink, die verwendeten Materialen sind identisch. Das TSMC für eine 55nm Wafer trotzdem vielleicht ein bisschen mehr verlangen wird kann schon sein, aber sicherlich nichts wesentliches.

Odal
2008-05-21, 11:55:27
Das würde wiederum bedeuten, dass ein Wafer für ATI teurer ist.

ich denke schon das das rohmaterial in anbetracht des feineren fertigungsprozesses und den höheren taktraten (wobei die ja von architektur, chipgröße und spannung abhängig sind) eine höhere qualität aufweisen muss

das hiesse aber nicht zwangsläufig das für die fertigung des 65nm prozesses wirklich billigeres silizium verwendet wird

ausserdem bekommt man deutlich mehr chips aus ner scheibe bei ATI (kleinerer prozess, geringerer transistor count, hohe packungsdichte)

dargo
2008-05-21, 11:57:44
ausserdem bekommt man deutlich mehr chips aus ner scheibe bei ATI (kleinerer prozess, geringerer transistor count, hohe packungsdichte)
Logisch, der Konkurrent zum RV770 heißt aber nicht GT200 sondern G92b der ebenfalls in 55nm kommt.

Odal
2008-05-21, 12:14:07
Logisch, der Konkurrent zum RV770 heißt aber nicht GT200 sondern G92b der ebenfalls in 55nm kommt.

ich sprach jetzt auch von der derzeitigen situation

und ich halte einen G92b als DIE Shrink mit eventuell moderater Takterhöhung nicht für in der Lage einem RV770 (laut den bekannten daten TMU verdopplung, fast 2GB Speichertakt nochmals ne schippe mehr shader + extra taktdomain, eventuell verbesserte/gefixte ROPs etc.) die stirn zu bieten....

eventuell kommt er in die nähe der HD4850 aber nicht der HD4870

=Floi=
2008-05-21, 12:19:51
das soll der G92b doch garnicht

der g200 wird um die 500€ kosten und da ist der 575mm² chip mehr als kostendeckend...
Ihr sucht probleme wo keine sind. :rolleyes:
HD4870 wird zwischen 200-300€ kosten und
GT280 wird zwischen 500-650€ kosten

dargo
2008-05-21, 12:26:30
das soll der G92b doch garnicht

der g200 wird um die 500€ kosten und da ist der 575mm² chip mehr als kostendeckend...
Ihr sucht probleme wo keine sind. :rolleyes:
HD4870 wird zwischen 200-300€ kosten und
GT280 wird zwischen 500-650€ kosten
Eben, ich verstehe die Vergleiche zwischen RV770 und GT200 eh nicht. Mit dem RV770 konkurriert ausschließlich der G92b, das sollte wohl mittlerweile jedem bekannt sein. Und selbst wenn der RV770XT etwas schneller als der G92b sein sollte ist das kein Weltuntergang für NV. Schon gar nicht in der momentanen Marktposition.
Ich könnte mir sogar vorstellen, dass selbst wenn der RV770 etwas schneller ist sich der G92b besser verkaufen wird. Image sollte man nicht unterschätzen. Jeder "Noob" wird sich denken - wenn schon die letzte Generation überlegen war dann wird es auch diese sein. Und da AMD/ATI im High-End wieder nichts zu bieten hat...

GeneralHanno
2008-05-21, 12:44:35
der G92b hat vor allem 2 aufgaben:
1. kostenreduktion (ca. 30$ sind angepeilt)
2. die 8800GT durch ein GF9 produkt ersetzen

ich denke nvidia wird die 9800GT (mit G92b, mit 7cluster@600mhz+) zu höheren preisen als die 8800GT(S) positionieren (ein GF9-aufschlag sozusagen) und natürlich günstiger als die 9800GTX. ergo wird der laderpreis sich bei 150-200€ einpendeln. dank GDDR3+singelslotkühler wird die 9800GT-G92b vermutlich günstiger sein als die 4800 ...

fürs image wird sowieso der GT200 sorgen ;)

HOT
2008-05-21, 12:44:42
Oh nein, der G(T)200 hat wieder so ein Riesen-Die. Er könnte meiner Meinung nach sogar die 500mm² sprengen (man beachte die Rückseite des PCB):

http://ht4u.net/news/1927_weitere_geruechte_und_bilder_zur_geforce_gtx_280_und_260/
http://forums.vr-zone.com/showthread.php?t=278484

Was für ein riesen Brummer. Da dürfte der Stromverbrauch auch in G80 bzw. R600 Regionen schießen, vieleicht sogar drüber und das ganz ohne SLI. Da dürfte der RV770 erst als CF Variante was gegen ausrichten - aber der Sieg dürfte teuer erkauft sein. Ich bin mal gespannt, ob er wirklich DX10.1 beherrscht. Bisher siehts ja leider eher nicht so aus. "Full DX10" heißt für micht, dass 10.1 nicht dabei ist.

Adam D.
2008-05-21, 12:46:41
Äh, das ist doch jetzt eigentlich bereits seit ... Monaten klar?

GeneralHanno
2008-05-21, 12:46:42
juhe, der G(T)200 ist ein riesiger singelchip und nicht so ein multi-GPU-kack. und garantiert wird er ein wesentlich bessere performence/watt haben als der R600, 9800GX2 ... :rolleyes:

Die gelbe Eule
2008-05-21, 12:49:23
Es wird aber wohl der letzte seiner Art sein, da die nächsten Multi GPU sind. Größer als jetzt kann der Die ja nicht werden ;)

AnarchX
2008-05-21, 12:51:37
Größer als jetzt kann der Die ja nicht werden ;)
Und ob, vorallem da in Zukunft 450mm Wafer eingeführt werden. ;)

mictasm
2008-05-21, 12:56:40
Headspreader!=Die

GeneralHanno
2008-05-21, 12:57:26
wobei das bei TSMC noch mind. bis 2012 oder noch länger dauern wird ...

Coda
2008-05-21, 12:59:03
Naja darüber kann man sich streiten. Selbst der G80 hatte schon 2*Vec8.
Spielt allerdings nicht mal wenn man mit CUDA drauf geht irgend eine Rolle. Das ist von außen völlig egal.

reunion
2008-05-21, 12:59:05
Oh nein, der G(T)200 hat wieder so ein Riesen-Die. Er könnte meiner Meinung nach sogar die 500mm² sprengen (man beachte die Rückseite des PCB):

http://ht4u.net/news/1927_weitere_geruechte_und_bilder_zur_geforce_gtx_280_und_260/
http://forums.vr-zone.com/showthread.php?t=278484

Was für ein riesen Brummer. Da dürfte der Stromverbrauch auch in G80 bzw. R600 Regionen schießen, vieleicht sogar drüber und das ganz ohne SLI. Da dürfte der RV770 erst als CF Variante was gegen ausrichten - aber der Sieg dürfte teuer erkauft sein. Ich bin mal gespannt, ob er wirklich DX10.1 beherrscht. Bisher siehts ja leider eher nicht so aus. "Full DX10" heißt für micht, dass 10.1 nicht dabei ist.

Das sollte schon klar sein. 575mm² werden gemunkelt bei 250W TDP, und kein D3D10.1 richtig.

Und ob, vorallem da in Zukunft 450mm Wafer eingeführt werden. ;)

Ab 2012 will Intel 450mm Wafer einführen. Bei TSMC kannst du da mindestens noch ein/zwei Jahre zusätzlich rechnen, ist also doch noch ein Stück hin.

Die gelbe Eule
2008-05-21, 13:00:14
Und ob, vorallem da in Zukunft 450mm Wafer eingeführt werden. ;)

Wo trotzdem die Chips nicht größer werden müssen ;)

RoNsOn Xs
2008-05-21, 13:02:08
Es wird aber wohl der letzte seiner Art sein, da die nächsten Multi GPU sind. Größer als jetzt kann der Die ja nicht werden ;)


warum nicht?

reunion
2008-05-21, 13:02:12
Wo trotzdem die Chips nicht größer werden müssen ;)

Der Verschnitt am Rand sinkt aber deutlich, womit größere Dice wieder rentabler werden.

Coda
2008-05-21, 13:02:34
Das ist aber nicht das Problem bei großen Dies.

reunion
2008-05-21, 13:05:34
Das ist aber nicht das Problem bei großen Dies.

Es ist aber ein Problem. Bei GT200 kann man einen nicht ganz kleinen Teil der Wafer schon von vorherein vergessen.

Coda
2008-05-21, 13:07:05
Die Yields sind trotzdem das weitaus größere Problem. Da kannst wohl eh die Hälfte von wegschmeißen oder auf ner GTS verbauen.

deekey777
2008-05-21, 13:14:11
Ich glaube schon, dass NVs Leute clevere Köpfchen sind und das Design eine Redunanz aufweist.
Aber bei der Größe könnte die Lieferbarkeit schon ein Kriterium sein, das nicht so einfach zu erfüllen ist (wieviele funktionierende Dies (egal ob 280 oder 260) können von einem Wafer runterhüpfen?).

pest
2008-05-21, 13:15:29
werden die Chips nicht eh mit 1Cluster mehr produziert

MEDIC-on-DUTY
2008-05-21, 13:20:09
By my calculations, the actual number would be closer to 94 assuming a perfect yield, so the real figure would be even lower.

http://blogs.zdnet.com/processors/?p=174

seahawk
2008-05-21, 13:21:20
Ich glaube schon, dass NVs Leute clevere Köpfchen sind und das Design eine Redunanz aufweist.
Aber bei der Größe könnte die Lieferbarkeit schon ein Kriterium sein, das nicht so einfach zu erfüllen ist (wieviele funktionierende Dies (egal ob 280 oder 260) können von einem Wafer runterhüpfen?).

Die Nachfrage dürfte bei dem Preis sowieso arg beschränkt sein. Sehen wir erstmal wie das Ding sich gegen 4870X2 schägt, vor allem und gerade auch preislich.

Die gelbe Eule
2008-05-21, 13:24:02
warum nicht?

Es gibt Gerüchte das man auch auf Multi GPUs wie ATi setzt, also zwei separate Dies auf einem PCB. So könnte man theoretisch auch eine GX4 bauen ;)

Die Nachfrage dürfte bei dem Preis sowieso arg beschränkt sein. Sehen wir erstmal wie das Ding sich gegen 4870X2 schägt, vor allem und gerade auch preislich.

NV hat den Vorteil zuerst am Markt zu sein, der Preis ist also später wieder anpassbarer. Very High End wird also erst über NV bedient.

MEDIC-on-DUTY
2008-05-21, 13:28:14
Es gibt Gerüchte das man auch auf Multi GPUs wie ATi setzt, also zwei separate Dies auf einem PCB. So könnte man theoretisch auch eine GX4 bauen ;)

Bitte nicht! Dieses MultiGPU-Geschmarre hat noch zu viele Kinderkrankheiten und es fehlt an entsprechender Unterstützung.

Adam D.
2008-05-21, 13:30:12
Bitte nicht! Dieses MultiGPU-Geschmarre hat noch zu viele Kinderkrankheiten und es fehlt an entsprechender Unterstützung.
Wir reden von der Zukunft. Sollte man wirklich 2011 und später komplett auf Multi-GPU-Lösungen setzen, dann werden diese "Kinderkrankheiten" mit Sicherheit eliminiert sein.

Die gelbe Eule
2008-05-21, 13:34:45
Es gab doch immerhin schon 6600GT, 6800Ultra, 7600GT und 7800GT mit Dual GPUs, also etwas Erfahrung bringt man schon mit. Und vor Ende 2009 kommt sowas eh nicht.

MEDIC-on-DUTY
2008-05-21, 13:37:13
Wir reden von der Zukunft. Sollte man wirklich 2011 und später komplett auf Multi-GPU-Lösungen setzen, dann werden diese "Kinderkrankheiten" mit Sicherheit eliminiert sein.

Dann vielleicht sogar auf einem Sockel. Zunächst einmal müssen die neuen Tools zur Physikberechnung zeigen was sie können und in wie weit sie zur Entlastung des Systems beitragen.

Odal
2008-05-21, 13:38:39
Bitte nicht! Dieses MultiGPU-Geschmarre hat noch zu viele Kinderkrankheiten und es fehlt an entsprechender Unterstützung.

naja so ähnlich dachte man bei multi core cpus ja auch erst....

mittlerweile hat sich aber zumindest dual core bewährt...

klar sind simple crossfire und sli verbunde auf einem einzelnen PCB noch nicht letzter weisheit schluß
aber irgendwann kommt man mit verkleinerung des prozesses und erhöhung des transistorcounts in form einer single core gpu nicht mehr weiter

Die gelbe Eule
2008-05-21, 13:39:03
Das weiß man doch bereits, PhysX ist ja nichts neues. Ob es nun per Hardwareeinheiten oder per Software gelöst wird, darum sollten wir uns nicht kümmern, es funktioniert.

deekey777
2008-05-21, 13:39:49
Es gibt Gerüchte das man auch auf Multi GPUs wie ATi setzt, also zwei separate Dies auf einem PCB. So könnte man theoretisch auch eine GX4 bauen ;)

...
Wie jetzt? Werden die Dice (und nicht Dies) direkt auf das PCB gelötet?
Du meinst auf einem Package. Und das strebt man an.
Ob jetzt zwei GPUs auf einem PCB sind oder auf zwei, spielt keine Rolle, denn es sind zwei Grafikkarten im CF/SLI-Verbund.

HOT
2008-05-21, 13:42:39
Bitte nicht! Dieses MultiGPU-Geschmarre hat noch zu viele Kinderkrankheiten und es fehlt an entsprechender Unterstützung.
Wenn das Microrucklerproblem erledigt ist, gibts eigentlich keine Nachteile mehr für Multi-GPU-Lösungen. Der Markt muss ja jetzt schon damit rechnen, dass in Zukunft mehr solcherlei Konstruktionen kaufbar sein werden, entsprechend werden die Spiele auch angepasst werden müssen. Von daher ist der Ansatz eigentlich ebenbürtig.

Die gelbe Eule
2008-05-21, 13:48:44
Wie jetzt? Werden die Dice (und nicht Dies) direkt auf das PCB gelötet?
Du meinst auf einem Package. Und das strebt man an.
Ob jetzt zwei GPUs auf einem PCB sind oder auf zwei, spielt keine Rolle, denn es sind zwei Grafikkarten im CF/SLI-Verbund.

Sind die Dice nur gesockelt? Haarspalterei. Ob nun Package oder PCB, dickes wayne. Links ne GPU, rechts ne GPU, jeder weiß was damit gemeint ist.

Ailuros
2008-05-21, 14:07:07
Wie schon erwaehnt GT200 hat zwei fuenfen was die Groesse betrifft; falls es jetzt eine 6 am Ende sein sollte entschuldigt aber so genau messen kann man Bilder wirklich nicht abmessen ;)

Ich hab Euer doppel-dice Zeug nicht genau verfolgt, aber GT200 ist ein die. Es gibt irgendwelchen Bloedsinn ueber angebliche 16 cluster der momentan herumschwirrt. Es bleibt nach wie vor bei [10*(8*3)].

Wir reden von der Zukunft. Sollte man wirklich 2011 und später komplett auf Multi-GPU-Lösungen setzen, dann werden diese "Kinderkrankheiten" mit Sicherheit eliminiert sein.

Wenn dann multiple cores auf einem die; es handelt sich in solch einem Fall nicht ueber multi-chip/-GPU oder was auch immer.

***edit: uebrigens koennen wir bitte den Vec8/Vec16/Vec24 Unsinn sparen? Es sind keine vector Einheiten und ja dekkey hat den Nagel auf den Kopf getroffen. Es sind im relativen Sinn 16 Prozessoren auf G80, 4 auf R6x0/RV6x0 und 24 auf GT200.

Hvoralek
2008-05-21, 14:22:26
aber irgendwann kommt man mit verkleinerung des prozesses und erhöhung des transistorcounts in form einer single core gpu nicht mehr weiterWarum nicht? Solange sich die Fertigungsprozesse weiterentwickeln, sehe ich bei GPUs kein Problem, aus mehr Transistoren auch gut mehr Leistung zu holen.

Wenn das Microrucklerproblem erledigt ist, gibts eigentlich keine Nachteile mehr für Multi-GPU-Lösungen.Es gibt auch immer wieder mal Probleme mit Kompatibilität/ Skalierung (wäre mal interessant, wie es damit abseits gängiger Benchmarls aussieht). Bei AFR kommt noch ein zusätzliches Frame Eingabeverzögerung für jede weitere GPU hinzu. Zumindest das Problem mit der Speicherredundanz soll AMD ja mit R8xx gelöst haben.

Bei Deinem Satz muss man übrigens das "wenn" betonen, und mMn auch ergänzen: "..., ohne die Skalierung deutlich zu verschlechtern".

Odal
2008-05-21, 14:42:33
Warum nicht? Solange sich die Fertigungsprozesse weiterentwickeln, sehe ich bei GPUs kein Problem, aus mehr Transistoren auch gut mehr Leistung zu holen.

ich weiß nicht was du mit weiterentwicklung meinst aber unendlich verkleinern kann man die fertigungsprozesse nicht und mittlerweile machen wir keine großen sprünge mehr...

65nm->55nm->45nm

klar kann man aus mehr transistoren mehr leistung herausholen nur skalieren die kosten und der ausschuss nicht nur linear mit

Coda
2008-05-21, 14:43:48
Dann vielleicht sogar auf einem Sockel.
Ganz sicher nicht.

Schlammsau
2008-05-21, 14:47:09
Es gibt Gerüchte das man auch auf Multi GPUs wie ATi setzt, also zwei separate Dies auf einem PCB. So könnte man theoretisch auch eine GX4 bauen ;)



NV hat den Vorteil zuerst am Markt zu sein, der Preis ist also später wieder anpassbarer. Very High End wird also erst über NV bedient.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/april/nvidia_multi-gpu_trends/

Gast
2008-05-21, 14:47:14
Geforce GTX 260: 192 SPs, 64 TMUs und 448-Bit?

Soweit kann ich dieser Theorie gut folgen:

http://www.hardware-infos.com/news.php?news=2078

Snoopy69
2008-05-21, 14:48:41
Hab nur Post #1 gelesen und muss mich schon ärgern!!!
Warum verdammt 65mn? Bekommt NV es nicht gebacken oder eher weil ATI/AMD kein Konkurent ist?
Wird der GT200 ENDLICH ein Stromspar-Feature haben? Werden die Mikroruckler bei SLI andlich mal beseitigt sein oder wird man ewig damit leben müssen? Früher gab es doch sowas auch nicht!? :rolleyes:
Ich wäre gerne bereit min. 1000€ hinzulegen, wenn SLI/CF endlich zu 100% skalieren würde - in JEDER Auflösung! :wink:

Nightspider
2008-05-21, 14:49:41
Ich liebe es,wenn im Speku-Forum Krieg ausbricht... :biggrin:


Viel interessanter wäre wie eine Tri-GT200-Bombe einschlagen würde...

Ein unaufhaltsamer, alles überrollender, aus 3 Tri(!)bwagen bestehender Zug ;D

pwnage auf ganzer Linie... :cool:


Wird zeit für hochauflösendere Bildschirme, ich will ne 3k Auflösung :ucatch:

w0mbat
2008-05-21, 14:52:41
Wieso steht auf dem Die eigentlich G200 und nicht GT200?

GeneralHanno
2008-05-21, 14:52:57
logik-transistoren sind wesentlich schwieriger zu fertigen als *hust* flash-speicher-zellen ;) daher setzt nvidia lieber aus aufgereifte prozesse.

im bereich performence/wat (unter vollast) wird der GT200 wohl recht gut dastehen. der shrink vom RV630 (65nm) auf RV635(55nm) hat übrigens keinen verbrauchvorteil bei Ati gebracht!

unter 2D befürchte ich, dass es weiterhin keinen sparmodus geben wird. die einzige option bleibt dann hybrid-sli (als ein nvidia mainboard mit IGP ...)

mapel110
2008-05-21, 14:53:08
Hab nur Post #1 gelesen und muss mich schon ärgern!!!
Warum verdammt 65mn? Bekommt NV es nicht gebacken oder eher weil ATI/AMD kein Konkurent ist?
Wird der GT200 ENDLICH ein Stromspar-Feature haben? Werden die Mikroruckler bei SLI andlich mal beseitigt sein oder wird man ewig damit leben müssen? Früher gab es doch sowas auch nicht!? :rolleyes:
Ich wäre gerne bereit min. 1000€ hinzulegen, wenn SLI/CF endlich zu 100% skalieren würde - in JEDER Auflösung! :wink:
1. 65nm um auf Nummer sicher zu gehen bei solch einem komplexen Chip mit einem erprobten, ausgereiften Fertigungsprozess.
2. Früher war die Erde eine Scheibe.
3. in JEDER Auflösung? Kann ja wohl nicht dein Ernst sein, es gibt noch sowas wie ein CPU-Limit.

rpm8200@work
2008-05-21, 14:53:40
Bitte seht mal bei leo.org (http://dict.leo.org/ende?lp=ende&lang=de&searchLoc=0&cmpType=relaxed&sectHdr=on&spellToler=on&chinese=both&pinyin=diacritic&search=die&relink=on) nach. 18. Eintrag in diesem Link ist das was interessiert.

Der Roh-Chip wird als "die" bezeichnet.
Plural davon ist dies.

zusätzlicher Hinweis "rarely: dice".

Das bedeutet, dass man diesen Ausdruck so nicht oder nur im Ausnahmefall verwendet. Man verwendet "dice" in der Halbleiterbranche wirklich nicht (arbeite selbst in der Branche), nur in Foren ließt man das immer wieder... und immer wieder werden Leute, die es richtig schreiben fälschlicherweise "verbessert".

Dagegen meint "dice" einen Würfel (pl. ebenfalls dice).

Bitte... hört mit den dice (als Mehrzahl für den die) endlich auf. Ist wirklich falsch.

Richtig ist "dies" (als Plural für den einzelnen die).

MEDIC-on-DUTY
2008-05-21, 14:54:49
Ich liebe es,wenn im Speku-Forum Krieg ausbricht... :biggrin:


Viel interessanter wäre wie eine Tri-GT200-Bombe einschlagen würde...

Ein unaufhaltsamer, alles überrollender, aus 3 Tri(!)bwagen bestehender Zug ;D

pwnage auf ganzer Linie... :cool:


Wird zeit für hochauflösendere Bildschirme, ich will ne 3k Auflösung :ucatch:

Wahnsinnige gibt es immer ;)

Odal
2008-05-21, 14:56:54
Hab nur Post #1 gelesen und muss mich schon ärgern!!!
Warum verdammt 65mn? Bekommt NV es nicht gebacken oder eher weil ATI/AMD kein Konkurent ist?


ein neuer prozeß wird immer erstmal an kleineren chips getestet eben weil er noch unausgereift ist und die ausbeute sowie leckströme noch verbessert werden kann...
und gerade bei so einem riesenchip wie dem GT200 wär es tödlich den gleich in 55nm bringen zu wollen

Gast
2008-05-21, 14:59:40
55nm ist aber kein neuer Prozess.

GeneralHanno
2008-05-21, 15:04:32
für nvidia schon ;)

Ailuros
2008-05-21, 15:07:28
Wieso steht auf dem Die eigentlich G200 und nicht GT200?

Weil es der richtige Codename ist. Wenn Du die Datenbank absuchst hab ich mehr als einmal Daten von alten roadmaps erwaehnt.

Hvoralek
2008-05-21, 15:09:22
ich weiß nicht was du mit weiterentwicklung meinst aber unendlich verkleinern kann man die fertigungsprozesse nicht und mittlerweile machen wir keine großen sprünge mehr...

65nm->55nm->45nmDas Problem physikalischer Grenzen wird sich mittelfristig wohl stellen. Davor stehen Multi- GPU- Konstuktionen aber auch. Die lohnen sich eher bei sehr großen Chips; aber das betrifft so oder so nur den High- End- Bereich, wo man eben große Chips hat (ob mit oder ohne Fertigungsprozesslimit). Wenn keine feineren Fertigungsprozesse mehr möglich sind, wird es eher einen weitgehenden Leistungsstillstand geben als noch weitere Leistungssteigerungen, dann aber mit entsprechenden Preissteigerungen. Auch wenn man nicht unter 1x nm kommt, sind die Leute nicht plötzlich bereit, viel mehr Geld und Strom für ihre Rechner auszugeben.

Dein Problem mit den kleineren Fertigungsschritten bei GPUs sehe ich nicht so recht. Dort werden doch häufiger solche "halben" Prozessschritte gemacht (180 - 150 - 130 - 110 - 90 - 80 - 65 - 55 - 45). Die sind dafür entsprechend schneller. Es gibt immer noch einen vollen Prozessschritt (--> ca. die halbe Fläche für dieselben Schaltungen) etwa alle zwei Jahre und dazwischen eben diese halben.

klar kann man aus mehr transistoren mehr leistung herausholen nur skalieren die kosten und der ausschuss nicht nur linear mitWie gesagt: Bei Chips ab einer gewissen Größe könnte die Fertigung in mehreren Teilchips günstiger sein. Die Frage ist nur, ab wann die Kosten für eine vernünftige Anbindung der Chips untereinander (AFR hältst Du ja offenbar auch nicht für toll) die Ersparnisse an Aussschusschips überwiegen. Das mag im High- End- Bereich mal der Fall sein, aber ich bezweifle, dass sich solche Konstruktionen im Massenmarktbereich um 200€ lohnen würden.

seahawk
2008-05-21, 15:14:41
ein neuer prozeß wird immer erstmal an kleineren chips getestet eben weil er noch unausgereift ist und die ausbeute sowie leckströme noch verbessert werden kann...
und gerade bei so einem riesenchip wie dem GT200 wär es tödlich den gleich in 55nm bringen zu wollen

Das macht NV seit dem man aus NV30 gelernt hat. Tick.Tack

Großer Chip - bekannter Prozess
Refresh - modernerer Prozess

Und Intel macht das schon viel länger.

Neue Architektur - alter Prozess - Refresh (shrink) - neuer Prozess

Gast
2008-05-21, 15:15:44
für nvidia schon ;)

Nein, weder für Nvdia noch sonst irgendwen. 55nm = 65nm mit shrink

Hvoralek
2008-05-21, 15:17:13
Weil es der richtige Codename ist. Wenn Du die Datenbank absuchst hab ich mehr als einmal Daten von alten roadmaps erwaehnt.Also war das "T" wirklich nur eine "Erfindung" von Fuad? :ugly:

AnarchX
2008-05-21, 15:29:24
Also war das "T" wirklich nur eine "Erfindung" von Fuad? :ugly:
Offenbar nicht:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6508629&postcount=161

Snoopy69
2008-05-21, 15:39:06
1. 65nm um auf Nummer sicher zu gehen bei solch einem komplexen Chip mit einem erprobten, ausgereiften Fertigungsprozess.
2. Früher war die Erde eine Scheibe.
3. in JEDER Auflösung? Kann ja wohl nicht dein Ernst sein, es gibt noch sowas wie ein CPU-Limit.
1. sehe ich anders. Bei CPUs geht das auch. Würde für mich heissen, dass NV sich nicht sicher ist. "Sch... auf Stromverbrauch!" :rolleyes:
3. ok, ich meinte es so, dass man auch @ 1280x1024 die FPS verdoppeln könnte. Was ja mom. nicht möglich ist. Ich hab bei der Auflösung eine SLI_Effizienz von 30% ermittelt. D.h. wer in dieser Auflösung spielt, braucht kein SLI/CF. Es müsste doch verdammt noch mal möglich sein die GPUs so zu parallelisieren, dass man zb 100% mehr FPS hat.
Wenn ich von einer alten und einer neuen Single-Karte ausgehe, hab ich in JEDER Auflösung einen nahezu liniearen FPS-Anstieg. Hier wurde es auch mit regelrechten GPU-Clustern und hoher Auflösung erreicht. Aber so viel Ahnung hab ich auch nicht.

Weg von den nichtsnutzigen Benchmark-FPS - hin zu wirklich ECHTEN FPS!!! Wie es früher mal war...


Das macht NV seit dem man aus NV30 gelernt hat. Tick.Tack

Großer Chip - bekannter Prozess
Refresh - modernerer Prozess

Und Intel macht das schon viel länger.

Neue Architektur - alter Prozess - Refresh (shrink) - neuer Prozess
Diesen bekannten Prozess (65mn bei NV) gibts aber schon recht "lange"
Ich denke, die Angst vor zu hoher Ausfallquote ist höher als zu wenig Gewinn GPU-Ausbeute eines Silizium-Rohlings. Aber Verlust macht NV sicher nicht.

Mich ärgert es nur, dass neue Grakas viel mehr könnten, wenn die Hersteller nicht so gewinngeil wären. "Das Nötigste ist gerade gut genug" :rolleyes:
Seht euch nur mal den Cell-Prozessor der PS3 an. Mit der richtigen Software hat die CPU brachiale Power. Das was diese kleine Kiste leistet muss ein PC erstmal nachmachen - aber in der gleichen Baugrösse bitte :wink:

Hvoralek
2008-05-21, 16:01:10
1. sehe ich anders. Bei CPUs geht das auch. Würde für mich heissen, dass NV sich nicht sicher ist. "Sch... auf Stromverbrauch!" :rolleyes:An eine CPU in auch nur ansatzweise der Größe auf einem völlig neuen Fertigungsprozess kann ich mich nicht erinnern, geschweige denn im Consumerbereich mit entsprechenden Preisen. Intel probiert mit diesem "Tick- Tock"- Rhythmus neue Fertigungsprozesse erst einmal an bekannten Architekturen aus und auch AMD hat z.B. K8 und K10 erst einmal in bereits länger verfügbaren Prozessen gefertigt (130 nm bzw. 65 nm).

Bei CPUs, die es in solchen Ausmaßen gibt, werden auch konservative Fertigungsprozesse verwendet (Etwa Montecito Mitte 2006 noch in 90 nm, als auf dem Desktop längst alles auf 65 nm umgestellt war; Montvale Ende 2007 noch in 65 nm, als Intels 45- nm- Prozess auch schon einsatzbereit war).

3. ok, ich meinte es so, dass man auch @ 1280x1024 die FPS verdoppeln könnte. Was ja mom. nicht möglich ist. Ich hab bei der Auflösung eine Effizienz von 30% ermittelt. D.h. wer in dieser Auflösung spielt, braucht kein SLI/CF. Es müsste doch verdammt noch mal möglich sein die GPUs so zu parallelisieren, dass man zb 100% mehr FPS hat.SLI und CF sollten eigentlich unabhängig von der Auflösung etwa gleich viel bringen, wenn der Prozessor keinen Einfluss hat (was natürlich in niedrigeren Auflösungen eher der Fall ist), siehe etwa: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/20/#abschnitt_performancerating_qualitaet

Beide haben natürlich viele Probleme. Und nein, es sieht nicht danach aus, als würde mit G(T?)200 irgendetwas davon behoben. Als erstes wird wohl mit R800 das Problem der Speicherredundanz gelöst. Bleiben nur noch Eingabeverzögerung, Kompatibilitäts-/ Skalierungsprobleme (die natürlich in gängigen Benchmarktiteln und -passagen vorrangig behoben werden) und Mikroruckler. Eine Skalierung wie durch Verdopplung der Einheiten auf einem Chip wäre jedenfalls nur mit einer sehr schnellen und wahrscheinlich ziemlich teuren Anbindung zwischen den Chips möglich. Auf einer Platine mag man bezweifeln, ob das wirklich günstiger wäre als ein einzelner, großer Chip und auf mehreren Platinen wird das gar nicht gehen. Daran ändert auch noch so viel Gefluche nichts.

Coda
2008-05-21, 16:03:29
Warum verdammt 65mn? Bekommt NV es nicht gebacken oder eher weil ATI/AMD kein Konkurent ist?
Das ist eine konservative Entscheidung, weil der Prozess sehr ausgereift ist. Du willst kein Monster-Die und einen brandneuen Prozess haben. Die Yields wären unter aller Sau.

Mit 55nm verbraucht man aber auch nicht unbedingt weniger Strom. Das ist ein reiner Lithografieshrink und man handelt sich mehr Probleme mit Leckströmen ein. Das Die wäre eben kleiner, aber das interessiert dich als Käufer ja nur über den Preis.

Und nein, ich glaube nicht dass es eine Taktabsenkung im 2D-Modus geben wird bei G200.

Ailuros
2008-05-21, 16:06:16
Das ist eine konservative Entscheidung, weil der Prozess sehr ausgereift ist. Du willst kein Monster-Die und einen brandneuen Prozess haben. Die Yields wären unter aller Sau.

Eben. Ich bin mir uebrigens gar nicht mehr so sicher ob AMD wirklich auf 45nm und nicht 40nm fuer ihre naechste Generation setzen wird.

Hvoralek
2008-05-21, 16:10:34
Mich ärgert es nur, dass neue Grakas viel mehr könnten, wenn die Hersteller nicht so gewinngeil wären. "Das Nötigste ist gerade gut genug" :rolleyes:
Seht euch nur mal den Cell-Prozessor der PS3 an. Mit der richtigen Software hat die CPU brachiale Power. Das was diese kleine Kiste leistet muss ein PC erstmal nachmachen - aber in der gleichen Baugrösse bitte :wink:Nicht nur mit der richtigen Software, sondern zusätzlich mit passenden Aufgabenbereichen. Wobei es mich nicht wundern würde, wenn bei fast allem, was man auf Cell vernünftig ausführen kann, ein normaler G8x/ R6xx noch schneller wäre. Oder sogar schon R5xx (FoH).

GeneralHanno
2008-05-21, 16:35:51
Eben. Ich bin mir uebrigens gar nicht mehr so sicher ob AMD wirklich auf 45nm und nicht 40nm fuer ihre naechste Generation setzen wird.

ich denke man wartet ab, wie die test bei TSMC laufen und dann entscheidet man ...

€dit: aber ich habe gerüchte gehört, dass der 40nm prozess sehr vielversprechend sei ...

Ailuros
2008-05-21, 16:47:35
ich denke man wartet ab, wie die test bei TSMC laufen und dann entscheidet man ...

€dit: aber ich habe gerüchte gehört, dass der 40nm prozess sehr vielversprechend sei ...

Huh? Wehe wenn sie die dementsprechende Entscheidung nicht schon vor einiger Zeit getroffen haben. Man entwickelt chip X fuer Herstellungsprozess Y von Anfang an.

w0mbat
2008-05-21, 17:08:01
@Ailuros: RV670 wurde auch für 65nm entwickelt, kam aber in 55nm.

Gast
2008-05-21, 18:28:48
@Ailuros: RV670 wurde auch für 65nm entwickelt, kam aber in 55nm.


Wurde schon vor langem abgeändert, ist nur nicht nach draußen gedrungen da eigetnlich belanglos........

tombman
2008-05-21, 20:00:33
ich wette 1000 euro, dass du - wäre der fall genau umgekehrt - das fehlende dx10.1 bei amd kritisieren würdest.

und jetzt erzähl uns bitte keine weiteren märchengeschichten.
Sprach der ATi fanboy...(siehe dein AVA!)

.1 ist mir deshalb nicht so wichtig, weil ich genau weiß, daß es keine große Verbreitung finden wird, solange nicht BEIDE, ATI und Nvidia, dieses feature bieten.

Es ist also fast völlig egal wer es hat und wer es nicht hat. Für Nvidia ist es nur weniger tragisch, nicht weil Nvidia so toll ist und ATI so scheiße, sondern weil IMO Nvidia mehr Macht bei den Developern hat.

Wenn also der "wichtigere" der beiden das feature nicht hat, dann ist das weniger tragisch als wäre der Fall umgekehrt.

Ich glaube kaum, daß ATI an Nvidia vorbei .1 bei den devs durchdrücken kann, andersherum schon eher.

Bei JEDEM neuen game springt einen das Nvidia TWIMTBP Video an- von entsprechenden ATI-Pendant sehe ich NIX.

Gast
2008-05-21, 20:21:11
Sprach der ATi fanboy...(siehe dein AVA!)

.1 ist mir deshalb nicht so wichtig, weil ich genau weiß, daß es keine große Verbreitung finden wird, solange nicht BEIDE, ATI und Nvidia, dieses feature bieten.

Es ist also fast völlig egal wer es hat und wer es nicht hat. Für Nvidia ist es nur weniger tragisch, nicht weil Nvidia so toll ist und ATI so scheiße, sondern weil IMO Nvidia mehr Macht bei den Developern hat.

Wenn also der "wichtigere" der beiden das feature nicht hat, dann ist das weniger tragisch als wäre der Fall umgekehrt.

Ich glaube kaum, daß ATI an Nvidia vorbei .1 bei den devs durchdrücken kann, andersherum schon eher.

Bei JEDEM neuen game springt einen das Nvidia TWIMTBP Video an- von entsprechenden ATI-Pendant sehe ich NIX.


Oimmer wieder die gleiche Diskussion... Was kümmern dich den die interessen von Nvidia. Fanboy? Wirfst du ja anderen gerne mal vor.

Interessiert doch kein Schwein on Nvidia sich auch gut aus der Affaire ziehen kann ohne 10.1 Die Frage ist was du als Konsument willst! Und wenn die Karte durch 10.1 nochmal 20% Leistung drauf packen könnte wäre das doch ok, oder?!

tombman
2008-05-21, 20:42:41
Oimmer wieder die gleiche Diskussion... Was kümmern dich den die interessen von Nvidia. Fanboy? Wirfst du ja anderen gerne mal vor.

Interessiert doch kein Schwein on Nvidia sich auch gut aus der Affaire ziehen kann ohne 10.1 Die Frage ist was du als Konsument willst! Und wenn die Karte durch 10.1 nochmal 20% Leistung drauf packen könnte wäre das doch ok, oder?!
Ähm, es geht aber nicht darum wie sehr man sich freuen würde, falls das 10.1 auch bei Nvidia wäre, sondern darum, wie sehr man sich theoretisch ärgern sollte.

Warum ich persönlich mich in diesem Fall und dieser Situation NICHT besonders ärgere habe ich ausführlich dargelegt. Was war daran nicht zu verstehen?

Ich persönlich bräuchte überhaupt keine neuen features in dieser "Sommergeneration", ich brauche nur mehr Leistung. DX10 reicht mir derzeit völlig, es muß nur schneller ausgegeben werden. Und genau das wird die GT200 liefern.

Bis auf Crysis und Vantage bräuchte ich nicht mal mehr Leistung, weil die Konsolenports auch jetzt schon super rennen.
Einer der wichtigsten Punkte für mich wäre zb auch die Mikroruckler loszuwerden, was effektiv derzeit NUR mit einem SINGLE GPU Monsterchip geht.

Es geht mir daher auch etwas am Arsch vorbei ob ATI mit 20 Gpus schneller als Nvidia ist, weil ich genau weiß, daß das eh nur Augenauswischerei angesichts der Mikroruckler wäre. :cool:

Nochmal in Stichworten für alle, die es nicht verstehen wollen:

Probleme, ausgehend von G80 GTX SLI Leistung und features:
1.) Crysis und Vantage -> Leistung, Mikroruckler
2.) Der Rest -> Mikroruckler

Lösung, ausgehend G80 von GTX SLI Leistung und features:
ad 1.) GT200, eventuell GT200 SLI
ad 2.) GT200 single

:cool:

Gast
2008-05-21, 20:50:34
Ähm, es geht aber nicht darum wie sehr man sich freuen würde, falls das 10.1 auch bei Nvidia wäre, sondern darum, wie sehr man sich theoretisch ärgern sollte.

Warum ich persönlich mich in diesem Fall und dieser Situation NICHT besonders ärgere habe ich ausführlich dargelegt. Was war daran nicht zu verstehen?

Ich persönlich bräuchte überhaupt keine neuen features in dieser "Sommergeneration", ich brauche nur mehr Leistung. DX10 reicht mir derzeit völlig, es muß nur schneller ausgegeben werden. Und genau das wird die GT200 liefern.

Bis auf Crysis und Vantage bräuchte ich nicht mal mehr Leistung, weil die Konsolenports auch jetzt schon super rennen.
Einer der wichtigsten Punkte für mich wäre zb auch die Mikroruckler loszuwerden, was effektiv derzeit NUR mit einem SINGLE GPU Monsterchip geht.

Es geht mir daher auch etwas am Arsch vorbei ob ATI mit 20 Gpus schneller als Nvidia ist, weil ich genau weiß, daß das eh nur Augenauswischerei angesichts der Mikroruckler wäre. :cool:

Nochmal in Stichworten für alle, die es nicht verstehen wollen:

Probleme, ausgehend von G80 GTX SLI Leistung und features:
1.) Crysis und Vantage -> Leistung, Mikroruckler
2.) Der Rest -> Mikroruckler

Lösung, ausgehend G80 von GTX SLI Leistung und features:
ad 1.) GT200, eventuell GT200 SLI
ad 2.) GT200 single

:cool:

irgendwie wirkst du auf mich total hohl. einerseits möchtest du maximale leistung um ordentlich bildquali settings bei hohen auflösungen zu haben, anderseits ist es dir egal ob der gt200 10.1 anbietet und somit besseres aa unter dx10 ermöglicht.

viel spaß beim vantage zocken !
:rolleyes:

Winter[Raven]
2008-05-21, 20:55:34
AA

Was wäre dir lieber, mehr schönere Effekte die nur als D3D10 dargestell werden, oder weniger D3D10 - Effekte die aber dafür geglättet werden?

Gast
2008-05-21, 20:58:22
;6520454']Was wäre dir lieber, mehr schönere Effekte die nur als D3D10 dargestell werden, oder weniger D3D10 - Effekte die aber dafür geglättet werden?

is die frage ernst gemeint? warum müsste ich unter dx 10.1 auf effekte verzichten?

MikBach
2008-05-21, 20:59:12
;6520454']Was wäre dir lieber, mehr schönere Effekte die nur als D3D10 dargestell werden, oder weniger D3D10 - Effekte die aber dafür geglättet werden?
Muss sich ja beides nicht ausschliessen...
Siehe RV770, aber auch schon RV670.

edit:
also wenn der GT200 wirklich kein 10.1 kann, dann waere es schon ziemlich peinlich.
2 Generationen hintereinander hinter dem Konkurrenten im Techlevel, das gab es bisher glaube ich noch nicht.

K4mPFwUr$t
2008-05-21, 21:03:32
du meinst wohl eine generation? RV670 und G92 kann man wohl kaum als neue generation bezeichnen ;)

tombman
2008-05-21, 21:04:03
irgendwie wirkst du auf mich total hohl. einerseits möchtest du maximale leistung um ordentlich bildquali settings bei hohen auflösungen zu haben, anderseits ist es dir egal ob der gt200 10.1 anbietet und somit besseres aa unter dx10 ermöglicht.

Ja, beim GT200 ist mir, im Jahre 2008, egal, absolut richtig. .1 hat derzeit noch keine Relevanz, fertig aus.
Ob es mir beim echten NEUEN Chip (GT200 ist ja auch nur ein aufgeblasener G80) Anfang 2009 immer noch egal ist, wird sich zeigen, aber für DIESE Generation ist es mir egal- leb damit.

viel spaß beim vantage zocken !
:rolleyes:
Ich kanns wenigstens ;)

Blaire
2008-05-21, 21:04:37
Tombman hat Recht, erstmal muss die nötige Power vorhanden sein, bevor man sich um bildverschönernde Maßnahmen kümmern kann. DX10.1 ist derzeit nicht entscheidend, gibt ja auch keine Games die es offiziell unterstützen. ;)

Eggcake
2008-05-21, 21:04:52
@Raven

Hä? Es geht ja eben genau darum, dass man mit DX10.1 mehr oder zumindest gleiche Leistung UND bessere Bildquali hat. Ist ja kein DX9 mit verbessertem AA Oo

MikBach
2008-05-21, 21:06:46
Sprach der ATi fanboy...(siehe dein AVA!)

.1 ist mir deshalb nicht so wichtig, weil ich genau weiß, daß es keine große Verbreitung finden wird, solange nicht BEIDE, ATI und Nvidia, dieses feature bieten.

Es ist also fast völlig egal wer es hat und wer es nicht hat. Für Nvidia ist es nur weniger tragisch, nicht weil Nvidia so toll ist und ATI so scheiße, sondern weil IMO Nvidia mehr Macht bei den Developern hat.

Wenn also der "wichtigere" der beiden das feature nicht hat, dann ist das weniger tragisch als wäre der Fall umgekehrt.

Ich glaube kaum, daß ATI, an Nvidia vorbei, .1 bei den devs durchdrücken kann, andersherum schon eher.

Bei JEDEM neuen game springt einen das Nvidia TWIMTBP Video an- von entsprechenden ATI-Pendant sehe ich NIX.
Tombman,
wenn es um Kleinigkeiten bei Effekten gehen wuerde, wuerde ich dir zustimmen. Nicht aber bei einem so grundsaetlichen Bildverbesserer wie AA.

edit:
du meinst wohl eine generation? RV670 und G92 kann man wohl kaum als neue generation bezeichnen ;)
Der RV670 ist im Vergleich zum Vorgaenger eine neue Generation, da neueres Techlevel.

tombman
2008-05-21, 21:09:07
Tombman,
wenn es um Kleinigkeiten bei Effekten gehen wuerde, wuerde ich dir zustimmen. Nicht aber bei einem so grundsaetlichen Bildverbesserer wie AA.
Zuerst muß überhaupt mal die Leistung für DX10 @ Full HD @ max Details da sein, bevor man überhaupt daran denkt AA zu aktivieren.

Das ist derzeit IMO noch nicht wirklich gegeben, siehe Crysis.

Und SPIELBARE FPS gehen bei mir VOR AA :)

p.s: ATI war ja immer schon sehr gut in absolut UNSPIELBAREM-FPS-Bereich mit sehr hohen Qualitätsettings RELATIV gut zu skalieren. Interessiert nur keine Sau, Betonung lag ja auf "unspielbar" ;)

K4mPFwUr$t
2008-05-21, 21:11:44
@MikBach
hör mir auf mit diesem techlevel müll, du hörst dich ja an wie ein PR mensch von AMD :rolleyes:

Gast
2008-05-21, 21:12:21
Ja, beim GT200 ist mir, im Jahre 2008, egal, absolut richtig. .1 hat derzeit noch keine Relevanz, fertig aus.
Ob es mir beim echten NEUEN Chip (GT200 ist ja auch nur ein aufgeblasener G80) Anfang 2009 immer noch egal ist, wird sich zeigen, aber für DIESE Generation ist es mir egal- leb damit.

Ich kanns wenigstens ;)

ich kann mir vorstellen dass es dir egal ist, in meinen augen schielst du mit einem gt200 sli auf ne dicke score im vantage um hier im forum zu imponieren.

schade dass bei manchen der horizont so schmal ist.
mir wäre lieber dass durch 10.1 auch bei nv nun endlich mehrere titel erscheinen die komplett von dx 10 und auch nutzbarem aa profitieren.

tombman
2008-05-21, 21:13:07
@MikBach
hör mir auf mit diesem techlevel müll, du hörst dich ja an wie ein PR mensch von AMD :rolleyes:
ROFL, jo, tut er :)

Vorallem weil er so tut, als ob der Unterschied zwischen 10.0 und 10.1 so stark wäre wie zwischen DX7 und DX9 ;D

Gast
2008-05-21, 21:13:56
Tombman hat Recht, erstmal muss die nötige Power vorhanden sein, bevor man sich um bildverschönernde Maßnahmen kümmern kann. DX10.1 ist derzeit nicht entscheidend, gibt ja auch keine Games die es offiziell unterstützen. ;)


Mit dem GT200 ist aber die nötige Power vorhanden. Mir scheint du weißt gar nicht was .1 bewirken kann. Assassin's Creed unterstützt es ganz offiziell und bringt sogar mehr Leistung.

tombman
2008-05-21, 21:16:36
ich kann mir vorstellen dass es dir egal ist, in meinen augen schielst du mit einem gt200 sli auf ne dicke score im vantage um hier im forum zu imponieren.
Diese kaputte Schallplatte haben schon sehr viele in meine Richtung abzuspielen versucht- hat nur nie funktioniert, weil die Tatsachen bzgl meiner Motive eben anders sind, wie langjährige tombman-Kenner auch bezeugen können ;)

Ich habe dir ganz genau gesagt, warum ich GT200 will, sogar mit Stichpunktliste (Problem/Lösung), aber du willst ja nicht zuhören und nur Galle verspritzen ;)

Wenn mir der vantage score so wichtig wäre hätte ich schon lange quad-sli und skulltrail, oder zumindest triple sli- habe ich alles nicht, und damit ist die Schallplatte auch bei dir zerbrochen ;)

GeneralHanno
2008-05-21, 21:16:38
sch*** auf die Dx10.1 MS-AA-hacks, tombman holt sich GT200-tri-SLI und büglelt 2x2-SSAA drüber ;)

MikBach
2008-05-21, 21:19:36
Zuerst muß überhaupt mal die Leistung für DX10 @ Full HD @ max Details da sein, bevor man überhaupt daran denkt AA zu aktivieren.
Full-HD? :confused:
Was glaubst du wie viel User einen Full-HD/Monitor haben?
Standard ist zur Zeit 1280x1024 oder 1680x1050.
Du bist eher die Ausnahme, nicht die Regel.
Daran solltest du bei deinen Aussagen immer denken.

Das ist derzeit IMO noch nicht wirklich gegeben, siehe Crysis.
Crysis ist ein Extrembeispiel, viele gibt es davon nicht.

Und SPIELBARE FPS gehen bei mir VOR AA :)
Keine Frage, mir auch, obwohl ich wahrscheinlich eher auf ein paar Effekte verzichten wuerde, als aufs AA.

p.s: ATI war ja immer schon sehr gut in absolut UNSPIELBAREM-FPS-Bereich mit sehr hohen Qualitätsettings RELATIV gut zu skalieren. Interessiert nur keine Sau, Betonung lag ja auf "unspielbar" ;)
Ja vor allem zu FX-Zeiten...:hammer:
Demnaecht vorsichtig mit solchen Pauschalaussagen. Kannst schnell damit auf die Nase fallen, wie jetz gerade. :|

tombman
2008-05-21, 21:20:10
sch*** auf die Dx10.1 MS-AA-hacks, tombman holt sich GT200-tri-SLI und büglelt 2x2-SSAA drüber ;)
Nana, nun mal langsam mit den alten Pferden. Erstmal EINE GT200, dann sehen wir weiter ;D

(lol, so wie damals bei Voodoo2. Genau 5 Tage habe ich ausgehalten, dann kam die zweite dazu ;D)

Gast
2008-05-21, 21:20:16
sch*** auf die Dx10.1 MS-AA-hacks, tombman holt sich GT200-tri-SLI und büglelt 2x2-SSAA drüber ;)

yo und otto normal user schaut in die röhre.
:rolleyes:
hip hip hurra

Eggcake
2008-05-21, 21:21:00
Zuerst muß überhaupt mal die Leistung für DX10 @ Full HD @ max Details da sein, bevor man überhaupt daran denkt AA zu aktivieren.

Das ist derzeit IMO noch nicht wirklich gegeben, siehe Crysis.

Und SPIELBARE FPS gehen bei mir VOR AA :)

Ach und mit 10.1 würden die FPS direkt in den Keller gehen?

MikBach
2008-05-21, 21:21:58
@MikBach
hör mir auf mit diesem techlevel müll, du hörst dich ja an wie ein PR mensch von AMD :rolleyes:
Hmm?
Wenn ein neuer Techlevel (abgesehen noch von einigen Aenderungen in der GPU) keine neue Generation ist, was dann? :|

tombman
2008-05-21, 21:22:02
Ach und mit 10.1 würden die FPS direkt in den Keller gehen?
Bei ATI- ja ;D;D

Derzeit gibts entweder 10.1, oder FPS, nicht beides ;) (zumindest falls die Gerüchte stimmen)

Gast
2008-05-21, 21:22:15
Tja, wenn nVidia DX10.1 untersützen würde, dann gäbe es auch mehr Games mit DX10.1. Und dann hätten wir bessere Performance unter DX10 und bessere Bildqualität.

Da gibt es nichts dran schönzureden.

Gast
2008-05-21, 21:24:01
Tja, wenn nVidia DX10.1 untersützen würde, dann gäbe es auch mehr Games mit DX10.1. Und dann hätten wir bessere Performance unter DX10 und bessere Bildqualität.

Da gibt es nichts dran schönzureden.

das versuche ich die ganze zeit zu vermitteln, aber bei manchen leuten reicht leider der verstand nicht aus um das zu verstehen

tombman
2008-05-21, 21:24:40
Full-HD? :confused:
Was glaubst du wie viel User einen Full-HD/Monitor haben?
Standard ist zur Zeit 1280x1024 oder 1680x1050.
Du bist eher die Ausnahme, nicht die Regel.
Daran solltest du bei deinen Aussagen immer denken.
Ich treffe auch nur Aussagen für mich, deswegen steht auch überall "IMO" dabei :rolleyes:

Ja vor allem zu FX-Zeiten...:hammer:
Demnaecht vorsichtig mit solchen Pauschalaussagen. Kannst schnell damit auf die Nase fallen, wie jetz gerade. :|
Der FX war crap, hatte ich auch nie- ändert aber nix an der Generalaussage...
Schau dir die letzten ATI CB reports an. Stell ne kranke Auflösung ein, gib 8xAA dazu und ATI steht gut da -> nur leider sind wie da schon lange im unspielbaren Bereich :rolleyes: ;D

Winter[Raven]
2008-05-21, 21:25:35
Vorallem weil er so tut, als ob der Unterschied zwischen 10.0 und 10.1 so stark wäre wie zwischen DX7 und DX9

Das ist ja das schlimme an der ganzen Sache...

is die frage ernst gemeint? warum müsste ich unter dx 10.1 auf effekte verzichten?

AA kostet heutzutage immer noch genung Leistung. Ich würde da lieber die Mr. Bombastic-Effekte in spielbaren FPS haben als dass ich dies abschalten muss damit ich glatte Kanten habe...

Und bitte, vergleicht nicht die heute D3D10 Sachen mit was kommen wird...

tombman
2008-05-21, 21:26:25
Tja, wenn nVidia DX10.1 untersützen würde, dann gäbe es auch mehr Games mit DX10.1. Und dann hätten wir bessere Performance unter DX10 und bessere Bildqualität.

Da gibt es nichts dran schönzureden.
Die paar % was .1 an speed bringt machen das DX10-Kraut NICHT fett.
Da hilft nur brutale SHADERPOWER und sonst gar nix-> deswegen GT200 ;)

Eggcake
2008-05-21, 21:27:12
Gehts hier um ATI vs nVidia oder um 10.0 vs 10.1?

Gast
2008-05-21, 21:28:21
Die paar % was .1 an speed bringt machen das DX10 Kraut NICHT fett.
Da hilft nur brutale SHADERPOWER und sonst gar nix-> deswegen GT200 ;)

Und wie wärs mit GT200+DX10.1 gewesen?

MikBach
2008-05-21, 21:29:41
Bei ATI- ja ;D;D

Schreib doch nicht so ein Muell.
mit 10.1 ist man sicherlich nicht langsamer als mit 10.0.

Ausserdem sprachst du ja die Entwickler an.
10.1 duerfte diese sehr freuen, da man damit das AA viel einfacher und effizienter einbauen kann. Falls du dies noch nicht wissen solltest...

tombman
2008-05-21, 21:30:37
Und wie wärs mit GT200+DX10.1 gewesen?
Nicht so umwerfend anders als jetzt ;)

MikBach
2008-05-21, 21:32:22
Nicht so umwerfend anders als jetzt ;)
Fuer die Entwickler und somit indirekt fuer uns schon. :P

tombman
2008-05-21, 21:34:47
Schreib doch nicht so ein Muell.
mit 10.1 ist man sicherlich nicht langsamer als mit 10.0.
Das "langsamer" bezog sich NICHT auf den techlevel sondern auf den Chipdesigner, was du natürlich wußtest und deshalb nur absichtlich halb und falsch zitiert hast ;)
Nochmal etwas nerdiger ausgedrückt:

Nvidia + 10.0 > ATI + 10.1 :cool:

Keiner hat bestreitet, daß

X + 10.1 > X + 10.0 ist

, aber diese Situation GIBT ES DERZEIT EINFACH NICHT. .1
gibts NUR bei ATI, und den fetten SPEED gibts nur bei Nvidia (falls Gerüchte = wahr).

Ausserdem sprachst du ja die Entwickler an.
10.1 duerfte diese sehr freuen, da man damit das AA viel einfacher und effizienter einbauen kann. Falls du dies noch nicht wissen solltest...
Konjunktiv FTW :rolleyes:

Es gibt nur diese Wahl: SCHNELL und DX10, oder LANGSAM und Dx10.1.

Suchs dir aus, ich wähle ersteres :cool:

Gast
2008-05-21, 21:35:07
Nicht so umwerfend anders als jetzt ;)

Ich und sicherlich ein paar andere würden sich an einer besseren Kantenglättung erfreuen. Aber jedem das Seine.

Ich find es einfach schade, dass jetzt schon in der 2. neuen Generation von nVidia ein durchaus nützliches Techlevel untergeht. Und das bei der Kohle, die die momentan scheffeln.

tombman
2008-05-21, 21:35:42
Fuer die Entwickler und somit indirekt fuer uns schon. :P
Nein, eben nicht, weil "Entwickler" != "uns", sondern

"Entwickler + 20 Jahre" = "uns" :P (übertrieben)

tombman
2008-05-21, 21:39:19
Ich und sicherlich ein paar andere würden sich an einer besseren Kantenglättung erfreuen. Aber jedem das Seine.
Freuen über nichtreale Sachen kann sich jeder, auch ich. Hat nur nix mit den FAKTEN zu tun.

Ich find es einfach schade, dass jetzt schon in der 2. neuen Generation von nVidia ein durchaus nützliches Techlevel untergeht. Und das bei der Kohle, die die momentan scheffeln.
Das ist doch nicht die 2t Generation :rolleyes:
Nur weil die Marketingleute bei jedem kleinen Scheiß sofort "NEXT GEN!!!111211222" schreien muß man den Scheiß doch nicht abkaufen :rolleyes:

Es gibt seit G80 NIX NEUES bei NVIDIA. BASTA. Auch GT200 ist NIX NEUES. :eek:

MikBach
2008-05-21, 21:40:41
Konjunktiv FTW :rolleyes:

Es gibt nur diese Wahl: SCHNELL und DX10, oder LANGSAM und Dx10.1.

Suchs dir aus, ich wähle ersteres :cool:
Schnell, D3D10.0 und haesslich oder langsam und D3D10.1 und schoen?
Ich wahle das zweite, wobei in normalen Aufloesungen "langsam" sicher deutlich uebertrieben ist, aber das weisst du sicherlich. ;)

GeneralHanno
2008-05-21, 21:41:23
bevor ich noch mehr (SSAA-)Öl ins Feuer kippe schauen wir uns mal die fakten an:

1. AC hat gezeigt, dass DX10.1 vorteile in verbindung mit AA bringt, es greift öfter und verbraucht weniger leistung
2. trotz dx10.1 ist der G92 schneller als der RV670
3. der GT200 wird zu 95% KEIN Dx10.1 mitbringen, das ist schade aber fakt
4. der GT200 wird den RV770 auch OHNE dx10.1 in die tasche stecken

mein fazit: ich finde es schade, dass nvidia kein Dx10.1 unterstütz, aber was bringt Ati solch tolle features (mit 20% gewinn unter AA), wenn die GRUNDLEISTUNG fehlt. und wenn ich die wahl habe, ist mir rechenpower auch wichtiger als featureset ... aber das ist meine subjektive meinung ;)

tombman
2008-05-21, 21:41:52
Schnell, D3D10.0 und haesslich oder langsam und D3D10.1 und schoen?
Ich wahle das zweite, wobei in normalen Aufloesungen "langsam" sicher deutlich uebertrieben ist, aber das weisst du sicherlich. ;)
Das "häßlich" mußt durch SCREENSHOTS erstmal beweisen, und zwar bei mindestens FÜNF AAA-TITELN ;) (Relevanz anyone?)

Winter[Raven]
2008-05-21, 21:42:52
SCHNELL und DX10, oder LANGSAM und Dx10.1.


Würde ich nicht sagen, bei richtiger Nützung kann alles schön sein auch ohne AA, was ja unsere .1 Anhänger nicht verstehen wollen.

MikBach
2008-05-21, 21:44:19
Nein, eben nicht, weil "Entwickler" != "uns", sondern

"Entwickler + 20 Jahre" = "uns" :P (übertrieben)
Na ja, ich glaube nicht, dass du weisst wovon du sprichst. Wir sprechen ueber die Implementierung des AA. Das gehoert normalerweise zur "Grundausstattung" der Engine, da braucht man nicht mehrere Monate fuer.

edit:
;6520626']Würde ich nicht sagen, bei richtiger Nützung kann alles schön sein auch ohne AA, was ja unsere .1 Anhänger nicht verstehen wollen.
Schoen ohne AA?
Ist jetzt nicht dein ernst, oder? :lol:
Zuerst AA und AF, dann alles andere, sonst kann ein Bild nicht schoen sein.

Eggcake
2008-05-21, 21:44:31
In deinem quote steht doch nix von nicht schön? :>

Gast
2008-05-21, 21:44:55
Das ist doch nicht die 2t Generation
Nur weil die Marketingleute bei jedem kleinen Scheiß sofort "NEXT GEN!!!111211222" schreien muß man den Scheiß doch nicht abkaufen

Es gibt seit G80 NIX NEUES bei NVIDIA. BASTA. Auch GT200 ist NIX NEUES.

Wenn es schon so propagiert wird, soll es auch so sein. nVidia wirbt damit und es ist offiziell. Das ist ihre Sache wie sie eine neue Genration definieren, nicht deine. Basta.

Freuen über nichtreale Sachen kann sich jeder, auch ich. Hat nur nix mit den FAKTEN zu tun.

Beachte meinen Konjunktiv ... Schade, dass die Fakten eher trauriger Natur sind.

tombman
2008-05-21, 21:44:56
;6520626']Würde ich nicht sagen, bei richtiger Nützung kann alles schön sein auch ohne AA, was ja unsere .1 Anhänger nicht verstehen wollen.
Du, ich freue mich wenn ein SPiel ingame AA settings hat, aber ich bin sogar zu faul AA übers CP oder nhancer zu forcieren, falls es nicht so sein sollte :eek:

Da kann manch einer vielleicht verstehen, wieso mit 10.1 im Jahre 2008 eher am Arsch vorbei geht ;)

Coda
2008-05-21, 21:45:32
Es gibt seit G80 NIX NEUES bei NVIDIA. BASTA. Auch GT200 ist NIX NEUES. :eek:
Da solltest du dich aber täuschen. Es wurde offenbar immerhin die ALU-Struktur geändert. Aber wohl doch eher im Rahmen von NV40 -> G71.

tombman
2008-05-21, 21:48:51
Wenn es schon so propagiert wird, soll es auch so sein. nVidia wirbt damit und es ist offiziell. Das ist ihre Sache wie sie eine neue Genration definieren, nicht deine. Basta.
Mauhaha, also ich schalte lieber mein Hirn ein und lasse Marketinggeblubber nicht ungefiltert passieren wie du...du machst dich mit solchen Aussagen lächerlich, auch wenn das als Gast offenbar nix bedeutet...

tombman
2008-05-21, 21:50:17
Da solltest du dich aber täuschen. Es wurde offenbar immerhin die ALU-Struktur geändert. Aber wohl doch eher im Rahmen von NV40 -> G71.
Ist ja nicht schlimm, wenn ich mich zu etwas Spekulativem wie dem GT200 täuschen sollte ;)

Gast
2008-05-21, 21:51:46
Mauhaha, also ich schalte lieber mein Hirn ein und lasse Marketinggeblubber nicht ungefiltert passieren wie du...du machst dich mit solchen Aussagen lächerlich, auch wenn das als Gast offenbar nix bedeutet...
Das ändert jetzt immernoch nichts an der Tastache, dass nVidia jetzt in der zweiten Generation nach dem DX10.1 von ATI, kein DX10.1 implementiert haben.

tombman
2008-05-21, 21:53:22
Das ändert jetzt immernoch nichts an der Tastache, dass nVidia jetzt in der zweiten Generation nach dem DX10.1 von ATI, kein DX10.1 implementiert haben.
Wie schlimm das jeder bewertet mußt aber jedem selbst überlassen, und offenbar schätzt Nvidia selbst .1 nicht dermaßen dramatisch ein...

Coda
2008-05-21, 21:54:23
Ist ja nicht schlimm, wenn ich mich zu etwas Spekulativem wie dem GT200 täuschen sollte ;)
Dann solltest du auch den Konjunktiv benutzen.

Gast
2008-05-21, 21:56:26
Wie schlimm das jeder bewertet mußt aber jedem selbst überlassen, und offenbar schätzt Nvidia selbst .1 nicht dermaßen dramatisch ein...
Ich schätze DX10.1 auch nicht dermaßen dramatisch ein. Wie schon geschrieben: Es ist schade, dass ein solch nützliches Feature auf der Strecke bleibt. Und das obwohl nVida eigentlich das nötige Know How und Budget hätte.

tombman
2008-05-21, 21:57:41
Dann solltest du auch den Konjunktiv benutzen.
Wer macht das schon ständig? Ganze Spekuthreads Konjunktiv only? Bissi anstrengend, oder?

tombman
2008-05-21, 21:58:33
Ich schätze DX10.1 auch nicht dermaßen dramatisch ein. Wie schon geschrieben: Es ist schade, dass ein solch nützliches Feature auf der Strecke bleibt. Und das obwohl nVida eigentlich das nötige Know How und Budget hätte.
Naja, wie de funès schon sagt "je mehr, je vieler". Man kann offenbar nicht alles haben :)

Coda
2008-05-21, 22:15:46
Wer macht das schon ständig? Ganze Spekuthreads Konjunktiv only? Bissi anstrengend, oder?
Ich mach das... Ich find das nicht anstrengend weil ich eh so denke wenn ich spekuliere.

tombman
2008-05-21, 22:18:49
Im Prinzip hätte man sich das ganze bashing eh ersparen können, ist ja noch nicht mal sicher raus, ob die GT200 .1 hat oder nicht.

Ich habe nur gesagt, wie ich fühlen WÜRDE, falls es nur bei 10.0 bei der GT200 bleibt- nämlich nicht sonderlich echauffiert ;)

Coda
2008-05-21, 22:21:56
Dito.

dargo
2008-05-21, 22:42:14
Wird zeit für hochauflösendere Bildschirme, ich will ne 3k Auflösung :ucatch:
Ich bin eher für fotorealistische Spiele bei moderater Auflösung. :D

Henroldus
2008-05-21, 23:47:25
Ich bin eher für fotorealistische Spiele bei moderater Auflösung. :D
richtig, solange ein youtube lowresvideo realistischer aussieht als ein 1900x1200 crysis müssen die gamedevs noch was tun..

T'hul-Nok Razna
2008-05-21, 23:51:22
Das ändert jetzt immernoch nichts an der Tastache, dass nVidia jetzt in der zweiten Generation nach dem DX10.1 von ATI, kein DX10.1 implementiert haben.


Mir stellt sich jetzt die Frage, bringt uns das was?
Irgendwie stimmt mich der Zweifel das selbst jetzige DX10 GraKas ohne Probleme DX10 Game in ein oder gar zwei Jahren noch irgendwie auf dem Monitor pinseln können (Halt in den üblichen High-End Settings).
Hatten wir nicht das selbige Spiel auch bei DX8/7, T&L, ect?!?

Naja wenn es nach mir ginge müsste erst mal was gegen die Verlustwärme gemacht werden. Bei den CPUs gehts ja mehr oder weniger auch. Da wurde auch gesagt, das wir alle beim P4 Nachfolger min. 1KW Netzteil benötigen werden.

mapel110
2008-05-21, 23:57:39
CPUs sind ein schlechter Vergleich. Wir krebsen seit 2002 bei 3 Ghz rum. Da hat sich praktisch pro Core wenig bis gar nichts getan im Vergleich zu Grafikkarten.
Imo haben gar Intel und AMD gewaltig auf die Bremse getreten um eben die kleineren Fertigungsstrukturen für mehrere Cores nutzen zu können.
So viel Stillstand können und konnten sich GPU-Hersteller nicht erlauben.

T'hul-Nok Razna
2008-05-22, 00:08:18
Der Punkt geht mehr oder weniger da an dich. Mir ging es eher darum um das Verhältniss das die Abwärme bei CPUs doch an sich gesunken ist aber ein jetziger Intel/AMD doch weit mehr Arbeitsleistung bringen kann.
Ich denke mal das selbige Problem wird im GraKa Sektor irgendwann auch kommen.
Ich zweifel mal das der weniger Technik betuchte Laie also "Media Markt Kunde" sich in Zukunft um Kühlprobleme seines PCs beschäftigen möchte da es nahe zu kaum anders geht oder 0 Bock hatt sich ne 2 Kilo / 3 Slot GraKa zu Leibe führen möchte.

mapel110
2008-05-22, 00:20:40
Kühlung und Leistungsaufnahme ist sicher ein Problem für die nähere Zukunft. Ich geh davon aus, dass sich langfristig externe Grafikkarten mit separaten Netzteilen und Kühllösungen im Gamerbereich durchsetzen werden.

Unyu
2008-05-22, 00:22:10
Zuerst AA und AF, dann alles andere, sonst kann ein Bild nicht schoen sein.
Ja am AF muss AMD noch arbeiten. :)
Entfällt das Wörtchen "schoen".

Schoen ohne AA?Seit wann gibts in D3D10 überhaupt kein AA? :rolleyes:

Snoopy1978
2008-05-22, 00:26:54
Kühlung und Leistungsaufnahme ist sicher ein Problem für die nähere Zukunft. Ich geh davon aus, dass sich langfristig externe Grafikkarten mit separaten Netzteilen und Kühllösungen im Gamerbereich durchsetzen werden.


Das glaube ich eher nicht denn damit ist das Problem nicht gelöst.

T'hul-Nok Razna
2008-05-22, 00:44:34
Nüchtern betrachtet, alles wo ein Lüfter werkelt der nicht als Hilfe sondern als Kühlzwang seinen Dienst verrichtet ist auch nicht gerade Gesund für die Baugruppe.
Hab ich letztes Jahr an meiner 1800XT gesehen, Lüfter ausgefallen, GraKa tot, gestern der Lüfter aufm Nforce4 Chipsatz. Beim letzteren hatte ich das Glück das der doch noch geht. Naja schnell aus der Not heraus den Grafikkartenkühler einer etwas älteren GraKa drauf getackert.
Hatt doch den Vorteil das alte Zeug zu behalten, irgendwas passt immer Zusammen ;)

Snoopy69
2008-05-22, 02:47:45
Es gibt seit G80 NIX NEUES bei NVIDIA. BASTA. Auch GT200 ist NIX NEUES. :eek:
So siehts aus - und das ärgert mich.
Die Hersteller wollen jede kleine sch... Verbesserung eine neue Karte rausbringen.
Gibt aber genug Deppen, die es dann kaufen. Genau das wollen die HW-Hersteller ja.

Zu DX10.1...
Darauf pfeif ich auch. DX10.0 ist noch lange nicht ausgereizt und diese 0.1 spürt keine Sau!!! Bei Crysis ist selbst mit Tweaks und DX9 so gut wie kein Unterschied zu DX10 zu sehen. Was will man dann mit dem lächerlichen 0.1 mehr? :rolleyes:
Die Kids fallen dann noch auf Screens in DX10.1 rein, was mit DX10 sicher auch möglich wäre.

Ich ziehe zum Vergleich gerne die PS3 + GT Prologue heran (neu nicht mal 25€). Das ist übrigens noch eine kleine Auflösung. Nahezu fotorealistisch und ABSOLUT butterweich ohne Ruckler!!! :wink:

http://www.abload.de/thumb/21vs6a.jpg (http://www.abload.de/image.php?img=21vs6a.jpg)http://www.abload.de/thumb/19l0io.jpg (http://www.abload.de/image.php?img=19l0io.jpg)http://www.abload.de/thumb/15ji4y.jpg (http://www.abload.de/image.php?img=15ji4y.jpg)http://www.abload.de/thumb/9yi7nk.jpg (http://www.abload.de/image.php?img=9yi7nk.jpg)http://www.abload.de/thumb/3dz5im.jpg (http://www.abload.de/image.php?img=3dz5im.jpg)

Die PS3-HW sieht gegen einen Highend-PC richtig mager aus, aber die Software ist darauf optimal programmiert worden. Soll heissen ALLES was man so zum Spielen auf PC bekommt ist lustlos programmiert worden. ;( Dabei steckt in der HW noch mächtig Potential drin...

Gast
2008-05-22, 02:57:42
Zu DX10.1...
Darauf pfeif ich auch. DX10.0 ist noch lange nicht ausgereizt und diese 0.1 spürt keine Sau!!! Bei Crysis ist selbst mit Tweaks und DX9 so gut wie kein Unterschied zu DX10 zu sehen. Was will man dann mit dem lächerlichen 0.1 mehr? :rolleyes:
Die Kids fallen dann noch auf Screens in DX10.1 rein, was mit DX10 sicher auch möglich wäre.



Da hat einer offensichtlich nicht verstanden welche Vorteil .1 bieten kann bzw. hat keinen blassen Schimmer von der Thematik. Erkundige dich doch erstmal, dann kannst du deinen Beitrag nochmal überdenken.

Snoopy69
2008-05-22, 03:17:04
Ich überdenke garnix!!!
Wieso muss man JEDEN neuen Sch... haben wollen, wenn DX10 nur zu einem Bruchteil ausgenutzt wurde?

Da hat scheinbar ein "Anderer" keine Ahnung! :wink:
Alles Neue haben wollen, aber meckern wenn es hier und da hakt.
Das gerade bei PC-HW viel Marketing dahintersteckt sollte jedem klar sein...

Gast
2008-05-22, 03:28:35
Ich überdenke garnix!!!
Wieso muss man JEDEN neuen Sch... haben wollen, wenn DX10 nur zu einem Bruchteil ausgenutzt wurde?

Da hat scheinbar ein "Anderer" keine Ahnung! :wink:
Alles Neue haben wollen, aber meckern wenn es hier und da hakt.
Das gerade bei PC-HW viel Marketing dahintersteckt sollte jedem klar sein...


Was soll das mit ausnutzen zu tun haben. Welche Features meinst du genau mit ausnutzen? Kann es doch werden. Eine .1 Unterstützung verbietet die Aunsutzung nicht. Schwaches Argument. Es geht schließlich nicht um dx9 zu dx10.

Snoopy69
2008-05-22, 04:14:24
Sieh dir Crysis an. Das ist das einzigste Spiel, dass man nicht so spielen kann wie man gerne möchte. Full-HD mit höchstem AA/AF/Details ist bei mir nicht möglich. Was soll ich dann mit noch limitierenderem DX10.1??? :rolleyes:
Andere Spiele-Hersteller müssen erstmal das leisten, was die 3 Franfurter Türken geleistet haben. Davon sind andere Hersteller noch meilenweit entfernt.
Ich hab keinen Spass an DX10.1 oder DX11-Spielen, wenn KEIN Spiel flüssig läuft. Den neuen Rotz brauche ich daher nicht. Erstmal DX10 richtig ausnutzen (also so wie Crysis proggen) und das sehr flüssig. Danach kann man mal anfangen über DX10.1 nachzudenken.
Wenn jetzt jedes Spiel wie Crysis wäre, dann wäre wohl so ziemlich jeder gefrustet - auch mit Top-HW! Und das ist erst NUR DX10!!!

Welche HW nutzt du denn?

tombman
2008-05-22, 04:49:43
Ich ziehe zum Vergleich gerne die PS3 + GT Prologue heran (neu nicht mal 25€). Das ist übrigens noch eine kleine Auflösung. Nahezu fotorealistisch und ABSOLUT butterweich ohne Ruckler!!!
Naja, dafür werden auch nur die Wagen so schön gezeigt. In der Umgebung spielt sich ja praktisch gar nix ab...
Mach mit der selben Engine mal einen dichten Wald wo 30 Jäger 50 Tiere jagen und ein Bach fließt-> bye bye fps ;)

GT5p sieht so gut aus, weil die sich künstlerisch den Arsch aufgerissen haben :)

Gast
2008-05-22, 04:52:31
Sieh dir Crysis an. Das ist das einzigste Spiel, dass man nicht so spielen kann wie man gerne möchte. Full-HD mit höchstem AA/AF/Details ist bei mir nicht möglich. Was soll ich dann mit noch limitierenderem DX10.1??? :rolleyes:
Andere Spiele-Hersteller müssen erstmal das leisten, was die 3 Franfurter Türken geleistet haben. Davon sind andere Hersteller noch meilenweit entfernt.
Ich hab keinen Spass an DX10.1 oder DX11-Spielen, wenn KEIN Spiel flüssig läuft. Den neuen Rotz brauche ich daher nicht. Erstmal DX10 richtig ausnutzen (also so wie Crysis proggen) und das sehr flüssig. Danach kann man mal anfangen über DX10.1 nachzudenken.
Wenn jetzt jedes Spiel wie Crysis wäre, dann wäre wohl so ziemlich jeder gefrustet - auch mit Top-HW! Und das ist erst NUR DX10!!!

Welche HW nutzt du denn?

du bist echt die krönung und rallst wirklich ned worum's geht.

dx 10.1 bietet vorteile gegenüber dx10, damit die softwareschmieden diese nutzen können sollten beide großen graka hersteller diese mit ihrer hardware unterstützen. das hat nichts mit pro ati oder nv zu tun, es geht nur um ne weichenstellung für kommende spieletitel.

l

tombman
2008-05-22, 05:07:13
btw,
http://www.tgdaily.com/html_tmp/content-view-37554-135.html

Weiß noch ned, obs schon gepostet wurde....

Henroldus
2008-05-22, 07:39:04
Sieh dir Crysis an. Das ist das einzigste Spiel, dass man nicht so spielen kann wie man gerne möchte.

das kann ich so nicht stehen lassen:
auch Call of Juarez ist im DX10 Modus in höheren auflösungen mit AA/AF noch nicht spielbar!

AnarchX
2008-05-22, 07:59:40
Noch ein paar größere PCB Bilder:
http://img89.imageshack.us/img89/1249/2008052276e7838a450d9ecmz7.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/5051/200805220692d90f068b76bwp5.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/4426/200805229183401ab0a35a1pe3.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/295/295937.shtml

Eggcake
2008-05-22, 08:08:12
Snoopy, auch nochmals für dich:
es geht bei 10.1 vor allem um die schnellere Darstellung bei höherer Qualitätsstufe. Heisst, du kannst DX10-Effekte schlussendlich eher nutzen bzw. erzielst eine höhere Framerate. Es geht nicht primär um noch besseres Bild, sondern um (+/-) gleiches Bild bei besserer Framerate.

Gast
2008-05-22, 09:20:00
Stimmt so nicht.

Dadi
2008-05-22, 09:20:55
Noch ein paar größere PCB Bilder:
http://img89.imageshack.us/img89/1249/2008052276e7838a450d9ecmz7.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/5051/200805220692d90f068b76bwp5.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/4426/200805229183401ab0a35a1pe3.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/295/295937.shtml

Nach den Screens könnt eman die Größe/Länge der Karte auf eine 8800GTX schätzen? Das Verhältnis Pins/Board ist kleiner als die einer 9800 GX2.

reunion
2008-05-22, 10:15:14
CPUs sind ein schlechter Vergleich. Wir krebsen seit 2002 bei 3 Ghz rum. Da hat sich praktisch pro Core wenig bis gar nichts getan im Vergleich zu Grafikkarten.
Imo haben gar Intel und AMD gewaltig auf die Bremse getreten um eben die kleineren Fertigungsstrukturen für mehrere Cores nutzen zu können.
So viel Stillstand können und konnten sich GPU-Hersteller nicht erlauben.

Die Leistung/Takt stieg auch pro Core nicht gerade unerheblich. Im übrigen ist es bei den CPUs ungleich schwerer die Leistung weiter zu steigern. Bei einem Streamprozessor wie einer GPU brauche ich nur mehr Einheiten anflashen und schon steigt die Leistung linear mit. Und was die Taktraten betrifft: Höherer Takt ist eben ineffizient:

"Wenn ich einen Prozessor nehme, der 100 Prozent Leistung und 100 Prozent Stromverbrauch hat, und dann die Taktrate um 20 Prozent nach oben drehe, steigt der Stromverbrauch quadratisch, und zwar um 73 Prozent. Wenn ich das jetzt aber umgekehrt mache, ich reduziere die Taktrate, dann brauche ich nur noch die Hälfte des Stroms, aber gewinne 73 Prozent an Leistung wenn ich den freien Platz dazu nutze, einen zweiten Kern einzusetzen."

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1211297077

Auch bei den GPU-Herstellern sieht es da nicht viel anders aus, die neue Generation wird wohl niedriger takten als die aktuellen Chips. Ein breiterer Chip mit niedrigeren Taktraten ist eben bedeutend stromsparender als ein hochgezüchteter, dafür schmalerer Chip - bei gleicher Leistung. In Zeiten, in denen die Leistung/Watt immer mehr an Bedeutung gewinnt, kann es sich niemand mehr leisten hier alles auf den Takt zu setzen.

Odal
2008-05-22, 10:34:50
Ich überdenke garnix!!!
Wieso muss man JEDEN neuen Sch... haben wollen, wenn DX10 nur zu einem Bruchteil ausgenutzt wurde?

Da hat scheinbar ein "Anderer" keine Ahnung! :wink:
Alles Neue haben wollen, aber meckern wenn es hier und da hakt.
Das gerade bei PC-HW viel Marketing dahintersteckt sollte jedem klar sein...

eben weil es hier und da hakt wäre DX10.1 eine gute Ergänzung/Verbesserung
übrigens finde ich deine PS3 shots nicht gerade beeindruckend...das gezeigte kann locker durch GTR2 mit custom strecken und custom texturen erreicht werden...und das gar ohne den unschärfemist um die miserable umgebung zu verdecken

Noch ein paar größere PCB Bilder:
http://img89.imageshack.us/img89/1249/2008052276e7838a450d9ecmz7.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/5051/200805220692d90f068b76bwp5.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/4426/200805229183401ab0a35a1pe3.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/295/295937.shtml

das pcb sieht nach ner sehr hohen stromaufnahme aus....

- Anzahl der Mosfets
- Anordnung der SpaWa chips und derauf zu schließende Kühlergröße
- stromanschlüsse

mapel110
2008-05-22, 10:43:07
Wird sich eigentlich beim G200 (GT200 wie auch immer) nichts an der Bildqualität ändern? Keine anderen AA oder AF-Modi? Irgendwohin muss doch die Power, oder werden sich alle an den 8xAA-Benchmarks ergözen müssen?!
Die Leistung/Takt stieg auch pro Core nicht gerade unerheblich.
Speicherbandbreitenbereinigt und im Vergleich zu Grakas sind die lächerlichen paar Prozente Peanuts.
Aber schön, dass du noch weitere Beispiele nennst, warum man GPUs nicht mit CPUs vergleichen kann. Nichts anderes wollte ich auch sagen.

Gast
2008-05-22, 10:45:56
Oehm, wundert sich niemand ueber den kleinen chip rechts auf dem board? The return of NVIO?

Gast
2008-05-22, 10:47:34
- Anzahl der Mosfets
- Anordnung der SpaWa chips und derauf zu schließende Kühlergröße

Wo siehst du da Mosfets?

Gast
2008-05-22, 10:47:42
Mist meinte natuerlich links.

Unyu
2008-05-22, 10:51:06
das pcb sieht nach ner sehr hohen stromaufnahme aus....

Die 9800GTX hat eine viel mächtigere Stromversorgung. :rolleyes:


Keine anderen AA oder AF-Modi?
Man könnte die SS-Hybrid Modi wieder offziell anbieten.
:)

Odal
2008-05-22, 10:56:02
Wo siehst du da Mosfets?

die dinger die auf ner 88GTX z.b. BL 121 heissen...

auf den bildern vom GT200 kann man leider die genaue bezeichnung nicht erkennen

Odal
2008-05-22, 10:57:43
Die 9800GTX hat eine viel mächtigere Stromversorgung. :rolleyes:


hat sie nicht...vergleich mal die PCBs

Godmode
2008-05-22, 11:04:19
Wenn ich die Bilder mit der Geforce 9800 GTX vergleiche, sieht die 9800 GTX Spannungsversorgung viel aufgeräumter aus.
http://pics.computerbase.de/2/0/9/8/7/14.jpg
Bei der 9800 GTX sehe ich vier Phasen, bei der GTX 280 6! Phasen, das heißt was!

edit: Bzw 9 wenn man die ganz hinteren drei Wandler auch noch mitzählt.