Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: sieben weitere D3D10-Produkte in Arbeit
AnarchX
2007-01-26, 16:25:55
Vielleicht so was wie G80-B1 wie beim Shrink des G73 auf 80 nm.=)
Würde ich auch sagen, ein G81 würde nach sich ziehen, dass man irgendetwas verändert hat am Chip, aber momentan sieht es eher nach einem reinen Shrink aus.
Und mit 80nm sollte ja nVidia doch mittlerweile genug Erfahrung gesammelt haben.
Godmode
2007-01-26, 16:41:27
G80 in 80nm Fertigung wäre eigentlich sehr reizvoll! Weniger Energieverbrauch, hoffentlich ein endlich sinnvoller 2D Energieverbrauch und bessere Taktbarkeit. Für Nvidia natürlich eine Verbesserung der Margen. Seit G70 ist Nvidia mit der Halfnode Strategie sehr gut gefahren!
Um wiewiel % nimmt die Die-Fläche ab, beim Shrink von 90nm auf 80nm?
robbitop
2007-01-26, 16:44:31
G80 = 24 ROPs, 6 partitions / 2 = 12 ROPs, 3 partitions.
Es geht aber nicht um die Anzahl von Einheitennamen sondern um Z/Color Werte die pro Takt geschrieben werden koennen. Eine Pipeline im klassischen Sinne muss lediglich eine Z Test Unit und einen Blender besitzen. Was der Begriff ROP in welcher Anzahl nun beinhaltet spielt keine Rolle, da das eh staendig variiert. Alles andere ist nur Schall und Rauch von irgendwelchen logischen Modellvorstellungen. Physikalisch ist das meiste eh ganz anders umgesetzt als auf irgendwelchen bunten Schematas.
AnarchX
2007-01-26, 16:48:26
Um wiewiel % nimmt die Die-Fläche ab, beim Shrink von 90nm auf 80nm?
G73-A2(90nm) = 127mm² (http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=111&orderby=release_date&order=Order&cname=)
G73-B1(80nm) = 100-105mm² (http://www.beyond3d.com/forum/showthread.php?t=37308)
=> 22%-18% kleiner
In der Theorie sind es 21%, also ist nV da schon sehr nah dran.
imho nicht so lohnend
65nm würd da deutlich mehr bringen, klar müsste man da noch etwas drauf warten
aber ich kann mir ende des jahre nicht schon wieder den G90 in 65nm vorstellen
Ailuros
2007-01-26, 21:18:23
Es geht aber nicht um die Anzahl von Einheitennamen sondern um Z/Color Werte die pro Takt geschrieben werden koennen. Eine Pipeline im klassischen Sinne muss lediglich eine Z Test Unit und einen Blender besitzen. Was der Begriff ROP in welcher Anzahl nun beinhaltet spielt keine Rolle, da das eh staendig variiert. Alles andere ist nur Schall und Rauch von irgendwelchen logischen Modellvorstellungen. Physikalisch ist das meiste eh ganz anders umgesetzt als auf irgendwelchen bunten Schematas.
Und Du brauchst diese Haarspalterei aus welchem Grund genau? Ich hab lediglich versucht zu erklaeren was der besagte newsblurb meinte und das sollte auch zeigen dass es irgendwo im Inhalt dieses gewaltig hapert. Der Rest ist fuer mich als Laie nutzlose Zahnpasta.
robbitop
2007-01-26, 22:33:55
Ich war lediglich so frei, dich zu korrigieren, wenn du schon auf klassische Pipelines anspielst. Das wird doch wohl erlaubt sein.
Das das ganze Gezaehle sinnfrei ist, wissen wir ja beide.
dargo
2007-01-29, 16:49:17
Mal ne bescheidene Frage - ist irgendwas zwischen einer G8800GTX und der G8800GTS 640MB geplant? Mir erscheint die Lücke zwischen den beiden etwas groß. So eine G8800GT für ~400€ Strassenpreis wäre nicht schlecht.
Mal ne bescheidene Frage - ist irgendwas zwischen einer G8800GTX und der G8800GTS 640MB geplant? Mir erscheint die Lücke zwischen den beiden etwas groß. So eine G8800GT für ~400€ Strassenpreis wäre nicht schlecht.
Vergiss bitte eines nicht: Die Lücke ist nur im moment so groß.
Sollte ATI einen wirklich guten Wurf landen, so wird nVidia an der Preisschraube von GTS und GTX drehen müssen und dann ist da keine Lücke mehr!
Sogesehen also: Nein!
AnarchX
2007-01-29, 20:21:17
Mal ne bescheidene Frage - ist irgendwas zwischen einer G8800GTX und der G8800GTS 640MB geplant? Mir erscheint die Lücke zwischen den beiden etwas groß. So eine G8800GT für ~400€ Strassenpreis wäre nicht schlecht.
Ich denke mit dem 80nm G80 könnte da vielleicht etwas kommen.
Wobei es momentan so ausschaut, dass die Bezeichnung GTS höher eingestuft wird als GT.
Vielleicht sehen wir bald eine 8900GT(8800GTS-Specs), 8900GTS und eine 8900GTX.;)
dargo
2007-01-29, 20:41:09
Vielleicht sehen wir bald eine 8900GT(8800GTS-Specs), 8900GTS und eine 8900GTX.;)
Das wäre nett. Die G8800GTS reizt mich nicht so ganz, zu wenig Performancevorteil zur meiner X1900XT. Ich bräuchte halt was mit ~100% Mehrleistung für ~400€. :D
Ailuros
2007-01-29, 20:57:39
Das wäre nett. Die G8800GTS reizt mich nicht so ganz, zu wenig Performancevorteil zur meiner X1900XT. Ich bräuchte halt was mit ~100% Mehrleistung für ~400€. :D
*hint* G9x *hint* :P
AnarchX
2007-01-31, 09:33:11
[GeForce 8800GTS 320MB Ready To Ship]
The card makers are now getting ready to ship out their GeForce 8800GTS 320MB cards to their respective customers around the world and we can expect to see mass availability of the cards on the stores on February 12th.[...]
http://www.vr-zone.com/index.php?i=4563
James Ryan
2007-01-31, 09:53:24
Würde ich auch sagen, ein G81 würde nach sich ziehen, dass man irgendetwas verändert hat am Chip, aber momentan sieht es eher nach einem reinen Shrink aus.
Und mit 80nm sollte ja nVidia doch mittlerweile genug Erfahrung gesammelt haben.
Wollen wir hoffen dass neben dem Shrink noch ein vernünftiger Stromsparmodus eingebaut wird.
Dann wäre der G80 nahezu perfekt!
MfG :cool:
AnarchX
2007-02-02, 08:26:54
8800GTS 320MB im Handel
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F175%2F175602.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
... aber momentan nur in Südafrika. ;)
Aber das dort die 320MB GTS 40% günstiger angeboten wird als die 640MB Version lässt zu hoffen.
Da bekommt wohl die X1950XT bald ernsthafte Konkurrenz.
AnarchX
2007-02-05, 13:41:30
[GeForce 8800GTS 320MB On Sale]
Just as expected, the GeForce 8800GTS 320MB cards have already hit the stores last weekend at the Singapore's Sim Lim Square. As usual, Leadtek and MSI have reached and both are going for S$509 (US$331), slightly higher than the suggested price of US$299.[...]
http://vr-zone.com/index.php?i=4588
Drunky
2007-02-05, 14:55:22
8800GTS 320MB im Handel
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F175%2F175602.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
... aber momentan nur in Südafrika. ;)
Aber das dort die 320MB GTS 40% günstiger angeboten wird als die 640MB Version lässt zu hoffen.
Da bekommt wohl die X1950XT bald ernsthafte Konkurrenz.
Warum sind die Karten denn in Südafrika zu bekommen? :confused:
Ist der Markt dort so groß für neue Hardware?
Die gelbe Eule
2007-02-06, 05:34:37
Wieviel Leistung würde die 320er in bestmöglicher Qualität unter 12x10 zur 640er einbüßen? Taktraten sollen ja die gleichen bleiben, soweit man das beurteilen kann. Könnte fast mit X1800XT 256er/512er zu vergleichen sein oder?
Wieviel Leistung würde die 320er in bestmöglicher Qualität unter 12x10 zur 640er einbüßen? Taktraten sollen ja die gleichen bleiben, soweit man das beurteilen kann. Könnte fast mit X1800XT 256er/512er zu vergleichen sein oder?
oder mit einer x1950xt?...ist ja schließlich eine neue generation (geforce 8800)
AnarchX
2007-02-06, 11:01:25
Wieviel Leistung würde die 320er in bestmöglicher Qualität unter 12x10 zur 640er einbüßen? Taktraten sollen ja die gleichen bleiben, soweit man das beurteilen kann. Könnte fast mit X1800XT 256er/512er zu vergleichen sein oder?
6% hatte jemand gemessen, der schon ein Sample hat.
Aber imo sollte man das sehr differenziert betrachten für die entsprechenden Games.
Aktuell ist der Unterschied eher gering, mit der Zeit könnte sich dies aber ändern -> siehe 6800 128MB vs 256MB.
Interessant ist. ob nV vielleicht am 12. den Treiber zum Launch releast, der das bisher nicht aktive MUL benutzt. ;)
Hvoralek
2007-02-06, 11:20:03
Der Bedarf an VRAM hängt v.a. von den verwendeten Texturen ab. Der Framebuffer macht da i.d.R. den kleineren Anteil aus.
LovesuckZ
2007-02-06, 11:24:25
Der Bedarf an VRAM hängt v.a. von den verwendeten Texturen ab. Der Framebuffer macht da i.d.R. den kleineren Anteil aus.
Inwieweit erhöht sich der Bedarf an der Speichermenge beim Ensatz vom MSAA im Verhältnis zu eingesetzten Color- und Coveragesamples?
Hvoralek
2007-02-06, 11:28:21
Inwieweit erhöht sich der Bedarf an der Speichermenge beim Ensatz vom MSAA im Verhältnis zu eingesetzten Color- und Coveragesamples?Der Frontbuffer besteht je zur Hälfte aus Farb- und z/St- Werten. Beim Backbuffer sind beide Teile jeweils um den AA- Faktor größer. Z.B. bei 16xQ mit 16 Farb- und 8 z/St- Werten (Das stimmt doch so, oder?) wäre der gesamte Backbuffer um den Faktor (16+8) : 2 = 12 größer als ohne AA. Der Frontbuffer ist bei einer bestimmten Auflösung immer gleich groß, unabhängig von AA.
AnarchX
2007-02-06, 18:21:31
Colorful 8800GTS 320MB für 2499¥ (~250€)
http://img109.imageshack.us/img109/2839/000416551dp9.jpg
http://www.pcpop.com/doc/0/176/176150.shtml
Interessant ist. ob nV vielleicht am 12. den Treiber zum Launch releast, der das bisher nicht aktive MUL benutzt. ;)
Was nicht geht, geht nicht.
;)
Was nicht geht, geht nicht.
;)
mul einheiten = schrott? (wie beim gf 6800gtx die videobeschleungung damals?)
AnarchX
2007-02-06, 20:16:48
Was nicht geht, geht nicht.
;)
Das hofft man wohl bei ATi. ;)
Das hofft man wohl bei ATi. ;)
Und die G80-Käufer hoffen das Gegenteil ;) ;) ;)
AnarchX
2007-02-06, 20:20:40
AFAIK gab es Andeutungen aus dem nV-Treiber-Team, dass man mit bestimmten Treiber einige Tests nochmal machen sollte.
Wobei aber die MUL wohl eh nicht sonderlich performancerelevant sein wird.
AFAIK gab es Andeutungen aus dem nV-Treiber-Team, dass man mit bestimmten Treiber einige Tests nochmal machen sollte.
Wobei aber die MUL wohl eh nicht sonderlich performancerelevant sein wird.
Na dann wirds wohl auch nichts mit dem angedeuteten (;)) Wundertreiber...
AnarchX
2007-02-07, 09:23:08
Na dann wirds wohl auch nichts mit dem angedeuteten (;)) Wundertreiber...
Es gibt auch noch andere Bereich, wo momentan noch die Performance nicht ganz stimmt.
Wobei aber dies wohl erst in den nächsten Monaten in Angriff genommen wird.
BlackArchon
2007-02-07, 23:10:27
Ohne jetzt -zig Seiten dieses Threads gelesen zu haben: wird es wieder die kleinste Mid-Range-Karte passiv gekühlt geben (wie die 7600 GS)? Sind weitere Daten darüber bekannt?
Endorphine
2007-02-08, 00:47:36
Ohne jetzt -zig Seiten dieses Threads gelesen zu haben: wird es wieder die kleinste Mid-Range-Karte passiv gekühlt geben (wie die 7600 GS)? Sind weitere Daten darüber bekannt? Das hängt doch von der Leistungsaufnahme ab Blacky. Und ob dann im Preisrahmen einer 8600 GS noch Platz ist für einen ausreichend leistungsfähigen Passivkühler. Ich denke aber die Chancen stehen ganz gut dafür.
Die gelbe Eule
2007-02-08, 08:02:03
Ich denke mit dem Refresh kann man die Verlustleitsung nochmals deutlich senken und das wird auch in die G84/G86 einfließen. Passiv geht immer, die Kühlfläche muss halt nur ordentlich groß sein. Aber vielleicht geht auch in Richtung AC oder Thermaltake noch etwas, Lüfter müssen nicht immer hörbar sein, damit sie funktionieren.
Anarchy-HWLUXX
2007-02-08, 14:07:48
XFX hat auch ne 7950GT mit nem passivkühler bestückt bekommen ... da sollten passive G84/86 auch kein großes ding sein ...
Anarchy-HWLUXX
2007-02-08, 16:10:29
Nvidia 8800GTS 320 details emerge
http://uk.theinquirer.net/?article=37519
Ömmm ... ich frag mich was der heini erwartet hat :rolleyes: Es ist ne GTS 640er mit Speicherchips halber Kapazität - was soll es denn sonst sein ? Nen G81-GTX Killer in 65nm für 299$ ;D Die metapher mit dem Kind im Rollstuhl ist einfach nur dämlich ... ne AGP X1300 wär nen Kind im Rollstuhl aber nicht ne X1950.
LovesuckZ
2007-02-08, 16:37:23
Aus dem selben Link:
First it recommends the 97.92 drivers over the newer ones.
Immerhin gibt es Montag einen neuen XP Treiber.
Endorphine
2007-02-08, 21:50:49
XFX hat auch ne 7950GT mit nem passivkühler bestückt bekommen ... da sollten passive G84/86 auch kein großes ding sein ... Technisch ist das überhaupt kein Problem. Es ist (wieder mal) nur eine Frage des Geldes. Je nachdem, wie hoch die Kühlungsanforderungen der 8600er werden steigen/sinken die Kosten eines passenden Passivkühlers. Wenn die Kosten zu hoch werden, dann sinken die Chancen, dass es viele Karten mit Passivkühler geben wird. Weil (übertrieben für Anschaulichkeit): es wird niemand eine 8600 GT für 400 EUR kaufen, nur weil diese einen Passivkühler hat.
Wir werden also sehen, wie hitzköpfig die Karten werden. Davon hängen dann die verwendeten Kühler ab. Ich bin auch gespannt, ob der hoch getaktete Speicher Kühlung benötigen wird, wenn sich die 128-Bit SI Gerüchte bestätigen.
darkcrawler
2007-02-09, 00:53:43
Wir werden also sehen, wie hitzköpfig die Karten werden. Davon hängen dann die verwendeten Kühler ab. Ich bin auch gespannt, ob der hoch getaktete Speicher Kühlung benötigen wird, wenn sich die 128-Bit SI Gerüchte bestätigen.
glaube ich nicht, bisher musste doch nix in der region 900mhz gddr3 gekühlt werden, oder?
Aus dem selben Link:
Immerhin gibt es Montag einen neuen XP Treiber.
Hm? Heist doch gar nichts, der 97.92 ist schon lange da und the Inq meint sicher FW100 für Vista so blau wie sie sind ^^
Ailuros
2007-02-09, 10:58:16
FiringSquad: Last year you stated that you planned to add additional overclocking functionality in nTune for GeForce 8800 cards, including the ability to independently overclock the stream processors. How is work progressing on this version of nTune, and when can we expect it to be released?
Dwight Diercks: This is already supported in nTune, but it requires some special code in our GPU drivers to support it. We are working on this now and we expect to support it in the March timeframe
Klingt nach einem "netten Zufall" :biggrin:
robbitop
2007-02-09, 11:01:59
Ein noch größerer Zufall dürfte der R600 Launchtreiber (für G80) sein, der plötzlich Treiberblasen reduziert und das MUL reaktiviert. (ich hab bei den G80 Benches das Gefühl, das das Teil noch zurückgehalten wird)
LovesuckZ
2007-02-09, 11:03:05
Hm? Heist doch gar nichts, der 97.92 ist schon lange da und the Inq meint sicher FW100 für Vista so blau wie sie sind ^^
Da steht eigentlich, dass die GTX 320 den 97.92 verlangt und der neuere nicht funktioniert.
Ergo müsste es einen neuen XP Treiber am Montag geben.
Außer die wollten wirklich den Vista - Treiber installieren... :ugly:
Ailuros
2007-02-09, 11:07:22
Ein noch größerer Zufall dürfte der R600 Launchtreiber (für G80) sein, der plötzlich Treiberblasen reduziert und das MUL reaktiviert. (ich hab bei den G80 Benches das Gefühl, das das Teil noch zurückgehalten wird)
Das Gefuehl liegt auf dem richtigen Pfad; man versicherte mir dass das MUL noch kommen wird. Leider hab ich nicht ueber den Zeitpunkt gefragt aber ich will wetten dass die Antwort wohl auch Maerz gewesen waere ;)
AnarchX
2007-02-09, 11:50:36
Da wird ja der März richtig spannend...
Vielleicht stellt ja nV im Zuge von SLI 2.0 auch noch ein 8800GTX-QSLI vor, bei welchem man sich dem nun offizielen ePCIe (http://www.theinquirer.net/default.aspx?article=37528) bedient um es einfach zu realisieren.
Anarchy-HWLUXX
2007-02-09, 12:29:25
Da wird ja der März richtig spannend...
Vielleicht stellt ja nV im Zuge von SLI 2.0 auch noch ein 8800GTX-QSLI vor, bei welchem man sich dem nun offizielen ePCIe (http://www.theinquirer.net/default.aspx?article=37528) bedient um es einfach zu realisieren.
Na ja ... alles auf einmal wird nV eher net herzaubern ;)
Demnächst Monatliche Treiber Releases -
http://www.computerbase.de/news/treiber/grafikkarten/nvidia/2007/februar/ab_nvidia-treiber/
Ailuros
2007-02-09, 13:38:47
Na ja ... alles auf einmal wird nV eher net herzaubern ;)
Demnächst Monatliche Treiber Releases -
http://www.computerbase.de/news/treiber/grafikkarten/nvidia/2007/februar/ab_nvidia-treiber/
Steht aber nichts ueber winXP drin, was wohl eher enttaueschend ist.
Godmode
2007-02-09, 13:52:08
Ein noch größerer Zufall dürfte der R600 Launchtreiber (für G80) sein, der plötzlich Treiberblasen reduziert und das MUL reaktiviert. (ich hab bei den G80 Benches das Gefühl, das das Teil noch zurückgehalten wird)
Was glaubt ihr wieviel % werden da noch frei werden, Um die 10 % oder doch mehr?
mapel110
2007-02-09, 13:56:32
Irgendwie spielt das keine Rolle. Dort wo die G80-Leistung knapp wird, geht dem Chip imo zuerst die Texelfüllrate aus und/oder die Speicherbandbreite. Arithmetik sollte nicht so entscheident sein. Jedenfalls dort, wo sich R600 und G80 begegnen; bei 1600x1200 4xAA/16AF und darüber. Oder seh ich das falsch?!
robbitop
2007-02-09, 14:01:53
Beides schwer zu beantworten. Anhand der Texelfüllrate müsste G80 R580 deutlich mehr verhauen als er es derzeit tut (derzeit nur 1,5-2x so schnell).
Der Chip skaliert allerdings nicht sonderlich doll, wenn man den Speicher übertaktet. Also nehme ich an, dass das Teil noch an unreifen Treibern leidet.
Die Performanceunterschiede zw einem Releasetreiber und einem reifen Treiber können durchaus 30% betragen. Aber das ist dann in einem Evolutionszyklus von Jahren verwachsen.
Ailuros
2007-02-09, 14:10:26
Irgendwie spielt das keine Rolle. Dort wo die G80-Leistung knapp wird, geht dem Chip imo zuerst die Texelfüllrate aus und/oder die Speicherbandbreite. Arithmetik sollte nicht so entscheident sein. Jedenfalls dort, wo sich R600 und G80 begegnen; bei 1600x1200 4xAA/16AF und darüber. Oder seh ich das falsch?!
Reine Theorie:
128 * 2 FLOPs * 1.35GHz = 346GFLOPs
128 * 3 FLOPs * 1.50GHz = 576GFLOPs
--------------------------------------
+66%
Willst Du wirklich denken dass solch ein Unterschied einen <10% Unterschied insgesamt machen wuerde? Und wenn Du schon dabei bist, denk bitte an kommende und nicht heutige Spiele.
Wo kommen jetzt die 1,5 GHz her? Übertaket ein neuer Treiber? Dennoch dürfte das MUL ganz gut etwas bringen. Zumindest in Shadermonstern wie F.E.A.R., NFS Carbon und kommenden Perlen.
MfG,
Raff
mapel110
2007-02-09, 14:13:44
Reine Theorie:
128 * 2 FLOPs * 1.35GHz = 346GFLOPs
128 * 3 FLOPs * 1.50GHz = 576GFLOPs
--------------------------------------
+66%
Willst Du wirklich denken dass solch ein Unterschied einen <10% Unterschied insgesamt machen wuerde? Und wenn Du schon dabei bist, denk bitte an kommende und nicht heutige Spiele.
Ach so ist das. Dachte, das Mul kann nicht sonderlich was. Was es genau kann und tun wird, ist doch sowieso noch nicht raus, oder?! Und obendrein sind das da doch theoretische Maximalwerte mit den FLOPs, die so in der Praxis eh nicht auftreten?!
Zu viele Fragezeichen, ich war halt zu lange weg von der Materie. ;(
Wo kommen jetzt die 1,5 GHz her? Übertaket ein neuer Treiber?
MfG,
Raff
Ich denke mal, da hat er den G80 @80nm schon mit eingerechnet?!
/edit2
hat sich ja mit dem nachfolgenden Posting von Ail geklärt...
Ailuros
2007-02-09, 14:14:59
Wo kommen jetzt die 1,5 GHz her? Übertaket ein neuer Treiber? Dennoch dürfte das MUL ganz gut etwas bringen. Zumindest in Shadermonstern wie F.E.A.R., NFS Carbon und kommenden Perlen.
MfG,
Raff
*ahem* http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5237223&postcount=542
robbitop
2007-02-09, 14:16:28
Das MUL kann begrenzt was bringen, sofern es nicht durch andere Dinge sowieso genutzt wird (Perspektivkorrektur/Input Modifier).
Ich denke aber, dass vor allem die Entfernung von "Treiberblasen" was bringen wird.
*ahem* http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5237223&postcount=542
Das erklärt aber nicht die genaue Zahl. ;) Das kann durchaus variieren.
MfG,
Raff
Ailuros
2007-02-09, 14:19:02
Ach so ist das. Dachte, das Mul kann nicht sonderlich was. Was es genau kann und tun wird, ist doch sowieso noch nicht raus, oder?! Und obendrein sind das da doch theoretische Maximalwerte mit den FLOPs, die so in der Praxis eh nicht auftreten?!
Zu viele Fragezeichen, ich war halt zu lange weg von der Materie. ;(
Man kann die MUL Einheit fuer general shading benutzen und ich da es direkt vom Maul des Loewen kommt, darfst Du es auch glauben. Ob Dir jetzt die theoretischen maximale Zahlen schmecken oder nicht duerfte wohl nebensaechlich sein, denn ueber 60% maximal mehr bedeutet auch ein sehr grosses Prozentual in Echtzeit wenn nicht gleich so gross.
Ich denke mal, da hat er den G80 @80nm schon mit eingerechnet?!
Vor dem Launch wurde uns versprochen dass es einen Treiber geben wird der die Shader unabhaengig uebertakten kann. Schau nochmal oben nach im neuesten Firingsquad Interview. Unter dem sinnlosen Geblubber steht drin dass nTune schon dazu faehig ist, und der Rest sind Entschuldigungen.....
Ailuros
2007-02-09, 14:20:32
Das erklärt aber nicht die genaue Zahl. ;) Das kann durchaus variieren.
MfG,
Raff
Es sind laecherliche 10%. Was bekomm ich wenn ich den chip insgesamt auf 630MHz takte?
robbitop
2007-02-09, 14:23:36
Werden alle G80 Karten die den neuen Treiber bekommen übertaktet oder macht man das selbst? Wenn es letzteres ist, kann man es natürlich nicht vergleichen.
Ailuros
2007-02-09, 14:27:08
Werden alle G80 Karten die den neuen Treiber bekommen übertaktet oder macht man das selbst? Wenn es letzteres ist, kann man es natürlich nicht vergleichen.
Man muss schon selber uebertakten; nach denjenigen die schon eine Chance hatten mit dem Zeug herumzuspielen macht es nur einen geringen Unterschied was Abwaerme bzw. Stromverbrauch betrifft aus. Wobei man natuerlich "gering" frei definieren kann (***edit: bis zu den ersten Tests eben).
robbitop
2007-02-09, 14:30:55
Das klingt gut. Kann man aber dennoch nicht in einen validen Vergleich einrechnen. :)
PCGH_Carsten
2007-02-09, 14:33:51
Beides schwer zu beantworten. Anhand der Texelfüllrate müsste G80 R580 deutlich mehr verhauen als er es derzeit tut (derzeit nur 1,5-2x so schnell).
Passt doch genau. 18,4 GTex vs. 10,4 GTex pro Sekunde.
Ailuros
2007-02-09, 14:37:31
Das klingt gut. Kann man aber dennoch nicht in einen validen Vergleich einrechnen. :)
Es gibt schon Vendor spezifische GPUs die auf 630/1000MHz getaktet sind.
robbitop
2007-02-09, 14:38:07
Passt doch genau. 18,4 GTex vs. 10,4 GTex pro Sekunde.
Ja, wenn nur ein bi Sample pro Texel anfällt. Das ist ja so gut wie nie der Fall.
G80 kann ~3,5x so viele Textursamples pro Zeiteinheit (meinetwegen sekunde) verarbeiten wie R580. Spätestens mit AF sollte das auch nutzbar sein. Offenbar ist die Texelfüllrate nicht der Flaschenhals.
Es gibt schon Vendor spezifische GPUs die auf 630/1000MHz getaktet sind.
Diese Vendors gibt's doch schon lange. In der Presse testet man allerdings normalerweise mit Referenztaktraten.
Ailuros
2007-02-09, 14:46:53
Diese Vendors gibt's doch schon lange. In der Presse testet man allerdings normalerweise mit Referenztaktraten.
Wenn bei Dir ca 3 Wochen "lange" ist dann von mir aus. Asus hat erst vor Tagen ein Wassergekuehltes Dingsbums angekuendigt (moenstroes das Teil) und es wird wohl in absehbarer Zeit Reviews ueber Vendor-spezifische GPUs geben.
So in der Art eben: http://www.hexus.net/content/item.php?item=7780
LovesuckZ
2007-02-09, 14:50:35
Ja, wenn nur ein bi Sample pro Texel anfällt. Das ist ja so gut wie nie der Fall.
G80 kann ~3,5x so viele Textursamples pro Zeiteinheit (meinetwegen sekunde) verarbeiten wie R580. Spätestens mit AF sollte das auch nutzbar sein. Offenbar ist die Texelfüllrate nicht der Flaschenhals.
Die meisten Tests verwenden bei ATi nicht A.I off. Das verwischt natürlich die Ergebnisse, wenn die X1950XTX mit geringerer Genauigkeit auf jeder Stage filtert.
robbitop
2007-02-09, 14:50:50
Wenn bei Dir ca 3 Wochen "lange" ist dann von mir aus. Asus hat erst vor Tagen ein Wassergekuehltes Dingsbums angekuendigt (moenstroes das Teil) und es wird wohl in absehbarer Zeit Reviews ueber Vendor-spezifische GPUs geben.
So in der Art eben: http://www.hexus.net/content/item.php?item=7780
Nein damit meine ich die Grafikkartenhistorie. Das gab's bisher bei soziemlich jeder GPU Serie. Und dennoch fließen die (aufgrund des deutlich erhöten Preises vermutlich) nicht in die Vergleiche ein. Oder nur in vereinzelten Tests. :)
Die meisten Tests verwenden bei ATi nicht A.I off. Das verwischt natürlich die Ergebnisse, wenn die X1950XTX mit geringerer Genauigkeit auf jeder Stage filtert.
Es ist nur die Frage, wieviel davon auf die Texturfüllrate und wieviel auf irgendwelche Gameoptimierungen (von denen es ja auch generelle gibt) zurrückgehen.
AnarchX
2007-02-09, 16:40:21
Fuad setzt die Spekulationen zu einem Bild zusammen:
Geforce 8900 comes into view
Overclocked G80 with a driver tweak
NVIDIA is working on one more overclock of the G80 chip.
We just wrote about EVGA 8800 GTX overclocked edition that works at 626MHz and somehow we know that 630MHz is the top for this chip. You can read all about it here.
Nvidia plans to introduce the new overclocked card with a driver tweak. This card is supposed to give DAAMIT's R600 a run for its money.
We don’t know how much further Nvidia can push the G80 chip but it obviously has some secret driver that can unleash some more performance. We just don’t know how much more performance they can possibly unleash. µ
http://www.theinquirer.net/default.aspx?article=37544
Also ne 10% schnellere G80 werden sie sicher nicht 8900 nennen :rolleyes:
AnarchX
2007-02-09, 17:26:36
Also ne 10% schnellere G80 werden sie sicher nicht 8900 nennen :rolleyes:
Natürlich nicht, aber mit 630/1000MHz + extra ALU-OC + Treiber der das MUL aktiviert und ein paar andere Performance-Probleme beseitigt, könnte man durchaus nochmal vor dem oder zum R600-Launch überraschen. ;)
Anarchy-HWLUXX
2007-02-09, 17:29:25
Also 8900 Ist sicherlich für die G81 reserviert ... wenn se nicht gerade sowas wie bei der 6800->7800 produzieren und mehr Schader draufpacken :hmm:
Es ist nur die Frage, wieviel davon auf die Texturfüllrate und wieviel auf irgendwelche Gameoptimierungen (von denen es ja auch generelle gibt) zurrückgehen.
Pech für ATI. Ich hoffe bloß dass jedes Review R600 vs. G80 mit A.I. Low und HQ vorgenommen wird, damit ATI es endlich unterlässt das zu koppeln.
AnarchX
2007-02-09, 17:36:55
Erste Benches zur 8800GTS 320MB!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=348427
Anarchy-HWLUXX
2007-02-09, 17:47:45
Leider ohne vergleichswerte :( na ja, am 12. soll die Review flut kommen - so lang kann man noch warte ...
Gibt es zu den Mainstream-Chips schon was neues?
seahawk
2007-02-09, 21:42:45
Naja 630-650MHZ + Wundertreiber hört sich doch gar nicht schlecht an für ne 8900. Nur ob der Chip ein overclocked G80 ist oder ein G80 Shrink .... Das öffnet den Platz für ne 8900GT mit dem Takt der heutigen 8800GTX... Kommt einem bekannt vor oder ?
robbitop
2007-02-10, 08:40:33
Pech für ATI. Ich hoffe bloß dass jedes Review R600 vs. G80 mit A.I. Low und HQ vorgenommen wird, damit ATI es endlich unterlässt das zu koppeln.
Du meinst A.I off? Ja das ist leider nur vereinzelt der Fall (HT4U z.B.). Da sackt die Radeon extrem ab. Aber dafür hörts auf zu flimmern.
Magnificus
2007-02-10, 10:00:20
Ich kann das nicht genau einordnen, bei wow-europe.com kann man eine Geforce 8800 GX2 gewinnen.
http://www.wow-europe.com/de/contests/twoyear/
Läuft das unter Übersetzungsfehler oder ist das eine versteckte neuankündigung. Auf der Seite steht jedenfalls 3 Mal GX2...
reunion
2007-02-10, 10:08:40
Solange nV die Karte nicht vorgestellt hat, kann man die mit Sicherheit nirgends gewinnen.
Konami
2007-02-10, 14:44:20
Ich kann das nicht genau einordnen, bei wow-europe.com kann man eine Geforce 8800 GX2 gewinnen.
http://www.wow-europe.com/de/contests/twoyear/
Läuft das unter Übersetzungsfehler oder ist das eine versteckte neuankündigung. Auf der Seite steht jedenfalls 3 Mal GX2...
LOL, ich wusste ja schon, dass Blizzard extrem schlecht übersetzt, aber dieser Fehler bringt mich nun dazu, auch noch das letzte Lesezeichen zu deutschen Blizzardseiten zu löschen.
On February 11, 2005, World of Warcraft launched in Europe. To celebrate our two year anniversary, we're giving out great loot. Read below to find out how you can qualify to win an Alienware PC* or an Nvidia GeForce 8800 GTX graphics card! To find out more about the terms and conditions of these contests, please go here.
Also ganz sicher kein Hinweis.
man hätte auch einfach den link nach alienware folgen können ;)
Man kann die MUL Einheit fuer general shading benutzen und ich da es direkt vom Maul des Loewen kommt, darfst Du es auch glauben. Ob Dir jetzt die theoretischen maximale Zahlen schmecken oder nicht duerfte wohl nebensaechlich sein, denn ueber 60% maximal mehr bedeutet auch ein sehr grosses Prozentual in Echtzeit wenn nicht gleich so gross.
ähm man sollte aber nicht die stalls vergessen
es sind sicher keine 60% auch nicht annähernd
Ailuros
2007-02-11, 10:51:48
ähm man sollte aber nicht die stalls vergessen
es sind sicher keine 60% auch nicht annähernd
Welche stalls denn genau?
robbitop
2007-02-11, 11:05:37
Und woher kommen diese 60%? :|
Welche stalls denn genau?
Die welche unter Parallelbenutzung in Kombination mit 2xmadd+1mul auftreten
immerhin ist nicht alles entkoppelt
Ailuros
2007-02-11, 11:17:08
Die welche unter Parallelbenutzung in Kombination mit 2xmadd+1mul auftreten
immerhin ist nicht alles entkoppelt
60+ % mehr Shader-power bedeutet nie genauso viel mehr Leistung und das hat auch keiner angedeutet; wenn Du nochmal meinen originalen Kommentar hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5237733&postcount=552
....liest dann sagte ich klipp und klar dass die theoretischen 66% wohl doch mehr als <10% ausmachen werden. Ich hab weder ein konkretes Prozentual behauptet, noch auf irgendwas in der Naehe von 60% geschaetzt.
Der Rest ist Angelegenheit des Compilers, der aber noch so manche Kinderkrankheiten mit sich schleppt.
Allerdings suggerierte dein Beitrag einen deutlichen Zuwachs an Performance weit über 10%. Dies sollte so bezweifelt werden. Zum einen ist MUL weniger Praxisrelevant und zum anderen lassen sich die drei Recheneinheiten in der Praxis selten komplett auslasten. Jede nicht entkoppelte Recheneinheit mehr ist mit einem deutlichem Absinken der Effizienz besegnet.
Zwar nicht direkt vergleichbar aber in Ansätzen schon sind die ALUs des G70 im Vergleich zum NV40 und aus der Anzahl begründete Effizienz.
Im Prinzip wage ich zu behaupten das die funktionierenden MULs nur einen sehr geringen Performanceanstieg bedingen werden. Viel mehr als 10% sind praxisbezogen nicht zu erwarten.
robbitop
2007-02-11, 15:20:27
NV40 besaß auch 2x ALUs pro Pipeline. Eine davon MUL und die andere MAD/TEX.
Warum sollen stalls entstehen durch dual issue? Erstens ist ein Shader selten in einem einzigen Takt durch und zweitens wird geloopt, wenn mehr Aufwand anfällt.
Die gelbe Eule
2007-02-11, 23:14:09
Wann fällt das NDA zur 8800GTS 320MB? Heute um 0:00 Uhr oder morgen um 14:00 Uhr?
robbitop
2007-02-12, 09:33:49
Was ist denn so interessant an ner lange existierenden Karte mit 1/2 weniger Speicher und 30 EUR geringerer Preis für den Endkunden?
Die gelbe Eule
2007-02-12, 09:42:35
Das sie kaum langsamer ist als die 640er unter 1280x1024. Nicht jeder hat einen 20.1" TFT oder einen 24" Sony damit es sich lohnt die 640er zu kaufen.
Speicher ist nicht immer alles, weil Anno1701 und FEAR interessieren mich vom Genre überhaupt nicht.
Ailuros
2007-02-12, 09:49:52
Das sie kaum langsamer ist als die 640er unter 1280x1024. Nicht jeder hat einen 20.1" TFT oder einen 24" Sony damit es sich lohnt die 640er zu kaufen.
Speicher ist nicht immer alles, weil Anno1701 und FEAR interessieren mich vom Genre überhaupt nicht.
Er hat aber trotzdem recht; bei 30 Euro Unterschied wuerde ich trotz allem auf Nummer Sicher gehen.
Die gelbe Eule
2007-02-12, 09:59:02
Wenn es nur 30€ sind, es gab schon einen Shop für 290€, in England sind es bereits umgerechnet 285€. Ist ja nicht so das einiges unspielbar wird, nur weil 192 MB RAM fehlen.
Anarchy-HWLUXX
2007-02-12, 10:04:35
Er hat aber trotzdem recht; bei 30 Euro Unterschied wuerde ich trotz allem auf Nummer Sicher gehen.
Für die intelligenzbestien :
Es könnte möglich sein das der Preis (wie er es IMMER tut) runter geht :rolleyes:
Wie lang ist die GTS 640 am Markt ? Seit mitte November ... wann wurde ddie 320er Released - bisher garnicht ...
Der Preis in USA ist 299$ - das heisst in DE wird es unter 250€ gehen. Und vonwegen 1$=1€, schaut euch mal die 640er Preis an hier und in USA.
Ailuros
2007-02-12, 10:23:37
Momentan finde ich bei lokalen Online Verkaeufern die 320 GTS mit ca. 340€ und die 640 GTS mit 380€. Kein Zweifel dass sich der Preis der ersten weiterhin reduzieren koennte, aber es geht hier um die zeitlichen Preise.
Ist ja nicht so das einiges unspielbar wird, nur weil 192 MB RAM fehlen.
Dein Geld und Deine Entscheidung denn Du weisst ja selber was genau Du brauchst. Ganz nebenbei ist es "nur" die Haelfte des Speichers und 320MB weniger; wo Du die angeblichen 192MB siehst ist mir fremd.
dargo
2007-02-12, 11:03:59
Momentan finde ich bei lokalen Online Verkaeufern die 320 GTS mit ca. 340€ und die 640 GTS mit 380€. Kein Zweifel dass sich der Preis der ersten weiterhin reduzieren koennte, aber es geht hier um die zeitlichen Preise.
Trotzdem muss ich Anarchy-HOCP recht geben. Die 640MB Version hatte 3 Monate Zeit damit sich der Strassenpreis stabilisiert, die 320MB Version wird erst heute offiziell vorgestellt. Und wenn die UVPs so bleiben unterhalten wir uns nochmal in einem Monat. :)
Edit:
http://shop.stackswap.net/product_info.php?products_id=652
Und bitte nicht vergessen, wir haben heute Launchtag.
Superheld
2007-02-12, 11:10:11
wann gehts los mit tests ?
Die gelbe Eule
2007-02-12, 11:13:41
14:00 Uhr gmt+0.
Ailuros
2007-02-12, 12:09:26
Trotzdem muss ich Anarchy-HOCP recht geben. Die 640MB Version hatte 3 Monate Zeit damit sich der Strassenpreis stabilisiert, die 320MB Version wird erst heute offiziell vorgestellt. Und wenn die UVPs so bleiben unterhalten wir uns nochmal in einem Monat. :)
Edit:
http://shop.stackswap.net/product_info.php?products_id=652
Und bitte nicht vergessen, wir haben heute Launchtag.
Der 640MB Preis wurde erstmal von NV selber reduziert wenn's schon sein muss. Wir koennen uns gerne nochmal darueber unterhalten wenn die ersten neuen Spiele auf die Regale kommen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/
extreme einbrüche bei cod2
wobei ich glaube das tsaa die ursache ist
CoD2 ist bekannt dafür mehr als 512MiB VRAM zu verbrauchen.
TSSAA braucht auch nicht mehr Speicher als nur Multisampling.
CB bencht ja immer mit TSAA an oder? Hirnrissig, weils jede Karte auch die der nächsten Generation in höheren Auflösungen gnadenlos gegen die Wand fährt. SS2 frisst Füllrate wie das Krümelmonster Kekse...
Aber schön das sie sich die Mühe machen 8xAA zu messen, welches eigentlich? 8xQ, 8xAA oder 16xAA? Hohe CSAA sollte auch die kleine GTS fahren können, in 1280*1024 frisst das nicht viel Speicher. Mal Texture Speicher Hungrige Games mal außen vor ^^
Hier ist die Foren Liste der Games die Speicher futtern: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298823
Mr. Lolman
2007-02-12, 19:08:46
CB bencht ja immer mit TSAA an oder? Hirnrissig, weils jede Karte auch die der nächsten Generation in höheren Auflösungen gnadenlos gegen die Wand fährt. SS2 frisst Füllrate wie das Krümelmonster Kekse...
Mal abgesehen davon, dass bei ATi Karten EATM nicht nur performanceseitig die deutlich bessere Wahl ist (~1-3% zu normalem MSAA), sondern in div Spielen auch besser aussieht als AAA...
LovesuckZ
2007-02-12, 19:10:54
Mal abgesehen davon, dass bei ATi Karten EATM nicht nur performanceseitig die deutlich bessere Wahl ist (~1-3% zu normalem MSAA), sondern in div Spielen auch besser aussieht als AAA...
Und warum sollte das besser aussehen?
The_Invisible
2007-02-12, 19:53:47
Mal abgesehen davon, dass bei ATi Karten EATM nicht nur performanceseitig die deutlich bessere Wahl ist (~1-3% zu normalem MSAA), sondern in div Spielen auch besser aussieht als AAA...
noch nichts von TMAA gehört? das selbe in grün...
mfg
Mr. Lolman
2007-02-12, 21:24:22
noch nichts von TMAA gehört? das selbe in grün...
mfg
TMAA, funzt bei Minification afaik nicht so dolle.
Und warum sollte das besser aussehen?
Über den technischen Hintergrund bin ich mir noch nicht ganz im Klaren, aber überzeug dich selbst (auf die Palmen kucken):
EATM: http://666kb.com/i/algo7zrgt3yz6qpme.jpg
TSAA: http://img217.imageshack.us/my.php?image=28587970eo4.jpg
Noch 2 4xAA/EATM TDU Pics:
http://img509.imageshack.us/img509/3034/untitled1pn9.th.png (http://img509.imageshack.us/my.php?image=untitled1pn9.png) http://img522.imageshack.us/img522/2446/untitled2np0.th.png (http://img522.imageshack.us/my.php?image=untitled2np0.png)
Blaire
2007-02-12, 21:37:06
EATM ist nix anderes als TRMSAA. Soll ja auch bald offiziell werden vermutlich gibts da noch etliche Probleme mit Details verschlucken und flackern.
Edit: Bei deinen TRSAA Screen scheint so als wäre garkein TRSAA an ;)
Hier mal 2 Screens aus Oblivion:
EATM:
http://img179.imageshack.us/my.php?image=oblivionbld4.jpg
QAAA:
http://img329.imageshack.us/my.php?image=oblivionagz6.jpg
Man sieht das EATM deutlich schlechter aussieht und das sieht auch verdammt nach TRMSAA aus.
Mr. Lolman
2007-02-12, 21:42:52
EATM ist nix anderes als TRMSAA.
Vom Funktionsprinzip her hast du Recht. Aber mit den ganzen ATM Regkeys kann man sich das so zurechttweaken, dass es TRMSAA (imo) deutlich überlegen ist.
Ohne Alphatestglättung siehts so aus: http://666kb.com/i/algyer2qx8nzfnm4l.jpg
Die gelbe Eule
2007-02-12, 21:44:06
Mal abgesehen davon, dass bei ATi Karten EATM nicht nur performanceseitig die deutlich bessere Wahl ist (~1-3% zu normalem MSAA), sondern in div Spielen auch besser aussieht als AAA...
Mit A.I. off? Weil wenn dann bitte unoptimiert.
Blaire
2007-02-12, 21:49:08
Vom Funktionsprinzip her hast du Recht. Aber mit den ganzen ATM Regkeys kann man sich das so zurechttweaken, dass es TRMSAA (imo) deutlich überlegen ist.
Ohne Alphatestglättung siehts so aus: http://666kb.com/i/algyer2qx8nzfnm4l.jpg
Aber wieso sollte man das? TRSAA rein und fertig. :D Sonst isses nix halbes und nix ganzes. :biggrin:
Mr. Lolman
2007-02-12, 21:53:45
Mit A.I. off? Weil wenn dann bitte unoptimiert.
Die Pics waren mit AIlow. Ich spiels mit AI High. Trotzdem sind die Texturen in TDU sogar (vgl mit einem G3) so sehr flimmerfrei, dass es vll sogar einen Sinn ergäbe mit negativem LOD-Bias weiter entferne Bäume etwas zu schärfen :naughty:
Aber wieso sollte man das? TRSAA rein und fertig. :D Sonst isses nix halbes und nix ganzes. :biggrin:
Siehst ja. Sieht (meistens) besser aus als TSAA und ist viel flotter.
Man sieht das EATM deutlich schlechter aussieht und das sieht auch verdammt nach TRMSAA aus.
Wo? Ich finde, es sieht besser aus. Die Bäume wirken nicht so verhungert. Kannst ja mal nen TMSAA Vergleichsshot machen. :)
Blaire
2007-02-12, 21:58:15
Siehst ja. Sieht (meistens) besser aus als TSAA und ist viel flotter.
Wo sehe ich das? Ich hab andere Beobachtungen gemacht, bin sogar der Meinung das TRSAA teilweise mehr bearbeitet als QAAA.
Supersampling lässt garantiert nichts "verhungern". Das geht prinzipbedingt nicht.
Mr. Lolman
2007-02-12, 22:02:41
Supersampling lässt garantiert nichts "verhungern". Das geht prinzipbedingt nicht.
EATM bringt aus irgendeinem Grund trotzdem mehr Details. Hier im Thread gibts jetzt schon 2 Vergleiche, irgendwo anders gabs auch mal ein paar in HL², wo man sah, dass EATM neben mehr Details an den Bäumen auch diverse (Balkon)Gitter anzeigte, Wo 4xTSSAA zwar 4xbesser als noAA war, aber immernoch nicht annähernd so wie EATM.
Keine Ahnung warum das so ist.
/edit: Es dürfte aber irgendwie mit dem AF zusammenhängen. Diese Detailsteigerung gibts nämlich nur mit TreiberAF...
CCC AF: http://666kb.com/i/aij5sk0j81zyq4xti.jpg
App AF: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=4895734#post4895734
Blaire
2007-02-12, 22:05:47
Weil du es gerade ansprichst HL2 warum fehlen bei Ati eigentlich die Zäune bzw. Gitter wenn EATM oder QAAA aktiviert ist?
Wo? Ich finde, es sieht besser aus. Die Bäume wirken nicht so verhungert. Kannst ja mal nen TMSAA Vergleichsshot machen. :)
Ich seh eindeutig das EATM fast nix bearbeitet im Gegensatz zum QAAA. Dann kann mans auch gleich abschalten ...
Die gelbe Eule
2007-02-12, 22:05:58
Die Pics waren mit AIlow. Ich spiels mit AI High. Trotzdem sind die Texturen in TDU sogar (vgl mit einem G3) so sehr flimmerfrei, dass es vll sogar einen Sinn ergäbe mit negativem LOD-Bias weiter entferne Bäume etwas zu schärfen :naughty:
Du als Verfechter der nichtoptimierten Bildqualität verwunderst mich hier gerade. Poste bitte also nur Bilder ohne Optimierungen, danke.
Mr. Lolman
2007-02-12, 22:13:46
Du als Verfechter der nichtoptimierten Bildqualität verwunderst mich hier gerade. Poste bitte also nur Bilder ohne Optimierungen, danke.
Nun tu nicht so scheinheilig. Nur weils gerade in ist NV mit HQ zu benchen, brauchste da nicht zickig werden. In Wahrheit weiss man eh nie wann und wo optimiert wird. Und solang die BQ ok ist (und das ist sie in TDU!!), gibts da keine Einwände.
Und EATM 'bearbeitet' (mit TreiberAF) viel mehr als AAA - bei weit besserer Geschwindigkeit!
Weil du es gerade ansprichst HL2 warum fehlen bei Ati eigentlich die Zäune bzw. Gitter wenn EATM oder QAAA aktiviert ist?
Das ist irgendwie so ein seltsamer Schmarrn. Will man mit AAA spielen, ist in HL² AppAF besser, für EATM CP/CCC-AF.
Ich seh eindeutig das EATM fast nix bearbeitet im Gegensatz zum QAAA. Dann kann mans auch gleich abschalten ...
Dann siehst du was anderes als ich. TDU Screenshots angesehen? Oder spielst du dich ganze Zeit mit TRMSAA und denkst EATM funzt genauso?
(außerdem ists ja nicht EATM alleine. Insgesamt sind da 4 weitere ATM Regkeys im Spiel)
Blaire
2007-02-12, 22:24:57
Das ist irgendwie so ein seltsamer Schmarrn. Will man mit AAA spielen, ist in HL² AppAF besser, für EATM CP/CCC-AF.
QAAA:
http://img406.imageshack.us/img406/9257/hl2docksuk1.jpg
Sieht aber immer so aus. :rolleyes: Traurig das man bei Ati überhaupt Tricks anwenden(wissen) muss um optimale BQ zu erreichen.
Dann siehst du was anderes als ich. TDU Screenshots angesehen? Oder spielst du dich ganze Zeit mit TRMSAA und denkst EATM funzt genauso?
(außerdem ists ja nicht EATM alleine. Insgesamt sind da 4 weitere ATM Regkeys im Spiel)
Wenn du den Unterschied nicht sehen kannst(willst) dann kann ich dir auch nicht helfen. Das ist doch wohl offensichtlich. Ich bewerte nicht die TDU Screenshots sondern die Shots aus Oblivion und die Unterschiede sind deutlich. Zu -> TDU hät ich das gern mal überprüft. Aber ne frei downloadbare Demo gibts ja leider nicht.
Mr. Lolman
2007-02-12, 22:33:17
QAAA:
http://img406.imageshack.us/img406/9257/hl2docksuk1.jpg
Sieht aber immer so aus. :rolleyes: Traurig das man bei Ati überhaupt Tricks anwenden(wissen) muss um optimale BQ zu erreichen.
Lol. EATM ist ein Feature, Mann. Das kostet im vgl zu standard MSAA fast nix und verbessert die BQ ungemein. Was soll daran traurig sein? :crazy:
Wenn du den Unterschied nicht sehen kannst(willst) dann kann ich dir auch nicht helfen. Das ist doch wohl offensichtlich. Ich bewerte nicht die TDU Screenshots sondern die Shots aus Oblivion und die Unterschiede sind deutlich. Zu -> TDU hät ich das gern mal überprüft. Aber ne frei downloadbare Demo gibts ja leider nicht.
Bitte zeichne mir den Unterschied in den Pics ein. Die nahen Bäume schauen mit EATM imo (tw. deutlich) besser aus. Und für die (hier) minimalen Dithering Ansätze in der Ferne gibts die Regkeys...
BTW: Hast du von der HL² Stelle ein Savegame?
Die gelbe Eule
2007-02-12, 22:37:13
Nun tu nicht so scheinheilig. Nur weils gerade in ist NV mit HQ zu benchen, brauchste da nicht zickig werden. In Wahrheit weiss man eh nie wann und wo optimiert wird. Und solang die BQ ok ist (und das ist sie in TDU!!), gibts da keine Einwände.
Falsch, es ist nun standard geworden, weil der G8X nun gleiche Qualität, wenn nicht sogar auf den AF Stages bessere bietet und genau da sollte man bei ATi nicht rumdoktorn. In Wahrheit weiß man aber das mit A.I. off nicht mehr optimiert wird, verstehe nicht das Du Dich nun davor verschließt. In TDU würde es gewaltig einbrechen, denke das ist Dir sogar bewußt.
Lol. EATM ist ein Feature, Mann. Das kostet im vgl zu standard MSAA fast nix und verbessert die BQ ungemein. Was soll daran traurig sein? :crazy:
Welches nicht für den Ottonormaluser einzustellen ist im CP oder CCC. Versteckte Features über Reg Key sind keine Features, sondern Tweaks.
Black-Scorpion
2007-02-12, 22:38:51
QAAA:
http://img406.imageshack.us/img406/9257/hl2docksuk1.jpg
Sieht aber immer so aus. :rolleyes: Traurig das man bei Ati überhaupt Tricks anwenden(wissen) muss um optimale BQ zu erreichen.
Und was waren für Verrenkungen nötig um diese zu haben bevor es den G80 gab?
Trauig das da keine Sau interessiert hat.
Mit dem Spruch machst du deinem Benutzerbild alle Ehre.
Blaire
2007-02-12, 22:44:06
Lol. EATM ist ein Feature, Mann. Das kostet im vgl zu standard MSAA fast nix und verbessert die BQ ungemein. Was soll daran traurig sein? :crazy:
Das meinte ich auch nicht damit sondern eher die Tricks die du anführtest.
Ist doch toll wenn dir die Qualität von EATM ausreicht. Mir gefällts nicht.
Bitte zeichne mir den Unterschied in den Pics ein. Die nahen Bäume schauen mit EATM imo (tw. deutlich) besser aus. Und für die (hier) minimalen Dithering Ansätze in der Ferne gibts die Regkeys...
Was soll man da einkreisen? LOL Sieht man praktisch über den gesamten Bildschirm. Geb dir mal nen Tip: Schau dir mal den Baum links oben an und switche zwischen beiden Bildern hin und her.
BTW: Hast du von der HL² Stelle ein Savegame?
Hab ich leider nicht. Aber ist wohl generell so und kommt häufiger vor.
Mr. Lolman
2007-02-12, 22:56:09
Was soll man da einkreisen? LOL Sieht man praktisch über den gesamten Bildschirm. Geb dir mal nen Tip: Schau dir mal den Baum links oben an und switche zwischen beiden Bildern hin und her.
Hab ich gemacht. Und ich bin der Meinung, dass EATM besser aussieht.
Falsch, es ist nun standard geworden, weil der G8X nun gleiche Qualität, wenn nicht sogar auf den AF Stages bessere bietet und genau da sollte man bei ATi nicht rumdoktorn. In Wahrheit weiß man aber das mit A.I. off nicht mehr optimiert wird, verstehe nicht das Du Dich nun davor verschließt. In TDU würde es gewaltig einbrechen, denke das ist Dir sogar bewußt.
Ich trau mich fast wetten, dass ATi AIlow im TDU ne bessere BQ bringt als NV HQ. Streckenmarkierungen ahoi (ist ja in div Rennnspielen so, selbst noch am G80)
Blaire
2007-02-12, 23:12:02
Und was waren für Verrenkungen nötig um diese zu haben bevor es den G80 gab?
Trauig das da keine Sau interessiert hat.
Verstehe wirklich nicht was du meinst? Das Bild wurde mit einer X1950XTX erstellt vor ca. 3 Wochen. Nicht von mir sondern von einem ganz bekannten Ati GK Besitzer aus diesem Forum.
Mit dem Spruch machst du deinem Benutzerbild alle Ehre.
Egal, ich spreche immer nur für mich . Der Spruch war vieleicht etwas unpassend das war aber eher in Richtung Mr.Lolman gemeint weil wir eine ähnliche Diskussion damals schonmal führten. Im Bezug auf das hier: http://enthusiast.hardocp.com/image.html?image=MTE2Mjg1NDM5NDdlWWVIY2F3WlVfMTRfNV9sLnBuZw==
Mal abgesehen davon, dass bei ATi Karten EATM nicht nur performanceseitig die deutlich bessere Wahl ist (~1-3% zu normalem MSAA), sondern in div Spielen auch besser aussieht als AAA...
Bildqualität liegt im Auge des Betrachters und in bin der Meinung das MSAA und AAA (whatever) gleich aussehen, teilweise aber zu Unterschiedlichen Ergebnissen führen in manchen Spielen. TSAA aber unerreicht ist, X3 als Beispiel sieht nur ab 8xQ mit TSAA wirklich Aliasing frei aus.
BTW brauch es dafür kein Registry Hack oder Tweak Tool, nur ein offizieller Treiber und fertig.
Hier mal 2 Screens aus Oblivion:
EATM:
http://img179.imageshack.us/my.php?image=oblivionbld4.jpg
QAAA:
http://img329.imageshack.us/my.php?image=oblivionagz6.jpg
Man sieht das EATM deutlich schlechter aussieht und das sieht auch verdammt nach TRMSAA aus.
EATM sieht viel besser aus, bei QAAA fehlen teilweise Äste und die Blätter sind total endstellt!
Hab ich gemacht. Und ich bin der Meinung, dass EATM besser aussieht.Was ist EATM?
Konami
2007-02-13, 00:27:26
Was ist EATM?
Von dem, was ich bisher mitbekommen habe, ATIs TMSAA. Falls es einen Unterschied zu nVidias Version gibt, wäre ich für Infos auch sehr dankbar. :)
dargo
2007-02-13, 00:28:10
Der 640MB Preis wurde erstmal von NV selber reduziert wenn's schon sein muss.
Ja, natürlich. Eben auf 399$. Sind immer noch 100$ mehr als die 320MB Version.
Blaire
2007-02-13, 00:29:21
EATM sieht viel besser aus, bei QAAA fehlen teilweise Äste und die Blätter sind total endstellt!
Dann braucht man auch kein TRAA ;) Es soll ja nicht grob wirken sondern schön geglättet. Aber Geschmäcker sind bekanntlich verschieden.
deekey777
2007-02-13, 00:32:25
Was ist EATM?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=323754
Grenzt bitte die Diskussion zu EATM ein.:)
Hab ich gemacht. Und ich bin der Meinung, dass EATM besser aussieht.
Lolman. Schau erstmal nach was A2C (und damit TMSAA und wie auch immer das bei ATi heißt) eigentlich ist. Dann können wir weiter diskuttieren.
Aber es ist ganz sicher nicht besser als Supersampling.
sulak
2007-02-13, 00:38:48
Ja, natürlich. Eben auf 399$. Sind immer noch 100$ mehr als die 320MB Version.
Die GTS640 bekommt man schon für 350€ (nicht vergessen das sie jede Karte der alten Generation in die Tasche steckt), viel Preisunterschied zur GTS320 (~299€) wird man aber am Anfang nicht bemerken, da ja die Nachfrage hoch sein wird und die Verfügbarkeit 2 Wochen lang eher schlecht.
Die Frage lautet eher wie wird eine GF8600 512MB dagegen aussehen wenn es so eine Karte geben wird für 200-250€ anfangs. Und wird die GTS320 überhaupt weiter existieren oder ist sie nur abverkauf?
Ich glaube einer GTS320 geht oft der Speicher aus wenn 8xAA und höher in 1280*1024 genutzt wird, deswegen würde ich da eher nicht zugreifen.
Quelle: http://www.anandtech.com/video/showdoc.aspx?i=2926&p=3
Leider fehlt da bei Anandtech noch der HDR + AA Benchmark bei Oblivion das wäre sehr aussagekräftig gewesen, und nein von Computerbase Benchmarks halte ich nichts.
Lolman. Schau erstmal nach was A2C (und damit TMSAA und wie auch immer das bei ATi heißt) eigentlich ist. Dann können wir weiter diskuttieren.
Aber es ist ganz sicher nicht besser als Supersampling.Es gibt durchaus Fälle, wo nachgestelltes Alphablending besser aussieht.
Die gelbe Eule
2007-02-13, 01:48:17
Man munkelt bereits das die 320er die 640er ablösen wird. Mit dem G81 kann man immernoch eine Ultra/GT zwischen GTS und GTX setzen.
Es gibt durchaus Fälle, wo nachgestelltes Alphablending besser aussieht.
Alphablending? Wir reden doch gar nicht von Alphablending, sondern von Alpha-To-Coverage.
Alphablending? Wir reden doch gar nicht von Alphablending, sondern von Alpha-To-Coverage.... womit Alphablending nachgestellt wird.
Hab ich gemacht. Und ich bin der Meinung, dass EATM besser aussieht.
Mit der Meinung stehst du aber ziemlich alleine da, denn was du als besser empfindest ist objektiv gesehen aber schlechter.
EATM sieht viel besser aus, bei QAAA fehlen teilweise Äste und die Blätter sind total endstellt!
Ich sehe das umgekehrt, bei EATM hast man nur noch Blättermatsch und kann die einzelnen Blätter gar nicht mehr voneinander unterscheiden. QAAA sieht viel besser aus.
Mr. Lolman
2007-02-13, 13:07:35
Mit der Meinung stehst du aber ziemlich alleine da, denn was du als besser empfindest ist objektiv gesehen aber schlechter.
Nö, ist fast 50:50 http://www.forum-3dcenter.de/vbulletin/showthread.php?t=348992
Außerdem ists da hier, objektiv gesehen, sicher nicht schlechter:
http://666kb.com/i/alsslt0936p8iooxi.gif
Die gelbe Eule
2007-02-13, 13:11:59
Mit EATM sehen die Farne aus wie Staubwedel, ziemlich unnatürlich.
Mr. Lolman
2007-02-13, 13:15:06
Mit EATM sehen die Farne aus wie Staubwedel, ziemlich unnatürlich.
Ohne EATM sehen sie aus, als wären sie krank. Trifft den Realismus vll. eher, aber ist imo nicht schön. Hier noch ein Beispiel: Damit man in diesem Spiel das hintere Gitter sieht, brauchts entweder EATM, 16xTSSAA, oder ne höhere Auflösung: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=4974303#post4974303
Ailuros
2007-02-13, 13:16:07
Mit EATM sehen die Farne aus wie Staubwedel, ziemlich unnatürlich.
Die LOD Unterschiede bemerkt wohl keiner oder? ;)
Ailuros
2007-02-13, 13:19:41
Ja, natürlich. Eben auf 399$. Sind immer noch 100$ mehr als die 320MB Version.
Was die 640MB Version auch vollkommen wert ist, ausser man haelt von jeglichem AA in heutigen und zufuenftigen Spielen gleich gar nichts.
Die gelbe Eule
2007-02-13, 13:24:01
http://enthusiast.hardocp.com/images/articles/117097566407eLioFJVn_8_5_l.png
Soviel zum HQAF bei ATi ...
As you can clearly see with the default filtering options the BFGTech GeForce 8800 GTS OC 320MB video card is offering better texture filtering on this wall looking into the distance. The ATI Radeon X1950 XT has a very “broken” pattern of tiles. Note that we are running with the “High Quality” AF option selected in Catalyst Control Center, and even 2X AA is enabled. It appears the current GeForce 8 series cards hold a large filtering win over current ATI cards in this game
Egal wieviel EATM Du nun zuschaltest, es wird genauso beschissen sein.
Außerdem ists da hier, objektiv gesehen, sicher nicht schlechter:
http://666kb.com/i/alsslt0936p8iooxi.gif
das EATM-bild (wofür steht die abkürzung überhaupt?) sieht hier deutlich schlechter aus, alles nur mehr ein einziger matsch, während man bei TSSAA noch die einzelnen blätter erkenen kann.
natürlich ist das feature trotzdem lobenswert da es kaum performance kostet und matsch immer noch deutlich besser als AT-flimmern aussieht.
Die gelbe Eule
2007-02-13, 13:33:36
Irgendwie sollten wie doch wieder auf NV wechseln und ATi da lassen wo es von der BQ im moment hingehört, hinter NV.
deekey777
2007-02-13, 13:36:45
Irgendwie sollten wie doch wieder auf NV wechseln und ATi da lassen wo es von der BQ im moment hingehört, hinter NV.
Wäre es möglich auf solche Aussagen zu verzichten? Danke.
seahawk
2007-02-13, 13:38:17
Bitte kein BQ Diskussion hier.
Die gelbe Eule
2007-02-13, 13:39:01
Was hat denn bitte EATM hier mit sieben weiteren NV Produkten zu tun? Paar Posts über Deinem sollte die Diskussion eingegrenzt werden, was aber nicht passiert ist.
Mr. Lolman
2007-02-13, 13:40:40
http://enthusiast.hardocp.com/images/articles/117097566407eLioFJVn_8_5_l.png
Soviel zum HQAF bei ATi ...
Egal wieviel EATM Du nun zuschaltest, es wird genauso beschissen sein.
Das wurde schon längst aufgeklärt. Damit App.AF ordentlich funzt, müssen von der App 3 Variablen gesetzt werden (mipmap filter, min.filter, mag.filter)
Wenn die App nun nur den min.filter auf anisotrop stellt, kommt da normalerweise nix gutes raus (bei NV anscheinend schon, aber die filtern ja auch trilinear, wenn die App das noch nichtmal angefordert hat). Jedenfalls ist das anscheinend eine Unzulänglichkeit des Spieles, wenn App.AF auf Atis nicht gut aussieht. Da wurden dann einfach nicht alle Variablen gesetzt. Mit HQ-Treiber-AF ists immer einwandfrei.
Imo versuchst du nämlich mehr Stimmung zu machen, als aufzuklären. Die Erklärung zu dem Schmarrn ist nämlich auch genauso im verlinkten Thread, wo du dir das jetzt rausgepickt hast.
BTW: Ich weiss nicht warum ihr euch so gegen EATM sträubt:
x) Es ist fast gratis
x) Man kanns wunderbar mit AAA kombinieren.
x) So kann man wunderbare BQ Abstufungen machen - zB anhand von 6xEATM:
1. 6xEATM, kein AAA(ASTT): am schnellsten, minimaler Performanceeinbruch zu MSAA
2. 6xEATM, PAAA: Recht flott, mach neben A2C auch 3xSSAA auf Alphatests
3. 6xEATM, QAAA: Je nach App immernoch schön flott, zum A2C kommen 6x Super Samples
4. 6xEATM, PAAA/ASBT: oft immernoch brauchbar flott, macht auf alle Alphatexturen 3xSSAA
5. 6xEATM, QAAA/ASBT: 6xA2C, 6 Super-Samples auf alle Alphatexturen
Und sollte EATM nicht gefallen kann man sichs noch mit folgenden Keys zurechttweaken:
ATMAlphaFix, ATMAlphaSharpenBias, ATMAlphaSharpenmode, ATMAlphaSharpenScale
So hat man auf ATi Karten sehr günstige Möglichkeiten die ATs in den Griff zu bekommen. NV bietet da nicht soviele Möglichkeiten (nach dem Wegfall der Hybridmodi überhaupt)
das EATM-bild (wofür steht die abkürzung überhaupt?) sieht hier deutlich schlechter aus, alles nur mehr ein einziger matsch, während man bei TSSAA noch die einzelnen blätter erkenen kann.
natürlich ist das feature trotzdem lobenswert da es kaum performance kostet und matsch immer noch deutlich besser als AT-flimmern aussieht.
Mir gefällts so besser. Ist aber mit den oben geposteten Regkeys ohnehin anpassbar.
Bitte kein BQ Diskussion hier.
Bitte splitten.
Was hat denn bitte EATM hier mit sieben weiteren NV Produkten zu tun? Paar Posts über Deinem sollte die Diskussion eingegrenzt werden, was aber nicht passiert ist.
Lass das den Mods über. Kannst dich ja für nen Posten bewerben, wenn du gerne reglementierst.
deekey777
2007-02-13, 13:46:00
Es wird nichts gesplittet. Zu EATM gibt einen Thread, in dem alles steht, wie, was und wieso. Ab hier ist jedes Posting zu EATM OT, genauso wie zur Bildqualität. In diesem Thread geht es nur um die kommenden Produkte von nVidia. Ende.
dargo
2007-02-13, 23:24:52
Was die 640MB Version auch vollkommen wert ist, ausser man haelt von jeglichem AA in heutigen und zufuenftigen Spielen gleich gar nichts.
Dazu gleich mal ne Frage - funktioniert AA mit dem G80 bei Games mit deffered Shading (oder wie das heißt) auch ohne einen DX10 Pfad?
Ailuros
2007-02-14, 00:05:48
Dazu gleich mal ne Frage - funktioniert AA mit dem G80 bei Games mit deffered Shading (oder wie das heißt) auch ohne einen DX10 Pfad?
Deferred shading oder MRTs kann man auf keiner Architektur (ja selbst nicht bei einem TBDR) unter D3D9.0 mit Multisampling kombinieren, weil es die Multisampling Implementierung in DX9 nicht erlaubt.
dargo
2007-02-14, 00:08:42
Deferred shading oder MRTs kann man auf keiner Architektur (ja selbst nicht bei einem TBDR) unter D3D9.0 mit Multisampling kombinieren, weil es die Multisampling Implementierung in DX9 nicht erlaubt.
Aha, das heißt also kein AA zb. bei Stalker mit DX10 Hardware? Ich wüsste nicht, dass Stalker einen DX10 Pfad hätte. Und wenn wir mal weiter denken - kein AA bei UE3 Games ohne einen DX10 Pfad.
Ailuros
2007-02-14, 00:47:15
Aha, das heißt also kein AA zb. bei Stalker mit DX10 Hardware? Ich wüsste nicht, dass Stalker einen DX10 Pfad hätte. Und wenn wir mal weiter denken - kein AA bei UE3 Games ohne einen DX10 Pfad.
Es wird einen D3D10 Pfad fuer STALKER geben.
Stalker, UE3 usw. werden unter Vista/D3D10 hoechstwahrscheinlich schon MSAA ermoeglichen.
Ohne EATM sehen sie aus, als wären sie krank.
Ein Filter sollte den ursprünglich von Artist gewünschten Content möglichst exakt darstellen und nicht die Dinger größer machen oder ähnliches.
Sowas ist sicher nicht im generellen Fall besser, das dürfte doch wohl einleuchten.
robbitop
2007-02-14, 09:26:50
Ein Filter sollte den ursprünglich von Artist gewünschten Content möglichst exakt darstellen und nicht die Dinger größer machen oder ähnliches.
Sowas ist sicher nicht im generellen Fall besser, das dürfte doch wohl einleuchten.
könnte es sein, dass EATM am LOD der AT Texturen herumspielt? Das würde den Effekt erklären.
@Stalker
kommt das eigentlich jemals raus? Ich glaube das fragen wir uns alle seit 5 Jahren.
dargo
2007-02-14, 09:29:43
@Stalker
kommt das eigentlich jemals raus? Ich glaube das fragen wir uns alle seit 5 Jahren.
Ja, im März diesen Jahres ist es endlich soweit.
Anarchy-HWLUXX
2007-02-14, 09:55:05
(Argh - versehentlich im R600 Thread gepostet ;D )
Der Inq meint zu wissen dass ...
[ Geforce 8900 GTX has 25 per cent more shaders ]
http://uk.theinquirer.net/?article=37610
Ömmm - mal abwartön :| aba die menge an gerüchten ist scho lang zu unübersichtlich um irgendwas als mehr oder minder richtig zu erkennen ... meh ...
seahawk
2007-02-14, 10:22:49
The missing MUL.
Wobei ein 8900er denkbar ist, und zwar als 80nm Shrink des G80. Die wesentlicuj Bestandteile des Designs müss NV für ihre Mainstreamchips ja sowieso schon auf den 80er node übertragen haben. Der Aufwand eines Shrink müßte daher relativ gering sein.
deekey777
2007-02-14, 10:41:05
+25 % Shader?
Das heißt ja zu den vorhandenen Shader-Blöcken (Vec16-ALUs und 4 TMUs je Cluster) kommen zwei weitere. Und damit es nicht langweilig aussieht, kommen noch zwei ROP-Partitionen dazu (zwei weitere 64-bit-Kanäle). ZeeOMG: 8900Ultra mit 160 Stream-Prozessoren, 40 TMUs, 32 ROPs, 512-bit-SI und 1024 MB VRAM!!!
Ich glaube auch an einen Shrink und mehr Takt. Und Treibertweaks.
James Ryan
2007-02-14, 11:03:25
+25 % Shader?
Das heißt ja zu den vorhandenen Shader-Blöcken (Vec16-ALUs und 4 TMUs je Cluster) kommen zwei weitere. Und damit es nicht langweilig aussieht, kommen noch zwei ROP-Partitionen dazu (zwei weitere 64-bit-Kanäle). ZeeOMG: 8900Ultra mit 160 Stream-Prozessoren, 40 TMUs, 32 ROPs, 512-bit-SI und 1024 MB VRAM!!!
Ich glaube auch an einen Shrink und mehr Takt. Und Treibertweaks.
Die Gf 8900 GTX mit deinen oben genannten Werten dürfte für den Sommer durchaus realistisch sein.
MfG :cool:
Endorphine
2007-02-14, 11:04:40
@Stalker
kommt das eigentlich jemals raus? Ich glaube das fragen wir uns alle seit 5 Jahren. Stalker kommt im Bundle mit Duke Nukem: Forever in die Läden.
deekey777
2007-02-14, 11:05:45
Stalker kommt im Bundle mit Duke Nukem: Forever in die Läden.
STALKER kommt Ende März, gerade läuft die MP-Beta.:)
Endorphine
2007-02-14, 11:07:19
Ich glaube auch an einen Shrink und mehr Takt. Und Treibertweaks. Denke ich auch. Und natürlich Fehlerbereinigung und das Maximum, was der Speichermarkt hergibt.
Anarchy-HWLUXX
2007-02-14, 11:13:26
Denke ich auch. Und natürlich Fehlerbereinigung und das Maximum, was der Speichermarkt hergibt.
Es bringt nix idiotisch schnellen RAM zu verbauen wenn die GPU diese hinterher nicht gescheit nutzen kann :rolleyes:
ATM haben mer 900MHz und mehr geht bei GDDR3 nicht bzw. gibt es nicht. GDDR4 fängt bei 1.1GHzan und endet bei 1.4GHz ... ersteres is scho scho schnell genug ...
robbitop
2007-02-14, 11:14:24
+25 % Shader?
Das heißt ja zu den vorhandenen Shader-Blöcken (Vec16-ALUs und 4 TMUs je Cluster) kommen zwei weitere. Und damit es nicht langweilig aussieht, kommen noch zwei ROP-Partitionen dazu (zwei weitere 64-bit-Kanäle). ZeeOMG: 8900Ultra mit 160 Stream-Prozessoren, 40 TMUs, 32 ROPs, 512-bit-SI und 1024 MB VRAM!!!
Ich glaube auch an einen Shrink und mehr Takt. Und Treibertweaks.
INQ hat gewiss das MUL in den falschen Hals bekommen.
Laut den Hinweisen von AiL ist es kein Shrink. Es gab sowieso bisher keine Hinweise auf ein Tapeout eines 80nm G81. Lediglich auf G84/86.
Vieleicht kommt eine 80nm Version später hinzu. Zum R600 Launch scheint die 8900GTX jedenfalls ein simpler G80 zu sein.
Endorphine
2007-02-14, 11:16:53
Es bringt nix idiotisch schnellen RAM zu verbauen wenn die GPU diese hinterher nicht gescheit nutzen kann :rolleyes: Der G80 könnte mehr BB gut gebrauchen: http://www.3dcenter.org/artikel/2006/12-28_b.php
robbitop
2007-02-14, 14:24:57
Der G80 könnte mehr BB gut gebrauchen: http://www.3dcenter.org/artikel/2006/12-28_b.php
Laut AiLs Skalierungstests, ist die Bandbreite kein extraordinärer Flaschenhals.
Wir sind ja nun auch nicht mehr in Zeiten von NFS 3 (geiles Spiel!!), wo pro Takt ein Texel (nicht Pixel!) fertig wird.
Endorphine
2007-02-14, 16:46:36
Laut AiLs Skalierungstests, ist die Bandbreite kein extraordinärer Flaschenhals.
Wir sind ja nun auch nicht mehr in Zeiten von NFS 3 (geiles Spiel!!), wo pro Takt ein Texel (nicht Pixel!) fertig wird. Die Diskussion darüber erübrigt sich imho. Wenn es mehr Leistung bringt, dann wird nVidia bei ausreichender Verfügbarkeit schnelleren Speichers diesen mit imho hoher Wahrscheinlichkeit auch einsetzen, um sich möglichst weit vom R600 abzusetzen. Gegenfrage: warum sollte nVidia beim absoluten Premium-Modell nicht den schnellsten verfügbaren Speicher einsetzen, solange es auch Situationen der BB-Limitierung schon beim G80 gibt? Irgendwie erschließt sich mir diese Sichtweise nicht. Kosten sind nur wenig interessant, es geht darum, den leistungsfähigsten 3D-Beschleuniger zu bauen, damit sich in dessen Fahrwasser die Massenmodelle gut verkaufen.
<aths>
p.s. Ich glaube, dass extraordinär nicht im deutschen Sprachwortschatz vorkommt. :)
</aths>
Für GDDR4 bräuchte man aber auch ein neues PCB.
Die gelbe Eule
2007-02-14, 16:49:51
1.4GHz gibt es seit wenigen Tagen in der Massenfertigung verfügbar, da wird sich NV garantiert bedienen.
robbitop
2007-02-14, 16:52:06
Die Diskussion darüber erübrigt sich imho. Wenn es mehr Leistung bringt, dann wird nVidia bei ausreichender Verfügbarkeit schnelleren Speichers diesen mit imho hoher Wahrscheinlichkeit auch einsetzen, um sich möglichst weit vom R600 abzusetzen. Gegenfrage: warum sollte nVidia beim absoluten Premium-Modell nicht den schnellsten verfügbaren Speicher einsetzen, solange es auch Situationen der BB-Limitierung schon beim G80 gibt? Irgendwie erschließt sich mir diese Sichtweise nicht. Kosten sind nur wenig interessant, es geht darum, den leistungsfähigsten 3D-Beschleuniger zu bauen, damit sich in dessen Fahrwasser die Massenmodelle gut verkaufen.
Verfügbarkeit. Und die Kosten sind nicht unwichtig. ;)
Ich sage ja nicht, dass sie es nicht tun werden. Ich sage nur, dass es kein herausragender Flaschenhals ist (und das trotz 64 bi samples pro Takt).
crux2005
2007-02-14, 16:55:43
+25 % Shader?
Das heißt ja zu den vorhandenen Shader-Blöcken (Vec16-ALUs und 4 TMUs je Cluster) kommen zwei weitere. Und damit es nicht langweilig aussieht, kommen noch zwei ROP-Partitionen dazu (zwei weitere 64-bit-Kanäle). ZeeOMG: 8900Ultra mit 160 Stream-Prozessoren, 40 TMUs, 32 ROPs, 512-bit-SI und 1024 MB VRAM!!!
wieso ?
Könnten es auch 160 SPs, 40 TMUs, 24 ROPs, 386Bit SI und 768MB Vram sein ?
Anarchy-HWLUXX
2007-02-14, 17:20:03
1.4GHz gibt es seit wenigen Tagen in der Massenfertigung verfügbar, da wird sich NV garantiert bedienen.
Glaub ich nicht - bei der G80 hat man sich auch mit GDDR3 begnügt und nicht das neuste, schnellste, teuerste und seltenste an RAM draufgebrezelt ... ausserdem wär das nen überproportionaler sprung von 500MHz, das sind über 50% gegenüber GDDR3 - passt einfach nicht in die rechnung.
<aths>
p.s. Ich glaube, dass extraordinär nicht im deutschen Sprachwortschatz vorkommt. :)
</aths>
Doch doch, tut es. http://www.duden-suche.de/suche/abstract.php?shortname=fx&artikel_id=45046
Endorphine
2007-02-14, 18:36:24
Für GDDR4 bräuchte man aber auch ein neues PCB. ... und das ist verglichen mit dem Aufwand bei der GPU-Entwicklung nicht die Welt. Aufwändig wird es, wenn für GDDR4 ein neuer Speichercontroller fällig wird.
We will see..
Endorphine
2007-02-14, 18:42:50
Doch doch, tut es. http://www.duden-suche.de/suche/abstract.php?shortname=fx&artikel_id=45046 OMG. :ugly2:
The_Invisible
2007-02-14, 18:52:51
Glaub ich nicht - bei der G80 hat man sich auch mit GDDR3 begnügt und nicht das neuste, schnellste, teuerste und seltenste an RAM draufgebrezelt ... ausserdem wär das nen überproportionaler sprung von 500MHz, das sind über 50% gegenüber GDDR3 - passt einfach nicht in die rechnung.
zum g80 release gabs auch keinen druck von irgendwo her
mfg
Die gelbe Eule
2007-02-15, 01:54:35
... und das ist verglichen mit dem Aufwand bei der GPU-Entwicklung nicht die Welt. Aufwändig wird es, wenn für GDDR4 ein neuer Speichercontroller fällig wird.
We will see..
Den es garantiert schon gibt im aktuelle PCB, aber GDDR3 war einfach günstiger zum Launch. Immerhin wurde schon 400.000 Karten verkauft, für den High End Bereich gar nicht so schlecht.
Cascades
(168.6 MB)
Minimum System Requirements: GeForce 8-Series, Windows Vista, ForceWare Drivers 100.64 or higher, 512MB system memory, 256MB video memory
Wink mit dem Zaunpfahl? 256MB VRAM könnte vielleicht das untere ende für die G8X werden.
Black-Scorpion
2007-02-15, 16:24:56
Und jetzt erkläre allen mal was der Speichercontroller mit dem PCB zu tun hat.
Wink mit dem Zaunpfahl? 256MB VRAM könnte vielleicht das untere ende für die G8X werden.
Die Anforderungen sind schrott. Rennt Vista überhaupt mit 512MB RAM?
Ja, es läuft. Aber nicht besonders gut.
Endorphine
2007-02-15, 19:24:49
Man muss nur ein paar Funktionen von Vista abschalten und das OS damit wieder näher an XP heranbringen.
Godmode
2007-02-15, 20:44:24
Anscheinend ist die 8900er nun doch @80nm (TI).
700 MHz Core Clock soll das Teil haben. Dazu kommt dann noch der neue Treiber.
Laut TI ist RV630 doch ein halbierter R600. Den R600 geben sie mit 128 Shaderunits an und den RV630 mit 64.
Hm, also das hört sich doch gut an, ich glaub A. Wesker hat seine 88 GTX auf über 700 Mhz. Dann könnt ihr euch schon mal denken was das Teil leisten wird! Dann noch die entfernten Treiberblasen + funktionierendes MUL.
Naja bin gespannt ob sich das bewahrheitet.
Das ist doch nicht anderes als die unsinnige Tabelle die vor Monaten schon auftauchte und nun von allen Seiten abgeschrieben wird und teilweise schon als Tatsache verkauft wird.
Wenn wir einen 700MHz D3D10-Chip von NV sehen werden, wird dies wohl eher der G90 im H2 in 65nm sein.
Konami
2007-02-15, 21:05:17
Das ist doch nicht anderes als die unsinnige Tabelle die vor Monaten schon auftauchte und nun von allen Seiten abgeschrieben wird und teilweise schon als Tatsache verkauft wird.
Wenn wir einen 700MHz D3D10-Chip von NV sehen werden, wird dies wohl eher der G90 im H2 in 65nm sein.
G90 in 65nm im H2? Du meinst 2008, oder?
G90 in 65nm im H2? Du meinst 2008, oder?
Nein, H2 2007... ;)
Godmode
2007-02-15, 21:06:48
Das ist doch nicht anderes als die unsinnige Tabelle die vor Monaten schon auftauchte und nun von allen Seiten abgeschrieben wird und teilweise schon als Tatsache verkauft wird.
Wenn wir einen 700MHz D3D10-Chip von NV sehen werden, wird dies wohl eher der G90 im H2 in 65nm sein.
Hm, ich dachte weils Robbi zitiert ist es halbwegs glaubwürdig!
Hm, ich dachte weils Robbi zitiert ist es halbwegs glaubwürdig!
Selbst wenn der gute Robbi, TI(= The Inquirer) zitiert, muss das was Fuad von sich gibt nicht unbeding glaubwürdig sein, vor allem wenn dieser selbst nur sich auf eine Tabelle bezieht die so nebenbei mal in einem taiwanesichen Forum aufgetaucht ist und von vielen seriöseren Stellen schon als nicht ganz korrekt bezeichnet wurde. ;)
Da 65nm für beide IHVs früh kommen soll, ist anzunehmen, dass wohl nV gleich 80nm für HighEnd überspringt, vielleicht weil man es gar nicht nötig hat. ;)
Godmode
2007-02-15, 21:35:32
Selbst wenn der gute Robbi, TI(= The Inquirer) zitiert, muss das was Fuad von sich gibt nicht unbeding glaubwürdig sein, vor allem wenn dieser selbst nur sich auf eine Tabelle bezieht die so nebenbei mal in einem taiwanesichen Forum aufgetaucht ist und von vielen seriöseren Stellen schon als nicht ganz korrekt bezeichnet wurde. ;)
Da 65nm für beide IHVs früh kommen soll, ist anzunehmen, dass wohl nV gleich 80nm für HighEnd überspringt, vielleicht weil man es gar nicht nötig hat. ;)
Oh :biggrin: ich dachte die ganze Zeit: "Was meint er dem mit "ti""? Ok jetzt is alles klar!
robbitop
2007-02-15, 21:37:24
Ich weiß nicht was an 700 MHz bei 80nm so fragwürdig ist. Ob's stimmt ist bei Fuad immer so eine Sache.
R600 macht immerhin ~800 MHz bei leicht höherem Transistorcount.
Godmode
2007-02-15, 21:41:12
Ich weiß nicht was an 700 MHz bei 80nm so fragwürdig ist. Ob's stimmt ist bei Fuad immer so eine Sache.
R600 macht immerhin ~800 MHz bei leicht höherem Transistorcount.
Es könnte auch wieder sowas werden wie die 7900GTX mit gesenktem Transitorencount und moderat höherem Takt?
robbitop
2007-02-15, 21:53:46
Der Takt der GTX war genausohoch wie der der R580. Das wird man diesmal nicht machen wollen. 800 MHz wären zuviel.
Aber gut, ich rieche hier einen hinterhältigen Versuch, den R600 launch zu versauen. Der G71 hatte damals eh nicht die Möglichkeit den R580 zu verhauen, also dann lieber wirtschaftlich.
reunion
2007-02-15, 23:26:16
Ich weiß nicht was an 700 MHz bei 80nm so fragwürdig ist. Ob's stimmt ist bei Fuad immer so eine Sache.
Diese Tabelle wurde doch schon lange als falsch angesehen. Warum soll sie jetzt auf einmal stimmen? Klar, möglich ist vieles, aber deshalb nimmt diese Abschreibübung von FUAD auch keinen höheren Stellenwert ein.
R600 macht immerhin ~800 MHz bei leicht höherem Transistorcount.
Mich würde alles deutlich über 700Mhz schon überraschen. IMHO wird hier sehr viel "hochgepusht". Bei R520 wurde vorher von über 700Mhz gesprochen, geworden sind es 625Mhz. Bei R600 glauben jetzt ein paar Wahnsinnige sogar an ein, oder gar zwei Ghz. Am Ende wirds vermutlich knapp über 700Mhz werden. Warum sollte man R600 auch wesentlich höher takten können als R580, der 80nm Prozess dürfte hier kaum Vorteile bringen, und das Transistorenbudget ist mit Sicherheit deutlich angestiegen. Klar wirds ein paar neue Optimierungen in dieser hinsicht geben, die die Taktraten weiter ansteigen lassen werden, aber IMHO nicht in dem Ausmaß.
Aber gut, ich rieche hier einen hinterhältigen Versuch, den R600 launch zu versauen.
Dass es einen solchen Versuch geben wird, ist klar. Die Frage ist, wie erfolgreich dieser wird. Denn das weiß natürlich auch ATi, deshalb geht man mit Sicherheit "in die Vollen".
deekey777
2007-02-16, 00:58:05
wieso?
Könnten es auch 160 SPs, 40 TMUs, 24 ROPs, 386Bit SI und 768MB Vram sein ?
Meinst du, dass der G80 mehr Shader-Blöcke hat als man denkt, die wiederum wegen der Redunanz deaktiviert sind, damit die Ausbeute hoch bleibt?
So eine Vermutung gab's bei G70.
(+44)
2007-02-16, 02:54:02
Ja, und später kam heraus dass der G71 nicht etwa 32 Shader-Blöcke hatte wie zunächst angenommen...
Ailuros
2007-02-16, 06:04:42
Ich weiß nicht was an 700 MHz bei 80nm so fragwürdig ist. Ob's stimmt ist bei Fuad immer so eine Sache.
R600 macht immerhin ~800 MHz bei leicht höherem Transistorcount.
G70-->G71
470MHz VS -->750MHz VS
-----------------------------
+60%
Ich hab ehrlich gesagt nicht die blasseste Ahnung ob es einen G81 geben wird und wie dieser aussehen koennte, aber ich frage mich momentan ob man sich doch nicht eher auf den Shader clock domain konzentrieren koennte und die ROPs/TMUs nicht so stark hoeher zu takten am Ende. Bei nur +40% steigen die ALUs auf fast 1.9GHz im Vergleich zu G80.
Ailuros
2007-02-16, 06:08:05
Ja, und später kam heraus dass der G71 nicht etwa 32 Shader-Blöcke hatte wie zunächst angenommen...
Es gab vor dem G71 Launch sehr viele Geruechte ueber einen angeblichen 8 quad chip der aber nie realisiert wurde, weil der Simulator viel zu viel Stromverbrauch anzeigte bei nur 500MHz. Da NV selber eingestanden hat dass sie vorhatten G80 schon letztes Jahr vorzustellen, will ich nicht ausschliessen dass es sich um diesen Vorreiter handelte. Man gab dann eben den ALUs ein bisschen Handarbeit ab und konnte sowohl 1.35GHz fuer diese erreichen und den Stromverbrauch zur gleichen Zeit besser kontrollieren.
robbitop
2007-02-16, 10:14:59
Tja vieleicht erzählt Fuad auch wieder Mist. Aber er gibt ja an, eine gute Quelle zu haben.
Mich persönlich interessieren die "kleinen" aber deutlich mehr (G86/RV630).
seahawk
2007-02-16, 10:22:57
Wobei die 8900GT mit 96 Shadern und 256Bit Bus schon eine reizvolle Karte wäre.
Die russen haben eine nette Übersicht gemacht:
http://www.3dnews.ru/_imgdata/img/2007/02/16/41157.gif
http://www.3dnews.ru/news/
deekey777
2007-02-16, 11:57:37
Die Russen also: http://www.ocworkbench.com/2007/articles/DX10-graphics-cards/g1.htm
Die Tabelle ist so sinnlos, dass es weh tut.
http://www.3dcenter.org/#2007-02-14
Ich vermute mal hier verstehn mehr Leute Russisch als Chinesisch :whisper:
Warum soll sie sinnlos sein?
deekey777
2007-02-16, 12:12:08
Ich vermute mal hier verstehn mehr Leute Russisch als Chinesisch :whisper:
Warum soll sie sinnlos sein?
Die Tabelle ist doch auf Englisch? Genau wie OCW selbst.
Diese Tabelle gibt es eins zu eins für ATi, sie ist seit 13. Februar im Umlauf, von zig Seiten kopiert, ohne dass sich jemand fragte, ob sie richtig ist.
Die Radeon-Version: http://www.ocworkbench.com/2007/articles/DX10-graphics-cards/g2.htm
Die Tabelle ist doch auf Englisch? Genau wie OCW selbst.
Diese Tabelle gibt es eins zu eins für ATi, sie ist seit 13. Februar im Umlauf, von zig Seiten kopiert, ohne dass sich jemand fragte, ob sie richtig ist.
Die Radeon-Version: http://www.ocworkbench.com/2007/articles/DX10-graphics-cards/g2.htm
OK, stimmt, aber sie klingt recht überzeugend!
dargo
2007-02-16, 12:20:22
Die Tabelle ist doch auf Englisch? Genau wie OCW selbst.
Diese Tabelle gibt es eins zu eins für ATi, sie ist seit 13. Februar im Umlauf, von zig Seiten kopiert, ohne dass sich jemand fragte, ob sie richtig ist.
Die Radeon-Version: http://www.ocworkbench.com/2007/articles/DX10-graphics-cards/g2.htm
Ich halte diese Tabelle auch für Schwachsinn. Am lustigsten finde ich immer die GX2 mit kleinerem SI (auch bei ATI ;D). Schon alleine der gesunde Menschenverstand sollte ausreichen um zu sehen, dass die G8950GX2 mit 64GB/s Bandbreite völlig unterdimensioniert ist. Solche Karte dürfte von der Rohrleistung schneller sein als eine G8900GTX, diese soll aber angeblich schon 105,6GB/s haben.
deekey777
2007-02-16, 12:21:51
OK, stimmt, aber sie klingt recht überzeugend!
Schaue mal, was Leo dazu geschrieben hat.
Meine Meinung: Auch eine stehende Uhr zeigt zweimal am Tag die richtige Zeit. :wink:
seahawk
2007-02-16, 12:26:16
Wobei die NV Tabelle glaubwürdiger ist, als die ATI Version. Aber beide sind halt fake.
Wobei die NV Tabelle glaubwürdiger ist, als die ATI Version. Aber beide sind halt fake.
Naja,fake? sagen wir mal hypothetisch, halt Spekulation, aber OCW sitzt sehr nah an der Quelle=Produktion, (liegen meist richtig)
crux2005
2007-02-16, 12:37:18
Meinst du, dass der G80 mehr Shader-Blöcke hat als man denkt, die wiederum wegen der Redunanz deaktiviert sind, damit die Ausbeute hoch bleibt?
So eine Vermutung gab's bei G70.
Nein. Dass war nur meine Frage zu deiner Rechnung:
G80 +25% Shader
Warum es
160 SPs, 40 TMUs, 32 ROPs, 512Bit SI und 1024MiB Vram sein sollen
und nicht
160 SPs, 40 TMUs, 24 ROPs, 386Bit SI und 768MiB Vram
;)
robbitop
2007-02-16, 12:49:33
Auf einer Karte mehr als 2x 256 Bit SI einzubringen, wäre viel zu teuer. Somit halte ich das für nicht allzu unrealistisch. Damit man damit keinen BB Flaschenhals erzeugt, regelt man die Rohleistung der Chips über den Takt und über die Deaktivierung von Einheiten und schon passt's wieder. Was ist daran bitte "Schwachsinn"?
dargo
2007-02-16, 12:55:17
Auf einer Karte mehr als 2x 256 Bit SI einzubringen, wäre viel zu teuer. Somit halte ich das für nicht allzu unrealistisch. Damit man damit keinen BB Flaschenhals erzeugt, regelt man die Rohleistung der Chips über den Takt und über die Deaktivierung von Einheiten und schon passt's wieder. Was ist daran bitte "Schwachsinn"?
Du hast mich wohl falsch verstanden. Wenn man die GX2 so stark beschneiden/den Takt stark senken will, dass die Bandbreite keinen Flaschenhals darstellt frage ich mich welchen Sinn diese Karte überhaupt haben soll wenn sie langsamer als eine G8900GTX ist? Dann kann ich mir gleich die Entwicklungskosten für diese Karte sparen.
robbitop
2007-02-16, 13:10:31
Wo wäre eine GX2 mit 2x 96 ALUs, 24 TMUs und 550 MHz langsamer als eine 8900GTX? Eher insgesamt bei Faktor 1,5.
Mehr ist für 600 EUR halt nicht drin. Aber gut dafür gibt's ja 8900GTX SLI.
Wo wäre eine GX2 mit 2x 96 ALUs, 24 TMUs und 550 MHz langsamer als eine 8900GTX? Eher insgesamt bei Faktor 1,5.
ALUs:
2 x 96 x 550 = 105600
128 x 700 = 89600
TMUs:
2 x 24 x 550 = 26400
32 x 700 = 22400
Bandbreite:
256 x 1000 = 256000 (Pro Chip)
384 x 1100 = 422400
Bei einer angenommenen SLI-Effizienz von 70-80% bleibt da so gut wie nichts über. Dazu noch der kleinere VRAM. Die Karte wäre in dieser Form sinnlos.
[NVIDIA GeForce 8600 GTS & GT In April]
There will be 2 models; GeForce 8600 GTS and GeForce 8600GT and they are priced at $299 and $249 respectively. Interestingly, there is no G81 or GeForce 8900 series we heard. There is something more powerful brewing over at NVIDIA.
http://www.vr-zone.com/?i=4682
Superheld
2007-02-16, 14:15:33
ich glaub die spinnen alle:hammer:
http://www.giga.de/tv/gigagamesmaxx/00136617_nvidia_kontert_details_zu/
Sk4tz
2007-02-16, 14:17:55
[NVIDIA GeForce 8600 GTS & GT In April]
http://www.vr-zone.com/?i=4682
ist der sprung von einer 7600er gt auf ne 8600er gt empfehlenswert? ;)
spiele nämlich stark mit dem gedanken sobald erste spiele nicht mehr anständig laufen zu wechseln ;)
für den preis ist das ja ma kein problem !
deekey777
2007-02-16, 15:06:25
Nvidia GeForce 8600 series will launch in the middle of 2Q, says sources (http://www.digitimes.com/mobos/a20070216PD209.html)
Nvidia is preparing to launch a series of GeForce 8600 cards in the middled of the second quarter 2007 ... . The GeForce 8600 series will be priced to target mainstream markets, the sources add.
According to the release plan several versions are currently being prepared, the sources claim. The GeForce 8600 GT with 512MB memory will be priced between US$219 and US$229, while a 256MB version will be available at US$199. Additionally, targeting an even lower price point will be the GeForce 8600GS at between US$159 and US$165, the sources have revealed.
DirectX 10 graphics cards will be the main focus for both Nvidia and AMD (who is now a player in the graphics card market after the acquisition of ATI) at the upcoming CeBIT trade show to be held from March 15 to 21, 2007, according to industry sources. ...
Die News von DT gefällt mir viel besser. :biggrin:
Nehmen wir an, die 8600GT ist ein halber G80 (mit 2 ROP-Partitionen natürlich und somit mit 128 bitigem SI), wäre das nicht toll?
"Interestingly, there is no G81 or GeForce 8900 series we heard. There is something more powerful brewing over at NVIDIA."
Was das wohl sein mag? ;)
reunion
2007-02-16, 16:02:16
Ich hoffe sie meinen nicht diese mysteriöse Dual-Karte. Sonst kann sich das eigentlich nur auf den Nachfolgechip G90 beziehen, aber der wird wohl nicht so schnell kommen.
Die gelbe Eule
2007-02-16, 16:08:58
Wäre sinnig 2 GTS zusammenzuklatschen, ist schneller als eine GTX, leichter zu bauen und bleibt auf 90nm. Garniert mit GDDR4 RAM und man hat eine Höllenbandbreite. Zum Spaß fallen die Preise ja nicht schon und wenn der G81 eh kein Tapeout hatte, bleibt nur ein weiteres G80 Derivat.
Sonst kann sich das eigentlich nur auf den Nachfolgechip G90 beziehen, aber der wird wohl nicht so schnell kommen.
Da wäre ich mir nicht so sicher. ;)
reunion
2007-02-16, 16:28:08
Da wäre ich mir nicht so sicher. ;)
Jaja, wenn man als Gast postet, kann man natürlich alles behaupten. :rolleyes:
G90 kommt defintiv in 65nm, und das wird bei nV selbst mit den Lowend-Chips nichts vor H2 2007.
Wäre sinnig 2 GTS zusammenzuklatschen, ist schneller als eine GTX, leichter zu bauen und bleibt auf 90nm. Garniert mit GDDR4 RAM und man hat eine Höllenbandbreite. Zum Spaß fallen die Preise ja nicht schon und wenn der G81 eh kein Tapeout hatte, bleibt nur ein weiteres G80 Derivat.
Eine Dual-Karte auf G80-Basis in 90nm halte ich für Quatsch. Der Chip ist viel zu heiß und teuer, um ihn wie bei der 7950GX2 mit einer Single-Slot-Kühlung zu humanen Preisen zu verkaufen.
Jaja, wenn man als Gast postet, kann man natürlich alles behaupten. :rolleyes:
G90 kommt defintiv in 65nm, und das wird bei nV selbst mit den Lowend-Chips nichts vor H2 2007.
Anders meinte ich es auch nicht,
dachte erst du gehörst zu jenen, die denken, dass der G90 erst 2008 kommt. ;)
Nvidia scheint wohl sich sicher zu sein, dass man bis zum H2 doch noch recht gut mit dem G80, den man etwas die Taktsporen gibt, und G84 und G86 gegen ATi's kommendes Portfolio sich behaupten kann, welches sich ja auch relativ am Ende des H1 den Markt erreichen wird.
Die gelbe Eule
2007-02-16, 16:47:43
Eine Dual-Karte auf G80-Basis in 90nm halte ich für Quatsch. Der Chip ist viel zu heiß und teuer, um ihn wie bei der 7950GX2 mit einer Single-Slot-Kühlung zu humanen Preisen zu verkaufen.
650€ ist nichts im Enthusiatbereich, human ist dort Fremdwort. Und mit einer Heatpipekonstruktion wo die Wärme einfach auf die andere Seite gebracht und abgeführt wird, ist garantiert möglich. Mit den kleinen Pimmelkühlern auf der 7950GX2 bekam man es ja auch hin.
Ein anderes Problem der Dualkarte könnte aber auch jenes sein, dass sich die Shaderdomains beider GPUs stören, denn nicht umsonst gibt es ja den NVIO.
dargo
2007-02-16, 20:55:16
Wo wäre eine GX2 mit 2x 96 ALUs, 24 TMUs und 550 MHz langsamer als eine 8900GTX? Eher insgesamt bei Faktor 1,5.
Mehr ist für 600 EUR halt nicht drin. Aber gut dafür gibt's ja 8900GTX SLI.
Habe ich mich so undeutlich ausgedrückt? ;(
Die GX2 wäre natürlich von der Rohrleistung schneller als eine G8900GTX. Das Problem dabei ist aber, dass die Bandbreite die vorhandene Leistung limitieren würde. Und damit die Bandbreite keinen Flaschenhals darstellt müsste man die GX2 soweit beschneiden, dass sie keinen Sinn mehr macht weil sie dann langsamer wäre als eine G8900GTX.
ALUs:
Bandbreite:
256 x 1000 = 256000 (Pro Chip)
384 x 1100 = 422400
Ähm, eher 64GB/s und 105,6GB/s. :)
Fetza
2007-02-16, 20:58:35
650€ ist nichts im Enthusiatbereich, human ist dort Fremdwort. Und mit einer Heatpipekonstruktion wo die Wärme einfach auf die andere Seite gebracht und abgeführt wird, ist garantiert möglich. Mit den kleinen Pimmelkühlern auf der 7950GX2 bekam man es ja auch hin.
nv teilt das anders ein, wenn ichs noch richtig im kopf habe. Auf einer tabelle stand da mal was von >300euro = enthusiasten markt und ab >200euro kam ein sogenannter performance markt.
greetz
dargo
2007-02-16, 21:04:29
Garniert mit GDDR4 RAM und man hat eine Höllenbandbreite.
Was für Höllenbandbreite?
Sollte die GX2 64GB/s abbekommen wäre das viel zuwenig für eine "G8900GTX" mit dem Faktor 1,3-1,5.
Zum Spaß fallen die Preise ja nicht schon und wenn der G81 eh kein Tapeout hatte, bleibt nur ein weiteres G80 Derivat.
Sorry, aber wo fallen die Preise? Das einzige was günstiger geworden ist war die G8800GTS 640MB, und zwar ganze 50$.
reunion
2007-02-16, 21:05:24
Ähm, eher 64GB/s und 105,6GB/s. :)
Natürlich. Ich war etwas in Eile. Die Proportionen bleiben ja identisch.
Was für Höllenbandbreite?
Sollte die GX2 64GB/s abbekommen wäre das viel zuwenig für eine "G8900GTX" mit dem Faktor 1,3-1,5.
Wenn man die SLi-Effizienz und die Taktraten rausrechnet, erhält man mit dieser GX2 wohl eher eine hypothetische G8900GTX mit dem Faktor 0.9. Aber da sich die Tabelle ohnehin zu 99% nur irgendjemand aus den Fingern gesaugt hat, ist das auch nicht weiter verwunderlich.
dargo
2007-02-16, 21:08:04
Und mit einer Heatpipekonstruktion wo die Wärme einfach auf die andere Seite gebracht und abgeführt wird, ist garantiert möglich.
Einfach möglich?
Dann muss du die doppelte Wärmemenge einer GTS abführen. Das soll einfach sein? :|
Mit den kleinen Pimmelkühlern auf der 7950GX2 bekam man es ja auch hin.
Schau dir mal die Verlustleistung einer G7900GT und einer G8800GTS an und dann überlege nochmal.
Wenn man die SLi-Effizienz und die Taktraten rausrechnet, erhält man mit dieser GX2 wohl eher eine hypothetische G8900GTX mit dem Faktor 0.9.
Das wäre ja noch schlimmer. Sollte die ausgedachte GX2 nicht mal den Faktor 1,0 einer G8900GTX erreichen, wer soll sie dann kaufen? Vorallem wegen der deutlich geringeren Bandbreite und laut der Tabelle einem um 50$ höheren Preis.
G84, Geforce 8600 to score 4500 in 3Dmark 06
http://www.theinquirer.net/default.aspx?article=37697
Doch hoffentlich nicht die 8600GT(S), aber nunja ein 128-Bit SI kann in mancher Situation wohl doch nicht ganz ausreichend sein.
reunion
2007-02-16, 21:16:19
G84, Geforce 8600 to score 4500 in 3Dmark 06 (http://www.the-inquirer.net/default.aspx?article=37697)
Our little source also told us that this Nvidia card has 160 square mm die and compared to ATI's 65 nanometre competitor it will end up bigger.
Nur ziemlich genau ein drittel der Die-Fläche eines G80. Da dürfte noch einiges mehr als das 128-bit SI den Einsparungen zum Opfer gefallen sein, denn der 80nm Prozess bringt AFAIK max. 19% ggü. 90nm.
/Too late...
BTW, INQ berichtet auch noch von einem G78 in 65nm, einem G72-Shrink:
http://www.the-inquirer.net/default.aspx?article=37698
Anscheinend ist auch in FEAR Shaderleistung nicht alles: http://www.anandtech.com/video/showdoc.aspx?i=2931&p=5
Selbst die G8800 profitiert stärker von den Textureeinheiten als von Shaderoperationen in Fear wie es aussieht. Hoffentlich bieten der G86 8xAA :) Da können se auf 64 Skalar Units runtergehen, hauptsache 24x2TU bleiben über ^^
Ailuros
2007-02-17, 05:34:07
Jaja, wenn man als Gast postet, kann man natürlich alles behaupten. :rolleyes:
G90 kommt defintiv in 65nm, und das wird bei nV selbst mit den Lowend-Chips nichts vor H2 2007.
Zwischen Maerz und dem Anfang von H2 liegen 3 Monate. Es soll zwar gar nichts heissen, aber zwischen G80 und dessen Refresh koennte man schon =/>8 Monate zaehlen.
Ailuros
2007-02-17, 05:43:57
Nur ziemlich genau ein drittel der Die-Fläche eines G80. Da dürfte noch einiges mehr als das 128-bit SI den Einsparungen zum Opfer gefallen sein, denn der 80nm Prozess bringt AFAIK max. 19% ggü. 90nm.
Die ROP partitions sind nicht gerade billig; der Vergleich zwischen den Herstellungsprozessen ist nutzlos aus zwei Gruenden:
a) die G8x ALUs haben eine gesunde Portion an Handarbeit.
b) ich erinnere an das Umschaufeln der Einheiten die von 302M/G70 auf 278/G71 fuehrten.
Oder wenn es in die size sein muss:
G70@110nm= 334mm^2
G71@90nm= 196mm^2
superdash
2007-02-17, 09:34:51
G84, Geforce 8600 to score 4500 in 3Dmark 06 (http://www.the-inquirer.net/default.aspx?article=37697)
Nur ziemlich genau ein drittel der Die-Fläche eines G80. Da dürfte noch einiges mehr als das 128-bit SI den Einsparungen zum Opfer gefallen sein, denn der 80nm Prozess bringt AFAIK max. 19% ggü. 90nm.
/Too late...
BTW, INQ berichtet auch noch von einem G78 in 65nm, einem G72-Shrink:
http://www.the-inquirer.net/default.aspx?article=37698
Ganz ehrlich gesagt wäre das aber recht mager. Das kriegt ja eine x1900gt schon fast hin und die dürfte bis die 8600gt kommt um einiges günstiger sein. Ich bin skeptisch ob nv damit ein konkurrenzfähiges Produkt schafft. Da rentiert sich der Aufpreis von 100€ zur 8800gts 320mb Version ja absolut. Es wäre insgesamt echt schade, wenn es wieder nur ein 128bit Speicherinterface für Mainstream gibt. Sowas tut man sich natürlich nicht an.
Gruß
BTW, INQ berichtet auch noch von einem G78 in 65nm, einem G72-Shrink:
http://www.the-inquirer.net/default.aspx?article=37698
Da dieser wohl rech früh kommt, ist er vielleicht ein guter Indikator für 65nm Prozess, wäre interessant was hier möglich ist, wenn er genauso gut skaliert wie der G73 in 80nm... :D (1GHz?)
Ansonsten reicht wohl im normalen Einsatz ein minimalster Passivkühler.
nordic_pegasus
2007-02-17, 10:14:56
G84, Geforce 8600 to score 4500 in 3Dmark 06 (http://www.the-inquirer.net/default.aspx?article=37697)
Ich bin eigentlich davon ausgegangen, dass das Flagschiff im Mainstream-Segment ungefähr an die Leistung eines HighEnd-Chips der Vorgängergeneration rankommt.
Mit meinem C2D E6600 und meiner 7600GT schaffe ich auch schon 4100 Punkte im 3DM06. Eine 7900GTX kommt mit gleicher CPU über 6000 Punkte.
Ich persönlich bin ernsthaft am Überlegen, ob ich mir im eine 8600/ATI-Pendant oder eine gebrauchte 7900GTX/GTO holen werde... wobei immer weniger für die 8600er Reihe zu sprechen scheint.
StefanV
2007-02-17, 10:18:43
Naja, warte lieber ab, wie sich das Teil in echten Spielen schlägt...
Im 3DFart schlägt sich eine 7800/7900 auch recht wacker gegen eine x1900, in Real Life Shader Games schauts aber ganz anders aus, da schlägt eine x1900 die 7800/7900 ziemlich deutlichst...
Könnte also auch hier der Fall sein, das die 7800 im 3DFart vorn liegt, in Real Life Games wie Oblivion der Unterschied aber gering bis nicht vorhanden ist, da heißts erstmal abwarten und Tee rauchen...
Ganz ehrlich gesagt wäre das aber recht mager.Die Daten der 7600GT klangen anfangs auch recht mager und trotzdem war sie letztenendes ein Stück schneller als eine 6800 Ultra, trotz nur 3 Quads und 128-bit-SI.
Endorphine
2007-02-17, 10:27:53
Mit meinem C2D E6600 und meiner 7600GT schaffe ich auch schon 4100 Punkte im 3DM06. Eine 7900GTX kommt mit gleicher CPU über 6000 Punkte.
Ich persönlich bin ernsthaft am Überlegen, ob ich mir im eine 8600/ATI-Pendant oder eine gebrauchte 7900GTX/GTO holen werde... wobei immer weniger für die 8600er Reihe zu sprechen scheint. Der Umstieg von einer 7600 GT auf eine 7900 GTX bringt nur mehr Leistung (und es wird schön warm im PC). Der Umstieg von 7600 GT auf eine 8600 GT/GTS/irgendwas bringt mit endlich wieder gutem AF und besserem AA auch mehr Bildqualität mit. Und die G8x-Treiberentwicklung steht noch am Anfang, da geht noch was im Gegensatz zur GF7.
3DMark-Scores sind eben nur das, 3DMark-Scores. Kauft man sich eine Grafikkarte, um damit 3DMark besonders schnell ablaufen zu lassen? Da warte ich doch lieber auf Applikations-Benchmarks, also Spiele in dem Fall. Und DX10 kann bei Spielen mit DX10-Beschleunigungsrenderpfad wie afaik Unreal Tournament 3 auch noch etwas Potenzial freisetzen, was DX9-Karten nicht nutzen können werden.
Ich würde das Rennen 7900 vs. 8600 noch nicht so frühzeitig als entschieden bezeichnen, nur weil mal eine 3DMark-Hausnummer durch's Internet geistert. ;)
robbitop
2007-02-17, 10:29:38
Das ist immerhin das Ergebnis von einer G71 in 3DM. Transistorcount dürfte zw 250 und 300 Mio liegen.
Allerdings ist unklar, ob das die größte 8600 ist.
Mir fällt auf, dass hier die Rede vom G84 und nicht vom G86 ist. Dürfte das nicht eigentlich die 8300 sein?
reunion
2007-02-17, 10:57:23
Ich bin eigentlich davon ausgegangen, dass das Flagschiff im Mainstream-Segment ungefähr an die Leistung eines HighEnd-Chips der Vorgängergeneration rankommt.
Mit meinem C2D E6600 und meiner 7600GT schaffe ich auch schon 4100 Punkte im 3DM06. Eine 7900GTX kommt mit gleicher CPU über 6000 Punkte.
Ich persönlich bin ernsthaft am Überlegen, ob ich mir im eine 8600/ATI-Pendant oder eine gebrauchte 7900GTX/GTO holen werde... wobei immer weniger für die 8600er Reihe zu sprechen scheint.
Abwarten. Nur wegen eines 3dmark-Scores von INQ würde ich nicht den Kopf hängen lassen. Einen G71 sollte so ein Core bei neueren Spielen noch immer deutlich distanzieren, soetwas würde ich mir nicht mehr kaufen. Das Problem, das nV hat, ist eben das G80 verdammt groß ist, und der Shrink auf 80nm fast zu wenig ist, um einen Midragechip auf dieser Basis mit ausreichenden Margen zu fertigen. nV wird hier IMO mehr als nur das SI abspecken müssen, und die 160mm² von FUAD deuten das ja auch schon an.
Winter[Raven]
2007-02-17, 10:59:26
@ reunion
Also fang nicht mit Margen an, Nvidia schafft es im gegensatz zu deiner "lieblingsfirma" immer noch bessere... :P
Endorphine
2007-02-17, 11:03:25
Das Problem, das nV hat, ist eben das G80 verdammt groß ist, und der Shrink auf 80nm fast zu wenig ist, um einen Midragechip auf dieser Basis mit ausreichenden Margen zu fertigen. nV wird hier IMO mehr als nur das SI abspecken müssen, und die 160mm² von FUAD deuten das ja auch schon an. Interessant wird auch, ob auch die kleineren G80 einen NVIO mitbringen werden. Wenn dem so ist erhöht der auch die Kosten.
reunion
2007-02-17, 11:04:08
;5259889']@ reunion
Also fang nicht mit Margen an, Nvidia schafft es im gegensatz zu deiner "lieblingsfirma" immer noch bessere... :P
Schaffst du es irgendwann vielleicht auch mal sachlich zu argumentieren? Was in der Vergangenheit war, interessiert niemanden. Mit einer neuen Generation werden die Karten neu gemischt. Auch ist ja das Problem von nV weniger der Transistorcount, denn der dürfte bei R600 sogar höher sein, sondern vielmehr die sehr konservative Strategie, was neue Strukturbreiten betrifft.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.