Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Weitere D3D10-Produkte in Arbeit, Teil 3
DrumDub
2007-04-17, 17:39:32
In diesem Thread geht's um alle neuen/kommenden Grafikkarten von nVidia (auch G7x@65nm gehört dazu).
Links werden nachgereicht.
-------------------------
http://www.beyond3d.com/forum/showthread.php?t=35502
http://www.dailytech.com/article.aspx?newsid=4891
Und das: More "G80" Derivatives in February (http://dailytech.com/article.aspx?newsid=4867)
Ob unter den kommenden Produkten auch IGP für Intel gemeint sind, ist zZ unklar.
Ergänzend: G80-Mainstream/Lowend auf der CeBIT? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4876123#post4876123)
------------------------------------------
GeForce8-IGP für Intels S.775 - Q4/2007
(http://www.hkepc.com/bbs/itnews.php?tid=711343)
8800GTS 320MB für 299$ Mitte Februar (http://www.vr-zone.com/index.php?i=4472)
------------------------------------------
G84 bzw. 8600GT/GTS am 17. April? (http://www.vr-zone.com/?i=4723)
Was bisher halbwegs unspekulativ ist: 128-bit-SI, keine Ultra-Version (vielleicht erst nach dem Start der Konkurrenz?), 80 nm, 160 mm².
G86: 120 mm²
8600GT/GTS und 8500GT: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=358485)
The last model meant for budget segment is actually a G84 core but downgraded to meet the value segment pricing structure. The 8500GT will be clocked at 450MHz core / 800MHz 256MB DDR2 memory and comes in 2 variants; one with HDCP (G86-300) and the other without HDCP (G86-305). 8500GT will be priced between US$79 to US$99. Towards end of April, we can expect NVIDIA to release GeForce 8300GS for the budget market to replace 7300 series
------------------------------------------
8800 Ultra? (http://www.vr-zone.com/?i=4727)
NVIDIA_G80.DEV_0191.1 = "NVIDIA GeForce 8800 GTX"
NVIDIA_G80.DEV_0193.1 = "NVIDIA GeForce 8800 GTS"
NVIDIA_G80.DEV_0194.1 = "NVIDIA GeForce 8800 Ultra"
NVIDIA_G80.DEV_019E.1 = "NVIDIA Quadro FX 4600"
NVIDIA_G84.DEV_0400.1 = "NVIDIA GeForce 8600 GTS"
NVIDIA_G84.DEV_0402.1 = "NVIDIA GeForce 8600 GT"
NVIDIA_G86.DEV_0421.1 = "NVIDIA GeForce 8500 GT"
NVIDIA_G86.DEV_0422.1 = "NVIDIA GeForce 8400 GS"
NVIDIA_G86.DEV_0423.1 = "NVIDIA GeForce 8300 GS"
------------------------------------------
Letztes Posting aus dem zweiten Teil. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5416327#post5416327)
reunion
2007-04-17, 17:42:30
Klar 1400 Mhz GDDR4 ist auch ne tolle Idee für ne Karte die bald um 150 Euro und weniger über den Tisch geht.
Mein Gott, dann bleibt man eben bei 1Ghz GDDR3. Das Füllraten/Bandbreitenverhältnis wäre trotzdem nur leicht schlechter als bei G80, was im Midragesegment eigentlich schon seit Jahren üblich ist.
GDDR4 ist immer noch schweine teuer und die Verfügbarkeit für die Massen an Midrange Karten ein Witz.
Wie groß ist denn der Preisunterschied wenn ich fragen darf?
BTW, wer ist denn auf die tolle Idee gekommen, dass man in geschlossenen Threads nicht mehr Quoten kann? Sehr unpraktisch, und vorallem auch nutzlos, da man ohnehin nicht mehr antworten könnte.
James Ryan
2007-04-18, 15:31:04
OMG, was ist das (bitte ganz genau hinsehen):
http://www.forumdeluxx.de/forum/showpost.php?p=5933274&postcount=199
Fake? Wenn ja ist er gut gemacht. :|
MfG :cool:
Definitiv ein Fake. Die obere Karte hat PCIe-Lanes wo gar keine sein dürften. Außerdem wäre das Ding so nicht kühlbar.
Anarchy-HWLUXX
2007-04-18, 15:57:48
OMG, was ist das (bitte ganz genau hinsehen):
http://www.forumdeluxx.de/forum/showpost.php?p=5933274&postcount=199
Fake? Wenn ja ist er gut gemacht. :|
MfG :cool:
Die sehr auffälligen diagonalen Striche auf der oberen sind wohl PCIe Lanes die aus dem nichts kommen ... schaut jedenfalls verdächtig aus.
Der Lüfter müsste bei einer 1-slot version auch eine kleinere nabe haben und er schaut zu tief aus.
Henroldus
2007-04-18, 16:26:37
jetzt stehts auch da, ist ein fake.
man beachte auch die aliasingkanten an der rundung oberhalb des lüfters zum Hintergrund.
hier nochmal in Groß:
http://www.hardwareoc.hu/upload/news/12707_8950gx2_2.jpg
woher sollte der untere Lüfter auch seine luft ziehen, wenn direkt darüber das zweite PCB klebt?
selbst wenn es echt wäre finde ich die Entwicklung in diese Richtung völlig verkehrt.
seahawk
2007-04-18, 18:12:08
Mein Gott, dann bleibt man eben bei 1Ghz GDDR3. Das Füllraten/Bandbreitenverhältnis wäre trotzdem nur leicht schlechter als bei G80, was im Midragesegment eigentlich schon seit Jahren üblich ist.
Aber das Verhältnis ist eben nicht so relevant. Der Bandbreitenbedarf ändert sich ja nicht mit dem Verhältnis von Füllrate/Bandbreite, das eine Karte bereitstellt.
[/quote]
Wie groß ist denn der Preisunterschied wenn ich fragen darf?
BTW, wer ist denn auf die tolle Idee gekommen, dass man in geschlossenen Threads nicht mehr Quoten kann? Sehr unpraktisch, und vorallem auch nutzlos, da man ohnehin nicht mehr antworten könnte.[/QUOTE]
Gute Frage, ich habe keien Ahnung wie teuer GDDR3 1000 gerade ist, GDDR über 1200Mhz soll aber sowohl teuer, als auch schlecht verfügbar sein, was natürlich für ne OEM-Markt-Karte mal gar nicht geht.
Außerdem muss die 8600 noch ne Lücke lassen für eine 8700 bzw. 8800GT mit neuem Chip.
Silverbuster
2007-04-18, 18:21:00
Da muss ich seahawk mal zustimmen.... die Lücke zwischen 8600GTS und 8800GTS 320MB ist riesig, da wird sicherlich noch ein Lückenfüller kommen. Eine 8700 oder eine 8800GT oder sonst was in der Art.
Die 8800GTS schneidet ja schon erbärmlich ab gegen die 7950GT oder X1950pro, da hatte wohl jeder mehr erwartet. Vorstellen könnte ich mir eine 8800GT mit 64Shader Units und 320MB oder eine 8600GTS mit höheren Taktraten und 256bit Anbindung. Wobei ich ersteres vorziehen würde.
PS: Das dieses Bild ein Fake ist, sollte jedem klar sein der alleine die Standard Kühler darauf sieht. Den die Standard Kühler sind von Haus aus Doppelslot Kühler, dann müsste die Karte über 4 Slots gehen. Und jedem sollte wohl klar sein das ein flacher Singelslot Kühler wohl kaum ausreichen dürfte eine 8800 zu kühlen.
Die 8800GTS schneide erbärmlich ab?
Schön bei der Wahrheit, ja?
laser114
2007-04-18, 18:31:35
Die 8800GTS schneide erbärmlich ab?
Schön bei der Wahrheit, ja?
Mein Gott, er meint eine 8600 GTS, merkt man doch am Text...
Tippfehler.
gibts mal wieder was neues zu den mobilen varianten geforce go 8xxx? Sollen doch zusammen mit Santa Rosa erscheinen.
Anarchy-HWLUXX
2007-04-19, 16:35:54
GeForce 8800 GS is near ... Official from Nvidia
http://forums.vr-zone.com/showthread.php?t=145090
GeForce 8800 Ultra
GeForce 8800 GTX
GeForce 8800 GTS
GeForce 8800 GS
GeForce 8600 GTS
GeForce 8600 GT
GeForce 8500 GT
GeForce 8400 GS
GeForce 8300 GS
Und jetzt die entscheidende Frage - wieviele shader hat das teil und wie breit ist des SI ?
Mein tipp : 64 / 256bit
So nen Teil würd die lücke zwischen 8800GTS und 8600GTS gut ausfüllen ...
Godmode
2007-04-19, 16:37:41
GeForce 8800 GS is near ... Official from Nvidia
http://forums.vr-zone.com/showthread.php?t=145090
Könnte vielleicht ein Chip mit 4 Clustern sein, gefertigt in 80nm? Oder ein normaler G80 mit 4 Clustern deaktiviert, glaub ich aber nicht wirklich.
Anarchy-HWLUXX
2007-04-19, 16:42:06
Könnte vielleicht ein Chip mit 4 Clustern sein, gefertigt in 80nm? Oder ein normaler G80 mit 4 Clustern deaktiviert, glaub ich aber nicht wirklich.
Keiner weiss wie die Yields aussehen ... evtl. hat sich da einiges an GPUs angesammelt mit vielen defekten stellen :| Anstatt die einzustampfen werden se eben als GS verkooft.
AnarchX
2007-04-19, 16:47:19
Sollte nicht im Mai die GeForce Go 8800GS kommen.
Godmode
2007-04-19, 16:56:54
Sollte nicht im Mai die GeForce Go 8800GS kommen.
Denkst du dabei schon an 65nm :naughty:?
Anarchy-HWLUXX
2007-04-19, 17:01:59
Denkst du dabei schon an 65nm :naughty:?
Also bei nem Shrink würd das Teil garantiert nemmer 8800 sondern 8900 heissen ... ich sag also - nö ;)
AnarchX
2007-04-19, 20:35:19
Dell leakt Ultra Spezifikationen!
http://img409.imageshack.us/img409/7536/attachment5e3e96sr7.jpg (http://imageshack.us)
[News]
Adam D.
2007-04-19, 20:39:15
Das ist alles? Dafür 999$? Ne, das wär zu unverschämt.
Silverbuster
2007-04-19, 20:42:02
GeForce 8800 GS is near ... Official from Nvidia
http://forums.vr-zone.com/showthread.php?t=145090
Und jetzt die entscheidende Frage - wieviele shader hat das teil und wie breit ist des SI ?
Mein tipp : 64 / 256bit
So nen Teil würd die lücke zwischen 8800GTS und 8600GTS gut ausfüllen ...
Da würde ich mit wetten. Das würde eigentlich am meisten Sinn machen... aber mal sehen... *g*... manchmal kommt es anders und manchmal als man denkt.
Black-Scorpion
2007-04-19, 20:43:10
Das ist nicht unverschämt sondern Taktik.
Bei dem Preis kauft sie keiner und verlangt sie auch nicht.
Damit entzieht man die Karte praktisch dem Retail Markt damit sie gerade so den OEM Markt bedienen können.
seahawk
2007-04-19, 20:45:00
Nur was für ein Chip ist das. Ein deaktivierte G80 oder G81 ?
Adam D.
2007-04-19, 20:45:15
Wuhu, welch genialer Prestige-Sieg. Eine Karte, die man nicht kaufen kann und die auch keiner kaufen soll :usad:
reunion
2007-04-19, 21:03:28
Nur was für ein Chip ist das. Ein deaktivierte G80 oder G81 ?
Mit Sicherheit ein ganz normaler G80. Dazu einige wenige Chips, welche die 13% mehr Takt des schon jetzt an den Grenzen laufenden G80 gerade noch packen, und ein Preis von 999$, damit die Nachfrage das kaum vorhandene Angebot nicht übersteigt. Solange die Karten wie die GTX512 bei den meisten Vergleichstests mitgetestet wird, hat sie ihren Zweck erfüllt.
Blaire
2007-04-19, 21:03:39
Das ist alles? Dafür 999$? Ne, das wär zu unverschämt.
Warum nicht? Sind schließlich außer Konkurrenz :biggrin:
Adam D.
2007-04-19, 21:06:53
Warum nicht? Sind schließlich außer Konkurrenz :biggrin:
Hmm, für einen Monat :tongue:
reunion
2007-04-19, 21:09:14
Ein niedrigerer Preis macht keinen Sinn, wenn man die Karte nicht ausreichend liefern kann. Hat man ja bei der GTX512 gesehen, was sonst passiert.
Nakai
2007-04-19, 21:23:41
Yeah, NV hats druff. Nee im Ernst, das ist wirklich dreist, aber solange man die schnellste Karte hat, passt ja alles. Da ist der Preis egal.
mfg Nakai
Adam D.
2007-04-19, 21:26:14
Wenn die so an der Grenze laufen, dann gibt's vielleicht grad genug Karten, um die Reviewer zu beliefern, damit sie beweisen können, dass sie ja doch die schnellste Karten haben :uup:
AnarchX
2007-04-19, 21:31:52
Wohlmöglich ist die Ultra auf eine Wasserkühlung angewiesen, wodurch die $999 gar nicht mal so teuer sind(natürlich im Verhältnis zu Leistung schon stark überteuert, aber das ist numal bei Produkten dieser Art üblich):
http://geizhals.at/deutschland/a243571.html
Was wiederrum auch Sinn im Zusammenhang mit Dell macht, die im XPS die Karte an ihre eigene Wakü-Lösung anschliessen werden.
Die einzige Unbekannte ist noch der Shadertakt.
Adam D.
2007-04-19, 21:35:08
Angewiesen? Das ist doch etwas übertrieben, soweit ich weiß, laufen die GTX mit Standard-Kühler noch nicht am Maximum. Bei der Taktsteigerung ist doch nicht gleich 'ne Wasserkühlung notwendig, oder steigt die Hitze in den hohen Taktbereichen so stark an?
Godmode
2007-04-19, 22:54:34
Dell leakt Ultra Spezifikationen!
http://img409.imageshack.us/img409/7536/attachment5e3e96sr7.jpg (http://imageshack.us)
Zzzz, und ich hatte schon wieder feuchte Träume, obwohl es jedesmal der gleiche Konservative Dreck ist. Ich hätte mich schon auf ne Ultra gefreut, die mit 700-750 MHz Takt antanzt! Ich muss mir das jetzt mal auf die Monitor schreiben, dass von Nvidia nie ein extrem starke(r) Refresh/Press Edition kommt.;D
Anarchy-HWLUXX
2007-04-19, 22:56:49
Der schmarrn vonwegen 999$ nervt so langsam - ehe das net von nV bestätigt ist glaub ich das kein Stück ....
Fetza
2007-04-19, 23:09:44
Der schmarrn vonwegen 999$ nervt so langsam - ehe das net von nV bestätigt ist glaub ich das kein Stück ....
Das halt ich auch für mist. Und sollte die karte sich als "duke nukem forever" hardware herausstellen, glaub ich kaum das sie jemand als kaufbares produkt anerkennen wird.
Glaub net das das die echten Specs sind, gibt doch GTX Modelle die fast mit dem selben Takt laufen. Macht irgendwie kein Sinn und auch der Preis wäre selbst mit Wakü und einem Gainward Deluxe OC Versionsaufbabberl total überzogen...
Ailuros
2007-04-19, 23:45:43
Glaub net das das die echten Specs sind, gibt doch GTX Modelle die fast mit dem selben Takt laufen. Macht irgendwie kein Sinn und auch der Preis wäre selbst mit Wakü und einem Gainward Deluxe OC Versionsaufbabberl total überzogen...
Ich wiederhole nochmal die Moeglichkeit einer Wasserkuehlung bei manchen Modellen:
http://www.newegg.com/Product/Product.aspx?Item=N82E16814143085
http://www.bfgtech.com/8800GTXOC_768_PCIe_wc.html
8800GTX@650/1000MHz + Wasserkuehlungs-Dingsbums = $940
Anarchy-HWLUXX
2007-04-20, 00:15:36
Glaub net das das die echten Specs sind, gibt doch GTX Modelle die fast mit dem selben Takt laufen. Macht irgendwie kein Sinn und auch der Preis wäre selbst mit Wakü und einem Gainward Deluxe OC Versionsaufbabberl total überzogen...
Gainward muss aber die GPUs/Karten selbst selektieren - wenn die Taktraten von nV garantiert werden fällt das schonmal weg und ne WaKü ist für diesen Takt warlich nicht zwingend erforderlich - muss der Lüfter eben dauerhaft paar hundert umdrehungen schneller laufen.
Die Karten mit montierter WaKü sind weiterhin abartig überteuert ... der Preis für die BFG ist nen schlechter Witz da sie nichtmal von Werk ab OCed ist und der Kühler ansich ist net gerade empfehlenswert.
Ich wiederhole nochmal die Moeglichkeit einer Wasserkuehlung bei manchen Modellen:
http://www.newegg.com/Product/Product.aspx?Item=N82E16814143085
http://www.bfgtech.com/8800GTXOC_768_PCIe_wc.html
8800GTX@650/1000MHz + Wasserkuehlungs-Dingsbums = $940
Die Asus AquaTank mit 630MHz/1000MHz kostet 620€ / 680$ und ist komplett einsatzbereit ab kauf ...
http://geizhals.at/deutschland/a237866.html
http://www.newegg.com/Product/Product.aspx?Item=N82E16814121065
seahawk
2007-04-20, 07:40:34
Mit Sicherheit ein ganz normaler G80. Dazu einige wenige Chips, welche die 13% mehr Takt des schon jetzt an den Grenzen laufenden G80 gerade noch packen, und ein Preis von 999$, damit die Nachfrage das kaum vorhandene Angebot nicht übersteigt. Solange die Karten wie die GTX512 bei den meisten Vergleichstests mitgetestet wird, hat sie ihren Zweck erfüllt.
Mir ging es umd die GS.
AnarchX
2007-04-21, 08:59:22
NVIDIA: There will be no 8800 GS @ Guru3D (http://www.guru3d.com/newsitem.php?id=5223)
In yesterday's news we posted that in their recent release notes they make not of the GeForce 8800 GS. Appearantly .. it's not going to happen. This is fresh in from NVIDIA, there will be no GeForce 8800 GS: [...]
Schade eine 512MB 8800GS wäre durchaus eine interessante Karte gewesen, aber der Preisunterschied zwischen GTS 320MB und 86GTS ist nunmal zu klein und die 86GTS will man wohl auch erst noch zu einem "guten" Preis verkaufen.
Zudem gibt es Gerüchte, dass die 8800Ultra auf 0.8ns GDDR3 setzen könnte, was wiederrum durchaus Sinn im Zusammenhang mit Preis und möglicher Verfügbarkeit macht.
Und die Taktraten für eine mögliche OC-Version der Ultra könnten 675/1175MHz (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=62248) lauten. Was die dann wohl kostet? :tongue:
AnarchX
2007-04-21, 18:28:40
Dies soll die Kühlerabdeckung der 8800Ultra sein:
http://img441.imageshack.us/img441/84/attachment222de98xn7.jpg (http://imageshack.us)
Quelle (http://we.pcinlife.com/thread-753482-1-1.html)
[News]
reunion
2007-04-21, 18:53:21
Zudem gibt es Gerüchte, dass die 8800Ultra auf 0.8ns GDDR3 setzen könnte, was wiederrum durchaus Sinn im Zusammenhang mit Preis und möglicher Verfügbarkeit macht.
Und die Taktraten für eine mögliche OC-Version der Ultra könnten 675/1175MHz (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=62248) lauten. Was die dann wohl kostet? :tongue:
Blöd, dass es keinen GDDR3-RAM gibt oder je geben wird, der für über ein Ghz spezifiziert ist. Und das es von der Ultra bei den prognostizierten Stückzahlen und zu dem Preis eine OC-Version geben wird, wage ich mal ganz stark zu bezweifeln.
AnarchX
2007-04-21, 19:09:38
Blöd, dass es keinen GDDR3-RAM gibt oder je geben wird, der für über ein Ghz spezifiziert ist.
http://img260.imageshack.us/img260/9270/gddrsamsungxe5.png (http://imageshack.us)
Quelle: Samsung (http://www.samsung.com/Products/Semiconductor/Support/Label_CodeInfo/DRAM.pdf)
;)
reunion
2007-04-21, 19:18:29
Okay, trotzdem ist das noch Zukunftsmusik. Mehr als 1Ghz GDDR3 hat bei Samsung noch nicht die Massenproduktion erreicht, und wird deshalb auch für die 8800U nicht von Relevanz sein. Aber schön, dass man auch GDDR3 noch weiterentwickelt.
AnarchX
2007-04-21, 19:24:47
AFAIK gab es mal das Gerücht, dass der 0.83ns GDDR3 im Q2 2007 in Massenproduktion sein soll, was wiederrum zum Ultra-Release passt.
Ich denke eher nicht, dass NV hier Speicher verwendet, der ausserhalb seiner Spezfikation läuft.
reunion
2007-04-21, 19:29:00
Samsung führt keine GDDR3-Speicher über einem Ghz. Brauchst dir ja nur die Homepage anzusehen.
http://www.samsung.com/products/semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QE/K4J52324QE.htm
AnarchX
2007-04-21, 19:34:46
Und wer sagt, dass NV sich nicht eine Ladung der neuen 0.83ns Chips besorgen konnte, die eben noch nicht für die Masse angeboten werden?
Zum spekulierten Preis und der möglichen geringen Verfügbarkeit passt es jedenfalls.
Oder glaubst du NV fährt den Speicher bei ihrem Referenzmodell ausser der Spezifikation? (Gab es das schonmal?)
reunion
2007-04-21, 19:41:15
Ja, das gab es schonmal. Die 8% mehr Takt wird der Speicher locker aushalten.
Solang sie den Speicher selber validieren und den Rest von mir aus auf GTXen löten ist das doch auch völlig egal.
Dies soll die Kühlerabdeckung der 8800Ultra sein:
http://img441.imageshack.us/img441/84/attachment222de98xn7.jpg (http://imageshack.us)
Quelle (http://we.pcinlife.com/thread-753482-1-1.html)
Leider kann ich kein Chiesisch lesen, aber das ist doch nicht die Kühlerabdeckung? Schaut meiner Meinung nach sehr abstrakt aus.
AnarchX
2007-04-21, 23:02:22
Leider kann ich kein Chiesisch lesen, aber das ist doch nicht die Kühlerabdeckung? Schaut meiner Meinung nach sehr abstrakt aus.
Hier noch das Bild auf einer anderen Seite:
http://r800.blogspot.com/2007/04/metal-cover-of-geforce-8800-ultra-fan.html
Ist nunmal ein aufwendiges Design für eine teuere Karte. ;)
Blöd, dass es keinen GDDR3-RAM gibt oder je geben wird, der für über ein Ghz spezifiziert ist.
Der Speicher scheint jedenfalls kein Problem zu sein.
Bei der 8600GTS kommt auch schon 1,145 GHz GDDR3 zum Einsatz. http://geizhals.at/eu/a251196.html
Alles eine Sache der Spannung. :)
(etwas kurios, das gehobenere Karten wie die X1900XTX nicht annähernd so hoch kommen)
BvB123
2007-04-22, 00:17:50
Kommt auch auf die Timings an ;)
Gruß
Kommt auch auf die Timings an ;)
Gruß
Net bei Grafikkarten, weiß jemand zufällig ein paar Beispiele. AFAIL sind die GDDR Timings viel höher als das was wir am PC haben.
BvB123
2007-04-23, 20:06:25
Ich weiß es noch von der 6800GT, diese war bei gleichem Takt schneller als eine 6800Ultra, den speicher auf der Ultra konnte man meistens aber um 100Mhz mehr übertakten, auch wenn beide den gleichen Speicher verbaut hatten (1,6ns) mit der selben Spannung.
Mit dem ATI-Tool kann übrigens auch die Timings ändern, wenn man auf die letzten 1-2% aus ist.
Der Speicher scheint jedenfalls kein Problem zu sein.
Bei der 8600GTS kommt auch schon 1,145 GHz GDDR3 zum Einsatz. http://geizhals.at/eu/a251196.html
Alles eine Sache der Spannung. :)
(etwas kurios, das gehobenere Karten wie die X1900XTX nicht annähernd so hoch kommen)
reunion hat nur gesagt das es keinen GDDR3 Speicher gibt der über 1GHZ Spezifiziert ist, Overclocking ist das betreiben außerhalb der Spezifikationen :P
Gruß
Nakai
2007-04-23, 20:08:06
Die Timings sind schon wichtig, nur ist ein höherer Takt wohl noch effizienter.
mfg Nakai
AnarchX
2007-04-24, 07:03:13
Das hat Samsung auf der IDF in Peking gezeigt:
http://img267.imageshack.us/img267/7633/000467423118c30vq6.jpg (http://imageshack.us)
Mal sehen, was man nun auf der Ultra verbaut.
darkcrawler
2007-04-24, 18:00:16
Der Speicher scheint jedenfalls kein Problem zu sein.
Bei der 8600GTS kommt auch schon 1,145 GHz GDDR3 zum Einsatz. http://geizhals.at/eu/a251196.html
Alles eine Sache der Spannung. :)
(etwas kurios, das gehobenere Karten wie die X1900XTX nicht annähernd so hoch kommen)
liegt IMHO auch am breiteren SI, auf kleineren gehn identische rams i.d.r. höher
reunion hat nur gesagt das es keinen GDDR3 Speicher gibt der über 1GHZ Spezifiziert ist, Overclocking ist das betreiben außerhalb der Spezifikationen :P
Ich sehe da keinen wirklichen Unterschied...
Bei RAM ist es genauso... man selektiert die besten raus und verkauft diese als höherwertigen/schnelleren RAM.
Am Ende ist es nur der Hersteller, der die "Spezifikationen raufpappt".
Wenn kein Bedarf an 1 GHz GDDR3 bestehen würde, würde man die jetzigen sicher auch nur als langsamere Variante mit anderem Label verkaufen. :)
AnarchX
2007-04-26, 06:26:47
Hier noch ein paar Impressionen zur Ultra:
http://img267.imageshack.us/img267/8992/attachment14fc50gf7.jpg (http://imageshack.us)
http://img267.imageshack.us/img267/8176/attachment112e8fph8.jpg (http://imageshack.us)
[News]
Moralelastix
2007-04-26, 06:40:28
Seltsam, der Lüfter selbst scheint ja der aus der GTX/GTS zu sein.
Aber wieso sollte der so komisch versetzt über den Rand hinausragen?
Sieht optisch schon mal nicht so sauber aus wie bei den übrigen G80.
Wieso verbauen die nicht diesen Wasserprototypen auf der Ultra?
http://www.hardware-mag.de/news.php?id=39844
AnarchX
2007-04-26, 06:52:03
Seltsam, der Lüfter selbst scheint ja der aus der GTX/GTS zu sein.
Aber wieso sollte der so komisch versetzt über den Rand hinausragen?
Ich würde darauf tippen, dass der Kühler rechts offen ist und durch diese versetzte Lage von dort eben zusätzlich auch noch Luft angesaugt wird, immerhin will man mit dem Teil bis zu 675MHz kühlen.
Fragt sich nur wie gut das funktioniert und wie laut er im Endeffekt sein wird.
WaKü scheint für ein Referenzdesign wohl weiterhin ein No-Go zu sein.
Moralelastix
2007-04-26, 07:03:23
Naja der Prototyp sieht für mich nicht nach Wakü only aus.
Mehr nach einer Kombination von beidem.
Wer will kann die Wakü anschließen und so die maximale Kühlleistung für's übertakten rausholen.
Anarchy-HWLUXX
2007-04-26, 08:36:26
Seltsam, der Lüfter selbst scheint ja der aus der GTX/GTS zu sein.
Aber wieso sollte der so komisch versetzt über den Rand hinausragen?
Sieht optisch schon mal nicht so sauber aus wie bei den übrigen G80.
Wieso verbauen die nicht diesen Wasserprototypen auf der Ultra?
http://www.hardware-mag.de/news.php?id=39844
Evtl. platz für mehr Heatpipes ... bei den jetzigen sieht man an der seite nur eine einzelne ...
Moralelastix
2007-04-26, 09:00:50
Da sind aber mindestens zwei drauf.
Eine aus Kupfer die man nur schlecht sieht(vielleicht sind das auch zwei?) und die verchromte die so deutlich zu sehen ist.
Anarchy-HWLUXX
2007-04-26, 09:01:44
Hell Yeah :umassa:
http://img136.imageshack.us/img136/5152/8800uyj3.jpg
Moralelastix
2007-04-26, 09:17:21
Das sieht doch alles sehr nach Standard GTX Kühler aus.
Auch wieder Alu Kühlrippen statt Kupfer.
Und dieser versetzte Lüfter sieht einfach :uup: aus.
Vielleicht wollten die ja Ähnlichkeiten mit den EVGA G80 ern vermeiden?:biggrin:
http://media.schottenland.de/pi/Evga768-P2-N837-AR.jpg
coole optik!
so um die 600,- eur würde ich dafür ausgeben...
eines muss man nvidia lassen, sie bringen wenigstens produkte auf den markt!
optisch schauts noch besser aus als die gtx, die karte will zeigen das sie power hat.
bin gespannt wie hoch nvidia jetzt den preis ansetzt, nach den ati 2900xtx benchmarks (wenn sie stimmen) ist nvidia ja nicht unbedingt stark gefordert bzgl. preiskampf usw.
dargo
2007-04-26, 11:48:53
Hell Yeah :umassa:
http://img136.imageshack.us/img136/5152/8800uyj3.jpg
Etwas "idiotisch" finde ich den Kühler schon. Warum hat man den Platz nicht einfach für einen größeren Lüfter genutzt?
Anarchy-HWLUXX
2007-04-26, 12:13:17
Etwas "idiotisch" finde ich den Kühler schon. Warum hat man den Platz nicht einfach für einen größeren Lüfter genutzt?
Na ja, abwarten bis mal wer die Plastikhaube abmacht ... bin scho gespannt wie der Kühler angepasst wurd.
[GeForce 8800 Ultra Card & Final Clocks Unveiled]
http://www.vr-zone.com/?i=4930
Jeder sagt was anderes...
Inq meint 675, 1,6 und 2,35 ghz
seahawk
2007-04-26, 21:19:18
Kann ja auch OC Versionen der Ultra geben ;)
AnarchX
2007-04-26, 21:43:47
Kann ja auch OC Versionen der Ultra geben ;)
Genau, bei der GTX 512MB gab es die ja auch.
OCW, die Seite die diese 675/1175MHz zuerst nannte, sprach auch von OC.
AnarchX
2007-04-27, 14:06:50
Final 8800 Ultra specs disappoint
Create an 8800Ultra from a GTX board! (http://www.theinquirer.net/default.aspx?article=39231)
The GPU is not clocked to 675MHz, as some official documents from the past were stating, but rather a very conservative 612MHz, a 37MHz clock boost. The clock of 128 scalar units has been raised from 1.35GHz to 1.50 and memory is set at 2.16GHz instead of 1.80GHz, raising the memory bandwidth from 86.4GB/s to 103.68GB/s, still a couple of gigabytes short of upcoming Radeon HD 2900XT, with its 105.60GB/s.
:|
[News]
Eventuell hat Nvidia ja bemerkt, dass der R600 keine Konkurrenz zur 8800GTX oder Ultra darstellt und deswegen die Taktraten der Ultra abgesenkt um die Margen und die Verfügbarkeit zu verbessern.
AnarchX
2007-04-27, 16:54:23
Das größte Problem daran ist imo eher, dass es doch schon factory-OC 8800GTXen gibt die schneller takten und keine $999 kosten. :|
Das größte Problem daran ist imo eher, dass es doch schon factory-OC 8800GTXen gibt die schneller Takten und keine $999 kosten. :|Stimmt. Von den üblichen Verdächtigen XFX und EVGA gibt es Karten, die von Haus aus mit 630 MHz takten. Da wäre eine "Ultra" eher langsamer als schneller.
Warum haltet ihr an den 999$ fest? Ist doch totaler Humbug seit die Meldung kam, wann hat das letzte mal ne Grafikkarte soviel gekostet...
599$ MSRP oder wie mans nennt, sollte ne nV approvte Wakü dabei sein (wers glaubt Leute...) dann vieleicht 750.
AnarchX
2007-04-27, 18:44:23
Vielleicht wird ja die Ultra im SLI-Package, also 2 Karten ausgeliefert. Und dafür gelten vielleicht die $999. :biggrin:
Gar nicht mal so unrealistisch diese Theorie...
Vielleicht hat das wirklich jemand mißverstanden und den genannten Preis von 999$ von eigentlich zwei auf nur eine Karte übertragen.
ATI bot die Vorgängergeneration auch im doppelpack an (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/januar/amd_x1950_uber_edition_handel/)
Nakai
2007-04-28, 18:54:35
Wäre möglich, denke ich jedoch nicht.
Vll wirds auch wieder nur eine Fanbox, wie bei ATI, aber ohne 2te Karte.
mfg Nakai
AnarchX
2007-04-29, 14:54:32
Noch ein paar Bilder zu Ultra:
http://img299.imageshack.us/img299/2504/20070429fdf583b29abd516mc5.jpg (http://imageshack.us)
http://img299.imageshack.us/img299/9775/20070429c4f386b6c4e9951kt2.jpg (http://imageshack.us)
Der Lüfter scheint wohl noch von der Seite einzusaugen.
gabs schon imme r2 SLi stecker an den nVidia Karten? dachte das wäre nur bei der 7950gx2 so gewesen...?
gabs schon imme r2 SLi stecker an den nVidia Karten? dachte das wäre nur bei der 7950gx2 so gewesen...?Erst seit G80 gibts zwei davon. Bei Geforce 6 und 7 war es nur ein SLI-Kontakt.
reunion
2007-04-29, 15:02:53
Hat das eigentlich irgendeinen tieferen Sinn, dass der Lüfter jetzt übersteht, den ich nicht erkenne, oder ist das wirklich rein der Optik wegen? Wenn man das schon macht, dann sollte man den gewonnenen Platz wenigstens in einen größeren Lüfter investieren.
dargo
2007-04-29, 15:04:14
Erst seit G80 gibts zwei davon. Bei Geforce 6 und 7 war es nur ein SLI-Kontakt.
Besser gesagt seit der G8800GTX. Die GTS hat auch nur einen. :)
dildo4u
2007-04-29, 15:09:28
Hat das eigentlich irgendeinen tieferen Sinn, dass der Lüfter jetzt übersteht, den ich nicht erkenne, oder ist das wirklich rein der Optik wegen? Wenn man das schon macht, dann sollte man den gewonnenen Platz wenigstens in einen größeren Lüfter investieren.
Das scheint thermisch schon Sinn zu machen Arctic Cooling haben ihre neuen GK Kühler ja ähnlich designt.
http://regmedia.co.uk/2006/10/16/powercolor_x1950pro.jpg
http://www.grafikkartenpower.de/shop/catalog/images/CGAX-P1952.jpg
dargo
2007-04-29, 15:14:30
Das scheint thermisch schon Sinn zu machen Arctic Cooling haben ihre neuen GK Kühler ja ähnlich designt.
http://regmedia.co.uk/2006/10/16/powercolor_x1950pro.jpg
http://www.grafikkartenpower.de/shop/catalog/images/CGAX-P1952.jpg
Der AC Kühler hat ein völlig anderes Prinzip als der GTX/GTX-U Kühler. Auch von der Performance her hat der AC Kühler überhaupt keine Chance.
dildo4u
2007-04-29, 15:17:43
Bei mir arbeitet das Teil extrem Leise und kühlt meine 1950pro auf maximal 68° bin sher zu frieden.
dargo
2007-04-29, 15:20:58
Bei mir arbeitet das Teil extrem Leise und kühlt meine 1950pro auf maximal 68° bin sher zu frieden.
Du willst jetzt nicht ernsthaft eine X1950Pro mit der G8800GTX/GTX-U was die Wärmeentwicklung angeht vergleichen oder? :|
dildo4u
2007-04-29, 15:22:51
Nö aber der Kühler ist gut und würde auch auf der 8800 gute Arbeit leisten.Es ging ja darum ob der abstehende Kühler Sinn macht also ob das Prinzip an sich funktioniert.
dargo
2007-04-29, 15:28:07
Nö aber der Kühler ist gut und würde auch auf der 8800 gute Arbeit leisten.Es ging ja darum ob der abstehende Kühler Sinn macht also ob das Prinzip an sich funktioniert.
Wollen wir wetten? :tongue:
Der Kühler war selbst mit einer X1900XTX schon überfordert. Vom heißen Mainboard will ich erst gar nicht sprechen.
deLuxX`
2007-04-29, 15:34:20
Klingt vielleicht banal aber könnte es sein, dass der Lüfter aus Platzgründen dort sitzt? Könnte sein, dass dort ein Bauteil sitzt was dementsprechend hoch ist, dass der Lüfter nicht mehr an der ursprünglichen Position passen würde.
dildo4u
2007-04-29, 15:38:31
Normal sollte die Ultra Solid Kondensatoren haben die eigentlich recht flach sind.Der "Rest" Spannungswandler etc ist eher relativ klein die müssen aber mit einem kleinen Alu Kühler passiv gekühlt werden.
dargo
2007-04-29, 15:47:49
Vielleicht wollte man durch das Versetzen vom Lüfter einfach nur die Kühlfläche vergrößern oder eine Heatpipe ist jetzt unter dem Lüfter im Weg?
deLuxX`
2007-04-29, 15:52:04
Ich meine dort am unteren Rand des PCBs direkt an der seitlichen Öffnung der schwarzen Abdeckung etwas metallisches zu sehen.
Nakai
2007-04-29, 15:53:36
Die Geforce 8800Ultra hat einen 6 Pin und 8 Pin Stromanschluß.
mfg Nakai
dildo4u
2007-04-29, 15:56:39
Nich wirklich sind zwei 6.
crux2005
2007-04-29, 15:56:54
Die Geforce 8800Ultra hat einen 6 Pin und 8 Pin Stromanschluß.
mfg Nakai
sicher ? :|
http://img299.imageshack.us/img299/9775/20070429c4f386b6c4e9951kt2.jpg
Die Geforce 8800Ultra hat einen 6 Pin und 8 Pin Stromanschluß.
mfg Nakai
Quelle?
Wenn es stimmen sollte, dann wird die Karte höher als 610/1080 getaktet werden!
dargo
2007-04-29, 15:57:26
Ich meine dort am unteren Rand des PCBs direkt an der seitlichen Öffnung der schwarzen Abdeckung etwas metallisches zu sehen.
Das ist der Kühler bzw. die untere Platte davon.
Nakai
2007-04-29, 15:58:06
Schau auf die Rückseite der Karte. Jedenfalls, wäre es logisch, da die Karte dann den zukünftigen Normen entspricht.
mfg Nakai
dildo4u
2007-04-29, 15:59:22
Schau auf die Rückseite der Karte. Jedenfalls, wäre es logisch, da die Karte dann den zukünftigen Normen entspricht.
mfg Nakai
Hab ich und links wo du den 8 Vermutest kann man durch die Bohrung durch gucken wärs ein 8 könnte man das nicht.
http://www.directupload.net/images/070429/I8jmWdqa.jpg
Nakai
2007-04-29, 16:00:55
Mist seh ich auch grad, jedenfalls könnte ich mir einen 8 Pin vorstellen.^^:biggrin:
mfg Nakai
Noch ein paar Bilder zu Ultra:
http://img299.imageshack.us/img299/2504/20070429fdf583b29abd516mc5.jpg (http://imageshack.us)
http://img299.imageshack.us/img299/9775/20070429c4f386b6c4e9951kt2.jpg (http://imageshack.us)
Der Lüfter scheint wohl noch von der Seite einzusaugen.
Der Kühler scheint exakt der selbe wie der der GTX zu sein, nur Lüfter sitzt etwas anders und die "Abdeckung" ist länger. Glaube weniger, dass es da um bessere Kühlung geht sondern mehr um Optik. Man will sich auf den ersten Blick von der GTX abheben, da war dieses Konstrukt die billigste und schnellste Lösung. :)
Godmode
2007-04-29, 16:16:54
Quelle?
Wenn es stimmen sollte, dann wird die Karte höher als 610/1080 getaktet werden!
Warum wird wohl ein neuer Kühler entworfen? Eventuell werden ja die ALUs in stärkerem Maße übertaktet. Die laufen jetzt mit 1350 MHz, wenn diese nun auf 1.500 - 1.600 takten, könnte ein neuer Kühler schon sinnvoll sein. Um diese Taktrate zu erreichen wird wohl mehr Spannung nötig sein!
IMHO ist die Textur- und Pixelleistung des G80 schon ziemlich hoch, somit wäre die Erhöhung auf nur 650 MHz schon in Ordnung. Schade das man den ALU Takt nicht selber regeln kann, damit könnte man testen wieviel % Mehrleistung die ALU Übertaktung bringt.
dildo4u
2007-04-29, 16:21:21
Schade das man die ALU Takt nicht selber regeln kann, damit könnte man dann testen in welchen Spielen das wieviel % mehr Leistung bringt.
Je nach Game z.B beim Shader lastigen NFS Carbon eine ganze Menge die PCGH hat verschiedene OC Editionen von GTX Karten getestet wobei bei manchen nur der Core und der Speichertakt erhöt wurde und bei anderen gleichzeitig die Shaderclock.Die FPS haben bei Carbon fast 1:1 mit der Shaderclockerhöhung skaliert.
Sonyfreak
2007-04-29, 18:50:55
Das heißt man kann davon ausgehen, dass der G80U den Großteil seiner Zusatzleistung aus der Erhöhung des Shadertaktes zieht? Weil die paar MHZ beim normalen Geometrietakt werden wohl kaum so nen großen Unterschied machen denk ich mal.
mfg.
Sonyfreak
AnarchX
2007-04-29, 18:57:20
Die 612MHz machen imo keinen wirklichen Sinn, da eben die AIBs schnellere Karten in größerer Stückzahl liefern können.
Zudem hat die Erhöhung der Shaderdomain in den meisten Skalierungstest nicht wirklich viel gebracht.
Sonyfreak
2007-04-29, 19:02:55
Aber wenn weder Geometrie- noch Shadertakt einen wirklich großen Unterschied machen, woher soll die Ultra dann ihre Mehrleistung ziehen? Oder läuft es letztendlich darauf hinaus, dass zwischen 8800GTX und 8800Ultra ein so großer Unterschied wie zwischen X1900XT und X1900XTX ist? Das wäre ja geradezu lächerlich und würde das Ultra in keinster Form rechtfertigen. Naja - vielleicht bringt der schnellere Speicher den erhofften Performancegewinn.
mfg.
Sonyfreak
Nakai
2007-04-29, 19:12:49
Der Kühler der 8800Ultra soll einfach nur leiser bei einer erhöhten Drehzahl sein.
---> leicht bessere Kühlleistung.
mfg Nakai
AnarchX
2007-04-29, 19:17:05
Der Kühler der 8800Ultra soll einfach nur leiser bei einer erhöhten Drehzahl sein.
---> leicht bessere Kühlleistung.
Das schreibt auch INQ:
http://uk.theinquirer.net/?article=39262
Naja, 3DMark05 ist nicht gerade der beste Test um irgendwas über Speicherbandbreitenabhägigkeit herauszufinden.
Nakai
2007-04-29, 19:20:20
Recht viel mehr kann man auch net erwarten, bei dem kleinen Kühler. Der Kühlkörper wird wohl kaum größer sein, höchstens die Spawas können etwas besser gekühlt werden...mehr nicht.
mfg Nakai
Recht viel mehr kann man auch net erwarten, bei dem kleinen Kühler. Der Kühlkörper wird wohl kaum größer sein, höchstens die Spawas können etwas besser gekühlt werden...mehr nicht.
mfg Nakai
Der Lüfter hat doch den gleichen Durchmesser wie der alte? Noch dazu fehlt ein Luftschlitz im Gehäuse. Wenn der wirklich so auusieht, kühlt der genauso gut wie der alte GTX Kühler. Die ganze Karte erscheint mir mehr wie eine zusätzliche Abzockmasche. Für ein paar Freaks, die sich die Karten im Doppelpack dann holen werden. Der Kühlkörper wird dann ein gelungenes Erkennungsmerkmal sein. Seht her, ich bin keine popelige GTX sondern eine geile Ultra :ulove:
nV sollte mal lieber die Weiterentwicklung forcieren als die Freaks abzuzocken.
Sonyfreak
2007-04-29, 20:42:32
nV sollte mal lieber die Weiterentwicklung forcieren als die Freaks abzuzocken.Ich glaube nicht, dass die Entwicklung von der nächsten Grafikkarten Generation dadurch gebremst wird, dass Nvidia noch ein Highend Modell auf den Markt wirft. Ich bin mir sicher, dass der weitaus größte Teil der Enwicklungsabteilung schon an dieser arbeitet.
mfg.
Sonyfreak
Moralelastix
2007-04-29, 20:52:28
Wolln mer's hoffe das die bei NV so weiter machen und sich net auf die faule Haut legen.
Die Ultra fällt ja mangels Konkurrenz schon mal dürftig aus.
Sie ist wohl das erste Highend "Opfer" des R600 Debakels.
The_Invisible
2007-04-29, 20:58:22
verstehe eure probleme nicht, einfach nicht kaufen und gut ist. aber der neid ist halt ein schwein.
mfg
verstehe eure probleme nicht, einfach nicht kaufen und gut ist. aber der neid ist halt ein schwein.
mfg
:), wenn der Kühler effizienter ist wirds vieleicht den selben im Herbst beim G90 Refresh geben, also gewöhnt euch schonmal dran.
BTW brauch keiner ATM die Ultra Edition.
AnarchX
2007-04-30, 07:31:25
[Updated : GeForce 8800 Ultra Card & Final Clocks Unveiled] (http://www.vr-zone.com/index.php?i=4930)
Update #1 : The final core clock on 8800 Ultra is apparently lowered to 612MHz but memory clock remains at 2.16GHz. The shader clock is at 1.5GHz. The memories used on the card are Samsung -1A GDDR3 chips at 1.0ns. NVIDIA has also lowered the price of the 8800 Ultra to around US$850.
Fragt man sich was NV mit dieser Karte bezwecken will.
Moralelastix
2007-04-30, 07:47:26
Die Ultra wird bestimmt in erster Linie nur aus der Taufe gehoben um dem R600 Launch und den damit verbunden "News" was entgegen zu setzten.
reunion
2007-04-30, 09:44:10
Ist doch klar, man versucht die Schwachstellen im Vergelich zu R600 auszumerzen. Der Shaderclock wurde immerhin von 1.35 auf 1.5Ghz angehoben. In punkto TMUs und ROPs scheint man eh schon genug Punch zu haben. Selbst die OC Versionen mit bis zu 630Mhz hatte bisher allerdings immer nur max. 1.4Ghz Shaderclock. Dazu noch die Speicherbandbreite mähctig erhöht, um auch hier fast auf R600 Niveau zu kommen. Wobei der Preis natürlich ein Witz ist.
Ist doch klar, man versucht die Schwachstellen im Vergelich zu R600 auszumerzen. .
Bislang hat es aber eher denn Anschein, daß der R600 eine einzige Schwachstelle ist, was sollte NV da ausmerzen müssen?
reunion
2007-04-30, 10:24:59
War ja klar, dass jetzt wieder so ein hirnloser Gastflame kommt. In punkto Speicherbandbreite und Shaderfüllrate (MADD) scheint eine GTX jedenfalls hinter einer XT zu liegen. Das kann man akzeptieren, oder man kann eine auf obercool machen.
War ja klar, dass jetzt wieder so ein hirnloser Gastflame kommt. In punkto Speicherbandbreite und Shaderfüllrate (MADD) scheint eine GTX jedenfalls hinter einer XT zu liegen. Das kann man akzeptieren, oder man kann eine auf obercool machen.
Die theoretische Angabe von Werten spiegelt nicht die praktischen Ergebnisse wider.
dildo4u
2007-04-30, 11:39:02
Ist doch klar, man versucht die Schwachstellen im Vergelich zu R600 auszumerzen. Der Shaderclock wurde immerhin von 1.35 auf 1.5Ghz angehoben. In punkto TMUs und ROPs scheint man eh schon genug Punch zu haben. Selbst die OC Versionen mit bis zu 630Mhz hatte bisher allerdings immer nur max. 1.4Ghz Shaderclock. Dazu noch die Speicherbandbreite mähctig erhöht, um auch hier fast auf R600 Niveau zu kommen. Wobei der Preis natürlich ein Witz ist.
BFG hat schon eine OC Version der GTX mit 1.5Ghz Shaderclock im Programm.
http://www.bfgtech.com/8800GTXOC_768_PCIe_wc.html
Superheld
2007-04-30, 12:26:09
auf CB gibts Vergleiche mit verschieden Shaderclocks:smile:
Anno 1701 – 1600x1200
PovGTS 575/900 1200 45,9fps
MsiGTS 575/840 1350 49fps
XfxGTS 575/900 1510 51,8
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_geforce_8800_gts_320_oc_roundup/7/#abschnitt_anno_1701
War ja klar, dass jetzt wieder so ein hirnloser Gastflame kommt.
Hast du auf dein Geflame "Ist doch klar, man versucht die Schwachstellen im Vergelich zu R600 auszumerzen." etwas anderes erwartet?
Wie man in den Wald hineinruft so schallt es auch heraus.
sry 4 OT
reunion
2007-04-30, 15:28:40
Hast du auf dein Geflame "Ist doch klar, man versucht die Schwachstellen im Vergelich zu R600 auszumerzen." etwas anderes erwartet?
Wie man in den Wald hineinruft so schallt es auch heraus.
sry 4 OT
Was war daran bitte ein geflame? Es sieht halt für mich so aus, als ob die Ultra genau dort ansetzt, wo der R600 seine Stärken hat, und das ist eben nicht die TMU/ROP-Leistung, sondern die Shaderfüllrate/Speicherbandbreite. Wie soll man das denn sonst ausdrücken, damit es nicht als geflame gewertet wird? Also machmal.
AnarchX
2007-04-30, 16:01:37
http://directupload.com/files/tzqk1zgyboikmznjyzm2.jpg (http://directupload.com/)
http://directupload.com/files/t3iy1qzjmyiodnm5j2ek.jpg (http://directupload.com/)
http://we.pcinlife.com/thread-757890-1-1.html
DrumDub
2007-04-30, 16:06:37
dürfte reichen um die xtx zu schlagen, aber das ja vorher schon klar...
dildo4u
2007-04-30, 16:13:35
Die Ultra muss deutlich höhere getaktet sein als 650/1000.
Eine GTX mit 665/1000 kommt grad mal auf eine SM2.0 Score von 5500 und eine SM3.0 Score von 5600.
http://service.futuremark.com/compare?3dm06=1099413
wo der R600 seine Stärken hat
Wo er seine Stärken hat wird sich noch zeigen. Bei der Shaderleistung wäre ich mir da gar nicht so sicher.
AnarchX
2007-04-30, 16:18:53
Die Ultra muss deutlich höhere getaktet sein als 650/1000.
Eine GTX mit 665/1000 kommt grad mal auf eine SM2.0 Score von 5500 und eine SM3.0 Score von 5600.
http://service.futuremark.com/compare?3dm06=1099413
Naja, hier wurde auch noch 97.xx FW eingesetzt.
Aber der Score kommt mir auch etwas hoch vor für die spekulierten 612/1500/1080MHz.:|
DrumDub
2007-04-30, 16:19:43
Die Ultra muss deutlich höhere getaktet sein als 650/1000.
Eine GTX mit 665/1000 kommt grad mal auf eine SM2.0 Score von 5500 und eine SM3.0 Score von 5600.
http://service.futuremark.com/compare?3dm06=1099413 ist aber noch der 97.92 als treiber...
Superheld
2007-04-30, 16:22:15
hier ein Vergleich mit einer Gainward
8800GTX@690/1110Mhz:smile:
http://www.forumdeluxx.de/forum/showpost.php?p=5958640&postcount=869
dildo4u
2007-04-30, 16:22:37
Stimmt aber dann sinds zumindest 675/1500/1080.
AnarchX
2007-04-30, 16:22:57
ist aber noch der 97.92 als treiber...
Hier nochmal eine GTX mit 660/1550(?)/1100MHz und FW 158.16:
http://img404.imageshack.us/img404/8061/attachment722f7ad6.jpg
Warum sind die Scores bloß so hoch bei der Ultra? :|
Vielleicht doch mehr als 1.5GHz Shaderclock?
hier ein Vergleich mit einer Gainward
8800GTX@690/1110Mhz:smile:
http://www.forumdeluxx.de/forum/showpost.php?p=5958640&postcount=869
Nicht jeder is HWLuxx-User, kannst du das Bild nochmal anders verlinken? ;)
dildo4u
2007-04-30, 16:25:06
Vieleicht liegt die Shaderclock bei 1.8GHz.
reunion
2007-04-30, 16:26:20
Was für eine CPU wurde dort verwendet? Speziell der SM2-Score schlägt doch ziemlich auf eine schnelle CPU an.
AnarchX
2007-04-30, 16:27:35
Was für eine CPU wurde dort verwendet? Speziell der SM2-Score schlägt doch ziemlich auf eine schnelle CPU an.
Steht doch bei den System-Details im 3DMark-Fenster...
dildo4u
2007-04-30, 16:28:21
Was für eine CPU wurde dort verwendet? Speziell der SM2-Score schlägt doch ziemlich auf eine schnelle CPU an.
Steht doch im Bild Core2Duo@3.6GHz.
reunion
2007-04-30, 16:28:26
Oh, richtig.
Superheld
2007-04-30, 16:29:34
kannst du das Bild nochmal anders verlinken? ;)
E6600@3,6GHz
8800GTX@690/1110Mhz 13457 Points
http://www.abload.de/thumb/19jtv2.jpg (http://www.abload.de/image.php?img=19jtv2.jpg)
DrumDub
2007-04-30, 16:30:54
Was für eine CPU wurde dort verwendet? Speziell der SM2-Score schlägt doch ziemlich auf eine schnelle CPU an. steht da doch: core 2 duo x6800 mit 3,6ghz...
allerdings ist der score der 8800 ultra wirklich zu hoch, wenns 650/1500/1080 wäre... komische sache.
AnarchX
2007-04-30, 16:31:12
E6600@3,6GHz
8800GTX@690/1110Mhz 13457 Points
http://www.abload.de/thumb/19jtv2.jpg (http://www.abload.de/image.php?img=19jtv2.jpg)
Treiber?
Wenn es es höher als FW158 war, dann muss die Shaderdomain wirklich auf 1.8GHz liegen...
DrumDub
2007-04-30, 16:32:32
E6600@3,6GHz
8800GTX@690/1110Mhz 13457 Points
http://www.abload.de/thumb/19jtv2.jpg (http://www.abload.de/image.php?img=19jtv2.jpg) danke! eventuell war der test der 8800 ultra nicht bei 1280x1024, sondern bei 1024x768?
Superheld
2007-04-30, 16:35:09
Treiber?
steht leider nicht da aber es wurde am 22. April gepostet:|
AnarchX
2007-04-30, 16:36:43
steht leider nicht da aber es wurde am 22. April gepostet:|
Na dann wird es schon ein neuerer FW sein...
danke! eventuell war der test der 8800 ultra nicht bei 1280x1024, sondern bei 1024x768?
Das wäre eine Möglichkeit, ich habe mal gefragt. Mal sehen was er antwortet.
dildo4u
2007-04-30, 16:37:41
Die Ultra dürfte ca 20% schneller sein als die GTX find ich jetzt nicht so überragend die Zahlen könnten schon stimmen.Eine GTX@Default mit den neuen Treibern dürfte ca 12000 Punkte haben.Die Ultra dürfte bei 675/1080 liegen nur halt die Shaderclock könnte wie vorher noch nicht spekuliert bei 1.8GHz liegen.
AnarchX
2007-04-30, 16:45:06
Er meint, dass es 1280x1024 sind...;)
Die Ultra dürfte ca 20% schneller sein als die GTX find ich jetzt nicht so überragend die Zahlen könnten schon stimmen.
In Anbetracht was vor einigen Stunden noch als Ultra gehandelt wurde, wäre das schon um einiges erfreulicher.
Superheld
2007-04-30, 16:50:33
vielleicht kann er noch die Taktraten sagen :naughty:
Naja der Unterschied GTX zu Ultra finde ich nicht so berauschend, imo nur ein Marketingzug.
GTX -> Ultra
Chiptakt: 575MHz -> 612Mhz
Speichertakt: 900MHz -> 1080Mhz
StreaProcessors: 128@1350MHz ->128@1500Mhz
DrumDub
2007-04-30, 16:53:56
vielleicht kann er noch die Taktraten sagen :naughty:
Naja der Unterschied GTX zu Ultra finde ich nicht so berauschend, imo nur ein Marketingzug.
GTX -> Ultra
Chiptakt: 575MHz -> 612Mhz
Speichertakt: 900MHz -> 1080Mhz
StreaProcessors: 128@1350MHz ->128@1500Mhz ja, denn mit den taktraten kann das ergebnis imho nicht hinkommen.
Was war daran bitte ein geflame? Es sieht halt für mich so aus, als ob die Ultra genau dort ansetzt, wo der R600 seine Stärken hat, und das ist eben nicht die TMU/ROP-Leistung, sondern die Shaderfüllrate/Speicherbandbreite. Wie soll man das denn sonst ausdrücken, damit es nicht als geflame gewertet wird? Also machmal.
Über die Stärken oder Schwächen des R600 ist doch noch gar nichts bekannt, solange es keine echten Review-Benches gibt, an welchen unbekannten Stärken des R600 soll also der G80 schwächeln, daß eine Ultra dort ansetzen muß?
Dein Posting liest sich als Fakt "G80 hat Schwachstellen" und das weiß man eben derzeit immer noch nicht.
Schwamm drüber, es zählt doch eh nur, was am Ende hinten rauskommt, egal wie die theoretischen Daten oder der Chipaufbau aussieht.
Naja die Taktraten da oben etc sind aber die offiziellen Ultra Takte.......
AnarchX
2007-04-30, 18:08:27
http://img48.imageshack.us/img48/3708/attachmentb846cmm4.jpg (http://imageshack.us)
;)
Aber die finalen Taktraten sind nur die berichteten 612/1500/1080MHz:
8800Ultra: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5451423#post5451423)
Und es sind 0.8ns GDDR3 :D
deLuxX`
2007-04-30, 19:34:58
Und es sind 0.8ns GDDR3 :D
Wenn die volle Spannung anliegt hieße das mindestens 1250Mhz OC-Potenzial.Nicht schlecht.
Hängt vom Speichertimimng ab und ob der Speichercontroller bei NV diese Takte auch mitmacht. Nur der RAM allein bestimmt nicht den möglichen Takt.
Hängt vom Speichertimimng ab und ob der Speichercontroller bei NV diese Takte auch mitmacht. Nur der RAM allein bestimmt nicht den möglichen Takt.
Weiterhin PCB Layout und Routing.
The Return of the Ultra: Nvidia Readies High-End Update.
http://www.xbitlabs.com/news/video/display/20070430143103.html
PS: http://fabu.beareyes.com.cn/2/lib/200705/02/011/DSC_8649-01.jpg
Inklusive kleine "Konvergenzspielerei" :
http://fabu.beareyes.com.cn/2/lib/200705/02/20070502011.htm
Die unteren links funktionieren nicht?!
Die unteren links funktionieren nicht?!
... :confused:
Ja, sehe es jetzt auch nicht mehr, war eine lange (P)Review der XTX 8800 ultra samt SLI damit.
Mal sehn ob es wieder auftaucht, war ja com.cn, also China selber, da ist das ruck-zuck weg, wenn die Aufpasser eingreifen.
PS:
http://img526.imageshack.us/img526/6159/dsc864901bh0.jpg
Man kommt noch an die review ran :wink:
In firefox (klappt bei mir jedenfalls...) eingeben:
http://www.beareyes.com.cn/
Links oben läuft ein Flashplayer und Nr1 ist die Ultra :smile:
Momentan noch da, Riesenfotos!!
Die Benchmarks sind Flash, also nicht so einfach zu safen...
Superheld
2007-05-01, 20:15:54
Test GTX vs. ULTRA
E6400 + 2GB DD667 + Asus P5B Deluxe
http://we.pcinlife.com/thread-758426-1-1.html
Adam D.
2007-05-01, 21:35:25
Naja, wie erwartet haut das jetzt keinen vom Stuhl. Dann lieber 'ne 8000GTX für die Hälfte und übertakten, da kommt wohl oft das selbe raus.
eXodia
2007-05-01, 21:40:21
Test GTX vs. ULTRA
E6400 + 2GB DD667 + Asus P5B Deluxe
http://we.pcinlife.com/thread-758426-1-1.html
Also wer 'ne GTX vs. Ultra auf 1024x768 und 1280x1024 testet ... :|
Regards
deekey777
2007-05-01, 22:14:04
Wäre es möglich, die Diskussion um die 8800Ultra in den (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=360426) zu verlegen? Danke.
Schöne Nachrichten:
http://www.hardtecs4u.com/?id=1178477056,849,ht4u.php
laser114
2007-05-06, 22:20:13
Hmm, fliegt dann die 8800 GTS 320 raus? Und wo möchte man die hinmanövrieren?
seahawk
2007-05-07, 07:45:54
Wahrscheinlich geht die auf 200-220 runter. GTTS 640MB pendelt bei 280-300 Euro und GTX bei 380-400 Euro. Da würde mit ATI preislich schon unter Druck setzen.
LovesuckZ
2007-05-07, 07:49:28
bevor die GTX auf unter 400€ geht, wird nVidia ein weiteres Modell rausbringen.
Irgendwo müssen die Chips mit 7 Cluster lagern. Dazu die Platine der GTS mit 640Mib und 900MHz GDDR3 Speicher und man hätte eine gute Karte für 399$. Taktraten irgendwo zwischen der GTS und der GTX und sie passt perfekt ins Line-UP. Gleichzeitig könnte man mit dem Leistungsgewinn von ca.20% der 2900XT deutlich einheizen.
Mit dieser "GT" könnte man locker die Preise der GTX oben lassen.
Naja, Nvidia hat jetzt ein halbes Jahr ordentlich an den G80-Karten verdient. Die können ruhig die Preise senken um noch konkurrenzfähiger zu sein. Wenn nicht noch eine Überraschung in Bezug auf den R600 kommt, halte ich die GF8 für die rundum bessere Karte, was nicht heißen soll, dass nicht andere vielleicht mit einem R600 glücklicher werden.
rgendwo müssen die Chips mit 7 Cluster lagern.
Ich glaub eher das werden dann auch GTS momentan.
r3ptil3
2007-05-07, 23:25:40
8600 GTX bei DELL im Komplettsystem verfügbar.
http://img517.imageshack.us/img517/2243/8600gtxga3.png
Leider keine weiteren Informationen.
http://www1.euro.dell.com/content/products/features.aspx/desktops_best?c=de&cs=dedhs1&l=de&s=dhs
AnarchX
2007-05-07, 23:27:41
Ob da wohl Dell einfach nur GTS mit GTX vertauscht hat? Imo würde ich darauf tippen...
r3ptil3
2007-05-07, 23:32:25
Ob da wohl Dell einfach nur GTS mit GTX vertauscht hat? Imo würde ich darauf tippen...
Könnte auch sein, nur komisch dass es sowohl bei DELL Schweiz als auch bei DELL Deutschland zutrifft.
(+44)
2007-05-08, 00:10:47
Na weil beide Shops vom selben Typen/Team betreut werden? :redface:
deekey777
2007-05-08, 00:16:31
Vielleicht fand jemand die Abkürzung GTO langweilig? Dell war schon immer für Eigenkreationen bekannt, wenn es darum ging, heruntergetaktete Grafikkarten schmackhaft zu machen (9700TX, 6800 GTO usw.). Sollte nicht überbewertet werden.
r3ptil3
2007-05-08, 00:25:10
Na weil beide Shops vom selben Typen/Team betreut werden? :redface:
DELL hat ja auch schon Daten über die 8800 Ultra frühzeitig preisgegeben, aber hier scheints eher nach einem Tippfehler, oder wie DK777 meint auch vielleicht nur wegen dem Marketing.
Vielleicht in Verbindung damit http://www.pcgameshardware.de/?article_id=573360
Anarchy-HWLUXX
2007-05-22, 16:29:42
Die newsmeldungen zu ATI GPUs nehmen einfach kein ende ... wurd mal zeit das nV auch wieder a bissi aufmerksamkeit bekommt :usad:
Also : Intel demos "unreleased" Nvidia chips
http://uk.theinquirer.net/?article=39763
Intel zeicht seine PCIe 2.0 Chipsätze auf der PCI SIG konferenz und passende GraKas von nV und ATi ...
Die gelbe Eule
2007-05-23, 20:21:59
Wie sieht es eigentlich mit einer 8800 GX2 aka 2x8800GTS aus? Wäre das überhaupt technisch machbar mit einer Dualheatpipe?
Denke kaum das man jetzt Quad SLi sterben lassen möchte, 4 PCI-E x16 Slots möchte ja kaum einer wirklich anbieten.
So eine Karte könnte man bestimmt noch raushauen, wenn der G90 sich verspätet oder eine 2900XTX mal irgendwann erscheint.
AnarchX
2007-05-23, 20:34:43
So eine Karte könnte man bestimmt noch raushauen, wenn der G90 sich verspätet oder eine 2900XTX mal irgendwann erscheint.
Für die brauch es sicherlich keine zwei G80. :biggrin:
Ansonsten wird wohl GX2 mit G92 wiederkommen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=350597
Die gelbe Eule
2007-05-23, 21:06:07
Um deutlich darüber zu liegen, dafür wäre sie gemacht. Die Auflage muss ja nicht hoch sein, nur eben so viele, daß man schonmal das Design fertig hat für zukünftige Karten.
dildo4u
2007-05-23, 21:09:14
Die Ultra reicht dicke für jede Form des R600.
AnarchX
2007-05-23, 21:12:12
Die Auflage muss ja nicht hoch sein, nur eben so viele, daß man schonmal das Design fertig hat für zukünftige Karten.
Die Anforderungen an das PCB der kommenden GX2 auf G92-Basis werden aber sich wahrscheinlich um einiges unterscheiden von einer G80-GX2 -> 2x1GB GDDR4 @ 256Bit. ;)
garfild
2007-05-26, 19:36:17
jetzt stehts auch da, ist ein fake.
man beachte auch die aliasingkanten an der rundung oberhalb des lüfters zum Hintergrund.
hier nochmal in Groß:
http://www.hardwareoc.hu/upload/news/12707_8950gx2_2.jpg
woher sollte der untere Lüfter auch seine luft ziehen, wenn direkt darüber das zweite PCB klebt?
selbst wenn es echt wäre finde ich die Entwicklung in diese Richtung völlig verkehrt.
^^ da muss ich nur lachen bei dieser Fälschung:biggrin:
Da kommt kein Highend mehr in der G80 Architektur, der G90 wird 1 Jahr nach G80 aufschlagen, in welcher Form? Wird hier spekuliert: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=350597
AnarchX
2007-05-27, 18:32:29
Nvidia’s Prepares DirectX 10-Supporting Chipset for Q4 Intro.
Nvidia Plans to Start Production of “World’s First” Direct X10 IGP in October (http://www.xbitlabs.com/news/chipsets/display/20070525163505.html)
Dank PureVideo HD sollte dieser IGP doch sehr interessant werden.
AnarchX
2007-06-02, 01:05:27
[Cheap GeForce 8400 GS On 19th June] (http://www.vr-zone.com/index.php?i=5011)
NVIDIA plans to launch the entry level GeForce 8400 GS on 19th June to match against the Radeon HD 2400 Pro while the current 8500 GS will fight against 2400 XT.
Für HTPCs durchaus interessant, wenn auch noch Linux genutzt wird.
Ansonsten ist die HD 2400 dank UVD, HDMI, 65nm doch imo um einiges im Vorteil.
AnarchX
2007-06-03, 21:42:26
Nvidia prepares 8800 for notebooks
Computex 007 Meet NB8E, new G80 chip in 22W+ envelope (http://www.theinquirer.net/default.aspx?article=40032)
Ob NV dieses "Wunder" noch in 90nm vollbringen wird?
edit:
Die 8800M GS wird offensichtlich eine schnellere Variante des G84 sein:
NVIDIA_G84.DEV_0409.1 = "NVIDIA GeForce 8800M GS"
http://www.driverheaven.net/windows-xp-linux-nvidia-display-drivers/134673-forceware-165-01-xp-english-only.html
laser114
2007-06-03, 22:21:29
Nvidia prepares 8800 for notebooks
Computex 007 Meet NB8E, new G80 chip in 22W+ envelope (http://www.theinquirer.net/default.aspx?article=40032)
Ob NV dieses "Wunder" noch in 90nm vollbringen wird?
Ein voller G80? Kann ich mir kaum vorstellen...
Nvidia prepares 8800 for notebooks
Computex 007 Meet NB8E, new G80 chip in 22W+ envelope (http://www.theinquirer.net/default.aspx?article=40032)
Ob NV dieses "Wunder" noch in 90nm vollbringen wird?
For dual-PCB 7950GX2, Nvidia used G71M
war mir neu, aber logisch und clever, totzdem macht 143W
G80m mit sowenig W wäre klasse
Anarchy-HWLUXX
2007-06-07, 01:24:05
Nvidia slashes 8800 Ultra price
http://uk.theinquirer.net/?article=40128
-> 80-90$ billiger soll se werden ...
laser114
2007-06-08, 19:33:15
Hmm ... oder doch 8700M GT?
http://labs.pcw.co.uk/2007/05/nvidia_geforce_.html
http://www.electronista.com/articles/07/05/17/clevo.901c.notebook/
Irgendwas wird ja wohl noch kommen, NVIDIA Website (http://www.nvidia.com/object/geforce_m_series.html): Coming soon – The GeForce 8M Series for enthusiast will be released in the summer of 2007!
Satz mit x...
http://www.notebookcheck.com/Newseintrag.54+M597d2c7f164.0.html
Die sind auch echt dämlich. Die paar MHz reißen da auch nix. Hätten sie auch 8600M GTS nennen können... ;(
AnarchX
2007-06-13, 11:01:53
GeForce 8700M-GT wurde vorgestellt
-> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=367214
Nvidia prepares 8800 for notebooks
Computex 007 Meet NB8E, new G80 chip in 22W+ envelope (http://www.theinquirer.net/default.aspx?article=40032)
Ob NV dieses "Wunder" noch in 90nm vollbringen wird?
edit:
Die 8800M GS wird offensichtlich eine schnellere Variante des G84 sein:
NVIDIA_G84.DEV_0409.1 = "NVIDIA GeForce 8800M GS"
http://www.driverheaven.net/windows-xp-linux-nvidia-display-drivers/134673-forceware-165-01-xp-english-only.html
Lol, einen G84 als GF8800M zu verkaufen, ist schon mehr als dreist.
AnarchX
2007-06-13, 11:25:50
Lol, einen G84 als GF8800M zu verkaufen, ist schon mehr als dreist.
Vielleicht ist es ja nicht nur "ein" G84. ;)
Aber mal abwarten, soviel platz scheint ja über der 8700M-GT auch nicht mehr zu sein, vielleicht ist ja 8800M-GS = 8700M-GT.
Vielleicht ist es ja nicht nur "ein" G84. ;)
Nach so einem Treibereintrag bestehen für mich da kaum noch Zweifel.
NVIDIA_G84.DEV_0409.1 = "NVIDIA GeForce 8800M GS"
Zum Spaß wurde der mit Sicherheit nicht gemacht.
AnarchX
2007-06-13, 11:57:08
Nach so einem Treibereintrag bestehen für mich da kaum noch Zweifel.
NVIDIA_G84.DEV_0409.1 = "NVIDIA GeForce 8800M GS"
Zum Spaß wurde der mit Sicherheit nicht gemacht.
Mal sehen, ob sie im aktuellen Treiber noch vorhanden ist oder ob das Device nun 8700M-GT heißt.
Ansonsten müsste ja bei einer 8800M-GS die Taktraten schon auf 700/1500/1000MHz+ gehoben werden.
Gibt's Neues zur 8800 Mobile?
Komischer Kram als Nachlese, aber der Vollständigkeit halber...
G92 soll Weihnachten rum doppelt so schnell wie eine G80 sein:
http://bbs.pcpop.com/070619/943497.html
Dazu etwas älter aber wm¨glich noch nicht zur sprache gekommem: details zur 8950GX2: (schon vom 30. Mai, aber Suchfunktion hier gab keinen Hit)
http://translate.google.com/translate?sourceid=navclient-menuext&hl=en&u=http%3A%2F%2Fbbs%2Epcpop%2Ecom%2F070530%2F872384%2Ehtml
8600GT Dual Masterpiece :smile:
http://www.pcpop.com/doc/0/212/212987.shtml
http://www.pcpop.com/doc/0/212/212987_1.shtml
Fetza
2007-07-29, 05:48:37
8600GT Dual Masterpiece :smile:
http://www.pcpop.com/doc/0/212/212987.shtml
http://www.pcpop.com/doc/0/212/212987_1.shtml
Hardware die die welt nicht braucht.... da holt man sich lieber eine gts und hat mehr leistung.
deekey777
2007-07-29, 18:19:24
8600GT Dual Masterpiece :smile:
http://www.pcpop.com/doc/0/212/212987.shtml
http://www.pcpop.com/doc/0/212/212987_1.shtml
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=373728
AnarchX
2007-08-06, 21:07:06
PCI Express 2.0 based NVIDIA graphics card to be ready by October (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=66358)
According to information gathered, NVIDIA based DX10 cards 8500GT, 8600GT, 8600GTS, 8800GTX will come with new variations which sport a PCI Express 2.0 interface by October this year.
Kennen wir das nicht noch irgendwo her? ;) Da wird man wohl wieder das neue und "schnellere!!!" Interface mit einem neuen Namen verdeutlichen.
deekey777
2007-08-06, 21:11:02
PCI Express 2.0 based NVIDIA graphics card to be ready by October (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=66358)
Kennen wir das nicht noch irgendwo her? ;) Da wird man wohl wieder das neue und "schnellere!!!" Interface mit einem neuen Namen verdeutlichen.
Du meinst bestimmt die FX5300PCX.
Godmode
2007-08-06, 21:14:24
Du meinst bestimmt die FX5300PCX.
Oder die 4800 Serie mit super schnellem AGP 8X Interface.
AnarchX
2007-08-06, 21:15:06
Du meinst bestimmt die FX5300PCX.
Nein, eher GF4 AGP4x auf AGP8x.
edit:
bans3i hats erraten... :up:
Kennen wir das nicht noch irgendwo her? ;) Da wird man wohl wieder das neue und "schnellere!!!" Interface mit einem neuen Namen verdeutlichen.Naja, in bestimmten Märkten ist die erhöhte Bandbreite der Grafikschnittstelle durchaus von Bedeutung. Wenn mans eh entwickelt, warum dann den Consumermarkt vorenthalten? Die Freaks können sich ja dann passend zum X38 oder den PCIe-2.0-NV-Chipsätzen ein neues Paar GTXen kaufen. ;)
Anarchy-HWLUXX
2007-08-08, 09:52:40
Oktober kommen PCIe 2.0 versionen und November dann die G9* ... häää ?
Wäre besser die 8800er einfach auslaufen zu lassen wenn die neuen HIgh-End GPUs da sind, es sei denn die neuen siedeln sich all Preistechnisch & Leistungstechnisch oberhalb der 8800er an ...
AnarchX
2007-08-08, 10:11:29
Bei der 8800er-Serie verstehe ich die Neuauflage auch nicht so recht, aber vielleicht wird G80 doch noch länger leben?
Bei der 8400/8500 und 8600er Serie gibt es momentan Gerüchte, dass Nvidia diese wohlmöglich auf 65nm shrinken könnte. Dass G98 (G86@65nm bzw. noch auf 64Bit SI reduziert) existiert, wissen wir ja schon länger.
Wäre besser die 8800er einfach auslaufen zu lassen wenn die neuen HIgh-End GPUs da sind, es sei denn die neuen siedeln sich all Preistechnisch & Leistungstechnisch oberhalb der 8800er an ...
der aufwand dürfte gegen 0 gehen, von daher könnte durchaus sein dass die neu produzierten modelle einfach schon PCIe2-konform sind, während die alten einfach auslaufen.
nomadhunter
2007-09-08, 13:52:22
Vielleicht so wie Intel Anfang des Jahres die neuen C2Ds mit halbiertem Idle-Verbrauch eingeführt hat. Bei den großen Modellen (E6x00) hat sich AFAIR nicht mal der Steppingname geändert. Abgesehen von uns Enthusiasten dürften die paar Watt dem Durchschnittsuser genau so egal sein wie die verdoppelte PCI-E-2.0-Bandbreite der neuen Geforce-Modelle. Allerdings verzichtet man so auch darauf, das Bandbreitenplus groß zu vermarkten.
Falls jemand die niederen Gefilde der GPU's innteressieren, mal ein interessantes Detail zum G86 (8400GS) 65nm,and supporting PICe gen2. ——> D8M (8400GS) :wink:
Der kriegt jetzt scheinbar VC-1 verpaßt, um den roten Zwerg anzubaggern...
http://news.expreview.com/2007-10-18/1192691986d6056.html
wanne komme dii nouwe card fon nvidia auffe de marck ?
Spasstiger
2007-10-25, 09:11:06
Mit welchen Karten schließt man jetzt eigentlich die Lücke zwischen GeForce 8600 und GeForce 8800?
AnarchX
2007-10-25, 09:18:57
Mit welchen Karten schließt man jetzt eigentlich die Lücke zwischen GeForce 8600 und GeForce 8800?
Du meinst leistungsmässig?
Mir wäre da nichts bekannt, rein preismässig wird es ja die 88GT mit 256MB sein.
Spasstiger
2007-10-25, 09:30:12
Du meinst leistungsmässig?
Leistungs- und preisleistungsmäßig. Irgendwas mit DX10 für 100-150€, was die alten DX9-Karten leistungsmäßig obsolet macht. Eine GeForce 8600 GT/GTS ist ja nun nichts Halbes und nichts Ganzes.
Ailuros
2007-10-25, 09:33:05
Leistungs- und preisleistungsmäßig. Irgendwas mit DX10 für 100-150€, was die alten DX9-Karten leistungsmäßig obsolet macht. Eine GeForce 8600 GT/GTS ist ja nun nichts Halbes und nichts Ganzes.
G96 = ~Q2 2008 (wenn alles nach Plan laeuft)
AnarchX
2007-10-25, 09:36:03
G96 = ~Q2 2008 (wenn alles nach Plan laeuft)
Also doch mehr als ein G84@65/55nm?
Ailuros
2007-10-25, 09:45:51
Also doch mehr als ein G84@65/55nm?
Wenn man die Leistung von oben nach unten um X Prozent erhoeht, sehe ich nicht ein warum diese im Mainstream Bereich gleich sein sollte.
AnarchX
2007-10-25, 10:15:04
Wenn man die Leistung von oben nach unten um X Prozent erhoeht, sehe ich nicht ein warum diese im Mainstream Bereich gleich sein sollte.
Wobei ich hier eher einen G94(64SPs) vermutet hätte und das G96 dem Schema G80->G92 und G86->G98 folgt: G84 -> G96.
Aber irgendwas wird man wohl vorbereiten müssen, wenn ATi ihren RV660(wohl teildeaktiver RV670) noch bringen sollte.
Ailuros
2007-10-25, 10:42:25
Tja es bleibt immer noch die Frage fuer was genau G80-->G92 steht.
Ich frage mich momentan ob beim G92 sie tatsaechlich bei nur 3 FLOPs/ALU geblieben sind und ob es Aenderungen in den ROPs gab. Ein paar Einzelheiten machen hier keinen Sinn wenn ich die Leistung mit AA in hohen Aufloesungen ueberdenke.
LovesuckZ
2007-10-25, 10:44:33
Es ist sowieso noch vieles im Dunkeln. Wizard behauptet ja mit seinem Tool, dass die 8800GT nur 16 "TMUs" hätte. Was jedoch überhaupt keinen Sinn machen kann bei der G8x Architektur und 112SP.
AnarchX
2007-10-25, 10:48:14
Ein paar Einzelheiten machen hier keinen Sinn wenn ich die Leistung mit AA in hohen Aufloesungen ueberdenke.
Du meinst die Expreview-Benches?
Da bricht aber die 88GT relativ stärker ein als die 88GTS, wenn auch sie sich durch die höhere Grundleistung trotzdem noch behaupten kann.
Und mehr als MADD+MUL sind die ALUs imo auch nicht, immerhin hat das ja G.F., welcher auch hinter den Leaks bei Expreview steht, schon gemessen:
GPUBench做了小測試,我做的是4 channel MAD instruction issue rate
GeForce 8800 GTS 640 : 27 Ginstr/s
GeForce 8800 GT 512 : 40 Ginstr/s
http://www.mobile01.com/topicdetail.php?f=298&t=417148&last=3786435
Ailuros
2007-10-25, 10:54:46
An MADD+MADD hab ich nie gedacht und das Resultat oben ist sowieso ausschliesslich fuer MADD Instruktionen. Im besten Fall koennte ich mir kleine Aenderungen fuer die MUL Einheit vorstellen, damit sie oefters fuer general shading bereisteht.
AnarchX
2007-10-25, 11:12:18
Das werden dann entsprechende Tests zeigen müssen, aber in der Tat wurde öfters etwas davon gesprochen, dass die MUL wohl etwas stärker genutzt werden könne, AFAIK war da aber auch schon etwas im Bezug auf G80-A3 die Rede.
Dann müssten die A3-G80-GTS aber schneller sein, was nicht der Fall ist.
Stimmt des jetzt dass es auch ne neue GTS mit dem neuen Kern geben wird oder sind des nur Gerüchte?
AnarchX
2007-10-27, 11:58:33
Stimmt des jetzt dass es auch ne neue GTS mit dem neuen Kern geben wird oder sind des nur Gerüchte?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=385362
G92 -> SKUs schauen. :wink:
Popeljoe
2008-05-29, 19:24:11
Da dieser Thread nur noch Bots anzieht mache ich den mal dicht.
Bei Bedarf kann er ja wieder geöffnet werden. ;)
P1
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.