Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GeForce 200 - Teil 2
Sorkalm
2008-12-03, 23:16:57
Wann gabs zum letzten mal einen Paperlaunch bei nVidia?
Letzte High-End-Grafikkarte war die 6800 Ultra.
Das ist schon ein paar Jährchen her.
Na dann ist ja mal wieder einer fällig.
Sorkalm
2008-12-03, 23:30:19
Das ist schon ein paar Jährchen her.
Jo. Heißt aber nicht, dass es ausgeschlossen ist, denn in eine solchen Lage wie jetzt war Nvidia seit dem auch noch nicht.
Mit der 7800 GTX gings los mit sofortiger Verfügbarkeit, die 7900 GTX kam nur unwesentlich nach der X1900-Reihe, die 7950 GX2 startete auch nicht überhastet (hier logisch: Treiber), und bei der 8800 GTX hatte Nvidia auch nicht mit starker Konkurrenz zu treffen. 8800 Ultra das selbe (da dauerte es übrigens auch wenige Tage, bis Karten am Markt waren, aber das war noch unwesentlich). Die 9800 GX2 eilte nach der Dominanz durch die 8800 GTX auch nicht, zumal hier wieder die Treiber passen mussten. Und GT200 kam vor RV770.
Also: Richtig lange klar hinter der Performancekrone lag Nvidia seit der 6800 Ultra nicht mehr. Die 6800 Ultra selbst hingegen markierte ja so ein Ende... ;)
LovesuckZ
2008-12-03, 23:33:35
AMD kann wohl kaum mit der 4870x2 die Performancekrone beanspruchen, wenn die Karte Profile benötigt.
Abgesehen davon lag der letzte Paperlaunch nicht lange zurück - die 9800gtx+.
Den 55nm Prozess habens aber sowas von versemmelt, unglaublich eigentlich...
Sorkalm
2008-12-04, 00:05:20
AMD kann wohl kaum mit der 4870x2 die Performancekrone beanspruchen, wenn die Karte Profile benötigt.
Die Diskussion gehört nicht wirklich hierher. Schau in die Presse, die Karte wird überall als schnellste Grafikkarte aktuell bezeichnet. Und nur das ist hier interessant.
Abgesehen davon lag der letzte Paperlaunch nicht lange zurück - die 9800gtx+.
Das war aber nicht High-End, das hab ich jetzt nicht beachtet. In unteren Bereichen gibts ja deutlich öfter Paperlaunches...
Was sind eigentlich die "Schwachpunkte" des GT200, also welche Erhöhung welcher Teile würde am meisten bringen ? Hab ich mich schon öfter gefragt bei der Transistoranzahl hätte ich mehr Performance erwartet
Spasstiger
2008-12-04, 11:09:03
Was sind eigentlich die "Schwachpunkte" des GT200, also welche Erhöhung welcher Teile würde am meisten bringen ? Hab ich mich schon öfter gefragt bei der Transistoranzahl hätte ich mehr Performance erwartet
Die niedrigen Taktraten sind der größte Schwachpunkt des GT200.
Ansonsten ist das Design ziemlich ausgewogen. Gut, 32 ROPs an einem 256-Bit-SI + GDDR5 wären wirtschaftlicher. ;)
Mit 9800-GTX+-Taktraten wäre der GT200 das Monster geworden, das man sich erhofft hat.
Dazu muss man aber auch sagen, dass sich die neurere GTX 260 (216) schon sehr gut übertakten lässt.
Über 700 MHz Chiptakt und 1500 MHz sind fast immer drin!
Hat Nvidia eigentlich hier eine neue Revision des GT200 aufgelegt, sie benötigt ja auch weniger Energie als die alte GTX 260.
700MHz ist eigentlich für jeden G200 (ohne Heat Bug) kein Problem, die 260 machen in der regel so um die 750MHz, egal ob 192SP oder 216SP.
Hab selber eine 260 192SP die mit stock Kühler 780MHz macht...
Der ROP Takt des G200 ist überhaupt kein Problem, viel mehr liegt das Problem beim Shader Takt! Den da sollte man schon auf ca. 2GHz mit OC kommen, was mit einem G200 aber so gut wie unmöglich ist, ausser mit LN2 kühlung...
Nakai
2008-12-04, 13:02:12
AMD kann wohl kaum mit der 4870x2 die Performancekrone beanspruchen, wenn die Karte Profile benötigt.
Musst du schon wieder gegen AMD hetzen....tstststs^^ ;)
Dazu muss man aber auch sagen, dass sich die neurere GTX 260 (216) schon sehr gut übertakten lässt.
Über 700 MHz Chiptakt und 1500 MHz sind fast immer drin!
NV taktet die Karten meistens nie richtig am Limit, da is AMD/ATI schon mit den Taktraten näher am Limit.
Und das die GX2 ein Paperlaunch wird, war abzusehen. Der GT200 frisst einfach zuviel Strom und ist zu groß. Für so ne Karte muss man erstmal den Herstellungsprozess optimieren und die Kühlung für so ne GX2 kreieren.
mfg Nakai
LovesuckZ
2008-12-04, 13:18:49
Musst du schon wieder gegen AMD hetzen....tstststs^^ ;)
Werden keine Profile mehr benötigt? :confused:
Und das die GX2 ein Paperlaunch wird, war abzusehen. Der GT200 frisst einfach zuviel Strom und ist zu groß. Für so ne Karte muss man erstmal den Herstellungsprozess optimieren und die Kühlung für so ne GX2 kreieren.
Vor drei Wochen glaubte niemand an eine GX2 - jetzt sei ein Paperlaunch abzusehen? :rolleyes:
Weder Größe noch Stromverbrauch spielen bei der Karte eine Rolle. Durch die Deflation spielt die Karte in einem Preissegment, dass sowieso keinem mehr interessiert. Da kann man das ganze auch teurer gestalten. Es ist und wird wohl auch nur ein einziger Marketinggag bleiben . Paperlaunch hin oder her.
deekey777
2008-12-04, 13:27:35
Überall werden Profile benötigt, nicht nur bei AMD.
James Ryan
2008-12-04, 13:31:34
Überall werden Profile benötigt, nicht nur bei AMD.
Dank nHancer ist dies bei NVIDIA Karten aber weit weniger kritisch als bei AMD Karten.
MfG :cool:
deekey777
2008-12-04, 13:33:58
Dank nHancer ist dies bei NVIDIA Karten aber weit weniger kritisch als bei AMD Karten.
MfG :cool:
Darum sollte man auch das schreiben, was die Wirklichkeit ist: Beide brauchen Profile, damit die Grafikkartenverbunde im schnellsten Modus laufen, bei NV kann man diese selbst erstellen oder optimieren, bei AMD, da muss man die EXE umbenennen, was nicht immer funktioniert.
LovesuckZ
2008-12-04, 13:45:41
Darum sollte man auch das schreiben, was die Wirklichkeit ist: Beide brauchen Profile, damit die Grafikkartenverbunde im schnellsten Modus laufen, bei NV kann man diese selbst erstellen oder optimieren, bei AMD, da muss man die EXE umbenennen, was nicht immer funktioniert.
Darum geht es doch garnicht. Solange wie Profile benötigt werden - egal ob bei AMD oder nVidia - handelt es sich nicht um die schnellste Single-Karte.
reunion
2008-12-04, 14:02:43
Auch eine Single-Karte benötigt bei vielen Spielen Profile. Es ist die schnellste Grafikkarte, nicht mehr und nicht weniger. Die Nachteile sind bekannt.
James Ryan
2008-12-04, 14:10:17
Auch eine Single-Karte benötigt bei vielen Spielen Profile. Es ist die schnellste Grafikkarte, nicht mehr und nicht weniger. Die Nachteile sind bekannt.
Eine Single-GPU Karte verliert ohne Profil aber nicht 50% Leistung. :rolleyes:
MfG :cool:
LovesuckZ
2008-12-04, 14:15:04
Auch eine Single-Karte benötigt bei vielen Spielen Profile. Es ist die schnellste Grafikkarte, nicht mehr und nicht weniger. Die Nachteile sind bekannt.
Eine Single-Karte läuft bei fast jeder Anwendung auf über 90% der möglichen Leistung.
Eine Multi-GPU karte benötigt zusätzlich nochmal eine spezielle händische Anpassung. Sie erreicht also immer nur dann fast das bestmöglichste Ergebnis, wenn ein Profil vorhanden ist. Und nicht immer bedeutet das, dass die Anwendung auch reibungslos läuft.
Leider werden bei vielen Test immer nur ältere Games getestet, so dass nVidia und AMD genug Zeit haben Profile nachzuliefern. Es wäre doch einfach mal interessant zu wissen, wie sich Multi-GPU System verhalten, wenn nur immer zeitnahe Spiele getestet werden.
Dann sieht das so wie hier (http://www.hardware-infos.com/tests.php?test=49&seite=12) aus. Die HD 4850 X2 erreicht hier annähernd 100% Mehrleistung im Vergleich zur HD 4850, wobei hier auch die Größe des Texturspeichers berücksicht werden sollte. Selbes beim Vergleich HD 4870 X2 versus HD 4870.
Spasstiger
2008-12-04, 14:28:20
Dazu muss man aber auch sagen, dass sich die neurere GTX 260 (216) schon sehr gut übertakten lässt.
Über 700 MHz Chiptakt und 1500 MHz sind fast immer drin!
Aber dann vergleiche mal mit der 9800 GTX+.
Die bekommt man ja schon ab Werk in einer OC-Variante mit 800 MHz ROP/TMU-Takt und 2 GHz Shadertakt.
Die GTX 280 mit der stärksten Übertaktung ab Werk läuft mit 700 MHz ROP/TMU-Takt und gerade mal 1,4 GHz Shadertakt.
Die Frage war ja, warum der GT200 meistens so wenig Mehrleistung gegenüber dem G92 bietet, obwohl er 85% mehr Transistoren besitzt. Die Rohleistung der GTX 280 ist nur ca. 50% höher als bei der 9800 GTX+.
Und der Grund dafür sind ganz einfach die konservativen Taktraten.
LovesuckZ
2008-12-04, 14:46:05
Die Karte taktet doch garnicht konservativer - sondern einfach nur im Bereich ihrer Möglichkeit.
Wir haben hier 1,4 Mrd. Transistoren, dass sind fast doppelt soviele wie beim G92. Da muss man einfach Abstriche machen.
Spasstiger
2008-12-04, 16:06:17
Die Karte taktet doch garnicht konservativer - sondern einfach nur im Bereich ihrer Möglichkeit.
Wir haben hier 1,4 Mrd. Transistoren, dass sind fast doppelt soviele wie beim G92. Da muss man einfach Abstriche machen.
Das ist mit ein Punkt. Der Gast hat sich ja gewundert, dass der GT200 trotz der hohen Transistorzahl gar nicht soviel schneller ist. Und das liegt eben an den Taktraten, die man aus irgendwelchen Gründen konservativer wählen musste als beim direkten Vorgänger G92. In diesem Fall lags nun daran, dass bei der Komplexität und Größe (wegen 65-nm-Fertigung) nunmal keine höheren Taktraten drin waren, ohne dass die Leistungsaufnahme explodiert.
LovesuckZ
2008-12-04, 17:28:19
Daher sollte man nicht sagen, dass nVidia konservativ taktet. Sie können eben nicht besser takten ohne gegen die Verlustleistungsmauer zu laufen.
Spasstiger
2008-12-04, 17:30:25
Daher sollte man nicht sagen, dass nVidia konservativ taktet. Sie können eben nicht besser takten ohne gegen die Verlustleistungsmauer zu laufen.
Darauf wollte ich aber gar nicht hinaus. Ich wollte dem Gast nur beantworten, warum der Chip mit 85% mehr Transistoren nicht 85% schneller ist.
Nakai
2008-12-04, 17:53:56
1. Werden keine Profile mehr benötigt? :confused:
2. Vor drei Wochen glaubte niemand an eine GX2 - jetzt sei ein Paperlaunch abzusehen? :rolleyes:
Weder Größe noch Stromverbrauch spielen bei der Karte eine Rolle. Durch die Deflation spielt die Karte in einem Preissegment, dass sowieso keinem mehr interessiert. Da kann man das ganze auch teurer gestalten. Es ist und wird wohl auch nur ein einziger Marketinggag bleiben . Paperlaunch hin oder her.
1. Nö, aber seit wann sind Profile ausschlaggebend dafür, ob ne Karte Performancekönig ist oder nicht?!:|
2. NV hat selbst gesagt, dass man noch in diesem Jahr die Performancekrone zurückbekommen werde. Wie man das erreicht, is ja sowieso klar, ein Paperlaunch wäre sehr wahrscheinlich.
Darum geht es doch garnicht. Solange wie Profile benötigt werden - egal ob bei AMD oder nVidia - handelt es sich nicht um die schnellste Single-Karte.
Ich wüsste nicht, was dagegen spricht. Die HD4870X2 ist in der Mehrheit der neueren Spiele schneller als ne GTX280 und ne 9800GX2. Sobald die GTX295 da ist, wird diese Karte die schnellste auf dem Markt sein.
mfg Nakai
LovesuckZ
2008-12-04, 17:56:56
1. Nö, aber seit wann sind Profile ausschlaggebend dafür, ob ne Karte Performancekönig ist oder nicht?!:|
Weil die Profile die Leistung bestimmen. Ohne Profile auch keinen "Performancekönig".
2. NV hat selbst gesagt, dass man noch in diesem Jahr die Performancekrone zurückbekommen werde. Wie man das erreicht, is ja sowieso klar, ein Paperlaunch wäre sehr wahrscheinlich.
nVidia sagt auf den CC viel, wenn der Tag lang ist.
Ich wüsste nicht, was dagegen spricht. Die HD4870X2 ist in der Mehrheit der neueren Spiele schneller als ne GTX280 und ne 9800GX2. Sobald die GTX295 da ist, wird diese Karte die schnellste auf dem Markt sein.
Und wie definiert man "Mehrheit von neueren" Spielen? eine Woche? Ein Monat? Ein Jahr? Solange wie die Multi-GPU Test nicht mit aktuellen Spielen aufwarten, wäre ich vorsichtig hier von neueren Spielen zu reden.
Link zum ersten Review eines Nvidia-55-nm-GT206-Chips. Damit ihr nicht falsche Erwartungen habt: Es handelt sich "nur" um die Quadro FX 4800, die in etwa leistungsmäßig auf dem Niveau der alten GTX 260 anzuordnen ist, dabei jedoch nur 146 statt 182 Watt TDP besitzt:
http://www.3dprofessor.org/Reviews%20Folder%20Pages/FX4800/FX4800P1.htm
Der Test sagt leider nicht wirklich viel aus...
und einen Beweis das auf den Quadro wirklich 55nm drauf sind gibt es immer noch nicht...
Die 55nm werden bald zum "Running Gag"...
X.Perry_Mental
2008-12-05, 12:47:50
Bilder: Zotac 55nm GTX260 (http://www.expreview.com/news/hard/2008-12-05/1228468866d10731.html)
Englischer Text auf Theos Blog (http://theovalich.wordpress.com/2008/12/05/zotac-leaks-pictures-of-55nm-gtx260-with-15-gb-of-memory/)
AnarchX
2008-12-05, 12:58:00
Expreview hat auch eine Übersetzung:
http://en.expreview.com/2008/12/05/first-look-of-55nm-geforce-gtx260.html
Mal sehen, was preislich durch das neue PCB und den kleineren Die möglich wird.
James Ryan
2008-12-05, 13:20:00
Irre ich mich, oder ist das Zotac-PCB etwas besser als das NVIDIA Standard-PCB?
Speziell die Stromversorgung sieht etwas mächtiger aus.
MfG :cool:
X.Perry_Mental
2008-12-05, 13:26:10
Irre ich mich, oder ist das Zotac-PCB etwas besser als das NVIDIA Standard-PCB?
Speziell die Stromversorgung sieht etwas mächtiger aus.
Wenn ich ehrlich sein soll, habe ich (von der blauen PCB-Farbe mal abgesehen) keinen Unterschied zum neuen Referenz-PCB P654 gefunden.
James Ryan
2008-12-05, 13:28:21
HIER (http://en.expreview.com/img/2008/12/05/260_card.jpg) sieht man die Unterschiede doch recht gut.
MfG :cool:
X.Perry_Mental
2008-12-05, 13:41:38
HIER (http://en.expreview.com/img/2008/12/05/260_card.jpg) sieht man die Unterschiede doch recht gut.
Ich habe den Artiel so verstanden, dass die 55nm-Zotac-Karte eine Standard-Karte entsprechend des neuen Refenrenz-Designs P654 (nur halt in blau) ist. Die Gegenüberstellung aus deinem Link zeigen hingegen altes und neues Referenz-Design - der Unterschied ist wirklich klar zu erkennen.
Also mich überrascht es schon das die die Karten nicht höher Takten, NV ist wohl von der Leistung überzeugt und sind der meinung das sie nicht mehr Leistung benötigen....
Ist das neue Referenzdesign jetzt kürzer als das alte? Sieht irgendwie ned so aus, obwohl im Artikel was von 26.5cm steht?
Also mich überrascht es schon das die die Karten nicht höher Takten, NV ist wohl von der Leistung überzeugt und sind der meinung das sie nicht mehr Leistung benötigen....
Die wollen nur nicht dass alle jetzt bis Februar warten und die alten Karten in den Regalen verstauben.
|MatMan|
2008-12-05, 14:15:06
Die neue PCB ist hauptsächlich eine Optimierung der Kosten:
- nur noch 10 statt 14 Layer
- alle Speicherchips auf einer Seite
Die Spannungsversorgung wurde wohl etwas stärker, vielleicht aus Stabilitätsgründen (vielleicht auch im Zusammenhang mit F@H?!), vielleicht hängt es auch einfach nur damit zusammen, dass es mit der "alten" Spannungsversorgung Lieferprobleme gab...
Ich würde daraus ableiten, dass es die GTX260 noch eine ganze Weile geben wird, ähnlich wie es die 9800 GTX(+) immernoch gibt, obwohl die GT200 Karten schon lange auf dem Markt sind.
Hier (http://www.hardware-infos.com/news.php?news=2565) die erste News auf Deutsch dazu.
Fetza
2008-12-05, 16:38:45
Hmm, irgendwie bin ich jetzt echt gespannt auf erste übertaktungsmeldungen. :)
Habt ihr das hier schon gesehen?
Da braucht ein G92b satte 34Watt weniger als G92a!!!
http://www.xbitlabs.com/articles/video/display/palit-gf9800gtxplus_5.html#sect0
Das sind doch Werte die nie und nimmer realistisch sind, ich versteh es einfach nicht mehr.
Wenn man das auf den G200 hochrechnet müsste man ja über 50Watt einsparen können, was wieder rum zu den TESLA und Quadro Karten passen würde...
Ja wenn es passt, warum verstehst du es dann "nicht mehr"?
AnarchX
2008-12-05, 17:09:03
Habt ihr das hier schon gesehen?
Da braucht ein G92b satte 34Watt weniger als G92a!!!
http://www.xbitlabs.com/articles/video/display/palit-gf9800gtxplus_5.html#sect0
Das sind doch Werte die nie und nimmer realistisch sind, ich versteh es einfach nicht mehr.
Hmmm...
Nunja, Xbit-Labs hat immerhin zwei verschiedene Karten gemessen und ich denke nicht das man dort einfach Werte ungeprüft lässt, wenn sie auffällig sind.
Wobei wohl hier die neuen (verbesserten) PCBs und der modernere 0.83ns GDDR3 mit nur 1.9V eine Rolle spielen könnten.
Wird es den 55nm GT200 also nur auf den neuen PCBs geben?
Ja wenn es passt, warum verstehst du es dann "nicht mehr"?
Weil es bis jetzt immer hiess das der G92b gleich viel verbraucht wie der G92a und 76Watt Peak ist doch einfach nur krank, das ist wohl nicht mal 9600GT oder 3850 Verbrauch!!!
Tja, dann hiess es bis jetzt eben falsch. Oder die Jungs haben noch alte 9800GTX+ mit 65nm Kernen getestet...
Hmmm...
Nunja, Xbit-Labs hat immerhin zwei verschiedene Karten gemessen und ich denke nicht das man dort einfach Werte ungeprüft lässt, wenn sie auffällig sind.
Wobei wohl hier die neuen (verbesserten) PCBs und der modernere 0.83ns GDDR3 mit nur 1.9V eine Rolle spielen könnten.
Der Speicher ist doch exakt der selber wie auf jeder 9800GTX
AnarchX
2008-12-05, 17:25:41
Über XLs sparsame 9800 GTX+ bitte hier diskutieren, sofern kein Bezug zu G200B:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6956347#post6956347
AnarchX
2008-12-06, 09:09:14
GTX 280 mit 55nm Die = GTX 285? (http://www.donanimhaber.com/DH_Ozel__Nvidia_nin_GeForce_GTX_285_modeli_yolda-11965.htm)
Yüldiz Üldiz nix versteh?!?
Mal ne andere Frage, wozu dient dieser Rahmen um die GPU?
AnarchX
2008-12-06, 10:43:20
Yüldiz Üldiz nix versteh?!?
Mal ne andere Frage, wozu dient dieser Rahmen um die GPU?
Stabilisiert das PCB und verhindert Haarrisse durch den verschraubte Kühler im PCB, wohl eine notwendige Maßnahme bei den getroffenen Einsparungen am PCB und der enormen Speicherchipdichte auf der Vorderseite.
GTX 280 mit 55nm Die = GTX 285? (http://www.donanimhaber.com/DH_Ozel__Nvidia_nin_GeForce_GTX_285_modeli_yolda-11965.htm)
Also das Teil auf dem Bild da kann eigentlich nur die neue GTX260 sein, da nur 14 Speicherchips. Gibt es für die 55nm GTX280 denn noch ein weiteres neues PCB, oder nehmen die da einfach das Alte weiter? Das für die neue GTX260 können sie ja nicht nehmen, da keine 16 Speicherchips drauf passen!
Ailuros
2008-12-07, 08:18:29
GT212 hört sich für mich nicht wirklich wie eine High-End-GPU an, wenn dann wohl wieder eine Basis für eine GX2, vielleicht diesmal mit durchdachterer MGPU-Technik.
Oder man konzentriert sich wie ATi mehr auf den $299 Markt (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=439695) und da ist GT212 die entsprechende GPU dafür, während >$499 mit 2x384SPs bedient wird.
Codenamen muessen nicht immer oder ueberhaupt keinen Sinn machen; aber wenn es schon sein muss eine These waere:
GT206@55nm = 240SPs
GT216@40nm = 192SPs + Frequenz
GT212@40nm = 384SPs + Frequenz + GDDR5
Ich bin mir so sicher wie ich momentan sein kann dass aus der GT21x Familie, lediglich 212 GDDR5 unterstuetzt und dieses mit einem breiteren Bus als die anderen. Gibt es einen speziellen Grund warum man eine theoretische mainstream GPU mit einer Unmenge von Bandbreite im Vergleich zu den anderen bestuecken wuerde?
***edit: uebrigens: http://www.theinquirer.net/gb/inquirer/news/2008/12/03/nvidia-55nm-parts-update
wenn die Geschichte mit dem falschen DFM selbst nur halbwegs stimmen sollte, dann wird es so langsam Zeit dass ein paar Koepfer rollen.
PCGH_Carsten
2008-12-07, 08:56:09
Charlies Geschichten sind immer wieder lustig zu lesen.
"GT200GX2 is on again"
vs.
"he 55nm parts, […]with[…] no power gains."
=> 2x180ish Watt? Ich glaube nicht, Tim.
oder
"The problem with a heat spreader is that it introduces two additional thermal barriers, the paste under the lid and the lid itself, to the cooling of the silicon."
vs.
"So, why did Nvidia do it on the GT200? They can't control hot spots. The lid is a heat spreader, and it helps keep chips with poor hot spot control alive and working."
=> Klar, Hot-Spots bekämpft man am besten, indem man zusätzliche thermale Barrieren schafft.
:)
Echt völliger Bullshit. Der normale Kühler funktioniert genauso als Heatspreader.
Das speziell Charlie nen hoffnungsloser Fall von AMD-FB bzw NVidia-Hasser ist wird ja wohl langsam jedem klar sein, seine geistigen Ergüsse lese ich höchstens um mich zu amüsieren..
Ailuros
2008-12-07, 15:55:04
Charlies Geschichten sind immer wieder lustig zu lesen.
"GT200GX2 is on again"
vs.
"he 55nm parts, […]with[…] no power gains."
=> 2x180ish Watt? Ich glaube nicht, Tim.
oder
"The problem with a heat spreader is that it introduces two additional thermal barriers, the paste under the lid and the lid itself, to the cooling of the silicon."
vs.
"So, why did Nvidia do it on the GT200? They can't control hot spots. The lid is a heat spreader, and it helps keep chips with poor hot spot control alive and working."
=> Klar, Hot-Spots bekämpft man am besten, indem man zusätzliche thermale Barrieren schafft.
:)
Kein Einwand. Trotz allem kommt GT206 viel zu spaet an und ohne Grund kann diese Verspaetung auch nicht sein.
PCGH_Carsten
2008-12-08, 09:41:17
Kein Einwand. Trotz allem kommt GT206 viel zu spaet an und ohne Grund kann diese Verspaetung auch nicht sein.
Ebenfalls kein Einwand. Möglicher Grund: War gedacht als ~150 Euro Karte mit entsprechender Performance, nur ist in dem Segment das Perf-Level gestiegen, sodass man entweder die Selektion pimpen musste oder den Chip respinnen, um Kosten sparen zu können (weniger Power -> Billigeres PCB oder sowas.)
Ailuros
2008-12-08, 10:09:01
Ebenfalls kein Einwand. Möglicher Grund: War gedacht als ~150 Euro Karte mit entsprechender Performance, nur ist in dem Segment das Perf-Level gestiegen, sodass man entweder die Selektion pimpen musste oder den Chip respinnen, um Kosten sparen zu können (weniger Power -> Billigeres PCB oder sowas.)
Nach Damien's Post auf B3D war es mir klar dass irgend etwas nicht stimmen kann. Er mass den die den er mitnehmen durfte bei irgendwo 480mm2 und es ist nach ihm ein 512bit chip. Die DFM These ist leider eine logische Erklaerung denn man braucht normalerweise keine 3 respins fuer einen einfachen die shrink. Wenn's stimmt dann erinnert mich derartiger Bloedsinn an die spaeten 3dfx Zeiten und es gibt keine gute Entschuldigungen fuer solche Fehler.
AnarchX
2008-12-09, 11:02:03
GTX 295: 2x240SPs, 2x448-Bit, 2x896MiB, Launch am 8.1.09(CES)? (http://en.expreview.com/2008/12/09/geforce-gtx295-with-480sp-surely-to-come-in-ces-09.html)
Ri*g*g*er
2008-12-09, 12:22:27
Mhm,
also ich tippe ja darauf, das Nvidia sich wie ATI aus dem Highend Bereich zurückziehen wird zumindest als Single Chip Variante.
Somit werden die Produktionskosten gedrückt und der Gewinn maximiert.
Für die Highendkarten geht man dann auf die Sandwichmethode über und schlägt somit 2 Fliegen mit einer Klappe.
Mir persönlich können diese Doppelwopper gerne erspart bleiben.
Microruckler Nein DANKE !!!
Gruss
Ri*g*g*er
AnarchX
2008-12-09, 13:02:15
GeForce GTX 295 & GTX 285 To Launch @ CES 2009
As for GeForce GTX 285, it is a replacement for the current GeForce GTX 280 card with a 55nm GT200 GPU with a higher clocks. Therefore, GeForce GTX 280 cards will reach EOL in a month time. As for GeForce GTX 260, Nvidia has released design kits to the card makers and you should be seeing some self-designed cards in Q1 next year.
http://vr-zone.com/articles/geforce-gtx-295--gtx-285-to-launch--ces-2009/6259.html?doc=6259
reunion
2008-12-09, 13:07:57
Gerade noch das Weihnachtsgeschäft verpasst. Da ist wohl einiges schief gelaufen bei diesem Die-Shrink. Und das man tatsächlich so verrückt ist und so ein noch immer fast 500mm² Die mit entsprechend breitem SI auf eine GX2 packt hätte ich nicht für möglich gehalten. Aber da geht es wohl hauptsächlich ums Prestige. Könnte vielleicht auch ein Hinweis darauf sein, dass sich die 40nm Chips verspäten, denn sonst macht das nächstens Jahr IMHO nicht mehr viel Sinn.
Laut OBR kommen in den nächsten Tagen die Reviews zur GTX295, bin ja gespannt
LovesuckZ
2008-12-09, 14:32:42
Gerade noch das Weihnachtsgeschäft verpasst. Da ist wohl einiges schief gelaufen bei diesem Die-Shrink. Und das man tatsächlich so verrückt ist und so ein noch immer fast 500mm² Die mit entsprechend breitem SI auf eine GX2 packt hätte ich nicht für möglich gehalten. Aber da geht es wohl hauptsächlich ums Prestige. Könnte vielleicht auch ein Hinweis darauf sein, dass sich die 40nm Chips verspäten, denn sonst macht das nächstens Jahr IMHO nicht mehr viel Sinn.
Genauso verrückt wie einen 575mm^2 Die für 250€ zu verkaufen? :rolleyes:
Die Karte wird wohl um die 500-600.- kosten, von dem her ist das wohl schon etwas rentabel, aber sicher auch nicht sehr rentabel für NV und co.
Was kann man für Taktraten erwarten von der GTX 295? 289 W TDP, hmm... 555/1296/1100 MHz?
reunion
2008-12-09, 17:18:00
Genauso verrückt wie einen 575mm^2 Die für 250€ zu verkaufen? :rolleyes:
Ja, mindestens so verrückt, da noch die entsprechende, sicherlich nicht wenig komplexe Kühlung und ein PCIe-Switch dazukommt, und man darüberhinaus wohl weitgehend fehlerfreie Dies verwenden wird müssen.
LovesuckZ
2008-12-09, 17:29:45
Ja, mindestens so verrückt, da noch die entsprechende, sicherlich nicht wenig komplexe Kühlung und ein PCIe-Switch dazukommt, und man darüberhinaus wohl weitgehend fehlerfreie Dies verwenden wird müssen.
Richtig. Aber du vergisst hierbei, dass durch die Deflation im Markt sowieso kaum jemand noch mehr als 300€ für eine Karte ausgibt. Und die Kosten, die solch ein Prestigeobjekt verursachen, sind Peanuts, da die Menge wohl ziemlich limitiert sein wird.
Und fehlerfrei müssen die Dies nicht komplett sein, wenn man wirklich nur 7 ROP Partitionen verwenden will.
Fehler freie DIEs hat NV dank GTX 260 wohl genug, das dürfte wohl die geringsten Probleme verursachen.
nymand
2008-12-09, 22:27:11
Sagt mal, sehe ich das falsch oder hat NV ein arges Problem mit ihrer Dual Karte die 4870 X2 zu schlagen? Grund für meine Spekulation ist folgender Benchmark:
http://www.xbitlabs.com/articles/video/display/7games-fall2008_17.html#sect1
Dort hält die 4870 X2 recht gut mit einem GTX 280 SLI mit. (Was mich ehrlich gesagt sehr wundert) Wie soll dann eine 260 X2 die ATI packen? Oder werden wir wohl doch eher eine 280 X2 sehen? Was vermutet ihr?
mapel110
2008-12-10, 01:15:11
Sagt mal, sehe ich das falsch oder hat NV ein arges Problem mit ihrer Dual Karte die 4870 X2 zu schlagen? Grund für meine Spekulation ist folgender Benchmark:
http://www.xbitlabs.com/articles/video/display/7games-fall2008_17.html#sect1
Dort hält die 4870 X2 recht gut mit einem GTX 280 SLI mit. (Was mich ehrlich gesagt sehr wundert) Wie soll dann eine 260 X2 die ATI packen? Oder werden wir wohl doch eher eine 280 X2 sehen? Was vermutet ihr?
Gleiche Performance reicht ja auch. Zusammen mit den Vorteilen bei SLI gegenüber CF genügt das dann.
reunion
2008-12-10, 07:01:03
Sagt mal, sehe ich das falsch oder hat NV ein arges Problem mit ihrer Dual Karte die 4870 X2 zu schlagen? Grund für meine Spekulation ist folgender Benchmark:
http://www.xbitlabs.com/articles/video/display/7games-fall2008_17.html#sect1
Dort hält die 4870 X2 recht gut mit einem GTX 280 SLI mit. (Was mich ehrlich gesagt sehr wundert) Wie soll dann eine 260 X2 die ATI packen? Oder werden wir wohl doch eher eine 280 X2 sehen? Was vermutet ihr?
Dessen ist sich nV sicherlich bewusst, und deshalb kommt ja auch eine 240SP Karte (der deaktivierte ROP-Cluster dürfte sich kaum auswirken) mit entsprechenden Taktraten. 289W TDP bei 55nm ahoi.
Gleiche Performance reicht ja auch. Zusammen mit den Vorteilen bei SLI gegenüber CF genügt das dann.
Bis auf die Profilverwaltung ohne Tricks wie .exe-Remaining ist da nicht viel mit Vorteilen.
AnarchX
2008-12-10, 07:57:16
http://img214.imageshack.us/img214/2326/geforcegtx29512166266hv4.jpg (http://imageshack.us)
http://vr-zone.com/articles/geforce-gtx-295-card-exposed/6264.html?doc=6264
Tarkin
2008-12-10, 08:59:23
Genauso verrückt wie einen 575mm^2 Die für 250€ zu verkaufen? :rolleyes:
Ja, mindestens so verrückt...
Ailuros
2008-12-10, 09:10:51
Und fehlerfrei müssen die Dies nicht komplett sein, wenn man wirklich nur 7 ROP Partitionen verwenden will.
Afaik reduziert NV die partitions auf 260 und co. hauptsaechlich um die Unkosten der verbundenen Speichermenge zu reduzieren.
Sagt mal, sehe ich das falsch oder hat NV ein arges Problem mit ihrer Dual Karte die 4870 X2 zu schlagen? Grund für meine Spekulation ist folgender Benchmark:
http://www.xbitlabs.com/articles/video/display/7games-fall2008_17.html#sect1
Dort hält die 4870 X2 recht gut mit einem GTX 280 SLI mit. (Was mich ehrlich gesagt sehr wundert) Wie soll dann eine 260 X2 die ATI packen? Oder werden wir wohl doch eher eine 280 X2 sehen? Was vermutet ihr?
Sehr sehr komische Werte, da Skaliert ein X3 System schon mal um 100% gegenüber einer X2, ja klar...
Bis auf die Profilverwaltung ohne Tricks wie .exe-Remaining ist da nicht viel mit Vorteilen.
Und allein die sind schon wichtig genug.
Hinzu kommt, dass SLI offenbar wesentlich besser skaliert als CF (Test (http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/22/#abschnitt_fazit)).
reunion
2008-12-10, 10:22:24
Afaik reduziert NV die partitions auf 260 und co. hauptsaechlich um die Unkosten der verbundenen Speichermenge zu reduzieren.
Das glaube ich kaum bei einer Shieldrate die wohl irgendwo bei 30% liegt wenns gut geht. Und die 64-bit weniger plus zwei Speicherchips machen das Kraut auch nicht fett.
Man nimmt die Kürzung aus folgenden Gründen vor:
- geringere Speichermenge
- GT200 besitzt genügend Bandbreite / Rechenleistung
- Einsparungen beim SI und den ROPs
Ich bin mal gespannt, wie das TMU:ALU-Ratio ausfallen wird. Nach Theo Valich 1:2,33...
Spasstiger
2008-12-10, 13:45:00
http://img214.imageshack.us/img214/2326/geforcegtx29512166266hv4.jpg (http://imageshack.us)
http://vr-zone.com/articles/geforce-gtx-295-card-exposed/6264.html?doc=6264
Und ich wurde bis vor kurzem noch heftig kritisiert, weil ich fest an eine Veröffentlichung einer solchen Karte glaubte.
Da ist sie, die GX2 mit zwei vollwertigen GT200b-Chips. Nur das SI wurde gekürzt, aber so etwas habe ich ja auch explizit für möglich gehalten. Die 2*240 SPs standen für mich immer fest, 2*216 SPs oder gar nur 2*192 SPs wären einfach nur blödsinnig. Für die gleiche Leistung wie mit 2*240 SPs wäre dann nämlich ein höherer Takt und eine höhere Spannung erforderlich -> Abwärme steigt ins Unermessliche. Umgekehrt kann man mit dem breiteren Chip für die gleiche Leistung wie mit einem schmaleren Chip den Takt und die Spannung senken -> Abwärme sinkt deutlich.
Aber mit 2*240 SPs sei der Chip ja zu fett für eine Dualchip-Karte ... ja, für eine GX2 nach dem Vorbild der HD 4870 X2! Aber ich hab ja auch stets das nun gezeigte Sandwich-Design prognostiziert.
Leider werden die Beschimpfungen bei gewagten, aber wohl begründeten Prognosen auch in Zukunft nicht enden ... dann bleibe ich halt je nach Tageslaune der ATI-, AMD-, Intel- oder Nvidia-Fanboy.
Hmm, kommt denn jetzt nun auch zur CES eine GTX 265/GTX270 (mit evtl. höheren Taktraten)? Oder erst mal nur die Highend Modelle?
Möchte endlich meine Grakka austauschen können.
pXe
AnarchX
2008-12-10, 17:57:02
Sehr unwahrscheinlich, immerhin hat ja die GTX 260 schon ihr Update erfahren, durch die Erhöhung auf 72TMUs/216SPs und für 250€ gibt es schon ordentlich werksübertaktete Karten, die teilweise mit nur 1.06V laufen.
Was passieren wird ist, dass durch den 55nm Die und die Möglichkeit eigner Designs durch die AIBs, auf Basis des nun freigegeben Designkits, man preislich der HD4870 wohl folgen wird und zum aktuellen Preis exklusivere Lösungen anbietet und eventuell erhöhtes Taktpotential in OC-Versionen verkauft.
Seitens NV kann man aber eher keine neue Karte erwarten.
|MatMan|
2008-12-10, 18:42:51
Das glaube ich kaum bei einer Shieldrate die wohl irgendwo bei 30% liegt wenns gut geht. Und die 64-bit weniger plus zwei Speicherchips machen das Kraut auch nicht fett.
Wenn man bei der GX2 wie bei der neuen GTX260 mit 10 Layern statt 14 pro PCB auskommt (wieviele hat eigentlich eine GTX280?), dann macht das schon einen Unterschied bei den Kosten.
Und anscheinend kann man das neue PCB verwenden (oder eine Variante davon), denn auf dem Bild von AnarchX sind auf der Rückseite keine Speicherchips zu erkennen.
Wenn man bei der GX2 wie bei der neuen GTX260 mit 10 Layern statt 14 pro PCB auskommt (wieviele hat eigentlich eine GTX280?), dann macht das schon einen Unterschied bei den Kosten.
Haben GTX 260 und GTX 280 nicht dasselbe PCB?
Palpatin
2008-12-10, 22:51:01
Meint ihr man wird Problemlos mit den beiden DVI und dem HDMI die auf dem Bild gezeigt wurden ein 3Monitor Setup Fahren können? Gezockt wird nur auf dem Hauptschirm aber ich hätte halt gern 2x 19 Zoll links und rechts vom 27 Zoll stehen anstatt wie jetzt nen 24 Zoll nebem dem 27 Zoll.
PCGH_Raffael
2008-12-11, 00:04:32
... dann bleibe ich halt je nach Tageslaune der ATI-, AMD-, Intel- oder Nvidia-Fanboy.
Herzlich willkommen in unserer Welt. X-D
MfG,
Raff
Fetza
2008-12-11, 05:20:22
Herzlich willkommen in unserer Welt. X-D
MfG,
Raff
Na, also du bist doch höchstens ein 3DFX fanboy. :D
Frank1974
2008-12-11, 06:06:05
Wann kommt denn die Dualkarte jetzt, wirklich am 8 Januar, wird die dann auch sofort Verfügbar sein, oder ist das erst nur die Vorstellung, und die Karte kommt erst ein Paar Wochen später?
Ich brauche mal wieder was neues zum testen, mit meiner GTX habe ich alles durch, jeden Treiber, jedes Game was ich besitze, ich spiele zwar im Moment GTA4, aber sonst interessieren mich Games nicht mehr so sehr, nach gut 20 Jahren interessiert mich die Technik mehr, noch vor gut zwei Jahren, war ich 100% Gamer, davon sind jetzt vielleicht noch 20% übrig(GTA4 ist aber Geil:smile:).
SLI mit zwei Karten möchte ich nicht, ich hatte ein Nforce Board hier, damit hatte ich aber zuviele Probleme, das Asus Board mit dem P45 Intel-Chipsatz macht überhaupt kein Problem, wenn da SLI ginge, hätte ich längst eine zweite GTX.
So wie ich das gelesen habe, hat die Karte 2x240 SPs, wird der Takt reduziert sein, oder gleich wie bei einer GTX280, oder vielleicht sogar etwas höher, hat da schon jemand Infos zu?
Der Speicher mit 2x448 Bit, ist ja immer noch sehr Hoch, denke nicht das die Karte dadurch ausgebremst wird, oder?
Ich hoffe das die Karte nicht länger ist als eine GTX280, weil die passt so gerade eben ins Gehäuse, weil dann ist der Festplattenschacht im Weg.
mfg
Frank
Hmm, kommt denn jetzt nun auch zur CES eine GTX 265/GTX270 (mit evtl. höheren Taktraten)? Oder erst mal nur die Highend Modelle?
Möchte endlich meine Grakka austauschen können.
pXe
Laut Hartware.de soll die angeblich kommen.
MFG
Gast
Hartware.de
Angeblich soll neben der GeForce GTX 295 eine weitere Nvidia Grafikkarte auf der Consumer Electronics Show (CES) in Las Vegas am 8. Januar 2009 vorgestellt werden. Dabei soll es sich um die GeForce GTX 285 handeln. Dahinter verbirgt sich eine GeForce GTX 280 mit höheren, noch nicht genau bekannten Taktraten, die durch den Umstieg auf 55nm möglich sein sollen. Die GeForce GTX 280 soll somit abgelöst werden und aus dem Markt verschwinden.
AnarchX
2008-12-11, 09:47:47
55nm GeForce GTX280 Detailed
Adopting P891 as reference design, GeForce GTX285 remains 10.5” length just as GTX280. And its cooler is dual-slot designed with dual DVI and S-Video output. The graphic memory carries on 1GB GDDR3, and its stream processors is 240. The GeForce GTX285 remains to be confirmed, but its performance can get up to 110% of GTX280.
We can regard GeForce GTX285 as GTX280 Overclocking Edition with less power consumption. GeForce GTX280’s Maximum Graphics Card Power is 236W, so it has to connect a 6-pin and a 8-pin PEG Power supplies. However, GeForce GTX285’s power consumption has been reduced to 183W, so only 2 6-pin PEG power supplies are needed.
http://en.expreview.com/2008/12/11/1602.html
Hört sich doch nicht schlecht an, wenn der Preis gleich bzw. niedriger ist.
Aber da gibt es ja noch den letzten Absatz:
After unveiling details of NVIDIA new-line products, we will follow some news about AMD’s plan to fight back, such as RV775XT.
:D
reunion
2008-12-11, 10:00:18
Naja, bis zu 10% schneller bedeutet max. 660/1430 Takt, beim Speichertakt steht man ohnehin an. Der niedrigere Verbrauch ist allerdings erfreulich. Und AMD wird wohl auch ebenfalls eine OC-Edition nachschieben, sodass sich insgesamt wenig ändern wird.
aylano
2008-12-11, 10:59:57
Ich frage mich, ob ein RV770 mit zusätzlichen 2 oder 3 Respins (so wie Nvidias-55nm) auch ähnliche/gleiche Verbesserungen bekommen hätte, wie die kommende GT200-55nm???
Also NV hat schon etwas gezaubert wenn man sich so die Watt Angaben anschaut, hätte vor ein par Monate keiner für möglich gehalten!
Das erklährt wohl auch wie so erst der B2 als Retail kommt.
Naja, bis zu 10% schneller bedeutet max. 660/1430 Takt, beim Speichertakt steht man ohnehin an. Der niedrigere Verbrauch ist allerdings erfreulich. Und AMD wird wohl auch ebenfalls eine OC-Edition nachschieben, sodass sich insgesamt wenig ändern wird.
AMD wird aber erheblich mehr Strom fressen und das bei geringerer Performance!
Saubere Leistung von Nvidia!
reunion
2008-12-11, 12:20:25
AMD wird aber erheblich mehr Strom fressen und das bei geringerer Performance!
Saubere Leistung von Nvidia!
Bei 3 Respins für einen einfachen Die-Skrink kann man das auch erwarten. Aber es stimmt: Angesichts der Die-Größe ist der Stromverbrauch schon beachtlich.
Es ist kein einfacher Die-Shrink, denn dafür braucht man keine Respins.
Ailuros
2008-12-11, 12:37:14
Das glaube ich kaum bei einer Shieldrate die wohl irgendwo bei 30% liegt wenns gut geht. Und die 64-bit weniger plus zwei Speicherchips machen das Kraut auch nicht fett.
Nach drei refreshes von G80@90nm bis zu GT206@55nm will ich ernsthaft bezweifeln dass es Fehler im MC bzw. in den ROPs (die sind ja schon fast im ersten integriert) geben koennte. Ergo sehe ich keinen anderen Grund die achte partition zu deaktivieren als die insgesamte Speichermenge auf dem chip. Der Unterschied bei knapp ueber 200MB weniger Speicher klingt zwar nicht als besondere Menge, aber jeder Brocken der fuer niedrigeren Stromverbrauch sowohl auch niedrigeren Preis sorgen kann ist hier aeusserst wertvoll ueberhaupt wenn man so stark unter Druck steht.
Bei 3 Respins für einen einfachen Die-Skrink kann man das auch erwarten. Aber es stimmt: Angesichts der Die-Größe ist der Stromverbrauch schon beachtlich.
Falls jemand tatsaechlich so bloed war und die DFM Geschichte stimmt, dann kann man ueberhaupt froh sein dass man "nur" 3 respins brauchte.
Es ist kein einfacher Die-Shrink, denn dafür braucht man keine Respins.
....und was wurde denn tolles im GT206 geaendert?
Spasstiger
2008-12-11, 13:04:44
Da lag ich mit meinen Schätzungen vor einem Monat zur 55-nm-GTX-280 ja gar nicht soweit daneben:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6916346&postcount=308
Die Taktraten werden bei 10% besserer Performance wohl ungefähr hinkommen, nur die TDP liegt 13 Wattt höher als geschätzt. Mit geschätzten 170 Watt TDP bin ich aber immer noch näher an den 183 Watt als viele andere User hier, die auf unveränderte 236 Watt TDP bestanden.
Jetzt sollte auch klar sein, dass die Quadro FX 5800 ihre geringe TDP von 189 Watt trotz höherem Chip- und Shadertakt als bei GTX 280 nicht durch Selektion und Bauteilqualität erreicht, sondern einfach nur durch durch die sparsamere GPU in 55-nm-Fertigung.
=Floi=
2008-12-11, 13:08:52
das neue pcb für die 265GT erlaubt aber keine 1024gb karte! Die 10% schneller könnten auch auf die 265GT zutreffen und das dürfte wohl einem zuwachs von ~15-25% ausmachen.
Spasstiger
2008-12-11, 13:11:42
das neue pcb für die 265GT erlaubt aber keine 1024gb karte! Die 10% schneller könnten auch auf die 265GT zutreffen und das dürfte wohl einem zuwachs von ~15-25% ausmachen.
:confused:
Was soll eine "265GT" sein?
Ich habe mich ausschließlich auf die GTX 285 und die GTX 280 bezogen.
Ronny G.
2008-12-11, 13:37:44
nix wirklich neues, wollte es trotzdem mal posten, bei den noch unbestätigten erwartungen hat so ne GTX285 ja nichts wirklich reizentes ansich, zumindest für nen GTX280 Besitzer. Aber vielleicht besitzt die neue GPU ja ugeahnte OC-Eigenschaften:naughty:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/dezember/geforce_gtx_285_10_gtx_280/
Spasstiger
2008-12-11, 14:08:51
Nach meinen Berechnungen würde ein 448-Bit-SI bei einer GTX 280 bei gleichbleibenden Taktraten nur ca. 3-5% an Performance kosten (das kann ja mal jemand mit einer GTX 280 nachprüfen, indem er den Speichertakt auf 970 MHz senkt).
Es scheint also eine kluge Entscheidung von NV zu sein, bei der GTX 295 das SI zu kürzen, um die PCB-Komplexität in Grenzen zu halten.
AnarchX
2008-12-11, 14:11:17
Auch mit beachtet, dass die ROPs dadurch auch von 32 auf 28 reduziert werden?
Das gibt pro GPU bei 448Bit und 1000MHz eine Bandbreite von 112GB/s, das dürfte locker ausreichen
Spasstiger
2008-12-11, 14:16:48
Auch mit beachtet, dass die ROPs dadurch auch von 32 auf 28 reduziert werden?
Ok, das habe ich vernachlässigt. Wenn man das berücksichtigt, kommt man auf eine um 7% reduzierte Performance. Wird nur die Speicherbandbreite gekürzt, sollten es 3% Performanceverlust sein.
Da in meinem Modell die ROP-Leistung aber eher zu stark einfließt, würde ich die goldene Mitte nehmen: 5%. ;)
Den Einfluss der Speichermenge habe ich übrigens nicht berücksichtigt, da das zu anwendungsspezifisch ist.
=Floi=
2008-12-11, 14:20:31
bei welchen auflösungen und settings? das 512bit breite si hat schon seine berechtigung und der ram muß wirklich kein flaschenhals mehr sein...
Da die 295 aber sicher deutlich weniger Takt hat als die 285 dürfte das ja egal sein?
Ronny G.
2008-12-11, 14:24:35
Ich glaube aber auch fest daran das es gerade bei so ner SLI-Kombokarte auf jeden Quäntchen Leistung ankommt, gerade der Speicher kann da stark limitieren, man siehe 9800GX2
Am End wird bei der GTX295 schon wesentlich mehr rüber kommen als bei ner Singelkarte, aber um welchen Faktor im vergleich zu 2xGTX285? Wir reden hier immerhin um Enthusiastenmarkt und nicht dem genügsamen Mainstream!
Ich sehe das Problem nicht, da die 240SP bei der 295 sicher deutlich weniger Takt haben werden als bei der 285 benötigt man logischerweise natürlich auch nicht die selbe Bandbreite wie bei der 285.
Das grösste Problem der 295 wird wie bei der 9800GX2 sein, zu wenig Speicher Menge für die Rohpower die sie eigentlich hätte...
Nicht ganz 900MB für 2x240SP ist nicht gerade viel, erst recht bei NV...
aylano
2008-12-11, 14:38:37
Falls jemand tatsaechlich so bloed war und die DFM Geschichte stimmt, dann kann man ueberhaupt froh sein dass man "nur" 3 respins brauchte.
Darf ich fragen, was die DFM-Geschichte ist/wäre?
Angesichts der Die-Größe ist der Stromverbrauch schon beachtlich.
Stimmt.
Aber Nvidia machte das auch nur, weil sie mit den Stromverbrauch runter mussten, damit die GX2 machbar wurde.
AMD wird aber erheblich mehr Strom fressen und das bei geringerer Performance!
Saubere Leistung von Nvidia! ...
ATI hat ein gutes Konzept gemacht und die erste Priorität war nicht die beste Effizienz zu haben (siehe 4850 (100Watt) ---> 4870 (150Watt)-Stromverbrauch)
Performance-GPU
4850 ... 100 Watt - Single-Slot & Passiv Möglich
4870 ... 150 Watt - Dual-Core & Übertaktungsspielraum
4870 X2 .... 300 Watt - "High-End"
Draufhin war die GPU ausgelegt und konnte schnell & Billig umgesetzt werden.
Nvidia hatte nicht so ein Konzept und musste jetzt per 55nm-GT200 monatelang auf das ATI-Konzept hinarbeiten a la Verbrauch auf etwa 150+, damit GX2 mit vielleicht etwas niederer Volt dann mit unter 300 Watt ausgeht.
Klar hört sich die GT200-55nm nicht schlecht, aber man muss auch berücksichtigen, was danach kommt siehe 9800GTX+, welche Stromsparender & scheller war als der Vorgänger, aber trotzdem für High-Endler uninteressant, weil der GTX280 schon längst da war;-)
(Ein extremes Beispiel, was sich nicht mehr so oft wiederholen wird.)
Kann man also festhalten, dass die GTX 285 40 Prozent (http://www.hardware-infos.com/news.php?news=2578) effizienter rechnet als die GTX 280?
Ronny G.
2008-12-11, 15:51:00
Kann man also festhalten, dass die GTX 285 40 Prozent (http://www.hardware-infos.com/news.php?news=2578) effizienter rechnet als die GTX 280?
in bezug auf den Stromverbrauch sollte es wohl so in etwa so sein.
Spasstiger
2008-12-11, 15:55:49
Der reine Chip sollte noch ein paar Ecken energieeffizienter geworden sein als 40%.
Die TDP bezieht sich ja auf den Verbrauch der Gesamtkarte und z.B. der Speicher wird wohl nicht unbedingt sparsamer geworden sein.
Fetza
2008-12-11, 17:37:57
....und was wurde denn tolles im GT206 geaendert?
Die Energieeffizienz. Das war es doch, was hier die meisten über lange zeit als nicht für möglich erachtet haben, für einen einfachen die-shrink. Und wenn man mal eben den energieverbrauch um die 50 watt senken kann, klingt das demzufolge doch gerade nicht nach einem einfachen die-shrink.
GeneralHanno
2008-12-11, 19:41:20
je mehr details über den GT200b -pardon- GT206 zu tage treten, desto mehr erinnert mich die geschichte an den G70->G71 :D
wer hätte gedacht, dass die 7800GTX-512 mal in einer 7950GX2 enden könnte ;)
aber hat nvidia nicht mal in einem interview gesagt: ziel ist es erst die performencekrone mit einem riesigen, veschwenderischem, monolithisch chip zu erreichen (G70, G80, G200) um diesen dann soweit zu optimieren (G71, G92, GT206), dass er bei konstanter leistung (bzw. IMMER konstanter "shader"-anzahl)
a) einen niedrigeren verbrauch und
b) eine günstigere fertigung / bessere ausbeute und
c) höhere taktraten
den refreshship auch für performencekarten (~200€), notebooks und eine GX2 sandwich karte nutzen zu können.
AnarchX
2008-12-11, 20:46:12
Weitere Bilder der GTX 295:
http://vr-zone.com/articles/more-geforce-gtx-295-card-shots/6274.html?doc=6274
Wird wohl wie die 9800 GX2 aussehen.
KonKorT
2008-12-11, 20:50:12
Am Ende des Artikels ist jetzt auch nicht mehr die Rede von einer RV775 XT, sondern RV775 X2.
Der Codename suggeriert, dass es sich tatsächlich nur um einen taktstärkeren RV770 handelt.
---
Laut Theo Valich könnte der GT206 jetzt doch noch vor Weihnachten gelauncht werden, und zwar am 16. Dezember. Er beruft sich da jedoch auf Quellen, die ihm selbst offenbar nicht ganz geheuer sind.
Etwas suspekt ist auch, dass bei ihm nicht die Namen GTX 285 und 295 fallen - hat er die Tage nicht Expreview und VR-Zone besucht? ;)
http://theovalich.wordpress.com/2008/12/11/nvidia-to-launch-55nm-gpus-on-tuesday-december-16th/
reunion
2008-12-11, 20:59:35
Sieht aus wie 'ne 9800GX2.
Sorkalm
2008-12-11, 21:08:46
Sieht aus wie 'ne 9800GX2.
Na, dann bin ich mal auf die Lautstärke gespannt.
=Floi=
2008-12-11, 22:51:21
die lautstärke ist wieder jenseits von gut und böse. wie soll man denn sonst diese zwei karten kühlen können. Eine karte kann schon laut werden und das ganze system muß auch noch im sommer bei 30°C funktionieren...
geezer
2008-12-12, 08:58:01
Wenn ich das so lese, scheint es ja für jemanden wie mich, der sich (Super Sampling und Preis-Leistungs-Bewusstsein sei Dank) auf eine GTX 260 216 für sein neues System eingeschosssen hat, das beste zu sein, sich noch die paar Wochen zu gedulden.
Sehe ich das richtig? Scheint ja evtl. trotz des kleinen Sprunges 65 -> 55 nm ein ordentlicher Shrink geworden zu sein. Die Feiertage lassen sich bestimmt auch so füllen ...
Fetza
2008-12-12, 09:27:44
Wenn ich das so lese, scheint es ja für jemanden wie mich, der sich (Super Sampling und Preis-Leistungs-Bewusstsein sei Dank) auf eine GTX 260 216 für sein neues System eingeschosssen hat, das beste zu sein, sich noch die paar Wochen zu gedulden.
Sehe ich das richtig? Scheint ja evtl. trotz des kleinen Sprunges 65 -> 55 nm ein ordentlicher Shrink geworden zu sein. Die Feiertage lassen sich bestimmt auch so füllen ...
Jup, genauso sehe ich es auch, und werde es auch handhaben. :)
Ri*g*g*er
2008-12-12, 14:40:11
Werd wohl auch warten was da so kommen mag grrr
hätte mir gerne eine GTX 280 unter den Tannenbaum gelegt aber hinter ärger ich mich wieder das nach einem Monate ne neue Version auf den Markt gekommen ist hehe
Gruss
Ri*g*g*er
Nightspider
2008-12-12, 14:50:55
Werd wohl auch warten was da so kommen mag grrr
hätte mir gerne eine GTX 280 unter den Tannenbaum gelegt aber hinter ärger ich mich wieder das nach einem Monate ne neue Version auf den Markt gekommen ist hehe
Gruss
Ri*g*g*er
Geht mir genauso ;)
Hilft nix, wir müssen warten :)
Aber du weißt ja: Vorfreude schönste Freude ;D
mictasm
2008-12-12, 16:52:30
Oh, ich bin nicht allein... Allein allein, allein allein ... *sing*
Ich wollte mir schon zum Launch die GTX260 geholt haben, na ja, nun warte ich inzwischen noch immer, wird wohl jetzt Januar werden. Oder jetzt nun doch die GTX260 mit 1.06V...
pXe
Ronny G.
2008-12-12, 18:18:53
Ich wollte mir schon zum Launch die GTX260 geholt haben, na ja, nun warte ich inzwischen noch immer, wird wohl jetzt Januar werden. Oder jetzt nun doch die GTX260 mit 1.06V...
pXe
Und so kann man das endlos weiter betreiben, erst wird die Karte bei Relaise recht teuer sein, dann kommen wieder Spekulationen auf das es bald ne super OC-Karte mit Leiseren Kühler kommen soll, und so weiter.
Bei den Erwartungen der GTX285 bin ich nicht traurig, was macht sie soviel besser? Außer der Stromverbrauch, da bleiben doch nur noch höhere OC-Werte.
Den Refresh des G70 zum G71, "dannach" vom G80 zum G92 fand ich da wesentlich lohnenswerter, oder habe ich Pessimist wieder irgendwas entscheidentes verpasst?:wave:
edit:vielleicht lohnt es fast mehr ne GTX280 zum günstigen Kurs aus dem Abverkauf zu schießen.
Gaestle
2008-12-12, 20:12:01
Die günstige GTX280 gab's schon in Form einer GTX260-216 mit Werks-OC auf 650MHz. Liegt im Gesamtbild nur 1% hinter 'ner Standard GTX280 und hat mich 254€ gekostet. :D
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_260_Amp2_Edition/30.html
Warten ist nicht immer die beste Wahl.
AnarchX
2008-12-12, 20:34:20
Auch interessant, ein Review einer Quadro CX mit 55nm G200 und 384-Bit SI:
http://www.pcper.com/article.php?aid=649&type=expert&pid=4
VooDoo7mx
2008-12-12, 20:36:24
Wenn ich das so lese, scheint es ja für jemanden wie mich, der sich (Super Sampling und Preis-Leistungs-Bewusstsein sei Dank) auf eine GTX 260 216 für sein neues System eingeschosssen hat, das beste zu sein, sich noch die paar Wochen zu gedulden.
Sehe ich das richtig? Scheint ja evtl. trotz des kleinen Sprunges 65 -> 55 nm ein ordentlicher Shrink geworden zu sein. Die Feiertage lassen sich bestimmt auch so füllen ...
Naja ob das nun alles nur den 55nm shrink zu verdanken sind, wage ich zu bezweifeln.
55nm ist nur ein half node und die bringen kaum Ersparnis beim Stromverbrauch. Nvidia könnte auch einfach die Spannung bei den Boards gesenkt haben, eine bessere Selektion bei den Chips durchführt haben oder das Platinendesign weiter optimiert haben.
Bei der GTX 260 laufen eiegntlich alle Karten quasi auf 1,06V problemlos, aber nVidia hat 1,12V angesetzt. Das gleiche beid er GTX 280 wo Nvidia auch 1,12V statt 1,18V hätte nehmen könnne.
Wenn man jetzt eine GTX 260 haben möchte, sehe ich absolut keinen Grund zu warten. Schon bei der 9800GTX+ hat der 55nm Chip kaum Vorteile beim übertakten und absolut keine Vorteile beim Stromverbrauch gebracht.
Wer mit eienr GTX 280 liebäugelt, sollte auf die GTX285 warten. Sodenn es diese Karte überhaupt gibt und es nicht auch ein Hirngespinnst von Fudo und Co ist.
Die günstige GTX280 gab's schon in Form einer GTX260-216 mit Werks-OC auf 650MHz. Liegt im Gesamtbild nur 1% hinter 'ner Standard GTX280 und hat mich 254€ gekostet. :D
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_260_Amp2_Edition/30.html
Warten ist nicht immer die beste Wahl.
Stimmt es dass die Karte statt der 28cm nur 26.5cm lang ist? (incl Kühler).
26.5cm würden bei mir ohne Gehäusewechsel noch so gerade passen.
Hmm, ist anscheinend doch länger.
pXe
LovesuckZ
2008-12-12, 21:50:43
Bei den Erwartungen der GTX285 bin ich nicht traurig, was macht sie soviel besser? Außer der Stromverbrauch, da bleiben doch nur noch höhere OC-Werte.
Ein niedriger Stromverbrauch führt zu einer geringeren Wärmeabgabe und somit zu einer einfacheren Kühlung. Die Angabe von 189 Watt entspricht fast der von der 8800GTX und die wurde unter Last kaum wahrnehmbar gekühlt.
mictasm
2008-12-12, 21:52:21
Und ein SLI wird auch wieder einfacher zu realisieren.
Ronny G.
2008-12-12, 22:12:51
Ein niedriger Stromverbrauch führt zu einer geringeren Wärmeabgabe und somit zu einer einfacheren Kühlung. Die Angabe von 189 Watt entspricht fast der von der 8800GTX und die wurde unter Last kaum wahrnehmbar gekühlt.
das mag der richtige Weg sein, aber bringt das rein FPS-Technisch überhaupt nix, deswegen finde ich es jetzt nicht soooo Relevant wenn man es mit den jetztigen GT200Karten vergleicht. Da kommt es nachwievor zu ~90% auf das an was am ende auf dem Bildschirm landet.
KonKorT
2008-12-12, 22:59:28
Ich wollte mir schon zum Launch die GTX260 geholt haben, na ja, nun warte ich inzwischen noch immer, wird wohl jetzt Januar werden. Oder jetzt nun doch die GTX260 mit 1.06V...
pXe
Schon mal bei Edel-Grafikkarten vorbeigeschaut? GTX 260 216 mit 1,03 V.
Okay, mit 259 EUR ist sie auch noch mal etwas teurer, aber dafür auch ein echt schönes Stück Hardware, das sogar die Verbrauchswerte der neuen GTX 260 216 im 55-nm-Verfahren toppen könnte. ;)
http://www.edel-grafikkarten.de/product_info.php?info=p206_GTX-260---Green-Silent-Edition-.html
mictasm
2008-12-12, 23:20:57
edel grafikkarten, lol, sachen gibts...
Sorkalm
2008-12-12, 23:58:46
Joa, die gibts schon länger. Wers Geld hat... ;)
Die Preise der GTX260 haben ganz schön nachgelassen, ich glaube die Lagerbestände müssen für die 55nm Teile raus...
Ausser bei Amazon, da ist der Preis für die PNY um satte 30€ gestiegen ;D
Es läuft eh jede GTX 260 mit den 1,03Volt...
KonKorT
2008-12-13, 12:06:01
Nein, standardmäßig sind es im 3D-Performance-Modus 1,12 V. Bei der GTX 280 gar 1,18 V.
Neuere 260er haben mWn 1.06V als Standard eingestellt.
Nein, standardmäßig sind es im 3D-Performance-Modus 1,12 V. Bei der GTX 280 gar 1,18 V.
ändert aber an der tatsache nichts das jede 260 auch mit den 1,03Volt läuft ;)
James Ryan
2008-12-13, 13:43:57
Neuere 260er haben mWn 1.06V als Standard eingestellt.
Nein, nur manche.
Meine Gainward hatte 1,12 Volt Standard, läuft aber auch mit 1,06 Volt und OC super. ;)
MfG :cool:
mictasm
2008-12-13, 20:00:26
GeForce GTX285’s power consumption has been reduced to 183W with only 2 6-pin PEG power connectors needed.
Cool, allein damit hat sich das Warten ja gelohnt.
AnarchX
2008-12-16, 07:35:53
Heute gibt es bei Expreview und VR-Zone/IT168 allerhand Daten und Bilder zu NVs kommenden High-End-Angeboten:
http://img72.imageshack.us/img72/8347/gtx285295specsqm0.gif (http://imageshack.us)
Also 1788 GFLOPs für die GTX 295.
GTX 285:
Last week we unveiled some information about NVIDIA GeForce GTX285. As we said, GTX285 can be regarded as GTX280 Overclocking Edition based on 55nm processing.
According to exact data we got today, the core/shader/memory frequency of GTX285 is 648/1476/1242MHz respectively.
http://en.expreview.com/2008/12/16/reliable-information-shows-improved-frequency-of-nvidia-gtx285.html
+7.6% TMU/ROPs
+13.9% ALUs
+12.2% Speicher
Da dürften doch wohl teilweise mehr 10% Leistung gegenüber der GTX 280 erreicht werden, wobei wohl die meisten eher der Vergleich OC vs OC interessieren wird.
GTX 295:
http://img72.imageshack.us/img72/802/gtx29519499493lc3.jpg (http://imageshack.us)
http://img72.imageshack.us/img72/2205/gtx29549318937or6.jpg (http://imageshack.us)
http://vr-zone.com/articles/geforce-gtx-295-vs-hd-4870-x2-benchmarks/6297.html?doc=6297
Original-Quelle ist bei der GTX 295 IT168:
http://publish.it168.com/2008/1215/20081215046302.shtml
... wo es noch mehr Infos gibt:
http://img72.imageshack.us/img72/7428/1277874qo8.jpg (http://imageshack.us)
http://img72.imageshack.us/img72/539/12778639882050jy5.jpg (http://imageshack.us)
Und hier gibt es noch eine Andeutung zum Preis:
GTX 295 has very good price ... by the way!
http://www.xtremesystems.org/forums/showpost.php?p=3503098&postcount=234
reunion
2008-12-16, 08:05:45
Immerhin hat man es geschafft den Shadertakt etwas deutlicher anzuheben. Und 1242Mhz Speichertakt bei GDDR3-RAM ist ja mal ziemlich krass. Die GTX295 sollte es auch schaffen die 4870 X2 knapp zu schlagen mit den Specs, wobei die fünf Spiele ja nV zumindest ohne Cat 8.12 ziemlich entgegen kommen.
Und hier gibt es noch eine Andeutung zum Preis:
http://www.xtremesystems.org/forums/showpost.php?p=3503098&postcount=234
Na da bin ich gespannt. Ich glaube kaum das sich nV auf einen Preiskampf einlässt. Der Chip ist nach wie vor viel zu groß und das SI zu breit dafür. Aber man wird sehen.
Ne schöne lesie neue GTX260 wäre imho schon ein Angebot wenn der Preis fällt. Mit weniger als 150W TDP und nur einen 6pin Anschluss, wäre die schon reizvoll. Gerade weil der Idle-Wert bei der 2X0 Serie bisher sowieso recht gut war.
Und 1242Mhz Speichertakt bei GDDR3-RAM ist ja mal ziemlich krass.
Ich denke der läuft einfach am Limit. Da wird nich viel mit OC sein, wenn die Werte stimmen, aber der Shadertakt ist wirklich nice to have.
geezer
2008-12-16, 11:41:58
Naja ob das nun alles nur den 55nm shrink zu verdanken sind, wage ich zu bezweifeln.
55nm ist nur ein half node und die bringen kaum Ersparnis beim Stromverbrauch. Nvidia könnte auch einfach die Spannung bei den Boards gesenkt haben, eine bessere Selektion bei den Chips durchführt haben oder das Platinendesign weiter optimiert haben.
Bei der GTX 260 laufen eiegntlich alle Karten quasi auf 1,06V problemlos, aber nVidia hat 1,12V angesetzt. Das gleiche beid er GTX 280 wo Nvidia auch 1,12V statt 1,18V hätte nehmen könnne.
Wenn man jetzt eine GTX 260 haben möchte, sehe ich absolut keinen Grund zu warten. Schon bei der 9800GTX+ hat der 55nm Chip kaum Vorteile beim übertakten und absolut keine Vorteile beim Stromverbrauch gebracht.
Wer mit eienr GTX 280 liebäugelt, sollte auf die GTX285 warten. Sodenn es diese Karte überhaupt gibt und es nicht auch ein Hirngespinnst von Fudo und Co ist.
Natürlich gibt es nach andere mögliche Quellen als nur den Shrink. Alles in Allem erscheinen mir die potentiellen Verbesserungen aber als zu reizvoll, um nicht die kurze Zeit noch abzuwarten und das Ergebnis zu begutachten. Aber du hast natürlich recht, die 9800GTX+ ist da kein leuchtendes Beispiel gewesen
Ne schöne lesie neue GTX260 wäre imho schon ein Angebot wenn der Preis fällt. Mit weniger als 150W TDP und nur einen 6pin Anschluss, wäre die schon reizvoll. Gerade weil der Idle-Wert bei der 2X0 Serie bisher sowieso recht gut war.
Dito. Einfach die Hoffnung nicht aufgeben, dass Nvidia einen für die Wartezeit belohnt und sich vllt. noch ein paar Euronen sparen lassen.
AnarchX
2008-12-16, 11:52:44
Das NDA für die GTX 295 fällt wohl doch noch im Dezember:
http://www.pcgameshardware.de/?article_id=670581
Wenn sie einen der ersten echten Tests der GTX 295 lesen wollen, sollten Sie in den kommenden Tagen immer mal wieder bei PC Games Hardware vorbeischauen. Wir bereiten zurzeit ein Benchmark-Review mit mehreren aktuellen Spielen vor.
Bei Digitimes gibt es dazu verwirrende Infos zum GT300, der im Q1 09 in 55nm kommen soll:
http://www.digitimes.com/news/a20081216PD202.html
:|
Entweder hat da ein Partner G200B falsch verstanden oder es kommt doch noch eine weitere High-End-GPU, wobei das wohl kaum GT300 sein wird, den man wohl eher im Q4@40nm und mit CUDA 3.0 finden wird.
Dito. Einfach die Hoffnung nicht aufgeben, dass Nvidia einen für die Wartezeit belohnt und sich vllt. noch ein paar Euronen sparen lassen.
Die aktuellen 1.06V GTX 260 werden kein Problem haben in die 150W TDP zu fallen und mit dem Design Kit was NV freigegeben hat, werden wohl die Hersteller auch entsprechende PCB entwerfen, wie es ja auch bei der GTX+ geschehen ist, wo es nun auch viele 1x6Pin-Design gibt.
Interessant wird auch in wie weit es die Hersteller noch schaffen das PCB in der Länge zu stutzen, mit weniger als 9.5" würde man so einigen Kunden entgegenkommen.
Krass was NV aus dem G200b noch so raus gehohlt hat! Wenn sich das alles so besätigt dann Hut ab!
MuLuNGuS
2008-12-16, 12:58:59
bin ja mal gespannt ob die 285 mit einem 2x6pin anschluss daher kommt, so könnte sie doch ohne weiters meine nächste karte werden.
VooDoo7mx
2008-12-16, 13:51:25
Wenn die TDP wirklich so stimmt, wie da angegeben, dürfte die GTX 285 in etwa so viel Strom verbrauchen wie die GTX 260 mit 1,12V. Und die hat 2x6Pin.
Also wenn die GTX 285 wirklich mit so einer TDP daherkommt, verbraucht die Karte ja nur minimal mehr als eine 4870.
Nvidia dürfte dann die schnellste Single und Dual Chip Karte sogar mit der besten Performance per Watt haben.
Und ich glaub auch, dass das NDA der der GTX 295 noch im Dezember fällt. Ich erninner nur immer wieder all zu gerne an die Aussage des NV Typen vor einigen Monaten, der meinte, dass sie sich noch dieses Jahr die Performancekrone zurückholen werden.
Also wenn die GTX 285 wirklich mit so einer TDP daherkommt, verbraucht die Karte ja nur minimal mehr als eine 4870.
Sie braucht etwas weniger als ein 4870!
VooDoo7mx
2008-12-16, 14:03:18
Sie braucht etwas weniger als ein 4870!
Und das weißt du woher?
Xbitlabs sind die einzigen, die den Verbrauch direkt an der Grafikkarte messen udn da zieht eine 4870 130W und eine 1,12V GTX 260-192 136W in Volllast aus der Dose. Quelle (http://www.xbitlabs.com/articles/video/display/force3d-hd-4870_5.html#sect0)
Die angeblichen TDP der GTX 285 sind 183W also 1 W mehr als bei der realen TDP der GTX 260. Also selbst wenn diese Spekulations TDP stimmt, kann eine GTX 285 gar nicht weniger verbrauchen als eine 4870, wenn man die GTX 260 als Maßstab mit ranzieht.
Selbst wenn diese spekulierte GTX 285 TDP stimmen mag, kann bei dieser Karte der reale Verbrauch immer noch näher an der TDP liegen als bei der GTX 260/280.
Ronny G.
2008-12-16, 14:09:57
Den neuen Shadertakt der GTX285 finde ich auch super und wohl die beste Neuigkeit, der Speicher wird doch bestimmt auch nur 0,8ns sein? Demzufolge wird da OC-Technisch nicht mehr allzuviel drin sein.
Das sie so wenig Strom verbraucht ist ja sehr erfreulich, aber warum wollen jetzt so viele wegen dem 2x6 Pin Anschluss zuschlagen? Ist der 1x8er Stecker bisher so ne Schlimme Sache gewesen?
Alles in allem bin ich echt auf das OC-Verhalten der Karte gespannt, ansonsten kann jeder momentan mit seiner GTX280 die Defaultwerte der GTX285 erreichen, von daher doch irgendwie uninteressant die GTX285.
naja, es gibt GTX 280 Karten die 1400MHz Speicher Takt mit machen, von dem her geht das wohl schon OK.
Ronny G.
2008-12-16, 14:14:05
naja, es gibt GTX 280 Karten die 1400MHz Speicher Takt mit machen, von dem her geht das wohl schon OK.
also nix neues, wie ich schon sagte, sicherlich wird das Speicher OC nun im Durchschnitt höher als bei der GTX280 ausfallen.
Nvidia dürfte dann die schnellste Single und Dual Chip Karte sogar mit der besten Performance per Watt haben.
Hatte NV das nicht schon immer? Die ATi verbrauchen doch immer extrem viel Strom im Vergleich egal ob R580 vs G71 / R600 vs G80 / RV670 vs G92/G94 und jetzt halt RV770 vs G92b/G200
reunion
2008-12-16, 14:22:15
Wenn die TDP wirklich so stimmt, wie da angegeben, dürfte die GTX 285 in etwa so viel Strom verbrauchen wie die GTX 260 mit 1,12V. Und die hat 2x6Pin.
Die TDP dürfte stimmen, siehe die Quadro/Tesla-Produkte.
Nvidia dürfte dann die schnellste Single und Dual Chip Karte sogar mit der besten Performance per Watt haben.
Davon kann man ausgehen. Ist aber auch nicht wirklich eine Kunst. Ein breiterer Chip mit niedrigeren Taktraten ist nunmal energieeffizienter als ein kleinerer Chip mit höheren Taktraten. Dafür werden entweder die Margen bluten oder man muss Preis-/Leistungsmäßig zurückstecken.
Und ich glaub auch, dass das NDA der der GTX 295 noch im Dezember fällt. Ich erninner nur immer wieder all zu gerne an die Aussage des NV Typen vor einigen Monaten, der meinte, dass sie sich noch dieses Jahr die Performancekrone zurückholen werden.
Das war aber noch bevor man wusste dass das Ding drei Respins benötigt. Aber vielleicht kommt die Vorstellung ja wirklich noch Ende des Jahres.
Ist ja alles schön und gut mit dem Spekulatius aber WANN zum Henker kann ich denn jetzt eine GTX 260 in 55nm im Laden kaufen?
mictasm
2008-12-16, 14:42:40
Dass sie so wenig Strom verbraucht, ist ja sehr erfreulich, aber warum wollen jetzt so viele wegen dem 2x6 Pin Anschluss zuschlagen? Ist der 1x8er Stecker bisher so ne Schlimme Sache gewesen?
bei mir würde es ein sli ohne adapter und ohne neues netzteil ermöglichen. vielleicht bleibe ich aber auch bei einer single karte.
LeChuck
2008-12-16, 15:08:50
Was wird (zumindest in der Theorie) schneller sein?
GTX 295 im Quad-SLI oder GTX 285 im Triple-SLI?
Ronny G.
2008-12-16, 15:24:34
bei mir würde es ein sli ohne adapter und ohne neues netzteil ermöglichen. vielleicht bleibe ich aber auch bei einer single karte.
achso, das macht dann sinn, ist eine GTX295 da aber nicht sinnvoller? Oder magst du keine 448bit und nur 1,8GB Speicher:biggrin:
mictasm
2008-12-16, 16:02:11
hihi, immer diese abgespeckten Billigteile, die kommen mir nicht in den Rechner^^
KonKorT
2008-12-16, 17:10:47
Der Shadertakt der GTX 285 soll 1476 MHz betragen. Das lässt sich aber nicht mehr durch 54 dividieren.
Und die 1242 MHz für den GDDR3-Speicher klingen auch ein wenig nach GTX-260-Shadertakt. ;)
Dass Expreview gerne mal kleine Fehler unterlaufen, beweist z.B. auch die Angabe, dass die GTX 295 bei 2x 448 Bit Speicherinterface 64 ROPs haben soll.
Näheres hierzu:
http://www.hardware-infos.com/news.php?news=2588
Blaire
2008-12-16, 18:11:42
Was wird (zumindest in der Theorie) schneller sein?
GTX 295 im Quad-SLI oder GTX 285 im Triple-SLI?
Ersteres solange der VRAM nicht frühzeitig ausgeht.
Würde ich so pauschal nicht sagen, da Quad-SLI doch ziemlich güllig skaliert (d.h. noch gülliger als Triple-SLI). Hinzu kommt ein ganz fieser Inputlag (d.h. noch fieser als bei Triple-SLI) und ein ganz fieser Stromverbrauch (d.h. noch fieser als bei drei GTX 285).
MfG,
Raff
Blaire
2008-12-16, 18:36:13
Würde ich so pauschal nicht sagen, da Quad-SLI doch ziemlich güllig skaliert (d.h. noch gülliger als Triple-SLI). Hinzu kommt ein ganz fieser Inputlag (d.h. noch fieser als bei Triple-SLI) und ein ganz fieser Stromverbrauch (d.h. noch fieser als bei drei GTX 285).
Die 9800GX2 im QuadSLI ging ja auch ordentlich ab, solange da nicht der VRAM limitierte. Eventuell braucht es noch Profilanpassungen , natürlich hast du Recht mit dem Inputlag und die gefühlten FPS dürften auch ziemlich grenzwertig sein. Dennoch solte QuadSLI die Balken schon ein wenig länger machen. 10-20% schätz ich mal ;)
Slipknot79
2008-12-16, 18:57:25
Jetzt sollen erst mal Spiele rauskommen die überhaupt son System fordern :redface:
LovesuckZ
2008-12-16, 19:00:00
Jetzt sollen erst mal Spiele rauskommen die überhaupt son System fordern :redface:
Die Anforderung an ein System wird zu 90% vom User bestimmt - und nicht von den Spielen.
mictasm
2008-12-16, 20:14:41
Die Anforderung an ein System wird zu 90% vom User bestimmt - und nicht von den Spielen.
Geniale Aussage, treffend formuliert! Aber wir wissen ja, wie es Slipknot meint. Wenn es nur noch Konsolenumsetzungen geben wird, könnte das kommende SLI für mich der letzte Kauf gewesen sein.
Slipknot79
2008-12-16, 21:59:12
Geniale Aussage, treffend formuliert! Aber wir wissen ja, wie es Slipknot meint. Wenn es nur noch Konsolenumsetzungen geben wird, könnte das kommende SLI für mich der letzte Kauf gewesen sein.
Ich gehen davon aus, dass sogar mein aktuelles SLI bis zu nächsten Konsolengeneration reicht. :confused:
mictasm
2008-12-16, 22:37:06
Ich gehen davon aus, dass sogar mein aktuelles SLI bis zu nächsten Konsolengeneration reicht. :confused:
Dein aktuelles SLI ist doch auch in meiner Aussage inbegriffen, ob nun 280 oder 285 SLI, da wird es nicht viele Unterschiede in den Spielen geben.
=Floi=
2008-12-16, 22:53:17
hat hier jemand crysis vergessen? was ist mit GTA4? etc.
man kann auch die vorhandene leistung in AA und höhere auflösungen stecken. hohe fps sind oft auch ganz nett. Ich sehe da noch imemr genug bedarf an leistung. Aktuell bräuchte ich wohl min 3-5gflop um glücklich zu werden.
Slipknot79
2008-12-17, 02:11:58
GTA IV hängt sogar bei meinem System an nem CPU Limit oO
Vielleicht ist für manche User Crysis ein Argument auf Quad SLI umzusteigen, aber Crysis ist schon das Ende der Fahnenstange der fordernden PC-only Games. Ok, manche Rollenspiele und Strategiespiele werden auch PC-only sein, aber solche Spiele verlangten seltener nach High-End Shit.
Aber ich glaube, es werden immer weniger PC-only Spiele auf den Markt kommen die nach SLI oder CF schreien werden.
Das einzige was noch Spielehersteller machen können, ist, dass sie Konsolenports der Art fordernd machen (mehr Sichtweite, Schatten etc. im Vgl. zu Konsolen), dass die Leute doch noch zu neuer Hardware greifen. Wenn man sich alle 5 Jahre (wenn ne neue Konsolengeneration kommt) neue Hardware kauft, fehlt es an Geld für die Hardwareentwicklung für Konsolen. Und ich kann mir nicht vorstellen, dass die Konsolenspiele dann 120EUR kosten weil niemand mehr PC-Hardware kauft und dadurch ATI und NV Kohle entgeht.
Ich für meinen Teil setze nun ein Zeichen und verzichte auf Hardwareupdates bis zur nächsten Konsolengeneration. Hm, ich werde diese Aussage bookmarken :), mal schauen ob ich das halten kann :redface:
=Floi=
2008-12-17, 04:14:09
http://www.pcgameshardware.de/aid,648498/Test/Benchmark/Geforce_GTX_260_und_9800_GTX_Extrem-FSAA-Benchmarks_und_OC/
Es gibt noch mehr games.
Frank1974
2008-12-17, 04:40:50
http://www.pcgameshardware.de/aid,648498/Test/Benchmark/Geforce_GTX_260_und_9800_GTX_Extrem-FSAA-Benchmarks_und_OC/
Es gibt noch mehr games.
Der Anteil an Spielern die solche Einstellungen fahren, ist sehr gering, ich gehöre zwar dazu, wenn das Spiel und meine GK das mitmachen, aber ich fahre auch auf der anderen Schiene, zb. GTA4, da geht gar kein AA und es macht mir trotzdem Spaß, aber ich wünsche mir trotzdem das die das noch irgendwie hinbekommen bei GTA.
mfg
Frank
mictasm
2008-12-17, 05:09:15
GTA 4 ist in den Einstellungen, die mit dem VRAM einer 8800GTX einstellbar sind, sogar in 2560x1600 Punkten spielbar. Das CPU Limit überwiegt selbst dann noch.
Mr.Magic
2008-12-17, 05:13:38
GTA 4 ist in den Einstellungen, die mit dem VRAM einer 8800GTX einstellbar sind, sogar in 2560x1600 Punkten spielbar. Das CPU Limit überwiegt selbst dann noch.
Nicht wirklich. Ich komme nicht über 700MB Speicherlast - bei 1600x900 läuft GTA4 mit durchschnittlich 35FPS, bei 1920x1080 bleiben nur noch 25FPS.
Würde ich so pauschal nicht sagen, da Quad-SLI doch ziemlich güllig skaliert (d.h. noch gülliger als Triple-SLI). Hinzu kommt ein ganz fieser Inputlag (d.h. noch fieser als bei Triple-SLI) und ein ganz fieser Stromverbrauch (d.h. noch fieser als bei drei GTX 285).
MfG,
Raff
Würde ich so nicht sagen, Quad SLI Skaliert mit guten Profilen und natürlich genug Grafikbelastung recht gut! In Crysis waren zb. zwei 9800GX2 doch deutlich schneller als drei 8800Ultra, halt nur solange bis der Speicher ausgeht...
Fetza
2008-12-17, 12:08:06
hat hier jemand crysis vergessen? was ist mit GTA4? etc.
man kann auch die vorhandene leistung in AA und höhere auflösungen stecken. hohe fps sind oft auch ganz nett. Ich sehe da noch imemr genug bedarf an leistung. Aktuell bräuchte ich wohl min 3-5gflop um glücklich zu werden.
GTA IV hängt sogar bei meinem System an nem CPU Limit oO
Vielleicht ist für manche User Crysis ein Argument auf Quad SLI umzusteigen, aber Crysis ist schon das Ende der Fahnenstange der fordernden PC-only Games. Ok, manche Rollenspiele und Strategiespiele werden auch PC-only sein, aber solche Spiele verlangten seltener nach High-End Shit.
Aber ich glaube, es werden immer weniger PC-only Spiele auf den Markt kommen die nach SLI oder CF schreien werden.
Das einzige was noch Spielehersteller machen können, ist, dass sie Konsolenports der Art fordernd machen (mehr Sichtweite, Schatten etc. im Vgl. zu Konsolen), dass die Leute doch noch zu neuer Hardware greifen. Wenn man sich alle 5 Jahre (wenn ne neue Konsolengeneration kommt) neue Hardware kauft, fehlt es an Geld für die Hardwareentwicklung für Konsolen. Und ich kann mir nicht vorstellen, dass die Konsolenspiele dann 120EUR kosten weil niemand mehr PC-Hardware kauft und dadurch ATI und NV Kohle entgeht.
Ich für meinen Teil setze nun ein Zeichen und verzichte auf Hardwareupdates bis zur nächsten Konsolengeneration. Hm, ich werde diese Aussage bookmarken :), mal schauen ob ich das halten kann :redface:
Würde ich so nicht sagen, Quad SLI Skaliert mit guten Profilen und natürlich genug Grafikbelastung recht gut! In Crysis waren zb. zwei 9800GX2 doch deutlich schneller als drei 8800Ultra, halt nur solange bis der Speicher ausgeht...
Sollte der inputlag nicht automatisch quad-sli für shooterfreaks unbrauchbar machen? Ich könnte mir das nicht vorstellen, was helfen mir mehr frames von mr mal ganz abgesehen, bei nem fiesen inputlag?
Sollte der inputlag nicht automatisch quad-sli für shooterfreaks unbrauchbar machen? Ich könnte mir das nicht vorstellen, was helfen mir mehr frames von mr mal ganz abgesehen, bei nem fiesen inputlag?
Benchmarks und Spaß an der Freude? :D
Also einen praktischen "Spielenutzen" kann ich da beim besten Willen nicht erkennen. Das ist der größte von den Freaks tolerierte Computershit ever. Ich meine, wer gibt freiwillig einen Batzen Geld aus um am Ende im worst case schlechter dazustehen als ein "billig" davongekommener Single-GPU-User? Dazu noch die höheren Unterhaltskosten. Das ist so, als wenn man einen Rennwagen mit 2 und mehr Motoren ausrüstet und lapidar sagt: Gut, der hat jetzt mehr Leistung aber es gibt erhebliche Synchronschwierigkeiten und außerdem reagiert die Kiste stark verzögernd auf Gasbefehle. Die Kiste wäre schneller in der Schrottpresse als man gucken kann.
Ronny G.
2008-12-17, 14:22:31
Benchmarks und Spaß an der Freude? :D
Also einen praktischen "Spielenutzen" kann ich da beim besten Willen nicht erkennen. Das ist der größte von den Freaks tolerierte Computershit ever. Ich meine, wer gibt freiwillig einen Batzen Geld aus um am Ende im worst case schlechter dazustehen als ein "billig" davongekommener Single-GPU-User? Dazu noch die höheren Unterhaltskosten. Das ist so, als wenn man einen Rennwagen mit 2 und mehr Motoren ausrüstet und lapidar sagt: Gut, der hat jetzt mehr Leistung aber es gibt erhebliche Synchronschwierigkeiten und außerdem reagiert die Kiste stark verzögernd auf Gasbefehle. Die Kiste wäre schneller in der Schrottpresse als man gucken kann.
ist das was neues?
vielmehr geht es darum mehr Frames zu haben, egal um welchen Preis und mit welchen Nebenwirkungen, und das SLI oder CF nicht zu 100% Skaliert ist doch echt nix neues. Noch dazu ausgebremst von den eigenen Entwicklern, wie es bei der 9800GX2 und nun wiederholt bei der GTX295 sein wird.
Ich hatte einmal CF, nur als neugier, klar mit ner HD4870+HD4850OC nicht die beste CF-Konstelation, hat aber so oder so deutlich gemacht das es mehr Stress als Spaß am benchen brachte, in manchen fällen absolut geile Ergebniss auf dem Papier, bei anderen nicht optimierten Anwendungen machte es nur frust. Das Microruckeln erwähne ich jetzt auch nicht weiter.
Ich bevorzuge nur noch starke SingleGPUkarten.
Am ende geht es bei MGPU nur um Marketingzwecke für den Hersteller sowie für den User beim Benchen.
Fetza
2008-12-17, 14:46:51
Benchmarks und Spaß an der Freude? :D
Also einen praktischen "Spielenutzen" kann ich da beim besten Willen nicht erkennen. Das ist der größte von den Freaks tolerierte Computershit ever. Ich meine, wer gibt freiwillig einen Batzen Geld aus um am Ende im worst case schlechter dazustehen als ein "billig" davongekommener Single-GPU-User? Dazu noch die höheren Unterhaltskosten. Das ist so, als wenn man einen Rennwagen mit 2 und mehr Motoren ausrüstet und lapidar sagt: Gut, der hat jetzt mehr Leistung aber es gibt erhebliche Synchronschwierigkeiten und außerdem reagiert die Kiste stark verzögernd auf Gasbefehle. Die Kiste wäre schneller in der Schrottpresse als man gucken kann.
Das beste gast-posting, dass ich seit langer zeit lesen konnte! :D
ist das was neues?
vielmehr geht es darum mehr Frames zu haben, egal um welchen Preis und mit welchen Nebenwirkungen, und das SLI oder CF nicht zu 100% Skaliert ist doch echt nix neues. Noch dazu ausgebremst von den eigenen Entwicklern, wie es bei der 9800GX2 und nun wiederholt bei der GTX295 sein wird.
Ich hatte einmal CF, nur als neugier, klar mit ner HD4870+HD4850OC nicht die beste CF-Konstelation, hat aber so oder so deutlich gemacht das es mehr Stress als Spaß am benchen brachte, in manchen fällen absolut geile Ergebniss auf dem Papier, bei anderen nicht optimierten Anwendungen machte es nur frust. Das Microruckeln erwähne ich jetzt auch nicht weiter.
Ich bevorzuge nur noch starke SingleGPUkarten.
Am ende geht es bei MGPU nur um Marketingzwecke für den Hersteller sowie für den User beim Benchen.
Naja, der gast hat es aber nochmal schön veranschaulicht.
GTX 295 / 4870X2 Benchmarks
http://my.ocworkbench.com/bbs/showthread.php?p=441619#post441619
mapel110
2008-12-17, 16:49:58
GTX 295 / 4870X2 Benchmarks
http://my.ocworkbench.com/bbs/showthread.php?p=441619#post441619
Gibts für die Spiele noch kein Crossfire-Profil?! Extrem unwahrschein, das ganze.
reunion
2008-12-17, 17:10:05
Die Werte sind von einer NV-Folie AFAIK.
Spasstiger
2008-12-17, 17:10:39
Gibts für die Spiele noch kein Crossfire-Profil?! Extrem unwahrschein, das ganze.
Weshalb ist es unwahrscheinlich? Bei Dead Space schneiden die Radeons auch in anderen Benchmarks schlecht ab. Und dass die GTX 295 schneller sein wird als die HD 4870 X2 ist den Spezifikationen nach zu erwarten.
dildo4u
2008-12-17, 17:13:39
Dead Space läuft ohne AA sollte man noch dazu anmerken.
reunion
2008-12-17, 17:19:05
Weshalb ist es unwahrscheinlich? Bei Dead Space schneiden die Radeons auch in anderen Benchmarks schlecht ab. Und dass die GTX 295 schneller sein wird als die HD 4870 X2 ist den Spezifikationen nach zu erwarten.
Naja, die GTX295 ist eine GTX260 SLI mit allen 240SPs. Das sollte reichen für einen knappen Vorsprung über alle Spiele hinweg, aber mehr auch nicht. Da hier allerdings genau die fünf Spiele verwendet werden, die nV schon für den Test des 180er-Treibers marketingtechnisch zur Verfügung gestellt hat, und man nicht weiß welcher Treiber bei AMD verwendet wurde, geschweige denn welche Einstellungen gebencht wurden, liegt noch viel im argen.
dildo4u
2008-12-17, 17:20:46
Naja, die GTX295 ist eine GTX260 SLI mit allen 240SPs. Das sollte reichen für einen knappen Vorsprung über alle Spiele hinweg, aber mehr auch nicht.
Von der Shaderleistung sinds zwei GTX 280.Muss man halt abwarten ob die Bandbreite für 100% GTX 280 SLI Leistung reicht.
reunion
2008-12-17, 17:25:15
Von der Shaderleistung sinds zwei GTX 280.Muss man halt abwarten ob die Bandbreite für 100% GTX 280 SLI Leistung reicht.
Nicht ganz, da die Taktraten gleich wie bei der GTX260 sind. Zudem fehlt halt auch ein ROP-Cluster, der gerade bei 8AA nicht unwichtig ist und der VRAM von 896MB könnte in sehr hohen Auflösungen bei NV auch wieder zum Problem werden. Auch ist die Speicherbandbreite für die 80TMUs nicht gerade berauschend im Vergleich zur GTX 280, da "nur" 1Ghz GDDR3 verwendet wird neben dem 448-bit SI. Also von 280GTX SLI Leistung ist man doch ein bisschen entfernt, für die 4870 X2 sollte es allerdings reichen, da SLI hier auch Vorteile hat ggü CF.
Spasstiger
2008-12-17, 17:41:29
Grobabschätzung von mir:
GTX 260 SLI: 100%
GTX 260-216 SLI: 106%
GTX 295: 111%
GTX 280 SLI: 126%
GTX 285 SLI: 139%
Und wenn die GTX 295 auch mit den Taktraten der GTX 285 rennt (der Speicher wird das Problem sein):
GTX 295 OC1: 129%
Mit Übertaktung auf 648 MHz Chiptakt, 1476 MHz Shadertakt und 1100 MHz Speichertakt (realistischer):
GTX 295 OC2: 126%
Die HD 4870 X2 läge in diesem Ranking nach meiner Grobabschätzung bei 99%.
Kleine Übersicht:
http://img390.imageshack.us/img390/2192/attachmenthx2.th.jpg (http://img390.imageshack.us/my.php?image=attachmenthx2.jpg)
http://my.ocworkbench.com/bbs/attachment.php?attachmentid=1781&d=1229484918
Ronny G.
2008-12-17, 17:44:19
die GTX295 wird schon genau so spezifiziert sein das sie die HD4870X2 abfettet, um mehr geht es doch dabei auch garnicht, Marketing halt.
Spasstiger
2008-12-17, 17:57:12
Kleine Übersicht:
http://img390.imageshack.us/img390/2192/attachmenthx2.th.jpg (http://img390.imageshack.us/my.php?image=attachmenthx2.jpg)
http://my.ocworkbench.com/bbs/attachment.php?attachmentid=1781&d=1229484918
Da ist ein Fehler drin.
Die GTX 295 hat 2*28=56 "ROPs" und nicht 64.
Genauer gesagt: Sie kann 56 Pixel pro Takt verarbeiten.
reunion
2008-12-17, 18:13:16
Das NDA für die GTX 295 fällt wohl doch noch im Dezember:
http://www.pcgameshardware.de/?article_id=670581
Ja laut FUAD kommt sie morgen, allerdings wohl nur mit Benchs welche NV genehm sind: http://www.fudzilla.com/index.php?option=com_content&task=view&id=10983&Itemid=1
Hab ja gesagt die 295 kommt morgen, war ja auch klar sonst hätten die Testseiten noch lange keine Muster bekommen ;)
deekey777
2008-12-18, 03:03:48
GTX 295: Previews und solches Zeug (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=441300)
geezer
2008-12-18, 10:08:30
55nm GeForce GTX 260 stays GTX 260
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10959&Itemid=1
Warum sind denn das "great news", wenn die 55nm-Ausführung zum gleichen Preis verkauft werden soll, wenn doch ganz offensichtlich niedrigere Fertigungskosten zu erwarten sind?
Klar will man bis zum Abverkauf der 65nm-Bestände eine Art Mischkalkulation fahren und noch ein bisschen was abschöpfen. Aber "great news" für den Kunden sind das wohl kaum ...
crux2005
2008-12-18, 10:11:34
und ich habe an dem Tag ne Prüfung ;D geiles Datum
wieso habe ich nur gedacht, das es der 18. wird? :frown:
ach, hätte lieber was im Lotto gewonnen ;)
aber die GTX 295 ist eh nix für mich, leider zu laut etc...
Warum sind denn das "great news", wenn die 55nm-Ausführung zum gleichen Preis verkauft werden soll, wenn doch ganz offensichtlich niedrigere Fertigungskosten zu erwarten sind?
Alle Käufer der GTX260-216 werden sich jetzt freuen :)
geezer
2008-12-18, 10:49:04
Alle Käufer der GTX260-216 werden sich jetzt freuen :)
Ah ja ...
Weil sie alle zu den Neidern zählen, die Nachzüglern keine besseren Hardwarepreise gönnen, oder was?
Spasstiger
2008-12-18, 13:34:12
Ich nehme mal schwer an, dass die GTX 260 55 nm eine niedrigere TDP haben oder zumindest sparsamer sein wird. Die rund 40% schnellere GTX 285 hat immerhin auch nur eine TDP von 183 Watt, was ungefähr der GTX 260 65 nm entspricht (182 Watt). Auch die GTX 295, welche auch in der Single-Chip-Konfiguration 11% schneller sein sollte als die GTX 260, benötigt mit ihren zwei GPUs und PCBs nur 289 Watt. Somit sollte die GTX 260 55 nm eigentlich bei 140 Watt oder darunter liegen - vorausgesetzt, NV reduziert auch die Spannung angemessen.
Zusammen mit der altbewährten Kühllösung dürften leisere Karten rauskommen als bisher.
Zusammen mit der altbewährten Kühllösung dürften leisere Karten rauskommen als bisher.
nV erlaubt es den "Partnern" eigene PCBs und eigene Kühler für die 260 zu verwenden. Da wird auch ne Menge lauter Müll dabeisein. Hauptsache billig...
Fetza
2008-12-19, 14:46:50
Ah ja ...
Weil sie alle zu den Neidern zählen, die Nachzüglern keine besseren Hardwarepreise gönnen, oder was?
Wie nv letztlich auspreisen wird, liegt vor allem an ati. Und da ati fleißig druck ausübt, wird nv so oder so kontern müssen.
KonKorT
2008-12-19, 17:55:21
In Japan ist jetzt eine GTX 260 216 (GT206/55 nm) von Inno3D im Handel aufgetaucht. Mit 34.980 Yen (~ 281 Euro) aber ganz ordentlicher Preis.
Sind auch ganz nette Bilder dabei:
http://www.hardware-infos.com/news.php?news=2599 (Deutsch)
http://watch.impress.co.jp/akiba/hotline/20081220/etc_nvidia.html (Japanisch, Quelle)
AnarchX
2008-12-20, 14:17:35
Grafikkarte PCI-E 2.0 EVGA e-GeForce GTX 260 Core216 55nm Superclocked, Retail, 896MB (http://www.ditech.at/artikel/GPE809/Grafikkarte_PCI-E_2.0_EVGA_e-GeForce_GTX_260_Core216_55nm_Superclocked_Retail_896MB.html)
Wie exklusiv das Angebot so auch der Preis: 299€.:D
Eigentlich sollte mit den Sparmaßnahmen an Die und PCB eher die 200€ Marke für die GTX 260-216 möglich sein, aber das wohl erst mit genügend Angeboten.
Fetza
2008-12-20, 15:39:02
Naja, was die als "superclocked" ansehen, finde ich eher peinlich. ;) Das ist doch kein amtliches oc.... ich bin mal gespannt, wie in zwei wochen die preise aussehen.
Megamember
2008-12-20, 15:52:38
Grafikkarte PCI-E 2.0 EVGA e-GeForce GTX 260 Core216 55nm Superclocked, Retail, 896MB (http://www.ditech.at/artikel/GPE809/Grafikkarte_PCI-E_2.0_EVGA_e-GeForce_GTX_260_Core216_55nm_Superclocked_Retail_896MB.html)
Wie exklusiv das Angebot so auch der Preis: 299€.:D
Eigentlich sollte mit den Sparmaßnahmen an Die und PCB eher die 200€ Marke für die GTX 260-216 möglich sein, aber das wohl erst mit genügend Angeboten.
EVGA ist eh immer 50€ teurer als die Konkurrenz.
AnarchX
2008-12-20, 17:11:08
Hier noch eine Listung der 55nm GTX 260 von EVGA, offenbar sogar ein neuer Lüfter:
http://img72.imageshack.us/img72/9994/10009839a9374688ff1.jpg (http://imageshack.us)
http://www.zipzoomfly.com/jsp/ProductDetail.jsp?ProductCode=10009817
http://www.zipzoomfly.com/jsp/ProductDetail.jsp?ProductCode=10009839&prodlist=celebros
250€ und weniger sind wohl ein realistischerer Preis.
derguru
2008-12-20, 18:56:33
EVGA ist eh immer 50€ teurer als die Konkurrenz.
plus das es eine oc karte ist noch 30-40 euro abzug dann kommt der preis hin.:biggrin:
Grummel, am selben Tag wo meine Zotac GTX260 AMP² kam kommen die natürlich...
Nightspider
2008-12-20, 23:28:13
Grummel, am selben Tag wo meine Zotac GTX260 AMP² kam kommen die natürlich...
Selbst schuld?
KonKorT
2008-12-21, 00:48:27
Bis sie hierzulande erhältlich sind, vergeht meiner Meinung nach bestimmt noch eine Woche. Bis die Preise sich einpendelt haben IMHO mindestens zwei.
Und von Fehlkauf würde ich hier auch nicht sprechen. Okay, sie werden unter Last etwas weniger verbrauchen. Ob sie ein höheres Taktpotential haben, muss sich erst noch beweisen. Warum hat Nvidia das Chiptakt-Shadertakt-Verhältnis nicht angepasst - ausgenommen GTX 285?
Bei den jetzigen Karten, weiß man, was man hat. Als erster einen GT206 zu ordern, kann böse enden. ;)
Ri*g*g*er
2008-12-21, 00:55:44
Also ich hab mir heute doch ne XFX GTX 260 Black Edition bestellt.
Hab keine Lust mehr zu warten und für die ganzen Feiertage etc. brauch ich doch was zum spielen *G*
Ich tippe mal darauf das es mir zu lange dauert bis die Verfügbarkeit wirklich gross ist und vor allem die Preise stimmen.
Meine 8800 GT werd ich wohl auch noch gut los an einen Freund.
Ist eigentlich eine tolle und völlig ausreichende Karte allerdings bei meiner Auflösung fehlt es
an Speicher und Speicherbandbreite. Das merkt man immer mal wieder und damit ist nun hoffentlich Schluss.
Gruss
Ri*g*g*er
Nightspider
2008-12-21, 03:11:10
Ich war auch schon drauf und dran mir wenigstens über Weihnachten ne schnellere Karte zu kaufen um sie dann nach 2-3 Wochen gleich wieder für die GTX285 zu verticken. :D
Bei mir kackt die 8800gt auch bei meinem neuen 24"er ab. :rolleyes:
24er??:D
Wenn schon,dann so was hier:
http://i247.photobucket.com/albums/gg156/knakelibrak/pro-gamerin.jpg
Ansonsten kann man gleich bei nem 22er bleiben.
Nightspider
2008-12-21, 03:46:04
alt ^^
Ist es eigentlich möglich auf eine GTX285 2GB VRAM zu löten?
dildo4u
2008-12-21, 04:31:10
Klar gibt ja auch 4850 mit 2GB GDDR3.
http://www.powercolor.com/Global/products_features.asp?ProductID=4699
Das sind diese GDDR3 Chips möglich das dann aber der Speichertakt nur bei 1Ghz liegt.
Density 1G 1ns(1ghz)
http://www.samsung.com/global/business/semiconductor/productListNonflexTable.do?fmly_id=146&sht_id=1
The_Invisible
2008-12-21, 08:53:34
24er??:D
Wenn schon,dann so was hier:
http://i247.photobucket.com/albums/gg156/knakelibrak/pro-gamerin.jpg
Ansonsten kann man gleich bei nem 22er bleiben.
ja, und wahrscheinlich nur hd ready ;D
btw
die 285gtx wird wahrscheinlich auch mein. "nur" 2x 6pol lässt gutes erahnen, geringe stromaufnahme in 2d und hoffentlich mal durchgehend doppelt soviel leistung wie meine uralte 88ultra ;)
mfg
Nightspider
2008-12-21, 14:55:49
ja, und wahrscheinlich nur hd ready ;D
btw
die 285gtx wird wahrscheinlich auch mein. "nur" 2x 6pol lässt gutes erahnen, geringe stromaufnahme in 2d und hoffentlich mal durchgehend doppelt soviel leistung wie meine uralte 88ultra ;)
mfg
Und mit Wakü OC 2,6x fache Leistung einer 8800 Ultra ;)
*freu*
Fetza
2008-12-21, 18:51:09
Bis sie hierzulande erhältlich sind, vergeht meiner Meinung nach bestimmt noch eine Woche. Bis die Preise sich einpendelt haben IMHO mindestens zwei.
Und von Fehlkauf würde ich hier auch nicht sprechen. Okay, sie werden unter Last etwas weniger verbrauchen. Ob sie ein höheres Taktpotential haben, muss sich erst noch beweisen. Warum hat Nvidia das Chiptakt-Shadertakt-Verhältnis nicht angepasst - ausgenommen GTX 285?
Bei den jetzigen Karten, weiß man, was man hat. Als erster einen GT206 zu ordern, kann böse enden. ;)
Naja, aber ich denke über den stromverbrauch wurde mittlerweile schon genug gesagt, es wird weit mehr sein, als nur ein bisschen weniger. Die 285 hat mit höherem takt praktisch denselben tdp wie die alte 260.... also so langsam sollte man das nicht mehr in frage stellen.
Sascha1971
2008-12-23, 06:56:33
Ich hoffe das die 285er hat nicht so ein Kühlproblem wie sehr viele 280er :(
AnarchX
2008-12-23, 08:30:22
http://img381.imageshack.us/img381/1745/gtx285173705997378262tm4.jpg (http://imageshack.us)
http://img387.imageshack.us/img387/3120/gtx285273914717395994yv4.jpg (http://imageshack.us)
GeneralHanno
2008-12-23, 16:23:23
Ich hoffe das die 285er hat nicht so ein Kühlproblem wie sehr viele 280er :(
welches problem meinst du?
wenn nvidia den kühler nicht "downsized", dann sollten 50W weniger TDP einiges bringen ;)
dargo
2008-12-23, 17:02:54
http://img381.imageshack.us/img381/1745/gtx285173705997378262tm4.jpg (http://imageshack.us)
http://img387.imageshack.us/img387/3120/gtx285273914717395994yv4.jpg (http://imageshack.us)
Die Balkenlänge ist ja mal wieder der Hit, da werden ca. +11% an Leistung so dimensioniert als ob es +~50% wären. :D
Die Balkenlänge ist ja mal wieder der Hit, da werden ca. +11% an Leistung so dimensioniert als ob es +~50% wären. :D
Von durchgehend 2x 8800 Ultra Leistung dürfte man damit noch etwas entfernt sein.
AnarchX
2008-12-23, 17:49:13
Von durchgehend 2x 8800 Ultra Leistung dürfte man damit noch etwas entfernt sein.
Dafür wird sie aber auch nur $399 kosten, weniger als 1/4 von dem was ein 88U-SLI damals gekostet hat und besitzt nur die Leistungsaufnahme einer Ultra.
Im Endeffekt doch ein vernünftiger Fortschritt.
Sorkalm
2008-12-23, 18:15:55
Joa, andererseits auch 90 nm vs. 55 nm. Unter dem Gesichtspunkt jetzt technisch nicht so herausragend - andererseits war der G80 seiner Zeit auch voraus.
hier speku zum GT216
http://en.expreview.com/2008/12/23/specs-of-nvidia-first-40nm-gp-gt216-emerge.html
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/dezember/einige_specs_nvidias_gt216-gpu/
http://www.hardware-infos.com/news.php?news=2603
Sorkalm
2008-12-23, 19:28:26
The original text says GT216 will equip 160SP/32TMU, but considering the structure of GT200, 160SPs sounds impossible.
Hmm, aber wenn Nvidia mit GT21x umstrukturiert, was wohl zu erwarten ist, dann passt das wieder. ;)
G94 bekommt dann einen Nachfolger der eben deutlich mehr Shaderleistung bekommt. 192 Bit dürfte der Kosten geschuldet sein, bin allerdings überrascht das man wohl nicht auf GDDR5 setzt!? Mit 1,2 GHz GDDR3 kommt man allerdings auch schon recht weit.
reunion
2008-12-23, 19:37:19
Hm, dürfte wohl mit RV740 konkurrieren. Für GDDR5 kommt der Chip wohl zu früh aus Sicht von NV. AMD hat hier womöglich auch verschiedenste Vorteile, da man an der Entwicklung maßgeblich beteiligt war.
Ailuros
2008-12-23, 19:43:56
The original text says GT216 will equip 160SP/32TMU, but considering the structure of GT200, 160SPs sounds impossible.
Wieso unmoeglich? Es sind zwar nicht 160SPs auf GT216 afaik, aber wenn sie einen chip mit 5*32SP cluster bauen wuerden dann werden es auch 160SPs; nur die TMUs muessten 40 sein.
Mal wieder ein klassischer Fall von einem Deppen der ein paar Zahlen zugesteckt bekommt und sie nicht interpretieren kann. Was wohl die originale Quelle genau mit "32" meinte.....
@ail
du könntest die Infos zum GT216 ja richtig stellen ;-)
AnarchX
2008-12-23, 19:47:56
Arun geht doch von 40SP-Clustern aus.
Ailuros
2008-12-23, 19:55:29
Arun geht doch von 40SP-Clustern aus.
Kann sein; mir sind immer noch 32 bewusst.
GeneralHanno
2008-12-23, 20:50:42
da cuda eine immer größere bedeutung bekommt, verschiebt sich das ALU/TU verhältnis immer weiter in richtung ALU:
G80 mit 16 SP/Cluster -> G200 mit 24 SP/Cluster -> GT21x mit 32 oder 40 SP/Cluster
in 2009 wird nvidia wohl schrittweise auf 40nm umstellen (der GT300 kommt ja frühestens Q4/09) und zwar nach dem muster:
1 Cluster mit Octo-TMU und 3-5 Vec8-ALUs.
der high-end chip bekommt 10 Cluster, Midrange 4 und Low-End 2 ...
jedenfalls so oder so ähnlich wird's aussehen ...
gibt es eigentlich schon irgend welche aussagen oder andeutungen von nvidia bzg. GDDR5 ?
KonKorT
2008-12-23, 22:37:43
Arun geht doch von 40SP-Clustern aus.
Nein, er geht von 32 TMUs bei 160 SPs aus. Unmöglich ist das übringens nicht:
- 8 Shadercluster mit je 20 Streamprozessoren
- 4 Texturcluster
Persönlich gehe ich eher von 48 TMUs und 144 SPs aus. Das würde als RV740-Konter vollkommen genügen.
Lieber kleinen Chip und den ggf. takten anstatt wieder großen Chip mit kleinem Takt. ;)
AnarchX
2008-12-23, 22:42:55
Nein, er geht von 32 TMUs bei 160 SPs aus.
Was wiederum 4 Cluster mit je 8 TMUs(wie bei G9x/G200) und eben 40SPs wären.
Man sollte schon verstehen, was man (hier) abschreibt und in den Tech-Foren herumspamt. ;)
Sorkalm
2008-12-23, 22:45:39
Hmm, mal angenommen der GT212 kommt wirklich mit diesen Spezifikationen ... wie schnell wäre das Ding denn dann?
Die Taktraten sollten unter 40 nm ja auch endlich mal deutlich erhöht werden, also mit 700 / 1750 würde ich trotz GT2xx-Innenleben rechnen wollen. Damit sollte man doch performancemäßig G92 ablösen können...?
Die geringe Texturleistung dürfte man über die deutlich gesteigerte Shaderleistung ausgleichen können.
AnarchX
2008-12-23, 22:56:28
Ausgleichen wird man hier wohl nichts können, GT216 sofern er so aussehen wird (Arun deklariert das eindeutig als Spekulation und er lag auch schon desöfteren daneben...), wird er wohl einfach in shaderlastigeren Games besser dastehen, die man 2009 erwarten kann.
Im Endeffekt bleibt jedoch das Problem, dass er nur die halbe Tex-Leistung einer 9800 GTX+ hätte, bei den ROPs hat er auch nur 12, wobei diese durch die Maßnahmen in GT200 sicherlich effizienter arbeiten würden und somit hier wohl kein großer Unterschied besteht zu den 16 von G92.
Zudem noch 57GB/s vs 70GB/s Speicherbandbreite.
Aber als RV740 Gegner muss er wohlmöglich auch nicht mehr leisten müssen, sofern dieser nicht plötzlich mit >1GHz GDDR5 und >800MHz GPU daherkommt.:D
KonKorT
2008-12-23, 23:02:34
Was wiederum 4 Cluster mit je 8 TMUs(wie bei G9x/G200) und eben 40SPs wären.
Man sollte schon verstehen, was man (hier) abschreibt und in den Tech-Foren herumspamt. ;)
Sorry, ich hatte statt 40SPs 40TMUs gelesen.
Im Allgemein gilt aber: Ob 4 Shadercluster mit je 8 TMUs und 40 SPs oder 8 Shadercluster mit je 4 TMUs und 20 SPs, es kommt im Endeffekt dasselbe heraus, nämlich 160 SPs und 32 TMUs.
Ich halte meine Theorie, dass es pro Shadercluster 20 statt 40 Streamprozessoren sind, für die Schlüssigere. Mal schauen, ob Arun Recht behält.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.