Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK106: GTX 650 Ti, ...
Skysnake
2012-07-30, 17:39:10
Ja, nVidia wird ja allgemein hin aber atm als Effizienzwunder bezeichnet (was Sie meiner Meinung nach nicht sind). Da wäre ein 1x6Pin schon nen gutes Marketingargument gegen die HD7870 oder gar HD7950.
OC Karten können von mir aus ja auch 2x 8 Pin haben, das juckt mich nicht.
boxleitnerb
2012-07-30, 17:47:53
Scheint dir Spass zu machen, das Haar in der Suppe zu suchen...es ist doch vollkommen egal, was für Stecker drauf sind. Auf die tatsächliche Effizienz kommt es an. Hinweis: Der zusätzliche Stecker verbraucht keinen Strom :freak:
dildo4u
2012-07-30, 17:58:34
Ja, nVidia wird ja allgemein hin aber atm als Effizienzwunder bezeichnet (was Sie meiner Meinung nach nicht sind). Da wäre ein 1x6Pin schon nen gutes Marketingargument gegen die HD7870 oder gar HD7950.
OC Karten können von mir aus ja auch 2x 8 Pin haben, das juckt mich nicht.
Ich sehe mehr Spielraum für OC nich als negativ,in den ersten Test's der Nvidia Muster wird die Karte vermutlich weit unter 150W bleiben.Man spricht so den Stromsparer und den OC an.
Skysnake
2012-07-30, 18:15:58
Scheint dir Spass zu machen, das Haar in der Suppe zu suchen...es ist doch vollkommen egal, was für Stecker drauf sind. Auf die tatsächliche Effizienz kommt es an. Hinweis: Der zusätzliche Stecker verbraucht keinen Strom :freak:
ECHT? :eek: Boah du machst Sachen...
Alter Schalter, klar brauch der keinen Strom, aber mit nur einem 6 Pin-Stecker hätte man das PCB wieder kleiner machen können usw usw. Auch die Kühlung finde ich bischen groß (reine größe der Karte!).
Das ist halt nichts schnuckeliges kleines wie bei der 400er und 500er Serie. Warum muss ich daraus so ne große Karte machen? Damit man mords OC betreiben kann?
Damit die Leute eher bereit sind für den "Abfall" richtig Asche auf den Tisch zu legen?
Sorry, aber ne 60er sollte schon schön klein sein, damit so was auch in nem Midi-Tower, HTPC usw usw. gut unter kommt.
Ganz abgesehen davon ist die Karte so halt auch für den Endkunden teuerer als mit nem Spar-PCB, und bei ner 60er liegt der focus halt eigentlich zu 100% auf Perf/€. Vielleicht bringen die Custom-Designs ja dann aber auch die richtigen Sparbretter.
Hübie
2012-07-30, 18:20:34
Ich finde eine 660 non-Ti mit 1536 MB VRAM und 1152 SM auch irgendwie sinniger. So ist die Abstufung im eigenen Portfolio dezenter oder irre ich nun? Die GTX 660 Ti kommt dann mit 670 PCB und beschnittenem SI sowie niedrigeren Taktraten daher. Dann ist die Suppe doch gekocht.
Bei der non-Ti kann man ja mittels Takt skalieren. Die TDP stellt sich hier doch noch kein Bein denk ich.
just my 2 cents ;)
LG Hübie
Edit: Preislich bin ich wenig bewandert und halte mich da raus ;D Übrigens las ich schon das Kepler nach unten hin weniger Effizienz etabliert - was dran ist :uconf2:.
dildo4u
2012-07-30, 18:30:39
ECHT? :eek: Boah du machst Sachen...
Alter Schalter, klar brauch der keinen Strom, aber mit nur einem 6 Pin-Stecker hätte man das PCB wieder kleiner machen können usw usw. Auch die Kühlung finde ich bischen groß (reine größe der Karte!).
Das ist halt nichts schnuckeliges kleines wie bei der 400er und 500er Serie. Warum muss ich daraus so ne große Karte machen? Damit man mords OC betreiben kann?
Damit die Leute eher bereit sind für den "Abfall" richtig Asche auf den Tisch zu legen?
Sorry, aber ne 60er sollte schon schön klein sein, damit so was auch in nem Midi-Tower, HTPC usw usw. gut unter kommt.
Das 670 PCB ist wesentlich kleiner als das der 560 TI,7850,7870,es braucht nur nen Kühler der nich drüber hinaus geht. z.b http://www.arctic.ac/de/p/cooling/vga/455/.html?c=2167 13.6cm
"Das PCB an sich weist eine Länge von 17,5 cm"
http://www.abload.de/img/14sfbwo.jpg
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-670/2/
http://www.abload.de/img/201xatu.jpg
"Das Referenzdesign der GeForce GTX 560 Ti kommt mit einem 23 cm langen PCB in Schwarz daher"
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560-ti-sli/3/
boxleitnerb
2012-07-30, 18:33:41
Das weiß er natürlich. Bei Nvidia wird halt gerne gemeckert, auch wenn es noch so sehr an den Haaren herbeigezogen ist *hust*
Schau dir mal das 7850-Referenz-PCB an. Sehr schnucklig...not. Dafür aber nur ein Stecker. Ich kenne niemanden, der sich darüber aufgeregt hat.
http://www.computerbase.de/bildstrecke/39760/39/
Skysnake
2012-07-30, 18:41:33
Das 670 PCB ist wesentlich kleiner als das der 560,es braucht nur nen Kühler der nich drüber hinaus geht. z.b http://www.arctic.ac/de/p/cooling/vga/455/.html?c=2167 13.6cm
"Das PCB an sich weist eine Länge von 17,5 cm"
http://www.abload.de/img/14sfbwo.jpg
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-670/2/
http://www.abload.de/img/201xatu.jpg
Nein, der direkte Größenvergleich war mit nicht bekannt. Hätte ich jetzt nicht mit gerechnet, dass das GTX670er PCB schon kleiner ist als das der GTXx60 :ugly:
Ist das Ref-PCB der 60er so groß gewesen, oder wie kommt das?
Die 60er waren ja eigentlich schon recht schnuckelige Kärtchen.
Um so unverständlicher wie man dann bei der neuen 60er so nen riesen Kasten drauf setzen kann -.-
Warum macht man das? Kostet doch nur unnötig Material, das dann der Kunde blechen darf...
Da nen kleinen Kühler drauf vom Volumen her, und die ganzen HTPC-Leuts würden im Viereck rum springen, weils mal ne Leistungsstarke kleine Karte wieder gibt, aber so? :freak:
Hübie
2012-07-30, 18:42:22
Wenn das was videocardz.com (http://videocardz.com/33976/nvidia-geforce-gtx-660-non-ti-specification-confirmed) schreibt weitgehend stimmt wird die 660 Ti eine Eier legende Wollmilchsau - vorrausgesetzt die gibts für 300 Flocken
(+/- 10).
Leonidas
2012-07-30, 18:50:51
Für OEMs gibts die GTX 660 schon...
notebooksbilliger.de bietet lieferbaren ACER PC mit einer GTX 660 1,5GB an.
http://s14.directupload.net/images/120730/2q46qkni.jpg (http://www.directupload.net)
http://www.notebooksbilliger.de/acer+aspire+g3620+predator+intel+core+i7+3770+102888?refcampaign_id=45c48cce2e2d 7fbdea1afc51c7c6ad26
Eine "GeForce GTX 660 OEM" muß ganz gewiß nicht die gleichen Specs haben wie eine reguläre "GeForce GTX 660".
dildo4u
2012-07-30, 18:53:18
Wenn das was videocardz.com (http://videocardz.com/33976/nvidia-geforce-gtx-660-non-ti-specification-confirmed) schreibt weitgehend stimmt wird die 660 Ti eine Eier legende Wollmilchsau - vorrausgesetzt die gibts für 300 Flocken
(+/- 10).
Sieht gut aus Performacne/Pro Watt besser als Pitcairn.
Blediator16
2012-07-30, 18:56:33
Wenn das was videocardz.com (http://videocardz.com/33976/nvidia-geforce-gtx-660-non-ti-specification-confirmed) schreibt weitgehend stimmt wird die 660 Ti eine Eier legende Wollmilchsau - vorrausgesetzt die gibts für 300 Flocken
(+/- 10).
Laut Comments solls Fake sein.
Gipsel
2012-07-30, 18:57:53
Wenn das was videocardz.com (http://videocardz.com/33976/nvidia-geforce-gtx-660-non-ti-specification-confirmed) schreibt weitgehend stimmt wird die 660 Ti eine Eier legende Wollmilchsau - vorrausgesetzt die gibts für 300 Flocken
(+/- 10).
Tja, falls es stimmt. :rolleyes:
Hübie
2012-07-30, 20:17:20
Eben ;) Für mich aber eh uninteressant da <GK110 ;D
Eine "GeForce GTX 660 OEM" muß ganz gewiß nicht die gleichen Specs haben wie eine reguläre "GeForce GTX 660".
Stimmt. Wenn ich da an die grandiosen Medion 9800XL aus den R300-Zeiten denke :rolleyes:
Spasstiger
2012-07-30, 22:39:15
Stimmt. Wenn ich da an die grandiosen Medion 9800XL aus den R300-Zeiten denke :rolleyes:
Die waren knapp unter der Radeon 9800 Pro und über der Radeon 9700 Pro angesiedelt, außerdem war der Name sonst auch gar nicht belegt. War definitiv eine der besten Grafikkarten ihrer Zeit, die je in einem Aldi-PC verbaut wurde.
Undertaker
2012-07-30, 23:43:43
Wenn man alles zusammen nimmt, sieht man aber, das AMD fast 40% mehr Karten der neuen Generation abgesetzt hat als nVidia. Das ist schon krass. Die wirklich hohen Werte bei einer Karte fehlen, daher sieht nVidia auf den ersten Blick so gut aus, aber eben nur, weil es sich bei AMD eben verteilt auf die unterschiedlichen Karten. Wann hatten wir das mal, das AMD ~2/3 (~60%) der Karten abgesetzt hat? :ugly:
nVidia wirds trotzdem überleben. Man hat ja sehr teure Karten verkauft, was der Marge zugute kommen sollte. Trotzdem bleibt da ein gewisses Geschmäckle.
Wenn du über die Finanzen redest, darfst du den Mobilbereich nicht vergessen. Hier geht es um immense Stückzahlen - und auf jede 28nm AMD-Karte kommen derzeit wohl locker 4-5 GK107, wenn nicht mehr. Dieser Punkt wiegt sicherlich weitaus schwerer als ein verspäteter GK106.
M4xw0lf
2012-07-31, 18:17:32
Tweaktown leakt 3dmark11-Scores:
http://a7.sphotos.ak.fbcdn.net/hphotos-ak-ash4/s720x720/425137_10151292312144942_2118482102_n.jpg
Das spricht dann doch für mindestens 1152 Shader @256bit.
y33H@
2012-07-31, 18:19:39
https://www.facebook.com/photo.php?fbid=10151292312144942&set=a.100709854941.112819.49650744941&type=3
dildo4u
2012-07-31, 18:22:23
Wird teuer werden wenn sie im Schnitt vor der 7950 liegt.
schreiber
2012-07-31, 18:45:35
Werte sehen realistisch aus. Irgendwie ist diese Generation aber auch sehr merkwürdig. Früher waren die Abstände zwischen den Produkten größer. Jetzt sinds nur wenige Prozente. Bin gespannt, ob sich das für die GPU-Hersteller lohnt.
Blediator16
2012-07-31, 18:46:58
Wird teuer werden wenn sie im Schnitt vor der 7950 liegt.
Kommt evtl. dann allen zu gute. NV kann nicht anders und muss sie so plazieren und AMD wird seine Preise anpassen müssen, was alles dann hoffentlich billiger macht.
Gipsel
2012-07-31, 18:49:46
Werte sehen realistisch aus. Irgendwie ist diese Generation aber auch sehr merkwürdig. Früher waren die Abstände zwischen den Produkten größer. Jetzt sinds nur wenige Prozente. Bin gespannt, ob sich das für die GPU-Hersteller lohnt.
Nunja, die Werte der 660Ti passen nur zu einem weiteren GK104-Modell. Wenn nV unbedingt 3 Grafikkarten mit jeweils nur 5% Differenz rausbringen will, ist es halt so. Wirklich spannend wird es ja erst mit den GK106-Modellen. Die 660Ti-Variante mit dem GK104 zu bestreiten ist doch eine Taktik für die dummen User, die Ti und non-Ti nicht auseinanderhalten können und dann die langsameren non-Ti-Varianten kaufen. Dürfte dem wirtschaftlichen Erfolg auf jeden Fall nicht schaden.
Ronny145
2012-07-31, 18:51:09
Kaum langsamer als die 670 sieht nach 256 bit aus. Prinzipiell sehr schön, zu befürchten ist nur leider kein Mittelklassepreis. Bei dem Abstand sind vielleicht 50 USD weniger zu erwarten. Das wären bei uns mindestens 300€. Immer noch zu viel für die meisten.
boxleitnerb
2012-07-31, 19:03:11
Wenigstens sitzt GK104 damit in einem Segment, in das er eigentlich auch hingehört, nämlich ein x60-Part.
AnarchX
2012-07-31, 19:12:42
Aber ein 680-User dürfte da etwas dumm schauen, wenn er sieht wie nah eine 660Ti (OC) seiner $500 Karte kommt.
Laut den GPU-Z-Screen hat die 660Ti wohl auch den gleichen 6Gbps Speicher.
boxleitnerb
2012-07-31, 19:13:48
Wer soviel Geld für einen Midrangechip ausgibt, hat es nicht anders verdient :D
Skysnake
2012-07-31, 19:18:30
Aber ein 680-User dürfte da etwas dumm schauen, wenn er sieht wie nah eine 660Ti (OC) seiner $500 Karte kommt.
Laut den GPU-Z-Screen hat die 660Ti wohl auch den gleichen 6Gbps Speicher.
Durchaus...
Man muss aber auch sehen, dass das nur ein Benchmark ist. Zudem ein synthetischer. Kann also in Spielen auch wieder anders aussehen. In dem Ranking hängt die 7970 ja auch deutlich hinter der GTX680 zurück. In Spielen siehts auch wieder im Schnitt etwas anders aus.
Man sollte IMMER! mehrere Tests abwarten und vor allem mehrere unterschiedliche Benches. So kanns immer Cherry-picking sien...
y33H@
2012-07-31, 20:00:48
Wer soviel Geld für einen Midrangechip ausgibt, hat es nicht anders verdient.+1 :biggrin:
marc-05
2012-07-31, 20:11:09
Ja ist den heut schon .... GTX 660 TI Launch-Termin
http://www.tweaktown.com/reviews/4869/nvidia_geforce_gtx_660_ti_2gb_reference_video_card_review/index1.html
Komplettes Review von Tweaktown :confused:
Die GTX 660 TI jetzt kommst,..mit 7 SMX = 1344 915Chiptakt;24 ROPs
192Bit 2GB Speicher
http://s14.directupload.net/images/120731/43p4cmha.png (http://www.directupload.net)
AnarchX
2012-07-31, 20:17:30
Tweaktown besorgt sich in letzter Zeit die Karten aus alternativen Quellen.
Fraglich ob diese Karte aber der finalen Launch-Version entspricht.
Ronny145
2012-07-31, 20:31:55
Aha, jetzt 1344 Shader und doch nur 192 Bit. Bald haben wir alle Kombinationen durch. 1152 SPs wären logischer eigentlich, muss AnarchX hier zustimmen. Die Daten von Tweaktown sind für mich nicht gesichert.
schreiber
2012-07-31, 21:34:05
Wenig aussagekräftig. Alte Spiele ohne AA getestet und bei den paar AA-Benchmarks dann wieder die ältestens oder nvidia-stärksten Titel genommen. Da würde ich wirklich noch abwarten. Sieht mir zu schön gemalt aus.
btw
https://www.facebook.com/TweakTown?ref=stream
http://www.abload.de/img/tweaktown2gf2z.jpg
Kann mir gut vorstellen, dass TT gerne viel zu hohe Erwartungen bezüglich 660 TI sehen will.
boxleitnerb
2012-07-31, 21:45:12
50% der Titel mit AA sind Radeon-Domäne. Sehe da kein Problem.
M4xw0lf
2012-07-31, 23:13:06
1344 Shader @ 192bit sind eine seltsame, unausgewogene Mischung - da kommt in manchen Fällen fast GTX680-Performance raus, und dann wieder 7850/7870-Niveau...
olum2k
2012-07-31, 23:42:08
wow, leistung soll nur minimal langsamer als eine gtx670 sein und somit ungefähr auf hd7950 niveau.
http://www.tweaktown.com/reviews/4869/nvidia_geforce_gtx_660_ti_2gb_reference_video_card_review/index.html
dildo4u
2012-07-31, 23:47:42
Die musste man so beschränken damit sie in hohen Auflösungen mit AA,der 670 nicht gefährlich wird.Die Verfügbarkeit der Chips 1344 war schon von Anfang an gut(Wesentlich mehr 670 als 680 verfügbar) gibt kein Grund noch ne Variante zu bringen.Die Benches sind nix Besonderes wenn man die einzig sinnvollen mit AA betrachtet,MSAA killt die Karte vermutlich soll man laut Nvidia eher FXAA mit der 660 nutzen.
http://www.tweaktown.com/reviews/4869/nvidia_geforce_gtx_660_ti_2gb_reference_video_card_review/index13.html
Skysnake
2012-08-01, 01:31:26
1344 Shader @ 192bit sind eine seltsame, unausgewogene Mischung - da kommt in manchen Fällen fast GTX680-Performance raus, und dann wieder 7850/7870-Niveau...
Das ist wohl auch der Sinn dahinter.... Möglichst gutes Cherry-Picking betreiben.
Zudem wird die Karte gerade mit AA usw eingehen mit dem Speicherinterface. Total fürn Poppes so was. Man hat Leistung, wenn man Sie aber abrufen will bricht die Karte wohl ein wie Hölle.
schreiber
2012-08-01, 01:39:51
Ihr seid schon lustig. Warum soll nvidia GK104 denn unverändert für 200 € weniger auf den Markt bringen?!
Irgendwie muss man das Produkt abgrenzen. 20-30% weniger Bandbreite tun obendrein am wenigsten weh, wenn man weniger Geld für ein Produkt ausgeben will. Passt schon.
Man sollte sich eher darüber freuen, dass man fast so viel Rohperformance bekommt wie im High End.
Hübie
2012-08-01, 04:30:03
Ihr seid schon lustig. Warum soll nvidia GK104 denn unverändert für 200 € weniger auf den Markt bringen?!
Weil das die Ausbeute steigert in dem man Teildefekte Dies kastriert und verscherbelt? Nix anderes passierte mit 560/560Ti. Nvidia zahlt sicher bedeutend weniger für diese Teile.
AnarchX
2012-08-01, 08:49:56
Für die von Tweaktown spekulierten Mid $200 (also wohl ~$249) wäre das gebotene schon ziemlich nett
Aber wahrscheinlicher sind wohl eher $299 - $329.
Aber der 6Gbps Speicher scheint wohl langsam wirklich Massenware zu werden.
AnarchX
2012-08-01, 11:34:17
GK106 wohl doch mit 960SPs?
http://www.donanimhaber.com/ekran-karti/haberleri/GeForce-GTX-650-Tiin-teknik-ozellikleri-sekilleniyor.htm
Aber wohl erst im 4. Quartal.
Weil das die Ausbeute steigert in dem man Teildefekte Dies kastriert und verscherbelt? Nix anderes passierte mit 560/560Ti. Nvidia zahlt sicher bedeutend weniger für diese Teile.
Man zahlt in der Regel pro Wafer.
Ailuros
2012-08-01, 12:45:20
Man zahlt in der Regel pro Wafer.
Wie soll ich diese Vereinfachung genau verstehen? So in etwa wenn im Teufelsfall ein IHV fuer N Anzahl von wafers nur sagen wir mal 5 operative chips bekommt (Prozess-bedingtes Problem) dass dann jeglicher chip den IHV um die $1000 kostet?
Bis zu Fermi war es sowohl fuer NV als auch fuer AMD weder pro wafer noch pro operativem chip, sondern eher eine angepasste Mischung von beiden, wobei NV einen kleinen zusaetzlichen Rabatt hatte dank hoeherem Volumen.
Schaffe89
2012-08-01, 18:49:46
Woran liegt es denn dass solche Karten nicht einfach bei den Recheneinheiten beschnitten werden und das SI vollständig beibehalten wird?
So ist die Karte für mich nicht zu gebrauchen. Mit FXAA hui mit 4xAA/8xAA bricht sie ein, was man wohl in der Leistungsklasse immer hinzuschaltet.
Da hilft auch kein von Nvidia gesponserter Test mit uralt Treibern für die HD 7950, mit nvidialastigem Parcour und möglichst niedrigen Settings für solche Karten.
Wie es jemand bei CB ganz passend gesagt hat, die Karte ist außer dem Verbrauch das Gegenstück zur HD 5830.
dildo4u
2012-08-01, 18:53:10
Woran liegt es denn dass solche Karten nicht einfach bei den Recheneinheiten beschnitten werden und das SI vollständig beibehalten wird?
So ist die Karte für mich nicht zu gebrauchen. Mit FXAA hui mit 4xAA/8xAA bricht sie ein, was man wohl in der Leistungsklasse immer hinzuschaltet.
Da hilft auch kein von Nvidia gesponserter Test mit uralt Treibern für die HD 7950, mit nvidialastigem Parcour und möglichst niedrigen Settings für solche Karten.
Wie es jemand bei CB ganz passend gesagt hat, die Karte ist außer dem Verbrauch das Gegenstück zur HD 5830.
So lange man keine Preise hat ist ne Einschätzung schwer sie könnte im Schnitt vor der 7870 liegen und weniger verbauchen.
Schaffe89
2012-08-01, 18:56:41
Ich schätze die Karte bei einem ordentlichen Parcours mit aktuellen Treibern ca bis 5% vor der HD 7870 ein bei 1920x1080 4xAA.
Die TDP liegt bei 150Watt, da Nvidia -wie es in der Generation der Fall ist - die TDP gut ausreizt mit ihren Powermanagement wirds, wohl unter Last auf 130 bis 140 Watt hinauslaufen, also etwas mehr als bei ner HD 7870.
boxleitnerb
2012-08-01, 18:58:00
Man darf nicht den Fehler machen und GK104 nur Tahiti ggü. stellen. Die 680 schlägt sich mit der 7970, die 670 mit der 7950 und die 660Ti landet dann etwas darunter. Man wird sehen müssen, wo genau sich die Karte positionieren wird.
schreiber
2012-08-01, 18:59:12
Woran liegt es denn dass solche Karten nicht einfach bei den Recheneinheiten beschnitten werden und das SI vollständig beibehalten wird?
So ist die Karte für mich nicht zu gebrauchen. Mit FXAA hui mit 4xAA/8xAA bricht sie ein, was man wohl in der Leistungsklasse immer hinzuschaltet.
Da hilft auch kein von Nvidia gesponserter Test mit uralt Treibern für die HD 7950, mit nvidialastigem Parcour und möglichst niedrigen Settings für solche Karten.
Wie es jemand bei CB ganz passend gesagt hat, die Karte ist außer dem Verbrauch das Gegenstück zur HD 5830.
Kauf doch die GTX 580, wenn Bandbreite so wichtig ist....
aufkrawall
2012-08-01, 19:00:56
Vielleicht wird das Ding mit VRAM-OC ja ein Geheimtipp.
dildo4u
2012-08-01, 19:08:36
Ich schätze die Karte bei einem ordentlichen Parcours mit aktuellen Treibern ca bis 5% vor der HD 7870 ein bei 1920x1080 4xAA.
Die TDP liegt bei 150Watt, da Nvidia -wie es in der Generation der Fall ist - die TDP gut ausreizt mit ihren Powermanagement wirds, wohl unter Last auf 130 bis 140 Watt hinauslaufen, also etwas mehr als bei ner HD 7870.
Ebend stimmt der Preis wird das Ding genau so erfolgreich wie die 460/560.Das TDP erlaubt ein einfaches ersetzen dieser Karten.
Gipsel
2012-08-01, 20:19:27
Vielleicht wird das Ding mit VRAM-OC ja ein Geheimtipp.Das würde es vielleicht mit 256Bit@4,8GBps werden. ;)
So viel Luft ist bei 6GBps auch nicht mehr.
aufkrawall
2012-08-01, 20:55:11
Bei allein +550 Mhz effektivem Speichertakt (manuell sehr häufig schaffbar), bringt das bei 8xMSAA sicherlich um die 15%.
Nicht schlecht dafür, dass die GPU weiter mit Standardtakt läuft.
Reine Speku. Bei dem Bandbreitenlimit kann man aber sicherlich von der Tendenz ausgehen.
Gipsel
2012-08-01, 22:13:09
Bei allein +550 Mhz effektivem Speichertakt (manuell sehr häufig schaffbar), bringt das bei 8xMSAA sicherlich um die 15%.
Nicht schlecht dafür, dass die GPU weiter mit Standardtakt läuft.
Reine Speku. Bei dem Bandbreitenlimit kann man aber sicherlich von der Tendenz ausgehen.
6550/6004 ~= +9%
Wie willst Du da auf +15% kommen?
Saugbär
2012-08-02, 02:22:06
6550/6004 ~= +9%
Wie willst Du da auf +15% kommen?
(1502+275)*4 = 7108
7108/6008 ~= +18%
Das mit dem Umrechnen der Datenrate ist nicht ganz einfach:freak:
AnarchX
2012-08-02, 09:14:59
Bei diesen Speichertakten deutlich jenseits der 6Gbps, wäre interessant zu wissen, was da wirklich noch real herauskommt.
Die Fehlerkorrektur des GDDR5 könnte hier wohl für Überraschungen sorgen...
Skysnake
2012-08-02, 10:46:05
Nicht "könnte" sondern "wird" bitte. Schon einiges bevor der RAM keinen Mehrtakt mehr annimmt steigt die Transferrate kaum noch, weil zu viel Fehler anfallen. Der Speicher steigt ja erst aus, wenn auch die Fehlerkorrektur aussteigt...
Nakai
2012-08-02, 11:38:53
So, wie siehts nun mit GK106 aus? IMO wird GK106 stärker als erwartet, um gegen AMDs Pitcairn antreten zu können. Das wird mal interessant.
Skysnake
2012-08-02, 11:46:49
Sieht doch eher so aus als ob gar kjein GK106 mehr komm oder?
GTX660(Ti) soll ja ein GK104 werden und die GT650 soll ein GK107 werden, wenn ich es richtig im Kopf hab. Wo soll da noch ein GK106 Platz haben?
Oder meinst du dass die GTX660 ein GK106 wird und die Ti ein GK104. Das halte ich für sehr unwahrscheinlich.
Zudem wäre es dann trotzdem nur eine Karte. Das ist zu wenig meiner Meinung nach für nen eigenen Chip.
AnarchX
2012-08-02, 11:47:39
So, wie siehts nun mit GK106 aus? IMO wird GK106 stärker als erwartet, um gegen AMDs Pitcairn antreten zu können. Das wird mal interessant.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9408992#post9408992
Wohl möglich doch 5 SMX.
Damit sollte die schon lange spekulierte GTX 570 Leistung durchaus realistisch sein.
Sieht doch eher so aus als ob gar kjein GK106 mehr komm oder?
Wenn man das 150-250€ Segment erschließen will, ist ein kastrierter 300mm² GK104 doch Verschwendung, so schlecht sollten die 28nm Yields nicht sein. Das Problem ist wohl eher die Kapazität und die Waferpreise. Da braucht NV definitv noch einen ~200mm² Die.
Vielleicht verbirgt sich hinter der GTX 660 OEM schon GK106? Und Retail wird erst im Herbst beliefert?
Iruwen
2012-08-02, 11:54:53
Nicht "könnte" sondern "wird" bitte. Schon einiges bevor der RAM keinen Mehrtakt mehr annimmt steigt die Transferrate kaum noch, weil zu viel Fehler anfallen. Der Speicher steigt ja erst aus, wenn auch die Fehlerkorrektur aussteigt...
Kann man das irgendwie sinnvoll testen?
Nakai
2012-08-02, 11:55:50
Wohl möglich doch 5 SMX.
Damit sollte die schon lange spekulierte GTX 570 Leistung durchaus realistisch sein.
Darauf bezog ich mich. IMO war GK106 wirklich nur mit 4 SMX geplant. Nun gibts anscheinend 5 von denen. Da wurde wohl sehr spät eine Änderung vollzogen, was die Verzögerung erklären könnte.
AnarchX
2012-08-02, 12:11:42
Wobei das auch aus der Erfahrung mit GF106/116 stammen könnte, die auch schon Probleme damit hatten, dass die kleinen AMD Lösung nicht so stark nach unten skalieren.
Aber mit 960SPs ist die GTX 570 Spekulation deutlich realistischer.
Skysnake
2012-08-02, 12:42:05
Wobei das auch aus der Erfahrung mit GF106/116 stammen könnte, die auch schon Probleme damit hatten, dass die kleinen AMD Lösung nicht so stark nach unten skalieren.
Aber mit 960SPs ist die GTX 570 Spekulation deutlich realistischer.
HÄ? Bitte nochmal umformulieren, was ist mit AMD?
Kann man das irgendwie sinnvoll testen?
Na klar, mit jedem Bandbreitentest :ugly:
Wenn die Bandbreiten nicht linear mit dem Takt ansteigt, dann stimmt was nicht. Am einfachsten halt nen OpenCL Bandbreitentest mit pinned memory schreiben, der unterschiedliche Größen durchtestet. Dann musste halt vergleichen was bei normalen Taktraten bei rum kommt und was bei OC, und wie die Sache halt skaliert.
Ein Fehler führt ja dazu, dass die Daten einfach nochmal gelesen werden, falls die Korrektur (ist doch mit Korrektur und nicht nur mit Erkennung oder?) nicht klappt. Das reduziert dann natürlich die Bandbreite.
Gipsel
2012-08-02, 13:37:54
(1502+275)*4 = 7108
7108/6008 ~= +18%
Das mit dem Umrechnen der Datenrate ist nicht ganz einfach:freak:
Werte über 7 GBps sind aber doch relativ selten (vielleicht hilft die neue Revision der 6GBps Speicherchips, die sich offenbar auch auf der HD7970 GE findet). Die meisten Leute hängen wohl irgendwo zwischen 6,5 bis 6,8 GBps rum. Und das gilt sogar für ausgewiesene Übertakter-Karten (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/23201-test-evga-geforce-gtx-680-classified.html?start=18). HWLuxx haben da z.B selbst mit Speicherspannungsanhebung auf 1,65V nur 6,54 GBps bei der EVGA Classified hinbekommen. Und das ist beileibe kein Einzelfall, wenn Du Dich mal ein wenig umschaust.
Also, ich bleibe bei meiner Aussage: Für einen Übertaktertraum wären 256 Bit @ 4,8 GBps auf jeden Fall besser als 192 Bit @ 6 GBps ;).
Saugbär
2012-08-02, 14:27:27
Werte über 7 GBps sind aber doch relativ selten (vielleicht hilft die neue Revision der 6GBps Speicherchips, die sich offenbar auch auf der HD7970 GE findet). Die meisten Leute hängen wohl irgendwo zwischen 6,5 bis 6,8 GBps rum. Und das gilt sogar für ausgewiesene Übertakter-Karten (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/23201-test-evga-geforce-gtx-680-classified.html?start=18). HWLuxx haben da z.B selbst mit Speicherspannungsanhebung auf 1,65V nur 6,54 GBps bei der EVGA Classified hinbekommen. Und das ist beileibe kein Einzelfall, wenn Du Dich mal ein wenig umschaust.
Also, ich bleibe bei meiner Aussage: Für einen Übertaktertraum wären 256 Bit @ 4,8 GBps auf jeden Fall besser als 192 Bit @ 6 GBps ;).
Das ist richtig, das ein 256 Bit Speicherinterface die bessere Wahl ist, jedoch wäre der Unterschied zu einer GTX680 noch geringer.
Meine Karte macht jedoch ohne Murren und ohne weitere Spannungserhöhung auch 7,2 GBps mit. Ob das mit dem Wunderram zu tun hat?
Das könnte auch erklären, warum es für die Gigabyte Windforce3 GTX 670 2 verschiedene nicht kompatible Bios-Versionen ohne Changelog gibt (F12 und F4).
AnarchX
2012-08-02, 22:22:26
Split des VRAM-Benchmark: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9410184#post9410184
AnarchX
2012-08-03, 09:57:40
Erste Listungen: ASUS GTX 660 TI-DC2-2GD5 - 360-420€
http://www.advance.no/Item.aspx?id=5102407
http://www.fcomputer.dk/hardware/grafikkort/asus/gtx660-ti-dc2-2gd5-2048mb-gddr5.html
http://itera-no.webmercs.com/PartDetail.aspx?q=p:5117408;c:36132
http://www.pc21.fr/pro/carte_video_gtx660_ti-dc2-2gd5__90yv0362-m0na00___ref_gtx660ti-dc2-2gd5__331653.html
Launch ist wohl am 14.08.
Skysnake
2012-08-03, 10:51:18
Nicht wirklich der ihr Ernst oder? :ugly:
Also da muss schon nen gewaltiger Early Adopter Aufschlag drauf sein....
kruemelmonster
2012-08-03, 11:05:20
Das könnte auch erklären, warum es für die Gigabyte Windforce3 GTX 670 2 verschiedene nicht kompatible Bios-Versionen ohne Changelog gibt (F12 und F4).
http://www.gigabyte.com/WebPage/40/index.htm:
Please note:
You can only update to a VBIOS version of the same series.
If your VBIOS version is:
F1, it can only be updated with VBIOS versions F2-F9.
F10, it can only be updated with VBIOS versions F11-F19.
F20, it can only be updated with VBIOS versions F21-F29.
etc.
Nacktaufnahmen von zwei WF3 Karten mit unterschiedlichem Bios wären jetzt mal interessant um die RAM-Chips zu identifizieren.
Hübie
2012-08-03, 13:07:38
Erste Listungen: ASUS GTX 660 TI-DC2-2GD5 - 360-420€
http://www.advance.no/Item.aspx?id=5102407
http://www.fcomputer.dk/hardware/grafikkort/asus/gtx660-ti-dc2-2gd5-2048mb-gddr5.html
http://itera-no.webmercs.com/PartDetail.aspx?q=p:5117408;c:36132
http://www.pc21.fr/pro/carte_video_gtx660_ti-dc2-2gd5__90yv0362-m0na00___ref_gtx660ti-dc2-2gd5__331653.html
Launch ist wohl am 14.08.
:freak: MidRange wird Highend ;D
Hugo78
2012-08-03, 13:42:04
Zwei Wochen vor Launch sind die ersten Listungen, preislich immer jenseits von Gut und Böse.
dildo4u
2012-08-03, 16:01:10
Die Karte hat 2Gb könnte als ne Version mit 256bit Interface sein.
grobi
2012-08-03, 17:22:33
Die Karte hat 2Gb könnte als ne Version mit 256bit Interface sein.
.....oder der letzte Teil ist an einem 64Bit- Kontroller angeschlossen.
Thunder99
2012-08-03, 17:40:00
Was wahrscheinlichlicher ist, siehe GTX 550Ti
dildo4u
2012-08-03, 19:17:34
Abwarten ob sie das bei na 300€ Karte machen,könnte auch sein das die langsameren Speicher hat.
Hugo78
2012-08-03, 20:11:06
Ich finds auch nicht gut, dass man nur um eine scharfe Abgrenzung ggü. der 670 zu erreichen, bei ansonst gleichen Takt, ein 192bit SI nimmt.
Grade wenn man hier einfach auch nur günstigeren und vorallem sparsameren RAM verwenden könnte.
M4xw0lf
2012-08-04, 09:05:00
Mit den Specs und einem 256bit SI müsste Nvidia voll funktionsfähiges GTX670-Material "unter Wert" verkaufen, statt teildefekte Chips noch loswerden zu können. Wär doch bescheuert.
Hugo78
2012-08-04, 12:26:54
Ich glaub nicht das der art viele Chips auf der einen Seite zwar 1344 SPs bieten, aber dann beim SI irgendwie kaputt sind.
dildo4u
2012-08-04, 12:32:15
Mit den Specs und einem 256bit SI müsste Nvidia voll funktionsfähiges GTX670-Material "unter Wert" verkaufen, statt teildefekte Chips noch loswerden zu können. Wär doch bescheuert.
Die 256 Karten könnten teurer verkauft werden sehe da kein Problem,die Leute die ein Plan haben werden dafür was drauflegen.Ich schätze 192Bit(1,5GB)=250€,256(2GB)=300€.Die 7870 wurde zum Anfang auch für 300€ verkauft.
http://geizhals.de/?phist=751977&age=9999
Leonidas
2012-08-04, 13:50:31
Bei den kleineren Karten muß man halt immer von Herstellerseite aus sehen, daß die eine klare Abgrenzung nach oben hin bieten, um das Geschäft mit den teuren Modellen nicht zu unterminieren. Die GTX660Ti mit 192Bit ist in der Beziehung ideal getimt, weil sie gut bis 19x12 4xAA ist, darüber hinaus die Bandbreite zu knapp wird. Jeder, der wirklich loslegen will mit der Karte oder eben 25x16 nutzt, der wird doch zur GTX670 oder GTX680 gezwungen. Aus Sicht von NV perfekt gelöst.
M4xw0lf
2012-08-04, 17:23:35
Beim selben Chip auf allen drei Karten wäre alles andere auch beknackt, die Herstellungskosten sind schließlich die gleichen.
Hübie
2012-08-04, 20:13:28
Die 256 Karten könnten teurer verkauft werden sehe da kein Problem,die Leute die ein Plan haben werden dafür was drauflegen.Ich schätze 192Bit(1,5GB)=250€,256(2GB)=300€.Die 7870 wurde zum Anfang auch für 300€ verkauft.
http://geizhals.de/?phist=751977&age=9999
Der Prognose schließe ich mich an.
Beim selben Chip auf allen drei Karten wäre alles andere auch beknackt, die Herstellungskosten sind schließlich die gleichen.
Das bedeutet aber nicht das NVIDIA auch für alle drei gleich viel bezahlt ;)
Leonidas
2012-08-05, 17:58:28
Ich sehe keine GTX660Ti mit 256Bit. Das wäre nämlich exakt eine GTX670. Und eine GTX660Ti mit weniger SE und dafür 256Bit? Möglich, aber wenn dann nur so, daß sie nicht schneller ist als die reguläre GTX660Ti mit 1344SE und 192Bit. NV wird keine zwei unterschiedlich schnelle GTX660Ti herausbringen, dafür fehlt der Raum zur GTX670.
M4xw0lf
2012-08-05, 18:06:34
Die Abstufung durch weniger Shader klappt bei GTX670 vs. GTX680 ja schon nur leidlich, da gibt es genug Partnerkarten die das durch OC mehr als wettmachen.
dildo4u
2012-08-05, 18:12:59
Ich sehe keine GTX660Ti mit 256Bit. Das wäre nämlich exakt eine GTX670. Und eine GTX660Ti mit weniger SE und dafür 256Bit? Möglich, aber wenn dann nur so, daß sie nicht schneller ist als die reguläre GTX660Ti mit 1344SE und 192Bit. NV wird keine zwei unterschiedlich schnelle GTX660Ti herausbringen, dafür fehlt der Raum zur GTX670.
Die wären nicht automatisch unterschiedlich schnell,die mit 2GB bekommt einfach langsameren GDDR5 Speicher Bandbreite wird bei beiden um 140(GByte/s) liegen.Nur eine 1.5GB Version wäre imo schlecht wenn auch nur aus Marketing Sicht,irgendwei scheint V-Ram wichtig für die Vermarktung zu sein.Sonst würden die ganzen Krüppelkarten nicht massig Speicher bekommen.(z.b GT430 mit 2GB)
Marty98
2012-08-05, 22:48:50
Hier ein Review der 660 Ti:
http://www.tweaktown.com/reviews/4869/nvidia_geforce_gtx_660_ti_2gb_reference_video_card_review/index1.html
Blediator16
2012-08-06, 01:02:22
Hier ein Review der 660 Ti:
http://www.tweaktown.com/reviews/4869/nvidia_geforce_gtx_660_ti_2gb_reference_video_card_review/index1.html
Wurde schon vor einigen Seiten gepostet und für Müll befunden:biggrin:
AnarchX
2012-08-06, 08:40:26
MSI GTX 660 Ti HAWK:
http://www.techpowerup.com/170017/MSI-GTX-660-Ti-HAWK-3-way-SLI-Pictured-Tested.html
Ebenfalls 1334SPs+192-Bit, aber 3GiB Speicher und GHz-Werks-OC.
Die PNY GTX 660 Ti: VCGGTX660TXPB, findet man schon für $299 bzw. etwas weniger bei Google.
Leonidas
2012-08-06, 12:56:58
Na vielleicht wird es doch ein Preis unter 300 Euro.
G3cko
2012-08-07, 09:35:00
Der Preis wird schon unter 300€ liegen. Alles andere wäre utopisch, wenn man bedenkt, dass man ja schließlich andere Zielgruppen ansprechen möchte.
marc-05
2012-08-09, 20:39:36
GTX 660TI von Asus DC2 kostet "auf der Insel" 355 Euro
http://geizhals.de/eu/822135
Im Online Shop buyvpc.com findet man eine GTX 660 Ti ab 303 Dollar
MSI OC Version kostet da schon 342 Dollar.
http://s1.directupload.net/images/120809/vyxzi3jr.jpg (http://www.directupload.net)
dildo4u
2012-08-12, 22:11:52
GeForce GTX 660 Ti Unboxing Video, Gallery Benchmarks
http://www.overclock.net/t/1293356/vc-geforce-gtx-660-ti-unboxing-video-gallery-and-bf3-benchmark
dildo4u
2012-08-13, 11:01:34
Gigabyte GeForce GTX 660 Ti WindForce OC Edition vs 670
http://wccftech.com/gigabyte/
grobi
2012-08-13, 12:55:54
Die Karte hat für mich irgendwie einen Faden Beigeschmack. Bin froh mich diesmal doch für eine AMD- Karte entschieden zu haben.
Skysnake
2012-08-13, 13:03:32
Die rennt aber mit ordentlichem OC...
Default sind ja im Turbo nur 980MHz
dildo4u
2012-08-13, 13:33:30
Die rennt aber mit ordentlichem OC...
Default sind ja im Turbo nur 980MHz
Ja weil sie sonst's der 670 zu nahe kommt je nach Game.
Die Karte hat für mich irgendwie einen Faden Beigeschmack. Bin froh mich diesmal doch für eine AMD- Karte entschieden zu haben.
Naja imo ist die Karte besser als die letzten 460/560,da man den großen Chip bekommt.
MadManniMan
2012-08-13, 13:40:25
... der selbst der eigentliche 460/560-Nachfolger hätte sein sollen ;)
dildo4u
2012-08-13, 13:44:32
Stimmt daher muss mach kein schlechtes Gewissen wie bei der 670/680 haben.
Iruwen
2012-08-13, 13:48:35
Bisschen doof dass da nicht steht mit welchem Takt die 670 läuft.
grobi
2012-08-13, 14:33:17
Naja imo ist die Karte besser als die letzten 460/560,da man den großen Chip bekommt.
Großer Chip mit nicht optimaler Speicheranbindung dank der deaktivierten Einheiten.
MfG grobi
Blediator16
2012-08-13, 14:34:45
Großer Chip mit nicht optimaler Speicheranbindung dank der deaktivierten Einheiten.
MfG grobi
Praktisch scheiss egal, da NV die Karten scheinbar aus den Händen gerissen werden:wink:
dildo4u
2012-08-13, 14:36:06
Großer Chip mit nicht optimaler Speicheranbindung dank der deaktivierten Einheiten.
MfG grobi
Spielt offenbar keine großen Rolle die Gigabyte 660TI kommt nahe an die 670 ohne jeglichen Speicher OC.
grobi
2012-08-13, 15:11:30
Spielt offenbar keine großen Rolle die Gigabyte 660TI kommt nahe an die 670 ohne jeglichen Speicher OC.
Das wissen wir doch noch nicht genau. Der Einbruch könnte bei maximaler Speicherausnutzung auftreten. Da wurden noch keine Tests zu gemacht, lasse mich gern eines besseren belehren.
MfG grobi
Die gelbe Eule
2012-08-13, 20:12:21
Atelco hat schon einige Gigabyte zum Launch rdy, wann auch immer der sein mag.
Hübie
2012-08-14, 01:08:07
Übermorgen. An meinem Burzeltag *wink mit dem Zaunpfahl* ;D
Bis März/April hoffte ich noch auf GK110 zum Burzeltag :(
Hakim
2012-08-14, 13:23:38
Noch zwei Tage warten, ich hoffe nur das warten auf die GTX660ti hat sich gelohnt, war ein zwei mal kurz davor mir eine HD 7950 zu Bestellen. Bleibt noch die Frage ob es zum Launch direkt welche zu Bestellen gibt, und hoffentlich auch in der 3 GB Version. Über 300€ will ich auch nicht blechen.
Skysnake
2012-08-14, 13:28:45
3GB wird man wohl eher nicht sehen, und wenn dann extrem teuer. Was willst du bei so ner Karte auch mit 3GB ram? Das SI wird dadurch uach nicht breiter...
Hakim
2012-08-14, 13:33:03
Der Artikel über die komische Speicheranbindung bei 192 Bit und 2 GB VRam hat mich etwas beunruhigt, aber erst mal die Tests abwarten
Doomi
2012-08-21, 00:24:09
habt ihr das hier schon gesehen? oder bin ich mal wieder der letzte Hinterwäldler ? :)
http://www.nvidia.de/object/geforce-gtx-660-oem-de.html#pdpContent=2
Nightspider
2012-08-21, 01:12:43
habt ihr das hier schon gesehen? oder bin ich mal wieder der letzte Hinterwäldler ? :)
http://www.nvidia.de/object/geforce-gtx-660-oem-de.html#pdpContent=2
Letzteres ;)
Du bist einfach im falschen Thread.
Der Review Fred ist woanders. :wink:
Doomi
2012-08-21, 01:24:22
ich dachte das wäre eine relevante Info zur 660 non ti .. naja.. ist schon spät :)
Nightspider
2012-08-21, 01:50:05
Ach das ist ja hier der Non-TI Thread. :ugly:
Hm, keine Ahnung. War jetzt auch paar Wochen weg und hab alles nur so halb verfolgt.
Vielleicht war dein Link doch neu. :D
*duckundweg*
Blackhand
2012-08-21, 02:01:31
Das kommt mir aber auch so vor, dass der Link neu ist. Allerdings passen die dortigen Daten eher zu einem GK104 mit weiteren deaktivierten 16 TMUs und 192 SPUs, wofür auch der Zusatz OEM passend erscheint. Glaube kaum, dass der GK106 erstma für OEMs aufgelegt wird. Von daher würde ich GTX 660er, die mom in irgendwelchen Komplettrechnern auftauchen, mit Vorsicht genießen.
AnarchX
2012-08-21, 09:13:07
Die 660 OEM-Daten sind neu. Also waren die 1152SPs Karten in Asien OEM-Karten.
Wenn da kein starker Turbo anliegt, könnte wohl ein 960SPs GK106 >1GHz im Retail eine ähnliche Leistung erzeugen.
Spasstiger
2012-08-21, 11:07:32
Mit dem Power Target von 130 Watt sehe ich die GTX 660 OEM eher näher an der GTX 660 Ti als an irgendwelchen GK106-basierten Karten. Die maximale Speicherbandbreite ist auch fast dieselbe wie bei der GTX 660 Ti.
Andererseits hat NV die Taktraten und insbesondere den garantierten Boost-Takt ziemlich konservativ angesetzt.
AnarchX
2012-08-21, 11:15:15
Da gab es nochmal ein Datenupdate. Heute morgen, war der Boost noch nicht bekannt und der VRAM war noch bei 6Gbps.
Wenn die 660 OEM durchschnittlich auf 1GHz boostet und der TOP-GK106 auf 1,15GHz, dann könnte wohl ein gleiches Leistungsniveau erreicht werden, wenn auch wohl zu lasten der Pro-Watt-Leistung für GK106.
Aber erstmal müssen sich die 960SPs für GK106 bestätigen...
Hakim
2012-08-21, 13:53:30
max 130 Watt und nur ein 6er Anschluss, Preis orientiert sich hoffentlich am 7850. Wenn Sie Leitungsmäßig nahe an der Ti ist wäre es eine gute Karte
AnarchX
2012-08-21, 13:59:46
Die 660 Non-Ti ist erstmal nur eine OEM-Karte.
Für Dell ist sie wohl deutlich günstiger als eine HD 7950: http://www.computerbase.de/news/2012-08/neue-geforce-gtx-660-in-dell-rechnern-aufgetaucht/
Gipsel
2012-08-28, 10:36:04
Falls VRZone recht hat (http://vr-zone.com/articles/no-nvidia-geforce-gtx-780-before-march-2013-maxwell-only-in-2014-/17073.html), kann der Thread dicht gemacht werden. Angeblich gibt es keinen GK106 und es wird auch keinen GK116 geben. Das Lineup beschränkt sich auf GK107, GK104 und GK110. Und die ersten beiden sollen nächstes Jahr einen Refresh erhalten. Aber es ist halt Theo Valich. :rolleyes:
Skysnake
2012-08-28, 10:40:00
Naja, aber wann soll denn noch GK106 kommen?
Das wäre doch absoluter Blödsinn. Es ist doch einfach NICHTS mehr frei...
Wenn dann GK117 streichen und dafür GK106 als Refresh bringen. Alles andere ist doch fürn Arsch.
AnarchX
2012-08-28, 10:48:20
Was soll überhaupt ein GK117 sein? GF108 hat auch keinen GF11x-Refresh erfahren.
Ebenso fragwürdig ist ein GK104+25% Refresh, eher wird die GTX 680 in GTX 760 Ti umgelabelt. Darüber dürfte es 2-3 GK110-SKUs geben.
Generell gibt es bei den aktuellen GK10x GPUs wohl keinen Optimierungsbedarf, einzig Yields und Kapazität müssen steigen.
Mit der 1G 7850 ist AMD momentan gut bei 150-170€ positioniert. Sollte man dagegen eine Retail-Version der 660 OEM positionieren?
Spasstiger
2012-08-28, 10:52:42
An GK106 glaube ich langsam auch nicht mehr, eher kommt ein GK115 o.ä. für die Refreshgeneration.
GTS 650 - GK107
GTX 660 - GK104
boxleitnerb
2012-08-28, 10:59:57
Keinen Optimierungsbedarf?
Was ist, wenn AMD Perf/W mit HD8000 in jedem Bereich um mindestens 15% verbessert? Nvidia kann umlabeln, ja. Aber ich finde es doch eine fragwürdige Strategie, nichts Neues zu entwickeln und mit "altem Kram" anzukommen.
AnarchX
2012-08-28, 11:00:59
Möglicherweise sind momentan die Kapazitäten sinnvoller in GK107 (vor allem Mobile) und GK104 investiert. GK110 befindet sich vielleicht auch schon in der Massenproduktion.
Für das 4. Quartal wird von TSMC deutlich mehr 28nm Kapazität versprochen.
GTS 650 - GK107
GTX 660 - GK104
GTX 650 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9435449#post9435449).
Die GK104 GTX 660 ist momentan nur eine OEM-Version, wo man z.B. in der Vergangenheit bei 560 OEM auf GF110 gesetzt hatte. Insofern könnte Retail anders aussehen.
Keinen Optimierungsbedarf?
Was ist, wenn AMD Perf/W mit HD8000 in jedem Bereich um mindestens 15% verbessert? Nvidia kann umlabeln, ja. Aber ich finde es doch eine fragwürdige Strategie, nichts Neues zu entwickeln und mit "altem Kram" anzukommen.
Fragt sich nur ob für ~10% mehr Leistung sich ein neues Tapeout lohnt. Bei GF10x zu GF11x gab es deutlich mehr Optimierungspotential, als bei GK104, der schon das Taktpotential von 28nm sehr gut ausnutzt und auch beim IMC mit 6Gbps+ nahezu perfekt ist.
GK110 wird wohl aus Yield-Gründen teildeaktiviert werden müssen, insofern macht da ein >>300mm² GK104 Refresh imo keinen großen Sinn.
boxleitnerb
2012-08-28, 11:11:02
Da frage ich mich dann, was AMD verbessern will? Cape Verde und Pitcairn sind doch schon sehr gut. Warum lohnt sich das anscheinend dort und nicht bei Nvidia?
AnarchX
2012-08-29, 10:33:17
GK106 Anfang September?
http://image20.it168.com/201208_500x375/1173/3a068c1c61210aa8.png
http://image20.it168.com/201208_800x800/1172/70c2a3e11b011814.jpg
http://image20.it168.com/201208_800x800/1172/f63af5ba8b718741.jpg
http://vga.it168.com/a2012/0829/1390/000001390867.shtml
AnarchX
2012-08-30, 08:20:09
http://2.bp.blogspot.com/-tHoglAvjXU0/UD8CT6LzNcI/AAAAAAAACwM/Q7_Z1cTAPJ8/s1600/slajd1.png
http://www.obr-hardware.com/2012/08/geforce-gtx-660-is-coming.html
Bild des Dies:
http://www.arabpcworld.com/?p=18215
Wohl deutlich größer als ~200mm², bei B3D schätz man ~240mm².
Skysnake
2012-08-30, 08:34:06
Jetzt mal ganz im ernst, wo ist denn da bitte der Sinn, wenn GK104 schon nur 294mm² misst... Also auf die 50mm² geschissen. Die müssen ja unmengen von der einen! Karte absetzen wollen, damit sich das wirklich lohnt.
Was wollen die denn sonst auch noch für Karten bringen außer der GTX 660? ist doch schon alles von den anderen Chips abgedeckt...
Also irgendwie versteh ich nVidia echt nicht...
AnarchX
2012-08-30, 09:04:00
Sicherlich noch eine teildeaktiverte Variante oberhalb der GTX 650, die mit der 1,1GHz 7770 mit halber Die-Size konkurriert. :D
Spasstiger
2012-08-30, 09:21:33
170 Watt TDP für eine 2/3 GK104 mit 980 MHz Base Clock und 1032 MHz Boost Clock sind ein bischen arg hochgegriffen, oder? Ich hätte jetzt eher mit max. 150 Watt wie bei der GTX 660 Ti gerechnet, so dass ein 6-Pin-PCIe-Stromanschluss beim Referenzdesign reicht.
Wenn NV tatsächlich einen GK106 mit satten 240 mm² Diesize auflegt, dann deutet das auf diverse OEM-Verträge hin (Apple?), so dass die hohen Stückzahlen definitiv erreicht werden. Aufgrund der lange Verzögerung würde ich aber eher interne Abstimmungsprobleme vermuten.
AnarchX
2012-08-30, 09:25:33
Die MSI Power Edition (http://geizhals.at/de/824427)müsste eigentlich eine deutlich übertaktete Version sein.
GK106 hat es aber immerhin in der A1 Version wohl in den Markt geschafft, anders als seine Brüder.
ilPatrino
2012-08-30, 09:30:48
Jetzt mal ganz im ernst, wo ist denn da bitte der Sinn, wenn GK104 schon nur 294mm² misst... Also auf die 50mm² geschissen. Die müssen ja unmengen von der einen! Karte absetzen wollen, damit sich das wirklich lohnt.
Was wollen die denn sonst auch noch für Karten bringen außer der GTX 660? ist doch schon alles von den anderen Chips abgedeckt...
Also irgendwie versteh ich nVidia echt nicht...
vielleicht war die 660ti so nie geplant (und yield-technisch auch nicht notwendig und sinnvoll) und wurde nur auf den markt gebracht, um überhaupt irgendwas in dem leistungs- bzw. preisbereich zu haben?
das würde auch die preisgestaltung erklären (660ti = 9750)
MadManniMan
2012-08-30, 09:32:38
Ohjee, ich hatte die 660 bei maximal 100 Watt, dabei deutlich höherer Performance/Verbrauchs-Ratio erwartet.
AnarchX
2012-08-30, 09:37:03
Ohjee, ich hatte die 660 bei maximal 100 Watt, dabei deutlich höherer Performance/Verbrauchs-Ratio erwartet.
IT168 sieht die Referenz bei 140W/Single-6Pin. Insofern dürfte der Verbrauch, wie auch die Leistung irgendwo zwischen 7850 und 7870 liegen.
vielleicht war die 660ti so nie geplant (und yield-technisch auch nicht notwendig und sinnvoll) und wurde nur auf den markt gebracht, um überhaupt irgendwas in dem leistungs- bzw. preisbereich zu haben?
das würde auch die preisgestaltung erklären (660ti = 9750)
Es gab schon immer bei den ROPs/SIs deaktivierte Versionen der 300mm² GPUs. Mit der 660 Ti hat man wohl einfach etwas gewartet, um die Verkäufe von 680/670 nicht gefährden und eine ausreichende Verkaufsmenge für die erhöhte Nachfrage bei diesen Preisen zu haben.
Spasstiger
2012-08-30, 09:37:43
Ich frage mich, wie die teildeaktivierten Varianten des GK106 heißen sollen, wenn GTX 650 bereits für das GK107-Topmodell belegt ist. Die Leistungslücke zwischen der GTX 650 und der GTX 660 ist sehr groß, wenn das Diagramm stimmt:
http://www.abload.de/img/f63af5ba8b718741oyuxl.jpg
GTX 550 650 Ti mit 768 SPs und 128-Bit-SI als Lückenfüller?
AnarchX
2012-08-30, 09:39:59
GTX 650 Ti wurde schon mal vor längerem genannt. Vielleicht auch GTX 655. Oder GTX 660 SE. ;D
Gipsel
2012-08-30, 10:27:48
Bild des Dies:
http://www.arabpcworld.com/?p=18215
Wohl deutlich größer als ~200mm², bei B3D schätz man ~240mm².
Das Package könnte wegen den 192bit etwas kleiner sein als das von GK104 und dadurch die Abschätzung verfälschen. Geisterte im Frühjahr (nach dem angeblichen Tapeout) nicht schon mal die Zahl von ~210mm² oder sogar exakt 212mm² durch die Gegend (also identisch zu Pitcairn)? Das wäre auf jeden Fall sinnvoller.
AnarchX
2012-08-30, 10:35:59
Die Bauteile und die Markierungen auf dem Package, geben einen guten Anhaltspunkt, insofern sind die ~240mm² durchaus realistisch.
Hier gibt es einen skalierten Vergleich: http://videocardz.com/34621/nvidia-geforce-gtx-660s-kepler-gk106-gpu-pictured
Hübie
2012-08-30, 10:51:01
Äh. Das ist auch ne übertaktete Variante. Ich gehe auch mal eher von 150-160 Watt TDP aus.
Ailuros
2012-08-30, 12:23:53
Bei B3D schaetzte man auch vor dem GK104 launch von fruehzeitigen Bildern dass der die um die 340-350mm2 gross ist. Ergo wuerde ich jegliche bunte Bildschaetzerei nicht so leicht trauen.
Das Bild vom GK106 die verraet uebrigens den finalen tapeout da es sich um einen A1 chip handelt. 1229A1 ergo dritte Juli Woche. Hat wohl doch laenger gedauert mit dem tape out als NV selber projezierte.
Äh. Das ist auch ne übertaktete Variante. Ich gehe auch mal eher von 150-160 Watt TDP aus.
Fuer die GK106 top SKU? Wenn Du diese meinen solltest, um Himmels Willen....
boxleitnerb
2012-08-30, 12:28:44
Eher 120W schätze ich.
Ailuros
2012-08-30, 12:32:08
Das Package könnte wegen den 192bit etwas kleiner sein als das von GK104 und dadurch die Abschätzung verfälschen. Geisterte im Frühjahr (nach dem angeblichen Tapeout) nicht schon mal die Zahl von ~210mm² oder sogar exakt 212mm² durch die Gegend (also identisch zu Pitcairn)? Das wäre auf jeden Fall sinnvoller.
Welches tape out im Fruehjahr? GK106 war afaik fuer Mai/Juni geplant und wie man oben sehen kann wurde es fast Ende Juli am Ende. GK110 war Anfang Maerz mit ca. 2 Monaten Verspaetung von der originalen Projektion.
Eher 120W schätze ich.
Wen man bedenkt dass die 660 OEM (GK104) einen offiziellen TDP von 130W hat, klingt mir >150W auf jeden Fall zu viel: http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-660-oem/specifications
Uebrigens soll NV laut arabPC die 660 OEM von ihrer website entfernt haben. Ich hab wohl Halluzinationen :rolleyes:
AnarchX
2012-08-30, 12:52:07
Bei B3D schaetzte man auch vor dem GK104 launch von fruehzeitigen Bildern dass der die um die 340-350mm2 gross ist. Ergo wuerde ich jegliche bunte Bildschaetzerei nicht so leicht trauen.
Die Gegenüberstellung von Videocardz (http://videocardz.com/34621/nvidia-geforce-gtx-660s-kepler-gk106-gpu-pictured)trifft es doch sehr gut. Jedenfalls scheint man näher an 240mm² als an 200mm².
Vielleicht sind ja 4 GPCs an Board? :D
Gipsel
2012-08-30, 13:33:34
Welches tape out im Fruehjahr? GK106 war afaik fuer Mai/Juni geplant und wie man oben sehen kann wurde es fast Ende Juli am Ende.Frühjahr geht bis zum 20. Juni, der Sommer fängt am 21. Juni an. ;)
Und die Juli-Woche gibt an, wann der Chip durch's Assembly gelaufen ist (die Aufschrift wird nicht bei TSMC gemacht, sondern in der Test- und Assembly-Fab; sieht man schon daran, daß die Binning-Klasse mit aufgedruckt ist), nicht wann mit dem Wafer-Processing angefangen wurde (vermutlich mindestens 6-8 Wochen vorher). Und zum Tapeout weiß man bereits exakt, wie groß der Chip wird, selbst wenn man noch kein Silizium in den Händen hält.
Merge:
Die Bauteile und die Markierungen auf dem Package, geben einen guten Anhaltspunkt, insofern sind die ~240mm² durchaus realistisch.
Hier gibt es einen skalierten Vergleich: http://videocardz.com/34621/nvidia-geforce-gtx-660s-kepler-gk106-gpu-pictured
Da habe ich den Eindruck, als sei der GK106 etwas zu groß skaliert. Wenn ich das neu mache, komme ich eher auf ~225mm² oder sowas. Und das ganze noch mit ziemlicher Unsicherheit, wenn man ehrlich ist.
Die Gegenüberstellung von Videocardz (http://videocardz.com/34621/nvidia-geforce-gtx-660s-kepler-gk106-gpu-pictured)trifft es doch sehr gut. Jedenfalls scheint man näher an 240mm² als an 200mm².
Vielleicht sind ja 4 GPCs an Board? :D
Egal wie es am Ende ist, es macht meiner Meinung nach kaum einen Sinn, den GK106 genau gleich wie die Salvage-Modelle des GK104 auszulegen und dafür eine riesige Lücke zum GK107 zu lassen.
dildo4u
2012-08-30, 14:08:36
Die gleiche Lücke im Programm hat auch AMD schon komisch.7850 ist über 50% schneller als 7770.
Spasstiger
2012-08-30, 14:25:09
Die Lücken dienen vielleicht auch dem Abverkauf der alten Generation (z.B. Radeon HD 6850/6870, GeForce GTX 560/Ti) und dem einfacheren Platzieren der zweiten 28-nm-Familien im Leistungsgefüge (Radeon HD 8000, GeForce 700).
Gipsel
2012-08-30, 14:57:30
Die gleiche Lücke im Programm hat auch AMD schon komisch.7850 ist über 50% schneller als 7770.
Die ist ja beinahe winzig gegenüber dem GK107 Topmodell (1 Setup/Rasterizer, 2 SMx) und den in den Raum gestellten Daten des GK106 (3/4? Setup/Rasterizer, 6 SMx). Da wurde Pitcairn im Vergleich zu CapeVerde ja nur glatt verdoppelt.
Aus genau dem Grund tippte ich übrigens anfangs bei AMD auf die Konfiguration Tahiti/Pitcairn/CapeVerde mit 32/20/12 CUs (statt den nur 10, die wir jetzt bei CV sehen, aber zumindest beim Rest lag ich richtig). Aber wenn man sieht, wie schwach der GK107 ist, waren nur 10 CUs offensichtlich die bessere Entscheidung. Trotzdem würde ich nicht verstehen, daß nV die Größe der Lücke noch überbieten will.
AnarchX
2012-08-30, 15:29:46
NV hat GF106/116 lange Zeit für deutlich unter 100€ verkauft, insofern sollte bei einem reiferen 28nm Prozess ein ähnlich großer GK106 bei 100-150€ wohl möglich sein.
Und mit entsprechenden Stückzahlen der GTX 660 bzw. einer mobilen Version lohnt sich wohl die stärkere Auslegung von GK106.
Hugo78
2012-08-30, 17:08:03
GTX 650 Ti mit 768 SPs und 128-Bit-SI als Lückenfüller?
Sicher wirds vom GK106 auch solch einen Salvage geben.
Skysnake
2012-08-30, 17:50:24
Frühjahr geht bis zum 20. Juni, der Sommer fängt am 21. Juni an. ;)
Und die Juli-Woche gibt an, wann der Chip durch's Assembly gelaufen ist (die Aufschrift wird nicht bei TSMC gemacht, sondern in der Test- und Assembly-Fab; sieht man schon daran, daß die Binning-Klasse mit aufgedruckt ist), nicht wann mit dem Wafer-Processing angefangen wurde (vermutlich mindestens 6-8 Wochen vorher). Und zum Tapeout weiß man bereits exakt, wie groß der Chip wird, selbst wenn man noch kein Silizium in den Händen hält.
Ist doch eigentlich egal. Huang hat gesagt, man werde binnen 3 Monaten die komplette neue Serie bringen. Davon ist nichts eingehalten worden...
Ich finds langsam echt dreist, was sich nVidia da erlaubt...
y33H@
2012-08-30, 18:03:47
Wo hat er das gesagt? Dreist ... ihr Problem.
Um ehrlich zu sein ist's ziemlich naiv, das großspurige Wunschkonzert eines CEOs für voll zu nehmen. ;)
MfG,
Raff
Hugo78
2012-08-30, 18:54:14
Ist doch eigentlich egal. Huang hat gesagt, man werde binnen 3 Monaten die komplette neue Serie bringen. Davon ist nichts eingehalten worden...
Ich finds langsam echt dreist, was sich nVidia da erlaubt...
Süß ... :rolleyes:
Skysnake
2012-08-30, 19:25:31
Wo hat er das gesagt? Dreist ... ihr Problem.
Das hat er vor/zur Vorstellung der GTX600er Serie gesagt.
Meinte, das nVidia nicht mehr so was wie bei Fermi haben wolle, wo sich das alles total in die Länge gezogen hat, und nun schneller die komplette Produktfamilie am Markt haben will.
Drest ist es halt einfach, weil man von Huang ständig Versprechungen hört, die nicht eingehalten werden, und er scheinbar nichts, aber auch rein gar nichts aus Fermi gelernt hat.
Wenns länger dauert, dann dauerts halt länger, das nimmt einem keiner krumm, aber zumindest ich komm mir bei nVidia so langsam einfach verarscht vor...
Die machen auf AMD im CPU-Bereich, und das muss echt nicht sein...
Gipsel
2012-08-30, 19:48:30
Die machen auf AMD im CPU-Bereich, und das muss echt nicht sein...Na solange sie im Gegensatz zu AMD bei CPUs im GPU-Bereich mit 50+% Marktanteil rumgurken, spüren sie das halt nicht wirklich. ;)
Skysnake
2012-08-30, 20:13:07
Es ist aber verdammt ärgerlich, und muss doch echt nicht sein...
Ailuros
2012-08-31, 01:58:34
Es ist aber verdammt ärgerlich, und muss doch echt nicht sein...
Na mag sein dass in Deiner Branche stets und immer alles nach Plan laeuft, nur glauben werde ich es trotzdem nicht.
Scheiss drauf NV braucht keine foundries und TSMC hat generell fuer das 28nm Schlammassel keine einzigen Fetzen an Verantwortung. IHVs haben generell viel versprochen fuer diese Generation aber eingehalten wurde wohl nicht alles. Nach AMD haette es ihre 28nm GPUs schon innerhalb 2011 auf Regalen gegeben als ein Beispiel oder New Zealand (7990) haette schon vor Monaten erscheinen sollen oder die FirePROs kamen zu spaet mit wackligen Treiber etc etc.
Ich finds langsam echt dreisst, was sich AMD da erlaubt.
Es ist aber verdammt ärgerlich, und muss doch echt nicht sein...
Klingt's bekannt? :biggrin: :rolleyes:
Skysnake
2012-08-31, 08:27:14
Da haste auch absolut recht, AMD bezieht auch haue für den Mist, den Sie mit der 7990 abgezogen haben. Das Ding können Sie gleich behalten. Und bei den FirePros haben Sie keinen Termin so wirklich genannt, mir ist zumindest keiner bekannt. Trotzdem werden Sie dafür kritisiert, und das zu Recht!
Hier gehts aber um ne Mittelklasse Karte, nen Verkaufsschlager, ne Karte auf die viele Leute warten, ob mit der GTX660Ti jetzt vielleicht nicht mehr, aber es haben viele Leute darauf gewartetn, die ihre GTX460 oder so ersetzen wollten. Da ist so ne Aussage halt echt naja... Vor allem, als die GTX680 raus kam, hätte man doch schon absehen können sollen/müssen, dass das nichts wird, vor allem wenn das Ding jetzt in A1 raus kommt.
Das ist es ja insbesondere, was mich noch dabei aufregt.
Klar kann man immer wieder Probleme haben, seh ich doch auch jeden Tag, und da gibts teils auch deadlines. Aber dann wird halt nochmal rein geknallt um es doch zu schaffen.
Aber nicht solche Anküngigungen von nem CEO, wo man jetzt im Nachhinein anzweifeln darf, ob die Projektion schon damals nicht völlig unrealistisch war. Ist ja schön, was er alles will, wenn die Fertigung/Entwicklung dabei nicht mit spielt, muss man das einfach akzeptieren. Diese Reflektion scheint mir bei Huang aber einfach nicht mehr der Fall zu sein.
Ganz im Ernst?
Inzwischen denke ich bei Huang einfach nur noch "LÜGNER!" und das ist echt traurig. Damit schadet er der Firma, die in den nächsten Jahren noch genug zu tun hat, sich auf den verändernden Markt ein zu stellen.
Ich kann ihm einfach nicht mehr vertrauen, und das ist doch bei solch einer zukunftsorientierten Firma wie nVidia wirklich schlecht. Die leben ja davon, das man glaubt, Sie würden gewisse Fortschritte machen, Chipmengen liefern können usw usw.
Timbaloo
2012-08-31, 08:31:59
Das ist ja herzallerliebst. Wir werden Huang bei der nächsten Bundestagswahl böse abstrafen ;)
Hugo78
2012-08-31, 09:01:11
Wegen einem Quartal Verschiebung hätte sich selbst LZ nicht so selbstdegradiert.
Aber früher war alles eh alles besser, hatte irgendwie noch Stil oder war zumindest unterhaltsam. :usad:
y33H@
2012-08-31, 09:09:19
Inzwischen denke ich bei Huang einfach nur noch "LÜGNER!" und das ist echt traurig. Ich kann ihm einfach nicht mehr vertrauen, und das ist doch bei solch einer zukunftsorientierten Firma wie nVidia wirklich schlecht.Ihr habt Probleme ... bei großen wichtigen Firmen kommt Jensen wahrscheinlich eh selbst vorbei und sagt, wie's wirklich aussieht.
Spasstiger
2012-08-31, 09:29:15
Cray muss von NV auch ziemlich hingehalten werden, die Tesla K10 hat man bei Cray vermutlich als verspäteten Aprilscherz verstanden mit der mickrigen DP-Rechenleistung im Vergleich zur bisher verbauten Tesla X2090. Geplant war die Auslieferung von Tesla-Clustern seitens Cray bereits im Frühjahr und dazu hätte Partner Nvidia schon zur Jahreswende Chips abliefern müssen.
Den nächsten Vertragsabschluss mit Cray gibts wahrscheinlich erst nach erfolgreichen Tapeout des geplanten Chips.
Aber zurück zum Thema. Hat das Package vom GK106 eine Standardgröße oder wird das für jede GPU individuell dimensioniert? Wenn GK106 z.B. die gleichen Package-Dimensionen hat wie GF116, könnte man die Diegröße vielleicht besser abschätzen.
AnarchX
2012-08-31, 09:31:07
Wie gesagt, die Bauteile (Kondensatoren?) und diese weißen Makierungen (Punkte, Quadrate), waren auf den bisherigen NV Packages eigentlich immer gleich groß.
Und auf Basis dieser kommt auf ~240mm².
Ailuros
2012-08-31, 09:31:56
Ganz im Ernst?
Inzwischen denke ich bei Huang einfach nur noch "LÜGNER!" und das ist echt traurig. Damit schadet er der Firma, die in den nächsten Jahren noch genug zu tun hat, sich auf den verändernden Markt ein zu stellen.
Ich kann ihm einfach nicht mehr vertrauen, und das ist doch bei solch einer zukunftsorientierten Firma wie nVidia wirklich schlecht. Die leben ja davon, das man glaubt, Sie würden gewisse Fortschritte machen, Chipmengen liefern können usw usw.
Jensen plaudert eben gerne viel zu viel wenn der Tag lang ist. In dem Bereich ist er keine besondere Aussnahme wenn es zu CEOs kommt.
Sonst muss man in solchen Faellen schon definieren ob und wie viel ein jeglicher IHV an einer jeglichen Verspaetung genau verantwortlich ist und ob und zu welchem Anteil die foundry die herstellt irgendwelche Verantwortungen traegt. Im zweiten Fall liegt es eben ausserhalb der Kontrolle vom IHVs und so lange es nicht nur einen sondern mehrere IHVs betrifft (und dazu noch mit verdammt unterschiedlichen Kerngeschaeften) wuerde ich jegliche Kritik etwas vorsichtiger ueberdenken.
Nimm Qualcomm als Gegenbeispiel; unter den top10 semis weltweit und ihr Kerngeschaeft sind hauptsaechlich smartphone SoCs. Sie koennen momentan weder ihre CPUs hoch genug takten noch bekommen sie anstaendige Kapazitaeten bei TSMC fuer 28nm um ihre jegliche eigentliche Nachfrage zu decken und sahen sich vor kurzem gezwungen ihre forecasts dadurch zu reduzieren. Sie haben sogar versucht TSMC einen uebermaessig fetten Batzen an Investitions-Gelder anzubieten um irgendwelche Prioritaeten bei der Herstellung zu erreichen aber TSMC hat wohl nach neuesten Geruechten sowohl zu Qualcomm als auch zu Apple fuer das gleiche abgelehnt. Und wir reden hier nicht ueber ein paar Millionen sondern Angebote in der Milliarden Region.
Ist jegliches "Vertrauen" in Qualcomm's CEO nicht genau so "fraglich" wie im Fall von Jensen? Und schau her Qualcomm SoCs werden unter 28LP hergestellt und sind zich Male weniger kompliziert als chips in der Herstellung als jeglicher mainstream GPU chip.
Die Industrie braucht mehr foundry Kapazitaeten denn Herstellungsprozesse werden zunehmend komplizierter und problematischer. Noch schlimmer die tools kosten viel zu viel was auch seinen Anteil daran hat dass 28nm standalone GPUs immer noch viel zu ueberteuert sind.
Spasstiger
2012-08-31, 09:51:07
Wie gesagt, die Bauteile (Kondensatoren?) und diese weißen Makierungen (Punkte, Quadrate), waren auf den bisherigen NV Packages eigentlich immer gleich groß.
Und auf Basis dieser kommt auf ~240mm².
Ich hab trotzdem mal mit einem GF116-Package verglichen, das scheint exakt gleich dimensioniert zu sein wie das GK106-Package und komme über diesen Vergleich ebenfalls auf rund 240 mm². :)
http://www.abload.de/img/gk106_gf116_gk104hmqqx.jpg
GF116 hat offiziell 238 mm², liege mit meinem Vergleich also nur 1 mm² daneben. Auch wenn ich nur GK106 und GF116 vergleiche und GK104 ausblende, komme ich für GK106 auf 239-240 mm².
Leonidas
2012-08-31, 09:53:26
Inzwischen denke ich bei Huang einfach nur noch "LÜGNER!" und das ist echt traurig. Damit schadet er der Firma, die in den nächsten Jahren noch genug zu tun hat, sich auf den verändernden Markt ein zu stellen.
Ich kann ihm einfach nicht mehr vertrauen,
Was war eigentlich der Anlaß, ihm zu vertrauen?
Sagen profitorientierte Unternehmen denn generell die Wahrheit - ganz besonders dann, wenn sie für Falschmeldungen oder Lügen nicht haftbar gemacht werden können?!
Skysnake
2012-08-31, 10:49:29
Cray muss von NV auch ziemlich hingehalten werden, die Tesla K10 hat man bei Cray vermutlich als verspäteten Aprilscherz verstanden mit der mickrigen DP-Rechenleistung im Vergleich zur bisher verbauten Tesla X2090. Geplant war die Auslieferung von Tesla-Clustern seitens Cray bereits im Frühjahr und dazu hätte Partner Nvidia schon zur Jahreswende Chips abliefern müssen.
Den nächsten Vertragsabschluss mit Cray gibts wahrscheinlich erst nach erfolgreichen Tapeout des geplanten Chips.
Genau das meine ich. Man hat mit Fermi bereits einiges an Vertrauen eingebüßt, was man dann mit GF110 wieder ganz gut wett gemacht hat. Dann die Aussage von Huang, das man binnen 3 Monaten in Zukunft eine Serie komplett launchen werde, und sich das nicht mehr so lange hinaus zieht. Gerade wenn man an die ganzen Verschiebungen in den letzten 2 Jahren (bis auf GF110) denkt bei den GPUs, aber auch bei Tegra, dann hat das gut getan für das Vertrauen der Leute.
Aber zurück zum Thema. Hat das Package vom GK106 eine Standardgröße oder wird das für jede GPU individuell dimensioniert? Wenn GK106 z.B. die gleichen Package-Dimensionen hat wie GF116, könnte man die Diegröße vielleicht besser abschätzen.
Die Packages an sich sollten immer unterschiedlich sein. Ich bezweifle SEHR stark, das man da das gleiche Package verwendet. Also ich mein jetzt schon den inneren Aufbau, nicht das Äußere! Einen Platz weiter macht gerade eine Packaging-Design und der muss bei den kleinsten Änderungen das Package anpassen. Also das wird schon anders sein.
Jensen plaudert eben gerne viel zu viel wenn der Tag lang ist. In dem Bereich ist er keine besondere Aussnahme wenn es zu CEOs kommt.
Sonst muss man in solchen Faellen schon definieren ob und wie viel ein jeglicher IHV an einer jeglichen Verspaetung genau verantwortlich ist und ob und zu welchem Anteil die foundry die herstellt irgendwelche Verantwortungen traegt. Im zweiten Fall liegt es eben ausserhalb der Kontrolle vom IHVs und so lange es nicht nur einen sondern mehrere IHVs betrifft (und dazu noch mit verdammt unterschiedlichen Kerngeschaeften) wuerde ich jegliche Kritik etwas vorsichtiger ueberdenken.
Nimm Qualcomm als Gegenbeispiel; unter den top10 semis weltweit und ihr Kerngeschaeft sind hauptsaechlich smartphone SoCs. Sie koennen momentan weder ihre CPUs hoch genug takten noch bekommen sie anstaendige Kapazitaeten bei TSMC fuer 28nm um ihre jegliche eigentliche Nachfrage zu decken und sahen sich vor kurzem gezwungen ihre forecasts dadurch zu reduzieren. Sie haben sogar versucht TSMC einen uebermaessig fetten Batzen an Investitions-Gelder anzubieten um irgendwelche Prioritaeten bei der Herstellung zu erreichen aber TSMC hat wohl nach neuesten Geruechten sowohl zu Qualcomm als auch zu Apple fuer das gleiche abgelehnt. Und wir reden hier nicht ueber ein paar Millionen sondern Angebote in der Milliarden Region.
Ist jegliches "Vertrauen" in Qualcomm's CEO nicht genau so "fraglich" wie im Fall von Jensen? Und schau her Qualcomm SoCs werden unter 28LP hergestellt und sind zich Male weniger kompliziert als chips in der Herstellung als jeglicher mainstream GPU chip.
Die Industrie braucht mehr foundry Kapazitaeten denn Herstellungsprozesse werden zunehmend komplizierter und problematischer. Noch schlimmer die tools kosten viel zu viel was auch seinen Anteil daran hat dass 28nm standalone GPUs immer noch viel zu ueberteuert sind.
Das bestreitet ja auch keiner. Wenn man aber A1 Silicon verkauft, und CEO ist, dann sollte man zu dem Zeitpunkt zumindest rudimentäre Informationen darüber haben, ob das denn überhaupt realistisch ist, was ich da verspreche. Ist ja nicht so, das AMD schon mit hängen und würgen den Launch als Paperlaunch noch ins Jahr 2011 zu bekommen.
Klar haben andere im Moment auch Probleme, aber hat sich da nen CEO so provokant hingestellt? Vor allem, haben sich darauf nicht Firmen verlassen? Ist das nicht unlauterer Wettbewerb?
nVidia soll durch Leistung überzeugen und ihre Marktposition behalten, und nicht durch solche Winkelzüge, denn so was rächt sich auf lange Sicht, und nVidia bekommt von allen Seiten her druck. Das ist ja auch ok, aber dann sollte man nicht seine eh schon angeknackste Glaubwürdigkeit noch weiter ramponieren.
Was war eigentlich der Anlaß, ihm zu vertrauen?
Sagen profitorientierte Unternehmen denn generell die Wahrheit - ganz besonders dann, wenn sie für Falschmeldungen oder Lügen nicht haftbar gemacht werden können?!
Natürlich darf man nicht blind vertrauen. Die Marketing blabla Winkelzüge alla "up to" und so weiter muss man natürlich berücksichtigen, aber die ganze Branche lebt ja zu einem großen Teil vom Vertrauen in die Fähigkeiten des Partners, da man ja mit Produkten rechnet, die lange noch nicht fertig sind. Vertrauen ist daher bares Geld, und eben dieses Vertrauen verspielt Huang meiner meinung nach ohne Not leichtfertig.
Ailuros
2012-08-31, 11:38:14
Du "beschwerst" Dich lediglich ueber ein Phaenomaen das alles andere als einzigartig ist, egal welche Firma.
Wie sich Jensen verhaelt was sein Marketing-Geblubber und seine stellenweise Uebertreibungen ist auch nichts Neues. Wenn er N R&D Kosten fuer Y Projekt behauptet hat er eben die Monatsloehne der Putzfrauen auch noch mitberechnet zB. :biggrin:
Es stoert mich aber dass Du Dich ueber zich Posts weigerst auf den Faktor foundry/TSMC einzugehen in keiner Deiner Antworten. In dem Fall brauch ich keinem unkontrollierbare Faktoren fuer jegliche Projektion erlaeutern, die Mehrzahl versteht es. Du kannst noch lange auf dem Schmarren weiterreiten, aber tut mir leid in solch einem Fall beweisst es lediglich wie voreingenommen Du mit NV bist.
Es gibt eben keine Perfektion in unserer Welt und CEOs betreiben eben mehr als oefters marketing und jeglicher Piep von diesem hat mehr Gewicht als jeglichem 0815 PR Heini. Marketing darfst Du von mir aus konservativ als "Uebertreibung" beschreiben oder etwas aggressiver als "Luege", es aendert am Sinn der Sache sowieso nicht viel.
Wenn wir schon so weit OT sind: http://www.xbitlabs.com/news/graphics/display/20120827223641_Nvidia_s_GPU_Roadmap_Slips_by_One_Year_Due_to_Manufacturing_Nodes _Report.html
gee what a surprise! :rolleyes
Ronny145
2012-08-31, 11:50:51
Was war eigentlich der Anlaß, ihm zu vertrauen?
Sagen profitorientierte Unternehmen denn generell die Wahrheit - ganz besonders dann, wenn sie für Falschmeldungen oder Lügen nicht haftbar gemacht werden können?!
Lässt sich mit einem Nein beantworten. Bei AMD und Intel ist das auch nicht anders, gibt genügend Beispiele. AMD erzählt einem ständig wie gut der Prozess läuft, das es keine Verschiebungen gäbe, das sie zig Trillionen Design Wins haben. Man sieht was am Ende dabei rauskommt. Intel genauo. Der CEO trällert was von IVB Massenfertigung in Q3 2011 obwohl schon in Uraltfolien frühestens Dezember drin stand, Anfang 2012 wurde es. Das muss man immer mit einer gewissen Skepsis betrachten und nicht blind hinnehmen. Hinter den Kulissen kann das ganz anders aussehen. Die großen Partner werden sicherlich (unter NDA) genauer unterrichtet. Die sind bestimmt nicht auf öffentliche Aussagen angewiesen.
Skysnake
2012-08-31, 12:10:03
Ailuros, es ist aber ne verdammt kurzsichtige vorgehensweise einer Firma für nur ein Quartal oder vielleicht ein Jahr. Auf mittlere/lange Sicht rächt sich das, und nur weil andere nicht besser sind, wird die Sache nicht besser :ugly:
Und btw. les mal, was ich zu AMDs FirePro, HD7990 oder Intels MIC schreib. Da halte ich mich bzgl Kritik kein Stück weniger zurück. Guck mal in den MIC Thread, Intel hat da auch falsche Angaben gemacht, und das benenne ich dann auch, egal von welcher Firma. Und gerade AMD kommt bei BD verdammt schlecht weg bei mir.
Aber mal btt.:
Verwendet man jetzt eigentlich das gleiche PCB wie bei der GTX660Ti, oder kommt da ein eigenes daher?
Hübie
2012-08-31, 13:01:49
Na was wollen die auch machen? TSMC ankacken bringt eh nix. Wechseln? Zu wem? Afaik bringt UMC nächstes Jahr ne 28nm-Fab online welche high-k kann.
Von den ganzen Unternehmen ist keins der liebe Kuschelbär. Die wollen alle nur deine Kohle. Am besten mit einem möglichst billigen Produkt, welches sie teuer vermarkten können (mangels Konkurrenz ;)). Vage Aussagen wie zu Intels Xeon Phi oder Kepler 110 macht man um sich Flexibilität zu erhalten. Oder einfach um nicht öffentlich zu sagen: Wir haben das nicht im Griff! Keine Ahnung wieso es immer wieder Leute gibt die sich aufregen. Gibt doch nur graue Haare.
Letztes Jahr hoffte ich zu meinem Geburtstag noch ein Jahr später GF110 gegen GK110 tauschen zu können. Als dann dieses Jahr nur ein paar Socken und Kuchen auf dem Geburtstagstisch lagen dachte ich mir: "Was solls? Die Erde ist Milliarden Jahre alt da kommts auf ein paar Monate nicht an." ;D Also in dem Sinne: Immer locker durch die Hose atmen! Die aktuell angekündigten Produkte kommen.
btw: Ich glaube GTX 660 wird sowohl aus GK106 als auch aus GK104 salvage bestehen. Die 106er haben sicher n kleineres PCB.
Leonidas
2012-08-31, 13:24:03
Verwendet man jetzt eigentlich das gleiche PCB wie bei der GTX660Ti, oder kommt da ein eigenes daher?
Das was IT168 in der Hand hatte sieht nach gleich aus. Kann ich noch nicht ganz glauben, denn die 660 dürfte eine viel kleinere Stromversorgung benötigen.
Ailuros
2012-08-31, 14:24:24
Ailuros, es ist aber ne verdammt kurzsichtige vorgehensweise einer Firma für nur ein Quartal oder vielleicht ein Jahr. Auf mittlere/lange Sicht rächt sich das, und nur weil andere nicht besser sind, wird die Sache nicht besser :ugly:
Und btw. les mal, was ich zu AMDs FirePro, HD7990 oder Intels MIC schreib. Da halte ich mich bzgl Kritik kein Stück weniger zurück. Guck mal in den MIC Thread, Intel hat da auch falsche Angaben gemacht, und das benenne ich dann auch, egal von welcher Firma. Und gerade AMD kommt bei BD verdammt schlecht weg bei mir.
Nochmal ein jeglicher CEO in Jensen's Situation wird sich einfach im Notfall umdrehen und den Handschuh taktvoll in TSMC's Richtung werfen. Und das bloede dabei ist, dass es keine bodenlose Luege sein wird, denn Anteil der heutigen Situation liegt schon bei TSMC.
Ja welch Ueberraschung Intel's marketing kann auch schoen luegen (wenn's nicht ein peinlicher Fehler ist, kommt drauf wie naiv jedermans Perspektive ist); keine einzige Firma ist immun was jegliche Marketing-technische Turnereien betrifft.
Im gegebenen Fall koenntest Du NVIDIA nur die aussschliessliche Verantwortung fuer jegliche Kepler Verspaetungen zuschreiben wenn alles mit 28nm@TSMC nach Plan laufen wuerde und NVIDIA der einzige IHV waere der mit yields/Kapazitaeten fuer 28nm ein Problem hat. Da es aber alle ohne Aussnahme betrifft, frag Dich nicht warum ich so zickig damit werde.
Angebrachte Kritik fuer NVIDIA waere dass momentan ihre Kepler GPUs um einiges teurer sind als konkurrierende AMD GPUs. Mit einem kleinerem die als Tahiti und weniger Speicher ist dieses mehr als nur laecherlich.
Was jetzt GK106 betrifft, es ist einfach mal wieder silly season und ich bin zu ueberarbeitet momentan um e-mails links und rechts wegzuschicken um ein paar Einzelheiten zu erfahren. Fruehe Geruechte sprachen aber nie ueber einen so grossen die wie 240mm2 und auch nicht so brutalen Stromverbrauch. Jeder darf danach seine eigenen Schlussfolgerungen ziehen.
AnarchX
2012-08-31, 14:52:12
Mit der 240mm² Schätzung sind wohl 6 SMX bzw. 1152SPs für GK106 nun durchaus realistisch. Aus Yield Gründen wohl aber erst Anfang 2013 mit 1152SPs im Retail?
Das würde natürlich Raum für einen GK102/GK112 lassen...
Mit 1920SPs + 320-Bit wäre man wohl wieder auf dem Die-Size-Niveau von GF104/114.
Hübie
2012-08-31, 15:10:52
Fruehe Geruechte sprachen aber nie ueber einen so grossen die wie 240mm2 und auch nicht so brutalen Stromverbrauch. Jeder darf danach seine eigenen Schlussfolgerungen ziehen.
Bin da auch etwas von den Socken. Ich las vor eins, zwei Monaten dass die Kepler-Architektur nach unten hin schlechter skaliere. Den Grund dafür weiß ich jedoch nicht. Zusammenreimen kann ich mir auch nicht viel, da weder horrende Caches noch GPC-Balast hinten dran hängen. Vor allem frage ich mich ob die 660 dann das Leistungsspektrum der GTX 570 abdecken kann.
LG Hübie
Spasstiger
2012-08-31, 15:16:47
Vielleicht ist einfach der GK104 kleiner als ursprünglich geplant, um genügend Fertigungskapazitäten zu haben, weshalb GK106 jetzt relativ fett wirkt.
GK112 könnte natürlich in der Refreshgeneration gut möglich sein mit z.B. 10 SMX-Blöcken (1920 SPs). GK104 würde man dann einfach auslaufen und GK106 im Vollausbau antreten lassen.
So wäre das dann auch ein einigermaßen stimmiges Portfolio:
GK110 - 15 SMX, 384-Bit-SI
GK112 - 10 SMX, 256-Bit-SI
GK106 - 6 SMX, 192-Bit-SI
GK107 - 2 SMX, 128-Bit-SI
Nur die Lücke zwischen GK106 und GK107 ist etwas groß.
AnarchX
2012-08-31, 15:21:24
Nur die Lücke zwischen GK106 und GK107 ist etwas groß.
Die Lücke (bzgl. Die-Size) gab es auch bei Fermi, insofern wird das schon einen Sinn erfüllen.
Skysnake
2012-08-31, 18:30:11
Also ich bezweifle SEHR stark, dass da nen "GK112" kommt. Damit würde man die GK110 viel zu stark unter druck setzen als Gamer-Karte!
@Ailuros:
Ich glaub du verstehst ich falsch. Ich geb nVidia 0 die Schuld für die Probleme von TSMC. Ich geb ihnen aber die Schuld, dafür, das man sehr spät (mit dem Launch der GTX680) noch vollmundige versprechungen gemacht hat, dann aber NIE auch nur ein sterbenswörchen dazu gesagt hat, das es doch nicht klappt und seine Pläne dann revidiert hat. Das ist einfach nicht die "feine englische Art", wenn du weißt was ich meine.
Ich glaub nämlich nicht, das Huang nicht schon da absehen konnte, dass das mit GK106 nichts wird innerhalb des genannten Zeitfensters. Ich mein, das ist jetzt A1 Silicon, und es ist viel zu spät, was wäre erst passiert, wenn es A2 geworden wäre?
Weist was ich mein?
Hugo78
2012-08-31, 18:56:45
Verlink den Kram oder hör mit deiner OT Mimimi Wunschvorstellung auf, danke.
Ailuros
2012-08-31, 23:51:55
Also ich bezweifle SEHR stark, dass da nen "GK112" kommt. Damit würde man die GK110 viel zu stark unter druck setzen als Gamer-Karte!
@Ailuros:
Ich glaub du verstehst ich falsch. Ich geb nVidia 0 die Schuld für die Probleme von TSMC. Ich geb ihnen aber die Schuld, dafür, das man sehr spät (mit dem Launch der GTX680) noch vollmundige versprechungen gemacht hat, dann aber NIE auch nur ein sterbenswörchen dazu gesagt hat, das es doch nicht klappt und seine Pläne dann revidiert hat. Das ist einfach nicht die "feine englische Art", wenn du weißt was ich meine.
Ich glaub nämlich nicht, das Huang nicht schon da absehen konnte, dass das mit GK106 nichts wird innerhalb des genannten Zeitfensters. Ich mein, das ist jetzt A1 Silicon, und es ist viel zu spät, was wäre erst passiert, wenn es A2 geworden wäre?
Weist was ich mein?
Ich hab relevante Aussagen seitens Jensen dass die Kepler Familie innnerhalb 3 Monaten kommen soll um geraume Zeit VOR dem GK104 im Hinterkopf, zumindest 1 Jahr davor.
Falls er es nochmal vor kurzem behauptet hat ist es mir nicht bewusst. Irgend ein Link dazu?
Leonidas
2012-09-01, 00:15:15
Das Versprechen, es würde alles besser werden als bei Fermi, hab ich auch noch im Hinterkopf. Link dazu fehlt allerdings.
Skysnake
2012-09-01, 00:27:05
War im LiveStream glaub ich, wo er es gesagt hat. Ich bin auch nur über meine alten Beiträge drüber gestolpert, wo ich mich bereits sehr skeptisch geäußert hatte, ob die das wirklich einhalten können, nachdem bereits AMD Probleme hatte, und man auch bei allen möglichen anderen Herstellern von Problemen gehört hat und kein Ende in Sicht war.
Deswegen, und nur deswegen erinnere ich mich auch noch so lebhaft daran, und auch nur deswegen regt es mich so derbst auf, weil ich mich einfach heftigst verarscht vorkomme, und verarschen lasse ich mich nicht, egal von wem...
y33H@
2012-09-01, 01:11:50
Auch wenn's hart klingt: Sorry, aber selbst schuld wenn man so was für bare Münze nimmt.
Hübie
2012-09-01, 02:11:48
[...] und verarschen lasse ich mich nicht, egal von wem...
Doch. Du verarschst dich ja somit selber. Dein Verstand hatte dir ja offenbar suggeriert, dass es nicht so kommen wird wie "prophezeit" wurde, aber du hast trotzdem dran festgehalten :freak:
nVidia staubt jetzt erst mal mit Tesla&Quadro ab. Wenn dann 2013 die yields einigermaßen im Griff sind kommt Dekstop wieder zum Tragen. Dann beginnt das Spielchen wieder von vorn ;D Mal sehen wie lange du das nervlich aushälst!
Skysnake
2012-09-01, 11:50:18
Ich halte das gut aus ;)
Aber es ist müßig, gegen Leute zu argumentieren, die solche Aussagen für bare Münze nehmen.
Denn ich vertraue den Leuten durchaus, aber nur so lange, bis ich mich verarscht fühle, und dann dauerts sehr lange, bis das Vertrauen wieder hergestellt ist.
AMD hats bei den CPUs z.B. voll verkackt, Intel alles was Larrabee und ThunderBolt/LightPeak anbelangt, und nVidia so langsam in jedwedem Bereich :ugly:
Aber kommen wir mal zurück zum eigentlich Thema.
Was meint ihr, wann sind die Karten im Handel zu haben? Soweit ich das verstanden habe, sind die ja als erstes in OEM Rechnern aufgetaucht.
OgrEGT
2012-09-01, 13:52:02
Ich halte das gut aus ;)
Aber es ist müßig, gegen Leute zu argumentieren, die solche Aussagen für bare Münze nehmen.
Denn ich vertraue den Leuten durchaus, aber nur so lange, bis ich mich verarscht fühle, und dann dauerts sehr lange, bis das Vertrauen wieder hergestellt ist.
AMD hats bei den CPUs z.B. voll verkackt, Intel alles was Larrabee und ThunderBolt/LightPeak anbelangt, und nVidia so langsam in jedwedem Bereich :ugly:
Aber kommen wir mal zurück zum eigentlich Thema.
Was meint ihr, wann sind die Karten im Handel zu haben? Soweit ich das verstanden habe, sind die ja als erstes in OEM Rechnern aufgetaucht.
Ach komm, spiel doch nicht künstlich die beleidigte Leberwurst...
Außerdem hattest Du doch Jen-Hsun Huang's Aussagen blauäugig für bare Münze genommen, aber die Fertigungssituation ignoriert.
Wenn AMD bei Dir "verkackt" hat, dann willst Du mir doch nicht erzählen, dass Intel es nicht bereits längst auch hat. Erinnere Dich mal an die Pentium4 Zeiten...
Skysnake
2012-09-01, 20:41:49
Ja, an die erinnere ich mich auch. Ich bin SEHR nachtragend. ;)
Und nochmal wo hab ich gesagt, dass ich das geglaubt hab? :ugly: Ich war SEHR skeptisch, und hab das nicht für wirklich realistisch angesehen. Nicht ohne Grund hatte ich damals direkt meine Zweifel angemeldet, aber dann wird ja von vielen direkt dagegen geschossen, weil sagt ja Huang blablablub.
Es gibt halt genug Leute, die so was halt wirklich leichtfertig glauben, zu denen ich allgemein wirklich nicht gehöre. BD bin ich AMD aufgesessen, und dafür haben sies bei mir doppelt verschissen bzgl Glaubwürdigkeit.
Intel wegen Larrabee, Sata-Gata und Div-bug, wobei das noch sich im Rahmen hält
AMD wegen BD und ihren IPC Aussagen.... da bin ich echt richtig stinkig
ASUS wegen ihren A8NSLI-Deluxe Rev 1.0... Hat glaub ich jetzt 4 Jahre dafür gesorgt das ich ASUS nicht mal dem Arsch angeschaut hab, und jetzt wo das Vertrauen wieder da war, sagt mir mein Händler, er bekommt ständig reklamantionen von ASUS Geräten, insbesondere Laptops wegen gebrochenen Schanieren.
Es ist halt nur sehr anstrengend, wenn Leute dann mit solchen Aussagen wie Huang haussieren gehen, weil, was soll man dagegen sagen?
Nur im Nachhinein, wenns dann doch anders kommt, wollen sich die Leute meist nicht mehr daran erinnern so was jemals gesagt zu haben...
Da muss ich nur auf OBRs "Blog" schauen, da wird editiert und gelöscht, das ist besser als jedes Kino ;D
Und nein, ich bin keine beleidigte Bockwurst, falls das so rüber kam ;)
Wer austeilen kann, der muss auch einstecken können, und so lange es sachlich bleibt, kann man mir auch alles vorn Kopf knallen. Ich lieg ja auch mal daneben, und raffs nicht, sondern geh den Holzweg zuende (siehe AMD DB IPC), und dann muss man auch die Größe haben und auch Hohn und Spott ertragen.
Ailuros
2012-09-01, 22:45:01
War im LiveStream glaub ich, wo er es gesagt hat. Ich bin auch nur über meine alten Beiträge drüber gestolpert, wo ich mich bereits sehr skeptisch geäußert hatte, ob die das wirklich einhalten können, nachdem bereits AMD Probleme hatte, und man auch bei allen möglichen anderen Herstellern von Problemen gehört hat und kein Ende in Sicht war.
Deswegen, und nur deswegen erinnere ich mich auch noch so lebhaft daran, und auch nur deswegen regt es mich so derbst auf, weil ich mich einfach heftigst verarscht vorkomme, und verarschen lasse ich mich nicht, egal von wem...
Wenn ich nur wuesste wann LiveStream stattgefunden hat und nein ich langweile mich Gott sei Dank nicht mit Jensen's albernem Geblubber; je mehr ich es meiden kann desto besser. Nochmal war es vor kurzer Zeit oder zich Monate vor dem launch?
Skysnake
2012-09-01, 23:18:52
wie schon gesagt, zum launch, sonst hätte ich mich auch nicht verarscht gefühlt, weil man das nicht abschätzen kann, aber bei <3 monaten sollte man wissen, ob da die eigenen produkte kommen oder nicht...
Zu welchem Launch? Sicher nicht im Bezug zu GK104.
Abgesehen davon muss man doch sehen, dass es gar keine Trennung von NV und TSMC gibt und die Probleme mit TSMC auch andere haben - Qualcom. Wenn TSMC NV verspricht, dass die Yields besser werden und man in X Monaten mehr Wafer bekommt, dann kann man nicht NV der Lüge bezichtigen, wenn TSMC diesen Termin nicht hält. Die ganze Debatte ist sinnlos, denn 28nm @ TSMC kann momentan die Nachfrage nicht befriedigen. Jeder TSMC Kunde wird nun entscheiden müssen wie er damit umgeht. Manche haben ihr Protofolio komplett umgesetzt, NV scheint einzelne Produkte zu verschieben, es sieht aber so aus, dass in beiden Fällen die Produktion bei TSMC limitiert. Für NV mag es sinnvoll sein lieber mehr GK107 + GK104 zu haben als eine vergleichbare Menge an GK107+GK106+GK104+GK110.
Sie werden einfach das Produkt anfertigen was die höchste Marge einfährt. Wenn sie dann das Mainstreamfeld AMD überlassen müssen, ist es halt so.
Skysnake
2012-09-02, 12:45:36
Durchaus möglich. Bei den kleineren Karten sehen Sie gegen die AMD Karten ja nicht so toll aus.
btw. Ich hab mal geschaut, wann ich das erste mal über die 3 Monate gesprochen habe. 17. Januar war der erste Bericht, den ich von mir gefunden habe. http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/198531-ein-geruecht-und-nicht-mehr-nvidia-soll-release-der-gtx-680-auf-februar-vorziehen-2.html
Muss also davor gewesen sein, aber nicht all zu lange.
AnarchX
2012-09-02, 12:47:08
GK107 für den Notebook-Markt war aber wohl ein großer Wurf. Insofern waren dort die Kapazitäten gut angelegt.
Skysnake
2012-09-02, 12:49:10
Naja, auf der anderen Seite seh ich im MM usw. gefühlt mehr Laptops mit AMD GPU als jemals zuvor.
Gibts dazu eigentlich schon harte Bilanzzahlen?
Mancko
2012-09-02, 15:01:07
Naja, auf der anderen Seite seh ich im MM usw. gefühlt mehr Laptops mit AMD GPU als jemals zuvor.
Gibts dazu eigentlich schon harte Bilanzzahlen?
Gibt es. Mercury, JPR, Steam und die Quartalszahlen von AMD und Nvidia zeigen, dass AMD sowohl bei den Stückzahlen aber noch viel mehr bei der Umsatzverteilung Marktanteil von dedizidierten GPUs an Nvidia abgeben musste. Die Zahlen der GPU Sparten sind bereits in Q2 eindeutig was das betrifft. Von dem deutlich optimistischeren Ausblick bei Nvidia auf Q3 ganz zu schweigen. Die wären kaum so optimistisch, wenn Nvidia ein Problem durch das Fehlen der 660er Reihe hätte.
Skysnake
2012-09-02, 17:10:56
Hast du nen Link dazu? Ich kann mich nur an die Gesamtübersicht erinnern, die ja relativ witzlos ist, da durch iGPUs total verfälscht.
M4xw0lf
2012-09-02, 17:48:17
Wie man mit nem Viertel- bis halbem Jahr Verspätung der eigenen Hardware noch Marktanteile gewinnen kann, muss mir auch jemand erklären.
Ronny145
2012-09-02, 17:56:15
Hast du nen Link dazu? Ich kann mich nur an die Gesamtübersicht erinnern, die ja relativ witzlos ist, da durch iGPUs total verfälscht.
Mercury Research Q2-2012 PC Graphics Report (http://investorvillage.com/smbd.asp?mb=476&mn=244502&pt=msg&mid=12013727)
Skysnake
2012-09-02, 18:10:52
Danke
Wie man mit nem Viertel- bis halbem Jahr Verspätung der eigenen Hardware noch Marktanteile gewinnen kann, muss mir auch jemand erklären.
Frag ich mich auch. Kann ich mir nur mit den am Ende recht günstigen GTX5xx Preisen erklären. :confused:
Vor allem fehlte ja eigentlich die recht volumenstarke Einsteiger-/Mittelklasse
AnarchX
2012-09-02, 20:35:18
GPU-Z hat in seiner Datenbank eine Angabe von 221mm² für GK106:
http://www.arabpcworld.com/images/2012/08/NVIDIA-GK106-GPU-Z-APCW-01.jpg
http://www.arabpcworld.com/images/2012/09/GK106-3DMARK-TEST-P-APCW.jpg
http://www.arabpcworld.com/?p=18359
http://www.arabpcworld.com/images/2012/08/GK106-3DMARK-TEST-X.jpg
http://www.arabpcworld.com/?p=18294
Ailuros
2012-09-03, 12:23:19
GPU-Z sagt mir auch nichts. Ich will nichts oeffentlich sagen, aber wenn das was mir vermittelt wurde stimmt, liegt die gewaltige Mehrzahl was die die area von GK106 betrifft ziemlich weit entfernt von der Realitaet.
Hübie
2012-09-03, 13:03:00
221 mm² kommen mir deutlich realistischer vor, als die oftmals kommunizierten 240mm². Das passt dann mit der Performance wohl besser ;)
Ailuros
2012-09-03, 13:07:09
221 mm² kommen mir deutlich realistischer vor, als die oftmals kommunizierten 240mm². Das passt dann mit der Performance wohl besser ;)
Na mal sehen ob der Aktienkurs in den naechsten Tagen weiterhin fallen kann ;)
Hübie
2012-09-03, 13:31:58
Hrhr. Mir kanns Wurscht sein, da ich eh keine nV-Aktien halte...
http://www.abload.de/img/nvidia-aktie2jqt8.png (http://www.abload.de/image.php?img=nvidia-aktie2jqt8.png)
Besonders stark ist die ohne hin nicht :rolleyes:
Gipsel
2012-09-03, 14:10:39
Das war eher eine Metapher für den Wert, der momentan für die Diegröße gehandelt wird. ;)
dildo4u
2012-09-03, 14:16:04
Von den Benches her hat man die Die mehr als um den Faktor zwei verkleinern können wenn man die GTX580 zur Grundlage nimmt.
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7950-mit-925-mhz/15/
AnarchX
2012-09-03, 14:17:22
Jedenfalls aus der "GeForce-Perspektive".
Spasstiger
2012-09-03, 14:21:54
Ich würde auch eher den GF114-Vergleich suchen und da rührt die Mehrperformance im Prinzip nur vom Taktvorteil her.
/EDIT: 3DMark11 ist nochmal ein Kapitel für sich, da geht Kepler abartig gut. Von der GTX 660 können wir eine Performance zwischen der HD 7850 und der HD 7870 erwarten, also im Spieleschnitt wohl GTX-570-Niveau.
dildo4u
2012-09-03, 14:31:04
Ich würde auch eher den GF114-Vergleich suchen und da rührt die Mehrperformance im Prinzip nur vom Taktvorteil her.
Läuft die Karte mit 1.3Ghz?
Spasstiger
2012-09-03, 14:33:22
Ich wusste nicht, dass du 3DMark 11 meintest, sondern bin von der Spieleperformance ausgegangen. Den Link zu CB hast du erst eingefügt, nachdem ich mein Posting geschrieben hatte.
dildo4u
2012-09-03, 14:41:23
Ich habs schon ein bissel verrechnet weil's 3D Mark Werte sind,die GTX580 hat 2150 unter der xtreme Einstellung,die 660 2360.Der neuere Treiber mit dem die 660 getestet wird,sollte auch ein bissel was bei echten DX11 Games bringen gegenüber den ersten Kepler Karten.
Ailuros
2012-09-03, 14:44:43
Das war eher eine Metapher für den Wert, der momentan für die Diegröße gehandelt wird. ;)
ROFL :biggrin: Na zumindest verstehst Du meinen Mist ;)
Hübie
2012-09-03, 14:58:45
Hab das irgendwie auf yields gemünzt. Große die-size für schwache GPU=hohe kosten in Realtion zu Erlös und somit sinkendem Gewinn und schlecht gelaunter Investor-Meute ;D Bin heut eh etwas lahm in der Birne.
Danke Gipsel :up: ;D
Schaffe89
2012-09-03, 21:10:07
http://www.tweaktown.com/reviews/4922/nvidia_geforce_gtx_660_2gb_reference_video_card_review/index.html
Wie immer ist Tweaktown erster, dafür ist das review auch sehr schlecht, mit alten Treibern bei den Radeon Karten, wirkt für mich insgesamt recht biased.
dildo4u
2012-09-03, 21:13:16
Ist doch klar das die Karte an die 7870 kommt NV kann in Ruhe an die Konkurrenz anpassen mit dem späten Launch.Preis wird vermutlich auch so bei 220€ liegen.
Hübie
2012-09-03, 21:32:21
http://www.tweaktown.com/reviews/4922/nvidia_geforce_gtx_660_2gb_reference_video_card_review/index.html
Wie immer ist Tweaktown erster, dafür ist das review auch sehr schlecht, mit alten Treibern bei den Radeon Karten, wirkt für mich insgesamt recht biased.
Nicht nur das. Die nutzen alte Spiele, alte Treiber und benchen total oberflächlich. Eine der schlechtesten der Zunft überhaupt.
Schaffe89
2012-09-03, 21:34:25
Die wichtigsten benchmarks mit MSAA kommen dann als kleies extra am Ende.
dildo4u
2012-09-03, 21:37:30
Die MSAA Benches sind krass die TI wird obsulut,Bandbreite passt bei der 660 besser zur GPU.
aufkrawall
2012-09-03, 21:54:12
Die wichtigsten benchmarks mit MSAA kommen dann als kleies extra am Ende.
Jo.
Ich frage mich, wie das mit SGSSAA aussieht.
Bei Skyrim mit 4x hält die 660 Ti bei PCGH ganz gut mit.
M4xw0lf
2012-09-04, 07:51:56
Bei Tweaktown musste sich auch die 7970 vor der 660Ti fürchten. Ich würde sagen, das sind die zweitschlechtesten Bencher - direkt nach Gamestar.
Und das Fazit ist auch vielleicht ein Schmarrn - von wegen, dass Nvidia AMD in den letzten Monaten durch aggressive Presigestaltung unter Druck gesetzt hätte. Auf welchem Planeten leben die denn? ;D
AnarchX
2012-09-04, 10:46:22
Weitere GK106 Varianten:
http://we.pcinlife.com/data/attachment/forum/201209/04/130214mee5y0x3xzexm7x1.jpg
http://we.pcinlife.com/thread-1978270-1-1.html
Einschätzung:
GK106-400 -> GTX 660
GK106-250 -> "GTX 660 SE": 768SPs + 192-Bit (5Gbps?)
GK106-200 -> "GTX 650 Ti": 576-768SPs + 128-Bit 5Gbps
GK106-875 -> Quadro
Iruwen
2012-09-04, 10:52:10
Wo stehen da überhaupt die Treiberversionen?
/e: bei dem Tweaktown Review.
Gipsel
2012-09-04, 11:34:02
Wo stehen da überhaupt die Treiberversionen?
/e: bei dem Tweaktown Review.
Nirgendwo, ist irgendein Mix. Die 7970GE läuft wahrscheinlich mit Cat 12.7, der Rest mit Cat 12.3 oder so, bei nV wird es ähnlich aussehen.
Ailuros
2012-09-04, 11:37:50
Was meckert Ihr ueberhaupt ueber A, B oder C Bumsseite? Nicht besuchen und aus damit. Je mehr klicks Ihr solchem Krampf schenkt desto schlimmer.
marc-05
2012-09-11, 00:05:23
Eine Nvidia Preformance Folie GTX 660 vs HD7850
http://s1.directupload.net/images/120911/8dykom24.png (http://www.directupload.net)
http://videocardz.com/34829/geforce-gtx-650-and-gtx-660-performance-charts
Hübie
2012-09-11, 00:11:15
Oh nein. Videocardz.com :facepalm:
Doomi
2012-09-11, 00:15:02
hmm.. im Schnitt wohl so GTX 570 Niveau mit 2 GB Ram .. allerdings mit dem für mich 4 Monitor Killerfeature und endlich mal guten Idle Stromverbräuchen bei Multimonitoring und unterschiedlichen Monitoren..
wenn ich nicht mehr wie 60 Euro drauf legen müsste beim Verkauf meiner EVGA 560 ti würd ich mir mal eine bestellen ..
z3ck3
2012-09-11, 20:23:05
Nichts interessantes, aber erste Listungen der 660 bei Geizhals:
http://geizhals.at/eu/?cat=gra16_512&sort=p&xf=1439_GTX+660
ASUS GTX660-DC2-2GD5 (PL) 231,51 €
Palit GeForce GTX 660 (UK) 245,45 €
Palit GeForce GTX 660 OC (UK) 252,52 €
und der 650:
http://geizhals.at/eu/?cat=gra16_512&sort=p&xf=1439_GTX+650
Palit GeForce GTX 650 (UK) 117,63 €
Palit GeForce GTX 650 OC (UK) 122,84 €
Point of View GeForce GTX 650 (UK) 125,17 €
M4xw0lf
2012-09-11, 21:34:42
Die 660 sollte zum Launch nicht wesentlich über 200€ kosten, vor allem nicht mehr als die 7870.
dildo4u
2012-09-11, 21:44:43
Der Markt wird den Preis anpassen selbst wenn nv 230€ anpeilt.
http://geizhals.at/de/?phist=822165
NV wollte für die 560Ti zum Anfang auch 230€ haben.
Zergra
2012-09-11, 21:47:18
Die 660 sollte zum Launch nicht wesentlich über 200€ kosten, vor allem nicht mehr als die 7870.
Jop, vorallem weil die Leistung ja wohl zwischen der HD7850 und der HD 7870 liegt...
Folgt
HD7970Ghz
680GTX
HD7970
670GTX
HD7950Bost
HD7950 = 660TI
HD7870
660GTX
HD7850
mal schauen wie es wohl weiter geht...
denke mal
Die MSAA Benches sind krass die TI wird obsulut,Bandbreite passt bei der 660 besser zur GPU.
GTX 680, 670 und 660 Ti kleben nun mal alle an der Speichertransferrate.
MfG,
Raff
dildo4u
2012-09-11, 21:50:23
Jop, vorallem weil die Leistung ja wohl zwischen der HD7850 und der HD 7870 liegt...
Folgt
HD7970Ghz
680GTX
HD7970
670GTX
HD7950Bost
HD7950 = 660TI
HD7870
660GTX
HD7850
mal schauen wie es wohl weiter geht...
denke mal
Die 660 wird nich so schlecht zur 7870 liegen,der Bandbreitenunterschied ist lange nich so krass wie bei der 7950 vs 660TI.
Jop, vorallem weil die Leistung ja wohl zwischen der HD7850 und der HD 7870 liegt...
Folgt
HD7970Ghz
680GTX
HD7970
670GTX
HD7950Bost
HD7950 = 660TI
HD7870
660GTX
HD7850
mal schauen wie es wohl weiter geht...
denke mal
Also konstant AMD > NV. Schade dass die meisten Kunden das nicht verstehen.
z3ck3
2012-09-12, 09:37:38
Also konstant AMD > NV. Schade dass die meisten Kunden das nicht verstehen.
Es gibt andere Argumente für oder gegen einen Chip und die damit verbundenen Treiber, Features, Verbrauch etc. als nur die Balkenlängen der Benchmarks die einem eh nur eine grobe Richtung zeigen und sich nicht im Spielgefühl wiederspiegeln müssen, bzw. in der Performance der Software wo man die GPUs sonst noch nutzt. (bei mir u.a. Premiere)
Hübie
2012-09-12, 09:56:21
Genau das ist der Punkt. AMD verpennt ein Trend nach dem anderen und hechelt immer hinter her. Die Hardware von denen ist geil, aber Software... :facepalm:
Thunder99
2012-09-13, 01:23:57
Genau das ist der Punkt. AMD verpennt ein Trend nach dem anderen und hechelt immer hinter her. Die Hardware von denen ist geil, aber Software... :facepalm:
Sie werden nur langsam (endlich besser), daher sehe ich NV nicht mehr lange deutlich vorne.
GTX660 scheint die Karte mit einem Preis/Leistung sowie recht gute Effizienz zu haben. Nur leider viel zu spät...
Hübie
2012-09-13, 02:27:21
Ja, nVidia verpennt dafür den Markt ;D Aber das haben wir uns ja selber eingebrockt. Hat ja keiner andere Chips gekauft :freak: Nun sinds nur noch zwei. Und nur einer ist unabhängig :rolleyes:
Es sei denn, man ist ein gebranntes Kind. Viele Leute haben vor Urzeiten mal ein Problem mit Ati gehabt und kaufen daher niemals AMD. Nie. Verstehe ich auch nicht, aber so sind sie, die Menschen. ;) Als wenn's bei Nvidia nie Bugs gäbe ...
MfG,
Raff
Naja der Treiber ist bei NV imho schon etwas besser, die Tools sind mir auch etwas lieber und vor allem hat NV imho die besseren Partner. Klar bei Gigabyte, ASUS und MSI ist der GPU Hersteller egal, aber wenn ich zwischen EVGA und Sapphire wählen muss, dann nehme ich nicht die "Zirp-Könige". Und auch bis HIS gegen Gainward würde ich mich für Gainward entscheiden.
Ist jetzt alles kein absoluter Grund für NV und ich erwate auch bei NV eine Preissenkung, aber verstehen kann es schon wenn man für NV etwas mehr zahlt.
Framework 1.1 und 3.5 laufen nicht parallel nebeneinander, funktioniert nicht.
Von daher müßte ich mir bei AMD Karten noch einen neuen AllinOne Drucker kaufen. :freak:
AnarchX
2012-09-13, 15:14:01
GTX 650 Ti in der 2. Oktoberwoche:
Zwischen beiden Grafikkarten klafft preislich und leistungsmäßig noch eine große Lücke, die Nvidia in der zweiten Oktoberwoche mit der GeForce GTX 650 Ti schließen wird.
http://www.heise.de/newsticker/meldung/Nvidia-enthuellt-GeForce-GTX-650-und-GTX-660-1706737.html
dildo4u
2012-09-13, 15:40:31
Scheint kein NDA zu geben Werte müssten bald kommen.
Die Leistungswerte der Geforce GTX 650 überprüfen wir gerade, mit einem geplanten Test fürs Wochenende. Bis dahin lesen Sie am besten den Test des großen Bruders Geforce GTX 660 und erfreuen sich an ersten Impressionen der GTX 650 in der Bildergalerie
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Specials/Geforce-GTX-650-Nvidia-praesentiert-neue-Kepler-Geforce-fuer-rund-110-Euro-1023971/
AnarchX
2012-09-13, 15:47:46
Keine Ti.
marc-05
2012-09-21, 07:19:07
650 Ti soll laut arabpcworld.com (http://translate.google.de/translate?hl=de&sl=ar&u=http://www.arabpcworld.com/%3Fp%3D19208&prev=/search%3Fq%3Dhttp://www.arabpcworld.com/%253Fp%253D19208%26hl%3Dde%26client%3Dfirefox-a%26hs%3DEJZ%26rls%3Dorg.mozilla:de:official%26prmd%3Dimvns&sa=X&ei=tMxbUIGyHISHswaH9oAI&ved=0CCcQ7gEwAA) schwächer werden als gedacht.
Sind dann nur mehr 3 SMX Einheiten aktiv + ein SI von 128Bit
576 Cuda Cores
48 TMUs
960 Mhz Chiptakt
TDP von 85 Watt / 1x6 Pin
Hugo78
2012-09-21, 07:31:44
Wenn das stimmt, will man nur die 7770 schlagen und kommt dann nochmal mit einer 660 SE.
Die nächste Website schreibt, dass dabei ein GK104 zum Einsatz kommt, welcher derart krass gestutzt wurde. Soll ich schnell eine solche Gerüchtenews zimmern? ;) Will sagen: Abwarten, man sollte nicht alles glauben, nur weil's am Ende der Welt gepostet wird.
MfG,
Raff
AnarchX
2012-09-21, 09:46:38
Wenn das stimmt, will man nur die 7770 schlagen und kommt dann nochmal mit einer 660 SE.
Die GTX 650 Ti dürfte wohl auf GK106-200 basieren: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9450346#post9450346
Eine GTX 660 SE dürfte sicherlich noch kommen, die aber wohl noch etwas warten muss bis ihre Image-Überträger 660(Ti) in niedrigere Preisbereiche vorstoßen.
Hugo78
2012-09-21, 13:11:09
Also wenn die Nachfrage stimmt und man Intel in Sachen Preisgestaltung kopiert,
welche ja lieber ein zusammengestutztes, kleineres Modell bringen für weniger Kohle,
dann müsste die 660 und die 660Ti nicht zwangsläufig erstnoch billiger werden.
Sähe dann so aus:
650 = 90€
650Ti = 130€
660SE = 160€
660 = 200€
660Ti = 250€
Natürlich ist AMD bei weitem nicht so schwach bei Grakas, wie bei CPUs ggü. Intel, aber so wirklich zu interessieren scheint dass NV aktuell nicht,
denn die GTX 650 ist kaum billiger ist als die 7770. Die Nachfrage ist anscheinend vorhanden.
Skysnake
2012-09-21, 14:21:02
Oder die Kapazitäten klein genug.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.