PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25 26 27 28 29 30 31

AnarchX
2012-03-08, 13:31:07
GTX 660 Ti kein GK104?
Siehe meine Ergänzung.
Zwischen $150 und $250 verkauft man vielleicht GF114 ab, der von den Kosten einem ~200mm² 28nm Chip entsprechen könnte.

Vielleicht kommt GK106 im Sommer noch als GTX 660 (Ti), aber möglicherweise erst als "GTX 750 Ti".

Eine GTX 670 Ti für >500 USD MSRP kann ich mir nicht vorstellen.

fizzo
2012-03-08, 13:50:05
Glaubst du, sie werden mehr als $349 verlangen? Kann ich mir schwerlich vorstellen eigentlich. Bzw. ich will es mir nicht vorstellen - nicht jeder muss diese Preistreiberei mitmachen. Vielleicht sind NV Marktanteile wichtiger (wenn man Mengen liefern kann)?


So langsam kann man sich von einem MSRP von $299 wirklich verabschieden. Die o.a. Preise sind für imho mit Vorsicht zu genießen, wenn dann höchstens für die GTX 680 zutreffend.

AnarchX
2012-03-08, 13:54:58
Laut Ailuros plant(e) AMD für April eine Preisrunde.
Wenn es die Kapazitäten und Yields zulassen, sollten sich Salvage-GK104 und die HD 7870 wohl unter $300 begeben.

Soul
2012-03-08, 13:56:17
Ist nicht die GK107 für die unteren Bereiche gedacht wie GTX 610 - 650?

AnarchX
2012-03-08, 13:57:56
Ist nicht die GK107 für die unteren Bereiche gedacht wie GTX 610 - 650?
Aber mehr als $150 kann man dafür nicht verlangen und GK106 ist wohl noch etwas entfernt.

fizzo
2012-03-08, 13:58:41
Laut Ailuros plant(e) AMD für April eine Preisrunde.
Wenn es die Kapazitäten und Yields zulassen, sollten sich Salvage-GK104 und die HD 7870 wohl unter $300 begeben.

Aliuros "Insider-Infos" in ehren, hatte nicht er das Gerücht der $ 299 für einen GK104 in die Welt gesetzt? Ich gehe davon aus, dass sich AMD was bei der Preisgestaltung gedacht hat - auch in hinblick auf die Konkurenz!

AnarchX
2012-03-08, 14:00:08
Ich gehe davon aus, dass sich AMD was bei der Preisgestaltung gedacht hat - auch in hinblick auf die Konkurenz!
Bei GT200 hat sich damals Nvidia auch etwas gedacht. :D

Soul
2012-03-08, 14:03:22
Aber mehr als $150 kann man dafür nicht verlangen und GK106 ist wohl noch etwas entfernt.

Die jetzigen GT510 - GTX550Ti sind im 35 - 150$ Bereich.

AnarchX
2012-03-08, 14:05:17
Die jetzigen GT510 - GTX550Ti sind im 35 - 150$ Bereich.
Viel schneller, wenn überhaupt, als die GTX 550 Ti wird GK107 nicht werden.

Odal
2012-03-08, 14:13:46
Bei GT200 hat sich damals Nvidia auch etwas gedacht. :D

ja schon traurig damals hat man noch ein anständiges stück hardware von 576mm² (zumindest in 65nm auch wenn nur als salvage part) für 150€ bekommen, jetzt soll man für gut 60% weniger hardware das 3-fache berappen

AnarchX
2012-03-08, 14:46:22
http://weibo.com/fengke117

GK104GTX

http://www.abload.de/img/gtx680_mfa_keplerx7uud.jpg

http://www.redquasar.com/forum.php?mod=viewthread&tid=7234&fromuid=1

Noch ein paar Details:

http://chinese.vr-zone.com/wp-content/uploads/2012/03/geforce_gtx-665x383.jpg
http://chinese.vr-zone.com/11731/nvidia-geforce-gtx-brand-new-03082012/
... neues GeForce Logo, was schon auf der GDC verwendet wird.

Zudem hat die Karte wohl Stromanschluss-Turm?

Soul
2012-03-08, 14:49:27
Viel schneller, wenn überhaupt, als die GTX 550 Ti wird GK107 nicht werden.

Du meinst die 1000 Punkte mehr im 3D Mark 11 waren ein Fake?

Godmode
2012-03-08, 14:49:44
Noch ein paar Details:

http://chinese.vr-zone.com/wp-content/uploads/2012/03/geforce_gtx-665x383.jpg
http://chinese.vr-zone.com/11731/nvidia-geforce-gtx-brand-new-03082012/
... neues GeForce Logo, was schon auf der GDC verwendet wird.

Zudem hat die Karte wohl Stromanschluss-Turm?

Lustig, dann war das doch wohl schon eine finale Platine.

derguru
2012-03-08, 14:49:50
das kann sich ja nur um eine gk104 handeln,vorserienmodel hat nur ein 6er stecker.
Den Kracher hebt sich Mark Rein für das Ende der Präsentation auf. Erinnern Sie sich an die Samaritan-Demo von der letzten GDC? 2011 lief die noch auf drei GTX-580-Karten von Nvidia und benötigte ein 1.200-Watt-Netzteil - allein diese Komponenten kosteten rund 2.000 Dollar. Ein Jahr später läuft Epics "Liebesbrief an die Hardwarehersteller" mit nur noch einer einzigen Karte: einem Vorserienmodell von Nvidias neuer Kepler-Grafikkarte, die sogar nur nach einem sechspoligen Stromstecker fragt.
http://www.pcgameshardware.de/aid,871855/GDC-DX11-Demo-der-Unreal-Engine-3-auf-Kepler-Kepler-Karte-gesichtet-Unreal-Engine-4-Ende-des-Jahres/Grafikkarte/News/

Gipsel
2012-03-08, 14:57:32
das kann sich ja nur um eine gk104 handeln,vorserienmodel hat nur ein 6er stecker.

http://www.pcgameshardware.de/aid,871855/GDC-DX11-Demo-der-Unreal-Engine-3-auf-Kepler-Kepler-Karte-gesichtet-Unreal-Engine-4-Ende-des-Jahres/Grafikkarte/News/
Oder es stimmt nicht. Alle bisherigen Bilder der GK104-Karten zeigen zwei 6polige Anschlüsse (vielleicht bekommt das Salvage-Modell nur einen?). Übrigens sind die Screenshots, die EPIC bereitgestellt hat, 720p, nicht 1080p mit denen das wohl damals auf den drei GTX580 lief. :|

Man From Atlantis
2012-03-08, 15:02:34
Noch ein paar Details:

http://chinese.vr-zone.com/wp-content/uploads/2012/03/geforce_gtx-665x383.jpg
http://chinese.vr-zone.com/11731/nvidia-geforce-gtx-brand-new-03082012/
... neues GeForce Logo, was schon auf der GDC verwendet wird.

Zudem hat die Karte wohl Stromanschluss-Turm?

there are same markings on card's side ''GEFORCE GTX''..

AnarchX
2012-03-08, 15:10:34
Wohl eine größerere Lüfteröffnung als bei der 670 Ti?
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42191&stc=1&d=1331215760
Basis: http://www.pcgameshardware.de/aid,871855/GDC-DX11-Demo-der-Unreal-Engine-3-auf-Kepler-Kepler-Karte-gesichtet-Unreal-Engine-4-Ende-des-Jahres/Grafikkarte/News/bildergalerie/?iid=1638122&vollbild

dargo
2012-03-08, 15:11:15
das kann sich ja nur um eine gk104 handeln,vorserienmodel hat nur ein 6er stecker.

http://www.pcgameshardware.de/aid,871855/GDC-DX11-Demo-der-Unreal-Engine-3-auf-Kepler-Kepler-Karte-gesichtet-Unreal-Engine-4-Ende-des-Jahres/Grafikkarte/News/
Das wichtigste hast du vergessen zu zitieren. Diesmal läuft die Demo mit FXAA und nicht MSAA was deutlich billiger ist. Das mit dem einen 6-er Stecker verstehe ich aber nicht. Dann hätte die Karte (GK104?) nur eine TDP von 150W. :confused: Kann ich mir kaum vorstellen.

AnarchX
2012-03-08, 15:13:15
Vielleicht:
GTX 680 - 170W TDP (Turbo bis ~200W)
GTX 670 Ti - 140W TDP (Turbo nur auf OC-Versionen bzw. GTX 680 exklusiv)

boxleitnerb
2012-03-08, 15:15:02
Wo gibts denn eine Quelle für die 2xGTX580 + eine extra für PhysX (bei der Samaritan Demo)? Ich erinnere mich dran, das mal wo gelesen zu haben, aber 100% sicher bin ich nicht.

dargo
2012-03-08, 15:15:42
Vielleicht:
GTX 680 - 170W TDP (Turbo bis ~200W)
GTX 670 Ti - 140W TDP (Turbo nur auf OC-Versionen bzw. GTX 680 exklusiv)
Und diese 140W TDP GTX670TI soll schon nahezu auf dem Niveau vom Tahiti XT liegen? :| Dann kann AMD gleich einpacken. Nee... glaube ich nicht.

Ronny145
2012-03-08, 15:18:07
Und diese 140W TDP GTX670TI soll schon nahezu auf dem Niveau vom Tahiti XT liegen? :| Dann kann AMD gleich einpacken. Nee... glaube ich nicht.


Wer sagt das? Die +-5% zur HD7970 beziehen sich sicherlich auf das GK104 Topmodell. Der salvage part wird sicherlich nicht rankommen.

AnarchX
2012-03-08, 15:22:39
Nochmal ein schärferes Bild der 670Ti:
http://www.redquasar.com/data/attachment/forum/201203/08/2155067037vt80c4783cl0.jpg

http://www.redquasar.com/forum.php?mod=viewthread&tid=7234&fromuid=1

Da ist wohl definitiv der "Turm" verbaut bzw. die Steckeröffnung für ihn vorbereitet.

Gipsel
2012-03-08, 15:34:44
Nochmal ein schärferes Bild der 670Ti:
http://www.redquasar.com/data/attachment/forum/201203/08/2155067037vt80c4783cl0.jpg

http://www.redquasar.com/forum.php?mod=viewthread&tid=7234&fromuid=1

Da ist wohl definitiv der "Turm" verbaut bzw. die Steckeröffnung für ihn vorbereitet.
Wenn man genau hinsieht, erkennt man 2 x 6 Pin beim Turm. Eventuell ist das unten am PCB sogar 8 Pin.

Edit: nochmal genauer geschaut.

AnarchX
2012-03-08, 15:35:49
Da hat man wohl bei der GDC nicht so genau hingesehen.;)

Dural
2012-03-08, 15:38:55
sieht für mich auch nach 8-Pin aus

aber wenigstens ist der Name mit GTX670 Ti Fix, somit kann man davon ausgehen das GK104 es mit der 7970 aufnehmen kann, den sonst würde diese Bezeichnung keinen Sinn ergeben.

Godmode
2012-03-08, 15:39:09
Wenn man genau hinsieht, erkennt man 2 x 6 Pin beim Turm. Eventuell ist das unten am PCB sogar 8 Pin.

Edit: nochmal genauer geschaut.

Wie kannst du in diesem Bild zwischen 6 oder 8 Pin unterscheiden? :confused:

Gipsel
2012-03-08, 15:40:41
Wie kannst du in diesem Bild zwischen 6 oder 8 Pin unterscheiden? :confused:
Anwendung eines Deconvolution-Filters durch mein Hirn und dann die Löcher zählen. :wink:

Edit:
Also das Bild paßt meiner Meinung nach besser mit 6Pin als mit 8Pin zusammen. Außerdem ist oben am Turm wohl auch noch 1 Loch von zweiten 6Pin-Anschluß zu erkennen. Und 8+6Pin wäre dann vielleicht schon Overkill für die laut Gerüchten eher geringe Leistungsaufnehme. Zumal das ja anscheinend die Variante mit kleinerem Lüfter ist, die andere könnte dann eventuell die 8+6Pin (zumindest für OC-Versionen) bekommen, aber eigentlich sollte das für GK110 reserviert sein. Es sei denn natürlich, der kommt wirklich deutlich später und hat für Spieler nur eine recht geringe Leistungssteigerung.

DarknessFalls
2012-03-08, 15:43:24
(...) somit kann man davon ausgehen das GK104 es mit der 7970 aufnehmen kann, den sonst würde diese Bezeichnung keinen Sinn ergeben.

Eigentlich ist das eher genau andersrum, wenn Du es rein auf den Namen abstellst. GTX680 hätte Sinn gemacht, wenn es GK104 mit Tahiti XT aufnehmen kann, GTX570 Ti bedeutet eher, daß man hinter der XT liegt.

Botcruscher
2012-03-08, 15:43:25
Ein voller Stecker wäre nett. Dann baumeln die Kabel nicht so lustlos in der Gegend rum. Es müssen ja nicht alle Pins belegt sein.

Dural
2012-03-08, 15:47:32
Eigentlich ist das eher genau andersrum, wenn Du es rein auf den Namen abstellst. GTX680 hätte Sinn gemacht, wenn es GK104 mit Tahiti XT aufnehmen kann, GTX570 Ti bedeutet eher, daß man hinter der XT liegt.


ehm nö, schon die GTX570 vs 6970 vergessen? oder GTX270 vs 4890, 8800GTS vs 2900XT usw.

N0Thing
2012-03-08, 15:53:16
Wo gibts denn eine Quelle für die 2xGTX580 + eine extra für PhysX (bei der Samaritan Demo)? Ich erinnere mich dran, das mal wo gelesen zu haben, aber 100% sicher bin ich nicht.

http://www.geforce.com/News/articles/epics-samaritan-demo-shows-the-future-of-graphics-today

Übrigens sind die Screenshots, die EPIC bereitgestellt hat, 720p, nicht 1080p mit denen das wohl damals auf den drei GTX580 lief. :|

Das paßt gut zu einer älteren Aussage zur samaritan demo:

Demnach wäre die Demo in etwas geringerer Auflösung vermutlich auch auf einer einzelnen GeForce GTX 580 lauffähig. Link (http://www.computerbase.de/news/2011-03/unreal-engine-3-next-gen-tech-demo-auf-3-gtx-580)

DarknessFalls
2012-03-08, 15:54:06
@Dural: Es scheint ja quasi gesichert, daß GK110 als GTX780 aufschlägt, zumindest ist das IMHO das wahrscheinlichste Szenario. Folglich ist GK104 die schnellste Karte dieser "Generation" und sollte den Namen GTX680 tragen. Schlägt man HD7970 spricht ja auch nix dagegen, denn selbst wenn AMD eine HD7980 bringen würde, die GTX680 schlägt, kommt dann im Sommer/Herbst GTX780 - vgl. GTX480/580. Geht man danach, hieße GTX670 Ti eher, daß man nicht ganz an HD7970 rankommt.

BTW, 8800GTS vs. HD2900XT kannst Du getrost schnupfen, die HD2900XT kam weit später, und seinerzeit ging nV sogar davon aus, daß sie die 8800GTX schlagen kann. GTX275 kam nach HD4890 als Konter von gleichzeitig HD4870 und HD4890, GTX285 war da schon vergeben. GTX570 vs. HD6970 passt schon so, allerdings andersrum GTX470 vs. HD5870 hinten und vorne nicht.

boxleitnerb
2012-03-08, 15:56:48
http://www.geforce.com/News/articles/epics-samaritan-demo-shows-the-future-of-graphics-today

Danke, aber das steht leider nichts über die Verteilung, ob es 2+1 oder 3 war.

dargo
2012-03-08, 16:04:57
Wer sagt das? Die +-5% zur HD7970 beziehen sich sicherlich auf das GK104 Topmodell. Der salvage part wird sicherlich nicht rankommen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=275

Momentan gehe ich davon aus, dass die GTX670TI die schnellste Variante vom GK104 ist.

Iruwen
2012-03-08, 16:06:41
Was soll dann die GTX 680 sein?

dargo
2012-03-08, 16:08:18
Was soll dann die GTX 680 sein?
Wer sagt, dass es überhaupt sowas geben wird?

Gipsel
2012-03-08, 16:08:59
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=275

Momentan gehe ich davon aus, dass die GTX670TI die schnellste Variante vom GK104 ist.
Das Bild von der 670Ti hat den kleinen Lüfter. Die bei der GDC von Mark Rein hochgehaltene hatte einen größeren.

N0Thing
2012-03-08, 16:09:44
Danke, aber das steht leider nichts über die Verteilung, ob es 2+1 oder 3 war.

In diesem Interview (http://physxinfo.com/news/tag/nvidia/) wird davon gesprochen, daß The Samaritan Demo zu den GPU PhysX titles gehört. Somit werden ziemlich sicher zwei Grafikkarten im SLI die Grafik berechnet haben und eine weitere die PhysX-Effekte wie Nebel, Kleidung, usw.

DarknessFalls
2012-03-08, 16:09:58
Wer sagt, dass es überhaupt sowas geben wird?

Logik? Die wird's allein schon aus marketingtechnischen Gründen geben. Ich kann mir nicht vorstellen, daß diese Generation ohne "namentliches Spitzenmodell" auskommen soll. Es sei denn, GK110 ist doch näher als alle denken.

Iruwen
2012-03-08, 16:10:27
Wer sagt, dass es überhaupt sowas geben wird?
Wäre angesichts des aktuellen Namensschemas merkwürdig wenn nicht, mit GTX x80 assoziiert man ja irgendwie das SGPU Topmodell.

dargo
2012-03-08, 16:11:30
Das Bild von der 670Ti hat den kleinen Lüfter. Die bei der GDC von Mark Rein hochgehaltene hatte einen größeren.
Muss nichts heißen. Können trotzdem beides gleiche Karten sein. Wer weiß wie alt das Bild mit dem kleineren Lüfter ist? Vielleicht war das nur ein "Vorserienmodell" und später hat man sich für einen größeren Lüfter entschieden.

Iruwen
2012-03-08, 16:12:25
Logik? Die wird's allein schon aus marketingtechnischen Gründen geben. Ich kann mir nicht vorstellen, daß diese Generation ohne "namentliches Spitzenmodell" auskommen soll. Es sei denn, GK110 ist doch näher als alle denken.

Würde auch nicht passen wenn GK104 GTX 670 heißt und GK110 GTX 680, dann ist kein Platz mehr für den GK110 Salvage Part den es ja sicher geben wird. Irgendwie glaub ich nicht dass Nvidia das alte Namensschema ausgerechnet jetzt über den Haufen wirft, damit kann man ja auch nochmal unterstreichen wie gut man von der Perf/W dasteht wenn man mit GK104 als GTX 680 zumindest knapp über einer GTX 580 landet.

dargo
2012-03-08, 16:12:52
Wäre angesichts des aktuellen Namensschemas merkwürdig wenn nicht, mit GTX x80 assoziiert man ja irgendwie das SGPU Topmodell.
Ich wüßte jetzt nicht warum beim GK104 es keine GTX670 und GTX670TI geben sollte (genauso wie beim GF114).

Würde auch nicht passen wenn GK104 GTX 670 heißt und GK110 GTX 680, dann ist kein Platz mehr für den GK110 Salvage Part den es ja sicher geben wird.
GK110 wird sicherlich eine 7 vorne haben. Würde auch Sinn machen. Ich meine mich zu erinnern Ail hätte gesagt der Unterschied zwischen GK110 vs. GK104 wäre größer als GF110 vs. GF114.

Iruwen
2012-03-08, 16:15:38
Wie kommst du nochmal drauf dass der größte GK104 GTX 670 heißen wird? Konnte das der verlinkten Threadseite auf die Schnelle nicht entnehmen.

Konami
2012-03-08, 16:19:13
Wer sagt, dass es überhaupt sowas geben wird?
http://semiaccurate.com/2012/03/05/nvidia-will-launch-gk104keplergtx680-in-a-week/
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9195739&postcount=5249

GTX 680 = GK104
GTX 670 TI = GK104 salvage

Ronny145
2012-03-08, 16:32:17
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=275

Momentan gehe ich davon aus, dass die GTX670TI die schnellste Variante vom GK104 ist.


Da steht nichts davon, dass eine GTX670 Ti auf Tahiti XT Niveau liegt. Das wäre höchstens der Fall, wenn das die Topvariante von GK104 darstellt. Nach derzeitigem Stand ist GTX680 dafür gebucht.

Calypso
2012-03-08, 16:32:50
wofür steht "salvage"?

und wieso kommt im Sommer schon eine GTX7xx? Also das klingt so, als ob es nur die 670 oder 680 gibt und alle anderen 7xx wären - mir ist nicht klar, warum?

Godmode
2012-03-08, 16:36:29
wofür steht "salvage"?

und wieso kommt im Sommer schon eine GTX7xx? Also das klingt so, als ob es nur die 670 oder 680 gibt und alle anderen 7xx wären - mir ist nicht klar, warum?

Salvage steht für teildeaktivierten Chip

AnarchX
2012-03-08, 16:41:04
As we posted several days ago, the complete GK104 chip will operate at a lower clock, very similar figure to GTX 480: low power mode is 300 MHz, standard is 705 MHz extendable to 950 MHz – while the cores alone will be able to reach 1411 MHz when the chip is loaded to 100%.
http://vr-zone.com/articles/nvidia-kepler-takes-shape-geforce-gtx-680-to-offer-dynamic-clocking-2-and-4gb-gddr5/15148.html

4 TFLOPs Compute Modus?

Blediator16
2012-03-08, 16:45:31
Wenn der Große nicht kommt scheints eine ziemlich langweilige Runde zu werden :(

Adam D.
2012-03-08, 16:47:00
Wenn der Große nicht kommt scheints eine ziemlich langweilige Runde zu werden :(
Finde ich überhaupt nicht. Es ist zwar inzwischen klar, dass GK110 noch weit weg ist, aber Nvidia könnte mit guten Preisen dennoch den Markt mit GK104 gehörig aufmischen (was ich aber Stand jetzt für unwahrscheinlich halte).

boxleitnerb
2012-03-08, 16:48:27
Das ist doch merkwürdig. Das wäre praktisch Hotclock. Kann man die Shader nicht höher Takten als 1400 MHz, braucht aber mehr Dampf im restlichen Bereich und hat die Taktraten deshalb entkoppelt?

Ronny145
2012-03-08, 16:48:28
Die 705 Mhz sind dann wohl der Basistakt und die 950 mhz der Turbomodus. Mal abwarten wie der funktioniert. Bei Intel liegt der Turbotakt quasi immer an, vielleicht auch bei Nvidia abseits von Furmark und ähnlichem. Die 1411 Mhz ist der Shadertakt oder was soll das sein?

Dural
2012-03-08, 16:49:33
also wenn die 1,4GHz mit 1536SP stimmen... :eek:

da kann man nicht mehr sagen der "hotclock" sei abgeschaft, sondern eher anders rum ;D

AnarchX
2012-03-08, 16:52:10
Wohl möglich basieren die 1,4GHz auf den nicht angepassten Reportingtools, Nvidia Treiber eingeschlossen.

700-950MHz sind da schon eine realistischer Relation und würden erklären, warum man teilweise doch nicht ganz so schnell ist. 700-950MHz sind eben keine >900MHz.

Ronny145
2012-03-08, 16:55:09
Wohl möglich basieren die 1,4GHz auf den nicht angepassten Reportingtools, Nvidia Treiber eingeschlossen.

700-950MHz sind da schon eine realistischer Relation und würden erklären, warum man teilweise doch nicht ganz so schnell ist. 700-950MHz sind eben keine >900MHz.


Wenn der Turbomodus so wie bei Intel funktioniert, kann man schon von >900MHz sprechen. Es kommt darauf an wie oft der Turbo aktiv ist.

dildo4u
2012-03-08, 16:58:19
Denk auch das der Hohe Takt fast immer anliegt,weil kein Game auch nur ansatzweise die Karte auslastet.Genau das Selbe wie beim TDP Limiter von AMD.

Adam D.
2012-03-08, 17:09:12
Denk auch das der Hohe Takt fast immer anliegt,weil kein Game auch nur ansatzweise die Karte auslastet.Genau das Selbe wie beim TDP Limiter von AMD.
Ich stell mir halt Benchmarks mit diesem System schwer vor. Wenn du die Karte nicht immer bis zum Anschlag prügelst, begnügt sie sich mit weniger Takt und du kannst die Ergebnisse in die Tonne kippen.

Ronny145
2012-03-08, 17:14:20
Ich stell mir halt Benchmarks mit diesem System schwer vor. Wenn du die Karte nicht immer bis zum Anschlag prügelst, begnügt sie sich mit weniger Takt und du kannst die Ergebnisse in die Tonne kippen.


Wieso begnügt sie sich mit weniger Takt bei weniger Last? Genau dann wird der Turbo greifen.

Adam D.
2012-03-08, 17:16:15
Wieso begnügt sie sich mit weniger Takt bei weniger Last? Genau dann wird der Turbo greifen.
Achso, hast Recht: ich hab falsch rum gedacht. Je weniger die Karte belastet ist, desto höher kann sie sich takten - natürlich :freak:

Stop, ich kapiers immer noch nicht. Wenn die Karte nicht am Limit läuft und so mehr Taktspielraum hat, was soll das denn bringen?! Es geht doch gerade um die Szenarien, wo es egal ist, ob man 100 oder 200fps hat. Genau hier würde doch eine Taktsenkung Sinn machen. In Volllastsituationen hingegen kann die Karte doch zusätzlichen Taktspielraum einsetzen, weil es gerade in diesen Szenarien darauf ankommt. Alles andere wäre doch Unsinn.

dargo
2012-03-08, 17:35:56
Wieso begnügt sie sich mit weniger Takt bei weniger Last? Genau dann wird der Turbo greifen.
Für mich ergibt das absolut keinen Sinn. Wann wird eine GPU nicht vollständig ausgelastet? In stärkeren CPU-Limits. Wozu brauche ich also in CPU-Limits mehr GPU-Takt (sprich mehr Leistung) wenn die eh nichts bringt weil die CPU limitiert? :ugly:

Zergra
2012-03-08, 17:36:49
Achso, hast Recht: ich hab falsch rum gedacht. Je weniger die Karte belastet ist, desto höher kann sie sich takten - natürlich :freak:

Stop, ich kapiers immer noch nicht. Wenn die Karte nicht am Limit läuft und so mehr Taktspielraum hat, was soll das denn bringen?! Es geht doch gerade um die Szenarios, wo es egal ist, ob man 100 oder 200fps hat. Genau hier würde doch eine Taktsenkung Sinn machen. In Volllastsituationen hingegen kann die Karte doch zusätzlichen Taktspielraum einsetzen, weil es gerade in diesen Szenarien darauf ankommt. Alles andere wäre doch Unsinn.
Damit die 200W auch ausgenutz werden und die Karte immer schön am Saft ziehen ist... Irgentwie hört sich das ziemlich beknackt und Sinnlos an, du hast recht. Irgentwie sollte das jmd. noch auf den Punkt bringen. Wenn es aber wirklich so ist ;D;D

boxleitnerb
2012-03-08, 17:40:17
Ich glaube es geht nicht nach Auslastung, sondern nach TDP. Man gibt der Karte mehr Spielraum und sie taktet höher, gibt also immer mehr fps.

dargo
2012-03-08, 17:42:14
Ich glaube es geht nicht nach Auslastung, sondern nach TDP. Man gibt der Karte mehr Spielraum und sie taktet höher, gibt also immer mehr fps.
Dann ist ein Turbomodus völlig überflüssig, warum nicht gleich auf den Unsinn verzichten?

boxleitnerb
2012-03-08, 17:43:43
Weil vielleicht nicht jeder mehr Leistung braucht? Vielleicht ist es so wie Powertune, mit der Ausnahme, dass wenn du den Regler auf +20% stellst, sie auch entsprechend mehr Leistung bringt.

N0Thing
2012-03-08, 17:47:11
wofür steht "salvage"?

salvage - anything that has been put to good use that would otherwise have been wasted

Im Zusammenhang mit Chips wird der Begriff verwendet, wenn diejenigen, die teilweise defekt sind und/oder die ursprünglichen Spezifikationen nicht schaffen, dennoch verwendet werden und nicht im Müll landen.
Beispiele sind die GTX 470, die HD7950 oder auch CPUs von AMD mit nur drei Kernen anstatt deren vier.

und wieso kommt im Sommer schon eine GTX7xx? Also das klingt so, als ob es nur die 670 oder 680 gibt und alle anderen 7xx wären - mir ist nicht klar, warum?

Da der Mainstreamchip GK104 anscheinend die bisher für das High-End vorgesehenen Namen GTX 680 und 670 bekommen wird, ist kein Platz mehr für den zum Sommer erwarteten High-End Chip GK110.
Entweder nutzt Nvidia für den GK110 die bisher für die Dual-GPU-Karten vorgesehene Bezeichnung GTX x9x oder deklariert dessen Karte als neue Generation, ergo als GTX 780.
Die kleineren Chips unterhalb des GK104 werden vermutlich die Reihe der Geforce 6xx Generation nach unten hin füllen.

dargo
2012-03-08, 17:47:13
Weil vielleicht nicht jeder mehr Leistung braucht?
Das ist ja noch hirnrissiger. Wer nicht mehr Leistung braucht kauft sich einfach eine langsamere Karte die zudem auch billiger ist.

boxleitnerb
2012-03-08, 17:48:35
Das ist ja noch hirnrissiger. Wer nicht mehr Leistung braucht kauft sich einfach eine langsamere Karte die zudem auch billiger ist.

Ich rate doch auch nur, mann :)
Übertakten für Dumme halt, was weiß ich.

Gipsel
2012-03-08, 17:49:44
Weil vielleicht nicht jeder mehr Leistung braucht? Vielleicht ist es so wie Powertune, mit der Ausnahme, dass wenn du den Regler auf +20% stellst, sie auch entsprechend mehr Leistung bringt.
Also so wie Powertune auf Standard und gleichzeitig die Karte 20% übertaktest. Dann regelt das auch bei minimal fordernderen Belastungen ab.

Besseres Analogon ist wahrscheinlich Betrieb bei Standardtakt und Powertune auf -10% bis -15% oder so. Bei leichten Belastungen gibt es den vollen "Turbo"takt, bei fordernderen Sachen halt nur einen abgesenkten. Ist ein recht effizientes Mittel, um die TDP zu senken. Ist nur eine Frage, wie rum man es vermarktet.

|MatMan|
2012-03-08, 17:50:46
Für mich ergibt das absolut keinen Sinn. Wann wird eine GPU nicht vollständig ausgelastet? In stärkeren CPU-Limits. Wozu brauche ich also in CPU-Limits mehr GPU-Takt (sprich mehr Leistung) wenn die eh nichts bringt weil die CPU limitiert? :ugly:
Dir ist schon bekannt es sowas wie eine Pipeline gibt. Aus der Luft gegriffenes Beispiel: Wenn die TMUs in einer Szene limitieren hockt der Rest (z.B. ALUs) herum und wartet. Wenn man jetzt nicht an der TDP ist, warum dann also nicht hoch mit dem Takt und somit mehr FPS bekommen? Es gibt verschiedene Stellen einer GPU wo gerade ein Flaschenhals sein kann. Wenn man nicht gerade total am Speicherinterface hängt halte ich das für sehr sinnvoll.

Und damit man nicht dauernd @200W ist gibts ja neu den FPS-Limiter ;)

boxleitnerb
2012-03-08, 17:51:28
Ich hoffe, die angegebene TDP ist dann beim Standardtakt (wenn es denn einen gibt...). Cheaten diesbezüglich wäre armselig, da brauchen sie gar nicht mit anfangen.

Gipsel
2012-03-08, 17:54:51
Ich hoffe, die angegebene TDP ist dann beim Standardtakt (wenn es denn einen gibt...). Cheaten diesbezüglich wäre armselig, da brauchen sie gar nicht mit anfangen.
Natürlich beim Standardtakt, aber da ist eben der Turbo nicht garantiert.

|MatMan|
2012-03-08, 17:55:36
Was soll denn der Standardtakt sein? Bei CPUs ist die Taktangabe ja heute eher sowas wie der Maximaltakt unter absoluter Volllast...

Gipsel
2012-03-08, 17:56:48
Was soll denn der Standardtakt sein? Bei CPUs ist die Taktangabe ja heute eher sowas wie der Maximaltakt unter absoluter Volllast...
Nein, da hast Du auch einen Basistakt, der praktisch immer garantiert ist und dann noch (diverse) Turbostufen, die vor allem bei Teilauslastung (der Kernanzahl oder Workload liegt unter TDP-Grenze) greifen.

Edit: Also es geht hier nicht um die Stromsparmodi.

|MatMan|
2012-03-08, 18:00:12
Nein, da hast Du auch einen Basistakt, der praktisch immer garantiert ist und dann noch (diverse) Turbostufen, die vor allem bei Teilauslastung (der Kernanzahl oder Workload liegt unter TDP-Grenze) greifen.
Na ist das nicht das was ich als Maximaltakt unter der höchsten Auslastung beschrieben habe? Aber mit Basistakt kann ich schon eher leben als Standardtakt ;)

Ronny145
2012-03-08, 18:01:45
Für mich ergibt das absolut keinen Sinn. Wann wird eine GPU nicht vollständig ausgelastet? In stärkeren CPU-Limits. Wozu brauche ich also in CPU-Limits mehr GPU-Takt (sprich mehr Leistung) wenn die eh nichts bringt weil die CPU limitiert? :ugly:


Ist dir bewusst, dass Spiele eine GPU unterschiedlich stark auslasten können? Dir ist klar, dass z.B. Furmark eine noch viel höhere Aulastung erzeugt als >99% der Spiele? Es geht hier wohl um das TDP Budget. In Furmark läuft die Karte vielleicht nur mit dem Basistakt, im Großteil der Spiele mit dem Turbotakt. Nur so ein Gedankengang.

dargo
2012-03-08, 18:03:19
Ich verstehe das immer noch nicht. Man sollte sich erstmal fragen wann eine GPU weniger als "normal" belastet wird? In letzter Zeit wurden diverse Karten in Furmark und Konsorten gedrosselt. Soll der Turbomodus jetzt also nur eine neue Vermarktung sein? In Spielen 9xxMhz und Furmark etc. 7xxMhz? Das würde mir noch einleuchten. Was ist aber wenn dieser Turbomodus in Games eingreift? Ich könnte mir vorstellen, dass die GPU in zb. Games die stärker an den ALUs hängen eventuell gedrosselt wird weil eine bestimmte TDP überschritten wird. Da freue ich mich aber schon auf diverse Benchmarks. :freak:

Ansonsten ist die GPU-Last nur noch schwächer bei CPU-Limits oder beim aktivierten Framelimiter. In diesem Fall aber den GPU-Takt anzuheben ist recht sinnlos.

boxleitnerb
2012-03-08, 18:05:41
Gedrosselt wird nix. Der Takt wird vielleicht wie Gipsel schreibt je nach Last/Grad der TDP-"Auslastung" erhöht...oder eben nicht. Den Kram muss man aber zum Benchen ausstellen. Das sind satte 34% von 705 auf 950. Wenn GK104 Tahiti XT schon mit 705 nahekommt, Holla die Waldfee!

AnarchX
2012-03-08, 18:08:27
Bei AMDs PowerTune gibt es keine zusätzliche Leistung/Takt, wenn die Karte unter dem TDP-Limit bleibt.
Bei dem GeForce Turbo könnte das anders sein, sodass das Maximum an Leistung aus einer gegeben TDP geholt wird.

HarryHirsch
2012-03-08, 18:13:01
Gedrosselt wird nix. Der Takt wird vielleicht wie Gipsel schreibt je nach Last/Grad der TDP-"Auslastung" erhöht...oder eben nicht. Den Kram muss man aber zum Benchen ausstellen. Das sind satte 34% von 705 auf 950. Wenn GK104 Tahiti XT schon mit 705 nahekommt, Holla die Waldfee!

wieso sollte man das dann ausstellen? die karte verhält sich doch bei jedem so...
es wäre "cheaten" wenn man es deaktiviert.

boxleitnerb
2012-03-08, 18:14:38
wieso sollte man das dann ausstellen? die karte verhält sich doch bei jedem so...
es wäre "cheaten" wenn man es deaktiviert.

Der Verbrauch und damit die TDP-Auslastung schwankt mit der Temperatur. Andere Ergebnisse im Sommer als im Winter oder bei Silentbetrieb und "Ich bin schon taub"-Modus...na ich weiß ja nicht. Dann kommt Computerbase wieder her, wechselt die WLP und du hast 10% mehr fps ;D

AnarchX
2012-03-08, 18:14:42
wieso sollte man das dann ausstellen? die karte verhält sich doch bei jedem so...

... sofern man die gleiche GPU-Temperatur erreicht und die GPU die gleiche Qualität besitzt.

dargo
2012-03-08, 18:19:12
Der Verbrauch und damit die TDP-Auslastung schwankt mit der Temperatur. Andere Ergebnisse im Sommer als im Winter oder bei Silentbetrieb und "Ich bin schon taub"-Modus...na ich weiß ja nicht. Dann kommt Computerbase wieder her, wechselt die WLP und du hast 10% mehr fps ;D
Eben... diverse Custom-Kühllösungen sind besser als die Referenzkühlung. Das kann schon mal ~15W ausmachen. Sind dann die kühleren GPUs also automatisch schneller? ;D

HarryHirsch
2012-03-08, 18:19:32
Der Verbrauch und damit die TDP-Auslastung schwankt mit der Temperatur. Andere Ergebnisse im Sommer als im Winter oder bei Silentbetrieb und "Ich bin schon taub"-Modus...na ich weiß ja nicht. Dann kommt Computerbase wieder her, wechselt die WLP und du hast 10% mehr fps ;D

... sofern man die gleiche GPU-Temperatur erreicht und die GPU die gleiche Qualität besitzt.

es wäre aber trotzdem unfair es zu deaktivieren weil die karte dank dieses feature ja eben mehr kann.

Ailuros
2012-03-08, 18:20:11
Ich warte erst noch auf eine so einfache wie moegliche Erklaerung (die dann auch hoffentlich jeder verstehen kann) fuer das Frequenz-Schlammassel.

Sonst kommt ca. 2 Monate nach 104 eine mGPU und eine 192bit SKU mit ziemlicher imposanter angeblicher Leistung. Fuer GK110 muessen wir wohl so bald wie moeglich einen anderen Thread aufmachen, aber ich zoegere noch etwas da ich die bisher gesammelte paar Infos noch nicht veroeffentlichen will. Auf jeden Fall stimmt es wohl dass nichts davon fuer desktop in absehbarer Zeit erscheinen wird.

boxleitnerb
2012-03-08, 18:20:22
Eben... diverse Custom-Kühllösungen sind besser als die Referenzkühlung. Das kann schon mal ~15W ausmachen. Sind dann die kühleren GPUs also automatisch schneller? ;D

Könnte sein!
Das wird noch an ganz anderer Stelle lustig: Unterschiedliche Spiele und Benchszenen bedeuten unterschiedliche Auslastung. Und wenn es am Ende noch ein Rating gibt, darfst du dreimal raten, wie vergleichbar das dann mit anderen Seiten ist. Noch viel weniger als heute.

dildo4u
2012-03-08, 18:21:14
Eben... diverse Custom-Kühllösungen sind besser als die Referenzkühlung. Das kann schon mal ~15W ausmachen. Sind dann die kühleren GPUs also automatisch schneller? ;D
Leiser das Refernz Modell wird schon so eingestellt sein,das es wenn nötig halt massiv aufdreht um ne bestimmen Temp zu halten,die die maximal Performance ermöglicht.

HarryHirsch
2012-03-08, 18:21:59
Könnte sein!
Das wird noch an ganz anderer Stelle lustig: Unterschiedliche Spiele und Benchszenen bedeuten unterschiedliche Auslastung. Und wenn es am Ende noch ein Rating gibt, darfst du dreimal raten, wie vergleichbar das dann mit anderen Seiten ist. Noch viel weniger als heute.

dann müsste man es halt on und off testen.

boxleitnerb
2012-03-08, 18:24:11
dann müsste man es halt on und off testen.

Angesichts des zeitlichen Aufwands lieber gleich off. Das werden 99% aller Redakteure so halten.
Vielleicht ein oder zwei Spiele extra mit.

dargo
2012-03-08, 18:26:07
Leiser das Refernz Modell wird schon so eingestellt sein,das es wenn nötig halt massiv aufdreht um ne bestimmen Temp zu halten,die die maximal Performance ermöglicht.
Oh, oh dann können wir uns ja auf laute Grafikkarten freuen. :ugly:

BigKid
2012-03-08, 18:30:15
Dann ist ein Turbomodus völlig überflüssig, warum nicht gleich auf den Unsinn verzichten?
Ihr denkt das nicht richtig durch. Wie stark die Karte ausgelastet ist hat auch was damit zu tun wie effizient die Entwickler sie auslasten können (manchmal kann man eine Karte auch unnötig auslasten weil man sich blöd anstellt aber das ist ein anderes Thema).
Also ineffizienter Code, die Karte ist nicht ausgelastet und trotzdem sind die FPS niedrig weils Aufgrund des ineffizienten Codes einen Flaschenhals gibt... Und genau hier würde der Turbo-Mode dann greifen und helfen...
Die Paralelen zum Intel-CPU-Turbo ist dabei gar nicht mal so klein... Denn auch da ist es so: Wenn 2 von 4 Kernen nix zu tun haben, weil die Entwickler den Code nicht paralellisieren konnten, genau dann haben die 2 beschäftigten Kerne genug Spielraum um hochzutackten und dann birngts auch was...

Godmode
2012-03-08, 18:32:22
Ich warte erst noch auf eine so einfache wie moegliche Erklaerung (die dann auch hoffentlich jeder verstehen kann) fuer das Frequenz-Schlammassel.

Sonst kommt ca. 2 Monate nach 104 eine mGPU und eine 192bit SKU mit ziemlicher imposanter angeblicher Leistung. Fuer GK110 muessen wir wohl so bald wie moeglich einen anderen Thread aufmachen, aber ich zoegere noch etwas da ich die bisher gesammelte paar Infos noch nicht veroeffentlichen will. Auf jeden Fall stimmt es wohl dass nichts davon fuer desktop in absehbarer Zeit erscheinen wird.

GK110 nicht für den Desktop? :confused:

boxleitnerb
2012-03-08, 18:36:30
Die Cuda Cores laufen immer auf 1411 MHz, unabhängig von der Last, verstehe ich das richtig?

Dynamic Clock Adjustment is very similar to former “hot clocks”, with the difference that GK104 comes with several dozen power planes, and will operate on varying clocks depending on the computational load, card temperature and the power consumption. As we posted several days ago, the complete GK104 chip will operate at a lower clock, very similar figure to GTX 480: low power mode is 300 MHz, standard is 705 MHz extendable to 950 MHz – while the cores alone will be able to reach 1411 MHz when the chip is loaded to 100%

Zergra
2012-03-08, 18:38:05
GK110 nicht für den Desktop? :confused:
wenn der GK104 wirklich auf dem HD 7970 Level wäre braucht man keinen GK110 mehr. Dann kann man sich die Entwicklungskosten sparen und mit einem Hochgetakteten Gk104 gut auskommen... Was uns natürlich teuer zu stehen kommt.
Oder ist der Gk110 im August gemeint und nicht in den nächsten 1-2 Monaten imo. leicht verwierend.

Konami
2012-03-08, 18:40:00
GK110 nicht für den Desktop? :confused:
"in absehbarer Zeit"

Vielleicht kommt die GK110-GeForce ja auch erst nach der Tesla. Angesichts der neuen Umstände.

Hugo78
2012-03-08, 18:41:51
Die Cuda Cores laufen immer auf 1411 MHz, unabhängig von der Last, verstehe ich das richtig?



will be able to reach 1411 MHz when the chip is loaded to 100% ;)

edit:
Nvidia baut halt mehr Power State Taktungschritte ein, als bisher um den Chip immernur mit soviel Takt und Spannung zufahren, wie Anwendung XY braucht.
Deshalb ja auch der FPS Limiter.

Ob die den letzten 900+ State jetzt Marktingwirksam "Turbo", "High Power", "Max. Power" oder "Ultra Power" nennen ist wurscht.
Das wirklich neue Detail ist dass, was schon bei Fermi spekuliert wurde, dass man die ALUs scheinbar unabhänig vom Rest takten kann.

Ist doch optimal.

boxleitnerb
2012-03-08, 18:44:52


will be able to reach 1411 MHz when the chip is loaded to 100% ;)

Weshalb steht dann da das "alone"?
Zwei Möglichkeiten:
1. Sie wollten sagen, dass nur die Cores überhaupt so hoch takten können
2. Sie wollten sagen, dass nur die Cores ihren maximal möglichen Takt auch bei 100% load erreichen können - der Rest des Chips nicht.

Adam D.
2012-03-08, 18:50:45
wenn der GK104 wirklich auf dem HD 7970 Level wäre braucht man keinen GK110 mehr. Dann kann man sich die Entwicklungskosten sparen und mit einem Hochgetakteten Gk104 gut auskommen... Was uns natürlich teuer zu stehen kommt.
Oder ist der Gk110 im August gemeint und nicht in den nächsten 1-2 Monaten imo. leicht verwierend.
Jetzt kann man sich keine Entwicklungskosten mehr sparen, höchstens ein wenig in Bezug auf einen riskanten Start (was auch immer das heißen mag). Es gibt einfach gerade nicht ausreichend fordernde Software (sieht man von abartigen Auflösungen oder Kantenglättung ab, was natürlich berechtigt stärkere Karten fordern könnte). Dazu kommt die Stärke Nvidias oder Schwäche ATis, wie man es eben sehen will - Kepler scheint für Nvidias Marktstrategie wohl einfach gerade ausreichend.

Ailuros
2012-03-08, 18:50:45
Die Cuda Cores laufen immer auf 1411 MHz, unabhängig von der Last, verstehe ich das richtig?

will be able to reach 1411...

GK110 nicht für den Desktop? :confused:

Doch aber wohl nicht im Mai im projeziert sondern wohl zuerst HPC und dann irgendwann mal danach desktop. Bei der GTC gibts anstatt dann dass oede mGPU Dingsbums :mad:

M4xw0lf
2012-03-08, 18:54:26
Hat sich jemand hier schon mal die Zahlen genauer angesehen? :freak:
http://extreme.pcgameshardware.de/attachments/526950d1331226530-kepler-gk104-weitere-karte-aufgetaucht-jetzt-doch-eine-gtx-670-ti-buwuv4g9.jpg

boxleitnerb
2012-03-08, 18:54:29
will be able to reach 1411...

Hm, also erreichen die Cores unter 100% Last 1411 MHz, bei weniger Last dann mehr oder wie? Mich irritiert, dass sie beim Chiptakt ein Taktfenster angegeben haben, hier nicht.

Duke Nukem
2012-03-08, 19:06:16
Das bildchen ist im neuen NV Treiber versteckt. Powertune wie im AMD CC auch. PLUs FPs per second ? Wird wohl ein Frame limiter sein. Dies ja schon gibt. Also wohl nix neues.
http://www.abload.de/img/j97nd55asbvl2gvib.jpg

Schaffe89
2012-03-08, 19:18:53
Ich bin mal gespannt wie dieser Turbo funktionieren soll.
Wenn das alles abhängig von der Aulastung ist und man liegt im CPU Limit, könnte die Karte höher takten, obwohl es gar keinen Sinn hätte.

Aber seitdem wirklich bekannt, ist, dass es den GK110 erst deutlich später geben soll, ist für mich die Spannung irgendwie etwas raus aus der Geschichte.

Dynamic Clock Adjustment is very similar to former “hot clocks”, with the difference that GK104 comes with several dozen power planes, and will operate on varying clocks depending on the computational load, card temperature and the power consumption. As we posted several days ago, the complete GK104 chip will operate at a lower clock, very similar figure to GTX 480: low power mode is 300 MHz, standard is 705 MHz extendable to 950 MHz – while the cores alone will be able to reach 1411 MHz when the chip is loaded to 100%

Solch ein eher komplexes Feature (Abhängig von Temperatur/Auslastung und Stromverbrauch), dann noch abhängig von der Chipgüte und den Leckströmen, lässt auf jeden Fall einigen Spielraum zwischen Presse Samples und Samples für den Verkauf.
Denn wenn die nicht so dolle sind, gibts wohl nicht soviel "Turbo" zugeschaltet, daher wärs besser, wenn man das gleich komplett für Tests abschaltet, denn ansonsten wird der verhagelt.
Für genaue Performanceeinschätzungen dürfte das dann relativ doof sein.
Ich kann mir dann vorstellen, dass wir sehr kühle Boardpartner Karten sehen, falls da Feature da auch dabei ist.

Irgendwie hab ich aber das Gefühl, dass Nvidia durch diesen Turbo alles daran setzt it einigermaßen gutem Strombedarf sich irgendwie vor Tahiti zu setzen, denn ansonsten erschließt sich mir der Sinn des Turbos nicht wirklich.

RoNsOn Xs
2012-03-08, 19:19:40
Ist der GK110 wieder so riesig, dass der wieder länger braucht für ne richtige Stückanzahl?

aylano
2012-03-08, 19:29:36
standard is 705 MHz extendable to 950 MHz – while the cores alone will be able to reach 1411 MHz when the chip is loaded to 100%.
705 Mhz-Standard wäre recht wenig.
Das wären so 100 Mhz weniger als es GTX560 (selbe Die-Größe) hatte.
HD 7970 hatte immerhin +50Mhz auf den Vorgänger zugelegt.

Oder wenn man "Big-Dies" bei juniger Fertigung vergleicht.
Da hätte HD 7970 gegenüber HD 5870 um 75 Mhz zugelegt, während GK104 mit 700 Mhz so 25% (GF104) bzw. 0% (GF100) zulegen würde.
Das könnte auf einen ziemlich unausgereiften Die hindeuten.

Klar ist ungewiss & entscheidend, was die 1536 Cuba-Cores dann real leisten und wie die Performance & P/W dann wird.
Aber irgendwie Komisch ist die Sache schon. Sie soll gerade bzw. knapp unter Thaiti XT-Höhe liegen und dabei deutlich effizienter sein?
Bei eine GK110 im 2H 2012 kann ich mir nicht so vorstellen, dass Nvidia dann die Performance-Krone über die Stromverbrauchs-Reserve nehmen würde.

Der Niedrige Takt von 700 deutet eigentlich eine Überraschung. Entweder eine Positive, wo die neuen Cuba-Cores über die Breiten einen beachtlichen Sprung machen, als die alten Cuda-Cores, oder eine Negative, wo der Stromverbrauch höher als geplant ist und der Takt mit 700 Mhz überraschend niedrig gesenkt werden musste.

Na ja, der niedrige Takt deutet im ersten Momentan eigentlich eine negativen Aha-Effekt, wo Nvidia vielleicht nicht mehr Probleme = zukünftiger Fertigungspotential hat, als sie es jetzt noch weismachen wollen.

Turbo-Modus hört sich interessant an (effizientere TDP- & Einheiten-Auslastung), was vielleicht die Probleme (ähnlich wie bei Thaiti-Powertune) mildern. Falls es bei GK104 so eintreten mögen, sieht es für GK110-Desktop natürlich entsprechend düsterer aus. (Bei GK110-Tesla/Quadro ist die Yield & Stückzahl ja bei weiten nicht so wie bei Desktop)

boxleitnerb
2012-03-08, 19:34:11
Ich sehe das erstmal positiv. Die Einheiten, die nicht ausgelastet werden, werden langsamer getaktet, dadurch hat man mehr momentane Reserve, was die TDP angeht. Dafür werden die geforderten Einheiten hochgetaktet. Man verschiebt die TDP sozusagen quer über den Chip und verschwendet nichts.

Ronny145
2012-03-08, 19:34:30
wenn der GK104 wirklich auf dem HD 7970 Level wäre braucht man keinen GK110 mehr. Dann kann man sich die Entwicklungskosten sparen und mit einem Hochgetakteten Gk104 gut auskommen... Was uns natürlich teuer zu stehen kommt.
Oder ist der Gk110 im August gemeint und nicht in den nächsten 1-2 Monaten imo. leicht verwierend.

Das macht kein Sinn. GK110 hat seinen Tapeout hinter sich, muss also in der Entwicklung sehr weit fortgeschritten sein. Vor Q3 wird GK110 sicherlich nicht erscheinen.

Gipsel
2012-03-08, 19:37:45
Ich sehe das erstmal positiv. Die Einheiten, die nicht ausgelastet werden, werden langsamer getaktet, dadurch hat man mehr momentane Reserve, was die TDP angeht. Dafür werden die geforderten Einheiten hochgetaktet. Man verschiebt die TDP sozusagen quer über den Chip und verschwendet nichts.
Falls das denn so funktioniert. Ist ja nicht so, als hätte Theo nicht auch schon mal kolossal daneben gelegen.

Schaffe89
2012-03-08, 19:43:37
Na ja, der niedrige Takt deutet im ersten Momentan eigentlich eine negativen Aha-Effekt, wo Nvidia vielleicht nicht mehr Probleme = zukünftiger Fertigungspotential hat, als sie es jetzt noch weismachen wollen.



Der Turbo deutet für mich eigentlich darauf hin, dass man nicht dauerhaft einen hohen Takt fahren kann, um die Radeons zu schlagen, sondern so "Momente" in Spielen nutzt in denen die Leistungsaufnahme relativ gering ist und dann die Average FPS demnach in gewissen Situationen etwas anhebt.

705mhz zu 950 sind ein gewaltiger Unterschied, insofern dürfte das je nach Spiel/Verbrauch und Auslastung teilsweise kuriose Benchmarkergebnisse bringen.

Wenn man dann noch die angeblich Benchmarktabelle nimmt, wo angeblich 1050mhz Chiptakt an der Karte anliegen und man da so 10 bis 15% über Tahiti XT liegt, dürfte das mit sonem dynamischen Takt grade mal so reichen um sich vor die HD 7950 zu setzen.

Jetzt wird auch endlich klar, warume s ein ständiges hü und hott mit dem Hotclock gab.

Und sehr wenige Karten ende März, deuten wohl eher darauf hin, dass Nvidia da noch arge Probleme mit der Verfügbarkeit/Ausbeute hat.
Fr mich sieht das jetzt wieder eher schlecht als gut aus, was die Preise betrifft.
Es wird ewig dauern bis die mal ein angemessenes( für geizige) Niveau erreicht haben.

fizzo
2012-03-08, 19:46:03
Ich warte erst noch auf eine so einfache wie moegliche Erklaerung (die dann auch hoffentlich jeder verstehen kann) fuer das Frequenz-Schlammassel.

Sonst kommt ca. 2 Monate nach 104 eine mGPU und eine 192bit SKU mit ziemlicher imposanter angeblicher Leistung. Fuer GK110 muessen wir wohl so bald wie moeglich einen anderen Thread aufmachen, aber ich zoegere noch etwas da ich die bisher gesammelte paar Infos noch nicht veroeffentlichen will. Auf jeden Fall stimmt es wohl dass nichts davon fuer desktop in absehbarer Zeit erscheinen wird.

Dann befürchte ich wirklich, dass GTX 680 mit >400$ starten wird. Nun stellt sich die Frage ob zeitgleich eine GTX 670 vorgestellt wird und die von dir angedachte 192bit SKU eventuell die nachgeschobene GTX 660 wird?

Bei den Frequenzen blicke ich nun auch nicht wirklich durch. Wird man die Karte auch "manuell" 10-20% höher takten können? Wie wirkt sich dies dann auf den "Turbo" aus?

Ailuros
2012-03-08, 19:48:32
Falls das denn so funktioniert. Ist ja nicht so, als hätte Theo nicht auch schon mal kolossal daneben gelegen.

Sagen wir mal dass es eine angenehme Aussnahme waere wenn er selber etwas herausgefunden hat dass eben nicht auf falschen Bein liegt.

boxleitnerb
2012-03-08, 19:48:51
Bzgl. OC könnte man sich vorstellen, dass man die TDP einfach erhöht. Oder den Maximaltakt pro Domäne hochsetzt und der Chip weiterhin selbst den Takt verwaltet, dann halt höher geht bis zur neuen Grenze.
WENN es funktioniert, sehe ich nicht ein, warum man die Taktraten manuell festlegen sollte (also den Turbo ausschalten). Man gewinnt nichts und verliert Performance ggü. mit Turbo.

Lyka
2012-03-08, 19:49:54
*grübel* mit welchen Werten (Watt) NV bei Idle da wohl punkten mag

Ailuros
2012-03-08, 19:53:18
Dann befürchte ich wirklich, dass GTX 680 mit >400$ starten wird. Nun stellt sich die Frage ob zeitgleich eine GTX 670 vorgestellt wird und die von dir angedachte 192bit SKU eventuell die nachgeschobene GTX 660 wird?

GK106 ist der letzte Kepler tapeout. Sonst hat KEINER momentan eine Ahnung ueber den Preis und ich bezweifle dass sich selbst NVIDIA schon entschieden hat.

Bei den Frequenzen blicke ich nun auch nicht wirklich durch. Wird man die Karte auch "manuell" 10-20% höher takten können? Wie wirkt sich dies dann auf den "Turbo" aus?

Es ist wohl offensichtlich von meinen vorigen Posts dass ich noch nichts genaueres darueber weiss. Zum Zeitpunkt wo ich vom turbo modus erfuhr und nach Erlaeuterungen fragte machte NV auch fast alles dicht. Dass es ihn gibt kein Zweifel, dass es wirklich so ist wie VR-zone es beschreibt bezweifle ich zwar dank Bauchgefuehl kann mir aber nicht sicher sein ob es stimmt.

fizzo
2012-03-08, 19:59:27
GK106 ist der letzte Kepler tapeout. Sonst hat KEINER momentan eine Ahnung ueber den Preis und ich bezweifle dass sich selbst NVIDIA schon entschieden hat.

Es ist wohl offensichtlich von meinen vorigen Posts dass ich noch nichts genaueres darueber weiss. Zum Zeitpunkt wo ich vom turbo modus erfuhr und nach Erlaeuterungen fragte machte NV auch fast alles dicht. Dass es ihn gibt kein Zweifel, dass es wirklich so ist wie VR-zone es beschreibt bezweifle ich zwar dank Bauchgefuehl kann mir aber nicht sicher sein ob es stimmt.

Fragen kostet ja nichts ;) Dann wissen wir immer noch nicht was kommenden Montag gebrieft wird. 1 oder 2 Karten. GTX 680 oder GTX 670 oder ist die letztere die 192bit Variante? Dann ist am Preisgerücht (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9200298&postcount=5491) auch nichts dran. Irgendwie unbefriedigend :ugly:

Ailuros
2012-03-08, 20:05:22
GK106 ist 192bit, kommt aber erst im Mai.

Blediator16
2012-03-08, 20:06:19
Hat sich jemand hier schon mal die Zahlen genauer angesehen? :freak:
bild

Ich dachte auch erst ich seh nicht richtig. Sehr merkwürdig. Wer will uns da bloß verarschen :confused:

Ailuros
2012-03-08, 20:06:35
Fragen kostet ja nichts ;) Dann wissen wir immer noch nicht was kommenden Montag gebrieft wird. 1 oder 2 Karten. GTX 680 oder GTX 670 oder ist die letztere die 192bit Variante? Dann ist am Preisgerücht (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9200298&postcount=5491) auch nichts dran. Irgendwie unbefriedigend :ugly:

Wieviel sind denn die 3300 wasauchimmer umgerechnet?

boxleitnerb
2012-03-08, 20:08:44
Wieviel sind denn die 3300 wasauchimmer umgerechnet?

3500 sind je nach Währung 420 (Renminbi) oder 340 Euro (HongKong Dollar).

fizzo
2012-03-08, 20:11:26
3500 sind je nach Währung 420 (Renminbi) oder 340 Euro (HongKong Dollar).

genau, oder auch >500$ (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9200320&postcount=5493)

Wäre interessant was die 7970/7870 dort kosten?

Ailuros
2012-03-08, 20:13:02
705 Mhz-Standard wäre recht wenig.
Das wären so 100 Mhz weniger als es GTX560 (selbe Die-Größe) hatte.
HD 7970 hatte immerhin +50Mhz auf den Vorgänger zugelegt.

GF114 hat aber auch einen 170W TDP.

Oder wenn man "Big-Dies" bei juniger Fertigung vergleicht.
Da hätte HD 7970 gegenüber HD 5870 um 75 Mhz zugelegt, während GK104 mit 700 Mhz so 25% (GF104) bzw. 0% (GF100) zulegen würde.
Das könnte auf einen ziemlich unausgereiften Die hindeuten.

Welches Wunder: cores von unterschiedlichen Architekturen unterscheiden sich.

Klar ist ungewiss & entscheidend, was die 1536 Cuba-Cores dann real leisten und wie die Performance & P/W dann wird.
Aber irgendwie Komisch ist die Sache schon. Sie soll gerade bzw. knapp unter Thaiti XT-Höhe liegen und dabei deutlich effizienter sein?

So knapp sieht mir der Unterschied in die area nun auch wieder nicht aus.

Bei eine GK110 im 2H 2012 kann ich mir nicht so vorstellen, dass Nvidia dann die Performance-Krone über die Stromverbrauchs-Reserve nehmen würde.

:rolleyes:

Der Niedrige Takt von 700 deutet eigentlich eine Überraschung. Entweder eine Positive, wo die neuen Cuba-Cores über die Breiten einen beachtlichen Sprung machen, als die alten Cuda-Cores, oder eine Negative, wo der Stromverbrauch höher als geplant ist und der Takt mit 700 Mhz überraschend niedrig gesenkt werden musste.

Wollen wir erstmal abwarten ob es erstmal stimmt und wenn ja inwiefern es genau funktioniert?


Turbo-Modus hört sich interessant an (effizientere TDP- & Einheiten-Auslastung), was vielleicht die Probleme (ähnlich wie bei Thaiti-Powertune) mildern. Falls es bei GK104 so eintreten mögen, sieht es für GK110-Desktop natürlich entsprechend düsterer aus. (Bei GK110-Tesla/Quadro ist die Yield & Stückzahl ja bei weiten nicht so wie bei Desktop)

GK110 wird um einiges niedriger takten.

Blediator16
2012-03-08, 20:15:29
Laut SA soll am Montag ein Paperlaunch hingelegt werden. Wenn das so sein SOLLTE, dann müssten die Redaktionen ja eigentlich ihre Karten schon haben.

AwesomeSauce
2012-03-08, 20:17:16
Laut SA soll am Montag ein Paperlaunch hingelegt werden. Wenn das so sein SOLLTE, dann müssten die Redaktionen ja eigentlich ihre Karten schon haben.
Press Briefing gilt nun schon als "Launch"? Das wird ja immer lustiger:freak:

Ailuros
2012-03-08, 20:31:52
Zwar ist vr-zone wieder als Quelle genannt aber dieses klingt ein bisschen ausfuehrlicher:

http://www.techpowerup.com/162035/GK104-Dynamic-Clock-Adjustment-Detailed.html

The baseline core clock of GK104's implementation will be similar to that of the GeForce GTX 480: 705 MHz, which clocks down to 300 MHz when the load is lowest, and the geometric domain (de facto "core") will clock up to 950 MHz on high load. The CUDA core clock domain (de facto "CUDA cores"), will not maintain a level of synchrony with the "core". It will independently clock itself all the way up to 1411 MHz, when the load is at 100%.

Na guten Appetit wenn's stimmt bis das Publikum das erstmal versteht.

Laut SA soll am Montag ein Paperlaunch hingelegt werden. Wenn das so sein SOLLTE, dann müssten die Redaktionen ja eigentlich ihre Karten schon haben.

Der Launch ist gegen Ende Maerz.

King
2012-03-08, 20:54:46
Zwar ist vr-zone wieder als Quelle genannt aber dieses klingt ein bisschen ausfuehrlicher:

http://www.techpowerup.com/162035/GK104-Dynamic-Clock-Adjustment-Detailed.html



Na guten Appetit wenn's stimmt bis das Publikum das erstmal versteht.



Der Launch ist gegen Ende Maerz.

könnte mit der technik der hpc balast bei gk 110 unter 3d last asynchron takten? sry wenn das kompletter schwachsinn war

Ailuros
2012-03-08, 21:30:39
könnte mit der technik der hpc balast bei gk 110 unter 3d last asynchron takten? sry wenn das kompletter schwachsinn war

Keine Ahnung. Erstmal sehen ob es so wie bis jetzt beschrieben stimmt; die angeblichen "dutzende" von power plans sitzen schon etwas merkwuerdig. Als ob es so oder so etwas merkwuerdiges waere auf einer GPU.

boxleitnerb
2012-03-08, 21:35:21
Die power plan(e)s sind wahrscheinlich nur die Abstufungen beim Takt. Macht ja keinen Sinn, z.B. die SMs unabhängig voneinander zu takten. Shaderlast ist Shaderlast, Grafik ist immer hochparallel. Da gehts wohl eher um die Granularität dieser Lösung.

Ailuros
2012-03-08, 21:43:48
Die power plan(e)s sind wahrscheinlich nur die Abstufungen beim Takt. Macht ja keinen Sinn, z.B. die SMs unabhängig voneinander zu takten. Shaderlast ist Shaderlast, Grafik ist immer hochparallel. Da gehts wohl eher um die Granularität dieser Lösung.

Wieso wuerde es keinen Sinn machen die ALUs unterschiedlich zu takten? Was machen denn multi-core ARM CPUs in heutigen small form factor SoCs genau? Eines der Gruende warum Tegra3 nicht mehr Strom verbratet als Tegra2 (obwohl quad@1.4 vs. dual@1GHz), ist dass bei T2 die CPU cores immer bei gleichem Takt angesetzt werden; im Gegensatz zum T3 quad core CPU block wo die CPU cores unabhaengig voneinander auf verschiedenen Frequenzen takten koennen. Nicht das ich so etwas bei Kepler erwarte, aber sinnlos ist so eine Idee allemal nicht.

http://www.xbitlabs.com/news/graphics/display/20120307222403_Nvidia_GeForce_Kepler_to_Offer_Dynamic_Overclocking.html

Potentially, DCA technology may either help them to further improve Kepler graphics cards or make it impossible to make pre-overclocked boards.

Laut einem Hersteller zumindest duerfte es eher der erste Fall sein.

Gipsel
2012-03-08, 21:47:05
Die power plan(e)s sind wahrscheinlich nur die Abstufungen beim Takt. Macht ja keinen Sinn, z.B. die SMs unabhängig voneinander zu takten. Shaderlast ist Shaderlast, Grafik ist immer hochparallel. Da gehts wohl eher um die Granularität dieser Lösung.
Als power plane (mit e, wie Theo das ursprünglich schrieb, TPU hat das nur falsch abgeschrieben oder per zufälligem Schreibfehler berichtigt) bezeichnet man üblicherweise unabhängig mit (unterschiedlicher) Spannung versorgte Bereiche eines Chips. Dutzende Powerplanes würden also auch Dutzende unabhängige Spannungsregler erfordern, ergo klar Schwachsinn (nicht umsonst benutzen auch CPUs normalerweise nur zwei, maximal drei Powerplanes).
Entweder ist die Anzahl der Bereiche gemeint, die man unabhängig Powergaten kann (kann jeder SM einzeln von der Versorgung getrennt werden? Klingt nach Overkill). Oder es sind clock domains gemeint (die aber zum größten Teil die gleiche Spannung bekommen, also zur gleichen power plane gehören, sprich die Versorgung orientiert sich an der Domain mit dem jeweils höchsten Spannungsbedarf). Oder wie TPU schreibt doch power plans (ohne e) in dem Sinn, daß jeder power plan die genaue Kombination der Takte in allen einzelnen clock domains festlegt.

boxleitnerb
2012-03-08, 21:48:47
Wieso wuerde es keinen Sinn machen die ALUs unterschiedlich zu takten? Was machen denn multi-core ARM CPUs in heutigen small form factor SoCs genau? Eines der Gruende warum Tegra3 nicht mehr Strom verbratet als Tegra2 (obwohl quad@1.4 vs. dual@1GHz), ist dass bei T2 die CPU cores immer bei gleichem Takt angesetzt werden; im Gegensatz zum T3 quad core CPU block wo die CPU cores unabhaengig voneinander auf verschiedenen Frequenzen takten koennen. Nicht das ich so etwas bei Kepler erwarte, aber sinnlos ist so eine Idee allemal nicht.


Moment, bei CPUs hast du mitunter sich dramatisch unterscheidende Workloads. Also eine Anwendung, die nur einen Thread stark beansprucht vs. eine, die vier Thread auslasten kann.

Ich bin jetzt zwar ein Laie, aber macht es einen Unterschied, ob ich 100 Cudacores mit 100 MHz takte oder 50 mit 200 MHz? Solange ich sie alle gleichzeitig beschäftigen kann, wovon ich mal ausgehe (und das ist eben der Unterschied zu einer CPU imo), dürfte sich das nichts geben.

Zu den power plans:
Wäre das dasselbe wie Echtzeitlasterkennung einzelner Einheitenblöcke mit Veränderung der Taktraten in bestimmten Schritten?

Gipsel
2012-03-08, 21:53:37
Moment, bei CPUs hast du mitunter sich dramatisch unterscheidende Workloads. Also eine Anwendung, die nur einen Thread stark beansprucht vs. eine, die vier Thread auslasten kann.

Ich bin jetzt zwar ein Laie, aber macht es einen Unterschied, ob ich 100 Cudacores mit 100 MHz takte oder 50 mit 200 MHz? Solange ich sie alle gleichzeitig beschäftigen kann, wovon ich mal ausgehe (und das ist eben der Unterschied zu einer CPU imo), dürfte sich das nichts geben.
Du kannst aber verschiedene Shaderprogramme gleichzeitig laufen haben. Stell' Dir mal vor, eines davon belastet fast ausschließlich die Shadereinheiten, läßt die TMUs und ROPs aber beinahe arbeitslos. Gleichzeitig läuft auf dem benachbarten SM aber ein Shader, wo die Einheiten Däumchen drehen und nur auf die Daten von den TMUs warten und die dann einfach an die ROPs durchreichen. Die Shadereinheiten des zweiten SM würde die Aufgabe auch locker bei weniger Takt in der gleichen Zeit schaffen und dabei Energie sparen.

boxleitnerb
2012-03-08, 21:55:58
Klingt einleuchtend. Danke für die Erklärung.

Ailuros
2012-03-08, 21:58:16
Moment, bei CPUs hast du mitunter sich dramatisch unterscheidende Workloads. Also eine Anwendung, die nur einen Thread stark beansprucht vs. eine, die vier Thread auslasten kann.

Inwiefern unterscheidet sich bei der Vereinfachung eine GPU wenn es zu unterschiedlichen workloads kommt?

Ich bin jetzt zwar ein Laie, aber macht es einen Unterschied, ob ich 100 Cudacores mit 100 MHz takte oder 50 mit 200 MHz? Solange ich sie alle gleichzeitig beschäftigen kann, wovon ich mal ausgehe (und das ist eben der Unterschied zu einer CPU imo), dürfte sich das nichts geben.

Der erste Fall duerfte rein theoretisch weniger verbrauchen dank niedrigerem Takt. Es geht ja auch rein hypothetisch um die Faelle wo man alle Einheiten eben nicht braucht. Ich lass mich auch gerne eines besseren belehren, aber ich hab nach wie vor den Eindruck dass je dynamisch fortschrittlicher eine Gruppe von Einheiten getaktet wird, desto mehr Strom kann man sparen. Keine Ahnung ob es eine Schnappsidee fuer GPUs sein sollte.

hell_bird
2012-03-08, 22:00:11
Ich bin jetzt zwar ein Laie, aber macht es einen Unterschied, ob ich 100 Cudacores mit 100 MHz takte oder 50 mit 200 MHz? Solange ich sie alle gleichzeitig beschäftigen kann, wovon ich mal ausgehe (und das ist eben der Unterschied zu einer CPU imo), dürfte sich das nichts geben.

aus irgendeinem Grund, den ich leider gerade nicht mehr weiß läuft der Stromverbrauch quadratisch mit der Spannung. Für eine höhere Frequenz ist nunmal eine höhere Spannung nötig, daher ist eine breitere parallelisierung bevorzugt.

boxleitnerb
2012-03-08, 22:02:46
Ich dachte eben, dass alle ALUs immer gleichzeitig (stark) ausgelastet sind. Ich habe nicht bedacht, dass die auch auf Daten von anderen Einheiten (auch untereinander) warten müssen. Macht aber schon Sinn so wie ihr es sagt. Man beschleunigt praktisch den kritischen Pfad und macht alles andere so langsam wie möglich.

Ailuros
2012-03-08, 22:06:37
Frueher oder spaeter werden IHVs schon auf so etwas kommen, ueberhaupt je mehr SoCs mainstream werden und unter der Perspektive dass alle Bloecke auf diesen mit der genau gleichen Bandbreite auskommen muessen.

---------------------------------------------------------------------------------------------------------------------------

http://forum.beyond3d.com/showpost.php?p=1626264&postcount=2233

Individual partitions are power gated (and a bunch of them together can be rail gated since they share the rail). But you won't have different voltages for each partition since the number of power rails itself is not going to be very large.

Tesseract
2012-03-08, 22:52:55
705 Mhz-Standard wäre recht wenig.
Das wären so 100 Mhz weniger als es GTX560 (selbe Die-Größe) hatte.
HD 7970 hatte immerhin +50Mhz auf den Vorgänger zugelegt.

finde ich überhaupt nicht wenig. ~700 ist wohl ein ziemlicher effizienz-sweet-spot und die performancekritischen teile laufen ja am hotclock und damit potenziell ein gutes stück höher als die der 7970 - mit cores die denen der 7970 wesentlich ähnlicher sind als das bei fermi der fall war.

klar, für einen fermi-refresh wär das verdammt wenig. fermi war aber auch auf extreme taktbarkeit ausgelegt und hätte nie so viele cores untergebracht.

dreas
2012-03-08, 22:54:33
klingt für mich wieder alles nach fermi. hat nv denn nix gelernt?

Hugo78
2012-03-08, 22:56:49
klingt für mich wieder alles nach fermi. hat nv denn nix gelernt?

Hä?

DarknessFalls
2012-03-08, 23:08:17
Also, Fermi-Shader können das IMHO nicht sein, auch keine die denen von Fermi ähnlich sind. 1536 Shader (wie es ja z.Zt. aussieht) mit Hotclock wären viel zu massig, um sie in der geringen DIE-Fläche unterzubringen. 3x so viele Hotclock-Shader wie GF110 sind selbst bei 28nm einfach nicht unterzubringen, ohne einen riesigen Chip zu haben, der heiss und stromhungrig ist.

Wenn nV nicht das Rad neu erfunden hat, ist das mit den Hotclocks Käse.

Hugo78
2012-03-08, 23:16:30
Thaiti XT hat 2048 und macht per OC 1200Mhz auf dem gesamten Chip.
Keine Ahnung warum da 1400 Mhz nur für die 1536 ALUs so unglaublich klingen.

DarknessFalls
2012-03-09, 06:44:32
...weil ein Hotclock-Shader nahezu doppelt so viel Platz benötigt, wie ein "normaler" Shader. Sprich, 1536 Shader mit Hotclock wären nahezu so platzintensiv wie 3072 Standardshader. Wie bringst Du das mit der DIE-Größe von ~320mm² in Einklang?

horn 12
2012-03-09, 07:00:25
Schauen ob die Tage weiteres durchsickert...
Vielleicht kommt ja was vor Monatga an die Öffentlichkeit.
Bin gespannt...

boxleitnerb
2012-03-09, 07:11:11
Ich frage mich gerade, was beim CPU-Limit oder VSync passiert. Diese dynamische Taktung dürfte nicht nur nach TDP gehen, sondern müsste auch merken, wenn alle Einheiten nicht voll belastet sind und dann nicht hochtakten. Wenn die GPU unnötig mehr verbraucht, obwohl es nicht mehr fps gibt, wäre das natürlich sehr unschön.

foenfrisur
2012-03-09, 07:16:47
sie taktet hoch oder runter, bis alle einheiten effizient ausgelastet sind ;)

sie spart dann eben energie. dynamisch nach oben so wie nach unten ;)

oder wird eben schneller.
bei vsync heißt es eben energie sparen.

mfg

cR@b
2012-03-09, 07:33:48
Was auch nicht schlecht wäre, wenn die Taktung bei absacken der Frames anspringt und die min frames so gering wie möglich halten würde. Hmm bin sehr gespannt was der Turbomodus bringt.

AnarchX
2012-03-09, 08:44:23
http://we.pcinlife.com/data/attachment/forum/201203/09/1225367ejpuza7aiwvq9av.jpg

http://we.pcinlife.com/data/attachment/forum/201203/09/1225360whgoaaodm15od52.jpg

http://we.pcinlife.com/data/attachment/forum/201203/09/122536uvvr4try8w44fyaz.jpg


http://we.pcinlife.com/thread-1849001-1-1.html


http://bbs.expreview.com/data/attachment/forum/201203/09/145551v2zl5zctmcchttoh.jpg

http://bbs.expreview.com/thread-49805-1-1.html

http://bbs.expreview.com/data/attachment/forum/201203/09/105912ho4huyutuzez4vh5.jpg

http://bbs.expreview.com/thread-49802-1-1.html

boxleitnerb
2012-03-09, 08:51:09
Also doch der Turm. Vielleicht nicht für alle relevant, aber das wird beschissen aussehen mit einem schönen flachen Wasserkühler :freak:

AnarchX
2012-03-09, 08:53:50
You will start to see benchmark leaks and such probably in the next couple of days. I think most of those will be at less than 2560 resolution. And let's face it, you don't need a flagship card for resolution that small. Honestly, like always, we are going to have to put it through [H] large resolution gaming paces before we make a call on where it is compared to 7970. I think the 680 will be faster but by how much, we don't know yet, and I have seen NO MSRPs confirmed.
http://hardforum.com/showpost.php?p=1038472599&postcount=89

Im letzten Link oben schreibt PHK, dass die Karte (680?) nun 500 Punkte schneller wäre mit dem GeForce 300.83. Wahrscheinlich 3DM11 X-Score.

Hugo78
2012-03-09, 08:55:12
Ich schätze mal Thermalright werden mit ihrem Shaman die ersten sein, die passende Aftermarket-HighEnd Kühler für Kepler anbieten können.

http://hardforum.com/showpost.php?p=1038472599&postcount=89


Kyle verkennt dass 90% der Leute nur mit einem Monitor in ebend nur max. der "kleinen" 1920*1080 Auflösung zocken.
45% dieser Leute nutzen sogar noch das "winzige" 1680*1050.

Gunslinger
2012-03-09, 09:17:59
Kyle verkennt dass 90% der Leute nur mit einem Monitor in ebend nur max. der "kleinen" 1920*1080 Auflösung zocken.
45% dieser Leute nutzen sogar noch das "winzige" 1680*1050.

Eben. Mich interessieren als durchschnittlich informierter "Normaluser" viel eher Tests mit Supersampling bzw. min fps. auf 1920x1200.

Spasstiger
2012-03-09, 09:32:37
Also doch der Turm. Vielleicht nicht für alle relevant, aber das wird beschissen aussehen mit einem schönen flachen Wasserkühler :freak:
Ist doch ein Vorserienmodell, würde das nicht als finales Design betrachten.

boxleitnerb
2012-03-09, 09:34:34
Sicher? Na dein Wort in Gottes Ohr. Ich mein, man hat ja durchaus praktische Vorteile, eben mehr Platz für den Kühler. Der Ästhetikverlust für Umrüster interessiert die doch nicht.

AnarchX
2012-03-09, 09:34:37
Das dürfte schon das finale Design sein.

Aber es wird wohl auch Karten geben, mit anderem Kühler, welche die Stecker nebeneinander haben.

Dural
2012-03-09, 09:40:25
sehr schön, meine 7970 geht am montag weg ;)

M4xw0lf
2012-03-09, 09:43:15
Das dürfte schon das finale Design sein.

Aber es wird wohl auch Karten geben, mit anderem Kühler, welche die Stecker nebeneinander haben.

Das PCB - wenn es denn ein finales ist - hat ja sogar neben dem Turm schon die Anschlüsse für einen 6-Pin Stecker.

sehr schön, meine 7970 geht am montag weg ;)

Sinn? Hast du wenigstens keinen Verlust dabei gemacht?

Dural
2012-03-09, 09:47:12
sinn? ich will was neues und erst recht kepler mal ausprobieren. :)

aber ja die 7970 macht auch spass, mit 1,2GHz+ fühlt sich die Karte gut an, bei default takt fühlt sich die karte wie eine GTX580 OC an...

Palpatin
2012-03-09, 09:49:00
Kyle verkennt dass 90% der Leute nur mit einem Monitor in ebend nur max. der "kleinen" 1920*1080 Auflösung zocken.
45% dieser Leute nutzen sogar noch das "winzige" 1680*1050.
Nein, er schreibt doch "And let's face it, you don't need a flagship card for resolution that small" und da muss ich ihm zu 100% recht geben. Eine 7970 oder 680/780 what ever brauch ich nicht wenn ich nur 1080p 4AA will und schon erst recht nicht für 1680x1050.

AnarchX
2012-03-09, 09:50:32
Von PHK gibt es wohl auch eine Negativinfo in Richtung GK110:
http://bbs.expreview.com/thread-48745-1-1.html
http://we.pcinlife.com/thread-1848960-1-1.html

Dass man einen HPC-Chip für die Cluster benötigt, sollte klar sein.
Aber die Frage ist wohl ob die Liefermengen für GeForce und Quadro/Tesla reichen bzw. wie gut der Chip für 3D-Spiele geeignet ist.

M4xw0lf
2012-03-09, 09:52:56
Nein, er schreibt doch "And let's face it, you don't need a flagship card for resolution that small" und da muss ich ihm zu 100% recht geben. Eine 7970 oder 680/780 what ever brauch ich nicht wenn ich nur 1080p 4AA will und schon erst recht nicht für 1680x1050.

Man kann auch unter 1680*1050 locker jede dieser "highendigen" Karten in die Knie zwingen - 4 oder 8xSGSSAA / 4xOGSSAA und du hast ne Diashow. Ich sehe es eher umgekehrt: aktuelle Karten haben bei weitem nicht genug Power um in 1600p mit angemessenen Qualitätseinstellungen (=Supersampling) spielen zu können.

AnarchX
2012-03-09, 09:54:56
Vorteile der GTX 680:
Was opposite in 7970, the new thing's merit had as follows: The low voltage, the high-frequency (broken GHz), the low power loss, the low noise, the high performance (DX11), had new AA, and obtains the game business the support.

http://bbs.expreview.com/thread-49806-1-1.html

Hoffentlich doch mehr als FXAA?

M4xw0lf
2012-03-09, 09:59:39
Vorteile der GTX 680:


http://bbs.expreview.com/thread-49806-1-1.html

Hoffentlich doch mehr als FXAA?

Bist du dir sicher, dass es so rum gemeint ist? Das englische Kauderwelsch macht für mich nicht viel Sinn und auf deutsch klingt es umgekehrt:
Für 7970 liegen die Vorteile der neuen Dinge mit den folgenden:

Niedrig-Spannung, die hohe Frequenz (gebrochene GHz), geringer Stromverbrauch, geringe Geräuschentwicklung, High-Performance (die DX11), eine neue AA, und nutzen Sie die Unterstützung der Wirtschaft des Spiels.

7970 Xiecai hey ha ha ha ha

AnarchX
2012-03-09, 10:02:48
Google: "For 7970, the advantages of the new things with the following:"
Microsoft: "Relative to the 7970lai said, something new has the following advantages:"


Ausserdem ist PHK NV-Fanboy. ;)

Dural
2012-03-09, 10:03:00
naja NV hatte schon immer viel weniger Spannung (seit G80) als AMD, mehr Takt auf den ALUs ja so wie so.


Irgendwie scheint sich mit Kepler doch nicht wirklich viel zu ändern, NV scheint nur an ihren Problemen gearbeitet zu haben und die wäre mehr Einheiten auf weniger Fläche und wenn sie das kombiniert mit ihren alten Vorteilen zusammen gebracht haben steht mit Kepler schon ziemlich eine gute Architektur vor uns

M4xw0lf
2012-03-09, 10:04:57
Weniger Spannung an sich ist ja erstmal kein Vorteil, man hat ja an Fermi gesehen das daraus allein keine bessere Leistungsaufnahme oder Verlustleistung resultiert.

boxleitnerb
2012-03-09, 10:06:59
Kein GK110 auf absehbare Zeit wäre echt übel. Wenn Nvidia dann für 30-40% Mehrperformance ggü. der GTX580 $500 verlangt, kriegen sie hoffentlich dieselbe Kritik zu hören wie AMD. Mehr noch, da ihr Chip kleiner ist und weniger Speicher hat.

Adam D.
2012-03-09, 10:12:28
Kein GK110 auf absehbare Zeit wäre echt übel. Wenn Nvidia dann für 30-40% Mehrperformance ggü. der GTX580 $500 verlangt, kriegen sie hoffentlich dieselbe Kritik zu hören wie AMD. Mehr noch, da ihr Chip kleiner ist und weniger Speicher hat.
Ich hoffe, dass sie sich in dem Fall dem Shitstorm des Jahres stellen müssen :freak: Alleine schon der Begriff "Flagship" in den Quellen der letzten Seiten finde ich mehr als fragwürdig :rolleyes:

Blediator16
2012-03-09, 10:15:31
Kein GK110 auf absehbare Zeit wäre echt übel. Wenn Nvidia dann für 30-40% Mehrperformance ggü. der GTX580 $500 verlangt, kriegen sie hoffentlich dieselbe Kritik zu hören wie AMD. Mehr noch, da ihr Chip kleiner ist und weniger Speicher hat.

Auch wurde AMD schlechte Arbeit nachgesagt, weil die Leistung nicht ihre +60% zur 580 oder was auch immer getroffen hat. Das dürfte dann theoretisch auf die 680 zutreffen evtl. schlimmer, da sie auf ihren eigenen Nachfolger scheinbar weniger draufgepackt haben als AMD auf ihren.

Spasstiger
2012-03-09, 10:15:45
Hoffentlich doch mehr als FXAA?
Die klassischen AA-Modi mit Oversampling hat NV doch schon abgedeckt, so dass man höchstens noch höherstufige Modi anbieten könnte (16xMSAA/SGSSAA). Im Bereich der bildbasierten AA-Modi (MLAA, FXAA, SMAA) gibt es viel mehr Raum für sinnvolle Neu- und Weiterentwicklung, so dass ich dort am Ehesten neue Modi vermute.
Downsampling sehe ich deshalb nicht auf dem Radar, weil NV bereits OGSSAA anbietet.

boxleitnerb
2012-03-09, 10:17:39
Was ich mich gerade frage:
Nvidia hat ja mehr erwartet von AMDs Karten. Das würde aber auch bedeuten, dass man ursprünglich voll und ganz wusste, dass man Tahiti bis auf Weiteres nicht schlagen kann. Man wird GK110 wohl kaum wegen dem schwachen Tahiti verschoben haben, das ist natürlich Quatsch. Bisschen ungewöhnlich für Nvidia.

Auch wurde AMD schlechte Arbeit nachgesagt, weil die Leistung nicht ihre +60% zur 580 oder was auch immer getroffen hat. Das dürfte dann theoretisch auf die 680 zutreffen evtl. schlimmer, da sie auf ihren eigenen Nachfolger scheinbar weniger draufgepackt haben als AMD auf ihren.

Korrekt. Das wäre dann in den Augen der Kundschaft und von der Namensgebung her ein besserer Refresh was die Leistung angeht.

john carmack
2012-03-09, 10:18:11
Ja dann bin ich mal gespannt auf Montag :)
Ob da wirklich etwas kommt?

Ob GK110 wirklich DIE Überkarte wird? Auch wenn ich AMD sehr mag hätte ich nichts gegen eine zweite 8800Ultra :)

M4xw0lf
2012-03-09, 10:19:10
Kein GK110 auf absehbare Zeit wäre echt übel. Wenn Nvidia dann für 30-40% Mehrperformance ggü. der GTX580 $500 verlangt, kriegen sie hoffentlich dieselbe Kritik zu hören wie AMD. Mehr noch, da ihr Chip kleiner ist und weniger Speicher hat.

Das wäre interessant, nach Jahren gäbe es dann mal wieder eine Runde auf Augenhöhe :D

AnarchX
2012-03-09, 10:20:09
Was ich mich gerade frage:
Nvidia hat ja mehr erwartet von AMDs Karten. Das würde aber auch bedeuten, dass man ursprünglich voll und ganz wusste, dass man Tahiti bis auf Weiteres nicht schlagen kann. Man wird GK110 wohl kaum wegen dem schwachen Tahiti verschoben haben, das ist natürlich Quatsch. Bisschen ungewöhnlich für Nvidia.

Möglich wäre, dass 28nm immer noch sehr bescheiden läuft und man alle verfügbaren GK110-Chips in Richtung HPC verschiebt. Da man hier wohl nur 1-1,4 TFLOPs DP versprochen hat, kann man da wohl auch Schrott absetzen, der als GeForce nicht genug Leistung bieten würde.

boxleitnerb
2012-03-09, 10:22:10
Ja, macht Sinn. Wenn man nur kleine Mengen liefern kann, verkauft man sie dort, wo der meiste Gewinn liegt. Hoffentlich bessert sich die Lage im (Spät)Sommer.

Dural
2012-03-09, 10:35:31
Weniger Spannung an sich ist ja erstmal kein Vorteil, man hat ja an Fermi gesehen das daraus allein keine bessere Leistungsaufnahme oder Verlustleistung resultiert.

deswegen sag ich ja auch kombiniert, das heist mehr einheiten = weniger takt nötig und dass in verbindung mit sehr geringer spannung ergibt eine schnelle und energie freundliche GPU ;)

Möglich wäre, dass 28nm immer noch sehr bescheiden läuft und man alle verfügbaren GK110-Chips in Richtung HPC verschiebt. Da man hier wohl nur 1-1,4 TFLOPs DP versprochen hat, kann man da wohl auch Schrott absetzen, der als GeForce nicht genug Leistung bieten würde.

die stückzahlen dürften aber nicht wirklich gross im vergleich zu den desktop karten sein ;)

Blediator16
2012-03-09, 10:36:54
Ja dann bin ich mal gespannt auf Montag :)
Ob da wirklich etwas kommt?

Ob GK110 wirklich DIE Überkarte wird? Auch wenn ich AMD sehr mag hätte ich nichts gegen eine zweite 8800Ultra :)

Die 7970 ist keine besonders schlechte Karte. Durch Pitcairn hat man einfach gesehen, dass dort etwas limitiert. Die Kepler werden scheinbar ähnlich werden und ein 550mm² wird "zwangsweise" schneller werden.

Palpatin
2012-03-09, 11:00:27
Die klassischen AA-Modi mit Oversampling hat NV doch schon abgedeckt, so dass man höchstens noch höherstufige Modi anbieten könnte (16xMSAA/SGSSAA). Im Bereich der bildbasierten AA-Modi (MLAA, FXAA, SMAA) gibt es viel mehr Raum für sinnvolle Neu- und Weiterentwicklung, so dass ich dort am Ehesten neue Modi vermute.
Downsampling sehe ich deshalb nicht auf dem Radar, weil NV bereits OGSSAA anbietet.
Kann es nicht sein das sie jetzt einfach nur das offiziell anbieten was schon lange über Tools möglich war ?

Ronny145
2012-03-09, 11:06:22
Vorteile der GTX 680:


http://bbs.expreview.com/thread-49806-1-1.html

Hoffentlich doch mehr als FXAA?


Ich tippe auf FXAA. Die haben das verschoben, im frühen 295er was das im CP mit drin und wurde später wieder entfernt. Dürfte wohl wieder mit den 300er Treibern und Kepler dabei sein.

Spasstiger
2012-03-09, 11:10:22
Kann es nicht sein das sie jetzt einfach nur das offiziell anbieten was schon lange über Tools möglich war ?
Du meinst SGSSAA im regulären Treiberpanel? Wäre denkbar und ein logischer Schritt, aber ob man bei NV dann von neuen AA-Modi spricht? Das würde ja den Eindruck wecken, NV hätte bislang kein SGSAA unterstützt.

Henroldus
2012-03-09, 11:10:37
sehr schön, meine 7970 geht am montag weg ;)
:crazy:
wozu hast du sie denn dann gekauft?
was weißt du denn von der Nvidia mehr als wir?

Skysnake
2012-03-09, 11:25:50
So Leute kurz vorne weg, sorry für die WoT, aber war auf der CeBIT, also keine Zeit hier was zu schreiben, was jetzt eben nachgeholt werden muss :rolleyes:

Einige schnallen hier ja auch so langsam einiges, und verstehen wohl so langsam, warum ich seit Monaten sage, das dieses Jahr sehr lustig wird, und die lachenden, sowie weinenden Gesichter zwischen den AMD und nVidia Fanboys richtig lustig hin und her wechseln werden, wobei am Ende wohl keiner wirklich richtig glücklich sein wird ;D

Glaubst du, sie werden mehr als $349 verlangen? Kann ich mir schwerlich vorstellen eigentlich. Bzw. ich will es mir nicht vorstellen - nicht jeder muss diese Preistreiberei mitmachen. Vielleicht sind NV Marktanteile wichtiger (wenn man Mengen liefern kann)?

Da kannste aber einen drauf lassen, das nVidia nicht die Preise verwässern will. Die haben absolut kein Interesse daran, da die Produktionskapazitäten sehr beschränkt sind und AMD endlich mal nicht auf Preiskampf setzt. Zudem will man die GTX x80 auch nicht verschärbeln. Das würde dem Ruf schaden, wobei der wohl eh ziemlich leiden wird, wenn Sie sich wirklich dazu entscheiden, wovon ich aber sehr sehr sehr sehr sicher ausgehe den GK104 so zu benennen. Alles andere wäre auch sehr beschämend. So kann man den Durchschnittsuser wenigstens noch etwas verschaukeln.

Die eigentliche KONKURRENZ ist doch auch der wirkliche wichtige Punkt hinter Kepler. Selbst mit $349 hat AMD ein Problem und eben ein noch groesseres mit $299. Bleibt die Frage ob NV die Nachfrage decken kann.
Ja, Sie haben auf jeden Fall ein Problem, wenn nVidia so tief geht, nach allem was ich in Erfahrung bringen konnte, ist aber wohl eher nicht von so einem tiefen Preis aus zu gehen, und wenn doch dann kannste die Verfügbarkeit auf längere Sicht in der Pfeife rauchen :rolleyes:

PS:Später gehts ja noch etwas um die Preise: Ja die stehen noch nicht fest, also schwierig, aber siehe später

G84: ~$229
G94: ~$189
GF104: ~$229
GF114: ~$249

Da müssten die Fertigungsprobleme schon sehr massiv sein, dass man hier den MSRP um 60% erhöht.
Langfristig wird hoffentlich Global Foundries eine ernsthafte Alternative zu TSMC und die Interposer eine günstige Möglichkeit kleinere Dies zur verbinden.
Du musst sehen, das die Fertigung aber auch immer schwieriger und teurer wird. Von R&D ganz zu schweigen. Inflation darf man auch nicht ganz aus den Augen verlieren, die sorgt auch dafür, dass die Sachen immer teurer werden. Früher hat ne Brezel auch mal 5 Pfennig gekostet :biggrin:

In GloFo würde ich aber im Moment nicht mehr all zu große Hoffnungen stecken. Das wird wenn dann längerfristig sein, also >2 Jahre.

Interposer ist da schon eher interessant, was sich AMD/nVidia etc. da trauen, bzw. was TSMC zusichern kann. Ein entscheidender Faktor wird hier wohl insbesondere für nVidia auch Intel mit ihrem FerriKnights spielen.

das AMD dann nicht mehr ihre Mondpreise von 550$ für tahiti XT ansetzen kann und dementsprechend dann tahiti sowie pitcairn offiziell angepasst werden müssen wird AMD sicher nicht erst zum Kepler launch klar ;)

Man nimmt da natürlich erstmal noch mit was geht. Die 7870 werden die kurz- bis mittelfristig mit 250$ auspreisen - was für AMD sicher weniger das Problem sein wird, da man hier ja hier einen typischen Mainstream performance Chip+karte an den Mann bringt

ach ja und an 299$ kurzfristig für GK104 glaub ich erstmal absolut nicht. Nvidia lässt sichs leider bezahlen das es über dem GK104 erstmal nix aus eigenem Hause gibt (AMD könnte das so nicht handhaben).
Sehr gut erfasst ;)

nVidia steckt da so ein bischen in einem Dilemma, wobei ich aufgrund der ganzen Randbedingungen eher von hohen Preisen ausgehe. Zwar einiges niedriger als bei AMD, aber eben nicht groß anders als die eh von AMD geplanten Preisänderungen.

Er sagt das alles gestoppt wurde, inkl. 28nm für Qualcomm, was also auch den 28LP betrifft, nicht den 28HP allein.

edit: Am ende hat man nur die neue, zweite 28nm Fab eingeweiht und die erste bekommt jetzt ein Upgrade...
Durchaus möglich, dass die FAB ein update bekommt, und die andere etwas länger braucht, womit die Produktion still steht.

Eventuell müssen aber auch die Filter planmäßig gewechselt werden, da man ja noch in der Hochfahrphase ist, und die maximale Reinheit eventuell noch nicht erreicht hat. Ist aber schwierig zu sagen, was es genau ist. Ich gehe aber schon davon aus, das es sicht schlicht um ein Update/Anpassung/Wartung handelt.

Von anderer Seite wurde der Turbo Modus eher so beschrieben, dass die GTX 680 vielleicht bei 170W TDP liegt und man dann die TDP in Richtung 200W anheben kann, während die Taktrate/Leistung folgt.

Hoffentlich ist es optional und nicht ein Standard Feature.
Der Turbo wird wohl definitiv ein Standard-Feature. Man sollte das auch immer im Hinterkopf behalten, wenn man an die Leaks bzgl. Leistungsfähigkeit denkt.

Sehe da auch kein Problem, Nvidia wird sich schon was dabei gedacht haben. Die Performance-Einschätzung ist ja auch nix neues. Selbes Thema bei der Verfügbarkeit. Krass finde ich nur, dass immer noch keine Sau weiß, was die GTX 680 kosten soll :ulol:
Ja, das ist schon sehr krass. Die Hersteller wissen im Prinzip nicht mehr als wir hier :ugly: Die Preise kennt wohl nVidia bis jetzt nicht, bzw. kann Sie noch immer kurzfristig anpassen.

Überhaupt ist zeitlich alles SEHR spitz auf Knopf genäht. Da ist das vorziehen von Tahiti XT ein schlechter Scherz dagegen. ;D

Na daran mag ich noch nicht so recht glauben. Wenn doch, wird das für AMD aber eine ganz bittere Pille wenn GK110 kommt. So schnell haben die das Frontend dann nicht umgebaut.
Wann kommt denn GK110? Gibt es denn lauffähige Testsamples und wie lange denkst du braucht AMD dafür?

Ich "lehn" (;D) mich mal aus dem Fenster und sag, das GK110 zum Erscheinungsdarum Multifunktional eingesetzt werden kann ;D
Und die Perf/W ist dann auch unvergleichlich ;D

Dennoch wenn jetzt schon Kartenhersteller verkünden dass es anfangs KEINE OC Versionen des GF104 geben wird hat man wohl die GPU auf ziemlich das Maximum gepushtum gegen Zahiti besser darstehen zu können und das OC Potential wird wohl erst mit der Zeit besser werden, sodaß OC Versionen (100+ Mhz) wohl erst reichlich später folgen könnten, sage könnten!
Ähm, wie sollen die auch OC Versionen bringen? Das hat erst mal rein gar nichts damit zu tun, ob GK104 jetzt am Maximum arbeitet oder nicht.

Einige sollten hier mal drüber nachdenken, das zum Launch der HD7k Serie sofort OC UND! Custom Designs verfügbar waren. Bei nVidia werden sowohl OC als auc Custom-Designs einige Zeit auf sich warten lassen, und das hat nichts mit einer Blockade von nVidia diesbezüglich zu tun, sondern mit einem Können der Hersteller.

Beide IHVs werden ihre Zeit brauchen etwas mehr Potential aus einer neuen Architektur durch die Treiber herauskitzeln zu koennen und AMD ist in diesem Bereich zweifellos im Vorsprung.

Wer glauben sollte dass NV keine Treiber-Optimierungen mit Kepler brauchen wird, taeuscht sich ziemlich stark.
Ja definitiv!

AMD hat da wohl knapp eine Größenordnung mehr Zeit gehabt als nVidia, soweit ich das überblicken kann ;D

War ja immer so, dass die Boardpartner für die erste Charge nur ihren Sticker auf Ref.Designkarten packen.
Kein Idealzustand wenn das Ref.Design saugt, aber das war ja zuletzt bei NV lang nicht mehr der Fall.
Soso, war das immer so? Ich erinnere mich da so an eine HD7k Serie :biggrin:

Ich wär mir aber nicht mal ganz sicher, ob auf den Karten von den Boardpartner überhaupt immer Sticker zu finden sind ;D

wer weiß welch Holzklotz diesmal drinsteckt.
Ich würde da nichts drauf geben.
Nein, das sollte wirklich kein Holzklotz sein, aber wohl definitiv zu einer der ersten Karten gehören, die es gibt. Älter als ne Woche oder 2 wird die kaum sein.

Skysnake
2012-03-09, 11:26:03
###################################################################
Sodele jetzt nehm ich mich mal der Turbo Thematik an, um da mal etwas auf zu hellen.

Vorneweg aber eine Sache. Man kann die Sache mit dem Turbo etwa so zusammen Fassen im Vergleich zu AMDs herangehensweise: "Marketing done right" ;D
Wobei eben der FPS-limiter noch rein spielt

Ich verstehe das immer noch nicht. Man sollte sich erstmal fragen wann eine GPU weniger als "normal" belastet wird? In letzter Zeit wurden diverse Karten in Furmark und Konsorten gedrosselt. Soll der Turbomodus jetzt also nur eine neue Vermarktung sein? In Spielen 9xxMhz und Furmark etc. 7xxMhz? Das würde mir noch einleuchten. Was ist aber wenn dieser Turbomodus in Games eingreift? Ich könnte mir vorstellen, dass die GPU in zb. Games die stärker an den ALUs hängen eventuell gedrosselt wird weil eine bestimmte TDP überschritten wird. Da freue ich mich aber schon auf diverse Benchmarks. :freak:

Ansonsten ist die GPU-Last nur noch schwächer bei CPU-Limits oder beim aktivierten Framelimiter. In diesem Fall aber den GPU-Takt anzuheben ist recht sinnlos.
Ihr dürft nicht den Fehler machen, den "Turbo" allein zu sehen. Das Ding macht erst Sinn in Verbindung mit dem FPS-limiter im Desktop.
Man legt sich halt sein Framelimit z.B. auf 60 FPS fest und taktet dann wann immer möglich runter, um Energie zu sparen, bzw. dann wenn möglich eben hoch um die 60 FPS auch zu erreichen.

Bei AMDs PowerTune gibt es keine zusätzliche Leistung/Takt, wenn die Karte unter dem TDP-Limit bleibt.
Bei dem GeForce Turbo könnte das anders sein, sodass das Maximum an Leistung aus einer gegeben TDP geholt wird.
DAS ist halt das "Marketing done right" AMD spricht von beschneiden, nVidia von zusätzlich ;D

Am Ende wird das gleiche Ziel verfolgt. Dann wenn möglich einen hohen Takt, und wenn nicht nötig, möglichst viel Strom sparen.

Ich geb mal noch einen Wink mit dem Zaunpfahl, äh ich mein wohl eher mit dem Vorschlaghammer :ugly:
Denkt mal an die Design-Wins im Mobile Bereich, und dann denkt mal dran, wie schön man Energie damit sparen kann ;)

Hat sich jemand hier schon mal die Zahlen genauer angesehen? :freak:
http://extreme.pcgameshardware.de/attachments/526950d1331226530-kepler-gk104-weitere-karte-aufgetaucht-jetzt-doch-eine-gtx-670-ti-buwuv4g9.jpg
DANKE ;D

Ich hab schon gedacht, das sieht keiner.

GK106 ist der letzte Kepler tapeout. Sonst hat KEINER momentan eine Ahnung ueber den Preis und ich bezweifle dass sich selbst NVIDIA schon entschieden hat.

Absolut sign! Mehr gibts dazu nicht zu sagen. Die Boardpartner stehen völlig im Dunkeln, sollen die Dinger aber bald verkaufen ;D


Es ist wohl offensichtlich von meinen vorigen Posts dass ich noch nichts genaueres darueber weiss. Zum Zeitpunkt wo ich vom turbo modus erfuhr und nach Erlaeuterungen fragte machte NV auch fast alles dicht. Dass es ihn gibt kein Zweifel, dass es wirklich so ist wie VR-zone es beschreibt bezweifle ich zwar dank Bauchgefuehl kann mir aber nicht sicher sein ob es stimmt.
Die Einschätzung teile ich

Laut SA soll am Montag ein Paperlaunch hingelegt werden. Wenn das so sein SOLLTE, dann müssten die Redaktionen ja eigentlich ihre Karten schon haben.
Woher denn? ;)

Zwar ist vr-zone wieder als Quelle genannt aber dieses klingt ein bisschen ausfuehrlicher:

http://www.techpowerup.com/162035/GK104-Dynamic-Clock-Adjustment-Detailed.html

Na guten Appetit wenn's stimmt bis das Publikum das erstmal versteht.

Der Launch ist gegen Ende Maerz.
man bringe dies mit dem oben in Einklang :D

Ist doch ein Vorserienmodell, würde das nicht als finales Design betrachten.
Das ist kein Vorserienmodell. Das ist eins aus der Fertigung, und wohl eine der ersten Karten.
Von PHK gibt es wohl auch eine Negativinfo in Richtung GK110:
http://bbs.expreview.com/thread-48745-1-1.html
http://we.pcinlife.com/thread-1848960-1-1.html

Dass man einen HPC-Chip für die Cluster benötigt, sollte klar sein.
Aber die Frage ist wohl ob die Liefermengen für GeForce und Quadro/Tesla reichen bzw. wie gut der Chip für 3D-Spiele geeignet ist.
Man betrachte mal Tahiti und Pitcaim. Ich glaub es sollte klar sein, wohin die Reise geht ;)

PS: Was sag ich schon seit gut 1-2 Jahren? ;D

Möglich wäre, dass 28nm immer noch sehr bescheiden läuft und man alle verfügbaren GK110-Chips in Richtung HPC verschiebt. Da man hier wohl nur 1-1,4 TFLOPs DP versprochen hat, kann man da wohl auch Schrott absetzen, der als GeForce nicht genug Leistung bieten würde.
Ohohoh...
Da missverstehst du aber den HPC-Bereich. Da kannste keine (kaum) Resteverwertung betreiben. Schau nur mal zu Intel. Bevor du das Zeug da absetzen kannst kannste es schon locker für den Normaluser raus werfen. Das Einzige ist eben die Verfügbarkeit/Stückzahlen, was da zieht.

Wenn werden aber eher die Schrott Chips in den Consumerbereich abgedrückt. Es ist also sehr sehr sehr sehr sehr sehr sehr... unwahrscheinlich HPC vor Desktop zu sehen.
PS: Dafür braucht man aber eh erst einen Chip

So später gibts dann noch was ausführlicheres zum Turbo.

Aber so viel schon mal vorne weg. Das mit den "Turbo"Stufen wurde wohl falsch verstanden bzgl den ALUs.

Gipsel, denk mal nicht in SMs, sondern in GPCs. Dann wird die Sache auch nicht unmöglich bzgl. dem Aufwand.

Denkt auch mal dran, welche Beschränkungen für die Ausführung unterschiedlicher Kernels es gibt. Dann habt ihr eigentlich schon die Lösung ;)
Wenn ich mich jetzt nicht grad falsch an die Specs bzgl nVidia erinnere und das mit AMD verwechsle, wovon ich aber nicht ausgehe, Doku welsen hab ich aber grad keine Zeit

AnarchX
2012-03-09, 11:59:02
DAS ist halt das "Marketing done right" AMD spricht von beschneiden, nVidia von zusätzlich ;D

Am Ende wird das gleiche Ziel verfolgt. Dann wenn möglich einen hohen Takt, und wenn nicht nötig, möglichst viel Strom sparen.

Nach aktuellem Verständis ist das doch schon ein ziemlicher Unterschied:
Eine PowerTune AMD-Karte läuft bei Unterlast mit niedrigerem Verbrauch, wohl auch weil man die höheren Taktraten nicht zusichern kann.
Bei "GeForce Turbo" hat man eine zugesicherte Turbo-Tatkrate, die deutlich über der TDP liegt, wenn sie für alle Chipteile angewendet werden würde und bei zu geringer Last hat man nicht den Basis-Takt, sondern den Turbo-Takt.



Man betrachte mal Tahiti und Pitcaim. Ich glaub es sollte klar sein, wohin die Reise geht ;)

PS: Was sag ich schon seit gut 1-2 Jahren? ;D
Pitcairn kann man für HPC vergessen (1/16 DP, kein ECC) und GK104 dürfte wohl ähnlich ausgelegt sein.

Mit Interposern mag sich das in Zukunft vielleicht verändern, aber die sind wohl noch gut 3-4 Jahre weg.


Ohohoh...
Da missverstehst du aber den HPC-Bereich. Da kannste keine (kaum) Resteverwertung betreiben. Schau nur mal zu Intel. Bevor du das Zeug da absetzen kannst kannste es schon locker für den Normaluser raus werfen. Das Einzige ist eben die Verfügbarkeit/Stückzahlen, was da zieht.

Wenn werden aber eher die Schrott Chips in den Consumerbereich abgedrückt. Es ist also sehr sehr sehr sehr sehr sehr sehr... unwahrscheinlich HPC vor Desktop zu sehen.
PS: Dafür braucht man aber eh erst einen Chip

GF100 @ Tesla: 448SPs @ 1150MHz bei >200W, da war wohl fast jeder GF100 tauglich.

King
2012-03-09, 11:59:10
sry for ot aber hast du zufällig lesbares zum fps limiter im treiber von nvidia?
mich interessiert stark wie das umgesetzt wurde.

Gaestle
2012-03-09, 12:33:09
PS: Was sag ich schon seit gut 1-2 Jahren? ;D



Sorry für OT:

Hattest Du einen anderen Account vor dem Account "Skysnake", der ja erst ca. neun Monate existiert?

horn 12
2012-03-09, 12:40:01
Vorteile der GTX 680:


http://bbs.expreview.com/thread-49806-1-1.html

Hoffentlich doch mehr als FXAA?


Falls dies alles zutreffen würde, wohl ECHT eine Überkarte
Schneller ald Tahiti XT und weniger Verbrauch"

Edgecrusher86
2012-03-09, 12:54:06
E: Neue Fotos aus China (THX @ ManFromAtlantis, posted these at B3D (http://forum.beyond3d.com/showpost.php?p=1626393&postcount=2245) :)) - zu sehen ist auch der Vapor Chamber:


http://h8.abload.de/img/1225367ejpuza7aiwvq9aao0of.jpg
http://h8.abload.de/img/1225360whgoaaodm15od5ns09l.jpg
http://h8.abload.de/img/122536uvvr4try8w44fya9w0ue.jpg
http://h8.abload.de/img/122536umm6mmka7s9zkq1ky0ia.jpg

http://we.pcinlife.com/thread-1849001-1-1.html

MfG
Edge

Hugo78
2012-03-09, 12:54:17
Soso, war das immer so? Ich erinnere mich da so an eine HD7k Serie :biggrin:

Bei NV war das immer so (wenn man wenig Vorlauf hatte) und auf NV allein war mein Beitrag bezogen.

Was die HD7K angeht:

Also das wundert mich gerade wenig. Ich habe bereits im Artikel zur Sapphire erwähnt, dass deren Design und das der PowerColor praktisch identisch sind. Jetzt habe ich noch das Design der XFX gesehen und das sieht auch gleich aus. Zur ASUS habe ich keine Bilder der Boards auf die schnelle gefunden.

Ich habe den Eindruck, dass da ein großer Boardhersteller die alternativen Designs fertigt und ggf. noch etwas auf Wünsche anpasst, aber die Schwemme der "Eigendesigns" auf jeweils dem gleichen Layout aufsetzen.

EDIT: Habe jetzt auch ein Bild der ASUS gesehen - gleich zu XFX, PowerColor und Sapphire.

AMD baut nicht umsonst ihr Ref.Design so schlecht, dass keine Sau so einen lauten Sauger im Rechner haben will.
Damit tut man seinen AIBs natürlich einen Gefallen.

Am ende fertigt (anscheinend) die selbe Firma die AMDs Ref.Design baut auch alle oder zumindest die meisten, der frühen Custom Designs.

Skysnake
2012-03-09, 13:26:50
Sorry für OT:

Hattest Du einen anderen Account vor dem Account "Skysnake", der ja erst ca. neun Monate existiert?
Ich bezieh mich da allgemein drauf, nicht nur hier speziell auf das Forum.

Die Entwicklung war einfach absehbar. Vor allem seit dem GF104 hat es sich schon sehr in den Vordergrund gedrängt, das man da früher oder später ein splitting vor nehmen muss, wobei der Top-dog immer noch für Gamer kommt, wegen den Stückzahlen, aber eben der Fokus ganz klar auf GPGPU liegt und nicht auf Gaming, wie beim kleineren Modell, aber am Ende trotzdem etwas schneller ist. Man sieht ja aber, was bei Tahiti XT möglich wäre, wenn er wie Pitcaim skalieren würde.

Die High-End User, die sich so ne Karte eh nur kaufen, kaufen Sie sich, egal ob jetzt 50% Mehrleistung oder nur 25% Mehrleistung im Vergleich zum kleineren Chip. Warum also Transistoren fürs Gamen Opfern, wenn die Karte eh gekauft wird, für GPGPU man aber jeden Transistor gut gebrauchen kann.

Bei NV war das immer so (wenn man wenig Vorlauf hatte) und auf NV allein war mein Beitrag bezogen.

Genau darum geht es aber ja auch. Bei AMD hatte man massig Vorlauf, bei nVidia wirds selbst mit Ref Design extrem eng :freak: Da liegen zeitlich echt Welten dazwischen.


AMD baut nicht umsonst ihr Ref.Design so schlecht, dass keine Sau so einen lauten Sauger im Rechner haben will.
Damit tut man seinen AIBs natürlich einen Gefallen.

Am ende fertigt (anscheinend) die selbe Firma die AMDs Ref.Design baut auch alle oder zumindest die meisten, der frühen Custom Designs.
Es ist eher genau umgekehrt. Jeder Boardpartner baut seine Karten schon selbst, die kaufen aber (alle?) ihre Kühllösung bei einem bekannten Kühlerspezialisten ein. Zumindest weiß ich es von einer der oben genannten Firmen, und wenn die gleich ist wie bei den anderen, dann kommt alles von der selben Firma. Die hatte so was in der Art auch angedeutet, das Sie mehrere beliefern, bzw. zumindest die Technologie an diese lizensieren.

Es ist daher wirklich nicht verwunderlich, wenn die Dinger sich nicht so stark unterscheiden.

Bei der HD7k Serie hatte aber ziemlich sicher kein Hersteller sonderlich stress/zeitdruck, sein custom Design fertig zu stellen. Bei Kepler ist das schlichtweg unmöglich.

Das ist halt der springende Punkt.

Wenn man sich das gibt, dann versteht man auch, wie Charlie auf so manche Ansicht bzgl nVidia und Problemen mit TSMC kommt.

Dural
2012-03-09, 13:51:29
Am ende fertigt (anscheinend) die selbe Firma die AMDs Ref.Design baut auch alle oder zumindest die meisten, der frühen Custom Designs.

es sind alles Referenz Karten, manchmal halt auch mit dem Referenz Kühler oder halt eben mit einem eigenem Kühler.

Die Karte für sich ist aber Referenz.


Zudem AMD / NV manchmal bei High-End Modell gar keine anderen PCB / Karten zulässt.

Gipsel
2012-03-09, 14:40:52
Aber so viel schon mal vorne weg. Das mit den "Turbo"Stufen wurde wohl falsch verstanden bzgl den ALUs.

Gipsel, denk mal nicht in SMs, sondern in GPCs. Dann wird die Sache auch nicht unmöglich bzgl. dem Aufwand.

Denkt auch mal dran, welche Beschränkungen für die Ausführung unterschiedlicher Kernels es gibt. Dann habt ihr eigentlich schon die Lösung ;)
Wenn ich mich jetzt nicht grad falsch an die Specs bzgl nVidia erinnere und das mit AMD verwechsle, wovon ich aber nicht ausgehe, Doku welsen hab ich aber grad keine ZeitBei Fermi gibt es offiziell maximal einen Kernel pro SM (nicht pro GPC).
Nach aktuellem Verständis ist das doch schon ein ziemlicher Unterschied:
Eine PowerTune AMD-Karte läuft bei Unterlast mit niedrigerem Verbrauch, wohl auch weil man die höheren Taktraten nicht zusichern kann.
Bei "GeForce Turbo" hat man eine zugesicherte Turbo-Tatkrate, die deutlich über der TDP liegt, wenn sie für alle Chipteile angewendet werden würde und bei zu geringer Last hat man nicht den Basis-Takt, sondern den Turbo-Takt.Stell' Powertune auf -20% und Du hast praktisch das gleiche Verhalten (und eine deutlich abgesenkte TDP). Das mit der umgedrehten Vermarktung habe ich ja gestern schon im News-Kommentar-Thread geschrieben (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9200979#post9200979).

boxleitnerb
2012-03-09, 14:49:35
Bei AMD gibt es aber nur eine Taktdomäne, oder?
Wenn bei Nvidias Turbo keine "Umschichtung" des TDP-Budgets vorhanden wäre, warum sollte man dann das fixe Taktverhältnis aufgeben und die beiden Domänen scheinbar unabhängig voneinander takten lassen?

Augenscheinlich ist das also doch ein Unterschied. Was genau passiert denn bei Powertune -20%? Angenommen es gibt eine shaderlastige Szene, wird doch auch der Rest des Chips mit heruntergetaktet -> fps sinken. Bei Nvidia würde das nicht unbedingt passieren.

Henroldus
2012-03-09, 14:53:46
E: Neue Fotos aus China (THX @ ManFromAtlantis, posted these at B3D (http://forum.beyond3d.com/showpost.php?p=1626393&postcount=2245) :)) - zu sehen ist auch der Vapor Chamber:


http://h8.abload.de/img/1225367ejpuza7aiwvq9aao0of.jpg
http://h8.abload.de/img/1225360whgoaaodm15od5ns09l.jpg
http://h8.abload.de/img/122536uvvr4try8w44fya9w0ue.jpg
http://h8.abload.de/img/122536umm6mmka7s9zkq1ky0ia.jpg

http://we.pcinlife.com/thread-1849001-1-1.html

MfG
Edge
ähm:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9201519#post9201519

AnarchX
2012-03-09, 14:56:48
Bei Fermi gibt es offiziell maximal einen Kernel pro SM (nicht pro GPC).
Stell' Powertune auf -20% und Du hast praktisch das gleiche Verhalten (und eine deutlich abgesenkte TDP). Das mit der umgedrehten Vermarktung habe ich ja gestern schon im News-Kommentar-Thread geschrieben (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9200979#post9200979).
Wobei das breitere Front-End von GK104 wohl trotzdem häufiger die TDP ausnutzen sollte, als ein Tahiti mit negativem Power-Tune.

Vielleicht ist ja AMDs Reaktion ein 1GHz Tahiti mit 180W PoweTune und 2GiB 256-Bit 5,8Gbps. :D

Gipsel
2012-03-09, 15:02:20
Ist halt die Frage, ob die unabhängigen Taktdomänen für z.B. Frontend, Shader, TMUs und ROPs denn wirklich kommen und wieviel das stromverbrauchstechnisch gegenüber einem ordentlich implementierten Clockgating überhaupt bringt, wenn sowieso alle Chipteile die gleiche Spannung kriegen. Eigentlich sollte das nämlich nicht viel sein. ;)

dildo4u
2012-03-09, 15:02:20
Durch die Auto OC Funktion hat man eigentlich alle Möglichkeiten,sich Optimal gegen AMD zu positionieren.Ein Biosflash kann man ja noch ganz spät durchführen.Selbst wenn der Chip ein bissel mehr Strom saugt hat man ja noch Puffer weil man weniger V-Ram verwendet.Oder das wurde eingeführt damit man auch schlechtere Chips einsetzen kann,die die 700mhz immer Schaffen aber keine dauerhaften 900mhz bei dem selten Fall der 100% Auslastung.

Thunder99
2012-03-09, 16:06:24
Oder das sieht mir aus zu retten was zu retten ist um die Performance Krone net an AMD zu verlieren. NICHT die schnellste GPU am Markt zu haben dürfte noch weniger nvidia´s Interesse sein...

Skysnake
2012-03-09, 16:45:23
Bei Fermi gibt es offiziell maximal einen Kernel pro SM (nicht pro GPC).
Stell' Powertune auf -20% und Du hast praktisch das gleiche Verhalten (und eine deutlich abgesenkte TDP). Das mit der umgedrehten Vermarktung habe ich ja gestern schon im News-Kommentar-Thread geschrieben (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9200979#post9200979).

Danke ;)

aber selbst wenns per SM und nicht per GPC geht, ist das noch immer im überschaubaren Rahmen mit den Domains, die man dann da brauch, wobei ich es auf GPCs beschränken würde als Entwickler. Dann hab ich nämlich nur 4 und das ist wirklich ohne all zu großen Aufwand dann zu implementieren.

Die Sache mit der konstanten Spannung ist allerdings schon etwas... naja.

Ailuros
2012-03-09, 18:20:14
Das der turbo modus existiert bin ich mir sicher. Sonst hat Gipsel womoeglich voellig gerechtfertigte Vorbehalte fuer das hotclock Zeug von Theo. Keine ernsthafte Quelle weiss momentan etwas ueber einen hotclock fuer Kepler und es weiss auch leider keiner wie der turbo modus funktioniert.

Wenn es nur die einzige Info waere die generell fehlt; NV hat es geschafft mit der unendlichen Geheimnis-tuerei so manchen vendor zu nerven.

Wie dem auch sei, es kann sein dass der Zwilling vielleicht Hand in Hand am gleichen Tag mit der 104 erscheint.

Godmode
2012-03-09, 18:43:59
Wie dem auch sei, es kann sein dass der Zwilling vielleicht Hand in Hand am gleichen Tag mit der 104 erscheint.

Zumindest etwas, auch wenn ich mir diesen SLI Crap nie mehr antun werde.

Skysnake
2012-03-09, 18:46:38
Zwilling?

Also so weit ich den Hot clock verstanden habe/mir erklärt wurde, ist es eben mehr oder weniger doch wie bei AMD, nur das man eben die ganze Sache in Verbindung mit dem Framelimiter sehen muss und der TDP.

Die ganze ausreise nach oben und unten lassen sich halt so auch erklären. Je nach dem ob der Turbo greift, oder eben nicht, performt die Karte halt besser.

Sprich in "schlecht" (welche wo wenig auslastung da ist) programmierten Spielen, ist GK104 auf der Höhe von TahitiXT, oder auch minimalst darüber an gewissen stellen, und wenn die Dinger halt schon recht gut auslasten, dann fällt GK104 eben zurück, weil sein Turbo einfach viel weiter geht, und damit die Schwankungen auch viel größer sind als bei Tahiti XT.

Von der Sache mit den geteilten Turbos wurde allerdings absolut nichts gesagt. Ich halte das auch viel ziemlich gewagt. Für GPCs ok, da kann das von mir aus son. GK104 hat ja eh nicht so viele davon. Zur Not auch noch SMs, aber das da getrennt der Turbo greifen soll zwischen Frontend und ALUs erscheint mir irgendwie naja, eben sehr gewagt und aufwändig. Da müsste man ja einiges an Buffern einrichten, bzw. wahrscheinlich vergrößern, um die Taktwechsel ab zu federn.

Dieses Detail wird sich aber sicherlich bald erschließen.

Für Reviews könnte die ganze Sache mit dem Turbo aber echt zur Lachnummer verkommen, in dem Sinne, dass die Ergebnisse überhaupt nicht mehr vergleichbar sind zwischen den Seiten, einfach deswegen, weil die ganze Sache extrem Szenen abhängig ausfallen kann..

Ailuros
2012-03-09, 18:47:14
Zumindest etwas, auch wenn ich mir diesen SLI Crap nie mehr antun werde.

Sag das bloss nicht zu laut sonst haben wir gleich wieder die AFR Verteidiger auf dem Hals :P

AnarchX
2012-03-09, 19:20:56
Bei RedQuasar gab es ein Update zur GTX 670 Ti:
GK104 670TI dual DVI + HDMI + DP interface, dual-6P-powered turbine radiator

Performance lagged behind the 7970 5%

And "680" has the same number of SP

Broke the news: 40% performance increase through the brush bios (As for you Believe it or not anyway, I believe)
http://www.redquasar.com/forum.php?mod=viewthread&tid=7234

boxleitnerb
2012-03-09, 19:23:06
Brush Bios?

Ailuros
2012-03-09, 19:27:04
Brush Bios?

Eine elektronische Lockenbuerste wenn man zu lange in der Gefriertruhe hockt :biggrin: (tschuldigung aber man kann sich mit dem uebertriebenen Mist der kursiert wohl schwer zurueckhalten...)

Bei RedQuasar gab es ein Update zur GTX 670 Ti:

http://www.redquasar.com/forum.php?mod=viewthread&tid=7234

Na vielleicht klingelt es bei manchen wieso komischerweise "niedrige" Frequenzen herumschwirren. Was steht ueber den salvage part im obrigen Link genau?

AnarchX
2012-03-09, 19:27:22
Halt ein frisiertes BIOS. Scheint wohl durchaus ein Zeichen zu sein, was die Chinesen im Bezug auf Mod-BIOSe verwenden.


Na vielleicht klingelt es bei manchen wieso komischerweise "niedrige" Frequenzen herumschwirren. Was steht ueber den salvage part im obrigen Link genau?
Dass er möglicherweise kein Salvage Part ist, jedenfalls nicht im Bezug auf die HW-Einheiten.

Blediator16
2012-03-09, 19:36:14
Dann fehlt nur noch der Treiber +40% dann hätten wir einen würdigen Nachfolger :freak:

Blaire
2012-03-09, 19:42:18
Die klassischen AA-Modi mit Oversampling hat NV doch schon abgedeckt, so dass man höchstens noch höherstufige Modi anbieten könnte (16xMSAA/SGSSAA). Im Bereich der bildbasierten AA-Modi (MLAA, FXAA, SMAA) gibt es viel mehr Raum für sinnvolle Neu- und Weiterentwicklung, so dass ich dort am Ehesten neue Modi vermute.
Downsampling sehe ich deshalb nicht auf dem Radar, weil NV bereits OGSSAA anbietet.

Die Masse der Leute wünschen Performance-AA , nun bekommen sie es. Das ist leider die Realität.

Hugo78
2012-03-09, 20:18:42
Bei RedQuasar gab es ein Update zur GTX 670 Ti:

http://www.redquasar.com/forum.php?mod=viewthread&tid=7234

Also schon die GTX 670Ti sei nur 5% langsamer als Thaiti XT und sie haben noch mal +40% rausgeholt mit einem, wie auch immer gemodeten BIOS?!

Ailuros
2012-03-09, 20:35:56
Also schon die GTX 670Ti sei nur 5% langsamer als Thaiti XT und sie haben noch mal +40% rausgeholt mit einem, wie auch immer gemodeten BIOS?!

Ich gehe nicht gern Wetten ein, aber es wuerde mir einen GIGANTISCHEN Eindruck machen wenn man unter normalen Umstaenden mehr als 25% aus dem Ding kitzeln kann.

boxleitnerb
2012-03-09, 20:37:22
Kann es nicht sein, dass man einfach die Taktraten massiv zurückgehalten hat, um die wahre Performance zu verschleiern?

DarknessFalls
2012-03-09, 20:44:41
Kann es nicht sein, dass man einfach die Taktraten massiv zurückgehalten hat, um die wahre Performance zu verschleiern?

Wozu? Damit noch mehr Leute keinen Bock mehr haben auf Kepler zu warten und zu AMD abwandern?

M4xw0lf
2012-03-09, 20:48:02
Also schon die GTX 670Ti sei nur 5% langsamer als Thaiti XT und sie haben noch mal +40% rausgeholt mit einem, wie auch immer gemodeten BIOS?!

Ganz ruhig, nimm erst mal einen schönen Baldriantee :tongue:

boxleitnerb
2012-03-09, 20:50:16
Wozu? Damit noch mehr Leute keinen Bock mehr haben auf Kepler zu warten und zu AMD abwandern?

Ich kann mich nur wiederholen:
Bei den Preisen, dem geringen Performanceplus und den geringen Mengen, die man im Vergleich zu einer 250 Euro-Karte an den Mann bringt, dürften die Abwanderer irrelevant sein.

Ailuros
2012-03-09, 20:52:49
Kann es nicht sein, dass man einfach die Taktraten massiv zurückgehalten hat, um die wahre Performance zu verschleiern?

Kann es sein dass Theo Valich bis jetzt NIE falsch gelegen hat?

Ich hab mal zwischendrin eine These auf einer These von Gipsel etwas weitergebastelt. Wenn Du in den GK107 thread schausst gibt es Bilder von GK107 mobilen Systemen und dort wird ein geometry, ein shader und ein memory domain angegeben. Geometrie liegt auf 400-etwas MHz, shader auf 810 und Speicher auf 400-etwas.

Unter "geometry domain" verstehe ich GPC oder genauer raster/trisetups. Erstens brauchst Du diese auf einem GK104 nicht konstant mit hohen Frequenzen quaelen da es 4 sind und zweitens wuerde es mich kein bisschen ueberraschen wenn desktop Keplers gedrosselte Geometrie-domain Frequenzen haben sollte um Quadros ihren Vorsprung zu geben. Bei theoretischen 4*950MHz haettest Du 3,8b Tris; was zum Teufel willst Du bei heutigen Spielen mit dieser verrueckten Menge anfangen?

Zwar nur eine These, aber da ich momentan nichts handfestes herausquetschen kann wohl besser als gar nichts.

kruemelmonster
2012-03-09, 20:53:44
Also schon die GTX 670Ti sei nur 5% langsamer als Thaiti XT und sie haben noch mal +40% rausgeholt mit einem, wie auch immer gemodeten BIOS?!

Brush kann auch im Zusammenhang mit dem Lüfter gesehen werden; dann hieße es wohl das mittels Bios Mod die Lüftergeschwindigkeit verändert wurde und sie Kepler um 40% übertakten konnten.

Hugo78
2012-03-09, 21:01:24
Ganz ruhig, nimm erst mal einen schönen Baldriantee :tongue:

*g* :biggrin:

Man From Atlantis
2012-03-09, 21:03:59
Kann es sein dass Theo Valich bis jetzt NIE falsch gelegen hat?

Ich hab mal zwischendrin eine These auf einer These von Gipsel etwas weitergebastelt. Wenn Du in den GK107 thread schausst gibt es Bilder von GK107 mobilen Systemen und dort wird ein geometry, ein shader und ein memory domain angegeben. Geometrie liegt auf 400-etwas MHz, shader auf 810 und Speicher auf 400-etwas.

Unter "geometry domain" verstehe ich GPC oder genauer raster/trisetups. Erstens brauchst Du diese auf einem GK104 nicht konstant mit hohen Frequenzen quaelen da es 4 sind und zweitens wuerde es mich kein bisschen ueberraschen wenn desktop Keplers gedrosselte Geometrie-domain Frequenzen haben sollte um Quadros ihren Vorsprung zu geben. Bei theoretischen 4*950MHz haettest Du 3,8b Tris; was zum Teufel willst Du bei heutigen Spielen mit dieser verrueckten Menge anfangen?

Zwar nur eine These, aber da ich momentan nichts handfestes herausquetschen kann wohl besser als gar nichts.

not that i agree/disagree your thesis but if you are talking about HWiNFO GK107 shots, HWiNFO tends to use Geometry clock term rather than Base clock or GPU clock.. it's even there with my GTX460

http://www.abload.de/thumb/desktop_2012_03_09_22rducx.png (http://www.abload.de/img/desktop_2012_03_09_22rducx.png) http://www.abload.de/thumb/desktop_2012_03_09_22yejpc.png (http://www.abload.de/img/desktop_2012_03_09_22yejpc.png)

DarknessFalls
2012-03-09, 21:10:34
Bei den Preisen, dem geringen Performanceplus und den geringen Mengen, die man im Vergleich zu einer 250 Euro-Karte an den Mann bringt, dürften die Abwanderer irrelevant sein.

Im Prinzip hast Du Recht. Trotzdem wird jedes profitorientierte Unternehmen (wie es auch AMD und nVidia sind) versuchen, dem jeweiligen Konkurrenten so wenig wie möglich vom Kuchen übrig zu lassen, egal in welcher Preisklasse. Natürlich ist die Preisklasse, in der Tahiti spielt, nicht so interessant wie die unter 250 Euro, aber dennoch geht es auch da um ein Stückchen Kuchen, ganz davon abgesehen daß die Kunden sehr wohl wahrnehmen, daß AMD zur Zeit "king of the hill" ist.

Und, zuletzt, nicht vergessen, Pitcairn ist vorgestellt und steht in den Startlöchern. Und Pitcairn hat das Potenzial, nV sehr viel mehr weh zu tun als Tahiti. Von daher wäre es nur logisch, daß nV langsam konkrete Leistungsdaten streuen sollte.

Skysnake
2012-03-09, 21:11:20
Kann es sein dass Theo Valich bis jetzt NIE falsch gelegen hat?

Ich hab mal zwischendrin eine These auf einer These von Gipsel etwas weitergebastelt. Wenn Du in den GK107 thread schausst gibt es Bilder von GK107 mobilen Systemen und dort wird ein geometry, ein shader und ein memory domain angegeben. Geometrie liegt auf 400-etwas MHz, shader auf 810 und Speicher auf 400-etwas.

Unter "geometry domain" verstehe ich GPC oder genauer raster/trisetups. Erstens brauchst Du diese auf einem GK104 nicht konstant mit hohen Frequenzen quaelen da es 4 sind und zweitens wuerde es mich kein bisschen ueberraschen wenn desktop Keplers gedrosselte Geometrie-domain Frequenzen haben sollte um Quadros ihren Vorsprung zu geben. Bei theoretischen 4*950MHz haettest Du 3,8b Tris; was zum Teufel willst Du bei heutigen Spielen mit dieser verrueckten Menge anfangen?

Zwar nur eine These, aber da ich momentan nichts handfestes herausquetschen kann wohl besser als gar nichts.
Klingt zumindest einleuchtend/plausibel.

Über so was zu spekulieren ist aber wirklich SEHR schwer, da man eben nur sagen kann, was Sinn machen würde, und was absolut hirnrissig wäre, das wars dann aber auch schon.

Ailuros
2012-03-09, 21:11:57
not that i agree/disagree your thesis but if you are talking about HWiNFO GK107 shots, HWiNFO tends to use Geometry clock term rather than Base clock or GPU clock.. it's even there with my GTX460


Kein Zweifel; nur klingt es mir ziemlich unmoeglich dass der eigentliche core clock auf GK107 bei nur 405MHz liegt mit einem ALU "hotclock" von 810MHz.

Orbmu2k
2012-03-09, 21:28:04
Kein Zweifel; nur klingt es mir ziemlich unmoeglich dass der eigentliche core clock auf GK107 bei nur 405MHz liegt mit einem ALU "hotclock" von 810MHz.

http://s1225.photobucket.com/albums/ee399/yknyong1/NVIDIA%20Kepler%20Ivy%20Bridge%20NBR%20Exclusive/?action=view&current=v33a.png

Hier hat er 1248MHz Hotclock, obwohl als default 810MHZ angegeben werden.
Das könnte doch der Turbo sein der da reispielt. Eine niedrige Baseclock im mobilen Bereich macht ja Sinn.

Übrigens werden bei den P-Sates die GPU-Z vorne ausgibt die normalen Domains vom NV Treiber geladen also ist das wohl zutreffend, siehe auch treiber und HWINFO. Die Clocks bei Sensors kommen direkt vom PLL und dort gibt es keine Coreclock bei Fermi da wird dann die Hotclock halbiert.

Ailuros
2012-03-09, 21:36:03
http://s1225.photobucket.com/albums/ee399/yknyong1/NVIDIA%20Kepler%20Ivy%20Bridge%20NBR%20Exclusive/?action=view&current=v33a.png

Hier hat er 1248MHz Hotclock, obwohl als default 810MHZ angegeben werden.
Das könnte doch der Turbo sein der da reispielt. Eine niedrige Baseclock im mobilen Bereich macht ja Sinn.
Übrigens werden bei den P-Sates die GPU-Z vorne ausgibt die normalen Domains vom NV Treiber geladen also ist das wohl zutreffend, siehe auch treiber und HWINFO. Die Clocks bei Sensors kommen direkt vom PLL und dort gibt es keine Coreclock bei Fermi da wird dann die Hotclock halbiert.

Das hilft natuerlich als zusaetzliche Info, aber Turbo von 810 auf 1248MHz (ergo +54%) glaube ich erst wenn ich es sehe.

Orbmu2k
2012-03-09, 21:41:31
Das hilft natuerlich als zusaetzliche Info, aber Turbo von 810 auf 1248MHz (ergo +54%) glaube ich erst wenn ich es sehe.

Mich irritiert eher der Punkt dass die Karte 0% GPU Load hat und trotzdem den Turbo vermeintlich voll ausfährt. Auf den anderen Bildern sieht man ja dann den Idle P-State also würde das wieder dafür sprechen dass der Turbo immer auf Anschlag läuft wenn es die TDP hergibt und man grade im höchsten P-State ist.

Skysnake
2012-03-09, 21:49:53
Ich bekomm im Moment das verdammt ungute Gefühl das hier durch den Turbo extremstes cherry-picking betrieben wird vom Marketing, wenn wir die Karten dann endlich mal offiziell sehen...

Orbmu2k
2012-03-09, 21:54:51
Dann wird Crysis wohl nicht dabei sein, das zieht ja ungemein. :-D


http://www.nvnews.net/vbulletin/showpost.php?p=2535011&postcount=95

PHK got the first benchmark numbers in for 3DMark11 confirmed GTX 680 will be faster than Radeon HD 7970.

680-> X3200~3300
(7970)-> X2700~2800
670Ti -> X2500~2600
(7950) -> X2200~2300

PHK also mentioned that GTX 680 has max TDP 195W and fan will have low noise.


Eine TDP von 195W + 20% Powerlimit^^

Hugo78
2012-03-09, 22:50:59
Damit wäre die GTX 680 so schnell wie eine GTX 590 und hätte so ihre Bezeichnung zurecht verdient.

Man From Atlantis
2012-03-09, 22:54:24
it would be funny if it turns out GK104 ;D

http://www.gputechconf.com/content/includes/gtc/images/gtc-background-rev.jpg
http://www.gputechconf.com/page/sessions.html

boxleitnerb
2012-03-09, 22:59:22
Dann wird Crysis wohl nicht dabei sein, das zieht ja ungemein. :-D


http://www.nvnews.net/vbulletin/showpost.php?p=2535011&postcount=95



Eine TDP von 195W + 20% Powerlimit^^
War es wirklich PHK, der die 3DMark Scores gepostet hat. Sieht mir nach einem anderen User aus, qb...(chinesische Schriftzeichen).

Orbmu2k
2012-03-09, 23:03:07
Wenn ich mir die Thread auf http://bbs.expreview.com anschaue, frage ich mich, wo die 195W steht und wo PHK die 3DMark Scores gepostet hat. Das war ein anderer User qb...(chinesische Schriftzeichen).
Wenn ich das richtig verstehe sagt PHK mit dem 300.xx Treiber liegt sie 500 Punkte vor der AMD Karte. Der User hat nur gerechnet.
http://bbs.expreview.com/thread-49802-1-1.html


Die TDP stand in nem anderen Thread:
http://bbs.expreview.com/thread-49799-1-1.html

boxleitnerb
2012-03-09, 23:06:54
Thx. D.h. Nvidia prügelt den Performancechip mit aller Gewalt nach oben, weil GK110 noch nicht fertig ist. Tahiti hat die wohl ganz schön überrascht mit der Performance unterhalb der Erwartungen. Ist eigentlich eine blöde Situation, weil die 10-30%, die man sich da verschätzt hat, das ganze eigene Portfolio durcheinanderbringen.

Orbmu2k
2012-03-09, 23:12:17
Sie könnten doch GK110 auch noch solange verprügeln bis das Portfolio wieder passt. :-D

redfirediablo
2012-03-10, 01:34:03
Damit wäre die GTX 680 so schnell wie eine GTX 590 und hätte so ihre Bezeichnung zurecht verdient.

Na klar, mit einem Chip der kleiner ist als GF114 schaffen sie es mal so schlappe 216% der Leistung zu erreichen und die GTX590 zu schlagen.... :D 28nm bringt was aber das wäre doch etwas zuviel Zauberei.

Schon amüsant, da brauch ein Chinese in nem Forum nur irgendwelchen Blödsinn zu schreiben und kurze Zeit später landet es bei uns und es wird tatsächlich basierend darauf diskutiert.

Soul
2012-03-10, 01:40:48
Mich irritiert eher der Punkt dass die Karte 0% GPU Load hat und trotzdem den Turbo vermeintlich voll ausfährt. Auf den anderen Bildern sieht man ja dann den Idle P-State also würde das wieder dafür sprechen dass der Turbo immer auf Anschlag läuft wenn es die TDP hergibt und man grade im höchsten P-State ist.

Komischer finde ich bei den GPUZ Werte die Temperatur von 41'C bei der Frequenz

hardtech
2012-03-10, 01:53:49
Na klar, mit einem Chip der kleiner ist als GF114 schaffen sie es mal so schlappe 216% der Leistung zu erreichen und die GTX590 zu schlagen.... :D 28nm bringt was aber das wäre doch etwas zuviel Zauberei.

Schon amüsant, da brauch ein Chinese in nem Forum nur irgendwelchen Blödsinn zu schreiben und kurze Zeit später landet es bei uns und es wird tatsächlich basierend darauf diskutiert.


es wird über alles gequatscht...

aber dass diese leistungsaussagen im vorfeld keine wertigkeit haben, siehst du alleine schon an den 41%-schneller-als-die-gtx570-werten der hd7870 von amd. sowas kannst du komplett in die tonne treten. eine diskussion darüber beurteile ich als zeitvertreib.

Blediator16
2012-03-10, 02:29:41
es wird über alles gequatscht...

aber dass diese leistungsaussagen im vorfeld keine wertigkeit haben, siehst du alleine schon an den 41%-schneller-als-die-gtx570-werten der hd7870 von amd. sowas kannst du komplett in die tonne treten. eine diskussion darüber beurteile ich als zeitvertreib.

Marketinggewäsch ist das eine. Chinesen Posts wieder etwas anderes ;D

dildo4u
2012-03-10, 03:11:26
Echt lolig die ganzen deutsche Redaktionen sind wieder auf der Cebit,mal sehen ob's überhaupt anständige Reviews am Montag gibt.

hardtech
2012-03-10, 03:53:22
naja. war letztes jahr in hannover auf der messe. null komma nix neues.
war eine enttäuschung, die mich dazu gebracht hat, dieses jahr fern zu bleiben. die jahre davor waren besser.

Hugo78
2012-03-10, 08:25:58
Na klar, mit einem Chip der kleiner ist als GF114 schaffen sie es mal so schlappe 216% der Leistung zu erreichen und die GTX590 zu schlagen.... :D 28nm bringt was aber das wäre doch etwas zuviel Zauberei.

Schon amüsant, da brauch ein Chinese in nem Forum nur irgendwelchen Blödsinn zu schreiben und kurze Zeit später landet es bei uns und es wird tatsächlich basierend darauf diskutiert.

Wenn bisher nur Thaiti released worden wäre, würde ich das auch abtun, aber Pincairn zeigt was geht, wenn man allein auf Spiele optimiert.

Das Ding ist 212mm^2 klein und packt 95% des Speeds der GTX 580 bei 100W weniger Verbrauch.
Jetzt lass GK104 eine identische Perf./mm^2 haben und skalier Pincairn mal mit dem Faktor 1,6 (340mm^2) und du landest (fast) bei der GTX 590.

Ist ne billige Milchmädchenrechnung, ja, aber nicht völlig aus der Luft gegriffen.

Skysnake
2012-03-10, 09:13:07
Echt lolig die ganzen deutsche Redaktionen sind wieder auf der Cebit,mal sehen ob's überhaupt anständige Reviews am Montag gibt.
Ich geh eher nicht davon aus. Wir werden aber eh nur Ref-Designs sehen. Von daher langt jeder Redaktion eine Karte, und ich hoffe mal, die erhalten Sie auch etwas früher als 24 Stunden vorm "Hard"launch :freak:

Man muss sich nur mal den angeblichen Produktionsstop von TSMC in Erinnerung führen. Da wird man auf keinen Fall von einer breiten Verfügbarkeit ausgehen können. Ich schlage daher jedem vor, der so ne Karte wirklich gleich will, direkt bei mehreren Shops eine zu bestellen und dann zu schauen ob er eine bekommt oder nicht.

boxleitnerb
2012-03-10, 09:15:44
tombman hat mal bei 10 Shops eine neue Karte bestellt hab ich gehört :D
Aber das nur am Rande. Ob wir von GK110 im Laufe des GK104-Launches auch irgendwas hören? Und wenn es nur eine Kleinigkeit ist...

AffenJack
2012-03-10, 09:23:21
Man muss sich nur mal den angeblichen Produktionsstop von TSMC in Erinnerung führen. Da wird man auf keinen Fall von einer breiten Verfügbarkeit ausgehen können.

Der höchstwahrscheinlich nur ein Hirngespinst von Charlie ist und daher gar nix über die Verfügbarkeit aussagt.
Die Verfügbarkeit wird ganz am Anfang natürlich nicht so toll sein, aber im April eher vom beanschlagten Preis abhängen.

Skysnake
2012-03-10, 09:32:42
Ja, Mitte April sollte man gut sehen können, wie viel Karten nVidia liefern kann.

Interessant wird auch, wann dann die ersten Customdesigns der Boardpartner kommen. Ich rechne da mit ca. 2-3 Monaten nach dem Launch für die ersten Custon-Designs.

Btw. Das fällt mir gerade auf.

Da ja davon aus zu gehen ist, das bei nVidia die Custom-Designs länger brauchen. Denkt ihr, das wird sich auf die Verkaufszahlen auswirken? AMD hat ja schon komplett für alle Serien eine unmenge an Custom-Designs am Start, und man hört doch von vielen Leuten, das Sie sich kein Ref-Design im Preisbereich >300-350€ kaufen wollen. Sprich im High-End-Bereich.

Mancko
2012-03-10, 11:02:00
Ja, Mitte April sollte man gut sehen können, wie viel Karten nVidia liefern kann.

Interessant wird auch, wann dann die ersten Customdesigns der Boardpartner kommen. Ich rechne da mit ca. 2-3 Monaten nach dem Launch für die ersten Custon-Designs.

Btw. Das fällt mir gerade auf.

Da ja davon aus zu gehen ist, das bei nVidia die Custom-Designs länger brauchen. Denkt ihr, das wird sich auf die Verkaufszahlen auswirken? AMD hat ja schon komplett für alle Serien eine unmenge an Custom-Designs am Start, und man hört doch von vielen Leuten, das Sie sich kein Ref-Design im Preisbereich >300-350€ kaufen wollen. Sprich im High-End-Bereich.

Kommt auf das Referenzdesign an. Die letzten Referenzdesigns von Nvidia waren in der Regel sehr gut und vor allem auch leise. Da waren Custom Designs nicht unbedingt besser. Bei AMD ist es eher umgekehrt gewesen. Die nutzen häufig lärmende Lüfter etc. in ihren Referenzdesigns. Ich denke das wird nichts ausmachen. Wenn Kepler rockt werden die Leute auch kaufen.

AnarchX
2012-03-10, 11:13:07
Na klar, mit einem Chip der kleiner ist als GF114 schaffen sie es mal so schlappe 216% der Leistung zu erreichen und die GTX590 zu schlagen.... :D 28nm bringt was aber das wäre doch etwas zuviel Zauberei.

Die ~X3000 sind schon seit Weihnachten im Umlauf.
Man sollte nicht vergessen, dass GeForce Fermi bei Tessellation gegenüber Quadro Fermi gedrosselt wurde (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8357870#post8357870). Kepler darf vielleicht nun ohne Drossel arbeiten.

Skysnake
2012-03-10, 11:20:54
Das glaubst aber auch nur du.

AnarchX
2012-03-10, 11:22:35
Wenn man aus einem 104 eine 80er Karte machen will, muss man vielleicht auch ein paar Opfer bringen. ;)

Duplex
2012-03-10, 11:24:24
Ich bin mir sicher wenn GK110 verschoben wird & GK104 mit den Tahiti´s mithalten kann, dann wird GK110 durch mehr Optimierungszeit locker 50% schneller als Tahiti XT, das warten wird sich auf jeden fall lohnen!

Screemer
2012-03-10, 11:26:14
dafür kannst du dann bis ende des sommers warten. bin schon sehr gespannt ob sich für mich ein umstieg von meiner 6950 auf gk104 lohnen wird.