PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 [27] 28 29 30 31

boxleitnerb
2012-03-16, 16:04:35
Was ist denn das mit dem adaptive VSync? Hab ich dann Tearing wenn ich weniger als 60fps hab? Imo Käse, vor allem weil ich kein einziges Spiel kenne, das von 60 auf 30, 20 usw. einbricht. Nicht eines.

Raff
2012-03-16, 16:06:14
Darum geht es mir nicht. Unsere Arbeit, die Benches und das Zusammenfassen inklusive dem Erstellen eines aufwendigen Artikels - all das wird massiv entwertet. Oder wenn man so will: Es ist gefühlt für den Ar***. Die Infos sind doch eh schon da - an sich müsste man einfach eine Meldung mit allen Leaks machen, "Test" in die Headline schreiben und gut ist :mad:

Es ist einfach unglaublich nervig, jeden Artikel mit "Es ist seit Wochen bekannt, hier die Benchmarks in unseren Farben und die allseits bekannten Infos mit unseren Worten ..." einzuleiten. Und das nur weil sich ein paar Leute (einer reicht) nicht an die Regeln halten. Und kommt nun nicht mit "Aber dieses Teil-Thema hat noch keiner angesehen." ;)

MfG,
Raff

M4xw0lf
2012-03-16, 16:07:33
Was ist denn das mit dem adaptive VSync? Hab ich dann Tearing wenn ich weniger als 60fps hab? Imo Käse, vor allem weil ich kein einziges Spiel kenne, das von 60 auf 30, 20 usw. einbricht. Nicht eines.

Der Einbruch von 60 auf 30 oder 20 wird doch durch VSync selbst verursacht -deswegen wird es sich adaptiv abschalten, sobald der Einbruch kommen würde.

dildo4u
2012-03-16, 16:09:16
Kommt mir eher spekulativ vor, so wie der ganze Artikel mir recht biased erscheint.
Ich meine wenn die GTX680 mit vergleichbarer Performance und vergleichbarem Preis kommt - was genau ist AMDs Beweggrund den Preis um 200 Scheinchen abzuschießen?
3DMark 11 ist ziehmlich Neutral,da man nicht mehr auf PhysX setzt.Die GTX580 ist dort 27% hinter der 7970 mehr als beim Schnitt der Gamebenches.

Dural
2012-03-16, 16:09:30
und NV kann tatsächlich noch mit einer 6-Pin + 8-Pin / 5-Phasen karte anstelle der 2x 6-Pin / 4-Phasen version noch mal locker kontern :eek:

kein wunder wurde der GK100 gestrichen :rolleyes:

boxleitnerb
2012-03-16, 16:09:51
Der Einbruch von 60 auf 30 oder 20 wird doch durch VSync selbst verursacht -deswegen wird es sich adaptiv abschalten, sobald der Einbruch kommen würde.

Ja, und dann hab ich Tearing. Ich tausche Pest gegen Cholera sozusagen. Also für mich ist das ziemlich unnütz. Ich hab das mit dem Einbrüch früher mal erlebt, ich kann mich schon kaum mehr erinnern. Aber heute? Bei welchem Spiel kommt sowas denn vor? VSync an und ich hab alle Werte zwischen 1 und 60fps je nachdem wie fordernd die Szene ist.

AnarchX
2012-03-16, 16:10:53
Vielleicht hat Nvidia bei Lucid und deren Virtual VSync abgeschaut. ;)

derguru
2012-03-16, 16:11:44
3DMark 11 ist ziehmlich Neutral,da man nicht mehr auf PhysX setzt.Die 580 ist dort 27% hinter der 7970 mehr als beim Schnitt der Games.
ja wenn du nach schnitt vom pcgh gehst bestimmt aber beim cb-schnitt (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/#abschnitt_leistung_mit_aaaf) sind es 33%.

M4xw0lf
2012-03-16, 16:12:24
Ja, und dann hab ich Tearing. Ich tausche Pest gegen Cholera sozusagen. Also für mich ist das ziemlich unnütz. Ich hab das mit dem Einbrüch früher mal erlebt, ich kann mich schon kaum mehr erinnern. Aber heute? Bei welchem Spiel kommt sowas denn vor? VSync an und ich hab alle Werte zwischen 1 und 60fps je nachdem wie fordernd die Szene ist.

Nur so lange triple buffering funktioniert, sonst bekommt man die hässliche Frame-Halbierung /-Drittelung /-Sechstelung und so weiter ^^

boxleitnerb
2012-03-16, 16:13:43
Nur so lange triple buffering funktioniert, sonst bekommt man die hässliche Frame-Halbierung /-Drittelung /-Sechstelung und so weiter ^^

Ja das weiß ich doch. Wo funktioniert es denn nicht?

dildo4u
2012-03-16, 16:15:00
ja wenn du nach schnitt vom pcgh gehst bestimmt aber beim cb-schnitt (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/#abschnitt_leistung_mit_aaaf) sind es 33%.
In der selben Auflösung wie 3D Mark extreme (1080p 4XAA) sind es 21%.

M4xw0lf
2012-03-16, 16:15:52
Ja das weiß ich doch. Wo funktioniert es denn nicht?

Soweit ich weiß kann man es nur unter OpenGL erzwingen und ansonsten muss es vom Spiel unterstützt werden, oder sowas.

Screemer
2012-03-16, 16:16:47
EVGA Tool
da hat sich unwinder aber was schönes ausgedacht.

Nighthawk13
2012-03-16, 16:17:01
Genau da liegt aber der Hund begraben...

Du wirst keine riesen Caches sehen. Das ist viel zu aufwendig. Die Caches sind nicht ohne Grund so überschaubar, und dann sollen da auch noch viel mehr Einheiten drauf zu greifen...
Scheint so:( Wenn die hkepc-Leak-Screens stimmen, alles wie gehabt: 64KB L1/SM, 768KB L2 shared. (Und nen "schmalen Balken" Uniform/Tex Cache, also vermutlich <=8KB wie Fermi).

Naja, die 3D-Leistung scheint ja trotzdem zu passen:) In ner Woche wird mans genau wissen...

derguru
2012-03-16, 16:17:32
In der selben Auflösung wie 3D Mark extreme (1080p 4XAA) sind es 21%.
1080p mit 4aa ist bei games kein guter vergleich zum 3d mark11,bei games wird doch teilweise noch gar nicht richtig ausgelastet.(entweder 1080p+8aa oder gleích 1600p 4xaa)

crux2005
2012-03-16, 16:18:27
wann ist der shit vorbei,22 oder 23.03.?http://bbs.expreview.com/static/image/smiley/funnyguy/21.gif

22.3. USA, also
23.3. Europa

Konami
2012-03-16, 16:18:31
Es ist einfach unglaublich nervig, jeden Artikel mit "Es ist seit Wochen bekannt, hier die Benchmarks in unseren Farben und die allseits bekannten Infos mit unseren Worten ..." einzuleiten. Und das nur weil sich ein paar Leute (einer reicht) nicht an die Regeln halten. Und kommt nun nicht mit "Aber dieses Teil-Thema hat noch keiner angesehen." ;)

MfG,
Raff
Qualität ist auch ein Argument. Ich bin verdammt froh, wenn ich die Zahlen nicht nur von irgendeinem Chinesen bekomme, sondern aus einer verlässlichen Quelle, die auf professionelle und faire Art testet.
Außerdem sind da noch die ganzen Geekthemen à la AA-Modi, Bildqualität, technische Details...

Also arbeitslos seid ihr nicht deswegen ;)

dildo4u
2012-03-16, 16:20:32
1080p mit 4aa ist bei games kein guter vergleich zum 3d mark11,bei games wird doch teilweise noch gar nicht richtig ausgelastet.(entweder 1080p+8aa oder gleích 1600p 4xaa)

Das passt schon bei deinen 33% sind bestimmt Fälle dabei wo der 580 der V-ram ausgeht.Der 3D Mark 11 ist schon ein guter Anhaltspunkt,besser als die Gamebenches @1080p wie du ja selber sagst.

Ronny145
2012-03-16, 16:20:52
22.3. USA, also
23.3. Europa


Nvidias launch Zeit beträgt doch bei uns immer 15:00 oder 16:00 Uhr. Das ist derselbe Tag in den USA und bei uns.

Schaffe89
2012-03-16, 16:23:58
Warten wir mal die guten reviews ab.
So wie das aussieht, könnte die GTX680 ja ganz knapp vor der HD 7970 liegen.

derguru
2012-03-16, 16:29:32
22.3. USA, also
23.3. Europa
bis dahin kommen noch paar leaks,die warten meist darauf das jemand anfängt und dann gehts los.:biggrin:
Warten wir mal die guten reviews ab.
So wie das aussieht, könnte die GTX680 ja ganz knapp vor der HD 7970 liegen.

ich tippe im schnitt werden es um die 10% über 7970 sein bei 1080p und umso höher die settings werden desto kleiner wird der abstand,mal schauen wie sie sich unter sgssaa schlägt.

AnarchX
2012-03-16, 16:33:13
Das dürfte die Taktgerüchte erklären:
http://we.pcinlife.com/data/attachment/forum/201203/16/2320031l1j9ew6wijyy16y.jpg
http://we.pcinlife.com/thread-1853902-1-1.html

Laut den Folien könnte wohl in bestimmten Szenarien die 1GHz unterschritten werden.

aufkrawall
2012-03-16, 16:33:59
Auslesefehler oder Hotclock?

M4xw0lf
2012-03-16, 16:34:29
Das dürfte die Taktgerüchte erklären:
http://we.pcinlife.com/data/attachment/forum/201203/16/2320031l1j9ew6wijyy16y.jpg
http://we.pcinlife.com/thread-1853902-1-1.html

Laut den Folien könnte wohl in bestimmten Szenarien die 1GHz unterschritten werden.

Powertune, anyone? :freak:

AnarchX
2012-03-16, 16:35:49
Auslesefehler oder Hotclock?
Der Hot-Clock ist eine Auslese-Fehler. Aber die 700MHz könnten wohl der untere Basis-Takt sein.

boxleitnerb
2012-03-16, 16:36:34
Kann man den Quark auch ausstellen, wenn man eh manuell übertaktet?

M4xw0lf
2012-03-16, 16:38:15
Kann man den Quark auch ausstellen, wenn man eh manuell übertaktet?

Das EVGA-Tool macht den Anschein, dass man da sowohl Base- als auch Boost-Clock verstellen (gleichsetzen?) kann, ansonsten bleibt der Boost wohl immer gleich, wird also auch bei Übertaktung auf die Base-Clock draufgeschlagen.

AnarchX
2012-03-16, 16:41:33
507€ inkl. MwSt: http://www.comcom.nl/p/zotac/default_product/zt_60101_10p/zotac_gtx680_2gb_ddr5_256_bit_1006_6008hdcp_dual_dvi_hdmi_dp/

M4xw0lf
2012-03-16, 16:44:20
507€ inkl. MwSt: http://www.comcom.nl/p/zotac/default_product/zt_60101_10p/zotac_gtx680_2gb_ddr5_256_bit_1006_6008hdcp_dual_dvi_hdmi_dp/

Die Listungen kommen aber echt früh, dafür dass der Launch erst in einer Woche sein soll.

Edit:
Schon aufgefallen, dass im BF3-Bench der 7970-Balken vom Textfeld abrasiert wird? ^^
http://h13.abload.de/img/1618503333679014676wiivi.png

Thunder99
2012-03-16, 16:56:04
Das dürfte die Taktgerüchte erklären:
http://we.pcinlife.com/data/attachment/forum/201203/16/2320031l1j9ew6wijyy16y.jpg
http://we.pcinlife.com/thread-1853902-1-1.html

Laut den Folien könnte wohl in bestimmten Szenarien die 1GHz unterschritten werden.
Wenn mal die GPU richtig belastet wird (vermute ich) :freak: , also schlecht?!

AnarchX
2012-03-16, 17:00:00
Wie erwartet hat man mit der Reduktion der Polymorph-Engines deren Leistung verdoppelt, sodass die acht 2.0 PEs wohl den 16 1.0 PEs von GF110 entsprechen sollten.

Über D3D11.1 wurde offenbar kein Wort verloren?

Das TXAA hat wohl auch nichts mit FXAA zu tun. Aber es bestehen wohl Chancen, dass es später auch auf GeForce 500 und älter freigeschalten wird.

Wenn mal die GPU richtig belastet wird (vermute ich) :freak: , also schlecht?!
Laut der Folie soll bei Max-Power zwar der Base-Clock anliegen: http://www.abload.de/image.php?img=16184903432594596835zyih.jpg
... aber fraglich ob da wirklich die volle Leistung noch umgesetzt wird, z.B. in FurMark.

Ronny145
2012-03-16, 17:02:04
Das TXAA hat wohl auch nichts mit FXAA zu tun.


Wie kommst Du darauf?

AnarchX
2012-03-16, 17:04:55
Wie kommst Du darauf?

Übersetzung:
In addition to the new TXAA Antialiasing, NVIDIA is also an existing graphics card users to bring good news, the introduction of the original few games before the corresponding FXAA to the NVIDIA Control Panel, users can easily turn the feature on. lead to better anti-aliasing for different games, and enhance the quality of the game screen.

Also TXAA erstmal Kepler exklusiv, während FXAA wohl gleich für alle GeForce User bereitstehen soll.


TXAA 1: kostet soviel wie 2x MSAA, Glättung besser/vergleichbar zu 8xMSAA
TXAA 2: kostet soviel wie 4x MSAA

Der ganze Text:
Practical function open: new antialiasing technology TXAA

In addition to the graphics performance, NVIDIA also for the needs of gamers, add a number of new and useful features for a new generation of the GeForce GTX 680, released a new anti-aliasing technology TXAA, a new generation of hardware rendering anti-aliasing technology, actually belongs to the old MSAA's enhanced version provides better anti-aliasing I can reduce the open antialiasing fluency decline, for the time being belonging to the GeForce GTX 680 unique anti-aliasing, but NVIDIA said that the above will be open at a later time to the GeForce GTX 500 or Model.

TXAA temporarily can be divided into two levels: TXAA 1 and TXAA, the former costs only 2x the MSAA similar, but the MSAA is better than the 8x anti-aliasing; As for TXAA 2 effect is more outstanding, but the cost only similar with 4x MSAA. TXAA game itself support to be open to use, support TXAA variety of games will be held during the year stage, although present, failed to test its real performance, but based on the NVIDIA official photos can be seen, antialiasing does, it is worth looking forward to.

In addition to the new TXAA Antialiasing, NVIDIA is also an existing graphics card users to bring good news, the introduction of the original few games before the corresponding FXAA to the NVIDIA Control Panel, users can easily turn the feature on. lead to better anti-aliasing for different games, and enhance the quality of the game screen.

TXAA muss wohl vom Spiel mitgebracht werden?!

Nochmal von Bing übersetzt:
Because TXAA needs support before it can be opened using the game itself, support TXAA games will be debut this year, although there is no test for truly, but according to the NVIDIA Official photos, anti-aliasing effect is prominent, it is worth looking forward to.

Raff
2012-03-16, 17:08:41
FXAA im GeForce-Panel ist doch schon ein alter Hut (http://www.pcgameshardware.de/aid,857939/Geforce-29518-Offizielle-FXAA-Unterstuetzung-plus-experimenteller-Framelimiter-fuer-weniger-Mikroruckler/Grafikkarten-Treiber/News/).

MfG,
Raff

Ronny145
2012-03-16, 17:09:53
Übersetzung:


Also TXAA erstmal Kepler exklusiv, während FXAA wohl gleich für alle GeForce User bereitstehen soll.


Das Treiber FXAA ist natürlich die einfache Form ohne weitere MSAA Samples, das geht nicht anders. Das ist klar. TXAA klingt nach einer anderen Form des FXAA, welches ins Spiel integriert werden muss. Eventuell handelt es sich hierbei um die Temporal Variante von FXAA 4.0. Nur müsste das dann auch auf älteren Karten funktionieren.

Dural
2012-03-16, 17:31:24
die GTX680 hat wohl gut 30Watt weniger spiele verbrauch als die 7970.

dafür aber mehr im Idle :confused:

AnarchX
2012-03-16, 17:32:14
Der Artikel wird wohl noch geupdatet.

3DMark11 Performance Power Consumption
http://img819.imageshack.us/img819/9607/16235232521973668591.png (http://imageshack.us/photo/my-images/819/16235232521973668591.png/)

Mit den ~25% mehr Leistung im P-GPU-Score ergibt sich da schon eine sehr nette Pro-Watt-Leistung.

Generell ist die GTX 680 aber im 3DM11 schon etwas erstaunlich schnell. :D

Undertaker
2012-03-16, 17:33:39
Das gilt anscheinend für Kepler allgemein - auch die GT 640M ist dort überragend unterwegs.

dildo4u
2012-03-16, 17:36:51
Muss man mal Anno 2070 oder Metro Benches abwarten,ob die Shaderleistung dort auch so brutal durchschlägt wie bei den ATI's.

http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/23/#abschnitt_anno_2070

derguru
2012-03-16, 17:45:04
oder in bulletstorm,ss3 oder skyrim ingame oder,oder aber ok so brontal wie in anno macht es keiner.

Blediator16
2012-03-16, 17:49:11
Wenn man sich den Graphen vom Stromverbrauch anschaut, so schwankt dieser bei der 680 und ist eher unregelmäßig. Könnte durch das ständige hin und her takten nicht eine Art Microruckler entstehen? Anders kann ich mir die Sprünge nicht erklären. Mit dem Taktsprung sollte ja automatisch der Stromverbrauch hin und herspringen.

dildo4u
2012-03-16, 17:51:58
Wenn man sich den Graphen vom Stromverbrauch anschaut, so schwankt dieser bei der 680 und ist eher unregelmäßig. Könnte durch das ständige hin und her takten nicht eine Art Microruckler entstehen? Anders kann ich mir die Sprünge nicht erklären. Mit dem Taktsprung sollte ja automatisch der Stromverbrauch hin und herspringen.
Das sind die Titel Screens der verschiedenen Test's.

Blediator16
2012-03-16, 17:53:12
Das sind die Titel Screens der verschiedenen Test's.
Wie meinst du das? Ich beziehe mich auf diesen Graphen:

http://img819.imageshack.us/img819/9607/16235232521973668591.png

Während der Verbrauch der 7970 in etwa gleich bleibt springt es bei der 680 ständig "unkontrolliert".

boxleitnerb
2012-03-16, 17:58:05
Eigentlich müsste man jetzt eine neue Messung einführen, und zwar fps/Wh. Eine punktuelle Messung des Verbrauchs ist im Grunde unsinnig geworden. Man sollte in einer Benchmarksequenz kontinuierlich den Verbrauch alle Sekunde messen und die Gesamtzahl der gerenderten fps dadurch teilen.

Undertaker
2012-03-16, 17:58:46
Die GTX 680 scheint in den Ladezeiten zwischen den Tests weiter herunterzutakten/sparsamer zu sein. Komplett idle braucht jedoch wohl die 7970 etwas weniger.

dildo4u
2012-03-16, 18:02:41
Jeden Fall's wars kein PR das Nvidia von AMD wohl mehr erwartet hat.Mal sehen wie viel schneller die 680 beim selben TDP ist.

Knuddelbearli
2012-03-16, 18:08:53
im ladescreen sollte low 3d anliegen

ihmo einer der wichtigsten states meine GTX 480 befindet sich dank flash und co 99% der ( nicht spiel) zeit darin

AwesomeSauce
2012-03-16, 18:09:22
Also wohl immer noch kein Synergy;(

Blediator16
2012-03-16, 18:11:50
Jeden Fall's wars kein PR das Nvidia von AMD wohl mehr erwartet hat.Mal sehen wie viel schneller die 680 beim selben TDP ist.

Wenn sie bei so einem kleinen Chip mehr erwartet haben, dann sollten sie es ja mit leichtigkeit überall locker schlagen können, denn deren Chip ist ja auch so um den dreh.

AnarchX
2012-03-16, 18:13:31
Also wohl immer noch kein Synergy;(
Auf einem 3960X kann man schlecht die GPU auf dem Desktop einfach abschalten.

Insgesamt bestehen durchaus noch einige Fragen, die dann die Reviews am Donnerstag klären sollten.

PCGH_Carsten
2012-03-16, 18:14:19
im ladescreen sollte low 3d anliegen

ihmo einer der wichtigsten states meine GTX 480 befindet sich dank flash und co 99% der ( nicht spiel) zeit darin

Einfach per Nvidia Inspector auf P12 forcen:
"C:\Program Files (x86)\nvidiaInspector 1.95.5\nvidiaInspector.exe" -setPStateLimit:0,12
(mit 0,0 am Ende kann man das wieder aufheben)
Ich habe noch keine Beeinträchtigung beim „Flashen“ festgestellt, obwohl ich nur einen lausigen Dualcore-Prozessor für meine 480 besitze.

aufkrawall
2012-03-16, 18:18:24
im ladescreen sollte low 3d anliegen

ihmo einer der wichtigsten states meine GTX 480 befindet sich dank flash und co 99% der ( nicht spiel) zeit darin
Du meinst den Videomodus?
Der schluckt im Vergleich zu P12 aber ganz ordentlich Strom.

Blediator16
2012-03-16, 18:25:53
Haben sie nun 11.1 ausgelassen wie bei 10.1 oder war das bei denen nur ein Auslesefehler?

C.D.B.
2012-03-16, 18:27:24
Ja das weiß ich doch. Wo funktioniert es denn nicht?

Ich zock(te) gerne ab und zu mal Prince of Persia (2008). Auf meinen ATI-Karten gings mit TB, auf meiner 580 kann ich auch mit dem Inspector TB nicht forcen. :mad:

mironicus
2012-03-16, 18:28:21
Verbraucht die 680 idle 20 Watt mehr als die 7970?

Ailuros
2012-03-16, 18:29:10
1. 950MHz war fuer den Februar launch geplant, aber zu dieser Zeit war der Plan auch fuer einen aggressiveren Preis (wobei bei NV wohl jemand bloed genug war zu glauben dass sie bessere yields erreichen koennen) und ein Prozentual unter der 7970.

2. Als der launch verschoben wurde hiess es dass die neueren Treiber sich viel besser verhalten und das Ziel war seit dem als eine direkte Konkurrenz gegen TahitiXT gesetzt. Uebrigens sind 50MHz hoeher wenn man sein Taktziel erreicht hat nichts ausserordentliches.

3. Bin ich blind oder sehe ich nirgends in dem geleaktem Material ausser 3furz xtreme irgendwelche 4xMSAA Resultate? Kann sein dass es nur ein Bauchgefuehl ist, aber da auf Tahiti eher die ROPs limitieren, wuerde es mich nicht ueberraschen falls der Unterschied mit 4xAA etwas kleiner sein sollte.

4. AnarchX: egal wie oft ich nachfrage (auch in letzter Zeit) ist die Antwort gleich dass es keinen hotclock gibt. Hab ich etwas ueberlesen im bisher geleaktem Material oder ist es nur GPU-Z das weiss der Geier was ausliesst? Es koennen eben wohl schwer 2012MHz hotclock sein da das Ding dann ueber 6.18 TFLOPs SP faehig ist. 3.09 TFLOPs sollte die korrekte Zahl sein.

5. Tschuldigung wenn ich etwas bissig werde: wo bitteschoen sind jetzt die Meinungen geblieben dass eine 256bit SKU nie eine 384bit SKU schlagen kann und dass Tahiti garantiert ueberall den Vorsprung haben wird? Natuerlich warte ich wie jeder andere die ersten wirklichen unabhaengigen reviews ab, aber sehr viel kann sich an dem sowieso nicht aendern.

6. Was meint Ihr, wird es Zeit dass wir uns etwas auf GK110 konzentrieren? Dieser oder neuer thread ist egal. Es dauert sowieso nur noch Tage bis alles GK104 fuer das Spekulationsforum ueberfluessig ist.

dildo4u
2012-03-16, 18:30:43
Die einzelnen Testscores. GTX580 und 7970 wären interresant zum Vergleich.

http://i.imgur.com/9QKwr.png

http://www.abload.de/img/3dmakrwfq102.jpg

AnarchX
2012-03-16, 18:31:23
4. AnarchX: egal wie oft ich nachfrage (auch in letzter Zeit) ist die Antwort gleich dass es keinen hotclock gibt. Hab ich etwas ueberlesen im bisher geleaktem Material oder ist es nur GPU-Z das weiss der Geier was ausliesst? Es koennen eben wohl schwer 2012MHz hotclock sein da das Ding dann ueber 6.18 TFLOPs SP faehig ist. 3.09 TFLOPs sollte die korrekte Zahl sein.

Es ging darum, woher Theo/VR-Zone seine Taktraten hatte. Er hat sie leichtgläubig aus GPU-Z abgelesen/ablesen lassen.

derguru
2012-03-16, 18:34:42
frag mich wie gut der oc-potenzial wird wenn man von default 700 auf 1000hmz springt,ob das überhaupt möglich ist?

Knuddelbearli
2012-03-16, 18:36:59
Einfach per Nvidia Inspector auf P12 forcen:
"C:\Program Files (x86)\nvidiaInspector 1.95.5\nvidiaInspector.exe" -setPStateLimit:0,12
(mit 0,0 am Ende kann man das wieder aufheben)
Ich habe noch keine Beeinträchtigung beim „Flashen“ festgestellt, obwohl ich nur einen lausigen Dualcore-Prozessor für meine 480 besitze.

ich leider schon wollte mal flashen, hab es zum glück davor aber getestet. wenn ich P8 ändere habe ich auf youtube usw immer mal wieder treiber resets ...

aktuell bastel ich an einer lösung mit dem multimonitor vom inspector rum

manuell vergisst mans einfach zu oft

dildo4u
2012-03-16, 18:37:22
frag mich wie gut der oc-potenzial wird wenn man von default 700 auf 1000hmz springt.
Base ist 1006.Und 325mhz der 2D Takt.
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42262&d=1331909111

Timbaloo
2012-03-16, 18:38:16
6. Was meint Ihr, wird es Zeit dass wir uns etwas auf GK110 konzentrieren? Dieser oder neuer thread ist egal. Es dauert sowieso nur noch Tage bis alles GK104 fuer das Spekulationsforum ueberfluessig ist.
GK106 nicht vergessen, sonst fummel ich wieder in deinem Hinterkopf rum ;)

boxleitnerb
2012-03-16, 18:42:54
6. Was meint Ihr, wird es Zeit dass wir uns etwas auf GK110 konzentrieren? Dieser oder neuer thread ist egal. Es dauert sowieso nur noch Tage bis alles GK104 fuer das Spekulationsforum ueberfluessig ist.

Es gibt tatsächlich Leute, die behaupten, es werde keinen großen (um die 500mm2) GK110 geben in den nächsten 6-12 Monaten. Und weiterhin wird angedeutet, dass GK104 in die Teslas wandern wird ;D

y33H@
2012-03-16, 18:46:26
Ich nutze seit langem den NV Inspector und habe das per MDPS den P12 drin und P8 wie P0 ab 75% load - damit fahre ich 1A, nur drei vier Spiele habe ich in den P0 gepackt (Rage etwa macht nur 30% load :ugly:).

AwesomeSauce
2012-03-16, 18:46:40
Es gibt tatsächlich Leute, die behaupten, es werde keinen großen (um die 500mm2) GK110 geben in den nächsten 6-12 Monaten. Und weiterhin wird angedeutet, dass GK104 in die Teslas wandern wird ;D
In einer perfekten Welt sollte GK110 spätestens 3 Monate nach GK104 kommen, was ja NVs eigentliches Ziel bei Produktlaunches ist. Ob TSMC da mitmacht, ist eine andere Geschichte:freak:

Ailuros
2012-03-16, 18:54:14
frag mich wie gut der oc-potenzial wird wenn man von default 700 auf 1000hmz springt,ob das überhaupt möglich ist?

Es werden wohl die laecherlichsten Aussnahmen sein wo der core unter 3D wirklich auf nur 700MHz laeuft. Ergo ist die eigentliche default Frequenz bei 1006.

GK106 nicht vergessen, sonst fummel ich wieder in deinem Hinterkopf rum ;)

OK das geht schnell: 1/2 GK104, 192bit, Leistung ein klein bisschen ueber der 570. Vor Mai wird es aber davon nichts geben...hab ich das nicht schon mal erwaehnt?

Timbaloo
2012-03-16, 18:57:08
O.K. mir war nicht bewusst, dass das schon so... final ist.

Ailuros
2012-03-16, 18:57:33
Es gibt tatsächlich Leute, die behaupten, es werde keinen großen (um die 500mm2) GK110 geben in den nächsten 6-12 Monaten. Und weiterhin wird angedeutet, dass GK104 in die Teslas wandern wird ;D

Der die ist 550mm2 gross und auch in Verbindung mit der Transistoren-Anzahl fast am Rand der Herstellungs-Moeglichkeiten unter 28HP. Sonst was soll GK104 in Teslas genau anrichten? Dual-chip minimal um die GK110 DP Raten zu erreichen? :biggrin:

boxleitnerb
2012-03-16, 18:58:52
Mich musst du das nicht fragen, ich finde genauso wie du, dass das Humbug ist. Was hat GK104 überhaupt für ein maximales SP/DP-Verhältnis?

Blöd, dass LZ sich abgemeldet hat, das wäre jetzt eine interessante Diskussion unter den üblichen Verdächtigen. Von ihm kommen nämlich diese Aussagen :D

Man From Atlantis
2012-03-16, 19:00:10
Der die ist 550mm2 gross und auch in Verbindung mit der Transistoren-Anzahl fast am Rand der Herstellungs-Moeglichkeiten unter 28HP. Sonst was soll GK104 in Teslas genau anrichten? Dual-chip minimal um die GK110 DP Raten zu erreichen? :biggrin:

isn't it 1:3 DP? 1TFlops for GK104 would be impressive, Geforce is limited to 1:12 though and no ECC ;D

Ailuros
2012-03-16, 19:09:55
isn't it 1:3 DP? 1TFlops for GK104 would be impressive, Geforce is limited to 1:12 though and no ECC ;D

Weiss der Geier wo das eigentliche hw limit liegt und wieviel via sw noch abgestellt wurde. Bei 3.5Mrd Transistoren fuer 1536SPs, 128 TMUs, 4 raster/trisetups und 32 ROPs bin ich mir nichtmal ueber 3:1 sicher.

So oder so maximal und rein theoretisch duerfte nicht mehr als 1 TFLOP DP aus einer GK104 kommen. Weniger als die Haelfte vom big daddy ;)

AnarchX
2012-03-16, 19:13:03
Also über 2 TFLOPS @ GK110 mit HPC-Taktraten?

Ailuros
2012-03-16, 19:14:25
Also über 2 TFLOPS @ GK110 mit HPC-Taktraten?

So einfach mach ich es oeffentlich noch nicht.

V2.0
2012-03-16, 19:16:49
Das Problem bei GK110 ist, dass es sehr schwer ist aus den HPC Daten Rückschlüsse auf die Spieleleistung zu ziehen, da NV mit den SM Blöcken ja offensichtlich sehr unerwartete Wege gehen kann und tut.

Ailuros
2012-03-16, 19:19:46
Das Problem bei GK110 ist, dass es sehr schwer ist aus den HPC Daten Rückschlüsse auf die Spieleleistung zu ziehen, da NV mit den SM Blöcken ja offensichtlich sehr unerwartete Wege gehen kann und tut.

Entweder Du weisst zu viel oder es ist purer Zufall.

GK110 SMs != GK10x SMs.

Hades11
2012-03-16, 19:20:00
" 讓玩家們等了又等的新世代「 Kepler 」 產品終於登場, GeForce GTX 680 憑藉新架構、新製程,成功在效能上輕取對手 Radeon HD 7970 之餘,連一直為人詬病的高溫及高功耗問題亦已得到解決,表現出現一面倒優勢,總算未有叫久等的玩家們失望。"

Bin ich denn der einzige der kein Chinesisch Lesen kann :uconf2:

Ailuros
2012-03-16, 19:23:37
" 讓玩家們等了又等的新世代「 Kepler 」 產品終於登場, GeForce GTX 680 憑藉新架構、新製程,成功在效能上輕取對手 Radeon HD 7970 之餘,連一直為人詬病的高溫及高功耗問題亦已得到解決,表現出現一面倒優勢,總算未有叫久等的玩家們失望。"

Bin ich denn der einzige der kein Chinesisch Lesen kann :uconf2:

Google translate:

Die Spieler warteten auf die neue Generation "Kepler" fand schließlich, die GeForce GTX 680 mit der neuen Struktur, neuen Prozessen, Erfolg in der Sieg gegen Rivalen Radeon HD 7970 mehr als Leistung, und sogar hohe Temperaturen und hohe Leistung kritisiert das Problem ist gelöst worden, die Leistung einer einseitigen Vorteil, endlich, kein Anklopfen Spieler enttäuscht.

-=Popeye=-
2012-03-16, 19:25:36
Die Listungen kommen aber echt früh, dafür dass der Launch erst in einer Woche sein soll.

Edit:
Schon aufgefallen, dass im BF3-Bench der 7970-Balken vom Textfeld abrasiert wird? ^^
http://h13.abload.de/img/1618503333679014676wiivi.png

Und? Die Grafik ändert nichts an der Tatsache das die 7970 nur unwesentlich schneller als eine 580 in BF3 ist.

Die einzelnen Testscores. GTX580 und 7970 wären interresant zum Vergleich.

http://i.imgur.com/9QKwr.png

http://www.abload.de/img/3dmakrwfq102.jpg

Wozu? Das Ergebnis wird extrem durch die CPU gepusht, ich würde sagen die Karte pegelt sich eher irgendwo zwischen einer GTX590 und HD7970 ein.

AnarchX
2012-03-16, 19:32:57
Entweder Du weisst zu viel oder es ist purer Zufall.

GK110 SMs != GK10x SMs.
Nach Fermi war dies absehbar.

Nach der Aussage oben und dem Die-Shot könnten es wohl 4*3*192 sein.
Mit ein paar zusätzlichen Warp-Shedulern kann man da wohl auch DP mit 1:2 ermöglichen.

dildo4u
2012-03-16, 19:36:11
Und? Die Grafik ändert nichts an der Tatsache das die 7970 nur unwesentlich schneller als eine 580 in BF3 ist.



Wozu? Das Ergebnis wird extrem durch die CPU gepusht, ich würde sagen die Karte pegelt sich eher irgendwo zwischen einer GTX590 und HD7970 ein.
Deshalb hab ich ja die Einzel Test's gepostet,die Grafiktest's sind absolut GPU limitiert.

AnarchX
2012-03-16, 19:37:32
Oder man betrachtet gleich den Extreme GPU Score:
http://www.abload.de/img/16185031311762211496euc7k.png
weitere Vergleichswerte: http://www.tweakpc.de/hardware/tests/grafikkarten/xfx_amd_radeon_hd_7970_black_edition/benchmarks.php?benchmark=3dm11g

dildo4u
2012-03-16, 19:45:31
Krass damit dürften sie ihr Ziel fast erreicht haben mit der 3X Performance per Watt gegen die 480.

y33H@
2012-03-16, 19:48:25
NV hat nie dergleichen benannt. Es hieß dreifache Perf/Watt bei DP!

Odal
2012-03-16, 19:52:44
also scheint wohl schon zu stimmen das die GTX680 mal locker vor der 7970 ist und damit deutlich vor der GTX580

so ein Drama da baut NVidia endlich mal wieder einen gescheiten Performance Chip vom Schlage einer 88GT und dann soll damit das HighEnd bedient werden :mad:

Ravenhearth
2012-03-16, 19:56:05
Kepler scheint im Allgemeinen ziemlich stark zu sein. GK107 dürfte auf Cape Verde-Niveau liegen, GK106 in Richtung Pitcairn XT, GK104 scheint die 7970 noch ein wenig zu überbieten und GK110 wird anscheinend mit allen anderen den Boden wischen. Hart für AMD, finde ich. Vor allem im Performancebereich, wo man mit einem größeren und komplexeren Chip sowie einem breiteren Speicherinterface, größerem VRAM, also höheren Kosten und auch noch mit mehr Leistungsaufnahme gegen einen in vielerlei Hinsicht effizienteren GK104 antreten muss.

dildo4u
2012-03-16, 19:56:23
NV hat nie dergleichen benannt. Es hieß dreifache Perf/Watt bei DP!
Stimmt das wird schwerer die Profikarten waren nicht so am Limit gebaut.Oh man sieht Fermi kacke aus gegen die neue Gen.

aufkrawall
2012-03-16, 20:00:25
Oh man sieht Fermi kacke aus gegen die neue Gen.
Bei der Verlustleistung wie Steinzeit. :rolleyes:

Hades11
2012-03-16, 20:01:29
6. Was meint Ihr, wird es Zeit dass wir uns etwas auf GK110 konzentrieren? Dieser oder neuer thread ist egal. Es dauert sowieso nur noch Tage bis alles GK104 fuer das Spekulationsforum ueberfluessig ist.
sehr gerne! ich freue mich schon auf einen Chip der (hoffentlich) am (oberen) Rand des Technisch machbaren liegt :udevil:
Ich bin ein Gewohnheitstier, wo wir doch schonmal hier sind können wir doch auch hier bleiben.

weiß eigentlich jemand wo der Rekord bei Postings in einem thread liegt?

AnarchX
2012-03-16, 20:01:52
Kepler scheint im Allgemeinen ziemlich stark zu sein. GK107 dürfte auf Cape Verde-Niveau liegen, GK106 in Richtung Pitcairn XT, GK104 scheint die 7970 noch ein wenig zu überbieten
Das könnte etwas zu optimistisch sein, da Tahiti gegenüber den kleinen GCN-Chips eher schlecht skaliert. Die 7770 liegt häufig über 40% der 7970.

btw.
Das BF3 Diagramm wurde gefixt:
GTX 680: 72,2 FPS
HD 7970: 70,5 FPS

DarknessFalls
2012-03-16, 20:08:31
Im Ernst: Bin ich jetzt schief gewickelt oder haben wir hier neben den synthetischen Benches zwei nV-Schokoladen-Spiele (LP und Batman) sowie ein Tahiti-Worst-Case-Szenario (BF3) neben einem einzigen "neutralen" Benchmark (CoD)? Wie viel tatsächliche Aussagekraft hat das? Das sieht doch eher nach den von Ailuros schonmal erwähnten Cherrypicking-Ergebnissen aus, in denen GK104 Tahiti XT schlägt...

Ronny145
2012-03-16, 20:10:32
BF3 ist Tahiti worstcase? Dann hast Du noch nicht Starcraft 2 und pCARS gesehen.

DarknessFalls
2012-03-16, 20:11:34
pCARS??? SC2 wäre noch das i-Tüpfelchen gewesen. Jap. ^^

Ronny145
2012-03-16, 20:12:52
http://www.hardware.fr/articles/848-23/benchmark-project-cars.html

DarknessFalls
2012-03-16, 20:14:53
Okay, das Game KENNE ich nichtmal. :D Aber worauf ich oben hinaus will - umgekehrt werden AMD-Schokoladen-Games wie z.B. Skyrim, Metro oder gar Anno das Ganze unter Tahiti-Niveau verschieben. Letztendlich dürfte ein Overall-Wert für GK104 ziemlich mittig zwischen Tahiti Pro und XT herauskommen mit Tendenz zu XT.

derguru
2012-03-16, 20:17:24
Im Ernst: Bin ich jetzt schief gewickelt oder haben wir hier neben den synthetischen Benches zwei nV-Schokoladen-Spiele (LP und Batman) sowie ein Tahiti-Worst-Case-Szenario (BF3) neben einem einzigen "neutralen" Benchmark (CoD)? Wie viel tatsächliche Aussagekraft hat das? Das sieht doch eher nach den von Ailuros schonmal erwähnten Cherrypicking-Ergebnissen aus, in denen GK104 Tahiti XT schlägt...
dito aber man kann sehen wohin die reise vom gk104 geht.überrascht hat mich eigentlich nur der 3d mark11 wert.

tatsächlich das wurde gefixt,wer weiß was noch so alles gefixt wird,hätten die bloß das mit dem 8xaa auch mal gefixt.;D

http://www.abload.de/img/17024707278343071241nifa.png

dildo4u
2012-03-16, 20:20:28
Okay, das Game KENNE ich nichtmal. :D Aber worauf ich oben hinaus will - umgekehrt werden AMD-Schokoladen-Games wie z.B. Skyrim, Metro oder gar Anno das Ganze unter Tahiti-Niveau verschieben. Letztendlich dürfte ein Overall-Wert für GK104 ziemlich mittig zwischen Tahiti Pro und XT herauskommen mit Tendenz zu XT.
Abwarten gerade die Shaderleistung sollte deutlich gefixt sein,Anno und Metro könnten recht dicht beieinander sein.SSAA sollte auch deutlich besser als bei der 580 laufen.

y33H@
2012-03-16, 20:28:56
Okay, das Game KENNE ich nichtmal. :D Aber worauf ich oben hinaus will - umgekehrt werden AMD-Schokoladen-Games wie z.B. Skyrim, Metro oder gar Anno das Ganze unter Tahiti-Niveau verschieben.Skyrim? Das ist idR ausgeglichen.

Schlammsau
2012-03-16, 20:29:55
Okay, das Game KENNE ich nichtmal. :D Aber worauf ich oben hinaus will - umgekehrt werden AMD-Schokoladen-Games wie z.B. Skyrim, Metro oder gar Anno das Ganze unter Tahiti-Niveau verschieben. Letztendlich dürfte ein Overall-Wert für GK104 ziemlich mittig zwischen Tahiti Pro und XT herauskommen mit Tendenz zu XT.
Meine Rede! ;D

Blaire
2012-03-16, 20:34:31
tatsächlich das wurde gefixt,wer weiß was noch so alles gefixt wird,hätten die bloß das mit dem 8xaa auch mal gefixt.;D


Seit wann funktioniert 8xAA in Battlefield3? ;D Das ist garnicht anwählbar, soviel dazu...

dildo4u
2012-03-16, 20:34:37
Jetzt können sie das NDA auch auf Montag vorziehen bis Donnerstags warten wäre öde.

boxleitnerb
2012-03-16, 20:35:48
Jetzt können sie das NDA auch auf Montag vorziehen bis Donnerstags warten wäre öde.

Sowas geht doch nicht. Es gibt genug Seiten, die bis Montag nicht fertig testen können, die wären dann ziemlich angepisst.

derguru
2012-03-16, 20:36:54
Seit wann funktioniert 8xAA in Battlefield3? ;D Das ist garnicht anwählbar, soviel dazu...
deswegen ja,ich könnte mir bei denen sogar vorstellen das bei batman,lp2 nicht mal 8xmsaa im einsatz war sondern 8xcsaa.;D

Ailuros
2012-03-16, 20:41:01
Ehrliche Frage (denn aus dem Kauderwelsch der online Uebersetzung kann man schwer alles verstehen) steht irgendwo etwas in dem chinesischen "review" ob 8xTXAA gegen 8xMSAA (Tahiti) getestet wurde?

Ronny145
2012-03-16, 20:41:58
Ehrliche Frage (denn aus dem Kauderwelsch der online Uebersetzung kann man schwer alles verstehen) steht irgendwo etwas in dem chinesischen "review" ob 8xTXAA gegen 8xMSAA (Tahiti) getestet wurde?


So wie ich das verstehe muss TXAA vom Spiel unterstützt werden. Es gibt noch keines.

DarknessFalls
2012-03-16, 20:42:16
@Ailuros: Wenn dem so wäre, was hätte das genau für Auswirkungen?

@Marc: Skyrim ausgeglichen? Sieht für mich bei allem Respekt anders aus: http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/20/#abschnitt_skyrim

Ailuros
2012-03-16, 20:46:07
@Ailuros: Wenn dem so wäre, was hätte das genau für Auswirkungen?

Nach den Chinesen ist die TXAA2 Leistung in etwa auf 4xMSAA Niveau. Ich hab nichtmal verstanden wofuer TXAA genau steht (noch weniger den Unterschied zwischen TXAA1 und TXAA2).

Falls es TXAA vs. MSAA sein sollte, welches aber nach Ronny's Post oben eher unwahrscheinlich klingt, bin ich mir nicht so sicher dass es ein apples to apples Vergleich waere.

DarknessFalls
2012-03-16, 20:50:41
Du meinst also in Richtung nV verschoben? Das ist IMHO eh schon aufgrund der Benchmarkauswahl der Fall.

Ailuros
2012-03-16, 20:55:57
Du meinst also in Richtung nV verschoben? Das ist IMHO eh schon aufgrund der Benchmarkauswahl der Fall.

Ιch bin mir sicher dass jeder IHV worst case scenarios fuer marketing-benchmarks benutzt. Komischerweise ist die 7870 eben nicht um 40% schneller als die GTX580 am Ende oder? ;)

DarknessFalls
2012-03-16, 20:58:13
Dieser Benchmark aus China soll ja angeblich eben nicht von nV kommen - ist nur "zufällig" sehr biased. ^^ Bei Marketing-Benches verwundert das ja vermutlich niemanden mehr. Wobei - wer weiß schon, wer wirklich hinter diesem Bench steckt. :D

HarryHirsch
2012-03-16, 21:02:27
deswegen ja,ich könnte mir bei denen sogar vorstellen das bei batman,lp2 nicht mal 8xmsaa im einsatz war sondern 8xcsaa.;D

Neenee die haben nv mit 8x per Bits getestet und ATI ohne.

Liquaron
2012-03-16, 21:03:30
Also soll die Gtx 680 sogar weniger Watt verbrauchen als eine 7970?

Mhhh das hört sich ja verlockend an.

Wenn dass Ding am 22. Vorgestellt wird...wann mag man das Teil dann kaufen können?

Dicker Igel
2012-03-16, 21:17:31
Zum TXAA: Auf Techpowerup (http://www.techpowerup.com/162504/NVIDIA-s-New-AA-Algo-is-TXAA-Adaptive-V-Sync-and-New-3DVision-Surround-Detailed.html) meinen sie TXAA1 macht quasi 16x MSAA Quali bei 2x MSAA Performance und TXAA2 halt besser unter 4x MSAA Speed. Das beißt sich aber mit den hier im Thread beschriebenen Werten. In dem Comments Bericht sind auch zwei Shots, da schneidet 8x MS imo schlechter ab.

Duplex
2012-03-16, 21:22:47
Übrigens hat Dave Bauman bei B3D angedeutet, daß man sich das Binning bei Tahiti jetzt/demnächt, also nach kleineren Verbesserungen seitens TSMC nochmal ansieht. Es kann also durchaus passieren, daß von AMD noch ein zusätzliches Top-Bin kommt. Das könnte auch ohne offizielle neue Bezeichnung einfach für höher getaktete HD7970 OC-Versionen benutzt werden.
GK104 in anmarsch :D
Ein neues Tahiti Modell (XTX) könnte sich möglicherweise gegen GK104/680GTX lohnen, Taktpotential ist sowieso vorhanden. Die nächsten Monate werden interessant.

boxleitnerb
2012-03-16, 21:22:57
Techpowerup analysiert nochmal die neuen Features:


Then there's the new 3D Vision Surround, bolstered by a redesigned display logic, which addresses the two-display limitation of NVIDIA GPUs. You can now connect as many as four monitors to a GeForce Kepler GPU, enabling 3-monitor HD 3D Vision Surround setups. You no longer need more than one GeForce GPU to connect more than two monitors. The new 3D Vision Surround is said to work in conjunction with Adaptive V-Sync to ensure the center display has higher frame-rate (since it's at the focus of your central vision), at the expense of the frame-rates of the two side displays (since they're mostly at your peripheral vision). This ensures there's a balanced, high-performance experience with multi-monitor gaming setups.

Adaptive V-Sync is a smart frame-rate limiter that fluidly adjusts frame-rate when heavy 3D scenes drop frame-rate below monitor refresh-rate and above it. When frame-rate is lower than monitor refresh-rate, lag occurs, and overclocking attempts to overcome it. When frame-rate is higher than monitor refresh-rate, page-tearing occurs, and the normal functionality of V-Sync takes over. Adaptive V-Sync makes these transitions "organic".

http://www.techpowerup.com/162504/NVIDIA-s-New-AA-Algo-is-TXAA-Adaptive-V-Sync-and-New-3DVision-Surround-Detailed.html

Das Fettgedruckte wäre mir jetzt neu. Vielleicht hab ich es auch nur überlesen vorher.

Dural
2012-03-16, 21:43:58
GK104 in anmarsch :D
Ein neues Tahiti Modell (XTX) könnte sich möglicherweise gegen GK104/680GTX lohnen, Taktpotential ist sowieso vorhanden. Die nächsten Monate werden interessant.


ne werden sie nicht, da nichts kommen wird... :rolleyes:

es macht auch null sinn einen höher getaktet version zu bringen wenn man schon so beim verbrauch deutlich hinten liegt... die gerüchte sagen beim gk104 sogar was von 1,4GHz OC takt, wenn dies stimmt könnte NV sofort kontern! die karte wäre ja sogar schon für 1x 8-Pin + 5. Phase ready.

Duplex
2012-03-16, 21:52:29
Fermi hat damals auch mehr Saft als ein RV870 X2 geschluckt, komm mir jetzt nicht mit Verbrauch usw. an...
ne werden sie nicht, da nichts kommen wird... :rolleyes:
Ich könnte genauso gut sagen das Tahiti XT war ursprünglich mit 1000-1100MHz geplant...

boxleitnerb
2012-03-16, 21:56:37
Für was genau sind die 7xx MHz jetzt eigentlich gedacht? Powerviren?

Blaire
2012-03-16, 21:57:54
Wenn dass Ding am 22. Vorgestellt wird...wann mag man das Teil dann kaufen können?

Am 22. ;)

Man From Atlantis
2012-03-16, 22:09:15
Für was genau sind die 7xx MHz jetzt eigentlich gedacht? Powerviren?

sometimes easiest answer is the way to go :wink:
i guess it was a smoke bomb, hence the card lacks one phase and bios updated

-=Popeye=-
2012-03-16, 22:30:36
Für was genau sind die 7xx MHz jetzt eigentlich gedacht? Powerviren?

http://www.hardwareluxx.de/community/f14/nvidia-gk100-geforce-6xx-geforce-7xx-speku-news-diskussionsthread-828035-195.html#post18593533

Blediator16
2012-03-16, 22:31:02
Dieses "Review" ist nichts mehr als Rotz. Einfach nur schlecht gemacht und ob das alles stimmt sei mal dahingestellt.

Hugo78
2012-03-16, 22:43:29
@Marc: Skyrim ausgeglichen? Sieht für mich bei allem Respekt anders aus: http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/20/#abschnitt_skyrim

Treiberversionen

AMD Catalyst 11.11c Performance-Treiber
AMD 8.921.2-111215a (HD 7970)
AMD 8.921.2-120119a (HD 7950)
AMD 8.932.2 (HD 7700)
AMD 8.95.5-120224a (HD 7900)
Nvidia GeForce 290.36

Falscher, veralteter Treiber.^^
Geforce-Treiber 295.73 WHQL mit 45 Prozent mehr Performance in Skyrim
http://www.pcgameshardware.de/aid,869317/Nvidia-Treiber-Download-Geforce-Treiber-29573-WHQL-mit-45-Prozent-mehr-Performance-in-Skyrim/Grafikkarten-Treiber/Download/

Iruwen
2012-03-16, 22:58:40
Die GTX 680 hat der Tabelle nach ~16% mehr Transistoren und ~30% mehr Takt als die GTX 580, nur in 28nm gequetscht halt, muss man da von der Performance beeindruckt sein? Was Nvidia von Tahiti mehr erwartet hätte seh ich nicht wenn sie den durchschnittlichen Spieleverbrauch nicht noch deutlich unterbieten.

Hugo78
2012-03-16, 23:03:07
Thaiti ist halt noch ne Ecke größer.

DarknessFalls
2012-03-16, 23:13:16
@Hugo: Den gab's wohl noch nicht, als CB mit dem Test angefangen hat. ^^ Whatever, gibt's zu den "up to 45%" auch schon harte Zahlen? Und was heißt "up to"? Bei welchen Auflösungen? Bei welchen Einstellungen? Bei welcher Karte/bei welchen Karten? ;)

dildo4u
2012-03-16, 23:17:15
@Hugo: Den gab's wohl noch nicht, als CB mit dem Test angefangen hat. ^^ Whatever, gibt's zu den "up to 45%" auch schon harte Zahlen? Und was heißt "up to"? Bei welchen Auflösungen? Bei welchen Einstellungen? Bei welcher Karte/bei welchen Karten? ;)
http://www.geforce.com/News/articles/nvidia-geforce-295-73-whql-drivers-released

DarknessFalls
2012-03-16, 23:22:17
Danke! :)

crux2005
2012-03-17, 00:00:53
Nvidias launch Zeit beträgt doch bei uns immer 15:00 oder 16:00 Uhr. Das ist derselbe Tag in den USA und bei uns.

Ja, hast recht. Es ist der 22. auch bei uns.

boxleitnerb
2012-03-17, 07:03:11
Es wird interessant zu sehen, ob GK104 aus den vielen Einheiten noch mehr Performance ziehen kann. Hier kommt doch recht viel über den Takt, gute 30%.

Superheld
2012-03-17, 08:03:58
Bildchen..

http://www.abload.de/img/d5f32f7192752ae9e9dcbenabo.jpg

moBi
2012-03-17, 11:36:07
War irgendwann mal die Rede von 3D-SLI, bei der jede Karte das Bild für ein Auge berechnet. Also quasi ohne Mikroruckler und zusätzlichen Lag? Ich finde, das wär doch mal was.:freak:

AnarchX
2012-03-17, 11:38:22
Stereoskopisches 3D kostet aber nicht immer die doppelte Leistung, sodass man hier teilweise Leistung verschenken würde.

btw.
In den Niederlanden sind schon einige Karten gelistet: http://nl.hardware.info/nieuws/26835/nvidia-geforce-gtx-680-duikt-op-in-prijsvergelijker

Konami
2012-03-17, 11:41:48
6. Was meint Ihr, wird es Zeit dass wir uns etwas auf GK110 konzentrieren? Dieser oder neuer thread ist egal. Es dauert sowieso nur noch Tage bis alles GK104 fuer das Spekulationsforum ueberfluessig ist.
JA!! Ist eh der einzige Chip, der mich wirklich interessiert. :D
Du hast doch auch noch irgendwelche Infos im Ärmel, hast du gemeint. Raus damit! ;)

moBi
2012-03-17, 11:58:47
Stereoskopisches 3D kostet aber nicht immer die doppelte Leistung, sodass man hier teilweise Leistung verschenken würde.

Aber doch fast immer so viel, dass es für eine Karte knapp wird. Mit normalem SLI werden zwar höhere FPS in 3D erreicht, als bei meiner Methode, aber die Mikroruckler und vor allem der zusätzliche Lag dürften die zusätzlichen FPS schon fast wieder negieren.

Hades11
2012-03-17, 13:08:43
ich rate für GK 110 mal 4096 Kerne bei 700Mhz basisclock mit Turbo bis 900Mhz und 4 GB speicher bei 512 bit SI.

wobei mich das Gefühl beschleicht dass da etwas wunschdenken mit drin ist.

Schaffe89
2012-03-17, 13:14:51
3D und Multi GPU ist meiner Meiner Meinung nach eh unnützes Zeug.
Ich kann mir jedenfalls nicht vorstellen, das irgendwann praktikabel für Spiele zu nutzen, außer die Monitore stellen 3D out of the Box bereit und das ganze wird Standard.
Bis dahin ist das Interesse aber sicherlich wieder abgeeppt.

Es wird interessant zu sehen, ob GK104 aus den vielen Einheiten noch mehr Performance ziehen kann. Hier kommt doch recht viel über den Takt, gute 30%.

Die Karte ist kaum 20% schneller als eine GTX580, wie soll sie da deutlich schneller sein als die HD 7970?
Man sieht doch selbst an dem geleakten Review mit scheinbar alten AMD Treibern und nvidialastigen Spielen, dass man im mittel höchstens 10% in Front ist.

Bei Computerbase, HT4U und Hardwareluxx wird das nicht reichen um die HD 7970 zu schlagen.
Bei PCGH wirds einfach, wenn man den verkorksten ( Achtung Übertreibung) Performanceindex anstatt den Online Test als Referenz nimmt.

Insgesamt erwartet uns ne sehr gute Karte auf Augenhöhe mit der HD 7970 und ca 20 bis 30% Merhleistung zur GTX 580.

ich rate für GK 110 mal 4096 Kerne bei 700Mhz basisclock mit Turbo bis 900Mhz und 4 GB speicher bei 512 bit SI.

Ich tippe eher auf ~3000 SP´s, ein 384-bit großes SI ( mehr ist überhaupt nicht nötig) und das übliche extra für GPGPU ( DP Performance), um dann in etwa bei gut 500mm² und einer TDP von 250Watt zu landen.

Die Spieleperformance dürfte dann in etwa 30 bis 40% über GK104 liegen. Release wahrscheinlich im Herbst.

boxleitnerb
2012-03-17, 13:28:14
Warten wir mal ab. Der Treiber, den der Kerl verwendet hat, war nicht der neueste. Das weiß ich aus sicherer Quelle. Ich schätze, die GTX680 wird 10-20% über der 7970 liegen.

Atma
2012-03-17, 13:36:08
Selbst wenn die GTX 680 nur im Bereich +/- 10% zur HD 7970 liegt: Die GPU ist allein schon wegen ihrer Effizienz verdammt sexy. Wenn die offiziellen Tests nächste Woche ein vergleichbares Ergebnis liefern, wie der Leak aus China, wird die GTX 680 definitiv meine neue Karte werden!

Hugo78
2012-03-17, 13:44:13
Ich hoffe NV und Intel haben sich nochmal zusammengesetzt Zwecks Optimus fürn Desktop.
Auch wenns erstmal nur auf einem Bildschirm, Panther Point Chipset, 600er Geforces und Win7 beschränkt funktionieren sollte, so wäre es ein Schritt in die richtige Richtung.

dildo4u
2012-03-17, 14:03:56
Warten wir mal ab. Der Treiber, den der Kerl verwendet hat, war nicht der neueste. Das weiß ich aus sicherer Quelle. Ich schätze, die GTX680 wird 10-20% über der 7970 liegen.
Natürlich NV hat viel zu viel Luft beim TDP gelassen,das ist halt der Vorteil wenn man später kommt man kann seine Karte auf die Konkurrenz abstimmen.Wäre die 680 mit 195TDP nur so schnell wie die 7970,hätte man noch weiter am Takt schrauben können zumindest so weit der Turbo geht.

boxleitnerb
2012-03-17, 14:06:07
Ich meine ja mit der bestehenden TDP ;)

Schaffe89
2012-03-17, 14:29:52
Natürlich NV hat viel zu viel Luft beim TDP gelassen,das ist halt der Vorteil wenn man später kommt man kann seine Karte auf die Konkurrenz abstimmen.Wäre die 680 mit 195TDP nur so schnell wie die 7970,hätte man noch weiter am Takt schrauben können zumindest so weit der Turbo geht.

Die Karte ist "nur" so schnell wie die HD 7970.
Ich verstehe nicht, aus welchen Werten ihr eine eindeutige Merhleistung schließt.
Nvidia gibt cherry picked 15% im Mittel mehr an, der zweite Leak ( mit den bunten Bälkchen ohne FPS Angabe) zeigt eine 15 bis 20% bessere Leistung der GTX680 zur GTX580 und eine identische Leistung zur HD7970.
Der Leaktest zeigt bei Battlefield 3 (pro Nvidia) Lost Planet 2 (stark pro Nvidia) und noch 3 anderen etwas ausgeglicheneren Spielen einen Vorsprung von 10% im Mittel.

Für mein Empfinden sieht das nicht so als, als ob man eine HD 7970 schlagen könnte.
Der Leaktest zeigt auch eine hohe Idle Leistungsaufnahme der GTX680.

M4xw0lf
2012-03-17, 14:48:28
ich rate für GK 110 mal 4096 Kerne bei 700Mhz basisclock mit Turbo bis 900Mhz und 4 GB speicher bei 512 bit SI.

wobei mich das Gefühl beschleicht dass da etwas wunschdenken mit drin ist.
Ich tippe eher auf ~3000 SP´s, ein 384-bit großes SI ( mehr ist überhaupt nicht nötig) und das übliche extra für GPGPU ( DP Performance), um dann in etwa bei gut 500mm² und einer TDP von 250Watt zu landen.

Die Spieleperformance dürfte dann in etwa 30 bis 40% über GK104 liegen. Release wahrscheinlich im Herbst.

Sogar 3000 SPs sind schon Oberkante, man muss sich ja nur mal die Diesize ansehen - wenn die bei ~550mm² liegt (also + 83% vs GK104) dann wirds schon eng 100% mehr SPs UND ein dickeres Speicherinterface zu verbauen. Was heißt eng, wohl eher unmöglich.

scully1234
2012-03-17, 14:59:59
Sogar 3000 SPs sind schon Oberkante, man muss sich ja nur mal die Diesize ansehen - wenn die bei ~550mm² liegt (also + 83% vs GK104) dann wirds schon eng 100% mehr SPs UND ein dickeres Speicherinterface zu verbauen. Was heißt eng, wohl eher unmöglich.

Denke immer noch das diese Folie der Realität doch recht nah kommt,nur das der Chip am Ende die Nomenklatur GK110 trägt

Coda
2012-03-17, 15:02:14
Für DP brauchen sie wohl wieder zwei statt drei SIMDs pro SM. Das heißt 2084 ALUs sind wahrscheinlich für GK110.

Die 2306 würden aber auch gehen (4 GPCs mit jeweils 9 SMs * 64 ALUs). Allerdings wären es dann 144 TMUs und nicht 96. Die Folie ist also ziemlich sicher ein Fake.

AnarchX
2012-03-17, 15:03:46
Könnte man die SMX nicht auf 6 Warp-Sheduler aufrüsten?
Dann hätte man wie bei GF100/110 pro SIMD einen Warp-Sheduler.

Die 2304SPs (12*192) sind ja schon relativ oft gefallen und Ailuros deutet >2 TFLOPs (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9212018#post9212018) DP an.

Iruwen
2012-03-17, 15:09:07
Der Leaktest zeigt auch eine hohe Idle Leistungsaufnahme der GTX680.

War das auf 'nem Bild oder im Text? Find ich grad nicht, die Seite ist platt.

Coda
2012-03-17, 15:09:09
Könnte man die SMX nicht auf 6 Warp-Sheduler aufrüsten?
Dann hätte man wie bei GF100/110 pro SIMD einen Warp-Sheduler.

Die 2304SPs (12*192) sind ja schon relativ oft gefallen und Ailuros deutet >2 TFLOPs (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9212018#post9212018) DP an.
So wie ich mir das vorstelle sind nur die SIMDs doppelt so breit/halber Takt mit 1 Cycle, statt zwei pro Instruction. Das heißt es gibt natürlich auch weiterhin zwei Warp-Scheduler pro SM, nicht vier oder gar sechs.

192 ALUs (drei SIMDs) pro SM gehen bei GK100/GK110 eigentlich nicht weil man 2:1 DP braucht. Selbes Prinzip wie bei GF110 und GF114.

Gipsel
2012-03-17, 15:09:41
Für >2 benötigt man angesichts der vermutlichen Taktraten bei Teslas eher in Richtung 3072.

Coda
2012-03-17, 15:13:56
Das wäre in knapp 600mm² vielleicht sogar machbar. Aber haarscharf.

Edit: Kann auch sein, dass sie die SIMDs so umgebaut haben, dass sie nichtmehr zusammen an einer DP-Instruction arbeiten, sondern einzeln wie bei AMD. Dann würde die Restriktion einer geraden SIMD-Anzahl pro SM natürlich wegfallen. Fragt sich nur ob das mit 2:1 überhaupt so ohne weiteres machbar ist.

AnarchX
2012-03-17, 15:14:37
So wie ich mir das vorstelle sind nur die SIMDs doppelt so breit/halber Takt mit 1 Cycle, statt zwei pro Instruction. Das heißt es gibt natürlich auch weiterhin zwei Warp-Scheduler pro SM, nicht vier oder gar sechs.

Ein SMX hat laut Schaubild (http://www.abload.de/image.php?img=1618485030222408178fdlne.jpg)6 SIMDs und 4 Warp-Sheduler(Dual-Dispatch).

Coda
2012-03-17, 15:17:14
Interessant, dann vergiss was ich gesagt habe ;)

Ich hab einfach keine Zeit mehr dem ganzen so zu folgen wie früher.

dargo
2012-03-17, 18:21:11
ich rate für GK 110 mal 4096 Kerne bei 700Mhz basisclock mit Turbo bis 900Mhz und 4 GB speicher bei 512 bit SI.

Ich denke 384Bit SI @3GB könnte reichen. Mit 1500Mhz GDDR5 sind es 288GB/s Bandbreite. Gibts eigentlich noch schnelleren GDDR5 bis Jahresende?

AnarchX
2012-03-17, 18:26:18
Denkbar dass bis Jahresende noch 7Gbps GDDR5 verfügbar sein könnte.
Aber den muss der IMC erstmal unterstützen. Genaueres könnten wohl die OC-Tests zeigen. Tahiti hat wohl auch einen IMC, der zu mehr als 6Gbps fähig ist.

Hynix hat z.B. schon Part Numbers bis 7Gbps:
R0 : 3.0Ghz
R1 : 3.25Ghz
R2 : 3.5Ghz
http://www.hynix.com/inc/pdfDownload.jsp?path=/upload/products/gl/products/dram/down/GDDR.pdf

Dass man auf der GTX 680 bis an die Grenze der Referenz gehen kann, könnte wohl auch anzeigen, dass Hynix schon schnelleren GDDR5 spezifizieren könnte.

dargo
2012-03-17, 18:31:36
Ich tippe eher auf ~3000 SP´s, ein 384-bit großes SI ( mehr ist überhaupt nicht nötig) und das übliche extra für GPGPU ( DP Performance), um dann in etwa bei gut 500mm² und einer TDP von 250Watt zu landen.

Die Spieleperformance dürfte dann in etwa 30 bis 40% über GK104 liegen. Release wahrscheinlich im Herbst.
Der GF110 hat ~54% mehr Transistoren als der GF114. GK110 soll angeblich knapp über 6 Milliarden Transistoren verschlingen. Das sind gute 70% (eventuell etwas mehr) als beim GK104. Zwischen der GTX580 und GTX560TI liegen ca. 40-45%. Deshalb tippe ich, dass der GK110 eher ~60% schneller sein wird. Zudem meinte Ail auch, dass der Performanceunterschied zwischen GK110 und GK104 größer ausfallen soll als beim GF110 vs. GF114.

Denkbar dass bis Jahresende noch 7Gbps GDDR5 verfügbar sein könnte.

Also max. 336GB/s bei 384Bit SI. Das reicht für einen GK110 locker.

dildo4u
2012-03-17, 18:40:35
Die Karte ist "nur" so schnell wie die HD 7970.
Ich verstehe nicht, aus welchen Werten ihr eine eindeutige Merhleistung schließt.

3D Mark 2011 Extreme,bei dem Bench liegt die 7970 27% vor der 580(Mehr als bei den Games) und die GTX 680 noch mal deutlich vor der AMD.Das ist der neutralste Wert aus den geposteten Werten.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9211640&postcount=6460

AnarchX
2012-03-17, 18:51:59
Auf den 3DMark11 mit seinen determinierten Ablauf kann man schon ziemlich gut optimieren.
Bei der GT 640M auf GK107-Basis zeigt sich hier auch ein 100% Vorteil gegenüber der GT 540M, wo es in anderen Benchmarks eher in Richtung 50% Vorteil geht.

aufkrawall
2012-03-17, 18:56:36
IMHO wird Kepler wohl die beste Nvidia-GPU seit langem sein.
Nie war ein Top-Modell so sparsam und leise bei guter Performance.

So gesehen ist die 7970 im Vergleich zur 5870 nicht soo toll.

kunibätt
2012-03-17, 19:00:20
Finge GK104 zwar interessant, aber ganz sicher nicht für den Preis um 500€.
Im Oktober beißt man sich dann so richtig fett in die Faust, wenn man sich ne GTX680 gegönnt hat. Das war bei der GTX480 IMO anders.

Zergra
2012-03-17, 19:15:58
Finge GK104 zwar interessant, aber ganz sicher nicht für den Preis um 500€.
Im Oktober beißt man sich dann so richtig fett in die Faust, wenn man sich ne GTX680 gegönnt hat. Das war bei der GTX480 IMO anders.
Es ist ja nichtmal sicher das GK110 im Oktober kommt. Er kann auch Anfang 2013 kommen und jeder sieht das anders ;)

AwesomeSauce
2012-03-17, 19:19:28
Es ist ja nichtmal sicher das GK110 im Oktober kommt. Er kann auch Anfang 2013 kommen und jeder sieht das anders ;)
Aber natürlich... Tapeout und Veröffentlichung ein Jahr auseinander... Träum weiter;D

AnarchX
2012-03-17, 19:22:08
Mit 300-400mm² GPUs für ~500€ hatte auch niemand gerechnet...

boxleitnerb
2012-03-17, 19:29:15
Bei 3-4 Respins kann das mit dem Jahr schon hinhauen.

scully1234
2012-03-17, 20:24:17
Bei 3-4 Respins kann das mit dem Jahr schon hinhauen.

Analog zur unproblematischen Veröffentlichung von klein K(Pcie Bug jetzt mal außen vor),sollte da aber schon absolut alles schief gehen,das so ein Worst Case Szenario eintritt

Was ich da eher vermute ist,das sämtliche zur Verfügung stehenden Kapazitäten,erstmal primär an die Tesla Cluster gehen.Da sich nun abzeichnet,das der Geforce Sektor,ja z.Zt gut von GK104 im Schach gehalten wird,besteht da wohl auch nicht so schnell Handlungsbedarf(leider).

boxleitnerb
2012-03-17, 20:42:23
Ja, so kann man dauerhaft die hohen Preise abgreifen. Leider.
Ich hoffe ja, dass es spätestens im September wenigstens einen Halb-Paperlaunch gibt mit homöopathischen Dosen.

OgrEGT
2012-03-18, 08:57:38
Ja, so kann man dauerhaft die hohen Preise abgreifen. Leider.
Ich hoffe ja, dass es spätestens im September wenigstens einen Halb-Paperlaunch gibt mit homöopathischen Dosen.

Der Halbpaperlaunch* wird auch nicht wirklich viel bringen, da Verfügbarkeit ebenso nicht gegeben sein würde. Das ist der Grund für die aktuelle Preislage.
Allerdings wissen wir dann die offiziellen Daten zum GK110, so dass wir uns auf was freuen können (oder auch nicht...)

Es muss nur genau beobachtet werden, ob die Preise auch zeitnah sinken, wenn die Verfügbarkeit steigt.
___________________________
*: Hat irgendwie Potential für das Unwort des Jahres :D

AnarchX
2012-03-18, 09:42:55
Erste OCing Versuche mit der GTX 680:

1110/3605MHz (7,2Gbps)

http://www.abload.de/thumb/10949799_133205882104x3ynw.jpg (http://www.abload.de/image.php?img=10949799_133205882104x3ynw.jpg)

http://itbbs.pconline.com.cn/diy/15052972.html

Etwa 8% schneller als der X-Score bei HKEPC.

Hugo78
2012-03-18, 09:50:35
Was steht da bei max. Temp?
63°C?!

boxleitnerb
2012-03-18, 09:52:11
Die Defaultspannung ist schön niedrig mit 0,987V. Kann jemand die maximale Temperatur im schwarzen Sensorfenster erkennen? Ich sehe da 6x Grad.

Zwei Dumme, ein Gedanke :D

AnarchX
2012-03-18, 09:59:08
Aber er hat wohl auch den Lüfter auf maximale Umdrehung angehoben.
Andere OC-Tests müssen aber wohl erstmal zeigen, ob GK104 die 7,2Gbps ohne Fehlerkorrektur erreichen kann.

Hugo78
2012-03-18, 10:00:42
Gut, das erklärt dann die auffallend flach verlaufende Temp.Kurve.
Aber wenn die Vcore stimmt, muss da noch mehr drin sein.
Mal schauen wie hoch man mit 1,1V kommt.

OgrEGT
2012-03-18, 10:04:30
Erste OCing Versuche mit der GTX 680:

1110/3605MHz (7,2Gbps)

http://www.abload.de/thumb/10949799_133205882104x3ynw.jpg (http://www.abload.de/image.php?img=10949799_133205882104x3ynw.jpg)

http://itbbs.pconline.com.cn/diy/15052972.html

Etwa 8% schneller als der X-Score bei HKEPC.

Scheint somit wohl auch ganz gut mit Takterhöhung zu skalieren wie Tahiti.
9.3% mehr Takt, 8% höhere Leistung 3dm.

AnarchX
2012-03-18, 10:08:11
Für ernsthaftes OCing benötigt man wohl auch die Tools mit den man die Ziel-TDP anheben kann und den Turbo-Offset ausschaltet.
Der Tester hat ja noch nichtmal die 0.6er Version von GPU-Z mit der korrekten Erkennung.

Darlie
2012-03-18, 10:21:15
Knapp 10% mehr Takt ist aber kein besonderes OC. Mir scheint als ob der Chip schon ziemlich hoch von NV getaktet worden ist um an die 7970 heranreichen zu können. Viel Luft wird da nicht mehr nach oben sein ohne massiv an der VGPU und Leistungsaufnahme zu schrauben.

derguru
2012-03-18, 10:32:40
vor allem ist das kein guter wert wenn man dafür den lüfter auf max. jagen muss aber das kann auch nur eine vorsichtsmaßnahme sein aber 6x°C bei max.lüfter ist nicht gerade wenig und die karte ist vermutlich nicht mal im geschlossenen gehäuse.

boxleitnerb
2012-03-18, 10:37:48
Wie wäre es, wenn man die richtigen Test abwartet, bevor das Schlechtreden beginnt, hm? Wir wissen doch noch so gut wie gar nichts über diesen Versuch und ob das das Limit bei Standardspannung ist.

Ronny145
2012-03-18, 10:52:21
Übertaktung interessiert die wenigsten. Die Karte muss zeigen was sie mit Hersteller Werkseinstellung leistet. Daran beurteile ich die GPU und nicht nach ihren Übertaktungsmöglichkeiten, die ist ziemlich irrelevant für den Markt.

Odal
2012-03-18, 11:12:50
übertaktung interessiert zumindest im 3dcenter schon
zumal jedes mal wenn potentielle positive ergebnisse zum gk104 in den umlauf kommen die A(TI)MD Fraktion kommt und das ganze mit potentiellen OC ergebnissen von 7970 schlecht redet

im Prinzip geh ich mal von einem ähnlichen OC Verhalten wie bei den 7970igern aus da gleicher Prozess und sogar kleineres DIE
Mit Spannungsanpassung Richtung 7970 sollte auch GK104 hier locker 1200Mhz hinlegen

man muss wahrscheinlich nur wirklich irgendwie den an die Leistungsaufnahme gekoppelten Turbo austricksen/deaktivieren

AnarchX
2012-03-18, 11:17:53
man muss wahrscheinlich nur wirklich irgendwie den an die Leistungsaufnahme gekoppelten Turbo austricksen/deaktivieren
Es wird entsprechende Tools geben:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42262&d=1331909111

http://www.hkepc.com/7672/page/3#view


Aber man sollte sich wohl nicht wundern, wenn am Donnerstag in manchem Review eine ~1,1GHz 7970 mit getestet wird.

scully1234
2012-03-18, 11:20:26
Wie wäre es, wenn man die richtigen Test abwartet, bevor das Schlechtreden beginnt, hm? Wir wissen doch noch so gut wie gar nichts über diesen Versuch und ob das das Limit bei Standardspannung ist.

Laut PHK (http://bbs.expreview.com/thread-49880-1-1.html) sollten 1,2GHz kein Problem sein im Post 16 werden sogar Andeutungen von 1,4GHZ@AIR gemacht

Iruwen
2012-03-18, 11:29:17
vor allem ist das kein guter wert wenn man dafür den lüfter auf max. jagen muss aber das kann auch nur eine vorsichtsmaßnahme sein aber 6x°C bei max.lüfter ist nicht gerade wenig und die karte ist vermutlich nicht mal im geschlossenen gehäuse.

Einen noch schlechteren Referenzkühler als AMD wird Nvidia wohl eher nicht verbauen und da die Leistungsaufnahme der GTX 680 in Spielen offenbar niedriger liegt als die der HD 7970: blah.

dildo4u
2012-03-18, 11:40:50
Die Spannung ist ein Witz gegenüber den AMD's(7970,7870),da ist noch so viel Luft das wird episch.

1.1Ghz schon 1.2V
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/11/#abschnitt_uebertaktbarkeit


1.1Ghz 1.175V
http://www.computerbase.de/artikel/grafikkarten/2012/bericht-amd-radeon-hd-7900/4/#abschnitt_overclocking_mit_mehr_volt

boxleitnerb
2012-03-18, 11:52:41
Dann darf die Frage gestellt werden, ob die 7970 nicht doch die effizientere Karte wäre, wenn die Spannung durch die schlechten Binning Yields nicht so hoch gewählt werden müsste.

AnarchX
2012-03-18, 11:53:34
NVIDIA GeForce GTX 680 SLI Performance Preview @ VR-Zone (http://vr-zone.com/articles/nvidia-geforce-gtx-680-sli-performance-preview/15273.html#)

1150MHz GPU und 7,2Gbps Speicher laut GPU-Z.

Ronny145
2012-03-18, 11:53:44
http://chinese.vr-zone.com/12537/nvidia-gtx680-sli-in-3dmark11-03182012/

SLI Resultate, falls noch nicht gepostet...


/10 Sekunden zu spät.

INDEX75
2012-03-18, 11:58:49
Die Spannung ist ein Witz gegenüber den AMD's(7970,7870),da ist noch so viel Luft das wird episch.

1.1Ghz schon 1.2V
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/11/#abschnitt_uebertaktbarkeit


1.1Ghz 1.175V
http://www.computerbase.de/artikel/grafikkarten/2012/bericht-amd-radeon-hd-7900/4/#abschnitt_overclocking_mit_mehr_voltHmm ... Meine 7970 genehmigt sich bei 1.1GHz nur 1.05V

mironicus
2012-03-18, 12:00:21
Da selektiert NVidia wohl etwas besser. Das kann man sehen wie man will, da die Tahitis sich in der Regel so gut übertakten lassen ohne viel mehr Strom zu verbrauchen relativiert sich das alles.

Und bei den Benchmarks muss man erst mal eine breite Masse sehen, der Durchschnitt wird sich sicherlich eher nach unten korrigieren, so dass vielleicht höchstens 10 % herauskommen werden.

AnarchX
2012-03-18, 12:00:27
Tahiti hat ein recht weite Spannungsbreite. Im Endeffekt kommt es auf den Verbrauch der Karte an.
Mit ein paar Werks-OC ~1,1GHz 7970 sollte da ein realistischeres Bild erzielt werden, als beim Home-OC.

Mancko
2012-03-18, 12:01:13
übertaktung interessiert zumindest im 3dcenter schon
zumal jedes mal wenn potentielle positive ergebnisse zum gk104 in den umlauf kommen die A(TI)MD Fraktion kommt und das ganze mit potentiellen OC ergebnissen von 7970 schlecht redet


Wen interessiert die A(TI)MD Fraktion bitte? Wenn GK104 vor der HD7970 liegt gibbet nüscht mehr zu diskutieren - OC hin oder her.

Hades11
2012-03-18, 12:03:17
Übertaktung interessiert die wenigsten. Die Karte muss zeigen was sie mit Hersteller Werkseinstellung leistet. Daran beurteile ich die GPU und nicht nach ihren Übertaktungsmöglichkeiten, die ist ziemlich irrelevant für den Markt.
den meisten hier ist aber ziemlich egal was für den Markt wichtig ist und was nicht. OC ist hier einer der wichtigsten werte, wichtiger als Verbrauch und Lautstärke sowieso, kostenlose Leistungserhöhung ist nunmal verdammt geil :freak:

mit 0,9x V 10%OC ? ich bin mal gespannt was davon die SOC-Variante (wenn´s eine geben wird was imho ziemlich sicher ist) dann ermöglicht. Mit den Selektierten Chips und etwas besserer Fertigung sollten 1150-1200 bei selber Spannung machbar sein. Wenn man dann noch diesen Turbo und die (unnötige) Begrenzung der leistungsaufnahme ausschalten kann könnte man mit erhöhter Spannung durchaus sehr schöne Ergebnisse erzielen. Da scheinen die 1400Mhz OC die mal hier herumschwirrten doch nicht so übertrieben zu sein.

Ronny145
2012-03-18, 12:16:26
den meisten ist aber ziemlich egal was für den Markt wichtig ist und was nicht. OC ist hier einer der wichtigsten werte, wichtiger als Verbrauch und Lautstärke sowieso, kostenlose Leistungserhöhung ist nunmal verdammt geil :freak:



Das glaube ich nicht, die Eigenschaften in Werkseinstellung ist den meisten sicherlich bedeutsamer, nicht nur vom Gesamtmarkt aus betrachtet. Dazu gehört neben der Leistung auch der Verbrauch und die Lautstärke. Deswegen ist es erst einmal nur von Belang, wie sie da abschneidet. Die Übertaktbarkeit ist für einige sicherlich ein nettes Zubringsel. Ob es die minderwertigeren Eigenschaften der unterlegenen Grafikkarte in Werkseinstellung wettmacht, sei dahingestellt. Sollte GK104 in Werkseinstellung Tahiti XT im Performanceindex überholen, noch dazu bei geringeren Verbrauch und geringerer Lastlautstärke, hat sie gewonnen. Das ändert eine womöglich 100 Mhz bessere Übertaktbarkeit von Tahiti XT nicht im geringsten.

Botcruscher
2012-03-18, 12:23:42
Am Ende zählt Preis/Leistung vom Gesamtprodukt. So richtig überzeugend werden beide Karten in der nächsten Zeit nicht sein.

dildo4u
2012-03-18, 12:24:53
Ab über 1.1Ghz scheint es bei der 7970 auch zu kippen,alles drüber ist zum benchen vieleicht noch tauglich aber nicht für 24/7.

"Durch die höhere GPU-Spannung (+0,101 Volt, wir haben den Speicher unangetastet gelassen) ist auf der Radeon HD 7970 ein zusätzliches Plus von 75 MHz beim Rechenkern möglich, was in 1.200 MHz resultiert. Damit liegt der Takt um knapp 30 Prozent höher als beim Referenzdesign, ein hervorragendes Ergebnis! Die Performance steigt um weitere vier bis fünf Prozent gegenüber den Ergebnissen mit der normalen Spannung an und um 22 bis 25 Prozent gegenüber den Referenzvorgaben. In einem Atemzug erhöht sich allerdings auch der Leistungshunger um satte 100 Watt und liegt nun bei 450 Watt."(Ganzes System)

http://www.computerbase.de/artikel/grafikkarten/2012/bericht-amd-radeon-hd-7900/4/#abschnitt_overclocking_mit_mehr_volt

y33H@
2012-03-18, 12:29:42
Am Ende zählt Preis/Leistung vom Gesamtprodukt. So richtig überzeugend werden beide Karten in der nächsten Zeit nicht sein.PLV ist in diesem Preis-Segment völlig egal.

Timbaloo
2012-03-18, 12:29:45
@ dildo4u
Wenig verwunderlich da die Spannung quadratisch in die Verlustleistung eingeht.

boxleitnerb
2012-03-18, 12:36:03
PLV ist in diesem Preis-Segment völlig egal.

Finde ich nicht. Man kann sich durchaus was leisten können und trotzdem noch vernünftig sein im Sinne von "ich kaufe nicht zu jedem Preis". 80 Euro gespart sind schon ein Wasserkühler. Ich persönlich bin z.B. bereit 500-550 Euro zu zahlen für eine wirklich gute und schnelle Karte, aber weder für +30% (7970) noch für +50% (680?).

Botcruscher
2012-03-18, 12:36:24
PLV ist in diesem Preis-Segment völlig egal.

Wollen wir jetzt wieder darüber diskutieren ob die Karten Performance oder Highend sind?! Von der Chipgröße gehören sie in Preissegment von 200€ bis 300€. Da ist PLV extremst wichtig.

scully1234
2012-03-18, 12:51:17
PLV ist in diesem Preis-Segment völlig egal.

Das Zitat funktioniert aber nur,wenn man aus dem Hinterkopf wischt was GK104 eigentlich ursprünglich darstellen sollte,und den Enthusiastenstatus als gegeben akzeptiert,weil ein GTX680 Logo auf Selbigen prangt:D

y33H@
2012-03-18, 13:06:14
550 USD für einen Performance-GPU sind natürlich zu viel ;-)

derguru
2012-03-18, 13:21:57
Hmm ... Meine 7970 genehmigt sich bei 1.1GHz nur 1.05V
meine nicht ganz aber weiß gar nicht warum sich die leute an der spannung aufziehen,ist eh nicht ansatzweise vergleichbar.

Ab über 1.1Ghz scheint es bei der 7970 auch zu kippen,alles drüber ist zum benchen vieleicht noch tauglich aber nicht für 24/7.
mit dem referenzkühler haut das hin aber machbar für den alltag mit besseren kühler sind auch die 1200mhz.

Dural
2012-03-18, 13:53:27
meine 7970 machte die 1200MHz stabil, 1300Mhz bench takt.


NV hatte übrigens immer weniger spannung auf den chips, kan mich an keinen chip erinnern wo dies nicht der fall war.

für den selben takt braucht AMD einfach mehr saft, verbrauchs technisch vertragen die AMD chips aber auch mehr, wie so auch immer.

Darlie
2012-03-18, 13:58:44
Auf dem screenie ist die GPU im IDLE, mal sehn was die wirklich an spannung braucht um unter Load über 1,1GHz zu kommen ?
@dural
meine 7970 fahre ich mit 0.94V@1Ghz .

Odal
2012-03-18, 14:17:26
PLV ist in diesem Preis-Segment völlig egal.

finde ich mal nicht

ich könnte mir sicher min. 100 kepler oder tahiti leisten aber hab nicht ohne Grund noch eine GTX260 drin :tongue:

Aufgerüstet wird nur wenn es sich lohnt und da spielt auch das P/L verhältnis mit rein.

Wenn statt GK104 wirklich GK110 gekommen wäre hätte ich mir den vielleicht auch hinsichtlich GPU Lebenszeit gleich für ca 500€ eingepflanzt

hardtech
2012-03-18, 15:59:33
Unlogische argumentation.

Gaestle
2012-03-18, 16:16:21
Auch wenn Tahiti und GK104 technisch gesehen sicher Performance Chips sind: Nach aktueller Marktlage sind sie (leider) High End und haben damit (leider) auch entspechende Preise.

So wie hier alle alles möglichst billig haben wollen, wollen Firmen für jedes Produkt einen möglichst hohen Preis erzielen. Besonders wenn die Verfügbarkeit nicht rosig ist, stört es die Firmen nicht, wenn sie durch sehr hohe Preise die Nachfrage senken.

Und auch wenn die Verfügbarkeit besser ist, werden die Preise sicherlich erst im Performancebereich landen, wenn neues HighEnd da ist.

Bedingt durch die direkte Konkurrenz von Tahiti XT und GK104 könnten beide Firmen Geld verdienen und gleichzeitig einen Preiskampf beginnen. Mal sehen, wie lange es dauert, bis entsprechende Karten bei ca. 350,-€ gelandet sind...

Hübie
2012-03-18, 16:21:22
Hier mal ein ähnliches System mit 3D-Kack:

http://extreme.pcgameshardware.de/benchmarks/129616-3dmark11-postet-eure-punktzahl-98.html#post3931058

HD 7970 @1175 i7 2600k @5GHz
http://img4.fotos-hochladen.net/uploads/3dmark11x0tqmx8jdvf.jpg

GTX 680 @1110 i7 2700k @5GHz
http://www.abload.de/img/10949799_133205882104x3ynw.jpg (http://www.abload.de/image.php?img=10949799_133205882104x3ynw.jpg)

Es deutet also alles darauf hin dass es nach einem Schlagabtausch mit leichtem Gewinn für die GTX 680 aussieht wenn man das auf Standardtaktraten normiert.

LG Hübie

Edit: SLi auf einem i7 3930 @5GHz:

http://www.abload.de/img/gtx680_sli_3dmark11ask0g.jpg (http://www.abload.de/image.php?img=gtx680_sli_3dmark11ask0g.jpg)

Ronny145
2012-03-18, 16:27:06
In Full HD ist mittlerweile von einem Sieg der GTX680 auszugehen. Fraglich ist halt die Performance in 2560x1600 und der SGSSAA Performance. Das war bisher eher die Stärke von AMD. Wenn es in 1080p für einen knappen Sieg reicht, muss das in größerer Auflösung nicht unbedingt zutreffen.

-=Popeye=-
2012-03-18, 16:28:23
Auf dem screenie ist die GPU im IDLE, mal sehn was die wirklich an spannung braucht um unter Load über 1,1GHz zu kommen ?
@dural
meine 7970 fahre ich mit 0.94V@1Ghz .

Sorry aber diese Aussage ist falsch, genau das selbe geblubber hat im Luxx auch einer von sich gegeben und hat damit unrecht. Die Karte befindet sich auf dem Screen eindeutig im 3D Modus, zuerkennen am Performance Level P0... also ist die dort angezeigte LAST Spannung von 0,987V durchaus korrekt.

Hübie
2012-03-18, 16:32:38
Das denke ich auch. Bei Tahiti sieht man sehr gut wie der Speicher mit skaliert. Die HD 7970 GPU hat schon imense Kraft(-reserven). Ich betrachte das übrigens grundsätzlich ohne Verbrauchswerte, da mich Verlustleistung solang nicht interessiert bis es "krach" macht.
Dennoch bin ich davon überzeugt das wir auch hier von vllt. 10% sprechen was am Ende 35 zu 38 fps bedeuten kann ;)
Wichtig sind Latenz (frametimes) und min-fps bzw. der frame-Verlauf.

Edit: Auf dem aktuellen Markt sind Tahiti und Kepler highend. Auf dem Papier sind sie Performancechips. Ich wette nVidia hat sich n Ast gefreut als sie die "schwache" Tahiti XT sahen und haben dann schnell GK104 zum Verkauf mit highendpreis auserkoren.

dildo4u
2012-03-18, 16:50:27
Hier mal ein ähnliches System mit 3D-Kack:

http://extreme.pcgameshardware.de/benchmarks/129616-3dmark11-postet-eure-punktzahl-98.html#post3931058

HD 7970 @1175 i7 2600k @5GHz
http://img4.fotos-hochladen.net/uploads/3dmark11x0tqmx8jdvf.jpg

Komischer Wert hier die Grafikscore 3360 bei 1.3Ghz.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9208550&postcount=693

-=Popeye=-
2012-03-18, 16:56:42
Da funkt die CPU wieder dazwischen.

Gaestle
2012-03-18, 17:01:43
Ich wette nVidia hat sich n Ast gefreut als sie die "schwache" Tahiti XT sahen und haben dann schnell GK104 zum Verkauf mit highendpreis auserkoren.


Das war vielleicht auch der Grund für die kolportierten Sektkorken.

scully1234
2012-03-18, 17:04:35
Das war vielleicht auch der Grund für die kolportierten Sektkorken.

Mit Sicherheit(leider) und solange Nvidia mit GK104 gegensteuern kann wird sich daran auch so schnell nix ändern

Jetzt noch schnell im Mai ne Dualgpu zusammengekleistert,und GK110 rückt in weite Ferne

AnarchX
2012-03-18, 17:05:10
Da funkt die CPU wieder dazwischen.
Beim X-GPU-Score soll die CPU einen solchen Unterschied machen? Eher wurde da wohl gecheatet.
Verlässliche Referenz-Werte sind ~2500 für eine HD 7970. Wie soll man da mit 25% mehr Takt plötzlich 50% mehr Punkte erreichen.

dildo4u
2012-03-18, 17:06:11
Da funkt die CPU wieder dazwischen.
Die Grafiktest's laufen um die 18fps total Gpu limitiert.

-=Popeye=-
2012-03-18, 17:13:27
Ja die CPU und dessen Takt spielt auch im Grafiklimitierten gesamt X-Score eine Rolle, könnt ihr doch ganzleicht selbst nachprüfen.

AnarchX
2012-03-18, 17:16:56
Ja die CPU und dessen Takt spielt auch im Grafiklimitierten X-Score eine Rolle, könnt ihr doch ganzleicht selbst nachprüfen.
Es geht nicht um den Gesamt X-Score, sondern den GPU X-Score und da ist der Unterschied zwischen einem 4 und 5GHz SNB wohl nicht existent.
Da wurde eindeutig gecheatet.

Hat der Tessellator-Schalter im AMD Treiber eigentlich einen Einfluss auf 3DMark2011?
edit:
Offensichtlich schon: http://forums.guru3d.com/showpost.php?p=3859616&postcount=60
Ohne den Validition-Link fällt es wohl auch nicht auf. ;)

scully1234
2012-03-18, 17:17:05
Ja die CPU und dessen Takt spielt auch im Grafiklimitierten gesamt X-Score eine Rolle, könnt ihr doch ganzleicht selbst nachprüfen.


http://img.pconline.com.cn/images/upload/upc/tx/itbbs/1203/18/c1/10950981_1332066389713_1024x1024.jpg

6Kern CPU

dildo4u
2012-03-18, 17:17:12
Ja die CPU und dessen Takt spielt auch im Grafiklimitierten X-Score eine Rolle, könnt ihr doch ganzleicht selbst nachprüfen.
Bei den GPU Test's (bei 18fps) aber nicht und es gibt ne extra Score nur dafür.

Gaestle
2012-03-18, 17:19:42
Mit Sicherheit(leider) und solange Nvidia mit GK104 gegensteuern kann wird sich daran auch so schnell nix ändern

Jetzt noch schnell im Mai ne Dualgpu zusammengekleistert,und GK110 rückt in weite Ferne


GK110 wird schon so schnell wie möglich kommen. Es wäre nicht sinnvoll, einen fertig entwickelten und produzieren Chip künstlich zu verzögern.

scully1234
2012-03-18, 17:20:13
Hat der Tessellator-Schalter im AMD Treiber eigentlich einen Einfluss auf 3DMark2011?
edit:
Offensichtlich schon: http://forums.guru3d.com/showpost.php?p=3859616&postcount=60
Ohne den Validition-Link fällt es wohl auch nicht auf. ;)


Jupp:)

scully1234
2012-03-18, 17:21:58
GK110 wird schon so schnell wie möglich kommen. Es wäre nicht sinnvoll, einen fertig entwickelten und produzieren Chip künstlich zu verzögern.


Von verzögern kann keine Rede sein nur wird er wohl erstmal dort die Sahne abschöpfen wo er 1000te Euros wert ist:)

-=Popeye=-
2012-03-18, 17:24:12
Ob der Tess-Schalter bei AMD eine Auswirkung auf den Benchmark hat weiß ich nicht, der GPU Score steigt aber in diesem Bench auch mit steigendem CPU Takt, vorrausgesetzt die verwendete Grafikkarte hat von Haus aus genug Dampf.

AnarchX
2012-03-18, 17:26:58
Aber wohl kaum im X-Score und mit nur einer GPU.
Wenn du Beweise hast, dann untermauere sie bitte mit Links.

scully1234
2012-03-18, 17:33:56
, der GPU Score steigt aber in diesem Bench auch mit steigendem CPU Takt, .

Der Elfer verfällt doch mit X Konfig nicht in ein CPU Limit was solche Auswirkungen auf den Endscore hätte,da könnte Futuremark gleich wieder abtreten

Konami
2012-03-18, 17:35:09
GK110 wird schon so schnell wie möglich kommen. Es wäre nicht sinnvoll, einen fertig entwickelten und produzieren Chip künstlich zu verzögern.
Klar ist das sinnvoll, wenn man sich damit nur selber Konkurrenz machen würde, weil man gerade eine 300mm²-GPU zu absoluten Traumpreisen verkaufen kann. :D

Gaestle
2012-03-18, 17:51:55
Nur eben mit dem Nachteil, dass die Traumpreise auch die Nachfrage drastisch reduzieren. Nicht umsonst wird im Mainstrem-Bereich der meiste Gewinn erwirtschaftet. Mit einer verfügbaren 580 für 340,-€ (bei der NV schon kassiert hat, denn der Chip ist ja bereits verbaut) wird es schwierig, überhaupt 400,-€ für eine GK104-Karte in guten Stückzahlen zu bekommen.

Von verzögern kann keine Rede sein nur wird er wohl erstmal dort die Sahne abschöpfen wo er 1000te Euros wert ist:)

Das wäre auch ohne die (noch) aktuellen GK104-Preise so. Feste Abnahme von festen Stückzahlen zu festen Preisen.
Wenn GK110 wirklich so knapp am Limit ist, werden da erstmal keine Massen aus der Fab kommen.

AMD verkauft seit drei Monaten die 7970 und offenbar streuen die Spannungen immer noch deutlich.

scully1234
2012-03-18, 17:57:01
Unkommentiert

I know the price of Czech GeForce GTX 680, and it's a bomb. Lower than everyone suspected and skuhrají the web, if you wait for this card - just buy one of the first batch. The starting price is significantly lower than at this moment the cheapest Radeon HD 7970 on the Czech market! An absolute must-have for enthusiasts. Long experience shows that the second and another batch of cards will be more expensive (traders will want to make) ... even if the price of Radeon go down over time and the situation calms down.

http://www.obr-hardware.com/2012/03/chcete-geforce-gtx-680-budte-rychli.html




Das wäre auch ohne die (noch) aktuellen GK104-Preise so. Feste Abnahme von festen Stückzahlen zu festen Preisen.
Wenn GK110 wirklich so knapp am Limit ist, werden da erstmal keine Massen aus der Fab kommen.
.

Somal man noch mit einrechen darf,das Titan noch dieses Jahr,nach 18000 dieser GK110 Modelle verlangt zur Komplettierung,würde da wohl auch so schnell für den Geforce Sektor nichts abfallen.

Denn dessen Prioritäten,sind sicherlich um einiges höher angesiedelt,wie der Gamermarkt.

Gaestle
2012-03-18, 18:14:29
Dann sind wir uns ja einig. :ubeer:

Mal sehen ob OBR Recht behält.

Schaffe89
2012-03-18, 18:23:32
Hat der Tessellator-Schalter im AMD Treiber eigentlich einen Einfluss auf 3DMark2011?

Nein.
Jupp

Nochmal nein. Es gibt noch immer keine Profile.

AMD verkauft seit drei Monaten die 7970 und offenbar streuen die Spannungen immer noch deutlich.

Hoffentlich sehen wir dann keine "schlechten" GK104 im Retailmarkt.
Bei der HD 7970 hat sich der Mehrverbrauch von Partner Designs bzw nicht Reviewtaugliche Karten bishernoch in Grenzen gehalten.

So wie mir scheint, kommt ziemlich exakt die gleiche Performance raus, wie bei der HD 7970, bei 20-30 Watt weniger Lastverbrauch.

@ Scully

OBR verbreitet doch Mist.
Wie will Nvidia bei erst mitte Februar gestarteten Produktion ( Semiaccurate schrieb davon) und angeblich etwas mehr Performance wie bei der 7970 billige Preise fahren?
Gibts nochmal nen Preisturz bei den GTX580 Karten?
Wohl ja kaum. -.-

AnarchX
2012-03-18, 18:31:04
Es gibt schon diverse Andeutungen, dass der Preis wohl möglich doch nicht bei $549 liegen könnte.

Eine möglicherweise hier direkt im Thread:
550 USD für einen Performance-GPU sind natürlich zu viel ;-)

Schaffe89
2012-03-18, 18:35:03
Meinst du es interessiert die Hersteller wie groß der Chip ist?
Wenn der ordentlich Bums hat, geht der als High End raus und fertig ist die Soße.
GK110 wird sowieso erst erheblich später kommen ( Sommer bis Winter), da hat man genügend Zeit um die Preise bei besserer Produktion still und heimlich laaaaangsam fallen zu lassen.

derguru
2012-03-18, 18:35:06
@Schaffe89

der tessschalter hat einfluss beim 3d mark11,nicht bei amd optimiert aber man kann die werte leicht faken.

der gepostete wert von fast x4000 kann nie und nimmer stimmen.

J0ph33
2012-03-18, 18:35:27
Wie sagte noch jmd hier, glaub Ailuros, in Bezug auf Tahiti...er sei nicht bereit 500€ für eine Performance-GPU auszugeben, tja, so do I @GK104.

Ehrlich gesagt rechne ich dennoch mit mindestens 400€, starke Tendenz zu 500€.

Gunslinger
2012-03-18, 18:38:16
Wenn die 580er bei 350,-- bleibt, wären wohl 450,-- bis 500,-- realistisch.

Undertaker
2012-03-18, 18:39:07
Wie will Nvidia bei erst mitte Februar gestarteten Produktion ( Semiaccurate schrieb davon) und angeblich etwas mehr Performance wie bei der 7970 billige Preise fahren?

Man könnte, da kleiner Die, nur 2 GB VRAM und evtl. auch günstigere Stromversorgung durch niedrigeren Verbrauch. Ich bezweifle allerdings, dass man deswegen mit "günstigen" Preisen rechnen kann - warum sollte man sich auch die eigene Marge zerstören? Zudem dürfte eine durch ein niedriges Preisniveau angefeuerte Nachfrage kaum durch das Angebot zu decken sein...

y33H@
2012-03-18, 18:42:28
Eine möglicherweise hier direkt im Thread:Das bezog sich nicht auf den Launch-Preis.

Duplex
2012-03-18, 18:44:46
Wie man sieht skaliert CF sogar besser als SLI, die GTX680 hat deutlich mehr Takt...

http://www.abload.de/thumb/cfslikixos.jpg (http://www.abload.de/image.php?img=cfslikixos.jpg)
http://www.3dcenter.org/

scully1234
2012-03-18, 18:45:05
Das bezog sich nicht auf den Launch-Preis.

Man wollte dich auch nur aus der Reserve locken;D

Schaffe89
2012-03-18, 19:00:39
er tessschalter hat einfluss beim 3d mark11,nicht bei amd optimiert aber man kann die werte leicht faken.

Huh, da hab ich mich verguckt.
Thanks.
Wie man sieht skaliert CF sogar besser als SLI, die GTX680 hat deutlich mehr Takt...

Ich weiß nicht ob eine GTX690 soviel Sinn hat.
DIe Karte dürfte bei extremen Settings mit Downsampling oder SGSSAA aufgrund der geringeren Bandbreite gegenüber einer AMD Dual GPU verhungern.

scully1234
2012-03-18, 19:13:04
Ich weiß nicht ob eine GTX690 soviel Sinn hat.
DIe Karte dürfte bei extremen Settings mit Downsampling oder SGSSAA aufgrund der geringeren Bandbreite gegenüber einer AMD Dual GPU verhungern.

Du kennst schon das SI der Dualplatine?

Klär uns auf bitte

N0Thing
2012-03-18, 19:34:29
Du kennst schon das SI der Dualplatine?

Klär uns auf bitte

Wenn zwei GK104 verwendet werden, dann sicherlich auch maximal ein 2x256Bit SI. ;)

Undertaker
2012-03-18, 19:43:33
Wenn zwei GK104 verwendet werden, dann sicherlich auch maximal ein 2x256Bit SI. ;)

Verschiebt sich gerade bei SGSSAA nicht eher der Schwerpunkt in Richtung Rechenleistung? Wenn GK104 also Single-GPU gegen Tahiti XT besteht, dann auch x2 im Duell der Dual-Versionen. Da hier die Perf/Watt noch stärker der entscheidende Faktor ist, spricht das nach aktuellem Stand wohl sogar noch stärker pro-GK104.

fizzo
2012-03-18, 19:51:12
Verschiebt sich gerade bei SGSSAA nicht eher der Schwerpunkt in Richtung Rechenleistung? Wenn GK104 also Single-GPU gegen Tahiti XT besteht, dann auch x2 im Duell der Dual-Versionen. Da hier die Perf/Watt noch stärker der entscheidende Faktor ist, spricht das nach aktuellem Stand wohl sogar noch stärker pro-GK104.

Vielleicht stellt AMD auch zwei ausgefahrene Pitcairn dagegen. Gerade was Perf/Watt betrifft ist dies die sinnigere Variante. Davon ab auch noch billiger. Wäre sicher ein interessantes Duell =)

Undertaker
2012-03-18, 19:54:17
Vielleicht stellt AMD auch zwei ausgefahrene Pitcairn dagegen. Gerade was Perf/Watt betrifft wäre dies die sinnigere Variante. Davon ab auch noch billiger. Ware sicher ein interessantes Duell =)

Das glaub ich nicht... Die 7870 verbraucht schon fast so viel wie die 7950 - ist aber spürbar langsamer. Noch mehr Takt bei Pitcairn würde die Perf/Watt nicht verbessern - da ist ein breiter, langsam taktender Chip besser.

Hugo78
2012-03-18, 19:55:54
Mal sehen ob OBR Recht behält.

Ach OBR ... wenn es wenigstens von PHK kommen würde... aber so. :usad: :ucoffee:

scully1234
2012-03-18, 19:57:59
Wenn zwei GK104 verwendet werden, dann sicherlich auch maximal ein 2x256Bit SI. ;)

Ist das deshalb auch gleich ein Indiz dafür das das Doppelsandwitch "verhungert"? Immerhin solllte der hohe Speichertakt eine ebenbürtige Bandbreite des Vorgängers 580GTX ermöglichen

Zudem ist man wohl auch Aufgrund der humanen Leistungsaufnahme,nicht gezwungen dem Chip bei der Größe des Vram zu limitieren(wie bei der GTX590 geschehen)

-=Popeye=-
2012-03-18, 20:01:39
Aber wohl kaum im X-Score und mit nur einer GPU.
Wenn du Beweise hast, dann untermauere sie bitte mit Links.

Direkt untermauern kann ich es nicht...

i7-2600k@stock (Turbo ON), GTX570@875/1750/2200
http://3dmark.com/3dm11/2986924;jsessionid=jqjc1u67h9nt148307f6vkwkx

i7-2600k@4,4GHz über den Turbo, GTX570@875/1750/2200
http://3dmark.com/3dm11/2986749;jsessionid=1d9bhefh6jpet4gurppuazxc3

... aber wie man sieht pfuscht die CPU im Grafik Score mit rum, hier vielleicht nur minimal aber ein CPU Einfluss ist durchaus messbar.

Ronny145
2012-03-18, 20:05:21
Direkt untermauern kann ich es nicht...

i7-2600k@stock (Turbo ON), GTX570@875/1750/2200
http://3dmark.com/3dm11/2986924;jsessionid=jqjc1u67h9nt148307f6vkwkx

i7-2600k@4,4GHz über den Turbo, GTX570@875/1750/2200
http://3dmark.com/3dm11/2986749;jsessionid=1d9bhefh6jpet4gurppuazxc3

... aber wie man sieht pfuscht die CPU im Grafik Score mit rum, hier vielleicht nur minimal aber ein CPU Einfluss ist durchaus messbar.


Gerade mal 0,8% Steigerung.

fizzo
2012-03-18, 20:08:21
Das glaub ich nicht... Die 7870 verbraucht schon fast so viel wie die 7950 - ist aber spürbar langsamer. Noch mehr Takt bei Pitcairn würde die Perf/Watt nicht verbessern - da ist ein breiter, langsam taktender Chip besser.

Die 7870 verbraucht ~ 20% weniger als die 7950 (http://ht4u.net/reviews/2012/amd_radeon_hd_7870_pitcairn_xt_im_test/index36.php) und ist dabei ~ 15% langsamer (http://ht4u.net/reviews/2012/amd_radeon_hd_7870_pitcairn_xt_im_test/index36.php). Von den Kosten mal abgesehen, könnten bei einem max. Verbrausbudget von 300Watt der Pitcairn durchaus sinnger sein.

edit: HD 7870 2GB Reference Video Cards in CrossFire (http://www.tweaktown.com/cms/gallery.php?aid=4597&type=articles&title=#8)