PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31

Raff
2012-03-14, 20:13:20
Aber Multi-GPU taugt ja nix. :freak:

Du sagst es. :tongue:

Mit Luft packen alle mind. 1100 GPU, 1200 sind bei vielen auch ohne WaKü möglich, das ist noch lange keine Vorraussetzung, von Sapphire soll es bald angeblich 7970 OC Modelle mit über 1,3Ghz geben http://www.pcgameshardware.de/aid,862110/Radeon-HD-7970-Hersteller-Sapphire-plant-offenbar-sieben-unterschiedliche-Modelle-mit-bis-zu-1335-MHz-Kerntakt-Geruecht-des-Tages/Grafikkarte/News/

Ich an AMDs stelle würde ein Tahiti XTX Chip mit 1,2Ghz als 7990 vermarkten und die Dual Karte mit X2 kürzel bennen.
Es wird keine 1,3-GHz-Modelle geben. 1,2 sind aber angeblich anvisiert.

MfG,
Raff

dildo4u
2012-03-14, 20:14:51
Man hat mit GF100 derartige Yields gehabt, dass man die Karten auch verkaufen konnte nach 6 Monaten. Ab Sommer soll das kein Problem sein eigentlich.
Die 28nm Preise sprechen deutlich dafür das die Ylieds noch mieser sind als bei den ersten 40nm Chips.Es ist nur logisch je weiter man geht desto schwieriger wird's,da kann TSMC sonst noch was beschwören.

boxleitnerb
2012-03-14, 20:16:37
Die 28nm Preise sprechen deutlich dafür das die Ylieds noch mieser sind als bei den ersten 40nm Chips.Es ist nur logisch je weiter man geht desto schwieriger wird's,da kann TSMC sonst noch was beschwören.

Das ist nur eine Vermutung. Was AMD für ihre Wafer zahlt und wie die Ausbeute ist, wissen wir nicht. Sie können sich genausogut ihre gute Execution vergolden lassen.

Thunder99
2012-03-14, 20:41:43
Einfacher wird es bestimmt nicht geworden sein, das sollten wir eigentlich mittlerweile im Kontext erfahren habe ;)

Nach meiner Vermutung startet die 28nm Generation deutlich schlechter als die 40nm. Siehe auch Meldungen, dass die 28nm Klasse bei den SoC zur Verschiebung geführt hat

Nightspider
2012-03-14, 21:20:31
Die 28nm Generation wird uns sicherlich auch nochmals länger erhalten bleiben als die 40nm Generation.
Da lohnt es sich noch mehr einmal ein HighEnd Modell (oder 2) zu kaufen und diese under Wasser zu setzen.
Besser, als wenn man immer nach 1,5 Jahren nen neuen Wasserkühler kaufen muss. So kann man die 28nm HighEnd Karten vllt 3 Jahre behalten.

Mit nervt es nur, das der GK110 viel später kommt, als die Performance Karten.

Und das GK110 eine Server GPU ist, wie hier manche behaupten ist doch auch totaler Schwachsinn. Klar wird die dort auch vermarktet aber es bleibt auch immernoch eine Gamer GPU, die um einiges leistungsfähiger sein wird als GK104.
Und die Effizienzverbesserungen werden genauso auf die großen GK110 Chips zutreffen. Diese werden die AMD HighEnd Karten dann ziemlich deklassieren, falls diese tatsächlich 30-50% schneller sind.

Zergra
2012-03-14, 21:37:21
Denke nicht das 2012 noch was anderes als ne Dual 104k kommt.Die 780 wird im Q2 2013 kommen,da Maxwell auf 2014 verschoben wurde.

http://www.pcgameshardware.de/aid,832752/Nvidia-bestaetigt-Kepler-fuer-2012-und-Maxwell-fuer-2014-Update-Kepler-doch-noch-2011/Grafikkarte/News/
Meinst du damit das GK110 garnicht kommt jedenfalls dieses Jahr?.... mhh könnte gut sein wenn sie sich vor Tahti XT bauen brauchen sie den auch garnicht... denn dann können sie auch mit den Preisen oben bleiben. Würden sie dann aber GK110 rausbringen würde der Preis von Gk104 sinken. Was bringt das ? nicht viel. Also können sie sich GK110 für den AMD Refresh aufheben. Und stehen beide mal vor AMD, und AMD wird da auch kein großes Problem haben wenn der Abstand nicht zu groß ist und wird dann keinen Tahiti XTX bringen :confused:

Thunder99
2012-03-14, 21:55:28
Meinst du damit das GK110 garnicht kommt jedenfalls dieses Jahr?.... mhh könnte gut sein wenn sie sich vor Tahti XT bauen brauchen sie den auch garnicht... denn dann können sie auch mit den Preisen oben bleiben. Würden sie dann aber GK110 rausbringen würde der Preis von Gk104 sinken. Was bringt das ? nicht viel. Also können sie sich GK110 für den AMD Refresh aufheben. Und stehen beide mal vor AMD, und AMD wird da auch kein großes Problem haben wenn der Abstand nicht zu groß ist und wird dann keinen Tahiti XTX bringen :confused:
Wäre logisch, da beim Refresh der 40nm GPU´s nvida das "ASS" im Ärmel hatte einen teil-deaktivierten Chip voll auszufahren. Damit konnten sie ihr anfängliches Problem nochmal gut umfahren.

Sieht bei ihren 28nm GPU´s aber nicht so aus. Deshalb auch GK110

Blediator16
2012-03-14, 22:07:00
Die 28nm Generation wird uns sicherlich auch nochmals länger erhalten bleiben als die 40nm Generation.
Da lohnt es sich noch mehr einmal ein HighEnd Modell (oder 2) zu kaufen und diese under Wasser zu setzen.
Besser, als wenn man immer nach 1,5 Jahren nen neuen Wasserkühler kaufen muss. So kann man die 28nm HighEnd Karten vllt 3 Jahre behalten.

Mit nervt es nur, das der GK110 viel später kommt, als die Performance Karten.

Und das GK110 eine Server GPU ist, wie hier manche behaupten ist doch auch totaler Schwachsinn. Klar wird die dort auch vermarktet aber es bleibt auch immernoch eine Gamer GPU, die um einiges leistungsfähiger sein wird als GK104.
Und die Effizienzverbesserungen werden genauso auf die großen GK110 Chips zutreffen. Diese werden die AMD HighEnd Karten dann ziemlich deklassieren, falls diese tatsächlich 30-50% schneller sind.

Entweder sind beide Highende oder beide Midrange.

Mancko
2012-03-14, 22:07:01
Ja, dann schönes warten =>6 Monate.
Für Leute mit einer GTX580 kein Problem.

kunibätt
2012-03-14, 22:08:17
Ehrlich gesagt sieht mir das ganze mehr denn je nach Preisabsprachen aus dem Bilderbuch aus :(

N0Thing
2012-03-15, 03:05:21
Meinst du damit das GK110 garnicht kommt jedenfalls dieses Jahr?.... mhh könnte gut sein wenn sie sich vor Tahti XT bauen brauchen sie den auch garnicht... denn dann können sie auch mit den Preisen oben bleiben. Würden sie dann aber GK110 rausbringen würde der Preis von Gk104 sinken. Was bringt das ? nicht viel. Also können sie sich GK110 für den AMD Refresh aufheben. Und stehen beide mal vor AMD, und AMD wird da auch kein großes Problem haben wenn der Abstand nicht zu groß ist und wird dann keinen Tahiti XTX bringen :confused:

Sobald TSMC mehr produzieren kann, werden die Preise sinken. Und sobald Nivida genug GK110 herstellen kann und die Preise so weit gesunken sind, daß im 500-600€ Bereich eine Lücke offen ist, wird der Nachfolger eine Karte auf Basis des GK110 veröffentlicht.
Man wird sicher keine GK110-Karte zurück halten, nur weil sich der Nachfolger verspäten könnte oder gar wird. Es kauft ja jetzt auch keiner eine GTX580 nur weil sich GK110 in den Sommer/Herbst verschiebt.

OBrian
2012-03-15, 04:34:41
Ehrlich gesagt sieht mir das ganze mehr denn je nach Preisabsprachen aus dem Bilderbuch aus :(
In einem Markt, in dem es nur zwei Akteure gibt, braucht man nicht viel abzusprechen. Vor allem, wenn man weiß, daß der andere mit demselben Fertigungsprozeß unterwegs ist wie man selbst. Da kann man recht einfach abschätzen, was geht und was nicht. Wenn sich beide arg anstrengen müssen (und das müssen sie, ist ja schließlich absolute Spitzentechnologie), dann wird derjenige, der etwas vorne liegt, nicht noch extra Anstrengungen unternehmen, denn die kosten nur Geld. Etwas vorne zu liegen reicht völlig. Usain Bolt nimmt in den 100m-Läufen auch 30m vor dem Ziel das Gas weg, wenn er merkt, daß es zur Quali für die nächste Runde reicht, denn doppelt so schnell anzukommen wie die anderen kostet nur Kraft und bringt nichts.
Ist dasselbe wie bei Intel und AMD. Intel liegt im oberen Bereich vorne, aber sie könnten ihre Core i-sowieso auch gut 1-2 GHz höher getaktet verkaufen. Machen sie aber nicht, weil es unnötig ist.

Zergra
2012-03-15, 05:52:02
Sobald TSMC mehr produzieren kann, werden die Preise sinken. Und sobald Nivida genug GK110 herstellen kann und die Preise so weit gesunken sind, daß im 500-600€ Bereich eine Lücke offen ist, wird der Nachfolger veröffentlicht.
Man wird sicher keine Gk110-Karte zurück halten, nur weil sich der Nachfolger verspäten könnte oder gar wird. Es kauft ja jetzt auch keiner eine GTX580 nur weil sich GK110 in den Sommer/Herbst verschiebt.
Soll aber dieses Jahr nicht passieren... Die Preis werden sich wohl auch etwas sinken aber mehr sollte man nicht erwarten.

AnarchX
2012-03-15, 10:23:21
http://www.xtremesystems.org/forums/attachment.php?attachmentid=124632&d=1331802528

GTX680 25% faster than HD7970 in average

http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5069197&viewfull=1#post5069197

originäre Quelle: http://we.pcinlife.com/thread-1853062-1-1.html

boxleitnerb
2012-03-15, 10:27:18
Ist es eigentlich denkbar, dass manche Boardpartner dasselbe Layout verwenden, aber unterschiedliche Anschlüsse hinten? Dass man eine einfache Slotblende verbauen könnte.

Spasstiger
2012-03-15, 10:32:06
Irgendwelche Zahlen in den Raum werfen kann jeder. Aber der Turm-PCIe-Anschluss scheint nun doch im finalen Design drin zu sein, etwas unpraktisch für Single-Slot-Umbauten mit Wakü.

AnarchX
2012-03-15, 10:35:06
Irgendwelche Zahlen in den Raum werfen kann jeder.
Zusammen mit einem neuen Kartenbild hat das schon mehr Substanz, als eine Random-Spekulation.

Ausserdem gibt es auch andere Andeutungen in diese Richtung: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9208703#post9208703

Fragt sich natürlich, ob das die NV-Zahlen sind oder unabhängig ermittelte.

btw.
Wohl das neue AA:
http://we.pcinlife.com/data/attachment/forum/201203/15/1734257bkiw9wwh778bzgg.jpg
http://we.pcinlife.com/thread-1853086-1-1.html

Spasstiger
2012-03-15, 10:36:52
Gut, könnten wirklich NV-Zahlen sein. In dem Fall wären die 25% vor der HD 7970 so zu verstehen, wie die HD 7870 um 40% schneller ist als die GTX 570 (laut AMD-Folien). Also mit selektierten Benchmarks in selektierten Settings.

Timbaloo
2012-03-15, 10:38:25
Ist es eigentlich denkbar, dass manche Boardpartner dasselbe Layout verwenden, aber unterschiedliche Anschlüsse hinten? Dass man eine einfache Slotblende verbauen könnte.
Rech groß würde ich sagen. Es sind ja neben dem Turm noch 6 Pins als Alternative. Wenn das wirklich das finale Board ist.

Wobei ich jetzt so den tieferen Sinn von single-slot Lösungen nicht sehe, ausser dass es schicker aussieht, aber das ist auch ot.

boxleitnerb
2012-03-15, 10:43:32
Versuch mal in einem normalen Gehäuse 3x2-Slot Karten+ zwei extra PCIe-Karten einzubauen. ATX geht nur bis 7 Slots und die doppelten Slotbleche machen alle 1x Slots zwischen den Karten unbenutzbar.

@neues AA :eek:
Scheint kein FXAA zu sein, das wird ja extra erwähnt.

desert
2012-03-15, 10:49:11
Versuch mal in einem normalen Gehäuse 3x2-Slot Karten+ zwei extra PCIe-Karten einzubauen. ATX geht nur bis 7 Slots und die doppelten Slotbleche machen alle 1x Slots zwischen den Karten unbenutzbar.

@neues AA :eek:
Scheint kein FXAA zu sein, das wird ja extra erwähnt.

sieht extrem gut aus das AA, bin schon gespannt. Meine GTX 480 muss langsam mal in Rente.

Henroldus
2012-03-15, 10:55:14
Das neue AA sind ja mal sehr spannend aus!
Die Frage ist zu welchen Kosten?
Guter Trend hin zu mehr Bildqualität, Leistung haben ja (fast) genug.

AnarchX
2012-03-15, 10:56:06
Ein weniger kontrastreiches Bild und Bewegung ist wohl zur Beurteilung nötig.
Aber ein Treiber-FXAA hat einen deutlichen Vorteil bei der Information gegenüber einem Injector.

V2.0
2012-03-15, 10:58:11
Das AA ist reizvoll und ich wollte doch nicht den Early-Adopter-Aufschlag zahlen...

Ailuros
2012-03-15, 10:58:55
Das mit dem hotclock stimmte zwar nicht, aber es scheint dass die GK104 specs doch verdammt merkwuerdig sind am Ende. 192/SM und den Rest kann man sich kinderleicht weiterdichten. Fuer den ersten Schub keine vendor OC, und der turbo ist nur auf +50MHz fuer den Anfang beschraenkt.

AnarchX
2012-03-15, 11:01:56
Das mit dem hotclock stimmte zwar nicht, aber es scheint dass die GK104 specs doch verdammt merkwuerdig sind am Ende. 192/SM und den Rest kann man sich kinderleicht weiterdichten.
Beziehst du dich darauf?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9208270#post9208270

Mit einem 192SPs SM stellt sich aber auch die Frage, ob es 128 TMUs sind.
Man könnte ja auch nur 3 Quad-TMUs pro SM verbauen -> 96 TMUs.

Ebenso die Frage was bei nur 8 SMs mit den Polymorph-Engines (http://www.computerbase.de/artikel/grafikkarten/2010/bericht-nvidia-gf100-technische-details/3/#abschnitt_polymorph_engine)passiert ist:
2 pro SM oder einfach die Leistung erhöht (0,5 Dreiecke pro Takt?).

btw.
Volker@Computerbase:
Krumme Taktraten gab es bei Nvidia ja immer, das wäre nicht ungewöhlich. Und das eine Performance-Karte 1 GHz Chiptakt hat ist es dank 28 nm auch nicht. Jaa das mit dem Turbo wird interessant, aber da hängt halt noch viel mehr dran als es augenscheinlich ist. Aber ein NDA ist ein NDA ist ein NDA ist ein NDA^^

http://www.computerbase.de/forum/showpost.php?p=11690842&postcount=491

Ailuros
2012-03-15, 11:13:41
Beziehst du dich darauf?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9208270#post9208270

Mit einem 192SPs SM stellt sich aber auch die Frage, ob es 128 TMUs sind.
Man könnte ja auch nur 3 Quad-TMUs pro SM verbauen -> 96 TMUs.

Keine Ahnung. Ich kann mir auch verdammt schwer vorstellen wie das scheduling bei so etwas zustande kommt denn es sind 32SPs/SIMD ergo wohl 6*32SPs/SM. Es sind dann auch nicht mehr als 8 SMs und sicher auch nicht mehr als 2 GPCs. 16 TMUs/SM klingt nach Bloedsinn, aber ich gebe es auf denn 6*32 klang mir auch nie bisher als "logisch".

dargo
2012-03-15, 11:22:10
sieht extrem gut aus das AA, bin schon gespannt. Meine GTX 480 muss langsam mal in Rente.
Erstmal abwarten wie das in Games aussieht und vorallem wie der Support in Games überhaupt ist. Außerdem bin ich bei solchen schwarz/weiß Vergleichen immer etwas skeptisch. Nicht, dass das Gesamtbild in Games wieder nur zermatscht wird wie bei diversen Post-AA-Modis.

AnarchX
2012-03-15, 11:27:32
Keine Ahnung. Ich kann mir auch verdammt schwer vorstellen wie das scheduling bei so etwas zustande kommt denn es sind 32SPs/SIMD ergo wohl 6*32SPs/SM. Es sind dann auch nicht mehr als 8 SMs und sicher auch nicht mehr als 2 GPCs. 16 TMUs/SM klingt nach Bloedsinn, aber ich gebe es auf denn 6*32 klang mir auch nie bisher als "logisch".

Wenn es so kommt, dann müssen die Einheiten wohl etwas stärker ausgelegt werden.
Ebenso wird wohl der Sheduling-Worst-Case nicht bei 8*2 SMs und damit auf GF114-Niveau liegen.

Raff
2012-03-15, 11:28:32
und der turbo ist nur auf +50MHz fuer den Anfang beschraenkt.

Sicher?

MfG,
Raff

M4xw0lf
2012-03-15, 12:00:26
Sicher?

MfG,
Raff

Raff <-> deutsch: "Da hab ich aber was anderes gesehen/-hört" ;D

aufkrawall
2012-03-15, 12:08:22
Ein weniger kontrastreiches Bild und Bewegung ist wohl zur Beurteilung nötig.

Bewegung ja, weniger kontrastreich IMHO nein.
Seit HDR fällt die Schwäche von MSAA/SGSSAA in einigen Anwendungen recht deutlich auf, da sieht dann 4xSGSSAA teilweise schlechter aus als 4xMSAA unter besseren Bedingungen.

Um was außer FXAA 4 sollte es sich denn handeln?
Mir kommt es leicht unscharf vor (als wäre es hochskaliert ;) ) und es hieß März für das Feature.

Dural
2012-03-15, 12:09:44
Irgendwelche Zahlen in den Raum werfen kann jeder. Aber der Turm-PCIe-Anschluss scheint nun doch im finalen Design drin zu sein, etwas unpraktisch für Single-Slot-Umbauten mit Wakü.



man kann ja andere stecke anlöten, nur dürften die DVI anschlüsse das grössere problem darstellen ;D ;)

Ronny145
2012-03-15, 12:34:07
Ein weniger kontrastreiches Bild und Bewegung ist wohl zur Beurteilung nötig.
Aber ein Treiber-FXAA hat einen deutlichen Vorteil bei der Information gegenüber einem Injector.


Wieso mehr Informationen? Das Bild blurrt auf den ersten Blick nur leicht, mal sehen was das wird.

Spasstiger
2012-03-15, 12:37:34
Das AA-Bild sagt fast nix aus außer, dass es Treppchen besser wegglättet. Ob es mehr Information in die Szene einfließen lässt und Flimmern reduziert, wird nicht ersichtlich.

derguru
2012-03-15, 12:43:29
flimmern reduzieren ist genauso wichtig wie die kantenglättung ansich aber das glätten meistert es sehr gut,könnte ja sowas ähnliches sein wie bei amd,eine edge/msaa kombo.

dildo4u
2012-03-15, 12:44:38
Gut, könnten wirklich NV-Zahlen sein. In dem Fall wären die 25% vor der HD 7970 so zu verstehen, wie die HD 7870 um 40% schneller ist als die GTX 570 (laut AMD-Folien). Also mit selektierten Benchmarks in selektierten Settings.
Geht nicht so extrem weil die 7970 mehr V-ram hat.

Pana
2012-03-15, 12:55:22
Wird wohl wieder nichts mit Metro 2033@3D auf einer GPU oO

aufkrawall
2012-03-15, 12:57:27
Wird wohl wieder nichts mit Metro 2033@3D auf einer GPU oO
Abwarten. Da die Shadereinheiten ja völlig neu angeordnet sind, könnte das bei einzelnen Anwendungen wie Metro extrem viel rausholen.

Raff
2012-03-15, 13:07:50
In Metro (Fermi-Präsentationsspiel ;)) herrscht Tahiti ziemlich gut, das muss Nvidia erst mal toppen.

MfG,
Raff

N0Thing
2012-03-15, 13:13:42
Soll aber dieses Jahr nicht passieren... Die Preis werden sich wohl auch etwas sinken aber mehr sollte man nicht erwarten.

Habe mich schlecht ausgedrückt. Meinte nicht den Nachfolger des GK110, sondern GK110 selber. Den erwarte ich noch dieses Jahr im Sommer/Herbst.

Ailuros
2012-03-15, 13:25:33
Wenn es so kommt, dann müssen die Einheiten wohl etwas stärker ausgelegt werden.
Ebenso wird wohl der Sheduling-Worst-Case nicht bei 8*2 SMs und damit auf GF114-Niveau liegen.

6*32SPs/SM
16 TMUs/SM
2 SMs/GPC
4 GPCs
32 ROPs (4*64bit)
1GHz

Ein ziemlich merkwuerdiger layout IMHO.

Habe mich schlecht ausgedrückt. Meinte nicht den Nachfolger des GK110, sondern GK110 selber. Den erwarte ich noch dieses Jahr im Sommer/Herbst.

Vor Ende Q3 nichts, egal ob man in der Zwischenzeit so manchen supercomputer mit den cores bestuecken wird.

AnarchX
2012-03-15, 13:30:44
6*32SPs/SM
16 TMUs/SM
2 SMs/GPC
4 GPCs
32 ROPs (4*64bit)
1GHz

Ein ziemlich merkwuerdiger layout IMHO.

So merkwürdig ist das nach GF104 nicht.

Wobei die konkreten Details interessant sein werden: Polymorph-Engines, Zahl der Warp-Sheduler und Dispatch-Units, Struktur der Caches,...

4 Quad-TMUs sprechen aber wohl dafür, dass es intern wohl weiterhin zwei getrennte Cluster sein können. Von der Balance hätten auch 3 Quad-TMUs reichen können.

Ailuros
2012-03-15, 13:38:12
So merkwürdig ist das nach GF104 nicht.

Wobei die konkreten Details interessant sein werden: Polymorph-Engines, Zahl der Warp-Sheduler und Dispatch-Units, Struktur der Caches,...

4 Quad-TMUs sprechen aber wohl dafür, dass es intern wohl weiterhin zwei getrennte Cluster sein können. Von der Balance hätten auch 3 Quad-TMUs reichen können.

Wenn jeglicher SM irgendwie durch die Haelfte geteilt wird, hast Du wie vorher 3 SIMDs fuer jeweils 2 quad TMUs. Bei 3 quad TMUs wuerde in solch einem Fall die zweite 3-er SIMD ziemlich bloed dastehen.

Mist jetzt muss ich die GK110 specs nochmal durchwurschteln :(

V2.0
2012-03-15, 13:38:31
Ist doch bekannt.
GK107 - Q1 (OEM)
GK104 - Q2
GK106 - Q2
GK110 - Q3



Und damals wurde ich als Troll beschimpft.... ;D

Ach ja - weitere Trollpostings:

GK104 ca. 1 GHz Baseclock
kein Hotclock
etwas kleiner als Tahiti
Leistungsaufnahme in Spielen 185W

;D

boxleitnerb
2012-03-15, 13:47:53
Dann "trolle" doch mal was zu GK110 :D
Lottozahlen wären auch nicht übel...

Duplex
2012-03-15, 13:53:14
GK110 wird IHMO 20% über der GTX590 landen.

N0Thing
2012-03-15, 13:56:45
Vor Ende Q3 nichts, egal ob man in der Zwischenzeit so manchen supercomputer mit den cores bestuecken wird.

:(
Nvidias Q3 oder das kalendarische Q3?

Hades11
2012-03-15, 13:59:17
Und damals wurde ich als Troll beschimpft.... ;D

Ach ja - weitere Trollpostings:

GK104 ca. 1 GHz Baseclock
kein Hotclock
etwas kleiner als Tahiti
Leistungsaufnahme in Spielen 185W

;D

baseclock , kein hotclock , größe war ja schon bekannt. Durch die angebliche TDP von 195W sind die 185W unter games auch naheliegend.

ich würde mich nur anschließen: troll mal bitte was zu GK 110

Dural
2012-03-15, 14:00:38
Und damals wurde ich als Troll beschimpft.... ;D




jep zurecht: 22.03 ist Q1 ;D :wink:

Godmode
2012-03-15, 14:00:41
6*32SPs/SM
Vor Ende Q3 nichts, egal ob man in der Zwischenzeit so manchen supercomputer mit den cores bestuecken wird.

Schade! Werden sich halt gedacht haben, GK104 reicht locker und bevor die Fertigung nicht besser wird macht GK110 eh keinen Sinn. :mad:
2 Jahre Warten von Highend zu Highend...:freak::rolleyes::mad::frown:;(

Ailuros
2012-03-15, 14:06:33
Schade! Werden sich halt gedacht haben, GK104 reicht locker und bevor die Fertigung nicht besser wird macht GK110 eh keinen Sinn. :mad:
2 Jahre Warten von Highend zu Highend...

Nein. Ihre HPC Verpflichtungen im Zusammenhang mit den yields fuer 550mm2 grosse dies erlauben nichts frueher.

Und damals wurde ich als Troll beschimpft.... ;D

Ach ja - weitere Trollpostings:

GK104 ca. 1 GHz Baseclock
kein Hotclock
etwas kleiner als Tahiti
Leistungsaufnahme in Spielen 185W

;D

Vorbehalte fuer die Leistungsaufnahme je nach Fall und nein "etwas" kleiner als Tahiti waeren Charlie's 342mm2 gewesen. 294mm2 ist eher ca. in der Mitte zwischen Tahiti und Pitcairn wie hier auch erwaehnt wurde. 20% kleiner ist in meinem Buch zumindest kein "etwas".

Sonst:

Ist doch bekannt.
GK107 - Q1 (OEM)
GK104 - Q2
GK106 - Q2
GK110 - Q3



Ich will wetten dass Du vom Hintergrund genauso wenig Ahnung hast wie jegliche "Quelle" die aus einem zwielichtigen hint eine ganz Nouvelle dichten kann wovon meistens 2/3 absoluter Bullshit ist. Aber Du kannst stets versuchen uns ueber GK110 genauer einzuweihen damit Du auch mehr "trollposts" wie Du sie selber nennst fuer die Zukunft als Zitat haben kannst.

GK104 launch ist uebrigens in Q1 ausser "Deine" Quartale haben 2 Monate und Maerz faellt in Q2. Und um es etwas pfiffiger zu machen nichtmal Q3 fuer 110 ist sicher; les mal genau nach was ich vorher sagte.

AnarchX
2012-03-15, 14:08:19
2 Jahre Warten von Highend zu Highend...:freak::rolleyes::mad::frown:;(
Das ist bei Nvidia nicht so unüblich, nur sind dazwischen wenigstens die Preise deutlich gefallen, was diesmal nur geringfügig zu passieren scheint.

Ailuros
2012-03-15, 14:17:07
Das ist bei Nvidia nicht so unüblich, nur sind dazwischen wenigstens die Preise deutlich gefallen, was diesmal nur geringfügig zu passieren scheint.

Bei solchen Preisen ist WER genau so wahnsinning einen GK110 desktop haben zu wollen? Wenn sie einen 294mm2 performance chip um $500 verkaufen wuerde ein 550mm2 high end chip unter dieser Logik genau wieviel kosten? $800-900 oder sogar mehr?

Hades11
2012-03-15, 14:27:06
Bei solchen Preisen ist WER genau so wahnsinning einen GK110 desktop haben zu wollen? Wenn sie einen 294mm2 performance chip um $500 verkaufen wuerde ein 550mm2 high end chip unter dieser Logik genau wieviel kosten? $800-900 oder sogar mehr?
hmm auch wieder wahr. Wenn die entwicklung so weitergeht...
bis man da ein Quad-SLi mit Wakü hat hätte man sich stadtdessen auch ein kleines Auto kaufen können.

V2.0
2012-03-15, 14:48:40
Vorbehalte fuer die Leistungsaufnahme je nach Fall und nein "etwas" kleiner als Tahiti waeren Charlie's 342mm2 gewesen. 294mm2 ist eher ca. in der Mitte zwischen Tahiti und Pitcairn wie hier auch erwaehnt wurde. 20% kleiner ist in meinem Buch zumindest kein "etwas".

Sonst:

Ich will wetten dass Du vom Hintergrund genauso wenig Ahnung hast wie jegliche "Quelle" die aus einem zwielichtigen hint eine ganz Nouvelle dichten kann wovon meistens 2/3 absoluter Bullshit ist. Aber Du kannst stets versuchen uns ueber GK110 genauer einzuweihen damit Du auch mehr "trollposts" wie Du sie selber nennst fuer die Zukunft als Zitat haben kannst.

GK104 launch ist uebrigens in Q1 ausser "Deine" Quartale haben 2 Monate und Maerz faellt in Q2. Und um es etwas pfiffiger zu machen nichtmal Q3 fuer 110 ist sicher; les mal genau nach was ich vorher sagte.

Also ich dachte, dass es für die Eröffnung einer neue Rumor-Site reichen würde. ;D Charlie lag nicht besser :wink:

Bei solchen Preisen ist WER genau so wahnsinning einen GK110 desktop haben zu wollen? Wenn sie einen 294mm2 performance chip um $500 verkaufen wuerde ein 550mm2 high end chip unter dieser Logik genau wieviel kosten? $800-900 oder sogar mehr?

Ich würde mal so sagen: Kunden würde es fast mehr geben, als Karten. Und das soll kein Bash gegen NV sein.

Dural
2012-03-15, 15:10:43
Ich :biggrin:

meine 7970 ist jetzt auch weg :wink:

Mr. Lolman
2012-03-15, 15:28:48
Das ist bei Nvidia nicht so unüblich, nur sind dazwischen wenigstens die Preise deutlich gefallen, was diesmal nur geringfügig zu passieren scheint.

Hm, wenn man bedenkt, dass NV ursprünglich mal neue GraKas im 6 Monats Zyklus released hat....

y33H@
2012-03-15, 15:31:07
Was ist denn "ursprünglich"?

Mr. Lolman
2012-03-15, 15:32:48
So zu TNT-Zeiten halt... ;)

y33H@
2012-03-15, 15:34:18
Das klang eher nach "in den letzten zwei drei Jahren" :ulol:

M4xw0lf
2012-03-15, 15:44:27
"Ursprünglich" sagt doch praktisch wörtlich zum Urpsrung des 3d-Grafik Geschäfts :tongue:

Mancko
2012-03-15, 15:53:07
Hm, wenn man bedenkt, dass NV ursprünglich mal neue GraKas im 6 Monats Zyklus released hat....

Das haben sie mal gemacht um unliebsame Konkurenten loszuwerden. Das hat ja dann auch vorzüglich geklappt. 3Dfx, Cyrrus Logic, Matrox, S3 etc. sind entweder Geschichte oder irrelevant. Die konnten alle mit dem Tempo nicht mehr mithalten.

Coda
2012-03-15, 16:11:33
Das ist nicht der eigentliche Grund, sonst würden sie das gegen AMD immer noch versuchen. Es ist einfach viel schwerer geworden. Sowohl die Entwicklung ist viel aufwändiger als auch die Prozesse sind deutlich problematischer.

Mr. Lolman
2012-03-15, 16:18:39
Vielleicht würden sies eh versuchen, wenns nicht viel schwerer geworden wäre. ;)

Raff
2012-03-15, 16:20:46
Ich würde gar sagen, sie versuchen's, kriegen es aber wegen der genannten "höheren Mächte" einfach nicht auf die Kette. ;)

MfG,
Raff

Godmode
2012-03-15, 16:21:01
Vielleicht würden sies eh versuchen, wenns nicht viel schwerer geworden wäre. ;)

Möglich, die Frage ist: Wenn es jetzt schon so schlimm ist, wie wird es dann erst bei der nächsten Generation? :confused:

aufkrawall
2012-03-15, 16:30:47
Möglich, die Frage ist: Wenn es jetzt schon so schlimm ist, wie wird es dann erst bei der nächsten Generation? :confused:
Wird wahrscheinlich einfacher, wenn du mit "nächste Generation" immer noch 28nm meinst.
Da lässt sich doch offenbar noch einiges rausholen.

Godmode
2012-03-15, 16:44:43
Wird wahrscheinlich einfacher, wenn du mit "nächste Generation" immer noch 28nm meinst.
Da lässt sich doch offenbar noch einiges rausholen.

Blöd ausgedrückt von mir; meinte eigentlich die nächste Generation im nächst kleineren Fertigungsprozess.

Konami
2012-03-15, 16:49:01
Blöd ausgedrückt von mir; meinte eigentlich die nächste Generation im nächst kleineren Fertigungsprozess.
Ich geh davon aus, dass wir uns dran gewöhnen werden müssen, dass es am Anfang eines Prozesses erstmal lange keinen neuen Highend-Chip gibt. Tick-Tock quasi...

Leonidas
2012-03-15, 17:17:12
Ja. Ich denke, 28nm markiert den Beginn einer neuen Ära, wo die Fortschritte merkbar kleiner ausfallen und wo vor allem ein neue Fertigungstechnologie weit weniger einschlägt als früher noch (bis zu Performanceverdopplung). Heuter wird mit der ersten Generation einer neuen Fertigungstechnologie diese erst einmal angetestet und dann erst mit den Refresh-Karten das volle Potential erschlossen. Sollte es irgendwann mal dazu kommen, daß es gleich zwei Refresh-Generationen gibt (ab 20nm gut möglich), dann verteilen sich die 100% Performancegewinn einer neuen Fertigung dann auf drei Generationen, legt jede Generation für sich also nur 25-30% zu.

Spasstiger
2012-03-15, 17:26:02
Tick Tock trifft ja nicht zu, denn sowohl AMD als auch Nvidia verbinden den neuen 28-nm-Prozess mit großen Architekturänderungen. Beide nutzen neue Shadercores.

V2.0
2012-03-15, 17:31:53
Es ist ja auch keine AMD vs. NV Frage. Beide sind mit 28nm @ TSMC nicht gerade glücklich.

Timbaloo
2012-03-15, 17:36:56
Wieviel glücklicher wären sie mit einem reinem Shrink (bei TSMC)?

Screemer
2012-03-15, 17:40:48
wahrscheinlich ähnlich unglücklich. nvidia würde, nach meiner laienhaften schätzung, den gf110 auch in 28nm kaum unter 250-280mm² unterbringen. ähnlich groß wie gk104. würde an der verfügbarkeit auch nix ändern, denn die yields sind einfach beschissen.

AnarchX
2012-03-15, 17:42:12
Will man es Intel gleich tun, dann kommt die neue Architektur auf einem erprobtem Prozess, danach der Shrink dieser mit kleineren Optimierungen.

Also hätte es Mitte 2011 einen 40nm Kepler geben sollen. GF110 war ja eher ein Bugfixing-Stepping, die es auch bei Intel gibt.

AMD hat ähnliches mit VLIW4 und Northern-Islands getan, wenn man auch ursprünglich mit 32nm geplant hatte.

N0Thing
2012-03-15, 17:48:46
Sofern es in Zukunft weiterhin keine Alternative zu TSMC gibt, könnte man sich durch ein Tick-Tock Modell zumindest einen Teil der Probleme entledigen. Dann hat man "nur" Probleme mit dem neuen Prozess oder "nur" Probleme mit der neuen Architektur.
Fraglich ist dabei, ob man durch so ein System wirklich Vorteile gegenüber dem Konkurrenten hätte.

PCGH_Carsten
2012-03-15, 17:49:10
Ja. Ich denke, 28nm markiert den Beginn einer neuen Ära, wo die Fortschritte merkbar kleiner ausfallen und wo vor allem ein neue Fertigungstechnologie weit weniger einschlägt als früher noch (bis zu Performanceverdopplung).

Wenn man Energieverbrauch und Die-Size mit einrechnet, glaube ich nicht an diese „neue Ära“. AMD hat insbesondere mit Tahitit den Compute-Preis bezahlt, den Nvidia mit GT200 und Fermi zahlte, darum die vielleicht für einige enttäuschende Steigerung. Pitcairn zeigt, was geht: 95% der HD-6970-Performance bei deutlich weniger Stromverbrauch und ~60% der Siliziumfläche.

fizzo
2012-03-15, 17:58:48
Wenn man Energieverbrauch und Die-Size mit einrechnet, glaube ich nicht an diese „neue Ära“. AMD hat insbesondere mit Tahitit den Compute-Preis bezahlt, den Nvidia mit GT200 und Fermi zahlte, darum die vielleicht für einige enttäuschende Steigerung. Pitcairn zeigt, was geht: 95% der HD-6970-Performance bei deutlich weniger Stromverbrauch und ~60% der Siliziumfläche.

Sehe ich auch so. Speziell wenn man Barts mit Pitcain vergleicht. Bei nur 83% der Die-Fläche stieg die Leistung um ~ 42%. Flächenneutral wären das über 70%!

Mancko
2012-03-15, 18:00:45
Das ist nicht der eigentliche Grund, sonst würden sie das gegen AMD immer noch versuchen. Es ist einfach viel schwerer geworden. Sowohl die Entwicklung ist viel aufwändiger als auch die Prozesse sind deutlich problematischer.

Ich glaube einen Konkurenten wollen die ganz gern noch behalten :)

MiamiNice
2012-03-15, 18:16:20
Ich finde es unmöglich das NV dieses abgespeckte Stück Silizium als GTX680 verkaufen will. Ich würde da max. GTX 650/660 dran schreiben und damit klar machen das es sich um eine Performancekarte handelt und nicht um High End. Bin im Augenblick schon ein wenig enttäuscht.

boxleitnerb
2012-03-15, 18:18:43
Wenn die über der 7970 liegen sollte, wäre das für eine Performancekarte aber schon sehr nice. Keine Performancekarte lag 30% über dem Top Dog der alten Generation, es sei denn diese war besonders schlecht.

dildo4u
2012-03-15, 18:20:21
Ich finde es unmöglich das NV dieses abgespeckte Stück Silizium als GTX680 verkaufen will. Ich würde da max. GTX 650/660 dran schreiben und damit klar machen das es sich um eine Performancekarte handelt und nicht um High End. Bin im Augenblick schon ein wenig enttäuscht.
Warte doch erstmal die Performance ab, gerade weil man den ganzen Mist für der Profimarkt raugeschmissen hat kann man locker ne 480 bzw 580 ownen.

Blediator16
2012-03-15, 18:20:36
Wenn die über der 7970 liegen sollte, wäre das für eine Performancekarte aber schon sehr nice. Keine Performancekarte lag 30% über dem Top Dog der alten Generation, es sei denn diese war besonders schlecht.

Entweder sind beide Performance oder beide Highend.

MiamiNice
2012-03-15, 18:22:07
Wieviel Power sie hat steht auf einem anderen Blatt.
Es ist halt nicht der Kepler Vollausbau und hat damit imho kein 70,80 oder 90 am Ende verdient.

dildo4u
2012-03-15, 18:27:28
Und der i7-3820 ist auch nicht die dickste Intel CPU aber die beste zum Zocken.Breiter ist nicht unbedingt immer besser,wenn man dafür Takt einbüßt und unnütze Transistoren rumschleppt.

dargo
2012-03-15, 18:27:42
Wenn die über der 7970 liegen sollte, wäre das für eine Performancekarte aber schon sehr nice. Keine Performancekarte lag 30% über dem Top Dog der alten Generation, es sei denn diese war besonders schlecht.
Man hat früher aber auch keine 2 Jahre auf eine neue Generation gewartet. ;)

Nighthawk13
2012-03-15, 18:30:20
28nm macht technisch einen guten Eindruck(Performance/Watt). Die Namen sind doch egal, das Problem ist (Performance/$) :(

y33H@
2012-03-15, 18:32:03
Entweder sind beide Performance oder beide Highend.Tahiti und GK104 sind Performance.
Und der i7-3820 ist auch nicht die dickste Intel CPU aber die beste zum Zocken.Die beste = die schnellste? Dann auch für's Zocken den 3860X oder gleich einen 2867W ;D

Adam D.
2012-03-15, 18:32:04
Wieviel Power sie hat steht auf einem anderen Blatt.
Es ist halt nicht der Kepler Vollausbau und hat damit imho kein 70,80 oder 90 am Ende verdient.
So einfach ist das aber nicht. Da GK110 noch weit weg ist und man allem Anschein nach den Top Dog der Konkurrenz schlagen kann (oder zumindest in diese Regionen vorstößt), darf man seinen Chip doch trotzdem "oben" positionieren. Ob das Preis-Leistungs-Verhältnis dann noch stimmt, steht jedoch auf 'nem anderen Blatt.

Blediator16
2012-03-15, 18:34:56
So einfach ist das aber nicht. Da GK110 noch weit weg ist und man allem Anschein nach den Top Dog der Konkurrenz schlagen kann (oder zumindest in diese Regionen vorstößt), darf man seinen Chip doch trotzdem "oben" positionieren. Ob das Preis-Leistungs-Verhältnis dann noch stimmt, steht jedoch auf 'nem anderen Blatt.

Da aber scheinbar die Dualgpu von NV vor deren "eigentlichen Highend" kommt, heisst das eben nicht, dass sie sich ins Fäustchen lachen und die Korken knallen lassen. Wenn sie könnten würden sie. Sie sind nicht Intel.

Tahiti und GK104 sind Performance.
Die beste = die schnellste? Dann auch für's Zocken den 3860X oder gleich einen 2867W ;D

So oder so beide sind sich sehr ähnlich.

dildo4u
2012-03-15, 18:35:30
Tahiti und GK104 sind Performance.
Die beste = die schnellste? Dann auch für's Zocken den 3860X oder gleich einen 2867W ;D
Gibt noch so viele Games die nur über 2-4 Core scalen,da ist er natürlich besser da der Takt wesentlich höher ist siehe z.b eure SC2 Benches.

MiamiNice
2012-03-15, 18:39:21
Man hätte den Chip auch oben positionieren können wen man die Karte z.b. "GTX 760" genannt hätte. Die High End Endungen für einen Performancechip zu nutzen finde ich einfach unglücklich. Schlägt ehrlich gesagt bissel aufs Ego als High End Käufer :biggrin:

Blediator16
2012-03-15, 18:40:50
Man hätte den Chip auch oben positionieren können wen man die Karte z.b. "GTX 760" genannt hätte. Die High End Endungen für einen Performancechip zu nutzen finde ich einfach unglücklich. Schlägt ehrlich gesagt bissel aufs Ego als High End Käufer :biggrin:

Wer weiß vll. ist sie ja auch schon so ihre 30-40% schneller als die 7970 bei selbem Stromverbrauch, denn dann säh die Sache schon wieder anders aus.

MiamiNice
2012-03-15, 18:43:10
Wer weiß vll. ist sie ja auch schon so ihre 30-40% schneller als die 7970 bei selbem Stromverbrauch, denn dann säh die Sache schon wieder anders aus.

Nein, den es ist nicht der 110er Chip. Genau das ist ja mein Anliegen, unabhänig von der Leistung.

Soul
2012-03-15, 18:43:22
Gemäss Fud wird es schwer werden eine 680er zu bekommen. Ich bin jedenfalls sehr gespannt auf die ersten Reviews

boxleitnerb
2012-03-15, 18:44:12
Entweder sind beide Performance oder beide Highend.

Ersteres imo, zumindest beim kleinen und im Vergleich zu Tahiti abgespeckten GK104. Ich warte auf GK110.
Im Grunde reißt Nvidia hier doch nur eine normale Generation an der Trennlinie Highend/Performance auseinander und will sie als zwei Generationen bzw. als Refresh verkaufen.

y33H@
2012-03-15, 18:48:12
Gibt noch so viele Games die nur über 2-4 Core scalen,da ist er natürlich besser da der Takt wesentlich höher ist siehe z.b eure SC2 Benches.Nope, im aktuellen Parcours samt Turbo ist der 3960X klar vor dem 3820.

Blediator16
2012-03-15, 19:04:07
Angeblich noch eine Woche. Die Redaktionen sollten dann so langsam ihre Karten bekommen^^

y33H@
2012-03-15, 19:10:01
Sollten? :upara:

boxleitnerb
2012-03-15, 19:10:39
Wir sind ja nicht bei AMD wo man dann einen Tag zum Testen hat :D

derguru
2012-03-15, 19:14:49
wer ist wir? hab den smiley vergessen. :lol:

Blediator16
2012-03-15, 19:15:49
Sollten? :upara:

Ja der Fototeaser über FB oder Twitter fehlt noch :freak:

Raff
2012-03-15, 19:20:23
Was wollt ihr denn, die China-Leaker haben derartige Wünsche (und mehr) doch schon längst erfüllt. :rolleyes:

MfG,
Raff

Hades11
2012-03-15, 19:35:03
Was wollt ihr denn, die China-Leaker haben derartige Wünsche (und mehr) doch schon längst erfüllt. :rolleyes:

MfG,
Raff
also diese handvoll grüner und Roter balken erfüllt mein bedürfniss bei weitem nicht.
mehr benchmarks / games in DX9/10/11 mehr verschiedene Auflösungen , mit und Ohne Downsampling/SGSSAA genaue alayse in Bild und Video des neuen AA. Übertaktbarkeit/ untertaktbarkeit mit und Ohne Spannungsveränderungen, effizienz im SLI mit 2/3/4 Karten, Leistung mit Nvidias 3d (mit shutterbrille), Temperatur mit referenzkühler, kompatiblität zu "alten" VGA-Kühlern, genaue Betrachtung des Turbo modus, im speziellen ob er beim OC stört,...

also da fehlt noch sehr sehr vieles bis wir alles wissen. :uconf2:

OT: ich könnte diesen Grünlichen Smilys stundenlang zugucken...

Screemer
2012-03-15, 19:38:54
Was wollt ihr denn, die China-Leaker haben derartige Wünsche (und mehr) doch schon längst erfüllt. :rolleyes:

MfG,
Raff
traditionen sollte man wahren.

Blediator16
2012-03-15, 20:15:13
also diese handvoll grüner und Roter balken erfüllt mein bedürfniss bei weitem nicht.
mehr benchmarks / games in DX9/10/11 mehr verschiedene Auflösungen , mit und Ohne Downsampling/SGSSAA genaue alayse in Bild und Video des neuen AA. Übertaktbarkeit/ untertaktbarkeit mit und Ohne Spannungsveränderungen, effizienz im SLI mit 2/3/4 Karten, Leistung mit Nvidias 3d (mit shutterbrille), Temperatur mit referenzkühler, kompatiblität zu "alten" VGA-Kühlern, genaue Betrachtung des Turbo modus, im speziellen ob er beim OC stört,...

also da fehlt noch sehr sehr vieles bis wir alles wissen. :uconf2:

OT: ich könnte diesen Grünlichen Smilys stundenlang zugucken...

Da sich beide architektonisch weiterentwickelt haben, werden wir sicher auch beim Kepler BQ Vergleiche sehen. Wir wissen ja, dass auch mal ein Ausrutscher passieren kann.

aufkrawall
2012-03-15, 20:20:14
Da sich beide architektonisch weiterentwickelt haben, werden wir sicher auch beim Kepler BQ Vergleiche sehen. Wir wissen ja, dass auch mal ein Ausrutscher passieren kann.
Die BQ ist doch über Jahre hinweg konstant bei NV bzw. hat sich durch SGSSAA & DS eher gesteigert.
Was, außer LOD-Anpassung für DX11 und vielleicht sehr brauchbares PP-AA, soll denn noch kommen?
Nach anderen AA-Filtern kräht doch kein Hahn, ist mit DX11 eh tot. Ich glaube nicht, dass sie ihre Ressourcen für solche Features mit fragwürdigem Nutzen verschwenden würden.

Hugo78
2012-03-15, 20:21:01
Was wollt ihr denn, die China-Leaker haben derartige Wünsche (und mehr) doch schon längst erfüllt. :rolleyes:

MfG,
Raff

Soundfiles oder besser gleich ein Video von der Kühlung im Vergleich zu GTX 580 und GTX 560Ti. ;)

Raff
2012-03-15, 20:33:45
Nach anderen AA-Filtern kräht doch kein Hahn, ist mit DX11 eh tot. Ich glaube nicht, dass sie ihre Ressourcen für solche Features mit fragwürdigem Nutzen verschwenden würden.

Die AMD'schen Custom-Downfilter laufen auch unter DX10/11 - es braucht halt Ingame-AA zum Aufwerten.

MfG,
Raff

boxleitnerb
2012-03-15, 20:36:34
Bei deferred Renderern ist MSAA aber oft teuer und die Beruhigungsqualität ohne Späßchen wie FXAA fragwürdig, oder nicht?

aufkrawall
2012-03-15, 20:36:38
Die AMD'schen Custom-Downfilter laufen auch unter DX10/11 - es braucht halt Ingame-AA zum Aufwerten.

Nicht schlecht. :)
Dann wird aus 8x bei ED 24x?

Trotzdem wär mir gescheites PP-AA lieber. ;)

Blaire
2012-03-15, 20:37:48
Die AMD'schen Custom-Downfilter laufen auch unter DX10/11 - es braucht halt Ingame-AA zum Aufwerten.


Nur gibts oft kein vernünftiges Ingame AA unter DX10/11...und da hilft der Kram auch nicht. Downsampling ist dann wohl die einzigste Waffe mit der man sich anfreunden muss. Da gibt es sehr viele Beispiele wo ich mit dem Ingame AA in DX11 Games nicht zufrieden bin: Saints Row, BF3, AVP3,Batman AC...alles nicht optimal aus meiner Sicht.

Ailuros
2012-03-15, 21:30:55
Ich würde mal so sagen: Kunden würde es fast mehr geben, als Karten. Und das soll kein Bash gegen NV sein.

Fuer GK110 sind die supercomputer deals in der Anzahl von SKUs groesser als bisher AMD Tahitis verkauft hat.

Ja. Ich denke, 28nm markiert den Beginn einer neuen Ära, wo die Fortschritte merkbar kleiner ausfallen und wo vor allem ein neue Fertigungstechnologie weit weniger einschlägt als früher noch (bis zu Performanceverdopplung). Heuter wird mit der ersten Generation einer neuen Fertigungstechnologie diese erst einmal angetestet und dann erst mit den Refresh-Karten das volle Potential erschlossen. Sollte es irgendwann mal dazu kommen, daß es gleich zwei Refresh-Generationen gibt (ab 20nm gut möglich), dann verteilen sich die 100% Performancegewinn einer neuen Fertigung dann auf drei Generationen, legt jede Generation für sich also nur 25-30% zu.

Wenn man es jetzt noch weitertreibt und ansieht wie sich die Lebenszeiten im Konsolen-Markt fuer die hw verlaengert, duerfen sich die beiden IHVs wohl nicht wundern wenn der PC Markt irgendwann mal zur Stagnation kommt. Kein Wunder die beiden setzen ihre Wetten hauptsaechlich und zunehmend auf SoCs, aber eben voruebergehend in verschiedenen Maerkten. Langfristig wachsen die SoCs konstant zu und in der weniger vorhersehbaren Zukunft sind dann high end standalone HPC GPUs wohl die letzten Ueberlebenden.

boxleitnerb
2012-03-15, 21:35:32
Mal eine Frage, die in einem Gespräch aufgekommen ist:

Wenn GK110 ein gutes Stück flotter als GK104 sein sollte, kann der überhaupt mit GK104x2 koexistieren? Ja, das eine ist MGPU und das andere nicht, aber ist das für NV von Belang?

Angenommen:
GK104x2 = GK104 x1,8
GK110 = GK104 x 1,4-1,5

Wer würde dann noch die Dualkarte kaufen? Deutet also die Existenz von GK104x2 darauf hin, dass es GK110 überhaupt nicht geben wird für den Desktop dieses Jahr?
Andererseits muss man sich nur Intel anschauen, da überschneiden sich auch zwei Segmente (Sockel 2011, z.B. i7-3820 und Sockel 1155, z.B. i7-2700K) und es stört die nicht weiter.

AnarchX
2012-03-15, 21:53:58
GK110 könnte wohl 5-6 Monate nach dem Dual-GK104 kommen, der wohl ein rechtzeitiges Gegenangebot zum Dual-Tahiti darstellen soll.

Zergra
2012-03-15, 21:54:44
Eben wenn GK110 überhaupt noch in diesem Jahr kommt...

Hugo78
2012-03-15, 22:01:11
GK110 wird noch dieses Jahr kommen.
Die Frage ist halt nur wie schnell TSMC Kapazitäten aufbauen kann.

Ich hab mich hier die letzten Tage aber auch von Q2 verabschiedet, nachdem klar wurde wie schnell GK104 wird.
Wenn AMD nicht noch eine 7980 mit >= 1,1 GHz bringt, dann wirds wohl wirklich erst was ende Q3.
Und dann gleich als 700er.

Leonidas
2012-03-15, 22:18:30
Da Dual-GK104 deutlich früher kommt, sehe ich den Punkt nicht. Außerdem isses sowieso ein Prestigeprojekt, da geht es weniger um verkaufte Stückzahlen. Und am Ende: War denn die GTX590 so viel schneller als die GTX580?

GTX690 zu GK110 wird nochmals geringer sein, keine Frage. Aber verkaufen wird sich die GTX690 trotzdem. Weniger bei den informierten Usern - aber die will ja sowieso keiner als Kunden haben.

dildo4u
2012-03-15, 22:22:22
Dual 104 könnte deutlich weiter weg sein vom GK110,da man weniger Kompromisse beim Takt machen muss.AMD hat ja so mit dem schwächeren Chip die GTX590 überholt.

Spasstiger
2012-03-15, 22:24:17
Vielleicht ist GK110 auch nur Tesla, wenn die Stückzahlen nicht für Desktop reichen. Dafür spricht auch eine Dual-GK104-Karte.

boxleitnerb
2012-03-15, 22:34:32
Da Dual-GK104 deutlich früher kommt, sehe ich den Punkt nicht. Außerdem isses sowieso ein Prestigeprojekt, da geht es weniger um verkaufte Stückzahlen. Und am Ende: War denn die GTX590 so viel schneller als die GTX580?

GTX690 zu GK110 wird nochmals geringer sein, keine Frage. Aber verkaufen wird sich die GTX690 trotzdem. Weniger bei den informierten Usern - aber die will ja sowieso keiner als Kunden haben.

Die 590 war 55-60% flotter, wenn man sie lässt.
Nimmt man an, dass die 690 80% flotter ist als die 680 und GK110 nur 40% flotter, wäre die Dualkarte nur knapp 30% schneller als GK110. Selbst bei einem durchgehend doppelt so schnellen GK104 (und weiterhin 40% für 110) wären es nur knapp 43% Vorsprung - beides deutlich weniger als es bei der 590 der Fall war.

dildo4u
2012-03-15, 22:45:25
Die 590 war 55-60% flotter, wenn man sie lässt.

Nope.Wie gesagt GK 104 kann man voll ausfahren,die Dual Karte wird besser als die 590.

http://www.computerbase.de/artikel/grafikkarten/2011/test-19-grafikkarten/3/#abschnitt_leistung_mit_aaaf

Raff
2012-03-15, 22:55:33
Das wird dann aber wahrscheinlich auch ein 350-Watt-Assi.

MfG,
Raff

dildo4u
2012-03-15, 22:57:22
Hatte AMD mit Overdrive nicht schon deutlich mehr?

M4xw0lf
2012-03-15, 22:59:04
Das wird dann aber wahrscheinlich auch ein 350-Watt-Assi.

MfG,
Raff

Wüso? GK104 wird doch kein Schluckspecht wie Thermi 2.0 aka GF110.

Hatte AMD mit Overdrive nicht schon deutlich mehr?

Du meinst A.U.S.U.M. ^^

Raff
2012-03-15, 23:00:33
Im 450-Watt-Höllenmodus ("AUSUM"), ja. 500 Watt @ worst case. 374 Watt in Spielen bei ohrenschmeichelnden 10 Sone. (http://www.pcgameshardware.de/aid,814660/Radeon-HD-6990-im-Test-Antilles-Mit-375-Watt-zu-neuen-Benchmark-Rekorden/Grafikkarte/Test/?page=2)

Es wird interessant, ob Asus & Co. wieder einen Kriegsgott basteln – 2x GK110, hm? :naughty:

MfG,
Raff

boxleitnerb
2012-03-15, 23:00:44
Nope.Wie gesagt GK 104 kann man voll ausfahren,die Dual Karte wird besser als die 590.

http://www.computerbase.de/artikel/grafikkarten/2011/test-19-grafikkarten/3/#abschnitt_leistung_mit_aaaf

Doch. Keine Ahnung was Computerbase in deinem Link zusammengetestet hat. Da muss man sich nur ein paar Einzelergebnisse anschauen um zu merken, dass das totaler Quark ist. SLI geht nicht mit SSAA in 1680x1050 in Bulletstorm, aber in 1080p dann doch? Da hab ich dann aufgehört zu lesen.

Hier, wie es richtig aussieht, trotz altem Treiber:
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-590/4/#abschnitt_leistung_mit_aaaf

Die knapp 60% sind auch exakt das, was man aufgrund der Taktraten erwarten darf.

dildo4u
2012-03-15, 23:05:47
Doch. Schau dir den Originaltest zur 590 an. Keine Ahnung was Computerbase in deinem Link zusammengetestet hat.
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-590/4/#abschnitt_leistung_mit_aaaf
Der alte Test ist Schrott CB hat früher leider verschiedene Treiber getestet.

http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-590/13/#abschnitt_testsystem

Hier haben alle Karten den Selben.Auch ist der Treiber aktueller also was Profile usw angeht besser für die 590.
http://www.computerbase.de/artikel/grafikkarten/2011/test-19-grafikkarten/11/#abschnitt_testsystem

boxleitnerb
2012-03-15, 23:10:10
Der "Schrott" Test zeigt aber plausiblere Ergebnisse als der neue. Langsamer wirds wohl kaum geworden sein. Es sind knapp 60%.
Siehe auch hier: http://www.tweakpc.de/hardware/tests/grafikkarten/nvidia_geforce_gtx_590/s01.php
Das ist eigentlich allgemein bekannt, warum muss man da noch drüber diskutieren?

Raff
2012-03-15, 23:11:54
Die Bestfall-Skalierung lässt sich ja simpel ausrechnen. Da sind's eben mit viel gutem Willen 50-60 Prozent. Nur skaliert SLI eben fast nie zu 100 Prozent. Und subtrahiert man das übliche Gelutsche, liegt die gefühlte Leistung bei einer GTX 580 @ 30 % OC. Damit wird wohl auch ein übertakteter GK110 die bessere Wahl sein als zwei GK104 im SLY Stallone.

MfG,
Raff

boxleitnerb
2012-03-15, 23:16:29
Wir reden hier von reinen fps. 100% nicht, aber 90+, wenn die Einstellungen denn auch fordernd sind und sich nicht doch mal ein partielles CPU-Limit einschleicht.

Aber du hast insofern Recht, dass GK110 die bessere Wahl wäre. Schon allein wegen (vermutlich) mehr Speicher und der Möglichkeit, NOCH mehr Leistung zu bekommen, wenn man diesen dann wieder doppelt nimmt ;)

dildo4u
2012-03-15, 23:19:32
Ich glaub das mit dem Speicher wird lustig imo sind 4GB schon Overkill aber zumindest "vernüftiger" als 6GB.Wieder Vorteil GK104 für ne bezhalbare SLI Multimonitor Config.

aylano
2012-03-16, 00:13:05
Ja. Ich denke, 28nm markiert den Beginn einer neuen Ära, wo die Fortschritte merkbar kleiner ausfallen und wo vor allem ein neue Fertigungstechnologie weit weniger einschlägt als früher noch (bis zu Performanceverdopplung). Heuter wird mit der ersten Generation einer neuen Fertigungstechnologie diese erst einmal angetestet und dann erst mit den Refresh-Karten das volle Potential erschlossen. Sollte es irgendwann mal dazu kommen, daß es gleich zwei Refresh-Generationen gibt (ab 20nm gut möglich), dann verteilen sich die 100% Performancegewinn einer neuen Fertigung dann auf drei Generationen, legt jede Generation für sich also nur 25-30% zu.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9085084#post9085084
Das ist doch schon länger klar.

Vorallem waren die damaligen 100% Performance-Sprünge nur mit erhöhtem Stromverbrauch oder wegen Spannungssenkungen in der neuen verkleinerten Struktur möglich.

Während sich GTX480/580 deutlich an die Stromverbrauchsgrenzen bewegeten sowie mit so 1,00 Volt Spannung auch an ihre Grenzen ankamen, waren eben alte Sprünge über einen höheren Stromverbrauch oder über einer Spannungsabsenkung nicht mehr möglich.
Na ja, etwas was schon seit Jahren prädige

Die Umstiege in der Fertigung werden auch deshalb kontenuierlicher gehen, weil die Entwicklungskosten kleinerer Fertigung immer teurer werden. Diesbezüglich wäre es eigentlich wirtschaftlich schwachsinnig, wenn man Fertigungsvorteile nicht nutzen würde. Also, warum sollte man nicht eine Fertigung nutzen, wenn sie im Vergleich zum Vorgänger eine 10, 20 oder 30% bessere Performance-pro-(Watt & $) hätte und diese als Premium-Produkte bis zu Refresh verkauft.

Das was wir jetzt bei TSMC sehen, sahen wir im grunde auch bei GF. Nicht so bei Intel, die einen entsprechenden Vorteil haben und momanten quasi nach belieben einführen können.

mczak
2012-03-16, 05:50:08
6*32SPs/SM
16 TMUs/SM
2 SMs/GPC
4 GPCs
32 ROPs (4*64bit)
1GHz

Ein ziemlich merkwuerdiger layout IMHO.

Moment mal wo kommen denn die superbreiten SMs plötzlich her... Die Idee habe ich doch schon vor langem verworfen :-). Auch wenn das imho durchaus Sinn machen würde.
Wie da scheduling/dispatch der alus funktioniert ist in eine interessante Frage, jedenfalls wohl auch ein Grund weswegen die SFUs verschwinden sollten - da braucht man schon massiv issue-ports allein für die normalen alus. Abgesehen davon wenn man derart viele ALUs hat braucht man schlicht keine SFUs, selbst wenn man diese Operationen nur relativ billig in den normalen ALUs implementiert.

horn 12
2012-03-16, 07:00:51
Die 2-te verlinkte Folie bei 3dcenter künnte vielleicht gar hinkommen.
Einmal schneller als HD7970 / 1x langsamer als HD7970 oder gar Gleichstand.
Denke beide Karten werden sich nä. Donnerstag zum Release mit Launchtreibern fast nix nehmen,- und die Preise werden somit recht stabil bleiben!
Schlecht für uns Kunden,- TSMC ist vor Allem daran beteiligt dass die Ausbeute mies, sehr mies ist.

RoNsOn Xs
2012-03-16, 07:57:23
Die 2-te verlinkte Folie bei 3dcenter künnte vielleicht gar hinkommen.
Einmal schneller als HD7970 / 1x langsamer als HD7970 oder gar Gleichstand.
Denke beide Karten werden sich nä. Donnerstag zum Release mit Launchtreibern fast nix nehmen,- und die Preise werden somit recht stabil bleiben!
Schlecht für uns Kunden,- TSMC ist vor Allem daran beteiligt dass die Ausbeute mies, sehr mies ist.
tsmc ist zu verdanken, dass wir überhaupt 28nm sehen.....

PrefoX
2012-03-16, 08:12:48
tsmc ist zu verdanken, dass wir überhaupt 28nm sehen.....
ja man kann ja echt alles schön reden :D

RoNsOn Xs
2012-03-16, 08:26:14
was erwartest du? das tsmc absichtlich niedrige kapazitäten hat? die wollen ja nix verdienen, richtig.
ohne tsmc gäbe es nichts verwertbares.

Skysnake
2012-03-16, 08:41:22
Fuer GK110 sind die supercomputer deals in der Anzahl von SKUs groesser als bisher AMD Tahitis verkauft hat.

Biste dir da sicher?

Zumindest XFX war ganz zufrieden mit ihren Tahiti Verkäufen. Kann so wenig also gar nicht sein.

Wenn da wirklich mehr abgesetzt werden sollen, dann müsste Kepler aber gleich in mehrere Top10 Supercomputer rein, und das mit echt großen Stückzahlen. Haben die Chinesen da mal wieder was am Start? :ugly: Oder IBM?


Wenn man es jetzt noch weitertreibt und ansieht wie sich die Lebenszeiten im Konsolen-Markt fuer die hw verlaengert, duerfen sich die beiden IHVs wohl nicht wundern wenn der PC Markt irgendwann mal zur Stagnation kommt. Kein Wunder die beiden setzen ihre Wetten hauptsaechlich und zunehmend auf SoCs, aber eben voruebergehend in verschiedenen Maerkten. Langfristig wachsen die SoCs konstant zu und in der weniger vorhersehbaren Zukunft sind dann high end standalone HPC GPUs wohl die letzten Ueberlebenden.
Das wird sicherlich bzgl SoC so kommen, aber bei den GPUs bin ich mir nicht sicher. Der Markt ist jetzt auch nicht sooooo groß. Gut da können sich mit einigen Supercomputern schon nette Stückzahlen ergeben, aber du brauchst einfach die Stückzahlen aus dem Consumerbereich, um die Entwicklungskosten rein zu holen.

Ich vermute daher eher, dass die HPC GPUs mit den GPUs im Desktop aussterben. Da wird dann eher auf die richtig fetten APUs dann umgestiegen. Die versprechen eh eine höhere Effizienz als die GPUs.

Vielleicht ist GK110 auch nur Tesla, wenn die Stückzahlen nicht für Desktop reichen. Dafür spricht auch eine Dual-GK104-Karte.
6*32SPs/SM
16 TMUs/SM
2 SMs/GPC
4 GPCs
32 ROPs (4*64bit)
1GHz

Ein ziemlich merkwuerdiger layout IMHO.



Vor Ende Q3 nichts, egal ob man in der Zwischenzeit so manchen supercomputer mit den cores bestuecken wird.
Ja, ich finde die super breiten SMs schon als etwas strange :ugly:

Warum sollte man das machen? Dann hat man wohl am Ende 3 unterschiedliche ALU/SM Designs in einer Generation.... Da bekomm ich als Entwickler aber das kotzen....

Ich kanns mir durchaus vorstellen, aber ich hoffe es doch wirklich nicht...

AnarchX
2012-03-16, 08:46:15
http://www.abload.de/img/sdfsdf0xow.png
http://forum.beyond3d.com/showpost.php?p=1628727&postcount=2606

robbitop
2012-03-16, 08:48:11
Wenn man Energieverbrauch und Die-Size mit einrechnet, glaube ich nicht an diese „neue Ära“. AMD hat insbesondere mit Tahitit den Compute-Preis bezahlt, den Nvidia mit GT200 und Fermi zahlte, darum die vielleicht für einige enttäuschende Steigerung. Pitcairn zeigt, was geht: 95% der HD-6970-Performance bei deutlich weniger Stromverbrauch und ~60% der Siliziumfläche.

CB sieht die 7870 sogar vor der 6970. Zwischen 5- 10 % (wobei ich das Ergebnisrecycling mit alten Treibern als redaktionell schlampig einstufe... kommen ggf. unsaubere Vergleiche heraus)

http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/#abschnitt_leistung_mit_aaaf

Die AMD'schen Custom-Downfilter laufen auch unter DX10/11 - es braucht halt Ingame-AA zum Aufwerten.

MfG,
Raff
< DX10 laufen die nicht? ;(
(mein Traum ist ein Popo-glattes Mafia und MP2 - und mit Boxfilter geht das nicht)

Ronny145
2012-03-16, 08:53:30
CB sieht die 7870 sogar vor der 6970. Zwischen 5- 10 %

http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/#abschnitt_leistung_mit_aaaf


Ht4u (http://ht4u.net/reviews/2012/amd_radeon_hd_7870_pitcairn_xt_im_test/index36.php) mit +2% auch.

AnarchX
2012-03-16, 08:56:05
Das hängt wieder von der Benchmarkauswahl ab. Aber das Niveau der 6970 erreicht Pitcairn definitiv.

Fragt sich, wie sich GK106 dagegen positionieren wird. Wenn man in den Hersteller-Benchmarks von niedrigem GF110-Niveau (560 448/570) spricht, dann könnte es wohl real eher 560Ti Niveau sein, sodass es sich eher um einen Gegner zu 7850 handeln könnte.
Aber GK106 dürfte wohl auch gut 10% kleiner als Pitcairn sein.

M4xw0lf
2012-03-16, 08:59:45
http://www.abload.de/img/sdfsdf0xow.png
http://forum.beyond3d.com/showpost.php?p=1628727&postcount=2606

Sieht ziemlich echt aus. Der Inhalt dagegen....:freak:
HD7970 und GTX580 bei gleicher Performance und gleicher Leistungsaufnahme? seems legit. ;D

AnarchX
2012-03-16, 09:01:05
Hoffentlich gibt es von AMD ein Gegenpräsentation. :D

V2.0
2012-03-16, 09:02:23
Würde ja passen, wenn die 670 leicht langsamer als die 7950 ist. Dann steht diese gegen 7870 und 7950, darunter dann GK106 zwischen 7850 und 7870 und GK106 beschnitten unter 7850 aber deutlich vor 7770.

M4xw0lf
2012-03-16, 09:03:39
Hoffentlich gibt es von AMD ein Gegenpräsentation. :D

Ja die Leute habens ja auch raus eine 7870 41% vor die GTX570 zu platzieren - da sollte die HD7970 mindestens auch 40% vor GK104 landen :freak:

robbitop
2012-03-16, 09:07:37
:eek: Was sehen meine müden Augen da:

http://www.fudzilla.com/home/item/26378-nvidia-kepler-gpus-may-introduce-new-anti-aliasing-technique

http://www.techpowerup.com/img/12-03-15/168a.jpg


Wenn ich mich nicht total irre, ist das ein anderer Downsamplingfilter!!!! Falls ja: :ulove4:

M4xw0lf
2012-03-16, 09:13:48
:eek: Was sehen meine müden Augen da:

http://www.fudzilla.com/home/item/26378-nvidia-kepler-gpus-may-introduce-new-anti-aliasing-technique

http://www.techpowerup.com/img/12-03-15/168a.jpg


Wenn ich mich nicht total irre, ist das ein anderer Downsamplingfilter!!!! Falls ja: :ulove4:

Schließt du das aus dem Bild oder dem Fudzilla-Artikel?

robbitop
2012-03-16, 09:16:56
Schließt du das aus dem Bild oder dem Fudzilla-Artikel?
Ja. Die Zwischenstufen sehen auf den ersten Blick dem Tentfilter sehr ähnlich. Und ich liebe AMDs CFAA, weil ein Boxfilter irgendwann an seine Grenzen tritt und die Übergänge nicht mehr smoother hinbekommt. Egal wieviele Samples ich reindrücke. Mittels Tentfilter geht das super gut. Insbesondere bei 8x echten Samples sieht edge CFAA auf den AMDs traumhaft gut aus.
Wenn NV sowas liefern würde....das wäre fast zu gut um wahr zu sein... :D

Raff
2012-03-16, 09:17:12
FXAA sieht auf derartigen Matschbildern auch toll aus.

MfG,
Raff

M4xw0lf
2012-03-16, 09:19:45
FXAA sieht auf derartigen Matschbildern auch toll aus.

MfG,
Raff

Hast du nicht einen Kepler-Test zu schreiben? :tongue:

y33H@
2012-03-16, 09:22:53
Zockst du schon oder schreibst du noch? :ulol:

robbitop
2012-03-16, 09:24:30
FXAA sieht auf derartigen Matschbildern auch toll aus.

MfG,
Raff
Wie du all meine Träume und Hoffnungen zerstörst.... :(

PCGH_Carsten
2012-03-16, 09:30:43
CB sieht die 7870 sogar vor der 6970. Zwischen 5- 10 % (wobei ich das Ergebnisrecycling mit alten Treibern als redaktionell schlampig einstufe... kommen ggf. unsaubere Vergleiche heraus)

http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/#abschnitt_leistung_mit_aaaf

Ht4u (http://ht4u.net/reviews/2012/amd_radeon_hd_7870_pitcairn_xt_im_test/index36.php) mit +2% auch.
Das hängt wieder von der Benchmarkauswahl ab. Aber das Niveau der 6970 erreicht Pitcairn definitiv.


Das stützt mein Argument umso mehr. Danke. :)

Dural
2012-03-16, 09:53:25
Hoffentlich gibt es von AMD ein Gegenpräsentation. :D

wie soll die den ausschauen? das die GTX680 195Watt und die 7970 250Watt TDP hat ist Fakt. AMD würde ja damit werbung für NV selber machen ;)

Raff
2012-03-16, 09:59:49
Solange Powertune nicht auf +20 Prozent steht, liegt der maximale Verbrauch einer HD 7970 bei 210 Watt. NVs Marketing nutzt für die Präsentation nur aus, dass die Karte einen 8-Pol-Stecker hat. Das ist für die Praxis sooo wayne.

MfG,
Raff

Dural
2012-03-16, 10:05:51
195Watt ist aber auch die TDP, was verbraucht die GTX680 den real? ;)

boxleitnerb
2012-03-16, 10:08:16
Mit Turbo sicher nicht viel weniger. Das ist doch das Ziel - die TDP ausnutzen oder gar überschreiten?

scully1234
2012-03-16, 10:10:22
Geräuschlevel soll weniger wie 50db unter Gaminglast betragen laut PHK

http://bbs.expreview.com/thread-49894-1-1.html

M4xw0lf
2012-03-16, 10:27:42
Geräuschlevel soll weniger wie 50db unter Gaminglast betragen laut PHK

http://bbs.expreview.com/thread-49894-1-1.html

Das ist wieder eine sinnvolle Information - welcher Abstand zur Karte, im Gehäuse oder offen?

mironicus
2012-03-16, 10:29:33
Das die maximale Stromaufnahme bei 195 Watt liegt, könnte man auch negativ deuten, so dass es praktisch damit eine OC-Sperre gibt und der Chip niemals seine komplette Leistung entfallen kann.

8 Pin ist dagegen ein Zeichen für High-End. 2x6 Pin ist nur Mainstream. :D

Iruwen
2012-03-16, 10:44:39
Nee Enthusiast, steht doch auf der Folie :tongue:

mironicus
2012-03-16, 10:46:33
2x6 Pin hat auch eine 6870, und die kostet nur 140 Euro. :D

NVidia will einen kleineren Chip, der günstiger zu produzieren ist, auf einem PCB mit geringerer Stromaufnahme, der ebenfalls günstiger zu produzieren ist als z.B. ein Tahiti als Enthusiasten-Karte verkaufen... :D

boxleitnerb
2012-03-16, 10:52:23
Herrlich dieser Marketing-BS. Ich bin mal auf die Überschrift des CB-Reviews gespannt. Ich hoffe, Volker wird da einen passenden und beissenden Titel finden.

scully1234
2012-03-16, 11:01:52
Taktpotential sollte nach diesem Post 1,2 GHZ "easy" ereichen(PHK) und selbst bei 1,4GHZ noch luftgekühlt zu händeln sein

http://bbs.expreview.com/forum.php?mod=redirect&goto=findpost&ptid=49880&pid=392116

Peter Gräber
2012-03-16, 11:07:41
Geräuschlevel soll weniger wie 50db unter Gaminglast betragen laut PHK

http://bbs.expreview.com/thread-49894-1-1.html

Das würde nach den dort gezeigten Messwerten dem Idle-Wert einer 7970 Referenzkarte entsprechen o_O. Also soll eine GTX 680 mit Radial-Lüfter unter Last gleich laut sein wie eine 7970 - das mag ich doch sehr bezweifeln.

derguru
2012-03-16, 11:11:06
wann ist der shit vorbei,22 oder 23.03.?http://bbs.expreview.com/static/image/smiley/funnyguy/21.gif

Soul
2012-03-16, 11:12:48
Im Internet kursiert überall der 22.3. als Termin.

Die GK die mal für 800-900MHz vorgesehen war und auf 1GHz gepusht wurde um XT zu schlagen soll jetzt so locker flockig mit Luft 1.2-14GHz schaffen und das mit 2*6 Anschlüsse? Bin gespannt was am 1. April so gepostet wird.

aufkrawall
2012-03-16, 11:18:49
Wenn NV sowas liefern würde....das wäre fast zu gut um wahr zu sein... :D
Die Liste der aktuellen Titel, bei denen das etwas bringen würde, wäre nicht sehr lang. :(

scully1234
2012-03-16, 11:25:32
.

Die GK die mal für 800-900MHz vorgesehen war und auf 1GHz gepusht wurde um XT zu schlagen soll jetzt so locker flockig mit Luft 1.2-14GHz schaffen und das mit 2*6 Anschlüsse? Bin gespannt was am 1. April so gepostet wird.

Wer sagt das sie "gepusht" wurde?

Ailuros redete schon lange von um die 900MHz Kerntakt für den GK104

Soweit bekannt kommt der Chip auch im A2 Stepping

Ob das ne große Anstrengung war die 1GHZ zu erreichen,und wieviel Taktpotential der Chip hat,muss sich ja erst noch zeigen.

2x6 Pin sind auch im Stande mehr wie 225Watt zu liefern,falls es darauf ankommen würde bei solchen OC Manövern

mironicus
2012-03-16, 11:40:07
Wann kommt NVidia denn mit 200-300 Euro teuren Karten auf dem Markt? Nächste Woche kommen die 7850 und 7870 und in dem Preisbereich wird doch wohl am meisten gekauft.

Duke Nukem
2012-03-16, 11:47:56
Wies aussieht kann NV dank der schlechten chip ausbeute die sicher teure 680 nur in sehr kleinen Stückzahlen liefern. Wies dann mit den kleineren billigeren Karten aussieht kann man sich denken. Von den 7800 er AMDs ist auch noch nichts zu sehen.

mironicus
2012-03-16, 11:49:22
Die 7800er sollen ab Montag breit verfügbar sein, mit Customdesigns ohne Ende.

Gunslinger
2012-03-16, 11:59:01
Wenn Nvidia den GK104 als Enthusiast GPU anpreist, gibt es dann überhaupt noch einen logischen Platz im Consumer Portfolio für GK110 in absehbarer Zeit?

MuLuNGuS
2012-03-16, 12:02:14
hmm,

von meiner GTX260 auf die GTX680 umzusteigen kickt sicherlich gut arsch, aber >500€ ist mir zuviel.

meine teuerste karte mit 440€ war die 6800gt, und das finde ich schon heftig.

ab um die 400€ bin ich dabei, vorher nicht.

will sagen: runter mit den hosen...errmm...preisen :)

V2.0
2012-03-16, 12:03:31
Nimmst Du ne 7870 und freust Dich..

Nighthawk13
2012-03-16, 12:05:00
Ja, ich finde die super breiten SMs schon als etwas strange :ugly:

Warum sollte man das machen? Dann hat man wohl am Ende 3 unterschiedliche ALU/SM Designs in einer Generation.... Da bekomm ich als Entwickler aber das kotzen....

Warum?
Weniger, fette SMs sind doch ein Vorteil für Compute: Mehr Threads können gemeinsam auf einem shared Memory-Bereich rumackern und mittels Barrier synchronisiert werden.
Hoffentlich drehen sie dann auch die SharedMem/L1-Cache Grösse hoch(64->128KB?).

Odal
2012-03-16, 12:10:42
Nimmst Du ne 7870 und freust Dich..

7870 für um die 400€ ist auch viel zu teuer

gebrauchte GTX570 gibts für weniger als die hälfte und neue GTX580 für 340€

MartinB
2012-03-16, 12:11:43
Nimmst Du ne 7870 und freust Dich..

Wenn Amd gescheites 3d hinbekommen würde, wäre das ja alles kein Problem ;)

dildo4u
2012-03-16, 12:14:50
Die 7870 wird bei 330-350€ landen da wo die 580 jetzt steht.Nur das sie halt die Hälfte an Strom braucht,dann kommt 7950 400€ und 7970 450€.

Thunder99
2012-03-16, 12:27:25
Wenn Nvidia den GK104 als Enthusiast GPU anpreist, gibt es dann überhaupt noch einen logischen Platz im Consumer Portfolio für GK110 in absehbarer Zeit?
GK 110 wird GTX7xx Serie?! ;)

robbitop
2012-03-16, 12:51:32
Die Liste der aktuellen Titel, bei denen das etwas bringen würde, wäre nicht sehr lang. :(
Wuzz? Überall wo MSAA / SSAA geht, würde das gehen. Und das sind nicht wenige Spiele (und ich spiele auch nicht immer nur das allerneuste...auch Spiele aus den letzten 2-3 Jahren oder gar 10 Jahren). Da kommt schon einiges zusammen. Die Kompatibilitätsbits helfen IMO sehr häufig.

G3cko
2012-03-16, 12:54:37
Die 6870 dümpelt seit einem Jahr auf dem gleichen Preis rum und ist trotzdem P/L-technisch mit abstand die beste Karte. Solange sich hier nichts tut sind alle Karten deutlich zu teuer.

Raff
2012-03-16, 12:56:16
"Deutlich" ist übertrieben. Die HD 6870 ist vorwiegend eine günstige Fps-Schleuder. AF-Qualität, Tessellation und Tuningpotenzial sind mau.

MfG,
Raff

aufkrawall
2012-03-16, 13:03:58
Wuzz? Überall wo MSAA / SSAA geht, würde das gehen.

Wie Blaire schon sagte: Bei DX10/11 bringt das trotzdem nicht viel, weil das in-game AA so schlecht greift (vom Unigine Tessmark mal abgesehen).
Bei vielen neuen DX9-Spielen geht erzwungenes AA auch nicht ohne Grafikfehler.

Wenn FXAA 4.0 in Bewegung etwa so gut glättet wie 4xMSAA und auch Texturen und Shader etwas beruhigt, könnte man mit zusätzlich 2xDS eine top Glättung erreichen, die wie bei besseren Filtern jedes Kantenflimmern gleich gut beseitigt.


Und das sind nicht wenige Spiele (und ich spiele auch nicht immer nur das allerneuste...auch Spiele aus den letzten 2-3 Jahren oder gar 10 Jahren). Da kommt schon einiges zusammen. Die Kompatibilitätsbits helfen IMO sehr häufig.
Ja, aber die meisten dieser Anwendungen sehen auch mit SGSSAA boxed sehr gut aus.
Bei spätestens 8 Samples und etwas Augenabstand fällt das nicht mehr auf.

Duke Nukem
2012-03-16, 13:21:57
Erste 680 der Preis auweia.:confused:
http://www.factoryprices.nl/product_info_new.php?products_id=111ZTC-ZT-60101-10P

Timbaloo
2012-03-16, 13:31:43
Schnäppchen :freak:

Was ich mir die Tage mal überlegt habe: Wäre es möglich, dass NV eine GTX670(ti) auf Basis des vollen GK104 anbietet, den aber mit weniger Takt bzw. "Turbo"? Also die wahrscheinlich ursprüngliche(re) Konfiguration des GK104? Oder ist das Wunschdenken?

Duplex
2012-03-16, 13:37:08
Was ich mir die Tage mal überlegt habe: Wäre es möglich, dass NV eine GTX670(ti) auf Basis des vollen GK104 anbietet, den aber mit weniger Takt bzw. "Turbo"? Also die wahrscheinlich ursprüngliche(re) Konfiguration des GK104? Oder ist das Wunschdenken?
Man wird bestimmt auch wieder einheiten deaktivieren, sonst kauft keiner mehr die GTX680 und greift zum kleineren Modell und übertaktet das selber.

V2.0
2012-03-16, 13:38:06
Zielfrequenz war ~1GHz. Die frühen Samples mit 800mhz waren eben genau das - frühe Samples.

dildo4u
2012-03-16, 13:40:30
Die Zielfrequenz war immer so hoch siehe Pitcairn ist halt ein Midrange Chip.Da wurde nix extra gepusht um die 7970 zu bügeln.

AnarchX
2012-03-16, 13:53:57
Fragt sich nur was man ursprünglich verbauen wollte, GF114 war wohl auch auf >900MHz ausgelegt, aber in der Referenz-Version hat man sich 820MHz beschränkt.

Aber da Tahiti schwächelt, nutzt man eben in der Referenz-Version das volle Potential aus. Würde man Tahiti nicht schlagen können, dann gäbe es auch keine "GTX 680".

Duplex
2012-03-16, 13:59:08
Nvidia hat vor Tahiti Launch mit sicherheit damit gerechnet das die 7970 locker den Vorgänger um 80% schlägt, nachdem das von AMD nicht erreicht wurde hat man schnell GK104 mit weitaus höhere Taktraten getaktet damit man Tahiti XT ohne Probleme schlagen kann, wenn das tatsächlich durch ein 300mm² Chip, 256 Bit SI & 2GB erreicht wird, dann hat die Katze gute Arbeit geleistet & geht als Gewinner der Runde.

Wenn man das OC Potential der 7970 betrachtet, dann könnte AMD eig. ohne Probleme auf jeder Karte den Chip mit 1,1Ghz takten, die Frage ist ob sich das noch lohnt? Takt Update als 7975 vermarkten?...

Timbaloo
2012-03-16, 14:05:41
Würde AMD die 1.1GHz bei Standardspannung hinbekommen? Ich glaube AMD würde gut daran tun, sich kein Thermhiti-Image aufzubauen.

AnarchX
2012-03-16, 14:07:35
Die aktuellen >1GHz Tahiti legen wohl schon eine gute Schippe Lastverbrauch drauf.

Thunder99
2012-03-16, 14:09:10
Würde AMD die 1.1GHz bei Standardspannung hinbekommen? Ich glaube AMD würde gut daran tun, sich kein Thermhiti-Image aufzubauen.
Wenn die Streuung, aka Bining Yields, net so groß wäre mit Sicherheit ;)

Andererseits, AMD muss nicht unbedingt was machen, da ihre GPU anscheinend nur knapp hinter dem Top-Modell von nvidia liegt und nicht wie damals ein gutes Stück darunter ;)

Duplex
2012-03-16, 14:12:37
Aber wenn es die TDP zulässt, warum soll man dann keinen neuen Chip rausbringen?

dildo4u
2012-03-16, 14:17:11
Gibt doch schon genug OC Karten und wie schon gesagt vermutlich liegen die Karten eh viel näher zusammen als bei der 580 vs 6970.

Hugo
2012-03-16, 14:21:16
Nvidia hat vor Tahiti Launch mit sicherheit damit gerechnet das die 7970 locker den Vorgänger um 80% schlägt, nachdem das von AMD nicht erreicht wurde hat man schnell GK104 mit weitaus höhere Taktraten getaktet damit man Tahiti XT ohne Probleme schlagen kann, wenn das tatsächlich durch ein 300mm² Chip, 256 Bit SI & 2GB erreicht wird, dann hat die Katze gute Arbeit geleistet & geht als Gewinner der Runde.

Wenn man das OC Potential der 7970 betrachtet, dann könnte AMD eig. ohne Probleme auf jeder Karte den Chip mit 1,1Ghz takten, die Frage ist ob sich das noch lohnt? Takt Update als 7975 vermarkten?...


das glaub ich auf keinen Fall. NVs Ziel soll doch um die 1GHz gelegen haben.
Man baut keinen Chip den man dann einfach mal so um 200 -300 MHz hochjagt.

Ich denk auch der Name GTX680 war nicht so geplant aber aus Marketingsicht wird NV nix übrig bleiben.
Alle Noops würden sonst denken "GTX660 die is bestimmt langsamer als 79xx..."
Da wird sich NV gedacht haben wir müssen beim Namensspiel was tun um das zu vermeiden.
Den Spezis, die bescheit wissen, is es sowieso egal wie die Karte heißt :biggrin:

Iruwen
2012-03-16, 14:27:51
Andererseits, AMD muss nicht unbedingt was machen, da ihre GPU anscheinend nur knapp hinter dem Top-Modell von nvidia liegt und nicht wie damals ein gutes Stück darunter ;)

Auch nur weil GK110 (noch) nicht kommt und Nvidia mal eben den Performancevertreter als High-End deklariert hat. Wobei man wenn GTX 680 und HD 7970 bei Leistung, realem Stromverbrauch, Preis und Chipgröße nah beieinander liegen wohl nicht davon sprechen kann dass Nvidia AMD in irgendeiner Form deutlich voraus wäre.

Skysnake
2012-03-16, 15:15:03
Warum?
Weniger, fette SMs sind doch ein Vorteil für Compute: Mehr Threads können gemeinsam auf einem shared Memory-Bereich rumackern und mittels Barrier synchronisiert werden.
Hoffentlich drehen sie dann auch die SharedMem/L1-Cache Grösse hoch(64->128KB?).
Genau da liegt aber der Hund begraben...

Du wirst keine riesen Caches sehen. Das ist viel zu aufwendig. Die Caches sind nicht ohne Grund so überschaubar, und dann sollen da auch noch viel mehr Einheiten drauf zu greifen...

Schaffe89
2012-03-16, 15:19:21
Nach den geleakten Benchmarks sieht es für die GTX680 aber nicht sehr gut gegen die HD 7970 aus. ( Nvidias Benchmarks mal ausgenommen)

Wenn man sich die bunten Farben anguckt, liegt man im Mittel grade mal ca 20% über der GTX580, allerdings könnte es ja auch die GTX 670 sein.

Raff
2012-03-16, 15:23:33
Und wo liegt die HD 7970 gegenüber der GTX 580?

MfG,
Raff

X.Perry_Mental
2012-03-16, 15:25:15
Heise schreibt: GeForce GTX 680: Vier Monitore und bessere Kantenglättung (http://www.heise.de/newsticker/meldung/GeForce-GTX-680-Vier-Monitore-und-bessere-Kantenglaettung-1473840.html)

AnarchX
2012-03-16, 15:25:15
Review!?

http://www.hkepc.com/7672/page/6#view

... tatsächlich vollständig inklusive Specs und Folien. :D

Ronin2k
2012-03-16, 15:25:21
Nach den geleakten Benchmarks sieht es für die GTX680 aber nicht sehr gut gegen die HD 7970 aus. ( Nvidias Benchmarks mal ausgenommen)

Wenn man sich die bunten Farben anguckt, liegt man im Mittel grade mal ca 20% über der GTX580, allerdings könnte es ja auch die GTX 670 sein.

Hab ich was verpasst, leaked Benchmarks wo :smile: ?

Timbaloo
2012-03-16, 15:27:47
Review!?

http://www.hkepc.com/7672/page/6#view
Na klar, jeder macht GraKa-Reviews mit der CPU auf Trockeneis :D

AnarchX
2012-03-16, 15:28:10
Na klar, jeder macht GraKa-Reviews mit der CPU auf Trockeneis :D

Alle Seiten anschauen.

dildo4u
2012-03-16, 15:28:30
Ich sichere mal.

http://www.abload.de/img/16185031311762211496euc7k.png

http://www.abload.de/img/16185032322097060578yqcce.png

http://www.abload.de/img/1618503636863221510rdfh5.png

http://www.abload.de/img/16185034341892959696toeb4.png

http://www.abload.de/img/1618503333679014676wiivi.png

http://www.abload.de/thumb/1618503939319893039hjirx.png (http://www.abload.de/image.php?img=1618503939319893039hjirx.png) http://www.abload.de/thumb/161850373750542926496c5s.png (http://www.abload.de/image.php?img=161850373750542926496c5s.png) http://www.abload.de/thumb/1618503636863221510rdfh5.png (http://www.abload.de/image.php?img=1618503636863221510rdfh5.png) http://www.abload.de/thumb/161850353520735303463zdz9.png (http://www.abload.de/image.php?img=161850353520735303463zdz9.png) http://www.abload.de/thumb/16185034341892959696toeb4.png (http://www.abload.de/image.php?img=16185034341892959696toeb4.png) http://www.abload.de/thumb/1618503333679014676wiivi.png (http://www.abload.de/image.php?img=1618503333679014676wiivi.png) http://www.abload.de/thumb/16185032322097060578yqcce.png (http://www.abload.de/image.php?img=16185032322097060578yqcce.png)

Iruwen
2012-03-16, 15:30:10
http://www.hkepc.com/7672/page/4#view

FXAA im Treiber, im Text steht was von TXAA?

Timbaloo
2012-03-16, 15:32:05
Alle Seiten anschauen.
Oops

Ronny145
2012-03-16, 15:33:28
Heise schreibt: GeForce GTX 680: Vier Monitore und bessere Kantenglättung (http://www.heise.de/newsticker/meldung/GeForce-GTX-680-Vier-Monitore-und-bessere-Kantenglaettung-1473840.html)

Den interessanten Teil rauskopiert:

Auch bezüglich der Bildqualität soll sich bei den neuen Nvidia-Karten etwas tun: Angeblich bringen sie einen neuen Kantenglättungsmodus namens TXAA, der bei gleicher Bildqualität schneller sein soll als reines Multisampling-Antialiasing (MSAA). Dazu konnten wir allerdings noch keine detaillierten Informationen in Erfahrung bringen. Höchstwahrscheinlich ist TXAA eine Kombination von FXAA mit einem vergleichsweise geringen Anteil an MSAA-Samples.


Das hört sich nach einer neuen FXAA Lösung an. Ähnlich wie SMAA, das mit 2x und 4x jeweils 2x/4xMSAA verwendet. Das muss allerdings vom Spiel unterstützt werden, fraglich ob der Modus über den Treiber appliziert werden kann.

Review!?

http://www.hkepc.com/7672/page/6#view

... tatsächlich vollständig inklusive Specs und Folien. :D


Na das sieht doch ordentlich aus. Die HD7970 wäre relativ deutlich hinten, ja sieht wirklich nicht gut aus für die GTX 680 ;D

Raff
2012-03-16, 15:33:37
Heise schreibt: GeForce GTX 680: Vier Monitore und bessere Kantenglättung (http://www.heise.de/newsticker/meldung/GeForce-GTX-680-Vier-Monitore-und-bessere-Kantenglaettung-1473840.html)

Heise schreibt "Wir haben zum Launch keinen Test."

MfG,
Raff

Dural
2012-03-16, 15:33:50
Review!?

http://www.hkepc.com/7672/page/6#view

... tatsächlich vollständig inklusive Specs und Folien. :D


3D Mark :eek:

derguru
2012-03-16, 15:34:33
ist der x-wert vom 3d mark11 für die 7970 nicht zu gering? lp2 ,bf3 und heaven sind keine überraschung ehrlich gesagt.

M4xw0lf
2012-03-16, 15:35:14
Die-Size 318,689 mm² ;)

AnarchX
2012-03-16, 15:36:53
Gemessen, aber ohne die Verpackung und etwas Verschnitt könnten die 294mm² wohl stimmen.

Der Boost soll wohl bis 1110MHz gehen, wohl in ausgewählten Titeln wie Heaven 3.0 oder Battlefield 3. :D

y33H@
2012-03-16, 15:36:54
Bah, elende Leaker! Wie soll bzw 8x MSAA in BF3 laufen? Das geht out of the Box nicht :usad:

Iruwen
2012-03-16, 15:37:17
Ich krieg Seite 3 mit den Boost Slides nicht mehr geladen :(

dildo4u
2012-03-16, 15:38:18
ist der x-wert vom 3d mark11 für die 7970 nicht zu gering? lp2 ,bf3 und heaven sind keine überraschung ehrlich gesagt.
Bei Computerbase sind's 2700 stat 2660 nich der Rede Wert.

Timbaloo
2012-03-16, 15:38:39
Eine der Phasen ist nicht bestückt (Seite 5, Mitte).

HarryHirsch
2012-03-16, 15:39:38
Die-Size 318,689 mm² ;)

:confused:

ich lese da was von 294 mm²

AwesomeSauce
2012-03-16, 15:40:34
http://www.abload.de/thumb/162145333351768269vpz22.jpg (http://www.abload.de/image.php?img=162145333351768269vpz22.jpg) http://www.abload.de/thumb/16184849291027403399k8lxd.jpg (http://www.abload.de/image.php?img=16184849291027403399k8lxd.jpg) http://www.abload.de/thumb/1621472747822130373xlaxj.jpg (http://www.abload.de/image.php?img=1621472747822130373xlaxj.jpg) http://www.abload.de/thumb/1621472848108003826vgaam.jpg (http://www.abload.de/image.php?img=1621472848108003826vgaam.jpg) http://www.abload.de/thumb/gkcomplubop.png (http://www.abload.de/image.php?img=gkcomplubop.png) http://www.abload.de/thumb/1618485030222408178fdlne.jpg (http://www.abload.de/image.php?img=1618485030222408178fdlne.jpg) http://www.abload.de/thumb/1618485636161069146qwxxj.jpg (http://www.abload.de/image.php?img=1618485636161069146qwxxj.jpg) http://www.abload.de/thumb/1618485737228405334lvy4d.jpg (http://www.abload.de/image.php?img=1618485737228405334lvy4d.jpg) http://www.abload.de/thumb/161849014124885118583z4o.jpg (http://www.abload.de/image.php?img=161849014124885118583z4o.jpg) http://www.abload.de/thumb/16184902421094941267rdyf8.jpg (http://www.abload.de/image.php?img=16184902421094941267rdyf8.jpg) http://www.abload.de/thumb/16184903432594596835zyih.jpg (http://www.abload.de/image.php?img=16184903432594596835zyih.jpg) http://www.abload.de/thumb/1618490747196043769205xf5.jpg (http://www.abload.de/image.php?img=1618490747196043769205xf5.jpg) http://www.abload.de/thumb/16184912522048248859dzyq8.jpg (http://www.abload.de/image.php?img=16184912522048248859dzyq8.jpg)http://www.abload.de/thumb/16184856361633065601fddyo.jpg (http://www.abload.de/image.php?img=16184856361633065601fddyo.jpg)

Ronny145
2012-03-16, 15:40:44
Die-Size 318,689 mm² ;)


In der Tabelle stehen 294 m². Im Control Panel ist FXAA zu sehen, also das ist definitiv dabei. Noch was zum TXAA:


TXAA temporarily can be divided into two levels: TXAA 1 and TXAA, the former costs only 2x the MSAA similar, but the MSAA is better than the 8x anti-aliasing; As for TXAA 2 effect is more outstanding, but the cost only similar with 4x MSAA. TXAA game itself support to be open to use, support TXAA variety of games will be held during the year stage, although present, failed to test its real performance, but based on the NVIDIA official photos can be seen, antialiasing does, it is worth looking forward to.

Die Lösung hört sich wirklich nach SMAA 1x und 2x an. PP-AA kombiniert mit MSAA.

M4xw0lf
2012-03-16, 15:41:46
:confused:

ich lese da was von 294 mm²

Ja, aber ihre gemessene Länge und Breite ergeben 318.

Und der Text zum GPU Boost klingt sehr stark nach Powertune - nur dass es umgekehrt funktioniert, also hoch- statt runtertaktet.

Timbaloo
2012-03-16, 15:42:00
Danke fürs Backup AwesomeSauce :up:

AwesomeSauce
2012-03-16, 15:43:02
Danke fürs Backup AwesomeSauce :up:
Programmieren Vorlesung kann warten :D

Raff
2012-03-16, 15:43:22
Bah, elende Leaker! Wie soll bzw 8x MSAA in BF3 laufen? Das geht out of the Box nicht :usad:

Immer dieselbe Scheiße. Chinesen scheinen nicht nur ein anderes Neujahr zu haben, sondern eine völlig andere Zeitrechnung.

MfG,
Raff

Timbaloo
2012-03-16, 15:44:34
Programmieren Vorlesung kann warten :D
Das bring ich dir so bei :D

edit: Hab ich nen Knick in der Optik oder ist der Lüfter wieder geschrumpft?

Ronny145
2012-03-16, 15:44:53
Ja, aber ihre gemessene Länge und Breite ergeben 318.




Das ergibt meist immer mehr auf dem package manuell gemessen. Herstellerwerte liegen drunter. Ich nehme mal an das sind Die Größen vom Wafer. 294 mm² sollte die korrekte Zahl sein.

derguru
2012-03-16, 15:45:43
Bei Computerbase sind's 2700 stat 2660 nich der Rede Wert.
muss ich mal nach benchen,im defaulttakt habe ich es noch nie gemacht.:biggrin:

Soul
2012-03-16, 15:45:58
EVGA Tool

mfi
2012-03-16, 15:46:20
Heise schreibt "Wir haben zum Launch keinen Test."

MfG,
Raff

Ist nur deine Wunschvorstellung.

Distroia
2012-03-16, 15:46:28
Ich frage mich, warum überhaupt noch Test-Samples nach China verschickt werden. Oder haben die andere Quellen für ihre Karten?

Iruwen
2012-03-16, 15:49:06
Der Kühler sieht eher billig aus oder?

y33H@
2012-03-16, 15:49:14
Die Karten kommen aus China ;-)

Dural
2012-03-16, 15:50:00
sehe ich das richtig? 256Bit mit 768KB L2 cache :)

HarryHirsch
2012-03-16, 15:50:17
Die Karten kommen aus China ;-)

@ mfi

Ohne ED-Besuch und Partner-Karten? Was ein Theater ... als "ehrlicher" Reviewer ist man echt nur der Depp ;(

ihr kommt auch so auf eure klicks. ;)

boxleitnerb
2012-03-16, 15:52:54
Kein würdiger 580 Nachfolger imo. Aber das war ja bekannt.

dildo4u
2012-03-16, 15:54:47
Kein würdiger 580 Nachfolger imo. Aber das war ja bekannt.
Auflösung zu niedrig bei den Games?3D Mark 2011 extreme scalt imo so wie es soll,Punktlandung auf der GTX590.

http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/16/#abschnitt_3dmark_11


http://www.abload.de/img/16185031311762211496euc7k.png

y33H@
2012-03-16, 15:54:56
Ihr kommt auch so auf eure Klicks.Darum geht es mir nicht. Unsere Arbeit, die Benches und das Zusammenfassen inklusive dem Erstellen eines aufwendigen Artikels - all das wird massiv entwertet. Oder wenn man so will: Es ist gefühlt für den Ar***. Die Infos sind doch eh schon da - an sich müsste man einfach eine Meldung mit allen Leaks machen, "Test" in die Headline schreiben und gut ist :mad:

AnarchX
2012-03-16, 15:57:26
Im letzten Abschnitt des Fazits wird von einer erwarteten AMD Reaktion und einer $200 Preissenkung gesprochen:

在種種有利條件下,預期售價在US$549 的GeForce GTX 680 將為Radeon HD 7000 系列帶來龐大壓力,新一代高階繪圖卡減價戰一觸即發,預期AMD 將會迅速作出反應,並把Radeon HD 7900 系列減價$200 以上,再一次以售價來與NVIDIA 抗衡。

Google Translator:
Enormous pressure in these favorable conditions, the expected price of U.S. $ 549 the GeForce GTX 680 for the Radeon HD 7000 series, a new generation of high-end graphics card price war imminent, it is expected that AMD will respond quickly, and the Radeon HD 7900more than $ 200 reduction of the series, again to use price to compete with NVIDIA.

Microsoft Translator:
Enormous pressure in these favorable conditions, the expected price of U.S. $ 549 the GeForce GTX 680 for the Radeon HD 7000 series, a new generation of high-end graphics card price war imminent, it is expected that AMD will respond quickly, and the Radeon HD 7900more than $ 200 reduction of the series, again to use price to compete with NVIDIA.

Dural
2012-03-16, 15:59:04
hat ich wieder den richtigen richer, meine 7970 ist seit dieser woche weg ;D

mironicus
2012-03-16, 15:59:10
$200 Preissenkung

Nur zu! Möge der Preiskrieg beginnen! :D
Neue Preisempfehlung:

7950 - 279 Euro.
7970 - 349 Euro.

boxleitnerb
2012-03-16, 15:59:15
@dildo:
Meinst? Also die fps sind imo zu niedrig für ein CPU-Limit. Ich schätze, da ist noch Treiberarbeit nötig. 50% schneller als die 580 sind für einen Performancechip aber extremst beeindruckend, wenn man sich überlegt, wo Nvidia da herkommt.

Ronny145
2012-03-16, 15:59:20
Im letzten Abschnitt wird von einer erwarteten AMD Reaktion und einer $200 Preissenkung gesprochen.


Wenn sich die Leistungseinordnung des Leaks so bestätigt, muss AMD reagieren. $200 wären ziemlich heftig.

derguru
2012-03-16, 16:00:10
Im letzten Abschnitt wird von einer erwarteten AMD Reaktion und einer $200 Preissenkung gesprochen.
200$?das kann aber nur so kommen wenn nv die gtx680 für 350€ hier anbietet und wer glaubt daran?

Thunder99
2012-03-16, 16:00:33
Darum geht es mir nicht. Unsere Arbeit, die Benches und das Zusammenfassen inklusive dem Erstellen eines aufwendigen Artikels - all das wird massiv entwertet. Oder wenn man so will: Es ist gefühlt für den Ar***. Die Infos sind doch eh schon da - an sich müsste man einfach eine Meldung mit allen Leaks machen, "Test" in die Headline schreiben und gut ist :mad:
Ihr könnte da (leider) wenig dagegen machen außer nvidia auf die Schuhe klopfen, dass die diese Leaks/Lecks unterbinden

Sonst sieht so aus, als ob nvidia das Spielchen weiter treibt. Pro "neue" Generation ~25%

M4xw0lf
2012-03-16, 16:00:49
Im letzten Abschnitt des Fazits wird von einer erwarteten AMD Reaktion und einer $200 Preissenkung gesprochen:

Kommt mir eher spekulativ vor, so wie der ganze Artikel mir recht biased erscheint.
Ich meine wenn die GTX680 mit vergleichbarer Performance und vergleichbarem Preis kommt - was genau ist AMDs Beweggrund den Preis um 200 Scheinchen abzuschießen?