PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 [30] 31

Raff
2012-03-20, 22:05:42
4 GiB mit 7 Gbps werden gewiss suuuuupergünstig. X-D 17 Prozent mehr Bandbreite, hm.

MfG,
Raff

y33H@
2012-03-20, 22:07:26
Ich beschäftige mich auch schon sehr lange damit. Habe euer Heft seit der zweiten Ausgabe, die 1. habe ich verpasstOh, schade.
edit: sitzt ihr eh noch fleißig in der Redaktion?Heute nicht ... eher morgen :freak: zumal eh Heftabgabe ist.

dildo4u
2012-03-20, 22:08:17
Ich hab geschrieben der Speed ist interresanter als die 4GB.Also 2GB mit 7Ghz und wozu entwickeln wenn man es dann nicht einsetzt?

aufkrawall
2012-03-20, 22:08:27
egal ob Crysis2 oder Skyrim bei 3840x2160 4xSGSSAA in Skyrim das haben die Dinger locker gepackt. Ich muss nicht irgendwelche Mods installieren um zeigen zu können, hier schaut der VRAM ist dicht. :tongue: Es gibt auch für 1,5GB Karten genug Möglichkeiten die GPUs weit vorher in die Knie zu zwingen, da brauchts nichtmal irgendwelche Mods dazu. ;)
Texturmods brauchen aber kaum GPU-Rechenleistung, sondern nur VRAM.
Maldo HD konnte ich bei 1,3 MP nicht mehr ohne Stocker (keine großen, aber trotzdem störende) spielen, bei Skyrim ist es genau so.

Wenns zeitnah ne 4 GB Version gibt, nehm ich die.

Raff
2012-03-20, 22:13:37
Ich hab geschrieben der Speed ist interresanter als die 4GB.Also 2GB mit 7Ghz und wozu entwickeln wenn man es dann nicht einsetzt?

Auf HD-7900-Karten erreicht übrigens "jeder" 6-Gbps-RAM 3.500 MHz, wenn man ihn overvoltet.

MfG,
Raff

dildo4u
2012-03-20, 22:14:49
Was soll eigentlich die Bauernfängerei?

http://i.minus.com/iboulHP5Igh33K.png

Aber laut Text sind's Experts da muss es ja stimmen.

M4xw0lf
2012-03-20, 22:16:22
@horn12: Die 15% waren der Plan, aber nachdem wir den Frontend-Bug bei Tahiti entedeckt haben sind wahrscheinlich 40%+ drinnen. Das krasse dabei ist, dass dadurch der Teil-Leerlauf behoben wurde und der Verbauch um mehr als 20% sinkt!

Das Update besiegt auch den Hunger und bringt den Weltfrieden, hab ich gehört :freak:

Knuddelbearli
2012-03-20, 22:25:07
Ich kann dir problemlos 5 Fälle kreieren, wo 2 GiByte (und erst recht 1,5) am Sack sind. Selektion, Fall-Konstruktion. Dann wird's aber dünn. Und das sind dann Einstellungen, bei denen die GPU ebenfalls Todessehnsucht hat und selbst mit fetter Übertaktung nicht aus dem Sumpf kommt. Das Argument, es könne in 1-2 Jahren mal wichtiger sein, stimmt zwar, allerdings nutzen nur die wenigsten Enthusiasten ihren Kram solange.

MfG,
Raff

also ich habe es gestern geschafft das in minecraft meine 480 wegen vram mangel abkackt und da war noch nichtmal alles auf maximum ^^ vor allem ohne shader mod oder ähnlichem ^^

gpu an sich lanhweilt sich aber im low 3d modus ^^

was da aber viel stärker einfallen wird. aktuelle konsolenports hauen ohne extra hd texturen für den pc schon mit ~1GB rein. was wird erst mit den neuen konsolen in 2 Jahren sein? 28nm und damit auch die aktuelle Generation wird in 2 Jahren noch top aktuell sein!

dildo4u
2012-03-20, 22:25:51
Hm, also THG glaube ich nichts mehr. Das macht dann doch "etwas" stutzig:

http://www.abload.de/thumb/o7rm7ddkuqg.jpg (http://www.abload.de/image.php?img=o7rm7ddkuqg.jpg)
Die nutzen nicht mehr das selbe System nicht vergleichbar.

7970 Review Skyrim 4xAA 67fps max

http://www.tomshardware.com/reviews/radeon-hd-7970-benchmark-tahiti-gcn,3104-9.html

680 Review Skyrim 7970 8XAA 83fps max

http://tof.canardpc.com/view/504906fd-6378-41b1-a32d-b0cbb2381318.jpg

Ultra Preset=8XAA

boxleitnerb
2012-03-20, 22:27:22
Die haben so kurzfristig den Parcour bzw. die Testszenen umgestellt? Wundert mich jetzt etwas.
Und integrierter Benchmark ist integrierter Benchmark (jetzt bei Dirt 3). Wieso sollte es langsamer bei einem Kandidaten werden, beim nächsten aber nicht?

Sorry, aber da passt war nicht.

Knuddelbearli
2012-03-20, 22:28:10
ein neues testsystem das die 7970 langsamer macht, die 580 dagegen minimal schneller?

Schaffe89
2012-03-20, 22:32:18
Die AMD Karten schneiden da doch eh verhältnismäßig schlecht ab.
Mich würds immernoch nicht wundern, wenn man bei CB nen Performancegleichstand sehen kann.

PCGH_Carsten
2012-03-20, 22:33:04
Wartet mal AMD Reaktion auf GTX 680 ab.
Treiber sollen absichtlich gebremst worden sein!

Den Treiber mit +25% (http://www.pcgameshardware.de/aid,870528/Radeon-HD-7870-GHz-Edition-und-HD-7850-im-Test-Schnell-und-sparsam-dank-28-nm/Grafikkarte/Test/?page=2) ham wa schon, danke.

hardtech
2012-03-20, 22:36:15
@carsten
da schneidet die gtx580 noch immer sehr gut ab :)
hab mir aus lust und dollerei nun eine gekauft und teste die mal gegen meine sapphire 7950 oc.

so viel schneller ist kepler nun auch nicht. käufer von 7k karten müssen da net traurig sein. bin nur gespannt, ob die preise fallen.

Schaffe89
2012-03-20, 22:42:26
Den Treiber mit +25% ham wa schon, danke.

Wär schön, wenn Ihr diesmal den Online Test bewertet und nicht den etwas unausgewogeneren Heft Performanceindex.

dildo4u
2012-03-20, 22:43:00
Den Treiber mit +25% (http://www.pcgameshardware.de/aid,870528/Radeon-HD-7870-GHz-Edition-und-HD-7850-im-Test-Schnell-und-sparsam-dank-28-nm/Grafikkarte/Test/?page=2) ham wa schon, danke.
Nice damit dürfte die 680 als erste Karte auf 60fps kommen beim BF3 Test von PCGH.

http://tof.canardpc.com/view/7c24560d-0298-4238-a45b-d50663c4f259.jpg

PCGH_Carsten
2012-03-20, 22:43:37
@hardtech:
Gut? Sie belieben zu scherzen. Hinweis: Auf der Seite ist nur ein einziger Benchmark, bei dem verschiedene Treiberversionen verglichen werden. Wer da die GTX 580 mit „schneidet gut ab“ betitelt, muss ein :ulol: sein

@Schaffe89:
Wir gebens uns ganz doll viel Mühe beim Fazit und schreiben eine Textlatte, die länger ist als der Rest des Tests, damit auch ja keine falschen Schlüsse gezogen werden, mh-key? Nur zur Sicherheit: Unausgewogen heisst, es sind nicht ausschließlich Spiele drin, die keine Sau spielt und die bei 2 GiB ins VRAM-Limit rennen, ja?

crux2005
2012-03-20, 22:47:12
...

y33H@
2012-03-20, 22:50:37
Wär schön, wenn Ihr diesmal den Online Test bewertet und nicht den etwas unausgewogeneren Heft Performanceindex.Beide sind ausgewogen, nur online kann man mehr Spiele bringen als in einem Index ...

hardtech
2012-03-20, 22:51:06
@carsten
achso, hab nur auf bf3 geschaut! ich zocke nur das spiel. und sc2 ab und an.
aber in einigen spielen sieht die gtx580 kein land mehr.

PCGH_Carsten
2012-03-20, 23:00:43
Das ist doch immer so - und wenn man sich mal das komplette BIld anguckt, stehe ich gerade bei einem Spektrum mehreren ganzzahligen Faktoren für's eine wie für's andere. :)

Liquaron
2012-03-20, 23:05:15
Das ist doch immer so - und wenn man sich mal das komplette BIld anguckt, stehe ich gerade bei einem Spektrum mehreren ganzzahligen Faktoren für's eine wie für's andere. :)


Habt ihr jetzt auch schon eine Gtx 680 vorliegen? Könnt ihr da zumindest schon mal eine Tendenz im Bezug auf die Radeon 7970 abgeben?

Schaffe89
2012-03-20, 23:06:51
nur online kann man mehr Spiele bringen als in einem Index ...

Ihr solltet den Index mit mehr Spielen fahren, damits auch einem "Index" gerecht wird. so kann man das ganze entweder pro Nvidia oder pro AMD wählen.
Würde ich beides nicht gut finden.

PS: Und ich werde so lange meckern, bis sich das ändert.:D

Adam D.
2012-03-20, 23:13:15
Habt ihr jetzt auch schon eine Gtx 680 vorliegen? Könnt ihr da zumindest schon mal eine Tendenz im Bezug auf die Radeon 7970 abgeben?
Natürlich haben sie eine Karte und natürlich werden sie nicht sagen - ein NDA existiert nicht ohne Grund. Die 36h könnt ihr jetzt alle noch schön warten ;)

hardtech
2012-03-20, 23:13:26
man wird es einem ej nie recht machen können!
ich würde einfach die 8 populärsten spiele nehmen. sch*** egal ob nv oder amd darauf besser optimiert ist. ist halt deren pech eben!

Knuddelbearli
2012-03-20, 23:27:06
so einfach ist es nicht, was wenn spiel nummer 9-13 die selbe engine nutzt ?

scully1234
2012-03-20, 23:28:02
Beide sind ausgewogen, nur online kann man mehr Spiele bringen als in einem Index ...

Und täglich grüßt das Murmeltier

Wird das jetzt n Running Gag mit dem Index,das ihr euch da ständig rechtfertigen müsst?

Timbaloo
2012-03-20, 23:41:51
Ich freue mich im übrigen auf die offiziellen Reviews. Und ich finde nicht, dass durch solche "Leaks" denen irgendwas genommen wird. Letztendlich sind ein zwei fps nicht entscheidend, es gibt viele Aspekte, und die gingen bisher unter.

Knuddelbearli
2012-03-20, 23:53:48
ohne leaks springt man halt zuallererst direkt zum Index und liest sich dann gemütlich den text durch so fällt halt der Punkt aus.

bzw in dem Fall nicht mal das da die leaks bisher recht unglaubwürdig sind, dienen höchstens zur ungefähren Einordnung mehr nicht. Statt zwischen 7950 und 7970 wird sie jetzt wohl knapp vor der 7970 sein, scheinbar mit einer AA schwäche bzw eine stärke ohne AA

scully1234
2012-03-20, 23:56:38
Ich freue mich im übrigen auf die offiziellen Reviews. Und ich finde nicht, dass durch solche "Leaks" denen irgendwas genommen wird. Letztendlich sind ein zwei fps nicht entscheidend, es gibt viele Aspekte, und die gingen bisher unter.

Muß man wohl zweigeteilt sehen als Privatperson ist's selbstverständlich erfreulich,wenn ich Infos so schnell u aktuell wie irgend möglich bekomme

Auf der anderen Seite den Egoissmus mal bei Seite geschoben,setzen sich hier einige tagelang an irgendwelche Reviews,u warten wie ausgemacht auf den vereinbarten Termin der Veröffentlichung,nur ein paar schwarze Schaafe eben nicht

uweskw
2012-03-21, 00:15:43
Natürlich haben sie eine Karte und natürlich werden sie nicht sagen - ein NDA existiert nicht ohne Grund. Die 36h könnt ihr jetzt alle noch schön warten ;)

JawollJa Herr Oberhilfsscherriff !!!

MadManniMan
2012-03-21, 00:27:07
Das heißt "Jawoll, Herr Obermannfraunichthaber!" :D

Genug des OT *hust*

Skysnake
2012-03-21, 00:51:57
Nicht lustig.

MfG,
Raff
sehs als Galgenhumor an. Denn eigentlich ist das nur noch traurig/bitter. Da wurde so lange alles dicht gehalten und dann baut einer richtig scheise.... :mad:

Der Versuch dann aber den Leak ungeschehen zu machen ist einfach lächerlich/traurig. Das ist ein Kampf gegen Windmühlen, den man nicht gewinnen kann... Die hätten lieber das NDA kurzfristig fallen lassen sollen.

Naja, mal sehen ob THG abgestraft wird oder nicht.

y33H@
2012-03-21, 00:55:17
Habt ihr jetzt auch schon eine Gtx 680 vorliegen? Könnt ihr da zumindest schon mal eine Tendenz im Bezug auf die Radeon 7970 abgeben?Wenn ich jetzt sage, mal hat die eine und mal die andere den längeren Balken, dann hilft dir das auch nicht weiter. Es gibt leider schon genug Leaks, da müssen wir noch auch noch mit ins Boot steigen. Sorry.
Die hätten lieber das NDA kurzfristig fallen lassen sollen.Damit strafst du die, die noch testen und euch ein tolles Review bieten wollen, nur umso mehr. Du nimmst ihnen die wenige Zeit, die sie haben.

Dicker Igel
2012-03-21, 01:29:47
Maldo HD konnte ich bei 1,3 MP nicht mehr ohne Stocker (keine großen, aber trotzdem störende) spielen, bei Skyrim ist es genau so.

Der VRAM von der 570 ist eben etwas knapp bemessen. Ich ärger mich immer noch dass ich nicht länger auf die im Preis gefallenen 2.5GB Versionen gewartet habe. Mit meiner 260²1.8GB wäre ich locker bis dahin, oder zur 6XX hingekommen ...

Wenns zeitnah ne 4 GB Version gibt, nehm ich die.

Ist wie hier schon mehrfach erwähnt sinnlose Geldausgabe, die 2GB reichen. Dass man da großartig drüber kommt glaube ich auch nicht, zumindest bei moderaten FPS.

hardtech
2012-03-21, 01:46:45
die 570 ist zu schwach für 2,5 vram.

Liquaron
2012-03-21, 06:55:45
Wenn ich jetzt sage, mal hat die eine und mal die andere den längeren Balken, dann hilft dir das auch nicht weiter. Es gibt leider schon genug Leaks, da müssen wir noch auch noch mit ins Boot steigen. Sorry.
Damit strafst du die, die noch testen und euch ein tolles Review bieten wollen, nur umso mehr. Du nimmst ihnen die wenige Zeit, die sie haben.

Macht ja nix, ein Versuch wars wert ;)

AnarchX
2012-03-21, 08:29:53
1,26 -1,28GHz OCing?
http://bbs.expreview.com/thread-49959-1-1.html

cR@b
2012-03-21, 08:49:41
Zu welcher Uhrzeit wird bei uns in DE die NDA fallen, wenn es tatsächlich der 22ste wird?
Kack Warterei geht mir aufn Sack! :D

Dural
2012-03-21, 08:55:40
der speicher wahn fängt von vorne an ;D

ich glaube seit es grafikkarten gibt, gibt es diese meinung von viel speicher = zukunft sicher ;D


mir fällt jetzt spontan keine grafikkarte ein wo dies der fall war, bei der 9800GTX waren die 512MB etwas knapp aber auch nur weil der Chip die bekannten probleme mit dem speicher überlaufen hatte und damals generell 512MB schon wenig waren (8800GTX hatte seit über einem Jahr früher schon 768MB)

wir sprechen bei der GTX680 von satten 2GB, das sind über 30% mehr als die alte High-End karte von NV... es würde mich sehr wundern falls es derzeit nur ein Spiel gibt wo 2GB speicher bei flüssigen FPS (30+) an das limit bringt :rolleyes:

die 2GB reichen locker für diese karte aus, da bin ich mir sicher! und für die SLI fraktion gibt es ja dann auch 4GB versionen (obwohl ich es auch da nicht wirklich sinnvoll halte: MR)

M4xw0lf
2012-03-21, 09:00:00
Was ist eigentlich aus horn12's Wundertreiber geworden? Hatte schon das Popcorn hier... ^^

Adam D.
2012-03-21, 09:04:06
Zu welcher Uhrzeit wird bei uns in DE die NDA fallen, wenn es tatsächlich der 22ste wird?
Kack Warterei geht mir aufn Sack! :D
Morgen 15:00 Uhr deutscher Zeit (wahrscheinlich).

Odal
2012-03-21, 09:12:49
1,26 -1,28GHz OCing?
http://bbs.expreview.com/thread-49959-1-1.html

gehts da nicht eher um einen der abfeiert das seine 7970 1,26-1,28 Ghz packt?

google translate spuckt leider auch nur mist aus
wo sind die 1,4 Mrd. Chinesen wenn man sie mal braucht?

Was ist eigentlich aus horn12's Wundertreiber geworden? Hatte schon das Popcorn hier... ^^

Den gibts doch erst nach der Kepler Vorstellung damit sich horn einen Ast abfreuen kann das seine Karte viel schneller ist als in den Reviews dank Wundertreiber ;D

Superheld
2012-03-21, 09:13:31
Was ist eigentlich aus horn12's Wundertreiber geworden? Hatte schon das Popcorn hier... ^^

den gibts nur in Italien:cool:

Duke Nukem
2012-03-21, 10:18:58
gtx680-thrashed-amds-mid-range-radeon-hd-7870
http://www.theinquirer.net/inquirer/review/2162193/nvidias-gtx680-thrashed-amds-mid-range-radeon-hd-7870-gpu-compute

Knuddelbearli
2012-03-21, 10:23:27
thrashed ähm ja genau :-/ ;-)

Skysnake
2012-03-21, 10:30:40
Der Mann hat auch noch nicht mit bekommen, dass die Rohleistung nicht zwingend etwas aussagt über die Leistung, die man dann am Ende in Applikationen wirklich raus bekommt :rolleyes:

mironicus
2012-03-21, 10:38:42
Es wird bestimmt nicht wenige Review-Seiten geben, die die lahme GPU compute-Performance entsprechend erwähnen werden. Das ist zwar kein ernsthafter Punkt für den Gamer, aber es hinterlässt einen faden Beigeschmack. Selbst wenn die GTX680 rund 10% schneller ist, wäre es eine Frechheit sie teurer anzubieten als die 7970 (die hat schon einen entsprechenden Mehrwert durch mehr Speicher), das hat NVidia aber auch offensichtlich verstanden (in der Gesamtheit werden die Reviews die GTX680 wohl nicht so eindeutig als klaren Sieger - bzw. als die ingesamt bessere Karte - hervorheben).

Duke Nukem
2012-03-21, 10:47:27
Es wird bestimmt nicht wenige Review-Seiten geben, die die lahme GPU compute-Performance entsprechend erwähnen werden. Das ist zwar kein ernsthafter Punkt für den Gamer, aber es hinterlässt einen faden Beigeschmack. Selbst wenn die GTX680 rund 10% schneller ist, wäre es eine Frechheit sie teurer anzubieten als die 7970 (die hat schon einen entsprechenden Mehrwert durch mehr Speicher), das hat NVidia aber auch offensichtlich verstanden (in der Gesamtheit werden die Reviews die GTX680 wohl nicht so eindeutig als klaren Sieger - bzw. als die ingesamt bessere Karte - hervorheben).

Wäre ja uch wohl nicht das beste nur die Gamer kiddis als maß aller dinge zu sehen. Bei GPU compute-Performance war NV noch nie so am boden wie mit der 680. Das kann man ja wohl ewähnen.

Knuddelbearli
2012-03-21, 10:48:38
Es wird bestimmt nicht wenige Review-Seiten geben, die die lahme GPU compute-Performance entsprechend erwähnen werden. Das ist zwar kein ernsthafter Punkt für den Gamer, aber es hinterlässt einen faden Beigeschmack. Selbst wenn die GTX680 rund 10% schneller ist, wäre es eine Frechheit sie teurer anzubieten als die 7970 (die hat schon einen entsprechenden Mehrwert durch mehr Speicher), das hat NVidia aber auch offensichtlich verstanden (in der Gesamtheit werden die Reviews die GTX680 wohl nicht so eindeutig als klaren Sieger - bzw. als die ingesamt bessere Karte - hervorheben).


was ja auch richtig wäre so wie sie sonst immer cuda hervorgehoben haben.
Nur traurig das dein genannter Fall leider eher nicht passieren wird

ChaosTM
2012-03-21, 10:50:18
Wäre ja uch wohl nicht das beste die Gamer kiddis als maß aller Dinge zu sehen. Bei GPU compute-Performance war NV noch nie so am boden wie mit der 680 das kann man ja wohl ewähnen.

Das Ding wurde als reine Gamer-Karte konzipiert und das ist imho der richtige Weg.
Wer massig GPGPU Leistung braucht, kauft sich eben eine 7970er oder wartet auf den fetten Kepler.

Iruwen
2012-03-21, 10:56:07
thrashed ähm ja genau :-/ ;-)
The Inquirer ;) Guck mal aufs Bild, GTX 680 mit 8SP/705MHz.

mironicus
2012-03-21, 10:58:05
Eine eierlegende Wollmichsau hat NVidia da nicht gerade entwickelt. Zum Vorgänger ist das schon ein Rückschritt.

y33H@
2012-03-21, 11:04:54
Der Vorgänger ist GF114 - und dem gegenüber ist Compute bei GK104 wohl besser.

Skysnake
2012-03-21, 11:05:45
irgendwo muss die Effizienz bzgl Perf/W und Perf/mm^2 auch her kommen.

@Marc:

Ja, das ist natürlich auch wieder wahr... Son "leak" ist einfach scheise....

So was darf nicht passieren...

dildo4u
2012-03-21, 11:13:39
Wäre ja uch wohl nicht das beste nur die Gamer kiddis als maß aller dinge zu sehen. Bei GPU compute-Performance war NV noch nie so am boden wie mit der 680. Das kann man ja wohl ewähnen.
Falsch die Radeons haben bei verschiedenen OpenCL Test's schon immer deutlich besser abgeschnitten.

http://www.tomshardware.de/Pitcairn-Radeon-HD7850-HD7870-Benchmarks,testberichte-240969-29.html

http://www.tomshardware.de/Pitcairn-Radeon-HD7850-HD7870-Benchmarks,testberichte-240969-30.html

Beim geleakten THG Test der 680 war diese bei Sandra 2012SP2 Test 2 mal so schnell wie die 580.

1680 vs 3000 Float Shader Performance

Iruwen
2012-03-21, 11:20:54
Auch geil, jetzt sind wir schon Gamer Kiddies :D Husch, zurück in eure Löcher.

Dicker Igel
2012-03-21, 12:01:44
die 570 ist zu schwach für 2,5 vram.

Sicher - aber man hat mehr "Luft", bis ~1.8GB passt das ganz sicherlich. Bei der 1.8GB 260² war es dasselbe, bis ~1.2GB hatte sie Null Probleme.

Matrix316
2012-03-21, 12:28:30
[...]

wir sprechen bei der GTX680 von satten 2GB, das sind über 30% mehr als die alte High-End karte von NV... es würde mich sehr wundern falls es derzeit nur ein Spiel gibt wo 2GB speicher bei flüssigen FPS (30+) an das limit bringt :rolleyes:

die 2GB reichen locker für diese karte aus, da bin ich mir sicher! und für die SLI fraktion gibt es ja dann auch 4GB versionen (obwohl ich es auch da nicht wirklich sinnvoll halte: MR)
Ähhh, es gibt auch GTX 580er mit 3 GB RAM. Es gibt auch schon 35 Euro Karten mit 2 GB RAM. Warum ausgerechnet beim neuen High End Modell knausern, wenn die Konkurrenz schon mit 3GB vorlegt und man selbst schon solche Karten im Angebot hat? Auch WENN die nicht unbedingt gebraucht werden...;)

Aber das ist wie mit den Konsolen: Da diese nicht so viel Hardwarepower bieten wie aktuelle PCs, stagnieren die Spiele. Und wenn Nvidia nur 2 GB als RAM vorgibt, wird kein Spielehersteller mehr verwenden, obwohl ATI diese bietet (selbst bei der 7950).

Palpatin
2012-03-21, 12:35:30
Es gibt auch schon 35 Euro Karten mit 2 GB RAM.
Ich glaub nicht das dort so schneller Speicher wie auf der GTX680 verbaut wird. Da man auf 256 SI setzt braucht man halt extrem schnellen Ram und der kostet. Hätte man auf 384 gesetzt könnte man vermutlich 3Gb bei gleicher Bandbreite verbauen für weniger Geld.

dildo4u
2012-03-21, 12:37:24
Ähhh, es gibt auch GTX 580er mit 3 GB RAM. Es gibt auch schon 35 Euro Karten mit 2 GB RAM. Warum ausgerechnet beim neuen High End Modell knausern, wenn die Konkurrenz schon mit 3GB vorlegt und man selbst schon solche Karten im Angebot hat? Auch WENN die nicht unbedingt gebraucht werden...;)

Aber das ist wie mit den Konsolen: Da diese nicht so viel Hardwarepower bieten wie aktuelle PCs, stagnieren die Spiele. Und wenn Nvidia nur 2 GB als RAM vorgibt, wird kein Spielehersteller mehr verwenden, obwohl ATI diese bietet (selbst bei der 7950).

Weil's der Midrange Chip ist,für den großen Chip sind's bestimmt 3GB.Die THG Benches haben gezeigt,das die 680 gerade in höheren Auflösungen und AA(Wo 3GB was bringen könnten) ihre Schwäche hat und nicht immer weil der V-Ram voll ist.3GB würden also Sinnlos Kosten für NV und den Enduser erhöhen.

Iruwen
2012-03-21, 12:41:28
Hast es zumindest noch diplomatischer versucht mit dem Edit :rolleyes:
Wann genau fällt jetzt das NDA?

Hugo78
2012-03-21, 12:43:12
Ich glaub nicht das dort so schneller Speicher wie auf der GTX680 verbaut wird. Da man auf 256 SI setzt braucht man halt extrem schnellen Ram und der kostet.

... weniger als die aktuell bescheidene 28HP Yield.

Wann genau fällt jetzt das NDA?

Wie immer an einem Di. oder Do. um 15Uhr. (deutscher Zeit)

Matrix316
2012-03-21, 12:44:22
Weil's der Midrange Chip ist,für den großen Chip sind's bestimmt 3GB.Die THG Benches haben gezeigt,das die 680 gerade in höheren Auflösungen und AA(Wo 3GB was bringen könnten) ihre Schwäche hat und nicht immer weil der V-Ram voll ist.3GB würden also Sinnlos Kosten für NV und den Enduser erhöhen.
Jo, Midrange Chip für 499$ http://www.forum-3dcenter.org/vbulletin/showthread.php?t=523521 :rolleyes:

maximus_hertus
2012-03-21, 12:44:53
2 GiB SIND ausreichend. Wieviele Käufer der 680er werden die Karte länger als 2 - 3 Jahre behalten (die meisten wohl nur rund 1 Jahr)? Klar gibts immer Möglichkeiten, alles auszureizen und gerade Multimonitoring frisst VRAM. Aber selbst da reichen 2 GiB, da bei 3 x 1080p die GPU zu lahm ist. Selbst GK110 SLI wird nicht reichen (6016x1200, Ultra Details, AA) - bevor es ein VRAM Limit gibt, gibt eher die GPU auf.

Kriegsgeier
2012-03-21, 12:45:32
also die Japaner haben in ein paar Stunden den 22.03 ;)

Ich vermute einen beispiellosen Preissturz bei GTX 680: anfangen wird es bei 450€ ---> sehr schnell auf 380€ ---> Einpendelung bei 330-350€

Liquaron
2012-03-21, 12:46:28
Weil's der Midrange Chip ist,für den großen Chip sind's bestimmt 3GB.Die THG Benches haben gezeigt,das die 680 gerade in höheren Auflösungen und AA(Wo 3GB was bringen könnten) ihre Schwäche hat und nicht immer weil der V-Ram voll ist.3GB würden also Sinnlos Kosten für NV und den Enduser erhöhen.


Mhhh mal wirklich morgen abwarten....am Anfang war ich schon sehr euphorisch was die GTX 680 angeht.
Aber mit einer 450€ Karte will ich hohe Auflösungen und AA....was sonst?

Naja vielleicht wirds dann doch ne Radeon 7970 :)

Schaun ma mal :D

dildo4u
2012-03-21, 12:47:14
Jo, Midrange Chip für 499$ http://www.forum-3dcenter.org/vbulletin/showthread.php?t=523521 :rolleyes:
Es bringt nix bei diesen Chip einfach mal alles lesen.Wenn die 780 kommt kann die 680 damit um so billiger werden.

derguru
2012-03-21, 12:54:32
mein gott,2gb reicht vollkommen.bis jetzt sind doch nvler auch mit 1,2-1,5gb ausgekommen oder nicht?warum sollten urplötzlich 2 gb nicht mehr reichen,nur weil amd SI bedingt 3gb anbietet?

y33H@
2012-03-21, 12:59:39
Ich vermute einen beispiellosen Preissturz bei GTX 680: anfangen wird es bei 450€ ---> sehr schnell auf 380€ ---> Einpendelung bei 330-350€Warum sollte die klar UNTER den Preis einer HD 7950 fallen? :ulol:

Thunder99
2012-03-21, 13:01:20
also die Japaner haben in ein paar Stunden den 22.03 ;)

Ich vermute einen beispiellosen Preissturz bei GTX 680: anfangen wird es bei 450€ ---> sehr schnell auf 380€ ---> Einpendelung bei 330-350€
Hättest du die letzten paar Seiten durchgeblättert würdest du wissen das so was nicht kommen wird. Dank der schlechten Ausbeute von TSMC

Es ist schon interessant, dass nvidia das Risiko eingeht nicht mehr den schnellsten Chip in allen Belangen zu haben. Ein Tribut an die Schwierigkeit ihrer >500mm² Chips?

Iruwen
2012-03-21, 13:01:23
Vielleicht meint er die Karten fallen alle - schön wärs ja, das wären jedenfalls mal angemessene Preise.

@RAM, wie sagte Raff so schön:

Ich kann dir problemlos 5 Fälle kreieren, wo 2 GiByte (und erst recht 1,5) am Sack sind. Selektion, Fall-Konstruktion. Dann wird's aber dünn. Und das sind dann Einstellungen, bei denen die GPU ebenfalls Todessehnsucht hat und selbst mit fetter Übertaktung nicht aus dem Sumpf kommt.

AnarchX
2012-03-21, 13:01:30
Warum sollte die klar UNTER den Preis einer HD 7950 fallen? :ulol:

Sofern es vernünftige Liefermengen gibt, sind wohl 400€ denkbar.
Die 7950 könnte wohl dann in Richtung 350€ tendieren.

Matrix316
2012-03-21, 13:02:37
Warum hat die 680er nur ein 256 bit Interface? Die GTX580 hatte doch schon 384?!

AnarchX
2012-03-21, 13:03:56
Warum hat die 680er nur ein 256 bit Interface? Die GTX580 hatte doch schon 384?!
Weil es ein 300mm² Chip ist, der langfristig für das Performance-Segment vorgesehen ist. Ein 384-Bit SI benötigt einen flächenmäßig größeren Chip.
Aber durch den 6Gbps Speicher kommt man auf die Bandbreite der GTX 580.

Kriegsgeier
2012-03-21, 13:05:20
Nun, NVIDIA ist am Zug und dabei handelt es sich um GTX 680 nicht wirklich um einen teueren Chip. Klar die Ausbeute lässt zu wünschen übrig, aber die Kapazitäten steigen - jede Woche...

dildo4u
2012-03-21, 13:05:28
Warum hat die 680er nur ein 256 bit Interface? Die GTX580 hatte doch schon 384?!
NV hat aus dem 28nm Nachfolger der 560Ti,die 680 gemacht weil AMD so düftig vorgelegt hat.

Matrix316
2012-03-21, 13:07:44
Weil es ein 300mm² Chip ist, der langfristig für das Performance-Segment vorgesehen ist. Ein 384-Bit SI benötigt einen flächenmäßig größeren Chip.
Aber durch den 6Gbps Speicher kommt man auf die Bandbreite der GTX 580.

Ein langfristiger abgespeckter Midrange Performance Chip der erst Mal zum High End Preis (für Single GPU Karten) auf den Markt kommt... man fasst es nicht.

Also früher kam erst der High End Chip raus und DANN hat man den Performance Bereich nachgezogen - der aber auch deutlich günstiger war.

Hier wird man doch gerade veräppelt von Nvidia...:|

NV hat aus dem 28nm Nachfolger der 560Ti,die 680 gemacht weil AMD so düftig vorgelegt hat.

Dann sollen sie die Karte aber auch 660 Ti nennen und für 250 Euro rausbringen.

dildo4u
2012-03-21, 13:10:48
Dann sollen sie die Karte aber auch 660 Ti nennen und für 250 Euro rausbringen.
Warum sollte NV das tun wenn man mit der Karte die 450€ 7970 schlägt?NV ist ein Unternehmen was wie Jedes andere am Markt maximalen Gewinn erziehlen möchte.

Iruwen
2012-03-21, 13:13:13
Ein langfristiger abgespeckter Midrange Performance Chip der erst Mal zum High End Preis (für Single GPU Karten) auf den Markt kommt... man fasst es nicht.

Ich glaub das hat ein anderer großer IHV kürzlich auch erst gemacht, wie hieß der noch gleich...

/e: außerdem, was heißt Midrange Performance, das Ding ist bei kleinerem Die schneller als die 7970.

AnarchX
2012-03-21, 13:13:15
Die Alternative wäre wohl eine Wartezeit von >6 Monaten gegenüber der HD 7970 gewesen, wenn man erst GK110 geplant hätte und die anderen Chips danach.

Denkbar, dass man die GTX 680 auch für ~300€ hätte anbieten können, aber da hätte man wohl mit niedrigen Stückzahlen die Käufer verärgert und die Marge wäre bei den Händlern gelandet, die dann einen deutlichen Aufschlag verlangen gegenüber dem UVP.

Die Situation ist nicht schön, aber wohl nicht anders machbar, bei immer komplizierten Fertigungsprozessen, deren Entwicklungskosten rapide steigen. Man kann hier wohl Verdopplungen zwischen einzelnen Fullnodes annehmen.

Thunder99
2012-03-21, 13:17:39
NV hat aus dem 28nm Nachfolger der 560Ti,die 680 gemacht weil AMD so düftig vorgelegt hat.
Ich glaube eher sie sind froh, dass sie sowas machen konnten, da ihr eigentlicher High-End Chip noch nicht bereit ist für den Desktop Markt.

Eine Win-Win Situation für beide IHV.

deekey777
2012-03-21, 13:22:39
THG mal wieder...
http://www.tomshardware.com/gallery/geforce-gtx-680-gk104-kepler,0201--10727----jpg-36.html
via: http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5071431&viewfull=1#post5071431
Weil's so schön ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=140688

yamo
2012-03-21, 13:27:37
Ich warte, wie einige (;D Blaire?) auf GK110, aber verdammt! GK104 ist sexy und ich werd juckich. Durchhalten muss ;)

Iruwen
2012-03-21, 13:31:24
Weil's so schön ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=140688
Ja sind immer die gleichen Verdächtigen, HKEPC hat auch früher schon geleakt.

Botcruscher
2012-03-21, 13:41:54
Ja sind immer die gleichen Verdächtigen, HKEPC hat auch früher schon geleakt.
Ist doch schön, sonst wäre es hier verdammt langweilig. Dann würde man sich nur einmal die Reviews antun und gut ist.

Godmode
2012-03-21, 13:51:31
Weil's so schön ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=140688

Danke! Da war ich noch nicht so lange im Forum und gleich voll am durchdrehen im 3. Post ;D


Ich warte, wie einige (;D Blaire?) auf GK110, aber verdammt! GK104 ist sexy und ich werd juckich. Durchhalten muss ;)


Ich hole mir jetzt eine GK104 und verkaufe sie wenn es die richtigen Grakfikkarten zu kaufen gibt.

Coda
2012-03-21, 13:55:40
Ein langfristiger abgespeckter Midrange Performance Chip der erst Mal zum High End Preis (für Single GPU Karten) auf den Markt kommt... man fasst es nicht.
Seid doch froh, dass sich die 9800GTX nicht wiederholt. Die war nichtmal schneller.

AnarchX
2012-03-21, 14:01:08
Die 9800GTX hat dafür aber nur $299 gekostet und man konnte G92 für unter 200€ auf einer 8800 GT kaufen.
Am ehesten ist die Situation wohl vergleichbar mit G71 und der 7900GTX. Da war G71 fast halb so groß wie R580, trotzdem verlangte man einen High-End-Preis, weil das GeForce Brand stärker war und man in damaliger Software vergleichbare Leistung erreichte.

dildo4u
2012-03-21, 14:04:29
Eine 670Ti kommt sicherlich auch bald,die dürfte bei 300€ liegen und verdammt effektiv sein.(Dort wäre eine sehr leise Kühlung relativ billig möglich)

Dicker Igel
2012-03-21, 14:14:22
mein gott,2gb reicht vollkommen.bis jetzt sind doch nvler auch mit 1,2-1,5gb ausgekommen oder nicht?warum sollten urplötzlich 2 gb nicht mehr reichen,nur weil amd SI bedingt 3gb anbietet?

Eben :)

Palpatin
2012-03-21, 14:18:21
Seid doch froh, dass sich die 9800GTX nicht wiederholt. Die war nichtmal schneller.
Eine shrinked 580 mit 2GB Ram für 250€ würd ich jedenfalls sofort kaufen.

crux2005
2012-03-21, 14:37:55
Hätte aber lieber die GK110 Karte...

Kriegsgeier
2012-03-21, 14:39:16
Woher? Hast du eine GTX680 schon @ home???

Odal
2012-03-21, 14:40:02
es ist jedenfalls eine GTX680 ob seine ist da ne andere Frage :rolleyes:

aber wenn dann mach mal ein paar benches (BF3, Crysis etc.)

Dicker Igel
2012-03-21, 14:42:22
Eine shrinked 580 mit 2GB Ram für 250€ würd ich jedenfalls sofort kaufen.

Ne übertaktete 2.5'er 570 sollte da auch passen (http://www.fudzilla.com/reviews/item/24458-point-of-view-/24458-point-of-view-?start=3). Aber zZ leider nicht für 250,- :tongue:

Kriegsgeier
2012-03-21, 14:43:06
ich warte auf MAXWELL :)

crux2005 wir warten... ;)

Henroldus
2012-03-21, 14:50:00
Ne übertaktete 2.5'er 570 sollte da auch passen (http://www.fudzilla.com/reviews/item/24458-point-of-view-/24458-point-of-view-?start=3). Aber zZ leider nicht für 250,- :tongue:
und auch nicht unter 250W TDP :P

y33H@
2012-03-21, 14:51:52
Ihr mit eurer TDP - macht halt's Licht aus ;-)

Kriegsgeier
2012-03-21, 14:51:57
So, crux2005 ist am benchen ;) Gleich gibts Ergebnise ;)

dildo4u
2012-03-21, 14:52:55
ich warte auf MAXWELL :)

Maxwell ist 2014.

http://www.computerbase.de/news/2011-07/offiziell-nvidia-kepler-2012-und-maxwell-2014/

Odal
2012-03-21, 14:58:14
ich warte auf MAXWELL :)


DP Gflops / Watt ist für den 0815 Consumer aber weniger relevant

Deine Folie sagt nur aus das MAXWELL eine deutlich bessere pro Watt Leistung für GPGPU hat. GK104 wird da wohl im Vergleich zu GK110 unterirdisch sein wohingegen seine pro Watt Leistung für Spiele vermutlich deutlich besser ist.
Und theoretisch könnte MAXWELL auch das gleiche leisten wie Kepler bei 1/3 Verbrauch ;)

AnarchX
2012-03-21, 15:06:04
Laut Jensen soll Maxwell doch 10-mal so schnell wie GF100 sein in 3D: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8282442#post8282442 :D

boxleitnerb
2012-03-21, 15:09:28
Solche Versprechungen sollte man nie glauben. Noch ein Jahr und wir sollten hier sein...

http://www.abload.de/img/5ca0ac9c830de795ryc0y.jpg (http://www.abload.de/image.php?img=5ca0ac9c830de795ryc0y.jpg)

crux2005
2012-03-21, 15:09:28
Die PCGH.de Crysis Bilder sagten mir das die GTX 680 da auf HD 7970 Niveau liegt. Sehr gesprächig waren sie aber nicht.
http://www.pcgameshardware.de/aid,870528/Radeon-HD-7870-GHz-Edition-und-HD-7850-im-Test-Schnell-und-sparsam-dank-28-nm/Grafikkarte/Test/?page=2

Kriegsgeier
2012-03-21, 15:10:41
wo hast du das Foto her???

dildo4u
2012-03-21, 15:10:59
Ohne den 300.99 Treiber sind die Benches eh witzlos da der zu 99% Morgen erscheint.

crux2005
2012-03-21, 15:14:38
Ohne den 300.99 Treiber sind die Benches eh witzlos da der zu 99% Morgen erscheint.

Das musst du ja aus guter Quelle haben.

300.99_desktop_win7_winvista_64bit_international.exe
205 629 KB 12. 3. 2012

wo hast du das Foto her???

Habe ich auf imgur gefunden. :P

Ronny145
2012-03-21, 15:15:52
Das musst du ja aus guter Quelle haben.

300.99_desktop_win7_winvista_64bit_international.exe
205 629 KB 12. 3. 2012


Lade den mal hoch, ich will mal testen mit meiner GTX560.

AnarchX
2012-03-21, 15:16:21
Solche Versprechungen sollte man nie glauben. Noch ein Jahr und wir sollten hier sein...

http://www.abload.de/img/5ca0ac9c830de795ryc0y.jpg (http://www.abload.de/image.php?img=5ca0ac9c830de795ryc0y.jpg)
Da ist ja eine Projektion aus Basis von Vergangenheitsdaten, die man leider nicht einhalten konnte.

Aber bei der SP-Rechenleistung könnte ich mir schon fast einen Faktor 10 zwischen GTX 480 (GF100) und einer "GTX 880"(GM100/110) vorstellen.
Vielleicht gibt es bis dahin schon Interposer und GM100 sind zwei ~300mm² Dies.

Matrix316
2012-03-21, 15:31:47
Die 9800GTX hat dafür aber nur $299 gekostet und man konnte G92 für unter 200€ auf einer 8800 GT kaufen.
Am ehesten ist die Situation wohl vergleichbar mit G71 und der 7900GTX. Da war G71 fast halb so groß wie R580, trotzdem verlangte man einen High-End-Preis, weil das GeForce Brand stärker war und man in damaliger Software vergleichbare Leistung erreichte.
Naja, wenn man bedenkt, dass die 8800 GTX schon ein 384bit Speicherinterface hatte... warum immer wieder die auf und abs?

Adam D.
2012-03-21, 15:39:20
Naja, wenn man bedenkt, dass die 8800 GTX schon ein 384bit Speicherinterface hatte... warum immer wieder die auf und abs?
Ob es rauf oder runter geht, interessiert doch mal ernsthaft keine Sau. An der Bandbreite wird die GTX680 nicht vordergründig verhungern.

Iruwen
2012-03-21, 15:39:55
Naja, wenn man bedenkt, dass die 8800 GTX schon ein 384bit Speicherinterface hatte... warum immer wieder die auf und abs?
Die 8800 GTX hatte auch ein 484mm² Die. Am Interface hängt auch die Speichermenge und Durchsatz = Speichertakt x Interfacebreite. Die GTX 680 hat dafür einen höheren Speichertakt.

Matrix316
2012-03-21, 16:35:16
Natürlich. Aber es sollte doch einfacher sein ein großes SI zu haben mit weniger Speed, als ein kleines mit mehr Speichertakt. Mehr Takt = mehr Abwärme, während größeres Die weniger Takt und eventuell weniger Abwärme bedeuten kann, weil mehr Platz da ist.

Liquaron
2012-03-21, 16:38:04
Ihhh Technikgeblubber :D

Ist doch alles egal, hauptsache die Performance in Games stimmt.

Wo bleiben noch mehr geleakde Spielebenchmarks??!!! :)

Superheld
2012-03-21, 16:44:04
wieder 3d Murks 11

http://www.xtremesystems.org/forums/showthread.php?277763-%93Kepler%94-Nvidia-GeForce-GTX-780&p=5071974&viewfull=1#post5071974

dildo4u
2012-03-21, 16:49:58
wieder 3d Murks 11

http://www.xtremesystems.org/forums/showthread.php?277763-%93Kepler%94-Nvidia-GeForce-GTX-780&p=5071974&viewfull=1#post5071974
GT 2 skaliert nicht beim SLI.

derguru
2012-03-21, 16:50:47
oc-mäßig geht anscheinend auch was.

Die 12000 sind SLI die Grafiktests sind fast 2X aber die CPU lässt wohl nicht mehr Gesamtpunkte zu.
achso,stimmt graphicsscore.;(

boxleitnerb
2012-03-21, 16:51:29
Woran siehst du das?

Liquaron
2012-03-21, 16:51:33
Viel interessanter finde ich:

MSI GeForce GTX 680 2GB GDDR5 492 €

28nm GPU with PCI Express 3.0

1st NVIDIA 28nm GPU.
Support NVIDIA GPU Boost Technology.
Support PCI Express 3.0
Afterburner Overclocking Utility

Support GPU/Memory Clock offset and Power limit control.
Support in-game video recording.
Support wireless control by android/iOS handheld devices.
Support built-in DX11 effect test
3DVision Surround

Support 3 displays in full stereoscopic 3D with a single card.
Support up to 4 displays with a single card
All Solid Capacitors

10 years ultra long lifetime (under full load).
Lower temperature and higher efficiency.
Aluminum core without explosion
Product Specification:

Product Name N680GTX-PM2D2GD5
Model V282
GPU NVIDIA GeForce GTX 680
Codename GK104
CUDA Core 1536 Units
Core Base Clock 1006 MHz
Core Boost Clock 1058 MHz
Memory Clock 3004 MHz
Memory Size 2048MB GDDR5
Memory Bus 256 bits
Output DisplayPort / HDMI / DL-DVI-I / DL-DVI-D
TDP 195 W
Card Dimension 270*111.15*38.75 mm
Form Factor ATX
Technology Support

DirectX 11
OpenGL 4.2
PCI Express 3.0
CUDA Y
SLI Y
PhysX Y
PureVideo HD Y
HDCP Y
Accessory

Driver CD Y
Manual Y
Installation Guide Y
6-pin Power Cable Y, 2
DVI to VGA Dongle Y
Garantía: 2 años.

http://www.pccomponentes.com/msi_gef...2gb_gddr5.html

Adam D.
2012-03-21, 16:52:35
Viel zu teuer, wie erwartet. Nach dem Launch wird so wohl schon bei etwas unter 450€ landen.

dildo4u
2012-03-21, 16:53:39
Woran siehst du das?
Ups liegt wohl am Treiber und der CPU GT2 skaliert nicht die anderen Grafiktest's sind rund 2X.Definitiv SLI.

Liquaron
2012-03-21, 16:57:01
Viel zu teuer, wie erwartet. Nach dem Launch wird so wohl schon bei etwas unter 450€ landen.


Das ist echt teuer.....mal abwarten wie die Preise bei den unterschiedlichen Herstellern variieren.

Iruwen
2012-03-21, 16:58:22
Diesmal gibts wenigstens Konkurrenz und ab morgen ein (hoffentlich) mindestens doppelt so hohes Angebot dadurch dass zwei Hersteller liefern.

Kriegsgeier
2012-03-21, 16:59:32
ich hätte mal eine kurze Frage zum Bild unten: wird die GTX 680 durch PCI-E 2.0 ausgebremst?

M4xw0lf
2012-03-21, 17:01:20
ich hätte mal eine kurze Frage zum Bild unten: wird die GTX 680 durch PCI-E 2.0 ausgebremst?

Mit hoher Wahrscheinlichkeit nicht, bzw nur im einstelligen Prozentbereich. Wurde glaub ich von Anandtech an der 7970 untersucht.

Ädit: hier der Bandbreitentest http://www.anandtech.com/show/5458/the-radeon-hd-7970-reprise-pcie-bandwidth-overclocking-and-msaa

Thunder99
2012-03-21, 17:02:16
ich hätte mal eine kurze Frage zum Bild unten: wird die GTX 680 durch PCI-E 2.0 ausgebremst?
Die Karte hat hat PCI-3.0 und nein, es wird nichts ausgebremst ;)

Kriegsgeier
2012-03-21, 17:05:27
aha, ok, danke ;)

Jetzt muss die GTX 680 kurz unter 400€ rutschen und meine GraKa samt WaKühler wird für denke ich mal 150€ inkl. verkauft ;)

Zergra
2012-03-21, 17:06:38
ich hätte mal eine kurze Frage zum Bild unten: wird die GTX 680 durch PCI-E 2.0 ausgebremst?
wenn wir glück haben ist PCie 2.0 in 3-4 Jahren mal einen Bremse... aber vorher auf keinen fall. Deswegen ist PCIe 3.0 auch ziemlich sinnlos und nur ein Verkaufsargument

mironicus
2012-03-21, 17:07:05
Jetzt muss die GTX 680 kurz unter 400€ rutschen

Wird sie wenige Tage bevor die GTX 780 kommt. :D

Kriegsgeier
2012-03-21, 17:08:09
Wird sie wenige Tage bevor die GTX 780 kommt. :D

ne, glaube ich nicht! Die Konkurenz ist zu heftig diesmal ;)

PS: bei CB schreiben die schon seit ca 5 Stunden keine neue NEWS ;)

Die sind wie verrückt am testen...

mironicus
2012-03-21, 17:14:10
Haben bestimmt gerade neue Performance-Treiber von AMD bekommen. :D

Kriegsgeier
2012-03-21, 17:16:18
besitzt die GTX 680 wirklich 1500 Shader des gleichen Typs wie GTX 580 mit ihren 512???

dildo4u
2012-03-21, 17:17:42
Nein wurden neu entwickelt.

y33H@
2012-03-21, 17:49:45
PS: bei CB schreiben die schon seit ca 5 Stunden keine neue NEWS. Die sind wie verrückt am testen ...Wolle testet, aber das hat mit den News-Schreibern idR nichts zu tun.

Gaestle
2012-03-21, 17:56:18
... Petri?
... Teppich kauffe?

Sorry, das musste sein. (und wech)

mironicus
2012-03-21, 18:00:45
15 Uhr fällt das NDA? Ist aber ein blöder Zeitpunkt für die Händler, weil die dann die Karten erst am Freitag verschicken können... :D

Raff
2012-03-21, 18:02:47
... Petri?
... Teppich kauffe?

Sorry, das musste sein. (und wech)

Wol(le)fgang Andermahr, Mr. Grafikkarte bei CB.

MfG,
Raff

Schaffe89
2012-03-21, 18:14:20
Hoffentlich werden dann auch alle relevanten in Konkurrenz stehenden Karten mit aktuellstem Treiber gebencht.
D.H. Mindestens GTX570/GTX580/ HD7870/7850/7950/7970.

boxleitnerb
2012-03-21, 18:15:24
THG tut das. Vielleicht sind deren Ergebnisse deshalb auch so ungewohnt.

Iruwen
2012-03-21, 18:17:36
Ist auch nicht fairer als Launchtreiber gegen Launchtreiber.

scully1234
2012-03-21, 18:21:43
Wie jetzt die Jungspunte über den "alten"Herrn herziehen,der arme Wolfi=)

boxleitnerb
2012-03-21, 18:21:44
^ aber so würde doch keiner testen. Es wird mit aktuellen Treibern und Patches getestet. Alles andere macht keinen Sinn. Wie heißt es so schön? Wer zu spät kommt, den bestraft das Leben - in diesem Fall mit einem frischen, evtl. unausgereiften Treiber.

y33H@
2012-03-21, 18:26:18
Wie jetzt die Jungspunte über den "alten"Herrn herziehen,der arme Wolfi.Der "alte" Herr zählt so viele Lenzen wie ich :biggrin:
Es wird mit aktuellen Treibern und Patches getestet. Alles andere macht keinen Sinn. Wie heißt es so schön? Wer zu spät kommt, den bestraft das Leben - in diesem Fall mit einem frischen, evtl. unausgereiften Treiber.Das ist halt ne Zeit- und Manpower-Frage. Davon ab hatten AMD wie NV genug Zeit für ihre Treiber, wenngleich fei in Zukunft noch Luft nach oben ist (wie immer bei neuen Architekturen).

scully1234
2012-03-21, 18:26:23
Ist auch nicht fairer als Launchtreiber gegen Launchtreiber.
Irgend einer wird immer n Haar in der Suppe finden

scully1234
2012-03-21, 18:29:34
Der "alte" Herr zählt so viele Lenzen wie ich :biggrin:
.

Jau für wem ist das jetzt n Kompliment Marc:biggrin:

Blediator16
2012-03-21, 18:32:37
Ist auch nicht fairer als Launchtreiber gegen Launchtreiber.

Man muss bedenken, dass NV in der Zeit wo ihre Karte nicht draussen war ihre Füsse auch nicht stillgehalten hat und natürlich entwickelt hat.

dildo4u
2012-03-21, 18:35:10
Man muss bedenken, dass NV in der Zeit wo ihre Karte nicht draussen war ihre Füsse auch nicht stillgehalten hat und natürlich entwickelt hat.
Genau wie AMD ihre Sample Karten schon Monate vor Release hatte es kommt aufs Selbe raus.

Blediator16
2012-03-21, 18:39:48
Genau wie AMD ihre Sample Karten schon Monate vor Release hatte es kommt aufs Selbe raus.

Ich bezog mich auf das Releasetreiber gg. Releasetreiber gebencht werden soll, was vollkommen Murks ist.

Leonidas
2012-03-21, 18:43:31
Wenn Tapeout im Februar war, könnten sie das Ding mit viel Glück im August/September bringen, wenn sie wollten. Kommt drauf an, wann AMD mit was weitermacht und wie früh Nvidia davon erfährt. Sie müssen ja die Zeit bis 2014 zu Maxwell totschlagen. Wenn sie GK110 schon früh bringen, also klar 2012, was bringen sie dann 2013? Nochmal ein Refresh, 10% mehr Takt? Das lockt doch keinen hinter dem Ofen hervor.


Ich gehe fast davon aus, daß man GK110 nicht refreshen wird - lohnt nicht angesichts der eher geringen Stückzahlen und des schon späten Termins.

scully1234
2012-03-21, 18:44:11
Ich bezog mich auf das Releasetreiber gg. Releasetreiber gebencht werden soll, was vollkommen Murks ist.

Die Karte wird auch so ihrem Mann stehen,allenfalls wäre sowas interessant um die Güte der beiden Treibertrams zu bewerten

Edit:jetzt schreib ich schon russisch sollte Team heißen nicht Tram:freak:

AnarchX
2012-03-21, 18:47:29
Ich gehe fast davon aus, daß man GK110 nicht refreshen wird - lohnt nicht angesichts der eher geringen Stückzahlen und des schon späten Termins.
Stellt sich die Frage ob GK110 in der vollständigen Ausführung startet. Zudem könnte man wohl gegen Mitte 2013, wenn 28nm entsprechend günstig geworden ist, wohl noch einen Dual-GK110 nachlegen.

scully1234
2012-03-21, 18:50:56
Stellt sich die Frage ob GK110 in der vollständigen Ausführung startet. Zudem könnte man wohl gegen Mitte 2013, wenn 28nm entsprechend günstig geworden ist, wohl noch einen Dual-GK110 nachlegen.

Besteht da überhaupt noch Bedarf im GeForce Sektor,wenn sowieso ein Gk104 als Dualplatine kommt?

Außerdem dürfte sowas schon wieder arg die Spezifikationen von 300Watt vergewaltigen

M4xw0lf
2012-03-21, 18:52:14
Und wäre Dual GK110 dank TDP-Limitierungen überhaupt schneller als Dual GK104?

Gaestle
2012-03-21, 18:55:30
Wol(le)fgang Andermahr, Mr. Grafikkarte bei CB.

MfG,
Raff
Wie jetzt die Jungspunte über den "alten"Herrn herziehen,der arme Wolfi=)

Schon klar. Der Wolle is ja 'n Netter, der sieht das bestimmt nicht so eng. Aber ich fand es halt eine unwiderstehliche Vorlage...

Falls er sich persönlich angemacht sieht: Sorry.

boxleitnerb
2012-03-21, 18:55:31
Man müsste das große Teil wohl ähnlich drosseln wie die 590. Mal ein Zahlenspiel:

GTX680=100%
GTX690=180%
GTX780=150%
GTX770=135%
GTX790=GTX770*2 (gedrosselt)=135%*0,8*2=216%

dildo4u
2012-03-21, 18:56:23
Und wäre Dual GK110 dank TDP-Limitierungen überhaupt schneller als Dual GK104?
Kommt drauf an wie man die Karte auslegt bei der 6990 waren 450W möglich.

http://www.pcgameshardware.de/aid,814660/Radeon-HD-6990-im-Test-Antilles-Mit-375-Watt-zu-neuen-Benchmark-Rekorden/Grafikkarte/Test/?page=2

AnarchX
2012-03-21, 18:58:01
Außerdem dürfte sowas schon wieder arg die Spezifikationen von 300Watt vergewaltigen
Seit GTX590/HD6990 ist diese Grenze hinfällig. Im Endeffekt gibt es halt kein PCI-SIG Zertifikat. Das interessiert den Enthusiasten wohl eh nicht.

Da sind 400-500W wohl durchaus denkbar.
Und die Asus Mars II zeigt, dass man das wohl auch noch relativ leise (http://www.pcgameshardware.de/aid,842114/Asus-Mars-II-im-Test-Die-extremste-Grafikkarte-der-Welt-Wahnsinn-done-right-Test-des-Tages/Grafikkarte/Test/?page=2)gekühlt bekommt.

Hugo
2012-03-21, 18:59:01
Besteht da überhaupt noch Bedarf im GeForce Sektor,wenn sowieso ein Gk104 als Dualplatine kommt?

Außerdem dürfte sowas schon wieder arg die Spezifikationen von 300Watt vergewaltigen

ich würde es anders formulieren. Besteht überhaupt Bedarf an Dual GK104 wenn es GK110 gibt?
Das ärgerliche ist nur dass GK110 so spät kommt

AnarchX
2012-03-21, 19:00:02
ich würde es anders formulieren. Besteht überhaupt Bedarf an Dual GK104 wenn es GK110 gibt?
Das ärgerliche ist nur dass GK110 so spät kommt

Dual-GK104 ist ohne viel Aufwand realisierbar und man kann sich gegen die HD 7990 behaupten.

Nett wäre natürlich, wenn NV mal ein paar deutliche Innovationen bzgl. Dual-GPU bringt.

scully1234
2012-03-21, 19:00:03
Kommt drauf an wie man die Karte auslegt bei der 6990 waren 450W möglich.

http://www.pcgameshardware.de/aid,814660/Radeon-HD-6990-im-Test-Antilles-Mit-375-Watt-zu-neuen-Benchmark-Rekorden/Grafikkarte/Test/?page=2


Damit würde man das gerade mühesam eroberte "Green Image" wieder auf Teufel komm raus beuteln


ich würde es anders formulieren. Besteht überhaupt Bedarf an Dual GK104 wenn es GK110 gibt?
Das ärgerliche ist nur dass GK110 so spät kommt

Bedarf wird schon bestehen denn Dual 104 muss keine schweren und für seinen Einsatzzweck unnötigen GPGPU Bestandteile mit umherschleppen

Hugo
2012-03-21, 19:05:15
Dual-GK104 ist ohne viel Aufwand realisierbar und man kann sich gegen die HD 7990 behaupten.

Nett wäre natürlich, wenn NV mal ein paar deutliche Innovationen bzgl. Dual-GPU bringt.


Klar is er das Gegenstück zum 7990. Aber die sind doch eh nur Prestigeobjekte. GK110 wollen aber viele haben ;)


Bedarf wird schon bestehen denn Dual 104 muss keine schweren und für seinen Einsatzzweck unnötigen GPGPU Bestandteile mit umherschleppen

Ich denk der Bedarf beschränkt sich auf wenige, schon wegen der ganzen MGPU Probleme. MR usw..
Die hätte man mit nem fetten GK110 nicht

Liquaron
2012-03-21, 19:08:52
Meint ihr man kann die GTX 680 morgen abend schon kaufen und die Händler bieten die nach 15 Uhr an?

scully1234
2012-03-21, 19:09:41
Falls er sich persönlich angemacht sieht: Sorry.

Der steckt das weg wie ein Mann:D

scully1234
2012-03-21, 19:16:38
Ich denk der Bedarf beschränkt sich auf wenige, schon wegen der ganzen MGPU Probleme. MR usw..
Die hätte man mit nem fetten GK110 nicht

Jupp aus der Sichtweiße macht eben n Sandwitch mit zwei 104ern eher Sinn,wie seine teuren Die Size Monster zu verballern

Und jetzt wo man in der Lage ist mit nem kleinen Chip gegenzuhalten,glaub ich nicht das sie sich genötigt sehen,so ein teures Ding zu basteln.Es sei denn AMD kommt zeitnah mit nem Joker

AnarchX
2012-03-21, 19:26:18
GTX 680 Launch Video: http://www.youtube.com/watch?v=rfdKDyVo_P4

Langweilige PhysX-Demos, die hat man schon auf der GDC ohne Keplerbezug gezeigt...

dildo4u
2012-03-21, 19:35:27
GTX 680 Launch Video: http://www.youtube.com/watch?v=rfdKDyVo_P4

Langweilige PhysX-Demos, die hat man schon auf der GDC ohne Keplerbezug gezeigt...
Boost geht bis 1.1Ghz laut Video,whol bei BF3 also recht anspruchsvoll.

http://www.abload.de/img/boostogjb1.jpg

AnarchX
2012-03-21, 19:40:17
Wird interessant sein, wie weit die Taktrate folgen kann, wenn man das Power-Limit erhöht.

Superheld
2012-03-21, 19:46:20
kommt heut noch was ?:D

James Ryan
2012-03-21, 19:46:46
GTX 680 Launch Video: http://www.youtube.com/watch?v=rfdKDyVo_P4

Langweilige PhysX-Demos, die hat man schon auf der GDC ohne Keplerbezug gezeigt...

Ich fand die Säulenszene sehr beeindruckend! :eek:
Habe ich das richtig gehört, 3 Monitore an einer Karte wird möglich sein?

MfG :cool:

aufkrawall
2012-03-21, 19:51:35
Habe ich das richtig gehört, 3 Monitore an einer Karte wird möglich sein?

4 :)

dildo4u
2012-03-21, 19:54:54
Habe ich das richtig gehört, 3 Monitore an einer Karte wird möglich sein?

MfG :cool:
3 für Gameing 4 fürs Arbeiten.

http://www.pcgameshardware.de/aid,873791/MSI-Geforce-GTX-680-Pressefolien-aufgetaucht/Grafikkarte/News/bildergalerie/?iid=1642734&vollbild

PCGH_Raffael
2012-03-21, 20:01:41
GTX 680 Launch Video: http://www.youtube.com/watch?v=rfdKDyVo_P4

Langweilige PhysX-Demos, die hat man schon auf der GDC ohne Keplerbezug gezeigt...

I become the crysis. Again.

Bevor mir einer mangelnde Englischkenntnis vorwirft: Absicht. :tongue:

MfG,
Raff

AnarchX
2012-03-21, 20:04:38
I become the crysis. Again.

Leaked by Nvidia: http://www.geeks3d.com/forums/index.php/topic,2530.0.html ... bzw. einem nicht ausreichend geschützten Download-Server.

y33H@
2012-03-21, 20:06:21
Auf diese Links muss man auch erst mal kommen ...

Iruwen
2012-03-21, 20:10:03
Gilt das NDA denn für die Videos?

Hugo78
2012-03-21, 20:10:27
Hübsch gemacht.

dildo4u
2012-03-21, 20:14:08
Leaked by Nvidia: http://www.geeks3d.com/forums/index.php/topic,2530.0.html ... bzw. einem nicht ausreichend geschützten Download-Server.
Epic Nvidia SD Video um das neue Flagschiff zu Promoten. :rolleyes:

cR@b
2012-03-21, 20:15:18
GTX 680 Launch Video: http://www.youtube.com/watch?v=rfdKDyVo_P4

Langweilige PhysX-Demos, die hat man schon auf der GDC ohne Keplerbezug gezeigt...

Diesmal statt "crank that shit up" nun ein neuer Spruch "the fastest, most efficient GPU ever built" :D Das klingt richtig Öko oder nach den Grünen...
ach das sind ja die Grünen! :)

mironicus
2012-03-21, 20:30:08
Bestimmt ein Fake! :D

777 Postings! :D

James Ryan
2012-03-21, 20:31:36
Diesmal statt "crank that shit up" nun ein neuer Spruch "the fastest, most efficient GPU ever built" :D Das klingt richtig Öko oder nach den Grünen...
ach das sind ja die Grünen! :)

Das klingt sehr Apple-like, ebenso ist das Video ganz schön auf Apple getrimmt.

MfG

Hübie
2012-03-21, 20:33:16
Das müssen die ja bei jeder Gen sagen. Wenn ne alte besser wäre hat mans ja verkackt ;D
Und ob man morgen gechilled in den PC-Handel um die Ecke gleich n Kepler gibt bezweifel ich. Kommt aber drauf an von wem wir hier sprechen ;)
Ich glaube der Turbo wird missverstanden. Afaik is der immer eine feste größe den man einfach prozentual zusammen mit dem Basistakt erhöht. Gebe ich +20% Turbo steigt auch der Basistakt.

mironicus
2012-03-21, 20:44:59
Aber wirklich Sinn macht der Turbo doch nicht, oder? Sie wird dadurch halt nur etwas stromsparender, anstatt sie dauerhaft mit 1100 MHz zu betreiben.

boxleitnerb
2012-03-21, 20:48:13
Hoffentlich hat sich das jemand in Verbindung mit VSync und CPU-Limit angeschaut. Das werden interessante Tests morgen.

Hübie
2012-03-21, 20:49:38
Haben beruhigt sag ich. Und mal ehrlich: würdest du den Unterschied auf deiner Energiekostenabrechnung erkennen?? ;)

dildo4u
2012-03-21, 20:52:08
Aber wirklich Sinn macht der Turbo doch nicht, oder? Sie wird dadurch halt nur etwas stromsparender, anstatt sie dauerhaft mit 1100 MHz zu betreiben.
Der Boost arbeitet zusammen mit dem Virtual Vsync.Die Karte versucht immer die 60fps zu erreichen um starke Abfälle durch Vsync zu verhindern.Würde man 1.1 festlegen aber die Karte je nach Game auch mit 1.2ghz innerhalb des TDP laufen verschenkt man Leistung,bzw man würde starkes der FPS druch Vsync riskieren obwhol die Karte mehr kann.

boxleitnerb
2012-03-21, 20:53:41
Der Turbo ist imo nur dann sinnvoll, wenn man eine gewisse fps-Zahl vorgeben kann. So wie es im Screenshot von diesem Treiberdialog neulich gezeigt war. Wenn die Karte im VSync nur 60% Last hat, ist Hochtakten einfach unnötig. Genauso wenn sie wegen einer lahmen CPU grad nix zu tun hat.
Ich will die Leistung doch eigentlich genau dann, wenn sie auch nötig ist, sprich, wenn die Karte auf Anschlag läuft. Vielleicht entwickelt sich dieses Feature ja über die nächsten Jahre weiter und führt zu einer besseren Auslastung der einzelnen Chipteile, so wie es hier schon diskutiert wurde.

Wo diese starken Abfälle bei VSync sein sollen, weiß ich bis heute nicht, da jedes Spiel Triple Buffering oder etwas Vergleichbares mitbringt.

Nighthawk13
2012-03-21, 20:58:15
Der Turbo boostet die FPS von 74->80 im Youtube-Video, das passt nicht zum Limiter.

Liquaron
2012-03-21, 20:58:25
Kann man den Boost nicht ausschalten? Finde das sollte man dem User überlassen....

Iruwen
2012-03-21, 20:58:44
Vielleicht bin ich naiv aber ich würde vermuten Nvidia hat schon drüber nachgedacht was sie mit dem Feature bezwecken. Irgendwer wird das schon getestet haben bzw. in den nächsten Tagen in einem Detailtest nachreichen.

Kriegsgeier
2012-03-21, 21:02:21
noch 3 Stunden? Oder müssen wir bis morgen um 15.00 Uhr warten? Was denkt ihr? Weiss einer genau?

Godmode
2012-03-21, 21:04:23
noch 3 Stunden? Oder müssen wir bis morgen um 15.00 Uhr warten? Was denkt ihr? Weiss einer genau?

Bis morgen 15:00, aber irgendwer kommt sicher am Knopf an :)

cR@b
2012-03-21, 21:09:05
Bis morgen 15:00, aber irgendwer kommt sicher am Knopf an :)

Ich sag 0 Uhr! :D

MadManniMan
2012-03-21, 21:10:16
Mal im Ernst: mir ist schon klar, dass ein Boost von 71 auf 75 fps im einen oder anderen Skillshooter schon was bringen könnte, aber hauptsächlich macht es die Balken in den Benchmarks ein wenig länger.
Wenn jetzt ein geboosteter Kepler gegen einen geboosteten Southern Islands in den Kampf der Balkenlängen geht und gleichauf steht, kann man davon ausgehen, dass in den wirklich fordernden Szenen die AMD-Karte vorn liegt, weil ja genau dann KEIN Strompuffer ausgenutzt werden kann. Scheiße.

Hugo78
2012-03-21, 21:13:07
Mal im Ernst: mir ist schon klar, dass ein Boost von 71 auf 75 fps im einen oder anderen Skillshooter schon was bringen könnte, aber hauptsächlich macht es die Balken in den Benchmarks ein wenig länger.
Wenn jetzt ein geboosteter Kepler gegen einen geboosteten Southern Islands in den Kampf der Balkenlängen geht und gleichauf steht, kann man davon ausgehen, dass in den wirklich fordernden Szenen die AMD-Karte vorn liegt, weil ja genau dann KEIN Strompuffer ausgenutzt werden kann. Scheiße.

Hä?

Wenn beide ihre max. Power ausnutzen und gleich auf sind, dann ist AMD schneller?!

uweskw
2012-03-21, 21:25:56
NV taktet hoch wenn die Karte nicht ausgelastet ist. Das bringt zusätzliche Avg FPS. Bei GPU limitierten Scenen bringt es aber wohl kaum etwas. Also da wo es drauf ankommt- Nix. Aber Balkenlänge.

Iruwen
2012-03-21, 21:27:15
GPU Limit heißt doch nicht dass die TDP erreicht ist.

boxleitnerb
2012-03-21, 21:28:38
Er meint wohl bei Szenen, die *richtig* reinhauen. GPU-Limit ist ja nicht gleich GPU-Limit, da liegen Welten dazwischen.

Maorga
2012-03-21, 21:33:01
Ja sehe ich auch so, das Feature ist nur was für PR Augenwischerei. Wann braucht den eine GPU wenig Saft, wenn die Szene leicht zu berechnen ist und dort hat man ja meistens genug Power. Wenn sie aber im Leistungslimit arbeitet rührt sich nichts. Ergo die Durchschnittsbilderrate wird im Benchmark nach oben gehen aber die min FPS werden bleiben.

Klar kann es gezielte Szenen geben in denen das wirklich Auswirkung hat auch auf die min FPS aber die werden sich wahrscheinlich auf 0,5% belaufen.

Ailuros
2012-03-21, 21:41:46
Also ich wurde von den architekturellen Einzelheiten nicht besonders weisser um ehrlich zu sein. In ein paar Stunden wird ja alles veroeffentlicht.

Schaffe89
2012-03-21, 22:15:02
Ich hab aber ehrlichgesagt keine Lust bis 0 Uhr aufzubleiben.
Aber scheinbar kommt die Karte wohl wirklich um Mitternacht.

boxleitnerb
2012-03-21, 22:17:17
Nicht 15 Uhr?

y33H@
2012-03-21, 22:21:44
Ich für meinen Teil bleibe nicht bis 0h wach.

Superheld
2012-03-21, 22:23:36
du weist ja schon alles:naughty:

Kriegsgeier
2012-03-21, 22:24:20
woher?

boxleitnerb
2012-03-21, 22:24:41
War das jetzt ein Hinweis, dass das NDA nicht um 0h fällt?

Ronny145
2012-03-21, 22:26:04
Ich glaube dafür braucht es keine Bestätigung. Nvidias NDA fällt wie üblich gegen Nachmittag, davon ist wieder auszugehen.

boxleitnerb
2012-03-21, 22:26:57
Gut, dann mal bis morgen. Vielleicht gibts ja über die Nacht noch einen Leak.

y33H@
2012-03-21, 22:34:52
du weist ja schon alles.Ich fürchte nein - idR kann man in der zur Verfügung stehenden Zeit nicht ALLES testen was einen interessiert oder [theoretisch] macht ist, zumal wir morgen und Freitag auch noch das Heft abgeben müssen :uup: Dennoch ist fei alles Wichtige drin, klar.

deekey777
2012-03-21, 22:35:21
woher?
y33H@ ist eine kleine Schlampe, die mit allen PCGH-Redakteuren ins Bett steigt, um ihre langen Balken vor allen anderen zu sehen.

Ich habe wirklich das Gefühl, dass die GTX680 eine Vernunftskarte ist.

horn 12
2012-03-21, 22:37:15
Dennoch wird es recht kannp werden.
Die HD7970 und 680GTX werden sich schlussendlich nicht viel nehmen.

Godmode
2012-03-21, 22:37:47
y33H@ ist eine kleine Schlampe, die mit allen PCGH-Redakteuren ins Bett steigt, um ihre langen Balken vor allen anderen zu sehen.

Ich habe wirklich das Gefühl, dass die GTX680 eine Vernunftskarte ist.

Was ist den bitte eine Vernunftskarte? :confused:

crux2005
2012-03-21, 22:38:05
Ich werde noch 15Std. 22min warten, aber nicht mehr! ;D

y33H@ ist eine kleine Schlampe, die mit allen PCGH-Redakteuren ins Bett steigt, um ihre langen Balken vor allen anderen zu sehen.

sehr geil

Iruwen
2012-03-21, 22:38:49
Eine die mehr als 450€ kostet jedenfalls nicht, da seh ich momentan eher die 7870 auf dem besten Weg.

PS: werdet ihr alt oder was? Die Nacht wird durchgenerdet!

Hugo78
2012-03-21, 22:38:52
NV taktet hoch wenn die Karte nicht ausgelastet ist. Das bringt zusätzliche Avg FPS. Bei GPU limitierten Scenen bringt es aber wohl kaum etwas. Also da wo es drauf ankommt- Nix. Aber Balkenlänge.

Nur wird diese art Balkenlänge kaum getestet.
Die Redakteure testen in Szenen am GPU Limit.

Blaire
2012-03-21, 22:39:52
PS: werdet ihr alt oder was? Die Nacht wird durchgenerdet!

Tombman fehlt ;(

Coda
2012-03-21, 22:40:21
Tombman fehlt ;(
;(

Hugo78
2012-03-21, 22:40:53
Was ist den bitte eine Vernunftskarte? :confused:

Etwas das schneller ist, aber weniger verbraucht als AMD's Topdog.

Kriegsgeier
2012-03-21, 22:42:24
GTX680GTX680GTX680 GTX680GTX680GTX680 GTX680 GTX680
GTX680 GTX680 GTX680 GTX680
GTX680 GTX680 GTX680
GTX680 GTX680 GTX680 GTX680
GTX680 GTX680GTX680 GTX680 GTX680 GTX680
GTX680 GTX680 GTX680 GTX680



hat irgendwie nicht geklappt

Godmode
2012-03-21, 22:42:32
Tombman fehlt ;(

Der würde uns alle auslachen, dass wir uns an so nem popeligen Mainstreamchip ergötzen und er mit seinem TRI-SLI das locker überbrückt bis GK110 kommt. :(

Odal
2012-03-21, 22:44:12
eben der würde sagen auf so einen <500mm² chip gepfiffen aber gekauft hätte er sich trotzdem min. 2 ;D

Ich werde noch 15Std. 22min warten, aber nicht mehr! ;D


selbst wenn 15 Uhr NDA Fall ist kamen einige Tests doch schon immer eher...

Raff
2012-03-21, 22:45:13
Tombman fehlt ;(

;(

;(

MfG,
Raff

y33H@
2012-03-21, 22:47:17
;(Second that! ;(
y33H@ ist eine kleine Schlampe, die mit allen PCGH-Redakteuren ins Bett steigt, um ihre langen Balken vor allen anderen zu sehen.Made my day! ;D

Iruwen
2012-03-21, 22:48:13
Sonst vermiss ich aber eigentlich keinen *hust* :rolleyes: :biggrin:

Raff
2012-03-21, 22:49:24
Sucky liest bestimmt mit und hat schon ein paar Kohlen beiseite gelegt. Ich für meinen Teil habe schon jetzt genug von dem Ding. :biggrin: Gute Nacht.

MfG,
Raff

Blaire
2012-03-21, 22:57:44
Der würde uns alle auslachen, dass wir uns an so nem popeligen Mainstreamchip ergötzen und er mit seinem TRI-SLI das locker überbrückt bis GK110 kommt. :(

Eigentlich schon, aber er wollte auch immer das schnellste und warten fiel ihm nie leicht, er hat deshalb immer gleich bei mehreren Händlern geordert. :biggrin:

mironicus
2012-03-21, 22:59:41
@Raff

Du hast doch eine 7970. Würdest du die gegen eine GTX 680 tauschen wollen...? :D

y33H@
2012-03-21, 23:00:17
Tombman hat längst bei Alternate die komplette erste Charge gekauft - noch vor Chuck Norris!

@ mironicus

Willst du eine gaaanz tolle schnelle leise undervoltete Asus GTX 580 DCII? :usad:

Godmode
2012-03-21, 23:06:05
Sucky liest bestimmt mit und hat schon ein paar Kohlen beiseite gelegt. Ich für meinen Teil habe schon jetzt genug von dem Ding. :biggrin: Gute Nacht.

MfG,
Raff

Meinst du Lovesucks?

Iruwen
2012-03-21, 23:20:21
Guten Abend Hauptmann Offensichtlich ;D

Leonidas
2012-03-21, 23:23:03
NV taktet hoch wenn die Karte nicht ausgelastet ist. Das bringt zusätzliche Avg FPS. Bei GPU limitierten Scenen bringt es aber wohl kaum etwas. Also da wo es drauf ankommt- Nix. Aber Balkenlänge.


Dafür kann es sein, das in GPU-limitierten Szenen bei AMD PowerTune heruntertaktet. Kommt aufs gleiche raus - und ohne Fakten-Beweis läßt sich hier nicht orakeln, wer da besser ist.

uweskw
2012-03-21, 23:27:15
GTX 570 Phantom 250€.
Was mich wundert ist dass die 7970 im Preis noch überhaupt nicht nachgibt. Stures Biest!
Wenn die 680 wirklich schneller ist muss AMD runter mit dem Preis. Oder wissen die dass NV ohnehin fast nichts liefern kann? Bisher hab ich noch keinen Shop gesehen der schon was hat.

Iruwen
2012-03-21, 23:29:31
Hier stand doch schon irgendwo was von 25 Karten.

y33H@
2012-03-21, 23:32:13
Was mich wundert ist dass die 7970 im Preis noch überhaupt nicht nachgibt.Hmmm ...

42308

Odal
2012-03-21, 23:33:32
GTX 570 Phantom 250€.
Was mich wundert ist dass die 7970 im Preis noch überhaupt nicht nachgibt. Stures Biest!
Wenn die 680 wirklich schneller ist muss AMD runter mit dem Preis. Oder wissen die dass NV ohnehin fast nichts liefern kann? Bisher hab ich noch keinen Shop gesehen der schon was hat.

da wird sich bis zu den Reviews an nix tun am Preis der 7970.
Und selbst dann würde ich eher noch mind. 1 Tag draufschlagen.
Und bzgl. Verfügbarkeit die werden schon liefern können sind ja nicht umsonst schon ein paar GTX680 Tage vorher durch den Handel in den Umlauf gekommen

uweskw
2012-03-21, 23:36:59
Hmmm ...

42308

na, 450 Euronen gibts schon länger... würd ich mal als Normalpreis ansehen.

cR@b
2012-03-22, 00:00:41
OMG 0 UHR :eek:

AwesomeSauce
2012-03-22, 00:03:28
OMG 0 UHR :eek:
Es ist... genullnauuhr (http://lustich.de/mp3s/radiopannen/genull-nau-uhr/) :D

Nightspider
2012-03-22, 00:03:43
http://funfire.de/bilder/1503/wenn-in-china-ein-sack-reis-umfaellt.jpg

y33H@
2012-03-22, 00:12:38
Gilt das NDA denn für die Videos?Die sind vom NV-Serve, hat einer bei Geeks3D gefunden. War wohl nicht absichtlich ...

cR@b
2012-03-22, 00:22:34
Die sind vom NV-Serve, hat einer bei Geeks3D gefunden. War wohl nicht absichtlich ...

Warum bist Du noch wach? Husch ab ins Bett mit dir oder verlinkst du etwa gleich noch was?

MadManniMan
2012-03-22, 00:25:02
Dafür kann es sein, das in GPU-limitierten Szenen bei AMD PowerTune heruntertaktet. Kommt aufs gleiche raus - und ohne Fakten-Beweis läßt sich hier nicht orakeln, wer da besser ist.

Sehr guter Punkt, ich hatte PowerTune ganz vergessen.

y33H@
2012-03-22, 00:26:01
Erstens weil ich idR mit 5h Schlaf locker auskomme und zweitens weil ich an was arbeite, was nicht (!) gleich verlinkt wird und drittens noch eine Trine-2-Meldung raustellen wollte - tolles Spiel. GN8 :biggrin:

dildo4u
2012-03-22, 00:27:27
Billiger als 7970.

680 500$
http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&DEPA=0&Order=BESTMATCH&N=-1&isNodeId=1&Description=gtx+680&x=0&y=0

http://farm7.staticflickr.com/6230/7004348205_980dd2397a_b.jpg

7970 550$

http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&IsNodeId=1&Description=hd%207970&bop=And&cm_sp=KeywordRelated-_-7970-_-%20hd%207970&Order=PRICE&PageSize=20

Screemer
2012-03-22, 00:31:23
Hatte schon mal einer runtergetaktete Karten am gpu Limit bei powertune default? Meine 6950 tut das nicht.

Wie was wo trine 2? Wann kommt der dlc? Für vorbesteller des hauptspiels gar kostenlos? dann her damit :D

cR@b
2012-03-22, 00:36:07
Billiger als 7970.

680 500$
http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&DEPA=0&Order=BESTMATCH&N=-1&isNodeId=1&Description=gtx+680&x=0&y=0

http://www.abload.de/img/ffsfl35ia.jpg

7970 550$

http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&IsNodeId=1&Description=hd%207970&bop=And&cm_sp=KeywordRelated-_-7970-_-%20hd%207970&Order=PRICE&PageSize=20

Nice, newegg hat alle aufgefahren und der Preis gefällt, jetzt muss das Ding nur noch übern großen Teich kommen :D

Iruwen
2012-03-22, 00:37:19
Vorm Launch schon günstiger als die 7970?

/e: out of stock :D

Coda
2012-03-22, 00:39:53
500$ sind für einen 300mm²-Chip mit relativ geringer TDP und 256-Bit-SI auch immer noch jede Menge Geld. NVIDIA kann AMD da ganz gut mit dem Preis ärgern.

Ich denke die 7970 wird bald bei 350€ liegen. Aber das hat ja eh jeder vorhergesehen.

Nightspider
2012-03-22, 00:40:36
Nice! :D

Wenn die Preise schön purzeln hab ich am Ende des Jahres wohl mindestens ein GTX 680 SLI Gespann.

Ronny145
2012-03-22, 00:41:38
Die 500 USD MSRP scheinen korrekt zu sein. AMD müsste mindestens auf 450 USD runter wenn sich die THG Benches heute bestätigen.