Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012
dargo
2012-03-12, 21:30:04
Der Preis stimmt. $549 MSRP um ganz genau zu sein.
OMG, die nächste Lachnummer nach Tahiti. ;D 549$ für lächerliche ~300mm². :facepalm:
Schaffe89
2012-03-12, 21:31:00
Alles klar: Oh yeah, die Karte ist im Reviewer's Guide immer schneller. Applaus!
Wenn man sich die reviewer guides aus den letzten Jahren zur Brust nimmt, dann darf man da sogut wie immer mindestens 20% abziehen.
Insofern, wenn Nvidia Gk 104 15% über Tahiti XT sieht, wirds nichts mit der Performancekrone, wenn man da das übliche abzieht.
@dargo
Viel perverser wäre Pitcairn mit ~210mm² mit 1200mhz Chiptakt für einen ähnlichen Preis gewesen.
boxleitnerb
2012-03-12, 21:31:12
Theoretisch wären mir $549 wurscht...wenn das Ding 30% über der 7970 liegen würde :D
y33H@
2012-03-12, 21:32:34
Wenn man sich die reviewer guides aus den letzten Jahren zur Brust nimmt, dann darf man da sogut wie immer mindestens 20% abziehen.Wie viele Reviewer's Guides der letzten Jahre hast du denn so addiert und gemittelt? Für die angegebenen Settings waren die im Falle von AMD wie NV passend - und stellenweise waren das gar meine Settings :eek:
Zur Preisdiskussion: Ein Hersteller meinte auf der CeBIT mit einem verschmitzten Lächeln zu mir, man würde das Ding auch gern für 700 Dollar verkaufen, wenn er es denn hergäbe. Klar muss allen sein: Die GeForce GTX 680 wird kein Schnäppchen.
Botcruscher
2012-03-12, 21:34:14
Das wird dann wohl bis in den August ein sehr geruhsames Jahr, mit Karten die zwar ok aber jenseits jeden vernünftigen Preises liegen.
Wenn TSMC von der Nachfrage so "überrascht" wurde, dann kann es ja noch ein paar Monate dauern..:freak:
dargo
2012-03-12, 21:35:02
2008 ist ist vorbei, jetzt wollen die Hersteller mal wieder die Kriegskassen füllen. Mh.
Ehrlich gesagt wünsche ich beiden IHVs, dass sie mit der neuen Generation richtig auf die Schnauze fallen. Sprich, die Dinger Ladenhüter bleiben.
Schaffe89
2012-03-12, 21:35:41
Wie viele Reviewer's Guides der letzten Jahre hast du denn so addiert und gemittelt? Für die angegebenen Settings waren die im Falle von AMD wie NV passend - und stellenweise waren das gar meine Settings
Es ist doch wohl klar was gemeint ist.
Man biegt sich die Performance mit entsprechende Szenen und Settings zurecht, was bei einem objektiven review nicht der Fall ist.
Aber du hast recht, euer benchmarkparcour könnte für Nvidia selbst nicht besser sein.:eek:
HD 7870 unter GTX 560 TI 448, HD 7850 unter GTX 560 Ti Niveau, das muss man erstmal schaffen.:P
y33H@
2012-03-12, 21:38:38
Aber du hast recht, euer benchmarkparcour könnte für Nvidia selbst nicht besser sein.Guter Trollversuch, aber beileibe nicht treffend - man könnte eine GTX 560 Ti vor eine HD 7970 bekommen ;D
HarryHirsch
2012-03-12, 21:39:25
Es ist doch wohl klar was gemeint ist.
Man biegt sich die Performance mit entsprechende Szenen und Settings zurecht, was bei einem objektiven review nicht der Fall ist.
Aber du hast recht, euer benchmarkparcour könnte für Nvidia selbst nicht besser sein.:eek:
HD 7870 unter GTX 560 TI 448, HD 7850 unter GTX 560 Ti Niveau, das muss man erstmal schaffen.:P
der wurde doch über monate daraufhin optimiert. :upara:
Schaffe89
2012-03-12, 21:54:44
man könnte eine GTX 560 Ti vor eine HD 7970 bekommen
Ihr solltet mal lieber auf sonen Performance Index Firlefanz mit so wenig gebenchten Spielen verzichten, das ist doch lächerlich.
Lieber etwas mehr Spiele testen ( ohne SGSSAA und ohne eigene Treiberumstellungen).
Ihr seit die einzige Seite im Web die einen online Test herausbringt und dann aber die Performancewerte vom sehr Nvidia lastigen Print Performanceindex völlig undurchsichtig in den Kommentartext zum Online Test schreibt.
Ich mag vielleicht gerne in der Hinsicht übertreibern, aber ich find eure Testmethoden nach wie vor etwas zu exotisch.
boxleitnerb
2012-03-12, 21:58:25
Ich finds gut, dass mit SGSSAA getestet wird. Wo soll die Leistung denn sonst hin?
y33H@
2012-03-12, 21:58:42
HQ und mit die sich am besten verkaufenden Spiele ... nun ja, ich persönlich (also CPU'ler) halte es für gut ausgewählt. Mich zB interessiert aber SC2 nicht.
Ihr solltet mal lieber auf sonen Performance Index Firlefanz mit so wenig gebenchten Spielen verzichten, das ist doch lächerlich.
Lieber etwas mehr Spiele testen ( ohne SGSSAA und ohne eigene Treiberumstellungen).
Ihr seit die einzige Seite im Web die einen online Test herausbringt und dann aber die Performancewerte vom sehr Nvidia lastigen Print Performanceindex völlig undurchsichtig in den Kommentartext zum Online Test schreibt.
Ich mag vielleicht gerne in der Hinsicht übertreibern, aber ich find eure Testmethoden nach wie vor etwas zu exotisch.
Und du solltest mal lieber einsehen, dass der Index für diese Spiele realitätsnah gilt und es nicht schlimm ist, wenn man mal sieht, wo die geliebte Grafikkarte so richtig abkackt. Das Leben (und Spiele-Engines) ist kein fluffiger Ponyhof, es gibt auch Tiefs. ;)
MfG,
Raff
Ailuros
2012-03-12, 22:03:09
Schaffe89, y33H@ und Raff: darf ich Euch Herrschaften bitten Eure Meinungsverschienheiten eher privat auszubuegeln? Jeglicher neue relevante Beitrag egal von wem wird geloescht. Danke.
AnarchX
2012-03-12, 22:12:57
Man kann wohl davon ausgehen, dass die 28nm Probleme eher kurzfristig eingetreten sind.
Aus langfristiger Sicht wäre, es wohl sinnvoller gewesen Kepler Notebook-exklusiv zu launchen - als GTX 680M wäre GK104 sehr überzeugend und hier sind wohl $999 ein üblicher Preis für solche Top-MXM-Module.
Auf dem Desktop hätte man weiter 40nm produzieren sollen und mit den Preisen deutlich nach unten gehen können, was bei dem Alter von 40nm wohl mittlerweile kein Problem mehr sein sollte.
A propos 7870/7850, was ist denn der Stand bei GK106? Der ging hier (und anderswo) irgendwie ein wenig unter, scheint mir.
die 7870/50 das ist doch genau so ein fail - seit ewigkeiten "gelauncht" und nix gelistet (nichtmal zu total überhöhten preisen) ein typischer papiertiger
ich würde hier auch nicht allzuviel bang4bucks beim 106 erwarten
welche 40nm chips werden denn derzeit noch produziert? weiss das jemand?
ich glaube das die komplette 28nm riege erstmal reine papiertiger bleiben und weiterhin 40nm zeug unters volk gestreut wird.
Sorkalm
2012-03-12, 22:23:29
die 7870/50 das ist doch genau so ein fail - seit ewigkeiten "gelauncht" und nix gelistet (nichtmal zu total überhöhten preisen) ein typischer papiertiger
Verkaufsstart für die ist der 16.3. Ganz offiziell.
Ailuros
2012-03-12, 22:24:29
Bei sagen wir mal $250 waere etwas wie Pitcairn/GK106 ein hoellisch gutes Angebot wenn man alle Faktoren mitberechnet. Leider muessen wir aber wohl alle die nicht als early adopters in den sauren Apfel beissen wollen eine Zeit lang warten.
horn 12
2012-03-12, 22:28:09
Nun gut, heute kommt wohl nix mehr.
Also, in etwa etwas höherer HD7970-er Preis mit wohl sehr ähnlicher Leistung...
Da hat man wohl nach "oben hin" optimieren müssen, nach der Aussage NV:
Mann hat von Tahiti mehr erwartet.
Vielleicht erreicht man noch etwas bei der Handbremse der Tahiti GPU´s in kommenden Treibern.
Bei sagen wir mal $250 waere etwas wie Pitcairn/GK106 ein hoellisch gutes Angebot wenn man alle Faktoren mitberechnet. Leider muessen wir aber wohl alle die nicht als early adopters in den sauren Apfel beissen wollen eine Zeit lang warten.
wie gesagt je nachdem was da noch an 40nm chips mit ähnlicher performance produziert wird, legt man wohl erstmal auch garkeinen Wert drauf legen grosse Mengen von den 78x0 und GK106 abzusetzen
ich ringe sogar schon damit mir den Urthermi (gtx480) für <200€ einzupflanzen aber bei der Leistungsaufnahme tränen mir die Augen
Adam D.
2012-03-12, 22:35:13
Bei sagen wir mal $250 waere etwas wie Pitcairn/GK106 ein hoellisch gutes Angebot wenn man alle Faktoren mitberechnet. Leider muessen wir aber wohl alle die nicht als early adopters in den sauren Apfel beissen wollen eine Zeit lang warten.
"Eine Zeit lang" ist gut. Wenn TSMC nicht kurzfristig Erfolge erzielen kann, wird sich in den nächsten Monaten kaum was tun.
Naja, ich bin grad zu frustriert und halt mich hier jetzt raus. Möge der 22.3. nie kommen :ulol:
fizzo
2012-03-12, 22:46:07
Auf dem Desktop hätte man weiter 40nm produzieren sollen und mit den Preisen deutlich nach unten gehen können, was bei dem Alter von 40nm wohl mittlerweile kein Problem mehr sein sollte.
AMD hat NV einfach unter Druck gesetzt. Die Roten sind seit Jänner mit ihrem 28nm Line-up laufend in den Schlagzeilen. Haben die Performence-Krone inne, sind PCIe 3.0 & 11.1 ready, und das gesamte Portfolio ist wohl strukturiert:
7750/7770 - 128 Bit - 1 GB
7850/7870 - 256 Bit - 2 GB
7950/7970 - 384 Bit - 3 GB
Wenn ich da das NV Line-up, speziell die Speicherbestückung, als Neukäufer betrachte, so ist dieses IMHO nicht mehr zeitgemäß - von den Verbrauchswerten ganz zu schweigen. Da sind die Grünen leider momentan nicht mehr up-to-date und mussten einfach handel!
edit: und ich bleibe dabei - ab der nächsten Woche wird die 7850 das Angebot der Stunde sein!
angebot der stunde hiesse ja 220-230€ da langsamer als GTX570
und das glaub ich mal garnicht....250-300€ werden die dinger min. kosten
fizzo
2012-03-12, 23:02:05
angebot der stunde hiesse ja 220-230€ da langsamer als GTX570
und das glaub ich mal garnicht....250-300€ werden die dinger min. kosten
So kann die Radeon HD 7850 basierend auf ihrem Listenpreis von 249 Dollar bei Straßenpreisen von bestenfalls 210 Euro landen, damit würde man der in diesem Preisbereich agierenden Radeon HD 6950 natürlich erheblich zusetzen. Genauso gut können die ersten Straßenpreise aber auch bei 240 Euro liegen – was jedoch im Fall der Radeon HD 7850 immer noch gut wäre, denn dies ist am oberen Ende der Preisskala der Radeon HD 6950 und gegenüber dieser Karte hat die Radeon HD 7850 die gleiche Performance, weniger Stromverbrauch und ihren Neuheitswert vorzubringen. Insofern sehen wir sehr gute Marktaussichten für die Radeon HD 7850 – und hoffen, daß AMD diesen für 28nm-Grafikkarten vergleichsweise tief angesetzten Listenpreis auch in der Realität halten kann.
3d-center (http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-hd-7850-7870/launch-analyse-amd-radeon-hd-7850-7870-seite-2)
Und wie gesagt, weder der Verbrauch noch die Speicherbestückung der GTX 570 ist in dieser Preisklasse heute noch up-to-date!
edit: erste Listung:
MSI R7850 Twin Frozr 2GD5/OC, Radeon HD 7850, 2GB GDDR5 - € 275 (http://geizhals.at/eu/746984)
edit2: HIS Radeon HD 7870 und 7850 mit IceQ(-X)-Kühler - UVP 349€/249€ (http://www.computerbase.de/news/2012-03/his-radeon-hd-7870-und-7850-mit-iceq-x-kuehler/)
dildo4u
2012-03-12, 23:13:41
7850 ist Nett aber für die Meisten ein zu kleiner Sprung hier wird ja auf das "High-End" Modell gewartet.Von einer 6870/560Ti/GTX470 etc lohnt es nicht.(Nicht mal 20%+)
Gerade gegen die 6870 ist die 7850 locker 80€ zu teuer,und braucht nicht so viel mehr Strom das es negativ ins Gewicht fällt.
fizzo
2012-03-12, 23:21:18
7850 ist Nett aber für die Meisten ein zu kleiner Sprung hier wird ja auf das "High-End" Modell gewartet.Von einer 6870/560Ti/GTX470 etc lohnt es nicht.(Nicht mal 20%+)
Gerade gegen die 6870 ist die 7850 locker 80€ zu teuer,und braucht nicht mal übermäßig mehr Strom.
Ich sehe auch hier im Forum durchaus Bedarf (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=522795). Als GTX 460 Besitzer würden mich der 50% Leistungszuwachs sowie der zusätzlicher Speicher durchaus reizen. Aber jetzt genug o.T.....
letztes edit: Gerade gegen die 6870 ist die 7850 locker 80€ zu teuer,und braucht nicht so viel mehr Strom das es negativ ins Gewicht fällt.
IMHO nein, Speicher - AF-Fix - Super-Sampling-AA auf HD-7000-Serie (http://www.computerbase.de/news/2012-03/amd-verbessert-super-sampling-aa-auf-hd-7000-serie/)
HarryHirsch
2012-03-12, 23:24:54
Ich sehe auch hier im Forum durchaus Bedarf (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=522795). Als GTX 460 Besitzer würden mich die 50% Leistung sowie der zusätzlicher Speicher durchaus reizen. Aber jetzt genug o.T.....
wenn ail die kagge vom moni gewischt hat gibs sicher haue. :sneak:
naja da ist die 7850 ja schonmal so ungefähr gepreist wie ich es erwarted habe..das ist natürlich zu teuer gemessen am gebotenen und zu teuer für so einen minichip
generell ist die 7850 auch zu beschnitten um grossartig da zu wildern wo es für Aufrüster der 40nm Generation interessant wäre
7870 wäre da schon eher interessant auch hinsichtlich von der gk104 bepreisung
alles in allem ein großer fail
meine liste wäre
7850 150-170€
7870 210€
7950 250-275€
GK104 250€
7970 300-350€
GK110 400-450€
so ungefähr hätte ich das lineup unter normalen umständen erwartet
Wollte nV nicht mit der neuen GK Reihe mit Perf/Watt punkten? Wenn der GTX680er hochgeprügelt wird um die XT in manchen Bereiche zu schlagen, wird der ziemlich viel verbraten oder liege ich da falsch?
Screemer
2012-03-12, 23:51:33
also ich bin schwer am überlegen ob ich meine 6950 mit accelero extreme so schnell wie möglich verkaufen soll um sie gegen eine 7850 zu tauschen. die ice-q modelle sind doch schon mal gut gepreist. bin mal gespannt ob da der gk104 release noch was dran ändern wird.
Blediator16
2012-03-12, 23:55:35
Wollte nV nicht mit der neuen GK Reihe mit Perf/Watt punkten? Wenn der GTX680er hochgeprügelt wird um die XT in manchen Bereiche zu schlagen, wird der ziemlich viel verbraten oder liege ich da falsch?
Deswegen gibts scheinbar den ominösen Turbomodus. Bin mal gespannt ob da noch anständige Vergleiche dann mögl. sind^^
hardtech
2012-03-12, 23:57:51
Sollte es heute nicht den paper launch geben laut Charlie? So ein Dummschwätzer der Typ.
ja! lies die 3dc news. gtx680 für $549 :freak:
Ronny145
2012-03-13, 00:01:28
ja! lies die 3dc news. gtx680 für $549 :freak:
Es gab keinen launch, lies den Thread.
hardtech
2012-03-13, 00:07:10
habe ich!
"die GeForce GTX 680 soll nunmehr für einen Listenpreis von 549 Dollar (gleichlautend zur Radeon HD 7970) in den Handel gelangen."
aufkrawall
2012-03-13, 00:15:14
Das ist kein Launch, das ist Leaken und Annehmen.
hardtech
2012-03-13, 00:26:06
ja kann sein.
jedoch sprechen alle zeichen dafür, dass sich das von vielen ersehnte warten NICHT gelohnt hat. man bekommt einfach nur ein nv produkt auf 28nm basis statt amd. plv werden sich beide bis sommer nichts nehmen wegen tsmc.
ist schon doof für alle, die sich hoffnungen gemacht haben, der chip kommt und setzt ein wie eine bombe! :D
22nm werden wir dann 2015 erleben? ;)
ich frage mich ja woraus nvidia und die amd graka Sparte derzeit ihren Umsatz generieren
schenkt man diesen Zahlen glauben http://www.3dcenter.org/news/nvidia-quartalszahlen-q42011-nur-ein-durchschnittliches-viertes-quartal-aber-ein-gutes-gesamtja ist der zwar rückläufig aber nur "leicht"
mit 28nm generiert man keinen nennenswerten Umsatz, bei 40nm kann ich es mir eigentlich auch nicht vorstellen da kein preislicher Anreitz vorhanden und aufrüster schon vor einem Jahr aufgerüstet haben.
Bin mal auf die Zahlen vom Q1/12 gespannt
maximus_hertus
2012-03-13, 00:58:13
Das kann ich dir sagen: GTX 560 und 570 Karten verkaufen sich richtig gut. Ich baue ständig Rechner mit eben diesen Karten (nur die 6870 läuft noch besser). Die meisten Kunden wissen gar nicht, dass Kepler vor der Tür steht und wollen auch nicht warten.
kunibätt
2012-03-13, 01:18:12
Was Nvidia da abzieht ist nur noch arm. Wieso kriegen die es nie termingerecht hneinen Chip zu fertigen? Die Preisspekulation nehme ich eh nicht ernst, aber dass deren 300² mm Chip auch nur irgendwie konkurrenzfähig sein sollte, ist der Witz des Tages. Fakt ist eher, dass sie bis Sommer nichts Gescheites liefern können und einfach einen Billigchip (den sie gefertigt bekommen) GTX 6XX nennen. Und ein feiner Speicherkrüppel wirds auch schon wieder:eek:
Skysnake
2012-03-13, 02:16:59
Wieso wirds ein Speichergrüppel?
Meinst jetzt von der Menge her, oder von der Anbindung?
Wobei...
Eigentlich ist es egal. 2GB sollten wohl ausreichen, und wenn das Ding nen Bandbreitengrüppel ist, dann ist es die GTX580 auch....
aufkrawall
2012-03-13, 02:21:12
und wenn das Ding nen Bandbreitengrüppel ist, dann ist es die GTX580 auch....
Die hat 384 Bit Anbindung, ist aber langsamer getaktet.
Dieses Schlechtreden, bevor brauchbare Benchmarks auf dem Tisch liegen, ist echt das allerdümmste...
redfirediablo
2012-03-13, 02:43:56
Zeigt sich aber mal wieder das die 299$ einfach nur FUD waren, damit nicht so viele AMD Karten verkauft werden und die Leute brav auf die GTX680 warten.
Letztlich aber irrelevant. Zu 549$ wird sich eh kaum jemand die Karte kaufen. Wer soviel Geld ausgibt, kennt sich aus und kommt sich irgendwo verarscht vor, bei nem 300mm² chip mit 2gb Speicher, auch wenn er halbwegs schnell ist.
Problem für Nvidia ist eher das Sie darunter nicht wirklich etwas haben. GTX 570 und GTX 580 sind praktisch tot. Außer NV Fans greift doch keiner mehr zu so einer Karte, wobei man sich fragen kann, wer momentan überhaupt gern für über 200 Euro ne Karte kauft. Hab vor über einem Jahr 240 Euro für meine 6950 2GB modbar @ 6970 bezahlt und selbst heute gibt es in dem Preisbereich nicht viel besseres.
Skysnake
2012-03-13, 02:50:49
Die hat 384 Bit Anbindung, ist aber langsamer getaktet.
Dieses Schlechtreden, bevor brauchbare Benchmarks auf dem Tisch liegen, ist echt das allerdümmste...
Wer lesen kann hat einen klaren Vorteil... :ugly:
Ich sag doch selbst, dass das totaler Bullshit ist, die Bandbreite von GK104 an zu kreiden, weil er zwar ein schmaleres Speicherinterface hat, aber eben endlich mal höher getakteten Ram verwendet, was dann unterm Strich aufs Selbe raus kommt....
Und die GTX580 wird ja hoffentlich niemand als Bandbreitengrüppel bezeichnen oder?...:rolleyes:
OBrian
2012-03-13, 03:56:53
Außer NV Fans greift doch keiner mehr zu so einer Karte, wobei man sich fragen kann, wer momentan überhaupt gern für über 200 Euro ne Karte kauft. Der Witz dabei ist ja, daß sie offenbar aktuell auch nicht mehr Karten haben, als diese paar Leute abnehmen. Warum sollten sie sie dann auch nur einen Cent billiger anbieten? Der Preis wird sich schon anpassen, wenn mehr hergestellt werden und damit auch größere Käuferschichten erschlossen werden müssen.
Rein von der mit G92b vergleichbaren Diefläche her müßte die Karte ja dann auch zu G92b-Preisen möglich sein, ohne daß NV Verlust dabei macht. Vor allem wenn dann noch eine teildeaktivierte Version mit langsamerem, billigerem RAM kommt, namens 670 oder sowas. Aber das dauert wohl noch eine Weile.
Tja, ich halte dann einfach mit meiner 5850 noch ein weiteres Jahr aus, bis es für die gleichen 200€ eine merklich schnellere Karte gibt. *seufz*
aylano
2012-03-13, 04:11:17
Man kann wohl davon ausgehen, dass die 28nm Probleme eher kurzfristig eingetreten sind.
Welche kurzfristigen Probleme?
Die 32/28nm-Fertigung läuft schon seit 1,5 Jahren schlecht.
Es wurde halt zu lange an ein kleines Ramp-Wunder (mit allen 3 Dies gleichzeitig) geglaubt, auch nachdem Nvidia Fertigungs-Probleme (Yield oder Kapazität) bis Ende des Jahres ankündigte
Und da konnte AMD bei 40nm "erst" 9 Monate nach DX11-Einführung ("Big-Die") und 6 Monate nach dem letzten DX11-Die (Masse-Die) die Engpässe für beendet erklären.
Aus langfristiger Sicht wäre, es wohl sinnvoller gewesen Kepler Notebook-exklusiv zu launchen - als GTX 680M wäre GK104 sehr überzeugend und hier sind wohl $999 ein üblicher Preis für solche Top-MXM-Module.
Auf dem Desktop hätte man weiter 40nm produzieren sollen und mit den Preisen deutlich nach unten gehen können, was bei dem Alter von 40nm wohl mittlerweile kein Problem mehr sein sollte.
Das würde ich nicht einmal so pauschal sagen. Masse-Dies für OEMs müssten grundsätzlich so billig wie die Vorgänger angeboten werden, wenn sie nur der Nachfolger sind, während man im Retail-Markt an der Performance des Vorgängers orientieren kann.
Wenn man die 28nm-Produkte generell (Desktop & Notebook) als Premium-Karte verkauft, macht man sich keine/geringere Konkurrenz im eigenen Lager, wo die Masse noch über 40nm Verkauft wird.
Hohe Desgin-Wins bei Meilensteine wie Westmere oder Ive-Bridge-Einführung haben nur Sinn wenn man die Mengen auch liefern kann. Grundsätzlich bedeutet ein Meilenstein, dass in dieser Zeitperiode eine Menge Notebook-Modelle auf die neue Hardware umgestellt wird. Aber wenn man sowieso nicht in besonderen Mengen liefern kann, kann man genauso (vielleicht den ganzen Rampe) in den neuen Notebooks-Modellen zwischen den Meilensteine ausreichend beliefern/rampen.
Gut sah man das auch bei DX11 @ Westmere, wo AMD zwar rechtzeitig da war, aber nicht liefern konnte. Und die Fertigungs-Probleme bei Nvidia sollten in der Zeit beseitigt werden, wo dann der nächste Meilenstein kommt.
Für mich ist es nicht so eindeutig, was jetzt die bessere Strategie ist. Ist sehe Nvidia eher unter Druck. Einerseits von AMD, da sie in allen Produkt-Linien draußen sind und andererseits, weils sie es sich langfristig genauso mit OEMs aufgrund zu geringer Mengen verscherzen kann.
kunibätt
2012-03-13, 04:32:59
Ich meinte erstmal rein von der Menge her.
2GB sind für einen Gamer wahrscheinlich ausreichend, aber fürs Computing ist es schon sehr wenig. Ich beziehe mich da jetzt rein aufs Rendering, kein Plan was sonst von nem riesen VRAM Profit zieht.
Das doofe ist halt immer noch, das NV was Rendersoftware angeht, den besten (einzigen?) Support hat. Wenn jemand mal Erfahrungen mit V-Ray und einer HD7970 posten könnte, wär das supi. Andererseits will ich auch einfach nicht auf die Kompabits verzichten, weil die toll sind ;)
549$ für einen Performancechip... bääh, da können die lange drauf warten
horn 12
2012-03-13, 07:13:25
Gleich wie AMD Preise
Diese können jedoch gar nicht schlecht liefern und am Preis feilen.
Schon arm was NV GESTERN da ablieferte. (Nämlich absolut NIX)
Wäre die Karte Klasse hätte man es sich nicht nehmen lassen diese an die große Glocke zu hängen,- aber so scheint mir dies ziemlich undurchwachsen!
foenfrisur
2012-03-13, 07:15:40
was hat nv denn gestern abgeliefert? (genau....NIX :) )
ich finde es allerdings auch merkwürdig/bescheiden, wie nv diesmal info-politik betreibt.
mfg
OgrEGT
2012-03-13, 08:06:12
Ich hab jetzt meine alte GTX570 mit einem Artic Accelero Kühler bestückt. Komm jetzt auf 910 MHz und höre die Karte selbst unter Last kaum aus dem System raus. Da lohnt 28 nm nicht wirklich. Ich werde diese Generation wohl überspringen obwohl ich eigentlich aufrüsten wollte. Vielen anderen wird das ähnlich gehen.
Greetz
U.S.
Genau :) Obwohl ich schon schwach werden könnte ... sowohl in die eine als auch andere Richtung AMD / NV
boxleitnerb
2012-03-13, 08:11:07
http://www.abload.de/thumb/68f13bfdgw1dl8grzl2fwyiufk.jpg (http://www.abload.de/image.php?img=68f13bfdgw1dl8grzl2fwyiufk.jpg) http://www.abload.de/thumb/133828tohasoho3ms7zs199ui0.jpg (http://www.abload.de/image.php?img=133828tohasoho3ms7zs199ui0.jpg)
http://www.chiphell.com/thread-367824-1-1.html
Sie haben angeblich noch keinen Treiber, können also keine Benchmarks machen. Die Karte ist arg lang dafür dass sie ursprünglich mal die 560Ti beerben sollte und nur einen 300mm2 Chip drauf hat.
Adam D.
2012-03-13, 08:12:58
Gleich wie AMD Preise
Diese können jedoch gar nicht schlecht liefern und am Preis feilen.
Schon arm was NV GESTERN da ablieferte. (Nämlich absolut NIX)
Wäre die Karte Klasse hätte man es sich nicht nehmen lassen diese an die große Glocke zu hängen,- aber so scheint mir dies ziemlich undurchwachsen!
Eigentlich sollte ich ja nicht drauf eingehen, aber jetzt hör doch mal mit diesem kompletten Unsinn auf, kauf dir deine Ati-Karte und quatsch hier in dem Thread nicht jede Kleinigkeit schlecht - das nervt!
Nvidia musste gestern GAR NIX abliefern oder hast du eine offizielle Ankündigung gehört? Wenn Ati vor dem Launch mit nichts rausrückt, ist das 'ne konsequente Informationspolitik, aber bei Nvidia ist es seltsam, dass sie bis jetzt nicht einen auf dicke Hose machen? Ist klar :freak:
Und ich merke bei den Händlerpreisen nicht, dass Ati an den Preisen feilt. Du wirst immer noch arm, wenn du dir heute Tahiti kaufst (oder morgen Kepler, ganz egal).
Die Karte ist arg lang dafür dass sie ursprünglich mal die 560Ti beerben sollte und nur einen 300mm2 Chip drauf hat.
Hmm, sieht jetzt ehrlich gesagt nicht viel länger als meine HD5850 aus. 10 Zoll schwirrten doch eh die ganze Zeit rum.
boxleitnerb
2012-03-13, 08:26:46
Und weiter gehts :D
294mm2
3.54 billion transistors
195W
http://www.chiphell.com/forum.php?mod=redirect&goto=findpost&ptid=382049&pid=11424899
Knapp über 12 Mio. Transistoren pro mm2. Das ist dieselbe Transistordichte wie Tahiti, sogar ein Tick höher. Nur Pitcairn hat etwas mehr mit 13,2 Mio. Respekt, dass die das geschafft haben.
Zum Vergleich:
Cayman: 6,79
GF110: 5,77
GF114: 5,42
GK110 könnte bei derselben Packdichte ca. 6 Mrd. Transistoren schwer sein bei 500mm2.
Adam D.
2012-03-13, 08:43:00
TDP unter Tahiti Pro, da bin ich auf reale Messungen gespannt...
Hugo78
2012-03-13, 08:44:13
Die Karte ist arg lang dafür dass sie ursprünglich mal die 560Ti beerben sollte und nur einen 300mm2 Chip drauf hat.
DHE macht ne Karte länger als ein axiales Desgin, sofern der Kühler was taugen soll.
Zumal laut Fudzilla hatte man die Karte intern schon immer als 670Ti gehandelt, also für 4-Way SLI ausgelegt.
Der Chip war demnach von anfang an für ein etwas schnelleres Segment gedacht als noch GF104/114.
Knapp über 12 Mio. Transistoren pro mm2. Das ist dieselbe Transistordichte wie Tahiti, sogar ein Tick höher. Nur Pitcairn hat etwas mehr mit 13,2 Mio. Respekt, dass die das geschafft haben.
Und das wohl bei mehr max.Takt @default auf den ALUs.
Botcruscher
2012-03-13, 09:07:21
Der Chip war demnach von anfang an für ein etwas schnelleres Segment gedacht als noch GF104/114.
Weil? Ich behaupte mal in der Ursprungsplanung war er eben genau dafür geplant. Als 560 und 560TI Ersatz zu 670 und dazu GK110 als 680/690. Mit den Verzögerungen bei GK110 und den schwachen Leistungsdaten bei Thaiti hat man dann die Karte als Zwischengenration in 680 umbenannt. Insgesamt macht eine stärkere Performance-GPU gegen AMD auch direkt Sinn. Damit kann man AMD schön bei den Preisen von unten angreifen. Gleichzeitig bringt man nicht mehr nur 3, sondern 4 Chips für die Marktsegmente.
Hugo78
2012-03-13, 09:10:42
Weil? Ich behaupte mal in der Ursprungsplanung war er eben genau dafür geplant.
Du stimmst mir also zu oder was, hä?!
Sie haben angeblich noch keinen Treiber, können also keine Benchmarks machen.
Oder eher, der Treiber den sie haben ist noch nicht gut genug um XT auf mehreren Benchmarks schlagen zu können was sie brauchen um die 549$ logisch rüber zu bringen.
Skysnake
2012-03-13, 09:58:16
http://www.abload.de/thumb/68f13bfdgw1dl8grzl2fwyiufk.jpg (http://www.abload.de/image.php?img=68f13bfdgw1dl8grzl2fwyiufk.jpg) http://www.abload.de/thumb/133828tohasoho3ms7zs199ui0.jpg (http://www.abload.de/image.php?img=133828tohasoho3ms7zs199ui0.jpg)
http://www.chiphell.com/thread-367824-1-1.html
Sie haben angeblich noch keinen Treiber, können also keine Benchmarks machen. Die Karte ist arg lang dafür dass sie ursprünglich mal die 560Ti beerben sollte und nur einen 300mm2 Chip drauf hat.
Da sind jetzt sogar alle Lötpunkte aufgebracht, und es sieht für mich sogar fast so aus, als ob da sogar in allen Anschlüssen Stecker sind :ugly:
PS: Was ist das denn für ein kleiner Chip neben dem einzelnen 6Pin Anschluss? Ist das etwa für den Turbo/Powermanagement?
boxleitnerb
2012-03-13, 10:03:21
Oder eher, der Treiber den sie haben ist noch nicht gut genug um XT auf mehreren Benchmarks schlagen zu können was sie brauchen um die 549$ logisch rüber zu bringen.
Wenn man das glauben will, bitte.
@Skysnake:
Nix für ungut, aber lass doch mal den Quatsch mit den Steckern sein. So langsam muss man ja glauben, dass du dir ein 300W-Monster wünscht, so wie du drauf rumreitest. Es werden 2x6pin sein, ein weiterer Stecker existiert nicht. Oder siehst du neben dem Turm noch diese schwarzen Halteclips auf der Rückseite des PCBs? Ob die da Lötzinn drauf haben, ist doch nun wirklich egal, wenn auf der fertigen Karte kein Stecker sitzt an dieser Stelle.
mironicus
2012-03-13, 10:06:19
NVidia gibt doch gerne als TDP den typischen Spieleverbrauch an, oder? Mit Furmark kracht die Karte bestimmt deutlich über 200 Watt.
Ein kleiner Chip, der so hochgeprügelt worden ist, dass er Tahiti XT-Niveau erreicht, aber möglicherweise mit deutlich weniger OC-Potential...? "Nur" 2 GB Speicher, und von der Chipgröße her eine GPU aus dem Performance-Bereich. Da bekommt man nicht so viel für sein Geld... :(
AnarchX
2012-03-13, 10:10:43
Wenn der Turbo-Modus richtig umgesetzt ist, wird die Karte wohl nicht mehr als 200W verbrauchen und auch nicht viel weniger.
Aber für $549 hätte man wirklich mehr als 2GiB verbauen können, z.B. 3GiB mit der 550Ti-Technik oder eben gleich 4GiB. Ebenso wäre 6+8-Pin für Enthusiasten, die das Maximum herausholen wollen, sinnvoll gewesen.
boxleitnerb
2012-03-13, 10:11:17
Wer spielt Furmark?
Man kann die Karten später gerne bei GPGPU-Anwendungen vergleichen und sich dann anschauen, welche wie stark ihre TDP überschreitet (oder nicht) und ob die Performance ungedrosselt höher ist.
mboeller
2012-03-13, 10:13:34
Wollte nV nicht mit der neuen GK Reihe mit Perf/Watt punkten? Wenn der GTX680er hochgeprügelt wird um die XT in manchen Bereiche zu schlagen, wird der ziemlich viel verbraten oder liege ich da falsch?
Sehe ich ähnlich. Als 670er-Karte wäre Kepler sehr wahrscheinlich auch ein Performance/Watt Wunder geworden. Aber mit dem 40% BIOS-Upgrade sehe ich dafür schwarz. Ich erwarte momentan eher ~~275-300W für die 680er Karten (die Spannung und damit die Leistungsaufnahme wächst ja im Quadrat) + Fön. Nvidia baut allerdings momentan sehr leise Karten, da besteht also eine begründete Hoffnung, das es nicht so kommt.
Dazu kommt noch, das Nvidia anscheinend die Kepler-Karten mit der "heißen Nadel gestrickt" in den Martk wirft; die Kommentare von der Cebit sprechen ja Bände. Der Kunde ist dann wohl der BETA-Tester! Es würde mich nicht wundern wenn es den ersten Kunden so geht wie bei der 590GTX. Ausfälle am laufenden Band (zumindest wenn man einigen Foren glauben will).
AnarchX
2012-03-13, 10:14:39
Ich erwarte momentan eher ~~275-300W für die 680er Karten + Fön.
Die Karte hat nur 2x 6-Pin.
mboeller
2012-03-13, 10:20:59
Die Karte hat nur 2x 6-Pin.
die 680GTX oder die 670GTX? Weißt du sicher, das die Bilder von der 680GTX sind oder doch von der ursprünglich geplanten 670GTX?
Ein kleiner Chip, der so hochgeprügelt worden ist, dass er Tahiti XT-Niveau erreicht, aber möglicherweise mit deutlich weniger OC-Potential...? "Nur" 2 GB Speicher, und von der Chipgröße her eine GPU aus dem Performance-Bereich. Da bekommt man nicht so viel für sein Geld... :(
Tahiti ist auch nur der Performance Chip :P
Was mich viel mehr stört ist die Presipolitik. Auch bei besserer Verfügbarkeit an Chips glaube ich nicht dass AMD/NV die Preise senken werden. Alle werden so viel wie möglich Geld kassieren wollen.
Ich glaube die GTX680 wird nie in ihrem Leben die 300$ erreichen werden, der Preis wird erst mit dem Refresh fallen. ;(
Mir wäre es liebr wenn beide IHV's lieber noch paar Monate gewartet hätten und dafür das Produkt zu akzeptablen Preisen verkaufen würden
AnarchX
2012-03-13, 10:23:46
die 680GTX oder die 670GTX? Weißt du sicher, das die Bilder von der 680GTX sind oder doch von der ursprünglich geplanten 670GTX?
Alles spricht für die GTX 680 und einer TDP von 195W.
Mir wäre es liebr wenn beide IHV's lieber noch paar Monate gewartet hätten und dafür das Produkt zu akzeptablen Preisen verkaufen würden
Als zusätzliches Angebot sind die 28nm GPUs nicht verkehrt, nur könnte man mit den 40nm GPUs ein vernünftiges Langzeit-Preis-Leistungs-Verhältnis umsetzen.
y33H@
2012-03-13, 10:26:45
Das ist nach aktuellem Leak-Stand ein 300 mm^2 Performance-Chip samt 2x 6P aufm Board und dennoch wünscht (?) sich manch einer, dass das Teil 300+ Watt säuft ... *Kopf schüttel*
uweskw
2012-03-13, 10:35:27
549 USD ist der Preis für eine High-End Karte. Ob da 2GB Speicher noch zeitgemäss ist?
2 GiB sind auf jeden Fall genug. Einzig der (alles andere als offizielle) Preis ist "ultrazeitgemäß".
MfG,
Raff
AnarchX
2012-03-13, 10:38:54
2 GiB sind auf jeden Fall genug.
Auch bei 3x 1600p?
M4xw0lf
2012-03-13, 10:39:45
Auch bei 3x 1600p?
Da ist leider GK104 nicht zeitgemäß ;D
Versuchen wirs noch mal mit GE(?)104.
Adam D.
2012-03-13, 10:39:56
Auch bei 3x 1600p?
Gibt man seiner Karte eine High-End-Nomenklatur, muss man auch diesen Anspruch erfüllen. IMO sind dann 2GB zu wenig.
M4xw0lf
2012-03-13, 10:41:14
Gibt man seiner Karte eine High-End-Nomenklatur, muss man auch diesen Anspruch erfüllen. IMO sind dann 2GB zu wenig.
Ach Namen sind doch Schall und Rauch... HD5870->6870, GTX480->580...
AnarchX
2012-03-13, 10:41:19
Wobei diesmal die 4GiB Versionen wohl schnell folgen werden, wenn man schon auf der Cebit darüber gesprochen hat.
Aber was sollen diese dann kosten? $649? :ulol:
boxleitnerb
2012-03-13, 10:42:19
Die Frage ist, zu welchem Preis? $649? Ich hab für meine GTX580 mit 3GB 499 Euro bezahlt. Soviel dazu...
feris
2012-03-13, 10:44:54
welche 40nm chips werden denn derzeit noch produziert? weiss das jemand?
ich glaube das die komplette 28nm riege erstmal reine papiertiger bleiben und weiterhin 40nm zeug unters volk gestreut wird.
Wenn TSMC mit 28 nm die Nachfrage nicht annähernd decken kann, dann riecht die Luft zunehmend stärker nach umlabeln.
Die Preisbereiche von 28 nm mögen zwar erst einmal als toll für beide Hersteller aussehen. Bei den kleinen Stückzahlen knallen da aber trotz aller hohen Mage nicht wirklich die Sektkorken. Ganz im Gegenteil.
Bisher hat doch jeder gehofft, das NV AMD bei den Preisen unter Druck setzt. Das sie es nicht tun, erhärtet die Gerüchte um die Verfügbarkeit des 28nm Prozesses.
Unglücklicherweise sind im Hochpreissegment die Kunden bis auf Ausnahmen aber auch etwas besser informiert und nicht bereit, High End Preise für Performance zu bezahlen.
dildo4u
2012-03-13, 10:47:35
Schon erstaunlich das es gerade NV ist,die endlich mal zu sinnen gekommen sind und sich endlich zurück bewegen was den Verbrauch angeht.Denk mal die Verkäufe der Strommonster(480/580) waren so schlecht und die der Performacne Chips so gut deshalb das umdenken.Eigentlich auch logisch bei den ganzen Konsolenport's braucht man nicht wirklich mehr als ne 560Ti.
549 USD ist der Preis für eine High-End Karte. Ob da 2GB Speicher noch zeitgemäss ist?
glaube kaum das 2GB in Spielen ohne superultrahyper texture mods in den nächsten 1-2 Jahren eine Beschneidung zu potentiellen 3 o. 4 GB Karten darstellt.
Die GTX580 hat nur 1.5 GB von daher schonmal 33% mehr Speicher bei vermutlich <33% Mehrleistung
Godmode
2012-03-13, 10:49:28
PS: Was ist das denn für ein kleiner Chip neben dem einzelnen 6Pin Anschluss? Ist das etwa für den Turbo/Powermanagement?
Voltage Regulator, war aber schon immer irgendwo auf der Rückseite.
aylano
2012-03-13, 10:51:19
Gleich wie AMD Preise
Diese können jedoch gar nicht schlecht liefern und am Preis feilen.
Schon arm was NV GESTERN da ablieferte. (Nämlich absolut NIX)
Wäre die Karte Klasse hätte man es sich nicht nehmen lassen diese an die große Glocke zu hängen,- aber so scheint mir dies ziemlich undurchwachsen!
Ich verstehe nicht, was da von NV so arm sein soll. Denn Nvidia kommt ja mit ihren 120mm² & 350mm² kaum später, als andere Firmen mit 50-80mm²-LP-Chips
Dass AMD bei Einführungen stärker (= schneller & unproblematischer) ist, war schon auf den 55nm-Umstieg zu sehen. AMD dürfte jetzt ihre Stärken forciert haben und Nvidia muss jetzt nachziehen, egal wie viel oder wenig sie liefern können, da der Druck auf ihre 40nm-Karten nach einführung von AMDs ganzer GPU-Portfolie ordentlichen steigt.
Nvidia hat doch eh richtig reagiert und bringt GK104 vor GK110, sowie versuchen sie mit dem Turbo-Modus so viel wie möglich die Die-Größe auszureizen. Bisher war die stärke von Nvidia in der Refresh-Zeit. Die Stärke von einem muss doch nicht gleich die Armseligkeit des anderen sein. Grundsätzlich häte es schon vor 1,5 Jahren 300$-350mm²-Die-Größen geben sollen. Jetzt kommt es auf ein paar Monate doch auch nicht an.
Das Marketing hat es bei vielen geschafft: Speicher wird vollkommen überbewertet. Bis 2 GiB ernsthaft überlaufen, ist die GPU längst am Sack. Ok, SLI-Nutzer könnten meckern. Aber: 4-GiB-Karten wären immer 1-3 Prozent langsamer als 2-GiB-Karten, es sei denn, der Speicher bringt zur Abwechslung mal etwas.
MfG,
Raff
Skysnake
2012-03-13, 10:58:56
Das ist nach aktuellem Leak-Stand ein 300 mm^2 Performance-Chip samt 2x 6P aufm Board und dennoch wünscht (?) sich manch einer, dass das Teil 300+ Watt säuft ... *Kopf schüttel*
Wenn man das glauben will, bitte.
@Skysnake:
Nix für ungut, aber lass doch mal den Quatsch mit den Steckern sein. So langsam muss man ja glauben, dass du dir ein 300W-Monster wünscht, so wie du drauf rumreitest. Es werden 2x6pin sein, ein weiterer Stecker existiert nicht. Oder siehst du neben dem Turm noch diese schwarzen Halteclips auf der Rückseite des PCBs? Ob die da Lötzinn drauf haben, ist doch nun wirklich egal, wenn auf der fertigen Karte kein Stecker sitzt an dieser Stelle.
Von "wünschen" kann da keine Rede sein. Es ist halt einfach eine in Betrachtziehung der Fakten, eben das auf 14 bzw. sogar 20 Lötpunkten eben auch Lötzinn aufgebracht wurde. Das lässt eben schon den Verdacht zu, dass da eben auch Versionen kommen, die in der einen oder anderen Konfiguration dies nutzen.
Gibt ja ausm Chiphell inzwischen auch die Meldung GTX680 hätte 6+8 Pin und die vermeindliche GTX670(Ti) 2x6Pin.
Das hat aber alles nichts damit zu tun, ob ich mir etwa wünsche oder nicht. Von mir aus können die Karten 225 oder 300W ziehen, so lange die Perf/W gleich gut! bleibt.
Es kann halt nur keiner die Modellpolitik von nVidia überblicken (wer nicht schon direkt informiert ist). Und da ich diesbezüglich eben nichts weiß, zeige ich die Möglichkeiten auf, die es gibt, dadurch das man den Chip eben nach oben Prügelt.
Ihr solltet ja auch immer bedenken, dass das eine GTX680 werden wird. Da kann man mit dem 8 Pin schon nach den Specs für OC´ler Luft nach oben lassen, und mir ist klar, dass man die 2 Pins sich sonst wo hin schieben kann, aber dennoch werden Sie verbaut werden bei OC Versionen, einfach schon weil es sich als "boah alter, die halt Potenzial"-Argument gut verkauft...-.-
Also bitte mir nicht immer irgend welche Sachen unterstellen, die in keinster Weise zutreffen. Ich geh halt immer nur gern vom worst-/best-case aus. Je nach Sichtweise. Denn was wäre denn schon schlimm an einem 6+8Pin, hat die HD7970 ja auch!, wenn man eben nicht mehr als die 7970 zieht, aber 5-10% schneller ist?
Eben rein gar nichts....
y33H@
2012-03-13, 11:04:23
Das lustige ist ja, dass die heutigen 8P idR eh 6+2P sind, du ergo also auch mit 2x 6P locker 300+ Watt rausziehen kannst sofern das PCB einer GK104 Karte (oder whatever) nicht die Grätsche macht. Die 2x 6P mit maximal 225W sind wie bereits erwähnt soooo theoretisch ;-)
Skysnake
2012-03-13, 11:30:55
Klar, das ist mir klar, das ist dir klar, und das geht auch mit allen "vernünftigen" NTs.
Aber man muss sich halt an die Specs halten, auch wenn diese meist absolut sinnfrei sind Es gibt halt sicherlich irgendwo da draußen ein paar NTs, dies nicht verpacken, und DIE SCHLECHTE PRESSE will halt absolut keiner riskieren. Das wäre fast ein Todesstoß, wenn so was passieren würde...
Ich versteh daher auch gar nicht die Aufregung hier einiger... Die Karte wird eh verbrauchen, was sie halt verbraucht, egal ob 6 oder 8 Pin. Kommt halt nur aufs Marketing drauf an, ob man da wieder auf die Specs in gewissen Situationen einen Haufen setzt, oder aber halt die Specs einhält, bzw. sogar mit Luft nach oben für OCler wirbt.
N0Thing
2012-03-13, 11:38:10
;9205942']TSMC soll in der Hölle brennen.... kommt halt davon, wenn nur einer Produziert.... In solchen Momenten wünsche ich mir, wirklich Intel würde auch GPU's fertigen...
Intel wird dafür wohl nie zur Verfügung stehen. Man kann nur hoffen, daß irgendwann GF auf TSMC aufgeholt hat und UMC vielleicht wieder in den Bereich der HP Produkte zurück kommt. Dann könnte sich die Last auf mehrere Schultern verteilen. Ich sehe da aber leider für die nahe Zukunft keine Chance. :(
Ehrlich gesagt wünsche ich beiden IHVs, dass sie mit der neuen Generation richtig auf die Schnauze fallen. Sprich, die Dinger Ladenhüter bleiben.
Genau das ist momentan ja auch gewollt. Es sollen nur so viele Karten verkauft werden, wie man auch liefern kann. Sollten die Absatzzahlen nicht den erwartungen entsprechen werden die Preis angepaßt.
Die Karte ist arg lang dafür dass sie ursprünglich mal die 560Ti beerben sollte und nur einen 300mm2 Chip drauf hat.
Sieht für mich eher recht kurz aus, wenn ich sie mit einer GTX470 vergleiche, die in etwa den gleichen Stromverbrauch haben könnte.
Timbaloo
2012-03-13, 11:50:22
Nachdem das Board mit dem Turmstecker ja wirklich ein Serienlayout zu sein scheint, wundert mich die Lage der SpaWas etwas. Warum hat man die längs und nicht mehr quer gesetzt? Mehr Platz für Lüfter?
Skysnake
2012-03-13, 11:52:35
Dürfte der Grund sein. Der Radiallüfter scheint nach meinem Augenschein ja doch um einiges größer zu sein als sonst.
Henroldus
2012-03-13, 12:34:52
Ich erwarte momentan eher ~~275-300W für die 680er Karten (die Spannung und damit die Leistungsaufnahme wächst ja im Quadrat)
was hat das mit der Spannung zu tun?
erstens wird diese niedriger sein als bei den Vorgängern dank 28nm
zweitens kommt der steigende Verbrauch eher von einer steigenden Einheitenzahl und damit wachsender Chipfläche/Transistoranzahl
Iruwen
2012-03-13, 12:39:17
Hätte man gewartet bis 28nm besser läuft wären die Karten bei AMD und Nvidia später und günstiger gekommen. Hier wollten doch immer alle Fakten auf dem Tisch und wissen was die Karten leisten, also bitte. Fakten habt ihr bald. Mit dem Kauf könnt ihr euch dann ja noch Zeit lassen.
Dural
2012-03-13, 13:06:05
naja es dürfte ja schon fast bestätigt sein:
-gleicher preis = leistung um die 7970
-nur 195Watt TDP und 2x 6-Pin, ist halt wenniger als 250Watt bei der 7970 mit 6-Pin + 8-Pin
-sehr wahrscheinlich neues AA
-ziemlich sicher auch mehrere bildausgänge
-die alten und bekannten NVs PROs (zb. PhysX) dürften auch alle vorhanden sein.
meine aussage über die 7970 mit "fast eine zweite 2900XT" steht wohl glaub ziemlich bald in einem neuen licht da.
wenn man bedenkt das AMD für die selbe leistung rund 50Watt mehr TDP benötigt, was das gemessen dann auch immer bedeuten mag ;) der tahiti chip dürfte aber mehr bringen als man es auf der 7970 sieht :)
das wars vom mars ;)
boxleitnerb
2012-03-13, 13:14:03
Neues AA wird FXAA sein, offiziell im Treiberpanel. Meh :(
Die 7970 braucht in Spielen natürlich deutlich weniger als 250W. Die Frage ist, wie Kepler sich hier schlägt.
aufkrawall
2012-03-13, 13:20:42
Neues AA wird FXAA sein, offiziell im Treiberpanel. Meh :(
Von FXAA 4 hat man ja bisher auch nichts mehr gehört, geschweige denn gesehen.
Den Vergleich mit dem neuen MLAA von AMD wird es aber nicht scheuen müssen.
AnarchX
2012-03-13, 13:23:32
Die 7970 braucht in Spielen natürlich deutlich weniger als 250W. Die Frage ist, wie Kepler sich hier schlägt.
Bei 1,1GHz Turbo dürften da wohl äußerst selten Fälle auftreten, wo man die TDP deutlich unterschreitet.
Mal sehen ob AMD hier vielleicht kopiert.
Eine 250W 7970 GHz Edition, mit Turbo auf 1,2GHz, der aber nur anliegt, wenn das Front-End den restlichen Chip stark limitiert, wäre wohl im Bereich des Möglichen.
boxleitnerb
2012-03-13, 13:23:49
Timothy Lottes hat mal gesagt, dass man alle Features von FXAA nur nutzen kann, wenn man es injiziert. Über den Treiber geht das leider nicht. War eine Antwort auf eine Frage in seinem Blog.
Bei 1,1GHz Turbo dürften da wohl äußerst selten Fälle auftreten, wo man die TDP deutlich unterschreitet.
Mal sehen ob AMD hier vielleicht kopiert.
Eine 250W 7970 GHz Edition, mit Turbo auf 1,2GHz, der aber nur anliegt, wenn das Front-End den restlichen Chip stark limitiert, wäre wohl im Bereich des Möglichen.
Wie kommst du auf 1,1 GHz?
MadManniMan
2012-03-13, 13:24:05
Inzwischen wird es ECHT mal wieder Zeit für einen AA-Roundup inklusive aller möglicher Erklärungen. Ich krebse immer noch mit 4*/16* + TAA herum.
AnarchX
2012-03-13, 13:25:48
Wie kommst du auf 1,1 GHz?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9205892#post9205892
Inzwischen wird es ECHT mal wieder Zeit für einen AA-Roundup inklusive aller möglicher Erklärungen. Ich krebse immer noch mit 4*/16* + TAA herum.
Anti-Aliasing-Durchblick: Vorschau auf das Special-Thema der PCGH 01/2012 (http://www.pcgameshardware.de/aid,856960/Anti-Aliasing-Durchblick-Vorschau-auf-das-Special-Thema-der-PCGH-01/2012/PCGH-Heft/News/)
:tongue:
MfG,
Raff
Ronny145
2012-03-13, 13:27:10
Timothy Lottes hat mal gesagt, dass man alle Features von FXAA nur nutzen kann, wenn man es injiziert. Über den Treiber geht das leider nicht. War eine Antwort auf eine Frage in seinem Blog.
Über den Injector geht das nicht. Temporal FXAA ist damit nicht möglich. Es geht nur die einfachste Variante, sollte über den Treiber kein Problem sein. Da hast Du wohl was falsch verstanden. Treiber FXAA könnte sich dennoch unterscheiden.
MadManniMan
2012-03-13, 13:32:59
Anti-Aliasing-Durchblick: Vorschau auf das Special-Thema der PCGH 01/2012 (http://www.pcgameshardware.de/aid,856960/Anti-Aliasing-Durchblick-Vorschau-auf-das-Special-Thema-der-PCGH-01/2012/PCGH-Heft/News/)
Das in aktuell (wenn Kepler draußen ist) und ohne die Print-Beschränkungen wäre großartig!!!11 Meine Einzige PCGH der letzten Jahre war die Ausgabe danach :freak:
boxleitnerb
2012-03-13, 13:35:38
Über den Injector geht das nicht. Temporal FXAA ist damit nicht möglich. Es geht nur die einfachste Variante, sollte über den Treiber kein Problem sein. Da hast Du wohl was falsch verstanden. Treiber FXAA könnte sich dennoch unterscheiden.
Also geht das FXAA 4.0 komplett mit allen Features über den Treiber?
ChaosTM
2012-03-13, 13:36:00
Was unter dem Strick für die meisten zählt, ist die Leistung pro € (bzw. Watt) und die wird beim Midrange-Kepler, wenn der kolportierte Preis stimmt, ähnlich "bescheiden" sein, wie bei Tahiti.
Solange der 28er Prozess nicht vernünftig läuft, wird sich da auch nicht viel tun.
Beide Firmen müssen scheinbar ihre Preise künstlich hochhalten, damit es nicht zu einem Sofort-Ausverkauf kommt. (Oder es ist schlicht und einfach ein verstecktes Kartell..)
Vor 2 Jahren zahlte man für die Einsteiger-Performance Karten 150€. Dieses Jahr sind es 250+! Bei den grösseren Modellen ist die Kluft noch viel größer.
Und mal Ehrlich.: Jeder der unter Full-HD eine Karte ab 460/6850 Niveau hat, ist derzeit noch nicht wirklich gezwungen, diese Aufzurüsten.
Jetzt oder in naher Zukunft eine neuer Grafikkarte kaufen ist schlicht und einfach sinnfrei.
So wie es ausschaut, wird meine 560/448 noch recht lange ihren Dienst tun.
w0mbat
2012-03-13, 13:41:01
Also, ich war eigentlich auf eine HD7850 aus, wenn der Preis etwas gefallen ist, könnte mir jetzt aber eine GTX6xx genauso vorstellen.
7950 dürfte mittelfristig der bessere Kauf sein.
Ronny145
2012-03-13, 13:42:29
Also geht das FXAA 4.0 komplett mit allen Features über den Treiber?
Wahrscheinlich nicht. Was mit dem Injector nicht geht wird kaum mit dem Treiber funktionieren. Spatial ja, Temporal nein. Letzteres muss ins Spiel integriert werden. Ob das FXAA auf 4.0 basiert ist nicht bestätigt. Sieht so aus als wenn Lottes ein Maulkorb von Nvidia verpasst bekommen hat.
disap.ed
2012-03-13, 14:28:25
7950 dürfte mittelfristig der bessere Kauf sein.
Gegenüber was? Und warum?
Käsetoast
2012-03-13, 14:59:23
Wie sieht das eigentlich mit Charlies Gerüchten aus von wegen Produktionsstopp der 28nm Linien bei TSMC? Das wäre natürlich zusätzliches Gift für Preisnachlässe in nächster Zeit und aufgrund der Knappheit gäbe es seitens NVIDIA keine Probleme ihre GTX 680 zu Tahiti XT Preisen zu verkaufen, selbst wenn die Leistung nicht ganz heranreicht, es dafür aber andere Vorteile gibt...
Wie sieht das eigentlich mit Charlies Gerüchten aus von wegen Produktionsstopp der 28nm Linien bei TSMC?
http://semiaccurate.com/2012/03/12/why-did-tsmc-stop-28nm-production/
Iruwen
2012-03-13, 15:07:58
http://semiaccurate.com/2012/03/12/why-did-tsmc-stop-28nm-production/
/e: nur weil ich mir'n Kaffee geholt hab!
Wenn sich GK104 => TahitiniveauXT bewegt ist der Preis in anbetracht der Tatsachen Probleme bei TSMC + Performance, imo gerechtfertigt. Ebenso ist der Preis für TXT noch gerechtfertigt, da (auch durch gigantisches OC´-Potential) die derzeit (noch) klar schnellste GPU mit sehr gutem Featureset.
Hades11
2012-03-13, 17:40:58
Schon erstaunlich das es gerade NV ist,die endlich mal zu sinnen gekommen sind und sich endlich zurück bewegen was den Verbrauch angeht.Denk mal die Verkäufe der Strommonster(480/580) waren so schlecht und die der Performacne Chips so gut deshalb das umdenken.Eigentlich auch logisch bei den ganzen Konsolenport's braucht man nicht wirklich mehr als ne 560Ti.
und wie willst du mit der leistung einer 560 TI 8SGSSAA und 4x Downsampling, 16x Af auf 2560x1600 bei z.b. Skyrim (ist ja ein konsolenport) hinbekommen ?
also zumindest ich zocke nicht gerne mit den frameraten einer Diashow.
wenn du mit mehr Leistung ( = Bildqualität) nichts anfangen kannst schön für dich aber hör bitte auf deswegen gleich zu schreiben dass Mehrleistung unnötig ist.
mir persönlich ist die Leistung sehr wichtig, sofern der Preis angemessen ist, ist dann auch alles wichtige gesagt. Verbrauch ist mir doch egal, solage das ding mein Netzteil nicht zum schmelzen bringt und selbst bei vernünftigen Temperaturen bleibt. Lautstärke ebenfalls, ich höre mein metal sowieso gerne etwas lauter :biggrin:
tja dann wird´s wohl nix mit vernünftigen 28Nm grakas. bis die in angemessene preisregionen gefallen sind wird noch einige monate dauern, ich schätze 10-12. Hoffentlich wird das zum refreshlauch besser
AnarchX
2012-03-13, 18:08:09
http://www.abload.de/img/2702126_03aaaafe-863drr0ai.jpg
http://diy.pconline.com.cn/graphics/news/1203/2702126.html?ad=6431
Der Boost (~5%) wäre ja eher lächerlich. Aber wenn man die 1GHz bei 195W immer halten kann, dann sähe das nicht so schlecht aus.
dildo4u
2012-03-13, 18:13:42
Scheint man endlich mal die gewollte Taktrate mit der ersten Rev zu erreichen?1Ghz lässt sich gut Vermarkten.
mironicus
2012-03-13, 18:14:48
Scheint aber wirklich hochgeprügelt worden zu sein (GPU-Takt/Speicher-Takt sehr hoch). War bestimmt ursprünglich mal als GTX 660 gedacht, oder...? :D
Da AMD die Messlatte nicht ganz so hochgelegt hat, hat NVidia einfach wohl einen GPU-Chip der ursprünglich für den 300 Dollar-Bereich geplant war einfach so hochgetaktet bis er im Bereich der Tahiti-Performance kommt und verkauft ihn dann für 550 Dollar. Sehr schlau, NVidia! :D
Mit dem Baseclock von 1GHz ist der GK aber weit überhalb von dem was Ailuros mal sagte und das bei 195 Watt? Ich glaubs mal unter Load nicht.
Gipsel
2012-03-13, 18:15:43
http://www.abload.de/img/2702126_03aaaafe-863drr0ai.jpg
http://diy.pconline.com.cn/graphics/news/1203/2702126.html?ad=6431
Der Boost (~5%) wäre ja eher lächerlich. Aber wenn man die 1GHz bei 195W immer halten kann, dann sähe das nicht so schlecht aus.
Das ist das, was Heise ganz am Anfang schrieb (5%-7%, wahrscheinlich bekommt das Salvage-Modell 7% ;)) und Theo Valich dann ausschmückte mit seinen 705MHz Baseclock, 900MHz Turbo und 1,4GHz Shaderclock. :rolleyes:
RoNsOn Xs
2012-03-13, 18:16:32
Mit dem Baseclock von 1GHz ist der GK aber weit überhalb von dem was Ailuros mal sagte und das bei 195 Watt? Ich glaubs mal unter Load nicht.
Ail hat doch schon immer 1Ghz angesprochen. Jdfls was länger zurück liegt.
dildo4u
2012-03-13, 18:17:10
Der geringe Turbo spricht eher dafür das man sehr drauf achtet,das die 195 eingehalten werden.
Gipsel
2012-03-13, 18:18:10
Mit dem Baseclock von 1GHz ist der GK aber weit überhalb von dem was Ailuros mal sagte und das bei 195 Watt? Ich glaubs mal unter Load nicht.
Nö. IIRC sagte Ailuros was davon, daß man zuerst (erster Spin) bei 900-950 MHz stand und man eventuell auf 1,05 GHz final zielt (und das sagte er schon vor 2 Monaten oder so). Und genau da landen sie jetzt wohl auch. Ich würde das Punktlandung nennen. ;)
AnarchX
2012-03-13, 18:19:14
Der geringe Turbo spricht eher dafür das man sehr drauf achtet,das die 195 eingehalten werden.
Das kann man auch mit entsprechenden Mechanismen sehr genau einhalten - siehe PowerTune.
Stellt sich die Frage, ob der Base-Clock wirklich immer eingehalten werden kann.
Mit 50MHz/5% Turbo macht man sich ja eher lächerlich.
][immy
2012-03-13, 18:25:21
Der geringe Turbo spricht eher dafür das man sehr drauf achtet,das die 195 eingehalten werden.
also da hätte man den Turbo auch gleich weglassen können. 50Mhz mehr ist doch sehr sehr bescheiden. Klingt danach als würde man damit versuchen wollen noch den einen oder anderen benchmark zu gewinnen, bei dem es mit 1 Ghz noch unentschieden stand.
Aber vermutlich ist das nur daraus entstanden, das man diesen Chip nun als High-End verkaufen muss und der GK110 noch ein wenig auf sich warten lässt.
Übertaktunsspielraum dürfte die Karte so wohl nicht haben. Außer halt das über Vmods dann vermutlich der Verbrauch stark zunimmt. Aber wenn mit 50Mhz die TDP in dereren Tests schon erreicht ist, dann will ich nicht wissen was mittels Vmod verbraucht wird.
Gipsel
2012-03-13, 18:26:29
Das kann man auch mit entsprechenden Mechanismen sehr genau einhalten - siehe PowerTune.
Stellt sich die Frage, ob der Base-Clock wirklich immer eingehalten werden kann.
Mit 50MHz/5% Turbo macht man sich ja eher lächerlich.
Und es stellt sich die Frage, wie viel an dem unabhängigen Takten der einzelnen Bereiche dran ist, oder ob doch alles den gleichen Takt bekommt.
Ronny145
2012-03-13, 18:27:28
Also mal ehrlich, Theo Valich hat den Vogel abgeschossen. 52 Mhz Turbo ist kaum der Rede wert, der hat kaum Einfluss. Macht für mich kein Sinn, außer das man so die Karte mit einem Turbo Modus bewerben kann. Einen anderen Sinn sehe ich nicht. Ich vermute mal, Nvidia hat die Taktrate jetzt so gesetzt, dass sie mindestens gleichauf mit Tahiti XT liegen, wenn nicht sogar leicht drüber.
dildo4u
2012-03-13, 18:28:36
Die Karte kann viel Spielraum haben aber man geht auf Nummer sicher wegen der Spannungsversorgung.(6+6)Wie schon mal erwähnt die Meisten Marken NT's Fackeln nicht gleich ab wenn man mal über die 225W geht.
Gipsel
2012-03-13, 18:29:31
Ich vermute mal, Nvidia hat die Taktrate jetzt so gesetzt, dass sie mindestens gleichauf mit Tahiti XT liegen, wenn nicht sogar leicht drüber.Ich vermute noch einen kleinen Puffer, so daß ein Minimalupdate mit einem 1 GHz Tahiti im Schnitt noch nicht reicht.
boxleitnerb
2012-03-13, 18:41:13
Okay, vielleicht ist das Turbo-Gedöhns doch nicht so fortschrittlich :D
Aber der hohe Takt gefällt mir. Ich weiß, Rohleistung ist nicht alles, aber durch das starke Frontend und eine so massive Steigerung an Rechen- und Texelleistung sollten 50% zur GTX580 machbar sein.
y33H@
2012-03-13, 18:47:00
Die Radeon 9800 XT hatte einst 412/365 MHz und per Overdrive dann 432/365 MHz - per manuellem OC aber sind 475/410 MHz drin. Also bei GK104 mal nicht den Teufel an die Wand malen ;-)
Hades11
2012-03-13, 19:04:30
solange man das ding auch noch vernünftig übertakten kann sieht das doch ganz gut aus. Beim OC selbstverständlich mit erhöhter V wird man hoffentlich nicht von Bios/Treiber wegen der leistungsaufnahme limitert.
ach und vernünftiger OC ist zumindest bei mir mal mehr als 50 Mhz :uwave:
crux2005
2012-03-13, 19:08:28
Der Turbo Mode wird auch höher sein als auf dem Slide. Macht euch keine Sorgen.
Hades11
2012-03-13, 19:16:13
Der Turbo Mode wird auch höher sein als auf dem Slide. Macht euch keine Sorgen.
ich mache mir eher sorgen ob er sich auch vernünftig abschalten lässt, denn es hilft mir ja nix wenn ich die karte OCe und der mir dabei unkontrolliert am takt rumpfuscht. :unono:
dargo
2012-03-13, 19:18:16
http://www.abload.de/img/2702126_03aaaafe-863drr0ai.jpg
http://diy.pconline.com.cn/graphics/news/1203/2702126.html?ad=6431
Der Boost (~5%) wäre ja eher lächerlich. Aber wenn man die 1GHz bei 195W immer halten kann, dann sähe das nicht so schlecht aus.
Macht für mich aber viel mehr Sinn als die ursprünglich spekulierten 700mhz/950Mhz, oder so ähnlich.
Nakai
2012-03-13, 19:43:00
Mhh, Spekulatius.
NV hat den Takt von GK104 auf 1,05GHz geprügelt um ein gutes Stück vor Tahiti zu sein. Ein gutes Stück ist hierbei 10 bis 20%.
Wenn man nun die SPs 1 zu 1 vergleicht(SI-SP-Effizienz==Kepler-SP-Effizienz), kommt man ziemlich genau auf dieses Ergebnis. Tahitis Frontend macht ja dessen gesamte Effizienz und Performance zu nichte, deswegen vergleiche ich die SPs und deren Effizienz mit Cape Verde.
1536/640*1058/1000 ~ 2.6 vor CapeVerde
Bei Situationen, wo das Frontend besonders limitiert, gehe ich eher von 2.7 bis 2.8 vor Cape Verde aus. Tahiti ist etwa 240% von CapeVerde, ergo etwa 10 bis 20% vor Tahiti. Bei sehr hohen Auflösungen und SSAA könnte Tahiti natürlich noch etwas zulegen gegenüber GK104.
Das riecht sehr nach einer HD7880, mit 1,1Ghz+...bzw AMD muss dringend das FrontEnd stark verbessern. Tahiti wäre mit einem geeignetem Frontend locker mindestens 20% schneller.
mfg
Timbaloo
2012-03-13, 19:50:39
Lass ich jetzt mal unkommentiert so stehen. Naja, nicht ganz: Die Wahl der Skala finde ich putzig :D
http://www.techpowerup.com/162305/GeForce-GTX-680-Up-To-40-Faster-Than-Radeon-HD-7970-NVIDIA.html
AnarchX
2012-03-13, 19:51:46
Wohl nicht von Nvidia und nur eine Aufarbeitung der alten, bekannten Benchmark-Tabelle. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9162709#post9162709)
Was nicht bedeuten muss, dass die Werte nicht real sein könnten... ;)
Mal etwas Neues:
GTX 660 (GK106) PCB Desing?
http://www.arabpcworld.com/images/2012/03/GTX660-Ti.jpg
http://www.arabpcworld.com/?p=6498
Sieht nach Single-Slot aus.
Timbaloo
2012-03-13, 19:56:20
Hmmm, daher kam mir die Auswahl der Spiele (+AA) so bekannt vor :freak:
Botcruscher
2012-03-13, 20:15:24
Sieht nach Single-Slot aus.
Sieht nach Paint und schlechtem Fake aus.:freak:
kruemelmonster
2012-03-13, 20:23:26
@das nur 5% Turbo Mimimi:
Der Turbo Mode von Intel hatte in seiner ersten Inkarnation auch nur 5% gebracht (und das auch nur beim BestCase Szenario i7 920 mit 2,67 GHz Base Clock) während mittlerweile wesentlich höhere Werte erreicht werden. Gebt NV noch ein wenig Zeit um Erfahrungswerte zu sammeln, in die Richtung weiter zu forschen und der Turbo wird auch weiter ausgebaut werden.
@die Gerüchteküche:
Mir kommts so vor als ob NV jedem Kontakt einen Mix aus wahren Informationen und FUD in die Hand drückt, denn irgendwie kann man doch alle verfügbaren Zahlen zusammenpuzzeln:
1 GHz Base Clock plus die +40% (chinesischer Biosmod oder was auch immer das war) machen vllt. genau die 1,4 GHz, welche Theo in den Raum geschmissen hat. Dazu würden dann auch das Posting vom idR ganz gut informierten crux2005 bissel weiter oben passen.
:confused:
Ronny145
2012-03-13, 20:26:39
@das nur 5% Turbo Mimimi:
Der Turbo Mode von Intel hatte in seiner ersten Inkarnation auch nur 5% gebracht (und das auch nur beim BestCase Szenario i7 920 mit 2,67 GHz Base Clock)
Was der 5% Turbo in der Praxis bringt muss erstmal getestet werden. i7-920 Turbo mit 2,93 Ghz sind 10%.
kruemelmonster
2012-03-13, 20:29:33
Die 2,93 GHz gabs aber nur für einen Kern. Werden alle belastet sind es 2,80 GHz => 5%.
Ronny145
2012-03-13, 20:34:05
Die 2,93 GHz gabs aber nur für einen Kern. Werden alle belastet sind es 2,80 GHz => 5%.
Genau das ist der Sinn vom Turbo. Bei geringerer Gesamtbelastung eine höhere Turbo-Frequenz anzuwenden. Ob der 5% Turbo bei Nvidia stets anliegt, muss erst ermittelt werden. Dein Beispiel ist eben nur bedingt richtig, i7-920 Turbo legt bis 10% drauf.
Thunder99
2012-03-13, 20:39:33
Und ihr vergleicht Äpfel mit Birnen, sehr schön :ucrazy3:
kruemelmonster
2012-03-13, 20:51:08
Genau das ist der Sinn vom Turbo. Bei geringerer Gesamtbelastung eine höhere Turbo-Frequenz anzuwenden.
Schon klar. Allerdings finde ich den Worst Case wesentlich interessanter als den Best Case, von 30 auf 31,5 fps bringt mir mehr als von 100 auf 105 fps.
Ob der 5% Turbo bei Nvidia stets anliegt, muss erst ermittelt werden.
Definitiv, davor ist das alles hier noch schlimmer als Fischen im Trüben. Der Fisch würde wenigstens zappeln und wir wüssten vom Treffer, aber hier gibts kein Feedback. Außer Ail rutscht vllt noch was raus. ;)
...und vllt sind die 5% auch schon der Worst Case und liegt immer an wenns mit der TDP passt.
Nighthawk13
2012-03-13, 20:51:13
Zum Thema Turbo für unterschiedliche Domains:
Fürs GPGPU wärs ziemlich vorteilhaft, wenn nur die ALUs hochgetaktet werden können(Rasterizer/Texunits haben da meist nix zu tun). Bei GT200 waren Taktverhältnisse, die etwas von 2:1 abwichen, ja auch möglich.
Wenn man diese Domain-Taktanpassung fürs 3D-Rendering nutzen wollte, müsste sie ziemlich schnell die Taktung umschalten können(Grössenordnung 0.1ms). Dann könnt man z.B. beim Rendern von Shadowmaps die ALUs runtertakten o.ä.
Stell ich mir aber ziemlich schwierig vor, das elektrisch stabil hinzukriegen.
Shaft
2012-03-13, 21:01:58
Geforce GTX 670 Ti soll sich angeblich in GTX 680 flashen lassen (http://www.pcgameshardware.de/aid,872553/Kepler/GK104-Geforce-GTX-670-Ti-soll-sich-angeblich-in-GTX-680-flashen-lassen/Grafikkarte/News/)
Botcruscher
2012-03-13, 21:22:53
Geforce GTX 670 Ti soll sich angeblich in GTX 680 flashen lassen (http://www.pcgameshardware.de/aid,872553/Kepler/GK104-Geforce-GTX-670-Ti-soll-sich-angeblich-in-GTX-680-flashen-lassen/Grafikkarte/News/)
Bis da Serienkarten kommen wäre ich äußerst Vorsichtig damit. Bei den Samples die durch die Gegend schwirren ist noch nicht mal sichergestellt, ob es sich um beschnittene Versionen handelt oder die für Presse/Entwickler nicht mal schnell umgestellt werden können.
][immy
2012-03-13, 22:12:57
Geforce GTX 670 Ti soll sich angeblich in GTX 680 flashen lassen (http://www.pcgameshardware.de/aid,872553/Kepler/GK104-Geforce-GTX-670-Ti-soll-sich-angeblich-in-GTX-680-flashen-lassen/Grafikkarte/News/)
wieso soll es jetzt doch plötzlich eine GTX 670 Ti geben? das war doch nur eine interne Bezeichnung welche dann zur GTX 680 wurde.
also die Gerüchteküche brodelt aktuell ziemlich. bin mal gespannt was am ende draus wird.
horn 12
2012-03-13, 22:24:28
Es sind nun Neue Folien mit Benchmarks aufgetaucht.
10-15%, BF3 35% über HD7970
Somit wäre man in etwa gleich schnell als eine HD7970 1,1 Ghz.
Da hat man GF104 wohl so hoch geprügelt um schneller zu sein,- und man kann nun ordentlich absahnen,- wenn doch die Verfügbarkeit besser wäre und der Markt gegeben,- dem ist aber nicht so.
Dies roch NV wohl und zügelte den damals geplanten GF104 so extrem hoch.
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2012/ngf-gtx680-leak.png
Dennoch irgendwie bescheiden, sind ja einige Games 2 bis gar 3 mal enthalten! (Dirt3, Battlefield 3 , Stalker...)
Im Schnitt um HD7970 Performance mit Neuen AMD Treibern, Wetten!!
Was ich bei diesen Standardtaktraten befürchte ist, das dass OC Potential marginal ausfällt :( Schade eigentlich sich auf diese Art und Weise die Performance Krone zu erstehlen...
Gipsel
2012-03-13, 22:31:19
Schade eigentlich sich auf diese Art und Weise die Performance Krone zu erstehlen...
Was heißt erstehlen? Das ist nunmal der Vorteil, wenn man bei sich noch verbesserndem Prozeß ein paar Monate später startet. Bzw. andersrum AMDs Nachteil des frühen Starts.
Skysnake
2012-03-13, 22:36:00
@das nur 5% Turbo Mimimi:
Der Turbo Mode von Intel hatte in seiner ersten Inkarnation auch nur 5% gebracht (und das auch nur beim BestCase Szenario i7 920 mit 2,67 GHz Base Clock) während mittlerweile wesentlich höhere Werte erreicht werden. Gebt NV noch ein wenig Zeit um Erfahrungswerte zu sammeln, in die Richtung weiter zu forschen und der Turbo wird auch weiter ausgebaut werden.
@die Gerüchteküche:
Mir kommts so vor als ob NV jedem Kontakt einen Mix aus wahren Informationen und FUD in die Hand drückt, denn irgendwie kann man doch alle verfügbaren Zahlen zusammenpuzzeln:
1 GHz Base Clock plus die +40% (chinesischer Biosmod oder was auch immer das war) machen vllt. genau die 1,4 GHz, welche Theo in den Raum geschmissen hat. Dazu würden dann auch das Posting vom idR ganz gut informierten crux2005 bissel weiter oben passen.
:confused:
Die 1,4 GHz werden wir wohl kaum sehen. Vor allem nicht unter Luft. Das kann ich kaum glauben, wir haben ja kein HotClock mehr. Aller aller aller höchstens, es gibt wirklich komplett unabhängige Clock-Domains und man hat an den ALUs echt gut gefeilt, aber das kann ich bei der Transistordichte kaum glauben...
Man muss die 40% eher in der Richtung der spekulierten ~700MHz sehen. Da 40% mehr Takt ist durchaus realistisch. Vor allem, wenn man darin eine GTX670Ti sieht und eine GTX680 bei ~950-1000 MHz sieht, dann passt das ganz gut.
Gipsel
2012-03-13, 22:39:20
Wobei die 700MHz Exemplare vielleicht auch taktabgesenkte Vorserienexemplare gewesen sein könnten. Zum Salvage-Modell gibt es übrigens folgende Vermutung(?) des Taktes: 780/840MHz (also +7,5% Turbo), wie heise ursprünglich als Fenster (5%-7%) angegeben hat. ;)
Der größere Spread zwischen Top-Bin und Salvage-Part im Vergleich zu Tahiti spricht übrigens für ein aggressiveres Binning seitens nV (falls die Takte denn stimmen).
AwesomeSauce
2012-03-13, 22:42:17
Auf welchem Chip soll nach derzeitigem Wissensstand die GTX660 (aka. GTX560 Nachfolger) basieren? 550$ für einen 290mm^2 Chip:facepalm:
Gipsel
2012-03-13, 22:43:03
Auf welchem Chip soll nach derzeitigem Wissensstand die GTX660 (aka. GTX560 Nachfolger) basieren? 550$ für einen 290mm^2 Chip:facepalm:
Na das wird dann der GK106 mit 192Bit Interface. Oder etwa nicht?
Skysnake
2012-03-13, 22:50:13
Vermute ich auch.
Hades11
2012-03-13, 23:01:17
ich halte da GK 106 für weitaus warscheinlicher aber man könnte stattdessen auch den GK 104 mit ursprünglich geplanter leistung nutzen.
Timbaloo
2012-03-13, 23:06:50
Ich kann mir gut vorstellen, dass sich auf der 660/ti/448/%RANDOM_POSTFIX% bald GK106 und GK104 inklusive mehrerer Salvage Varianten rumtummeln...
redfirediablo
2012-03-13, 23:32:30
LOL, die Folie ist ja wirklich klasse. Weil einem die Spiele zum cherry picken ausgegangen sind, nimmt man stalker z.B. halt gleich 4X rein damit es nach mehr aussieht...
Außerdem vergleichen Sie sich nur mit der Standard 7970. OC Potential wird minimal sein bei den Taktraten, je mehr ich drüber nachdenke, desto mehr ;D
Und dann drüber schreiben "Worlds fastest DX 11.1 GPU" ;D ;D
Aktuelle AMD Treiber + 1 ghz 7970 OC Version + non cherry picked benchmarks = yeah right NV ^^ (falls die Folie echt ist)
Ich seh schon die Haarspalterei kommen.
"Die ist schneller als die HD 7970!"
"Nöhöö, die ist auf HD-7950-Niveau!"
Mei, das ist alles mehr oder minder "gleich schnell". Als wenn 10-15 Prozent irgendwas ausmächten. OC und gut. Interessanter sind Features und Verbrauch.
MfG,
Raff
Timbaloo
2012-03-13, 23:41:26
Mei, das ist alles mehr oder minder "gleich schnell". Als wenn 10-15 Prozent irgendwas ausmächten. OC und gut. Interessanter sind Features und Verbrauch.
Aus der Seele er mir spricht.
dildo4u
2012-03-13, 23:41:38
So lange Beide solche Preis aufrufen kann mir keiner die Karten als Must Have verkaufen.2013 wirds vieleicht interresant wenn's endlich neue Konsolen gibt,bis dahin gibt's aber schon 2 oder 3 28nm Refrech.
Was heißt erstehlen? Das ist nunmal der Vorteil, wenn man bei sich noch verbesserndem Prozeß ein paar Monate später startet. Bzw. andersrum AMDs Nachteil des frühen Starts.
Komm sind wir mal ehrlich. Lässt man ne 7970 mit dem selben Takt laufen, sind evtl. beide gleich auf und das OC Potential von dem höhren Takt ausgesehen ähnlich. D.h. offiziell sind sie die schnelleren aber eben "nur" weil später released. Das ist ein Fake! :D
Dural
2012-03-13, 23:58:44
GK104 hat mal rund 800Mio. transistoren weniger als ein tahiti, das ist ein ganzer G92!
wenn tahiti 1,3Ghz macht wird es GK104 erst recht machen, bei 1,05Ghz standard takt und 195Watt TDP erst recht, wetten?
28nm scheint noch nicht gut zu laufen, aber die resultate was takt betrifft sehen bis jetzt ja wirklich super aus!
ich tippe beim GK104 sogar auf 1,4Ghz mit WaKü + vMod, was übrigens auch nur rund 35% wären...
derguru
2012-03-14, 00:04:21
Es sind nun Neue Folien mit Benchmarks aufgetaucht.
10-15%, BF3 35% über HD7970
Somit wäre man in etwa gleich schnell als eine HD7970 1,1 Ghz.
Da hat man GF104 wohl so hoch geprügelt um schneller zu sein,- und man kann nun ordentlich absahnen,- wenn doch die Verfügbarkeit besser wäre und der Markt gegeben,- dem ist aber nicht so.
Dies roch NV wohl und zügelte den damals geplanten GF104 so extrem hoch.
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2012/ngf-gtx680-leak.png
Dennoch irgendwie bescheiden, sind ja einige Games 2 bis gar 3 mal enthalten! (Dirt3, Battlefield 3 , Stalker...)
Im Schnitt um HD7970 Performance mit Neuen AMD Treibern, Wetten!!
die folie kommt mir bekannt vor,wurde die nicht schon oft für fakes missbraucht?:biggrin:
GK104 hat mal rund 800Mio. transistoren weniger als ein tahiti, das ist ein ganzer G92!
wenn tahiti 1,3Ghz macht wird es GK104 erst recht machen, bei 1,05Ghz standard takt und 195Watt TDP erst recht, wetten?
28nm scheint noch nicht gut zu laufen, aber die resultate was takt betrifft sehen bis jetzt ja wirklich super aus!
ich tippe beim GK104 sogar auf 1,4Ghz mit WaKü + vMod, was übrigens auch nur rund 35% wären...
das sagt gar nichts über die taktfreudigkeit aus oder ist der Pitcairn taktfreudiger?:wink:
Käsetoast
2012-03-14, 00:04:34
Was den Turbo angeht: Ich würde das mal so interpretieren, dass der für alle GK104er gleich ist und bei der GTX 680 das nur komisch wirkt, weil der Basistakt halt so hoch ist. Oder anders gesagt: Die GTX 680 kann quasi ständig aus dem vollen schöpfen (ist ja nahezu kein Unterschied zwischen Basis- und Turbotakt) und die kleineren Modelle sind da TDP technisch limitiert und fallen bei hoher Auslastung dann auf den eigentlichen Basistakt zurück. Zumindest wäre das der einzige Sinn den ich in den Zahlen sehe vorausgesetzt sie sind korrekt...
Heise - Nvidias GeForce GTX 680 kommt am 22. März (http://www.heise.de/newsticker/meldung/Nvidias-GeForce-GTX-680-kommt-am-22-Maerz-1471272.html)
Inzwischen sind auf der Webseite Chiphell erste Bilder einer vermeintlichen GeForce GTX 680 aufgetaucht. Sie zeigen, dass die Karte zwei sechspolige Stromanschlüsse besitzt und damit bis zu 225 Watt aufnehmen darf. Im 3D-Betrieb soll der GK104 vergleichsweise sparsam arbeiten.
Also nichts mit den vermuteten 300W. ;)
Blediator16
2012-03-14, 00:21:27
Heise - Nvidias GeForce GTX 680 kommt am 22. März (http://www.heise.de/newsticker/meldung/Nvidias-GeForce-GTX-680-kommt-am-22-Maerz-1471272.html)
Also nichts mit den vermuteten 300W. ;)
Ich kann mich an keine 300w für den 104 erinnern.
Skysnake
2012-03-14, 00:43:44
Ich seh schon die Haarspalterei kommen.
"Die ist schneller als die HD 7970!"
"Nöhöö, die ist auf HD-7950-Niveau!"
Mei, das ist alles mehr oder minder "gleich schnell". Als wenn 10-15 Prozent irgendwas ausmächten. OC und gut. Interessanter sind Features und Verbrauch.
MfG,
Raff
Seh ich genau so, und der Turbo wird seinen Beitrag dazu leisten :ugly:
Let the war begin :ugly:
Btw. Was haltet ihr eigentlich von Charlies Meldung bzgl. Apple, und das nVidia es verkackt hat mit den Lieferungen und daher in vielen Produkten doch keine nVidias landen werden.
Das sollte nVidia doch so RICHTIG weh tun.
Ich kann mich an keine 300w für den 104 erinnern.
Das wurde hier mal spekuliert, weil Bilder von einem 6 und 8 Pol-Anschluß auftauchten.
Ronny145
2012-03-14, 01:15:17
Btw. Was haltet ihr eigentlich von Charlies Meldung bzgl. Apple, und das nVidia es verkackt hat mit den Lieferungen und daher in vielen Produkten doch keine nVidias landen werden.
Ich halte gar nichts davon. Die story (http://semiaccurate.com/2012/03/13/intels-non-delay-of-ivy-bridge-explained/) davor von ihm ist völlig bekloppt. GT1 Ausführung im Notebook gibt es nicht, Apple kann nicht von GT1 auf GT2 wechseln. Alleine dieser Fehler lässt seine Geschichte zerplatzen. Entweder hat er wieder etwas völlig durcheinandergebracht (siehe den angeblichen paper launch am 12. März), oder es ist eine seiner Hetztiraden.
dildo4u
2012-03-14, 02:08:22
PC Perspective
Stay tuned, we'll have a quick preview of Kepler GPU performance on the mobile site coming later tonight!!
http://www.facebook.com/pcper
Preview der GT640M
Sind wohl Fahrenheit gemeint. *g*
As mentioned earlier, one of the tactics used by Nvidia to squeeze maximum performance out of the new Kepler mobile chips is dynamic performance scaling. Every laptop has a maximum amount of heat it can cool - so why not make sure all of it is being used?
The answer to that question starts to become evident when playing games on this laptop. While the palmrest remains in the mid-80s, the middle of the keyboard becomes extremely warm, reaching temperatures up to 105 degrees.
That’s nothing compared to center-bottom of the laptop, where we read temperatures of up to 128 degrees after playing Battlefield 3 on Ultra. That’s unacceptably warm - it’s hard to imagine using this laptop on anything besides a desk if you want to engage the GPU.
I asked an Nvidia rep what they were going to do to ensure that the dynamic performance scaling did not result in high external temperatures. The answer I received was that it’s up to the laptop manufacturer. It appears Acer has been very liberal with the maximum temperatures it will tolerate
http://www.pcper.com/reviews/Mobile/Nvidia-GeForce-GT-640M-Review-Kepler-Arrives-Mobile/Performance-Verdict
Blediator16
2012-03-14, 02:15:03
Wurde auch schon veröffentlicht.
http://www.pcper.com/reviews/Mobile/Nvidia-GeForce-GT-640M-Review-Kepler-Arrives-Mobile/Performance-Verdict
Hugo78
2012-03-14, 07:01:48
Speed über 555M.
Das mit der Hitze muss man mal abwarten wie andere Hersteller das lösen,
vorallem wenns mal ein richtiges Notebook ist, nicht dieser MBA Abklatsch.
boxleitnerb
2012-03-14, 07:27:33
Jetzt könnte man mal versuchen die Shadereffizienz zwischen der GT555M und dem GT640M vergleichen? Aber die Taktraten sind immer noch nicht klar, jeder sagt was anderes (hotclocks, keine hotclocks).
Mal lese ich, dass der GT555M im M14x mit 753MHz läuft, beim Review auf notebookcheck steht aber 590. So kann man das leider vergessen.
http://www.notebookcheck.com/Test-Alienware-M14x-Notebook.53568.0.html
Hugo78
2012-03-14, 08:10:12
Da steht doch auch 590 im NBC Test.
Von den Taktraten lässt Alienware erwartungsgemäß die Finger, 590 MHz (Kern), 900 MHz (Speicher) und 1180 MHz (Shader) entsprechen den Vorgaben.
144 Kerne 590 MHz (GF106), 192 Bit DDR3
Die Version mit 753 MHz hat 96 Kerne und 128 Bit, dafür dann aber mit GDDR5.
boxleitnerb
2012-03-14, 08:11:40
Ja, aber im pcper-Test steht
The score of 1785 betters the GT 555M (that has 144 CUDA cores and runs at a frequency of 753 MHz)
Hugo78
2012-03-14, 08:13:51
Da bringt der Typ die Specs durcheinander.
boxleitnerb
2012-03-14, 08:25:14
Stimmt, die gehören zum 555A mit 96CC.
640M: 480 GFLOPs
555M "B": 340 GFLOPs
Speicherbandbreite des 555M "B" ist durch das 192bit Interface 50% höher.
Schlammsau
2012-03-14, 09:01:04
Meine Performance Einschätzung der GTX680 ..... irgendwo zwischen 7950 und 7970. Vielleicht etwas näher an der 7970, aber keinesfalls schneller im Schnitt.
Remember my words
Und da der Unterschied von 7950 zu 7970 in vielen Benches schon unbedeutend ist, ist damit auch der Unterschied zur GeForce unbedeutend.
Schlammsau
2012-03-14, 09:31:22
Ich weiss schon genau wie das ganze ablaufen wird. "The same procedure as every release" ....
AMD wird nen Performance Beta Treiber Releasen, der die 7970 um ein paar Prozentchen schneller machen wird. Vor allem in Games, wo sie im Moment noch relativ schlecht abschneidet. Wahrscheinlich wird die 7950 als direkter Konkurrent auserkoren, die die GTX680 auch in allen belangen schlagen wird. Aber halt für die 7970 wirds mMn nicht reichen. Wenn doch, dann Hut ab nVidia. Angenommen die 680 schlägt die 7970, wird AMD in Kürze eine "XTX" oder "7980" aus dem Hut zaubern und sie haben wieder die Performancekrone.
AnarchX
2012-03-14, 09:46:43
http://img208.imageshack.us/img208/6029/680benchmarks.jpg (http://imageshack.us/photo/my-images/208/680benchmarks.jpg/)
http://ww.chiphell.com/forum.php?mod=redirect&goto=findpost&ptid=383842&pid=11446373
http://i41.tinypic.com/33tgh0h.png
http://bbs.expreview.com/thread-49873-1-1.html
Adam D.
2012-03-14, 09:47:09
Wenn doch, dann Hut ab nVidia.
Genau die Einstellung versteh ich nicht. Was ist genau an Tahiti XT so überragend, als dass man ihn nicht schlagen könnte? Hätte Ati das Ding gleichzeitig mit Kepler gelauncht, würde der Kampf ganz anders aussehen.
Schlammsau
2012-03-14, 09:50:17
Genau die Einstellung versteh ich nicht. Was ist genau an Tahiti XT so überragend, als dass man ihn nicht schlagen könnte? Hätte Ati das Ding gleichzeitig mit Kepler gelauncht, würde der Kampf ganz anders aussehen.
Weil es nicht der Vollausbau von Kepler ist, Tahiti XT hingegen schon. Wenn nVidia es schafft, AMDs Vollausbau mit einem beschnittenem Chip zu schlagen, ist das schon eine Leistung oder nicht?
boxleitnerb
2012-03-14, 09:52:31
http://www.chiphell.com/data/attachment/forum/201203/14/154121a180ta8oasaa1z0n.jpg
http://www.chiphell.com/forum.php?mod=redirect&goto=findpost&ptid=383842&pid=11446373
http://i41.tinypic.com/33tgh0h.png
http://bbs.expreview.com/thread-49873-1-1.html
Was war auf dem ersten Bild, wo jetzt nur das Chiphell Logo zu sehen ist?
Adam D.
2012-03-14, 09:52:56
Weil es nicht der Vollausbau von Kepler ist, Tahiti XT hingegen schon. Wenn nVidia es schafft, AMDs Vollausbau mit einem beschnittenem Chip zu schlagen, ist das schon eine Leistung oder nicht?
Natürlich wäre das eine Leistung, Nvidia hat mit Kepler ja auch offenbar alles richtig gemacht. Aber Atis früher Launch hat Nvidia doch in eine dankbare Position gebracht, weil man sich eben genau so positionieren kann wie es in Anbetracht aller Umstände perfekt für sie ist.
Ich würde gerne wissen, mit welchen Frequenzen Tahiti heute gelauncht werden könnte...
Dural
2012-03-14, 09:55:32
AMD hat mit der 7970 aber auch deutlich nachgelassen. die mehr leistung ist geringer als noch bei 5870 vs 4870 oder 4870 vs 3870, nur die 2900XT stand im vergleich zu seinem vorgänger noch schlechter da.
Dachte die GTX680 sei über 10% schneller in BF3? Bei dem Pic von Chiphell ist sie nur knapp schneller. Über all die Spiele gesehen in etwa ein Gleichstand zur XT.
Adam D.
2012-03-14, 09:57:51
Dachte die GTX680 sei über 10% schneller in BF3? Bei dem Pic von Chiphell ist sie nur knapp schneller. Über all die Spiele gesehen in etwa ein Gleichstand zur XT.
Wir kennen ja Settings, Treiber und was weiß ich noch alles nicht.
AnarchX
2012-03-14, 09:58:15
Dachte die GTX680 sei über 10% schneller in BF3? Bei dem Pic von Chiphell ist sie nur knapp schneller. Über all die Spiele gesehen in etwa ein Gleichstand zur XT.
Bei BF3 ist sie doch deutlich näher an der 120%, als an 100%?
Im unteren Diagramm ist kein Battlefield, sondern nur BattleForge.
Manches Spiel scheint laut dem unteren Diagramm von PHK wohl der Kepler-Architektur noch nicht zu schmecken (Skyrim, Shogun).
AMD hat mit der 7970 aber auch deutlich nachgelassen. die mehr leistung ist geringer als noch bei 5870 vs 4870 oder 4870 vs 3870, nur die 2900XT stand im vergleich zu seinem vorgänger noch schlechter da.
Bei besserem Yield wären die mit über 1GHz wie ursprünglich geplant gekommen und somit wäre der Abstand um 20%+ höher.
Adam D.
2012-03-14, 10:02:04
Ich frag mich, was die völlig unterschiedlichen Ergebnisse bei Shogun 2 zu bedeuten haben?!
Bei BF3 ist sie doch deutlich näher an der 120%, als an 100%?
Im unteren Diagramm ist kein Battlefield, sondern nur BattleForge.
Das 4 letzte Spiel im Diagramm ist BF3 wenn ich das richtig lese und dort ist nV nur minimal schneller.
/E nicht die Chiphell sondern die expreview Folie.
Dural
2012-03-14, 10:03:24
als man kann sicher davon ausgehen das die GTX680 leistungsmässig um die 7970 ist. NV würde nie eine karte mit diesem namen und zum selben preis auf den markt bringen wo dies nicht der fall wäre :rolleyes:
aber ehrlich gesagt ist das auch für mich eine entäuschung, die karte hat immerhin 1536SP bei einem 1Ghz takt, da schein NV auch massiv an effizients pro einheiten verlohren zu haben.
Ronny145
2012-03-14, 10:03:59
Sind das Herstellerangaben in der ersten Folie? Die zweite Folie wirft grob ein Gleichstand ab zu Tahiti XT. Einordnen kann ich das noch nicht. Treiberversionen, Settings etc. unklar. Falls es nicht wieder Fakes sind.
Weil es nicht der Vollausbau von Kepler ist, Tahiti XT hingegen schon. Wenn nVidia es schafft, AMDs Vollausbau mit einem beschnittenem Chip zu schlagen, ist das schon eine Leistung oder nicht?
Es ist der Vollausbau von GK104, ohne GK110 zu kennen ist eine Beurteilung sehr schwer.
Blaire
2012-03-14, 10:08:17
Sind das Herstellerangaben in der ersten Folie? Die zweite Folie wirft grob ein Gleichstand ab zu Tahiti XT. Einordnen kann ich das noch nicht. Treiberversionen, Settings etc. unklar. Falls es nicht wieder Fakes sind.
Momentan würde ich keinen Benchmarks wirklich Glauben schenken. ;)
Thunder99
2012-03-14, 10:27:12
Zumal bekannt ist, dass ATI SC2 nicht schmeckt und die Steigerung um fast 40% daher nicht viel aussagt.
Ich liebe Excel Diagramme :freak:
HarryHirsch
2012-03-14, 10:27:30
Wir kennen ja Settings, Treiber und was weiß ich noch alles nicht.
http://www.abload.de/img/33tgh0h_crixuyp.png (http://www.abload.de/image.php?img=33tgh0h_crixuyp.png)
sieht für mich nach ccc 12.2 und fcw 300.3 aus
Duke Nukem
2012-03-14, 10:38:04
Und da der Unterschied von 7950 zu 7970 in vielen Benches schon unbedeutend ist, ist damit auch der Unterschied zur GeForce unbedeutend.
Viel bedeutender sind da das grössere SI und der 3GB Speicher der 7970 die wird bei hohen Settings wohl nicht so leicht einbrechen. Und das zählt auch bei den kommenden Dual Karten wenn NV nur 2x2 GB verbauen sollte,
Henroldus
2012-03-14, 10:38:42
Zumal bekannt ist, dass ATI SC2 nicht schmeckt und die Steigerung um fast 40% daher nicht viel aussagt.
Ich liebe Excel Diagramme :freak:
SC2 ist auch völlig irrelevant, da es auf jeder Midrangekarte schon sehr gut läuft.
Was nutzen da z.B. 90 anstatt 70 FPS???
schei** cherrypicking
Viel bedeutender sind da das grössere SI und der 3GB Speicher der 7970 die wird bei hohen Settings wohl nicht so leicht einbrechen. Und das zählt auch bei den kommenden Dual Karten wenn NV nur 2x2 GB verbauen sollte,
Abgesehen von SLI / CF Set-Ups würde ich den Speicher nicht überbewerten. Aber auch ich halte die 79X0 Serie grundsätzlich für zukunftssicherer.
Dural
2012-03-14, 10:43:36
Viel bedeutender sind da das grössere SI und der 3GB Speicher der 7970 die wird bei hohen Settings wohl nicht so leicht einbrechen. Und das zählt auch bei den kommenden Dual Karten wenn NV nur 2x2 GB verbauen sollte,
gut möglich, in spielbaren FPS? sicher nicht! die karten sind dazu viel zu schwach um 2GB+ sinnvoll zu nützen.
AnarchX
2012-03-14, 10:48:05
aber ehrlich gesagt ist das auch für mich eine entäuschung, die karte hat immerhin 1536SP bei einem 1Ghz takt, da schein NV auch massiv an effizients pro einheiten verlohren zu haben.
Man wird wohl schon ein paar nette Benchmarks (http://www.pcgameshardware.de/aid,865294/Test-der-Radeon-HD-7950-Ist-der-Tahiti-Pro-besser-als-Nvidias-GTX-580/Grafikkarte/Test/?page=10)finden, wo die hohe Rechenleistung durchschlagen wird.
Hades11
2012-03-14, 10:50:04
SC2 ist auch völlig irrelevant, da es auf jeder Midrangekarte schon sehr gut läuft.
Was nutzen da z.B. 90 anstatt 70 FPS???
schei** cherrypicking
also meine 275 schafft das nicht mit max details...
ok die ist vielleicht auch schon ein wenig veraltert.
so wie es aussieht wird 680 also gleich stark wie 7970 und bei hohen auflösungen/Downsampling (wie auch schon Fermi) schwächer werden.
ich frage mich nur ob sie die Tesselationsleistung nochmal erhöht haben. die Reine Tesselationsleistung war ja sogar bei der 580 noch höher als bei 7970.
AnarchX
2012-03-14, 10:51:46
ich frage mich nur ob sie die Tesselationsleistung nochmal erhöht haben. die Reine Tesselationsleistung war ja sogar bei der 580 noch höher als bei 7970.
Theoretisch hat die GTX 680 die gleiche Anzahl an Geometrie/Tessellation-Einheiten wie GF110. Aber eben mit 28% höherem Takt.
SC2 ist auch völlig irrelevant, da es auf jeder Midrangekarte schon sehr gut läuft.
Was nutzen da z.B. 90 anstatt 70 FPS???
schei** cherrypicking
2560x1600 mit 4xMSAA und man ist mit einer 580 bei ~30 FPS: http://www.pcgameshardware.de/aid,870528/Radeon-HD-7870-GHz-Edition-und-HD-7850-im-Test-Schnell-und-sparsam-dank-28-nm/Grafikkarte/Test/?page=2
Iruwen
2012-03-14, 11:10:27
ich mache mir eher sorgen ob er sich auch vernünftig abschalten lässt, denn es hilft mir ja nix wenn ich die karte OCe und der mir dabei unkontrolliert am takt rumpfuscht. :unono:
Das dachte ich mir auch schon.
LOL, die Folie ist ja wirklich klasse. Weil einem die Spiele zum cherry picken ausgegangen sind, nimmt man stalker z.B. halt gleich 4X rein damit es nach mehr aussieht...
Außerdem vergleichen Sie sich nur mit der Standard 7970. OC Potential wird minimal sein bei den Taktraten, je mehr ich drüber nachdenke, desto mehr ;D
Und dann drüber schreiben "Worlds fastest DX 11.1 GPU" ;D ;D
Aktuelle AMD Treiber + 1 ghz 7970 OC Version + non cherry picked benchmarks = yeah right NV ^^ (falls die Folie echt ist)
Weil sich NV Karten ja grundsätzlich nicht übertakten lassen und nach dem Launchtreiber auch nichts mehr kommt :rolleyes: Also manchmal...
Skysnake
2012-03-14, 11:10:30
Ich wart ja schon gespannt darauf, dass der erste daher kommt und Hochrechnungen für die GTX680 aufgrund der Ergebnisse der GT640M macht. :ulol:
boxleitnerb
2012-03-14, 11:23:35
Bei Anandtech machen sie das schon ;)
AnarchX
2012-03-14, 11:30:12
1536*1GHz / 384*0,625GHz = 6,4x
256-Bit@6Gbps /128-Bit*1,8Gbps = 6,7x
3DM11 P1.822 (http://www.anandtech.com/show/5672/acer-aspire-timelineu-m3-life-on-the-kepler-verge/3) * 6 = ~P11.000
Oder eben auf Basis des GPU-Scores: http://forum.beyond3d.com/showpost.php?p=1627120&postcount=2363 => ~P10.000
Im Endeffekt kommt man da wohl immer noch ein gutes Stück über der HD 7970 (P7500-P8000) heraus.
fizzo
2012-03-14, 11:37:33
2560x1600 mit 4xMSAA und man ist mit einer 580 bei ~30 FPS: http://www.pcgameshardware.de/aid,870528/Radeon-HD-7870-GHz-Edition-und-HD-7850-im-Test-Schnell-und-sparsam-dank-28-nm/Grafikkarte/Test/?page=2
PCGH ist Meister beim aufzeigen eines Worst Case Szenarios was vielleicht in 1% der Fälle eintrifft ;)
Die "restliche" Zeit sieht es dann so aus: AnandTech (http://www.anandtech.com/show/5625/amd-radeon-hd-7870-ghz-edition-radeon-hd-7850-review-rounding-out-southern-islands/12):D
PCGH ist Meister beim aufzeigen eines Worst Case Szenarios was vielleicht in 1% der Fälle eintrifft ;)
Die "restliche" Zeit sieht es dann so aus: AnandTech (http://www.anandtech.com/show/5625/amd-radeon-hd-7870-ghz-edition-radeon-hd-7850-review-rounding-out-southern-islands/12):D
hier stand müll :D
Iruwen
2012-03-14, 12:06:10
PCGH ist Meister beim aufzeigen eines Worst Case Szenarios was vielleicht in 1% der Fälle eintrifft ;)
Die "restliche" Zeit sieht es dann so aus: AnandTech (http://www.anandtech.com/show/5625/amd-radeon-hd-7870-ghz-edition-radeon-hd-7850-review-rounding-out-southern-islands/12):D
Worst Case Szenarien bei denen eine Karte richtig einbricht sind nunmal interessanter als die Stellen an denen man zwischen 80 und 150 FPS hat, dafür braucht man keine 500€ Grafikkarte.
Palpatin
2012-03-14, 12:22:44
Zumal bekannt ist, dass ATI SC2 nicht schmeckt und die Steigerung um fast 40% daher nicht viel aussagt.
Ich liebe Excel Diagramme :freak:
Bei PCG Hardware ist die GTX 580 in SC2 um knapp 40% schneller als die 7970 :D:. Von daher wären da 40% eher sehr entäuschend.
AnarchX
2012-03-14, 12:29:25
http://www.expreview.com/img/review/news/NVIDIAKepler/nvida.jpg
edit: das Bild gehört zur GTX 580: http://www.tomshardware.com/news/gtx-580-vapor-chamber-heatsink-cooler,11597.html
http://www.expreview.com/img/review/news/NVIDIAKepler/kepler2.jpg
http://www.expreview.com/18768.html
Hades11
2012-03-14, 12:33:54
PCGH ist Meister beim aufzeigen eines Worst Case Szenarios was vielleicht in 1% der Fälle eintrifft ;)
und genau das interessiert ja auch, was bringt es mir wenn ich den großteil der zeit ein flüssiges bild habe, aber immer dann wenn eine etwas (für die Graka) schwierigere stelle kommt eine diashow habe? es kommt eben darauf an dass man immer ein flüssiges bild hat - anders lässt es sich nunmal nicht vernünftig zocken - und nicht nur meistens.
mir fällt gerade ein, AMD hat ihre Treiber ja schon etwas optimiert NV könnte da eventuell noch mehr per Treiber rausholen.
N0Thing
2012-03-14, 12:42:49
AMD hat mit der 7970 aber auch deutlich nachgelassen. die mehr leistung ist geringer als noch bei 5870 vs 4870 oder 4870 vs 3870, nur die 2900XT stand im vergleich zu seinem vorgänger noch schlechter da.
AMD hat nun den Schritt nachgeholt, den Nvidia schon früher vollzogen hat. Mehr Transistoraufwand für GPGPU. An Pitcairn sieht man ja gut, wie effizient die Architektur sein kann, wenn man nur den Spielemarkt achten muß.
Das gleiche wird für GK104 gelten, von daher wäre ein Gleichstand zwischen GTX 680 und HD7970 bei ähnlichem Verbrauch ein deutliches Zeichen, daß beide Hersteller aktuell nahezu auf Augenhöhe sind.
Thunder99
2012-03-14, 12:48:16
SC2 ist auch völlig irrelevant, da es auf jeder Midrangekarte schon sehr gut läuft.
Was nutzen da z.B. 90 anstatt 70 FPS???
schei** cherrypicking
bei weitem nicht wenn man ALLE Grafikoptionen aktiviert und mit 4xMSAA zoggt. Im Einzelspieler ruckeln da die Videos auf meiner GTX470 @ 700Mhz ;) und Eine Karte mit Regen im Szenario hat ~25fps ohne action
PCGH ist Meister beim aufzeigen eines Worst Case Szenarios was vielleicht in 1% der Fälle eintrifft ;)
Die "restliche" Zeit sieht es dann so aus: AnandTech (http://www.anandtech.com/show/5625/amd-radeon-hd-7870-ghz-edition-radeon-hd-7850-review-rounding-out-southern-islands/12):D
Dies tritt öfters auf als du denkst :) . Daher war meine Ambitionen auch eine GTX680 zu kaufen, da mir das Spiel sehr wichtig ist. Aber die Preise werden wohl die Investition verschieben oder canceln bis die GTX7xx Serie erscheint
Timbaloo
2012-03-14, 12:55:58
AMD hat nun den Schritt nachgeholt, den Nvidia schon früher vollzogen hat. Mehr Transistoraufwand für GPGPU. An Pitcairn sieht man ja gut, wie effizient die Architektur sein kann, wenn man nur den Spielemarkt achten muß.
Das gleiche wird für GK104 gelten, von daher wäre ein Gleichstand zwischen GTX 680 und HD7970 bei ähnlichem Verbrauch ein deutliches Zeichen, daß beide Hersteller aktuell nahezu auf Augenhöhe sind.
Unter den Aspekt müsste GK104 aber eher besser sein als Tahiti, denn GK104 ist, so zumindest mein Stand, nicht für GPGPU-Karten gedacht. Das wäre dann der GK110.
fizzo
2012-03-14, 13:01:51
bei weitem nicht wenn man ALLE Grafikoptionen aktiviert und mit 4xMSAA zoggt. Im Einzelspieler ruckeln da die Videos auf meiner GTX470 @ 700Mhz ;) und Eine Karte mit Regen im Szenario hat ~25fps ohne action
Dies tritt öfters auf als du denkst :) . Daher war meine Ambitionen auch eine GTX680 zu kaufen, da mir das Spiel sehr wichtig ist. Aber die Preise werden wohl die Investition verschieben oder canceln bis die GTX7xx Serie erscheint
Ich habe SC2 im SP durch und auch sporadisch MP gespielt. Soche PCGH-Benchmarksequenz (http://videos.pcgameshardware.de/video/621/Starcraft-II-PCGHBenchmarksequenz) sind mir jedoch kaum unter gekommen. Diese jetzt als Refernz für die Spielbarkeit, wie dies AnarchX o.a. hat, zu nehmen, finde ich irreführend.
Hades11
2012-03-14, 13:08:34
Unter den Aspekt müsste GK104 aber eher besser sein als Tahiti, denn GK104 ist, so zumindest mein Stand, nicht für GPGPU-Karten gedacht. Das wäre dann der GK110.
nein GK 104 müsste eben nicht besser sein als Tahiti, weil er
1. kleiner ist
2. weniger verbraucht
er ist einfach als Performace Chip geplant worden und nicht als High-end. Deswegen ist es schon gute Arbeit von NV den überhaupt in diese Leistungsregionen zu bekommen. Die vorgänger GF114 und GF110 war GF114 ja auch kleiner mit geringerem verbrauch und hatte auch weniger leistung als GF110 obwohl dieser auch den Profi-ballast hatte. Das hier ist nichts anderes, kleiner performance Chip gegen Großen, GPGPu-belasteten High-end Chip.
Ich habe SC2 im SP durch und auch sporadisch MP gespielt. Soche PCGH-Benchmarksequenz (http://videos.pcgameshardware.de/video/621/Starcraft-II-PCGHBenchmarksequenz) sind mir jedoch kaum unter gekommen. Diese jetzt als Refernz für die Spielbarkeit, wie dies AnarchX o.a. hat, zu nehmen, finde ich irreführend.
Wenn du eine getarnte, fette Protoss-Armee auf dem Schirm hast, sind diese Fps-Raten normal. Sonst eher nicht. Aber das steht alles hier (http://www.pcgameshardware.de/aid,744422/Benchmark-FAQs-So-testet-PCGH-CPUs-und-Grafikkarten-mit-Spielen-Update-mit-Battlefield-3-Skyrim-und-Spielbarkeitsgrenzen/Spiele/Test/?page=18):
"Als Benchmark dient uns ein Multiplayer-Realtime-Replay eines 2on2-Matches. Unsere extrem fordernde Szene (nahe am Worst-Case!) zeigt den Endkampf des Matches, in der Protoss, Terraner und Zerg mit allerhand Einheiten beteiligt sind. Im Singleplayer-Modus liegen die erzielten Bildraten normalerweise deutlich höher und sind mangels Unmengen an Einheiten nicht derart CPU-limitiert wie unsere Szene - dies ist erst am Ende der Kampagne der Fall."
Wer ohne MSAA spielt, kann das Abkacken der Radeons ignorieren (ohne MSAA läuft alles wie Butter). Wer ohne AA spielt, kann aber auch Kepler ignorieren (der in dem Spiel gewiss fett regelt). :tongue:
MfG,
Raff
Thunder99
2012-03-14, 13:23:28
Ich habe SC2 im SP durch und auch sporadisch MP gespielt. Soche PCGH-Benchmarksequenz (http://videos.pcgameshardware.de/video/621/Starcraft-II-PCGHBenchmarksequenz) sind mir jedoch kaum unter gekommen. Diese jetzt als Refernz für die Spielbarkeit, wie dies AnarchX o.a. hat, zu nehmen, finde ich irreführend.
Dann hattest du nicht alle Effekte an. Gerade SSAO für realistische Schatten kostet extrem viel Leistung, aber man sieht auch was davon :)
redfirediablo
2012-03-14, 14:52:07
Daher war meine Ambitionen auch eine GTX680 zu kaufen, da mir das Spiel sehr wichtig ist.
Ne GTX 680 extra für SC2 kaufen ^^ kann ich nicht nachvollziehen. Im Einzelspieler kommt man auch mal mit 40 fps klar und wer ambitioniert SC2 im Multiplayer spielt, sollte eh nicht mit vollen Grafikdetails spielen, weil sonst die Übersicht leidet.
Ich spiele es mit meiner 7950 auf einer Stufe unter dem maximum mit 16AF und das einzigste was limitiert ist mein Phenom II @ 3,3ghz. 4XAA sollte man sich natürlich auf AMD Karten sparen, das wird dann wirklich zäh...
Thunder99
2012-03-14, 16:35:04
Ne GTX 680 extra für SC2 kaufen ^^ kann ich nicht nachvollziehen. Im Einzelspieler kommt man auch mal mit 40 fps klar und wer ambitioniert SC2 im Multiplayer spielt, sollte eh nicht mit vollen Grafikdetails spielen, weil sonst die Übersicht leidet.
Ich spiele es mit meiner 7950 auf einer Stufe unter dem maximum mit 16AF und das einzigste was limitiert ist mein Phenom II @ 3,3ghz. 4XAA sollte man sich natürlich auf AMD Karten sparen, das wird dann wirklich zäh...
Ich wüsste nicht was durch die volle Grafikpracht an Übersicht leiden soll :confused:
Außerdem ist es nur ein Beispiel gewesen wo sich die bessere Performance direkt auswirkt. Weitere kommende Spielen werden da sicherlich ebenso profitieren :)
Aber bevor ich die Details runter schraube bei einem Spiel wird neue HW gekauft :freak: . Ich will es immer voll genießen ohne Abstriche ;) :)
OnTopic:
200W scheint mir etwas viel wenn die Performance nur wenig über der GTX580 liegt (~25%). Da kann es durchaus sein, dass wirklich potenter wird als ursprünglich gedacht
redfirediablo
2012-03-14, 17:23:29
Ich wüsste nicht was durch die volle Grafikpracht an Übersicht leiden soll :confused:
Der Kontrast zw. Einheiten und Boden bzw. Umgebung sinkt. Verschlechtert u.a. die Erkennbarkeit und Selektierbarkeit von Zerg Einheiten in einer Zerg Basis. Das Bild wirkt zwar etwas homogener und "realistischer" aber helfen tut das nicht beim Spielen.
Kommt zwar auf dein Niveau an ob das wirklich einen Unterschied macht aber ich bevorzuge dann doch hohe fps und bessere Sicht bei akzeptabler Grafikquali. Ich spreche ja nicht davon, alles auf "niedrig" zu stellen ;-)
Außerdem fehlt für mich die Motivation in neue Hardware zu investieren, nur weil das Spiel mieß gecodet ist. SC2 ist ein tolles Spiel aber die Engine ist miserabel, vor allem auch was CPU MT angeht. Aber man spielt ja SC2 auch nicht wegen der Grafik ^^
Iruwen
2012-03-14, 17:31:14
HBAO ist bei BF3 auch eher ein Nachteil und frisst ganz gut Leistung, aber es gibt noch einen Unterschied zwischen ernsthaft kompetitiv spielen und Zomgsuperproattitüde. Die Cracks drehen bei CS & Co ja auch oft alles soweit runter dass ein normaler Spieler Augenkrebs bekommt.
crux2005
2012-03-14, 17:36:42
In 25x16 empfinde ich die GTX 680 nicht als Brüller. Ja, HD 7970 Niveau, aber hätte mir mehr erhofft. In 19x12 ist es schon eine andere Geschichte... ;)
Godmode
2012-03-14, 17:40:27
In 25x16 empfinde ich die GTX 680 nicht als Brüller. Ja, HD 7970 Niveau, aber hätte mir mehr erhofft. In 19x12 ist es schon eine andere Geschichte... ;)
Hast du schon richtige Benchmarks gesehen oder basiert diese Meinung auf den letzten hier geposteten Diagrammen?
crux2005
2012-03-14, 18:25:00
no. 1
derguru
2012-03-14, 18:33:05
so groß sind die differenzen zwischen 1200p und 1600p das es gleich eine andere geschichte ist?:eek:
mironicus
2012-03-14, 18:35:36
Ab jetzt bitte nur noch Tests mit 2560x1600 und 8xAA und drei Bildschirme gleichzeitig usw... mal schauen wer dann schneller ist. :D
boxleitnerb
2012-03-14, 18:39:31
In einem anderen Forum stand, dass es mit jeder Treiberrevision noch Verbesserungen gibt. Wer sagt, dass die Ergebnisse, die crux angeblich gesehen hat, mit einem aktuellen Treiber waren? Und selbst wenn sind immer noch Verbesserungen möglich.
Godmode
2012-03-14, 18:43:53
In einem anderen Forum stand, dass es mit jeder Treiberrevision noch Verbesserungen gibt. Wer sagt, dass die Ergebnisse, die crux angeblich gesehen hat, mit einem aktuellen Treiber waren? Und selbst wenn sind immer noch Verbesserungen möglich.
Natürlich, vor allem da es doch deutliche architektonische Änderungen gab. IMO ist aber für wirkliche hohe Settings die Radeon besser, einfach weil fetteres Speicherinterface, etc.. aber lieber mal abwarten was die Benchmarks dann sagen. Ich warte sowieso auf GK110, daher ist mir GK104 relativ Schuppe.
Blediator16
2012-03-14, 18:56:39
In einem anderen Forum stand, dass es mit jeder Treiberrevision noch Verbesserungen gibt. Wer sagt, dass die Ergebnisse, die crux angeblich gesehen hat, mit einem aktuellen Treiber waren? Und selbst wenn sind immer noch Verbesserungen möglich.
Eigentlich ists bei beiden so von daher sollte man keine riesen Untershiede erwarten.
derguru
2012-03-14, 19:00:10
Natürlich, vor allem da es doch deutliche architektonische Änderungen gab. IMO ist aber für wirkliche hohe Settings die Radeon besser, einfach weil fetteres Speicherinterface, etc.. aber lieber mal abwarten was die Benchmarks dann sagen. Ich warte sowieso auf GK110, daher ist mir GK104 relativ Schuppe.
die gk110 gibts noch? 2/3 mehr shader dafür deutlich reduzierter takt,~30% mehr an performance,das muss sich ja richtig lohnen.:biggrin:
Mancko
2012-03-14, 19:42:51
die gk110 gibts noch? 2/3 mehr shader dafür deutlich reduzierter takt,~30% mehr an performance,das muss sich ja richtig lohnen.:biggrin:
Auf jeden Fall, denn im Vergleich zur GTX580 / 570 ist das dann ein richtiger Sprung wieder und nicht sowas halbes wie bei der HD7970 und GK104. Die Preisklasse wird ja die gleiche sein insofern ist es verständlich wenn Enthusiasten noch warten. Weder die HD7970 noch GK104 sind das Geld wert.
crux2005
2012-03-14, 19:45:54
Ja, dann schönes warten =>6 Monate.
dildo4u
2012-03-14, 19:54:38
Denke nicht das 2012 noch was anderes als ne Dual 104k kommt.Die 780 wird im Q2 2013 kommen,da Maxwell auf 2014 verschoben wurde.
http://www.pcgameshardware.de/aid,832752/Nvidia-bestaetigt-Kepler-fuer-2012-und-Maxwell-fuer-2014-Update-Kepler-doch-noch-2011/Grafikkarte/News/
boxleitnerb
2012-03-14, 19:55:59
Wie soll das denn gehen, wenn das Ding schon den Tapeout im Januar hatte? Marketingentscheidung? Glaub kaum, dass sie das zurückhalten, wenn AMD die OC-Versionen nachschiebt.
Auf jeden Fall, denn im Vergleich zur GTX580 / 570 ist das dann ein richtiger Sprung wieder und nicht sowas halbes wie bei der HD7970 und GK104.
Man kann es nicht oft genug betonen: Tahiti (bei GK104 weiß man es noch nicht) ist nicht ab Werk geil, man muss das Potenzial manuell ausloten. Mit mindestens 1.200 MHz ist das Ding aber der Wahnsinn – die HD 6990 ist da oben kein Gegner mehr. Einfach alle 7970-Zahlen da draußen mit dem Faktor 1,3 multiplizieren und es wird klarer, was ich meine. ;)
MfG,
Raff
boxleitnerb
2012-03-14, 20:00:08
Legt der "Wahnsinn" soviel auf die 580 drauf wie damals die 480 auf die 285?
Wahnsinn wären +70% aufwärts, alles darunter ist "ok". Imo ;)
dildo4u
2012-03-14, 20:00:54
Wie soll das denn gehen, wenn das Ding schon den Tapeout im Januar hatte? Marketingentscheidung? Glaub kaum, dass sie das zurückhalten, wenn AMD die OC-Versionen nachschiebt.
Man verkauft sie nur zu schweine Preise im Profimarkt,da man die nästen Monate vermutlich nur absolut miese Yields hat mit so einem Monster in 28nm.
derguru
2012-03-14, 20:01:16
Auf jeden Fall, denn im Vergleich zur GTX580 / 570 ist das dann ein richtiger Sprung wieder und nicht sowas halbes wie bei der HD7970 und GK104. Die Preisklasse wird ja die gleiche sein insofern ist es verständlich wenn Enthusiasten noch warten. Weder die HD7970 noch GK104 sind das Geld wert.
ich meinte das ironisch,die 30% habe ich jetzt auch mit oc,wie sagte crux2005 eben ,viel spaß beim warten.:biggrin:
Legt der "Wahnsinn" soviel auf die 580 drauf wie damals die 480 auf die 285?
Wahnsinn wären +70% aufwärts, alles darunter ist "ok". Imo ;)
Nö, aber im Mittel ~50 Prozent auf eine GTX 580 ohne OC.
MfG,
Raff
Nightspider
2012-03-14, 20:03:39
Wieviel Mhz machen denn die meisten 7970 mit Wasserkühler?
Hoffentlich gibts auch bei Nvidia gutes OC Potential. Meine Wasserkühlung langweilt sich.^^
Blaire
2012-03-14, 20:06:31
Nö, aber im Mittel ~50 Prozent auf eine GTX 580 ohne OC.
Hättest du schon vorher haben können, mit einer zweiten Karte. :biggrin: Aber Multi-GPU taugt ja nix. :freak:
boxleitnerb
2012-03-14, 20:08:54
Man verkauft sie nur zu schweine Preise im Profimarkt,da man die nästen Monate vermutlich nur absolut miese Yields hat mit so einem Monster in 28nm.
Man hat mit GF100 derartige Yields gehabt, dass man die Karten auch verkaufen konnte nach 6 Monaten. Ab Sommer soll das kein Problem sein eigentlich.
Duplex
2012-03-14, 20:10:58
Wieviel Mhz machen denn die meisten 7970 mit Wasserkühler?
Mit Luft packen alle mind. 1100 GPU, 1200 sind bei vielen auch ohne WaKü möglich, das ist noch lange keine Vorraussetzung, von Sapphire soll es bald angeblich 7970 OC Modelle mit über 1,3Ghz geben http://www.pcgameshardware.de/aid,862110/Radeon-HD-7970-Hersteller-Sapphire-plant-offenbar-sieben-unterschiedliche-Modelle-mit-bis-zu-1335-MHz-Kerntakt-Geruecht-des-Tages/Grafikkarte/News/
Ich an AMDs stelle würde ein Tahiti XTX Chip mit 1,2Ghz als 7990 vermarkten und die Dual Karte mit X2 kürzel bennen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.