Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012
redfirediablo
2012-03-05, 14:04:59
GTX680 = GK104 im Vollausbau. Die Bezeichnung geht wohl darauf zurück, dass man näher an Tahiti dran ist als anfangs spekuliert.
Namen sind Marketing, sieht man ja auch wunderbar an der Wiedereinführung von "FX" bei AMD.... wirklich peinliche Aktion.
Man kann es auch so sehen: Man wird wohl lange Zeit nichts besseres haben und mit entsprechend ausgewählten Benchmarks wird man diese Bezeichnung gerade so rechtfertigen können.
Mein Tipp: der große Kepler wird dann die 780 irgendwann im Sommer
Die Vorfreude bei NV wird ja nach dem Pitcairn Launch auch deutlich nachgelassen haben. Das Ding ist wieder richtig gut geworden, wird zwar nicht an GK104 komplett heran kommen, ist aber deutlich kleiner.
Ich frage mich, was bei Tahiti noch so alles verbaut wurde. perf/mm ist ja letztlich grauenvoll im Vergleich zu Pitcairn.
Somit sollte man also auch eher GK104 mit Pitcairn vergleichen. Das sind scheinbar die beiden sweetspot Chips für den Gaming Markt. Tahiti scheint ja genauso wie GK110 auf compute ausgelegt zu sein.
Ich frage mich, was bei Tahiti noch so alles verbaut wurde. perf/mm ist ja letztlich grauenvoll im Vergleich zu Pitcairn.
1/4 DP statt 1/16 DP.
GK11x und GK10x sind zwar alles Mitglieder der Kepler Familie, aber es gibt ein paar kleine aber wesentliche Unterschiede zwischen den beiden. GF114 ist ca. 2/3 an Transistoren eines GF110; diesmal ist der Unterschied wohl um einiges.....;)
war das jetzt ein verschreiber und sollte GF104 heissen oder gehts da tatsächlich um noch ein kepler derivat welches so eine art GTX7(?)60TI werden soll?
Käsetoast
2012-03-05, 15:11:48
Er soll nicht glauben dass die volle GK104 Variante GTX680 heissen wird oder was? Es gibt GTX680-er bei vendors momentan und es liegen garantiert keine GK110 chips drauf.
Nein ich meinte, dass der GK104 nur wegen Tahiti GTX 680 heißt, weil man da gut gegen anstinken kann. Ich finde den Gedanken halt komisch, dass NVIDIA ihr komplettes Namensschema über Bord werfen soll nur weil man derzeit gut dasteht. Das sorgt doch wieder für Verwirrung, denn man würde doch annehmen, das GK110 dann der 690 ist, was früher aber die Dual Chip Lösung war und ... du siehst was ich meine denke ich... :wink:
Oder vielleicht mal beispielhaft ausgedrückt: NVIDIA hat beim G80 ja auch nicht angefangen eine 8900 GTX einzuführen und auch die anderen Nummern hochzuziehen weil der Chip so stark war...
Was dann das GTX 780 = GK110 angeht: Ist das denn schon sicher? Ich fände auch das seltsam, denn NVIDIA müsste sich erneut Kritiken über komische Namensgebung anhören. In dem Fall zwar nicht so schlimm wie damals beim Rebranding, aber es ist doch recht klar geworden, dass der Kunde gerne ein übersichtliches Schema haben will und wenn man dieselbe Chipgeneration hat, die auch kurz nacheinander erscheint, aber den starken Chips dann eine eigene Zahlenklasse spendiert ist das für den Normalkunden doch wieder nur verwirrend...
Blediator16
2012-03-05, 15:27:35
Nein ich meinte, dass der GK104 nur wegen Tahiti GTX 680 heißt, weil man da gut gegen anstinken kann. Ich finde den Gedanken halt komisch, dass NVIDIA ihr komplettes Namensschema über Bord werfen soll nur weil man derzeit gut dasteht. Das sorgt doch wieder für Verwirrung, denn man würde doch annehmen, das GK110 dann der 690 ist, was früher aber die Dual Chip Lösung war und ... du siehst was ich meine denke ich... :wink:
Oder vielleicht mal beispielhaft ausgedrückt: NVIDIA hat beim G80 ja auch nicht angefangen eine 8900 GTX einzuführen und auch die anderen Nummern hochzuziehen weil der Chip so stark war...
Was dann das GTX 780 = GK110 angeht: Ist das denn schon sicher? Ich fände auch das seltsam, denn NVIDIA müsste sich erneut Kritiken über komische Namensgebung anhören. In dem Fall zwar nicht so schlimm wie damals beim Rebranding, aber es ist doch recht klar geworden, dass der Kunde gerne ein übersichtliches Schema haben will und wenn man dieselbe Chipgeneration hat, die auch kurz nacheinander erscheint, aber den starken Chips dann eine eigene Zahlenklasse spendiert ist das für den Normalkunden doch wieder nur verwirrend...
Sie könnten auch wieder ein 680gx2 bringen ^^
Iruwen
2012-03-05, 15:29:30
Von übersichtlich darf man sich wohl verabschieden, das sieht man ja auch an der permanenten Diskussion über die HD x870 und wer da wessen Nachfolger ist. Ich finds auch unglücklich.
Godmode
2012-03-05, 16:15:07
Von übersichtlich darf man sich wohl verabschieden, das sieht man ja auch an der permanenten Diskussion über die HD x870 und wer da wessen Nachfolger ist. Ich finds auch unglücklich.
Denke ich auch, aber die meisten Leute kennen sich überhaupt nicht aus, was die ganzen Namen bedeuten. Sie wissen halt wenn eine Graka mehr kostet oft besser ist. Aus meinem Freundeskreis kennt sich niemand aus, was welche Graka kann. Es heißt dann oft: soll ich einen Nvidia oder eine Ati kaufen, wo ich dann erklären darf, dass Ati jetzt AMD heißt. ;D
Die einzigen die sich über die Namen aufregen sind wir Nerds. Ich finde das auch dämlich und man könnte sich hier an der Automobilindustrie ein Beispiel nehmen, weil ein 3er (BMW) ist schon seit Jahren ein 3er und wird auch in Zukunft 3er heißen.
fizzo
2012-03-05, 16:41:43
Zum zweiten Paragraphen kein Einwand. Ich hab schon vor ein paar Seiten gesagt dass Pitcairn ein ziemlich gefaehrlicher Gegner fuer GK104 teilweise sein wird.
Sollte der GK104 wirklich ~330mm2 wiegen, so müsste dieser um über 50% schneller sein um bei der Perf/mm2 mit Pitcairn gleich zu ziehen. Dies wäre dann wesendlich mehr als die HD 7970 im stande ist. Bei CB sind es bei letzterer in 1080p "nur" ~25% performanter. (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/#abschnitt_leistung_mit_aaaf) Laut deiner Aussage (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9194492&postcount=9) konkuriert der GK104 aber nicht mit der HD 7970.....nun stellt sich die Frage was du unter "gefährlicher Gegner" meinst?
Konami
2012-03-05, 16:43:53
Die einzigen die sich über die Namen aufregen sind wir Nerds. Ich finde das auch dämlich und man könnte sich hier an der Automobilindustrie ein Beispiel nehmen, weil ein 3er (BMW) ist schon seit Jahren ein 3er und wird auch in Zukunft 3er heißen.
Schlechter Vergleich, denn ein 335i hat auch keine 3,5l Hubraum mehr. :D
Aber ich kann den Schritt nachvollziehen. Die Karten verkaufen sich halt besser, wenn sie beim uninformierten Standardkunden den Eindruck erwecken, er kriegt Highend zum Schnäppchenpreis. Siehe auch HD 6870/50. ;)
Iruwen
2012-03-05, 16:50:51
Die Perf/mm² interessiert den Endkunden von allen möglichen Verhältnissen wohl am wenigsten.
Gipsel
2012-03-05, 17:02:54
Sollte der GK104 wirklich ~330mm2 wiegen, so müsste dieser um über 50% schneller sein um bei der Perf/mm2 mit Pitcairn gleich zu ziehen. Dies wäre dann wesendlich mehr als die HD 7970 im stande ist.Gibt ja auch noch Stimmen, daß das weniger wären. Die Auflösung des kursierenden Bildes ist zugegebenermaßen auch nicht gerade berauschend, mal sehen.
Eine andere Metrik wäre noch Performance/Transistor. Glaubt man Ail, liegt die Transistordichte bei GK104 etwas unter Pitcairn (so 11-12%, er meinte so grob 1,5 Millionen Transistoren/mm² weniger). Geht man mal konservativ von nur ~300mm² aus, ergeben sich damit ~25% mehr Transistoren als bei Pitcairn. Bei gleicher Performance/Transistor würde man dann ziemlich genau bei Tahiti landen.
Aber das ist schon keine Spekulation mehr, wir wissen weder die Diesize, noch die Transistordichten noch die Performance/mm² oder pro Transistor von GK104.
redfirediablo
2012-03-05, 17:03:59
Die Perf/mm² interessiert den Endkunden von allen möglichen Verhältnissen wohl am wenigsten.
Den technisch interessierten Anleger aber umso mehr denn perf/mm² ist ein sehr wichtiger Faktor was gross margin angeht.
Mancko
2012-03-05, 17:16:32
Den technisch interessierten Anleger aber umso mehr denn perf/mm² ist ein sehr wichtiger Faktor was gross margin angeht.
Der aber auch häufig überschätzt wird - siehe FERMI. Trotz erheblichen Nachteilen in diesem Bereich hatte Nvidia schlußendlich sehr gute Margen. Es gehört einfach noch viel mehr in diese Betrachtung - z.B.
- wie sehen die Verträge im Einzelnen mit TSMC aus
- wie hoch ist der durchschnittliche ASP meiner GPUs im Vergleich zur Konkurenz
- habe ich Geschäftszweige die sehr profitabel sind und mit denen ich auch mal Dinge ausgleichen kann
- wieviel Luft muss ich meinen AIB Partnern lassen
- wieviel musste ich an R&D für die ganze Generation ausgeben
- usw..
Dural
2012-03-05, 17:24:46
ich glaube viele erwarten zu viel, ja NV wird gewaltig aufholen und ja AMD hat mit 28nm einpussen in kauf nehmen müssen... treffen werden sie sich aber beide trotzdem irgend wo in der mitte eventuell mit leichtem Vorteil für NV, wie immer doch ;)
AffenJack
2012-03-05, 17:53:29
Laut deiner Aussage (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9194492&postcount=9) konkuriert der GK104 aber nicht mit der HD 7970.....nun stellt sich die Frage was du unter "gefährlicher Gegner" meinst?
Das beantwortest du dir doch gerade selber, der kleine GK104 wird mit Pitcairn kämpfen müssen und dieser hat ja heute gezeigt, dass er ziemlich gut ist.
redfirediablo
2012-03-05, 18:22:21
Der aber auch häufig überschätzt wird - siehe FERMI.
Das hat nichts mit überschätzen zu tun.
Das NV Vorteile hat was Marketing sowie auch was das professionelle Geschäft angeht, ist ja bekannt. Diese Vorteile muss AMD eben ausgleichen und insofern ist es schon sehr entscheidend, ob sie wenigstens perf/mm² gut dabei sind.
Wenn AMD auch in diesem Bereich hinten liegen würde, wäre das dramatisch.
aylano
2012-03-05, 18:52:10
Gi
Eine andere Metrik wäre noch Performance/Transistor.
Performance/Transistor ist kein Wirtschaftlicher Maßstab.
Eine Höhere Performance-pro-Transistor führt nicht automatisch (& linear) zu einer höheren Marge, wenn Performance-pro-Watt & Performance-pro-mm² gleich bleiben.
Der aber auch häufig überschätzt wird - siehe FERMI. Trotz erheblichen Nachteilen in diesem Bereich hatte Nvidia schlußendlich sehr gute Margen. Es gehört einfach noch viel mehr in diese Betrachtung - z.B.
Es war vielen Leuten sehr wohl einiges Wert mehr Geld bei Nvidia wegen der Grafik auszugeben, auch wenn man häufig las, dass bei "Gleichstand" sie trotzdem lieber zur Nvidia greifen, weil sie eine bessere Grafik gratis dazukommen.
Da AMD in dieser Sache sowie in Treiber & Features nicht unerheblich zugelegt haben, ist diese nicht-messbare Situation nicht mehr mit Fermi-Maßstäben zu vergleichen.
Ein deutlicher Performance-pro-mm² Vorsprung kann, muss aber keine erheblichen Vorteil für den Kunden haben, da es davon abhängt, ob ein Vorsprung in Form von Marge oder Preiskampf (Marktanteilen-Jagt) verwendet wird.
Falls ein Performance-pro-mm²-Vorsprung bei Pitcairn gegen GK104 eintritt, dann wird es Nvidia bei der GK104-Preissetzung sehrwohl beeinflussen, wenn die Konkurrenz mehr Potential bei einem Kampfpreis hätte.
@Topic
Jetzt bin ich auf GK104 noch mehr gespannt, da sie mit Thaiti & Pitcairn zwei Gegner haben.
Mit Thaiti kämpft GK104 um die Performance-Krone und mit Pitcairn um die Effzienz-Krone.
Und auf die GK104-Spannung bin ich auch gespannt, da HD 7870 mit 1,22 Volt sogar eine höhere Spannung als HD 6870 mit 1,20 Volt hat.
http://ht4u.net/reviews/2012/amd_radeon_hd_7870_pitcairn_xt_im_test/index10.php
Knuddelbearli
2012-03-05, 19:37:57
naja Pitcairn hat 40% mehr Leistung aber 25Watt mehr Verbrauch als 6870. Ich habe es jetzt nicht ausgerechnet aber da dürfte man wieder im schwachen 20-30% besserem Perf./Leistung Verhältnis sein. Schätzungsweisse dürfte bei der 7870 das Verhältnis sogar schlechter sein als noch bei der 7970, so viel zum Thema AMD kann bei gleichem Verbrauch derzeit 1GHz+ ohne Probleme Ausliefern... ;) AMD scheint mit der 28nm Generation ihren Vorteil massiv einzubüssen, kein Wunder da man mit den GCN GPUs Technisch auf höhe von Fermi ist wenn nicht sogar darüber, das ging bei NV nur zu Lasten des Verbrauches und bei AMD genauso.
Da kann von mir aus GK106 über 250mm2 sein wenn er da was ändern kann :wink:
Aber ich befürchte fast dass diese Generation sehr langweilig werden kann wenn NV nicht noch was in der Hinterhand hat. :wink:
du sollst nicht nur cb lesen ( bzw nicht nur die die dir in den hals passen ) HT4U braucht 6870 und 7870 genau gleichviel
und was zum Thema wieviel DP Leistung soll der GK104 den nun haben ? 1/4 ? oder doch nur 1/8 ?
Ailuros
2012-03-05, 19:48:32
war das jetzt ein verschreiber und sollte GF104 heissen oder gehts da tatsächlich um noch ein kepler derivat welches so eine art GTX7(?)60TI werden soll?
Nein. GF114 hat 1.95Mrd Transistoren und GF110 3.0Mrd. Der erste hat etwa 2/3 der Transistoren-Anzahl eines GF110. Oder alternativ GF110 hat grob ~50% Transistoren mehr als GF114.
Gibt ja auch noch Stimmen, daß das weniger wären. Die Auflösung des kursierenden Bildes ist zugegebenermaßen auch nicht gerade berauschend, mal sehen.
Eine andere Metrik wäre noch Performance/Transistor. Glaubt man Ail, liegt die Transistordichte bei GK104 etwas unter Pitcairn (so 11-12%, er meinte so grob 1,5 Millionen Transistoren/mm² weniger). Geht man mal konservativ von nur ~300mm² aus, ergeben sich damit ~25% mehr Transistoren als bei Pitcairn. Bei gleicher Performance/Transistor würde man dann ziemlich genau bei Tahiti landen.
Aber das ist schon keine Spekulation mehr, wir wissen weder die Diesize, noch die Transistordichten noch die Performance/mm² oder pro Transistor von GK104.
Die allererste Einzelheit ueber Kepler (ist aber schon eine Ewigkeit her, ich glaube kurz nach dem Fermi launch) war dass NV behauptete eine aehnlich Packdichte mit diesem wie bei AMD plant. Mein allererster Laien-Gedanke damals war dass es eine ziemliche Schnappsidee fuer hotclocks sein wird.
Wie dem auch sei das obrige ist eine logische Spekulation und eben so warm wie es ueberhaupt geht. Keine Runde Zahl eben sondern etwas darunter ;)
Gipsel
2012-03-05, 19:55:24
Performance/Transistor ist kein Wirtschaftlicher Maßstab.
Eine Höhere Performance-pro-Transistor führt nicht automatisch (& linear) zu einer höheren Marge, wenn Performance-pro-Watt & Performance-pro-mm² gleich bleiben.Das habe ich weder behauptet noch ging es mir darum überhaupt. Mein Ziel war ein anderer Ansatz zur Einordnung der möglichen Leistung und Einschätzung der Architektur (und für das ist das eine valide Metrik).
Ailuros
2012-03-05, 20:02:56
Nein ich meinte, dass der GK104 nur wegen Tahiti GTX 680 heißt, weil man da gut gegen anstinken kann. Ich finde den Gedanken halt komisch, dass NVIDIA ihr komplettes Namensschema über Bord werfen soll nur weil man derzeit gut dasteht. Das sorgt doch wieder für Verwirrung, denn man würde doch annehmen, das GK110 dann der 690 ist, was früher aber die Dual Chip Lösung war und ... du siehst was ich meine denke ich... :wink:
Dass es oedes Marketing ist kein Zweifel aber es gibt 2 Gruende laut meinen Quellen wieso dem so ist:
1. GK104 wird an der Spitze von jeglichem IB design wins als mobile high end GPU liegen. Mehr als dieses wird wohl vorruebergehend nicht geplant sein fuer enthusiast notebooks.
2. Der gleiche Grund der GK10x von GK11x als Codenamen separiert, koennte der zukuenftige Marketing-Grund sein warum vielleicht doch GK110 eben nicht ein 6xx-wasauchimmer heissen wird.
Reines Bauchgefuehl aber "GTX690" waere eine Option fuer eine 2*GK104 mGPU.
Oder vielleicht mal beispielhaft ausgedrückt: NVIDIA hat beim G80 ja auch nicht angefangen eine 8900 GTX einzuführen und auch die anderen Nummern hochzuziehen weil der Chip so stark war...
Die 8800GTX bzw. 8800Ultra hatten keine exklusiven Faehigkeiten im Vergleich zu anderen G8x/9x chips (mit Aussnahme den video relativen Faehigkeiten).
Was dann das GTX 780 = GK110 angeht: Ist das denn schon sicher? Ich fände auch das seltsam, denn NVIDIA müsste sich erneut Kritiken über komische Namensgebung anhören. In dem Fall zwar nicht so schlimm wie damals beim Rebranding, aber es ist doch recht klar geworden, dass der Kunde gerne ein übersichtliches Schema haben will und wenn man dieselbe Chipgeneration hat, die auch kurz nacheinander erscheint, aber den starken Chips dann eine eigene Zahlenklasse spendiert ist das für den Normalkunden doch wieder nur verwirrend...
Ich wuenschte ich haette eine Ahnung was in CUDA-next genau drinsteckt, deshalb versuche ich auch verbittert etwas darueber herauszubuddeln. Die Unterschiede sollen nicht allzu gross aber wichtig sein, was genauso nichtssagend ist wie vieles andere.
Klar ist es verwirrend; im Januar glaubten sogar die vendor Angestellten dass die GTX680 in den damaligen roadmaps fuer den high end chip steht. Heute muessten sie blind sein nicht zu sehen dass das was sie in der Hand haben eben kein high end chip ist.
Skysnake
2012-03-05, 21:41:26
Naja, CUDA next wird ziemlich sicher etwas mit der Vereinheitlichung der Adressräume zu tun habe. Das wünschen sich die Leute schon ewig, und GCN soll es ja können. Ergo muss nVidia da nach ziehen.
Ansonsten kann ich mir noch vorstellen, das man GPUs ohne Host betreiben können will, auf die eine oder andere Weise.
fizzo
2012-03-05, 21:48:11
Jetzt bin ich auf GK104 noch mehr gespannt, da sie mit Thaiti & Pitcairn zwei Gegner haben.
Mit Thaiti kämpft GK104 um die Performance-Krone und mit Pitcairn um die Effzienz-Krone.
dito, gerade der Pitcairn hat bei der Perf/W (http://www.techpowerup.com/reviews/AMD/HD_7850_HD_7870/27.html) die Latte sehr hoch gelegt. ~ 120W (HD 7870) bei Spielen ist schon eine Ansage. Und zu guter Letzt sich die Frage wo wird sich der GK104 preislich einordnen wird? Ob eine kolportierte GTX 680 zum Launch unter 300€ über den Ladentisch gehen wird?
AnarchX
2012-03-05, 21:59:11
Mit den spekulierten 70-80% mehr Leistung pro Watt, gegenüber GF110, würde man in die Nähe kommen.
fizzo
2012-03-05, 22:19:48
Mit den spekulierten 70-80% mehr Leistung pro Watt, gegenüber GF110, würde man in die Nähe kommen.
Dann wir es spannend ob NV seine "Versprechen" einhalten kann. OT-Ailuros (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9075535&postcount=1401)
Es aendert trotzdem nichts daran dass GK104 frueher kommt und um diese geht es momentan. Die die area von dieser soll kleiner sein als beim GF114 und kleiner als einem direktem GF110 shrink auf 28nm (und ja es gab Exemplare davon obwohl es nie veroeffentlicht wird). Mit den ersten beta Treibern soll GK104 "nur" etwas schneller sein als eine GTX580 und das Ziel liegt natuerlich ein gutes Stueck darueber was erstmal Tahiti territory bedeutet.
Sie behaupten auch knallhart immer und immer wieder dass sie ein besseres perf/W, perf/mm2 und perf/transistor ratio als AMD bei diesem Schub haben.
Ob die Mädls & Jungs bei NV, nach dem heutigen Launch des Pitcairn, nochmals die Sektkorken kallen lassen haben?
Ailuros
2012-03-05, 22:40:35
Dann wir es spannend ob NV seine "Versprechen" einhalten kann. OT-Ailuros (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9075535&postcount=1401)
Ob die Mädls & Jungs bei NV, nach dem heutigen Launch des Pitcairn, nochmals die Sektkorken kallen lassen haben?
Wenn GK104 sich ausschliesslich mit Pitcairn in die Schlacht treiben wird, koennen sie sich beruhigt die Korken in den Hintern stecken falls es beruhigend klingen soll. Sonst reden wir immer noch von einem die der in Groesse fast in der Mitte zwischen Pitcairn und Tahiti liegt. Falls die GK104 nun tatsaechlich im Durchschnitt in der Tahiti Region liegt, darfst Du lange raten was an dieser vorigen Vermittlung nicht gestimmt hat.
fizzo
2012-03-05, 22:52:01
Wenn GK104 sich ausschliesslich mit Pitcairn in die Schlacht treiben wird, koennen sie sich beruhigt die Korken in den Hintern stecken falls es beruhigend klingen soll. Sonst reden wir immer noch von einem die der in Groesse fast in der Mitte zwischen Pitcairn und Tahiti liegt. Falls die GK104 nun tatsaechlich im Durchschnitt in der Tahiti Region liegt, darfst Du lange raten was an dieser vorigen Vermittlung nicht gestimmt hat.
Hm, ist der GK104 "geschrumpft"? 2xxmm2? Wegen der Packdichte & des Verbrauches gibt es leider ja nicht wirklich handfestes....
Adam D.
2012-03-05, 22:55:14
Hm, ist der GK104 "geschrumpft"? 2xxmm2? Wegen der Packdichte & des Verbrauches gibt es leider ja nicht wirklich handfestes....
Er deutete doch immer wieder an, dass GK104 um die 300mm² groß ist. Ein guter Wert, wenn die Karte in Tahiti-Regionen vorstoßen kann.
fizzo
2012-03-05, 23:02:26
Er deutete doch immer wieder an, dass GK104 um die 300mm² groß ist. Ein guter Wert, wenn die Karte in Tahiti-Regionen vorstoßen kann.
Danke, das war mir neu :) Ok, dann tippe ich einfach mal das der GK104 die perf/mm2 von Pitcairn nicht erreicht.
mczak
2012-03-06, 00:41:51
Naja die neuesten Bilder scheinen zu sagen so um die 320mm². Das wäre immer noch sehr viel näher bei Tahiti als Pitcairn.
Kommt halt wirklich darauf an wie schnell der genau wird, das wäre sonst die gleiche Situation wie zwischen barts-gf114-cayman, da haben sich ja auch die salvage-Parts des einen mit den Vollversionen des anderen überschnitten. Wobei auf AMD-Seite der zweitschnellste Chip im Verhältnis zum Schnellsten doch noch etwas geschrumpft ist, ohne dabei mehr Performance einzubüssen als das bei Barts-Cayman der Fall war.
Ich habe eigentlich lange auch nicht daran geglaubt dass gk104 fast so schnell wie Tahiti sein könnte. Aber mit Pitcairn sieht man nun dass Tahiti jedenfalls für Spiele punkto perf/Fläche nicht wirklich der Hammer ist. Cape Verde - Pitcairn skaliert alles in allem praktisch perfekt mit der Transistorzahl (oder auch Chip-Grösse) - ~80% schneller bei 80% mehr Transistoren bzw. Grösse des Chips (bei ersterem etwas mehr als 80%, bei letzterem etwas weniger) und theoretisch 100% schnellerem Chip.
Man vergleiche das mit Pitcairn - Tahiti: mehr als 50% mehr Transistoren bzw. sogar 70% mehr Chipfläche für etwa 30% mehr Performance (bei theoretisch 50% schnellerem Chip allerdings gelten diese 50% eben nur für die CUs wobei die Speicherbandbreite sogar noch stärker zunimmt, nicht aber der Rest des Chips wie Setup/Rasterizer/ROPs). Natürlich gibt's dafür Erklärungen (tieferer Takt wohl wegen Stromverbrauch, die "überflüssigen" Profi-Features) aber Fakt ist baut nvidia einen Chip der bloss in der Nähe der Effizienz eines Pitcairn ist dann sind Performance-Werte in der Nähe von Tahiti auch mit deutlich kleinerem Chip alles andere als illusorisch. Und den Profi-Ballast hat der gk104 ja schon mal nicht (nehme ich mal an).
Das Problem von nvidia dürfte höchstens sein dass auch wenn der gk104 Chip Tahiti-ähnliches Niveau erreicht er eben trotzdem nicht viel schneller ist als Pitcairn und daran so ziemlich alles teurer in der Herstellung ist als bei Pitcairn (angefangen vom Chip bis zu VRM/Kühllösungen). Aber gf114 hatte dieses Problem gegenüber Barts eigentlich auch und trotzdem hat man es geschafft die Dinger etwas teurer zu verkaufen (gut da hat wahrscheinlich geholfen dass die quasi alle als OC-Varianten daherkamen gegenüber den Standard-Barts).
BigKid
2012-03-06, 08:45:35
Die Perf/mm² interessiert den Endkunden von allen möglichen Verhältnissen wohl am wenigsten.
Nein nicht ganz... Nicht wegen der Stromkosten - aber wegen dem damit einhergehenden Kühlungsaufwand... Denn dass ein Fön nicht unbedingt anklang findet hat sich ja schon ein paar mal gezeigt...
EDIT: Wer lesen kann ist klar im Vorteil... Ich habe Perf/Strom gelesen :(
Sorry
boxleitnerb
2012-03-06, 11:18:45
Kepler doch mit Hotclock UND 1536 CC?
Das würde auf ca. 4,3 TF Rechenleistung deuten nach der bisherigen Zählweise.
As previous rumours suggested, GTX 680 will feature 1536 SP and 256-bit memory. However, contrary to rumours, NVIDIA has retained the shader hotclock, although the Kepler shaders could be significantly different from its Fermi counterparts which makes it difficult to predict performance. The core will be clocked at 705 MHz and the shaders at 1411 MHz, retaining the 2x shader hotclock from Fermi. GK104 significantly improves upon GF110/GF114's memory controller, setting a new record for reference memory clock at 6 GHz. This equates to a memory bandwidth of 192 GB/s - exactly the same as GTX 580 despite the narrower memory bus.
As we have witnessed from previously leaked PCB pictures, the GTX 680 will sport 4 display outputs - stacked dual DVI, HDMI and DisplayPort. GK104's die appears to be slightly smaller than Tahiti but significantly larger than Pitcairn. Two SLI connectors will enable upto 3-way SLI. However, the experimental stacked PCI-e power inputs may not make it to the final production graphics cards. GTX 680 will be 10 inches long, which is longer than GTX 560 Ti or HD 7870 but shorter than HD 7950 or GTX 570. The general visual appearance will be reminiscent of GTX 570, albeit more compact with a repositioned fan. The rear end will be similar to HD 5800 or HD 6900, with identical outputs and a blocked exhaust.
NVIDIA will reveal details about GTX 680 in an event on 12th March, with a hard launch rumoured for 23rd March - days after HD 7800's release.
http://vr-zone.com/articles/nvidia-geforce-gtx-680-specifications-revealed/15137.html
AnarchX
2012-03-06, 11:24:30
Im Zusammenhang mit dem ~300mm² Die etwas fragwürdig. ;)
Vielleicht dynamische Taktraten zwischen 700 und 1400MHz, wobei 1,4GHz als oberes Ende ziemlich hoch wäre.
Adam D.
2012-03-06, 11:26:02
Im Zusammenhang mit dem ~300mm² Die etwas fragwürdig. ;)
Frag mich auch, wie sie das zusammen bringen wollen :freak: Sonst bestätigt der Artikel ja nur alle Spekulationen, die hier in den letzten Tagen rumgeschwirrt sind. In einer Woche wissen wir wahrscheinlich einiges mehr :)
boxleitnerb
2012-03-06, 11:27:59
Naja 1410 MHz ist jetzt sogar weniger als bisher. Wenn die Shader anders (und kleiner) sind, warum nicht?
Hugo78
2012-03-06, 11:54:19
Ob Hotclock oder nicht.
Der letzte Satz ist viel interessanter.
NVIDIA will reveal details about GTX 680 in an event on 12th March, with a hard launch rumoured for 23rd March
Fragt sich nur ob nächste Woche Press only mit NDA ist, oder sowas wie ne Technikvorstellung für alle.
aufkrawall
2012-03-06, 11:54:32
Naja 1410 MHz ist jetzt sogar weniger als bisher. Wenn die Shader anders (und kleiner) sind, warum nicht?
Ich frag mich, wie man den Chip leistungsmäßig überhaupt irgendwie einordnen kann, wenn man noch gar nicht weiß, mit wie viel Takt die Shader laufen. :confused:
Adam D.
2012-03-06, 12:03:23
Fragt sich nur ob nächste Woche Press only mit NDA ist, oder sowas wie ne Technikvorstellung für alle.
Ich hab hingegen gehoert dass Mitte Maerz fuer eine Einweihung der Presse gilt und NICHT einen launch der eher Wochen spaeter geplant ist. Ich bestehe aber nicht darauf um einen Unterschied zu machen
Klingt für mich wie eine Architektur-Einführung unter NDA. Kann aber alles sein :confused:
john carmack
2012-03-06, 12:05:22
Ob Hotclock oder nicht.
Der letzte Satz ist viel interessanter.
Fragt sich nur ob nächste Woche Press only mit NDA ist, oder sowas wie ne Technikvorstellung für alle.
Hauptsache da kommt überhaupt irgendetwas!
Das lange warten macht mich ganz kirre :D
Und wenn es PressOnly sein sollte - leaks gibts immer.
Aber das mit dem 12. März ist sicher?
Ronny145
2012-03-06, 12:22:41
Kepler is real, people have seen it, editors are getting cards and even notebooks based on it as we speak, and the launch happens later this month.
We can confirm a few things now. Kepler has a 256-bit memory interface and the fastest one to launch in the second half of March is GK104.
The GK104 is much smaller than Tahiti, Radeon HD 7970 family and according to our intel it should end up faster in some cases. In all DirectX 11 games, Nvidia’s GK104 based Kepler card should end up faster, at least this is what a few sources are confirming.
Sources close to Nvidia are confident that the green team will win this round...
http://www.fudzilla.com/home/item/26179-kepler-256-bit-faster-in-dx11-games-than-7970
Ende März wird immer wahrscheinlicher. Die Frage ist für mich nur, ob es ein paper oder hard launch wird.
Adam D.
2012-03-06, 12:24:32
Aber das mit dem 12. März ist sicher?
Jo, der Tag kam jetzt ja unabhängig von einigen Quellen.
Ende März wird immer wahrscheinlicher. Die Frage ist für mich nur, ob es ein paper oder hard launch wird.
Die Frage wird wohl eher sein, wie "hart" der Launch wird. Karten wird's bestimmt zu kaufen geben, nur wieviele?
fizzo
2012-03-06, 12:30:42
Die Frage wird wohl eher sein, wie "hart" der Launch wird. Karten wird's bestimmt zu kaufen geben, nur wieviele?
Das ist wohl auch eine Frage des Preises ;) Laut NV soll ja die Verfügbarkeit von 28nm Karten in absehbarer Zukunft begrenzt sein, soweit ich mich erinnere?!
john carmack
2012-03-06, 12:36:03
Und der GK104 ist das das Pendant zur 7800er Serie von AMD also NV´s "GTX760 (Ti)" bzw. "GTX660 (Ti)" ?
The GK104 is much smaller than Tahiti, Radeon HD 7970 family and according to our intel it should end up faster in some cases.
nahaha :ulol:... ich warte doch lieber mal Offizielles mal ab :|
Screemer
2012-03-06, 12:51:25
ich würd eher sagen er liegt irgendwo zwischen 78xx und 79xx. teils näher an der einen, teils näher an der anderen serie. ein bunter mix zwischen mehr power, weniger tdp, geringer und größer die size. wir können uns nur überraschen lassen.
Adam D.
2012-03-06, 12:53:39
Das ist wohl auch eine Frage des Preises ;) Laut NV soll ja die Verfügbarkeit von 28nm Karten in absehbarer Zukunft begrenzt sein, soweit ich mich erinnere?!
Es wird nicht so schlimm wie bei 40nm werden, aber besonders gut ist es ja auch bein ATi grad nicht, es betrifft also beide.
Und der GK104 ist das das Pendant zur 7800er Serie von AMD also NV´s "GTX760 (Ti)" bzw. "GTX660 (Ti)" ?
GK104 Vollausbau wird's mit HD7950 aufnehmen, die Salvage Parts werden sich ja laut Ail eine Schlacht mit Pitcairn liefern :D
nahaha :ulol:... ich warte doch lieber mal Offizielles mal ab :|
"much smaller" ist halt relativ ;)
Zergra
2012-03-06, 14:23:08
GK104 Vollausbau könnte es mit der HD7950 aufnehmen, die Salvage Parts werden sich ja laut Ail eine Schlacht mit Pitcairn liefern :D
Fixed!
Im Grunde weiß man ja wo sich die Karte einordnet, aber GENAU wo weiß keiner, denn Pictarn kommt Tahiti Pro schon nahe ! Und ob sich GK104 dann mit der 7950 oder der 7870 schlägt :rolleyes: weiß keiner !
Iruwen
2012-03-06, 14:41:45
Ist letztlich auch egal solange der Preis dann stimmt. Wobei ich mir da keine Hoffnungen mehr mache, wenn Nvidia erstmal alle Lieferverträge bzgl. der Design Wins erfüllen muss bleibt für den Desktopmarkt wohl nicht mehr viel übrig, wenn man sich da AMDs Strategie anschließt die Nachfrage über den Preis zu drosseln kann man sich die Preislage denken.
Hugo78
2012-03-06, 15:19:44
Im Grunde weiß man ja wo sich die Karte einordnet,
jo +/- 5% Thaiti XT
fizzo
2012-03-06, 15:28:48
jo +/- 5% Thaiti XT
Hast du mehr infos als Ailuros? Die chips von Kepler und GCN werden sich nicht direkt ueberschneiden. Die GK104 salvage parts werden teilweise mit Pitcairn konkurrieren. Ergo gegen cape verde eine Mischung zwischen GK106 und GK107.
In etwa:
GK110 vs. 7990
GK110 salvage vs. 7970
GK104 vs. 7950
GK104 salvage vs. 7870 usw.
Dann nur heraus damit :)
MorPheuZ
2012-03-06, 15:43:15
ist immer die Frage mit welchem Messparameter, ich denke Hugo meint was anderes als Ail ;D
Käsetoast
2012-03-06, 15:59:06
Ich denke nach Pitcairn ist aber auch ein wenig der Wow-Faktor aus dem GK104 vs Tahiti Duell raus. Die 7870 unterscheidet sich leistungstechnisch ja nicht nennenswert von der 7950 trotz mehr Speicher, 384-Bit Interface und mehr SPs. Ich denke es wird deutlich, dass Tahiti in der Tat nicht so der Brüller ist, aus welchen Gründen auch immer (derzeit am Wahrscheinlichsten ist ja das Front-End, das die zusätzlichen SPs einfach nicht vernünftig beschäftigt kriegt). So gesehen wird sich GK104 vielleicht doch primär am Pitcairn XT messen lassen müssen, denn je nachdem zu welchem Preis der sich etabliert fällt die 7950 (zumindest zum derzeitigem Preis) aus dem Konkurrenzrahmen und Pitcairn wird aus Preis-/Leistungsgründen zum echten Gegner. Ich denke es ist davon auszugehen, dass GK104 die 7950 was das Gesamtpaket angeht schlagen wird - wie stark man der Tahiti XT Leistungskrone gefährlich wird muss sich dann zeigen..
AnarchX
2012-03-06, 16:59:22
4Gamer hatte wohl auf der Cebit Interview mit Nvidias Nick Stan geführt:
Mr. Nick Stan Ru, while citing that it improves the performance of about 1.5 times that obtained for the 6900 series Radeon HD 7900 series Radeon HD, had said as follows.
Mr. Nick Stan (Technical Marketing Director, NVIDIA)
"Users of our products from traditional" performance only "about 1.5 times more information. Kepler would not be satisfied, but not obvious, and performance per unit of power consumption is up significantly, and conventional products of the same price range should also significantly improve performance compared to the absolute. "
NVIDIA has been seen, from the end of 2011, has begun the publication of element technology adopted by the GPU in the future, some of which are to be adopted and in fact even Kepler.
When you place an example one, NVIDIA will have to introduce the approach in the technical conference of semiconductor-related was held at the end of 2011, in order to improve the efficiency of use of CUDA Core, to be able to handle more threads on each core was. It was spoken there, increase the number of threads (batch = a bundle of thread) "Warp" which is controlled by 32 thread in the current generation of products, by raising the utilization efficiency of the GPU combined with improvements in scheduling, such is the content, trying to balance the optimization and higher performance with low power consumption.
I think the details are want to tell once again the opportunity, as can be seen if Moraere Think of a Hyper-Threading "" of Intel "approach is NVIDIA, to be able to use threading to other free resources CUDA Core It is, and shall raise the processing performance per CUDA Core, be reduced so that the power consumption per performance "that (official NVIDIA).
In addition, officials close to NVIDIA, "in Kepler, and to improve the processing performance of the DirectCompute PhysX" but also said, If we take the approach NVIDIA officials say certainly, than the arithmetic processing graphics processing "light" is not assigned to the free resources of CUDA Core, a, would not be surprised as to improve the performance be measured.
In any case, future-based products than actually running at the venue of CeBIT 2012 thus, not so far, including the model for the desktop PC, details of Kepler is supposed to be clear. I would not have it be nice to see and finally went into the position for takeoff Kepler.
http://www.4gamer.net/games/120/G012093/20120306077/
Vielleicht haben auch noch ein paar englisch-/deutschsprachige Medien so ein Interview geführt. ;)
boxleitnerb
2012-03-06, 17:06:26
Vielleicht also doch keine 1536 Cores, sondern 1536 threads? Interessant auch das Detail über PhysX - DirectCompute? Ich hätte jetzt gedacht, er erwähnt in dem Zusammenhang CUDA.
Hugo78
2012-03-06, 17:08:53
Hast du mehr infos als Ailuros?
Dann nur heraus damit :)
Pitcairn zeigt sehr deutlich was man mit nur 212mm^2 und nur 256bit SI leisten kann, wenn man HPC nicht bedienen muss.
Skalier Pitcairn hoch auf 320-340mm^2 und auch wenn GK104 ne schlechtere Perf./mm^2 haben wird als Pitcairn, so ist es nur logisch das man hier mehr als nur 7950 level erwarten darf.
Ausgehend vom gestrigen CB Rating (Rating - 1920x1080 4xAA/16xAF (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/#abschnitt_leistung_mit_aaaf)), welches wie folgt ausschaut...
HD 7970 = 121%
HD 7950 = 105%
GTX 580 = 100%
HD 7870 = 97%
... und dass Ailuros in seinen ersten leak Posts schrieb, man sei bei NV schon mit den Betatreibern im Dez. bei GTX 580 +10% Level gelandet, wird es heute mehr sein.
Ergo ~ Thaiti XT.
Adam D.
2012-03-06, 17:18:03
Pitcairn zeigt sehr deutlich was man mit nur 212mm^2 und nur 256bit SI leisten kann, wenn man HPC nicht bedienen muss.
Skalier Pitcairn hoch auf 320-340mm^2 und auch wenn GK104 ne schlechtere Perf./mm^2 haben wird als Pitcairn, so ist es nur logisch das man hier mehr als nur 7950 level erwarten darf.
Ausgehend vom gestrigen CB Rating (Rating - 1920x1080 4xAA/16xAF (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/#abschnitt_leistung_mit_aaaf)), welches wir folgt ausschaut...
HD 7970 = 121%
HD 7950 = 105%
GTX 580 = 100%
HD 7870 = 97%
... und dass Ailuros in seinen ersten leak Posts schrieb, man sein bei NV schon mit den Betatreibern im Dez. bei GTX 580 +10% Level gelandet, wird es heute mehr sein.
Ergo ~ Thaiti XT.
Wir haben aber keine Ahnung von der Taktung. Kann doch sein, dass Nvidia nach dem Tahiti-Launch den Takt der Kepler-Karten etwas abgesenkt hat. Gründe dafür gibt es ja genügend.
Ailuros
2012-03-06, 17:55:50
Hast du mehr infos als Ailuros?
Dann nur heraus damit :)
Produkt-Positionierung != Leistung.
Pitcairn zeigt sehr deutlich was man mit nur 212mm^2 und nur 256bit SI leisten kann, wenn man HPC nicht bedienen muss.
Skalier Pitcairn hoch auf 320-340mm^2 und auch wenn GK104 ne schlechtere Perf./mm^2 haben wird als Pitcairn, so ist es nur logisch das man hier mehr als nur 7950 level erwarten darf.
Ausgehend vom gestrigen CB Rating (Rating - 1920x1080 4xAA/16xAF (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/#abschnitt_leistung_mit_aaaf)), welches wie folgt ausschaut...
HD 7970 = 121%
HD 7950 = 105%
GTX 580 = 100%
HD 7870 = 97%
... und dass Ailuros in seinen ersten leak Posts schrieb, man sei bei NV schon mit den Betatreibern im Dez. bei GTX 580 +10% Level gelandet, wird es heute mehr sein.
Ergo ~ Thaiti XT.
Auf XT Nivaeu liegt es im absoluten Durchschnitt nicht. Eher eine gemischte Tuete.
Ich denke nach Pitcairn ist aber auch ein wenig der Wow-Faktor aus dem GK104 vs Tahiti Duell raus. Die 7870 unterscheidet sich leistungstechnisch ja nicht nennenswert von der 7950 trotz mehr Speicher, 384-Bit Interface und mehr SPs. Ich denke es wird deutlich, dass Tahiti in der Tat nicht so der Brüller ist, aus welchen Gründen auch immer (derzeit am Wahrscheinlichsten ist ja das Front-End, das die zusätzlichen SPs einfach nicht vernünftig beschäftigt kriegt). So gesehen wird sich GK104 vielleicht doch primär am Pitcairn XT messen lassen müssen, denn je nachdem zu welchem Preis der sich etabliert fällt die 7950 (zumindest zum derzeitigem Preis) aus dem Konkurrenzrahmen und Pitcairn wird aus Preis-/Leistungsgründen zum echten Gegner. Ich denke es ist davon auszugehen, dass GK104 die 7950 was das Gesamtpaket angeht schlagen wird - wie stark man der Tahiti XT Leistungskrone gefährlich wird muss sich dann zeigen..
Pitcairn ist IMHO ein ausgezeichnetes Produkt rundum wenn die Preise sich normalisieren werden. Momentan hat die 7870 einen $350 MSRP der auf gleichem MSRP Nivaeu beim 6970 launch liegt, liefert aber genau um wieviel mehr Leistung als beim letzteren?
Sonst hat Tahiti eben den HPC Ballast den GK104 nicht tragen muss. Die bittere Pille muss NV dann eventuell beim GK110 schlucken, denn dieser hat eben nicht nur 1/3 mehr Transistoren als 104 sondern eine Anzahl bei dem jemand eher schwindlig wird. Zwar ist perf/transistor nicht unbedingt ein Massstab der benutzt wird, aber fuer Kepler gilt jeglicher relevante Vorteil wohl auch nur bis zu GK104 und nicht hoeher.
fondness
2012-03-06, 18:14:59
Auf XT Nivaeu liegt es im absoluten Durchschnitt nicht. Eher eine gemischte Tuete.
Hm, angesichts der Tatsache das sich NV den ganzen HPC-Mist spart hätte ich schon mit Tahiti-Leistung gerechnet, das Die ist schließlich kaum kleiner. Aber vielleicht hat man lieber in geringeren Stromverbrauch investiert als in maximale Leistung.
Ailuros
2012-03-06, 18:43:52
Hm, angesichts der Tatsache das sich NV den ganzen HPC-Mist spart hätte ich schon mit Tahiti-Leistung gerechnet, das Die ist schließlich kaum kleiner. Aber vielleicht hat man lieber in geringeren Stromverbrauch investiert als in maximale Leistung.
Wie waere es wenn wir ausnahmsweise mal kommende Produkte mit den existierenden vom gleichem IHV vergleichen wuerden? Eine GTX680 ist nuechtern betrachtet zwar kein wahrer GTX580 upgrade fuer einen User der die letztere besitzt, aber im Vergleich zu einer GTX560Ti ist der Unterschied schon krass. Die brennende Frage ist nun um wieviel hoeher genau der MSRP diesmal am Ende sein wird, denn $250 wie beim GF114 werden es wohl keinesfalls sein.
boxleitnerb
2012-03-06, 18:47:46
Glaubst du, sie werden mehr als $349 verlangen? Kann ich mir schwerlich vorstellen eigentlich. Bzw. ich will es mir nicht vorstellen - nicht jeder muss diese Preistreiberei mitmachen. Vielleicht sind NV Marktanteile wichtiger (wenn man Mengen liefern kann)?
Auf XT Nivaeu liegt es im absoluten Durchschnitt nicht. Eher eine gemischte Tuete.
Eher anwendungsbezogen (DX11, Tess, Physx...) oder einstellungsbezogen (hohe Auflösungen, viel AA/AF...)?
fondness
2012-03-06, 18:49:54
Wie waere es wenn wir ausnahmsweise mal kommende Produkte mit den existierenden vom gleichem IHV vergleichen wuerden?
Warum sollte man das tun? Interessant ist der Vergleich mit der Konkurrenz.
Eine GTX680 ist nuechtern betrachtet zwar kein wahrer GTX580 upgrade fuer einen User der die letztere besitzt, aber im Vergleich zu einer GTX560Ti ist der Unterschied schon krass.
Naja bei einem neuen Fertigungsprozess kann man durchaus 50% mehr Leistung oder sogar mehr erwarten.
Schaffe89
2012-03-06, 18:52:59
und dass Ailuros in seinen ersten leak Posts schrieb, man sei bei NV schon mit den Betatreibern im Dez. bei GTX 580 +10% Level gelandet, wird es heute mehr sein.
Vergiss auch nicht, dass die Werte von CB immernoch mit den Releasetreibern vom 22 Dezember 2011 mit der HD 7970 entstanden sind.
Neue Treiber dürften aus den 21% Abstand ruhig 30% machen.
Die nächsten Wochen wirds sicherlich interessant.
Bei PCGH dürfte die HD 7970 wohl im Leistungsindex überflügelt werden, auf den anderen Seiten eher nicht.
Bei CB glaub ich da eher an 10 - 15% Rückstand zur HD 7970.
laubst du, sie werden mehr als $349 verlangen? Kann ich mir schwerlich vorstellen eigentlich. Bzw. ich will es mir nicht vorstellen - nicht jeder muss diese Preistreiberei mitmachen. Vielleicht sind NV Marktanteile wichtiger (wenn man Mengen liefern kann)?
Bei SemiAccurate war doch mal die Rede davon, dass die Produktion vor einer Woche begonnen hat, und das ist jetzt ca 2 Wochen her.
Wahrscheinlicher ist es für mich eher, dass man die Preise relativ hoch ansetzt mit einer minimalen Tendenz weniger zur AMD Konkurrenzkarte, um dann einen kleinen Preisverfall von ~50 Dollar auszulösen, aber insgesamt die Karten leistungsmäßig schön zwischen den der AMD Modelle platziert, damit man sich nicht zu sehr aneinander reibt.
Ailuros
2012-03-06, 18:57:34
Warum sollte man das tun? Interessant ist der Vergleich mit der Konkurrenz.
Mich wird der Vergleich mit der Konkurrenz erst persoenlich interessieren wenn sich die 28nm GPU Preise auf 40nm GPU Nivaeu normalisieren werden. Anders wuerde die 7870 einen ~$250 MSRP haben, haette ich sie sofort bestellt.
Naja bei einem neuen Fertigungsprozess kann man durchaus 50% mehr Leistung oder sogar mehr erwarten.
Bei einem neuen Fertigungsprozess nicht unbedingt, eher bei einer neuen Architektur.
AnarchX
2012-03-06, 19:00:44
Es wird in der Tat interessant sein, wie sich GK104 gegen Pitcairn behaupten kann.
Auf dem Papier sieht es ja nicht so schlecht für GK104 aus:
20% mehr SP-GFLOPs (beide Chips bei 1GHz)
60% mehr Texelfüllrate (beide Chips bei 1GHz)
100% mehr Geometrie-Durchsatz (beide Chips bei 1GHz)
100% mehr Z-Füllrate (beide Chips bei 1GHz)
15% mehr Speicherbandbreite (4,8 vs 5,5Gbps+ - es ist nicht anzunehmen, dass Pitcairn hier noch mehr Potential hat bei 212mm²)
Da war Nvidia schon deutlicher unterlegen in der Vergangenheit.
Bei einem neuen Fertigungsprozess nicht unbedingt, eher bei einer neuen Architektur.
Naja, ein Full-Node hat das Potential für >>50% mehr Transistoren auf der gleichen Fläche. Natürlich muss man das Bandbreitenproblem lösen.
Ailuros
2012-03-06, 19:10:02
Es wird in der Tat interessant sein, wie sich GK104 gegen Pitcairn behaupten kann.
Auf dem Papier sieht es ja nicht so schlecht für GK104 aus:
20% mehr SP-GFLOPs (beide Chips bei 1GHz)
60% mehr Texelfüllrate (beide Chips bei 1GHz)
100% mehr Geometrie-Durchsatz (beide Chips bei 1GHz)
100% mehr Z-Füllrate (beide Chips bei 1GHz)
15% mehr Speicherbandbreite (4,8 vs 5,5Gbps - es ist nicht anzunehmen, dass Pitcairn hier noch mehr Potential hat bei 212mm²)
Da war Nvidia schon deutlicher unterlegen in der Vergangenheit.
Nicht dass Du es nicht weisst, aber damit es jemand nicht falsch liest, GK104 wird natuerlich nicht auf 1GHz takten...ach und sei nicht so geizig mit dem Speichertakt :P
Naja, ein Full-Node hat das Potential für >>50% mehr Transistoren auf der gleichen Fläche. Natürlich muss man das Bandbreitenproblem lösen.
Gut dann denk mal wie viel mehr Transistoren GK110 hat im Vergleich zu GF110, wie der wahre Leistungsunterschied aussehen wird und ja trotz "geloestem" Bandbreiten-Problem. Mehr als 50% duerften es schon sein, aber es ist eine KOMBINATION von 40 auf 28nm UND einer neuen Architektur.
horn 12
2012-03-06, 19:29:15
Jetzt muss nur noch der Preis der HD7950 / 7950 OC und HD7970 um 50-80 Euro fallen und schon ist alles wie es sein soll.
Glaubst du, sie werden mehr als $349 verlangen? Kann ich mir schwerlich vorstellen eigentlich. Bzw. ich will es mir nicht vorstellen - nicht jeder muss diese Preistreiberei mitmachen. Vielleicht sind NV Marktanteile wichtiger (wenn man Mengen liefern kann)?
Eher anwendungsbezogen (DX11, Tess, Physx...) oder einstellungsbezogen (hohe Auflösungen, viel AA/AF...)?
wenn das Ding wirklich zwischen 7950 und 7970 liegt und eher Richtung 7970 kann ich mir die 350$ durchaus vorstellen.
Mitmachen muss man das natürlich nicht das seit Jahren nur geringe Leistungssteigerungen da waren und jetzt bei einer etwas größeren für einen Performance Chip so tief wie für HighEnd in die Tasche greifen soll.
Sollen die doch auf ihrem Zeug erstmal sitzen bleiben - nvidia hat es so schon versäumt mir eine GTX460 und später GTX560 zu verkaufen, da die Leistungssteigerungen zu gering waren. Nun haperts vielleicht erstmal am Preis. 7870 gibts ja auch noch als Alternative (wird zwar ziemlich sicher ein Stück langsamer sein - aber who cares P/L machts letztendlich)
AnarchX
2012-03-06, 19:31:48
Nicht dass Du es nicht weisst, aber damit es jemand nicht falsch liest, GK104 wird natuerlich nicht auf 1GHz takten...
50MHz weniger ändern da nicht sonderlich etwas an der Relation.
ach und sei nicht so geizig mit dem Speichertakt :P
Nun doch XDR2? ;D Aber 5,8Gbps wäre schon eine ziemliche Steigerung für Nvidia.
Ailuros
2012-03-06, 19:33:03
wenn das Ding wirklich zwischen 7950 und 7970 liegt und eher Richtung 7970 kann ich mir die 350$ durchaus vorstellen.
Mitmachen muss man das natürlich nicht das seit Jahren nur geringe Leistungssteigerungen da waren und jetzt bei einer etwas größeren für einen Performance Chip so tief wie für HighEnd in die Tasche greifen soll.
Sollen die doch auf ihrem Zeug erstmal sitzen bleiben - nvidia hat es so schon versäumt mir eine GTX460 und später GTX560 zu verkaufen, da die Leistungssteigerungen zu gering waren. Nun haperts vielleicht erstmal am Preis. 7870 gibts ja auch noch als Alternative (wird zwar ziemlich sicher ein Stück langsamer sein - aber who cares P/L machts letztendlich)
Tragische Ironie dass Du im gleichen Post einen $350 MSRP fuer moeglich haelst und gleichzeitig einen 7870 erwaehnst der rein zufaellig einen $350 MSRP hat. Ein ziemlich merkwuerdiger Vergleich was Preis-/Leistung betrifft, wenn hypothetisch GTX680 und 7870 beide einen $350MSRP haben, die erste aber ein gutes Stueck schneller ist als die zweite. Was verpass ich gerade?
Tragische Ironie dass Du im gleichen Post einen $350 MSRP fuer moeglich haelst und gleichzeitig einen 7870 erwaehnst der rein zufaellig einen $350 MSRP hat. Ein ziemlich merkwuerdiger Vergleich was Preis-/Leistung betrifft.
die wird da aber unter Garantie nicht bleiben ;) das orientiert sich erstmal an den tahiti Preisen - klar ist MSRP MSRP aber der feine Unterschied ist einmal ohne Konkurenz und einmal mit
Ailuros
2012-03-06, 19:38:06
die wird da aber unter Garantie nicht bleiben ;) das orientiert sich erstmal an den tahiti Preisen - klar ist MSRP MSRP aber der feine Unterschied ist einmal ohne Konkurenz und einmal mit
Die eigentliche KONKURRENZ ist doch auch der wirkliche wichtige Punkt hinter Kepler. Selbst mit $349 hat AMD ein Problem und eben ein noch groesseres mit $299. Bleibt die Frage ob NV die Nachfrage decken kann.
Schaffe89
2012-03-06, 19:49:40
299 Dollar?
Glaubt da irgendjemand wirklich ernsthaft drann?
Eher rund 400 Dollar mit einer Performance nahe der HD 7970.
AnarchX
2012-03-06, 19:53:17
G84: ~$229
G94: ~$189
GF104: ~$229
GF114: ~$249
Da müssten die Fertigungsprobleme schon sehr massiv sein, dass man hier den MSRP um 60% erhöht.
Langfristig wird hoffentlich Global Foundries eine ernsthafte Alternative zu TSMC und die Interposer eine günstige Möglichkeit kleinere Dies zur verbinden.
Die eigentliche KONKURRENZ ist doch auch der wirkliche wichtige Punkt hinter Kepler. Selbst mit $349 hat AMD ein Problem und eben ein noch groesseres mit $299. Bleibt die Frage ob NV die Nachfrage decken kann.
das AMD dann nicht mehr ihre Mondpreise von 550$ für tahiti XT ansetzen kann und dementsprechend dann tahiti sowie pitcairn offiziell angepasst werden müssen wird AMD sicher nicht erst zum Kepler launch klar ;)
Man nimmt da natürlich erstmal noch mit was geht. Die 7870 werden die kurz- bis mittelfristig mit 250$ auspreisen - was für AMD sicher weniger das Problem sein wird, da man hier ja hier einen typischen Mainstream performance Chip+karte an den Mann bringt
ach ja und an 299$ kurzfristig für GK104 glaub ich erstmal absolut nicht. Nvidia lässt sichs leider bezahlen das es über dem GK104 erstmal nix aus eigenem Hause gibt (AMD könnte das so nicht handhaben).
Leonidas
2012-03-06, 19:59:43
Vielleicht *war* die Idee mal, GK104 für 299 Dollar zu bringen. Doch nun, angesichts der AMD-Preise, wäre man blöd, den nicht auf 399 Dollar anzusetzen. Man unterbietet die 7950 trotzdem und kann satt absahnen. Gut für den Grafikkartenkäufer ist das natürlich nicht, weil die realen 28nm-Preise sich dann nochmals um mehrere Monate verschieben.
AnarchX
2012-03-06, 20:01:55
Die Kartellbehörden haben AMD/ATi und Nvidia schon bei weit weniger auffälligen Situationen auf die Finger geklopft. ;)
Ailuros
2012-03-06, 20:11:44
Vielleicht *war* die Idee mal, GK104 für 299 Dollar zu bringen. Doch nun, angesichts der AMD-Preise, wäre man blöd, den nicht auf 399 Dollar anzusetzen. Man unterbietet die 7950 trotzdem und kann satt absahnen. Gut für den Grafikkartenkäufer ist das natürlich nicht, weil die realen 28nm-Preise sich dann nochmals um mehrere Monate verschieben.
Nuechtern betrachtet war ein $299 MSRP um zich Male absurder fuer den stornierten Februar launch. Nach NV selber wurde der launch um ca. einen Monat verspaetet dank einer "Geschaefts-entscheidung". Sie haetten wohl zu dem Zeitpunkt nicht nur weniger (wenn ueberhaupt) pro SKU verdient und haetten auch wohl nie die Nachfrage decken koennen.
Egal wie man es betrachtet waren schon damals die 299 eine Schnappsidee. Wie gesagt ich weiss selber nicht mehr wieviele ich in letzter Zeit gefragt habe und keiner weiss etwas. Mit etwas Glueck erreiche ich vielleicht zumindest 2 Antworten, sonst dann vor Mitte Maerz fuer die Presse-Einweihung wird es wohl nichts werden.
Botcruscher
2012-03-06, 20:12:47
Die Kartellbehörden haben AMD/ATi und Nvidia schon bei weit weniger auffälligen Situationen auf die Finger geklopft. ;)
Wenn die was zusagen hätten, wäre Intel schon lange Gulasch. NV wäre schön blöd die Preise tief an zu setzen.
Ailuros
2012-03-06, 20:16:17
das AMD dann nicht mehr ihre Mondpreise von 550$ für tahiti XT ansetzen kann und dementsprechend dann tahiti sowie pitcairn offiziell angepasst werden müssen wird AMD sicher nicht erst zum Kepler launch klar ;)
Man nimmt da natürlich erstmal noch mit was geht. Die 7870 werden die kurz- bis mittelfristig mit 250$ auspreisen - was für AMD sicher weniger das Problem sein wird, da man hier ja hier einen typischen Mainstream performance Chip+karte an den Mann bringt.
AMD projezierte eine gute Preis-reduzierung innerhalb April. Komischerweise auch der Zeitpunkt wo TSMC mehr Kapazitaeten verfuegbar haben soll.
ach ja und an 299$ kurzfristig für GK104 glaub ich erstmal absolut nicht. Nvidia lässt sichs leider bezahlen das es über dem GK104 erstmal nix aus eigenem Hause gibt (AMD könnte das so nicht handhaben).
Ein $399 MSRP (wie Leo in vorschlaegt) macht nur Sinn fuer NVIDIA wenn sie wie AMD mit dem hohen Preis die geringfuegige Verfuegbarkeit decken wollen.
dargo
2012-03-06, 20:35:31
Ein $399 MSRP (wie Leo in vorschlaegt) macht nur Sinn fuer NVIDIA wenn sie wie AMD mit dem hohen Preis die geringfuegige Verfuegbarkeit decken wollen.
Sehe ich auch so, diese ganze Diskussion um die Preise wird langsam langweilig.
Ich sehe das folgendermaßen - setzt NV einen MSRP von 399$ anstatt 299-349$ an werden sie sicherlich weniger dieser Karten absetzen. Der Markt für 399$ Karten ist einfach kleiner. Man muss also bei der Preisgestaltung einen guten Kompromiss finden. Es sei denn man hat gar keine andere Möglichkeit... siehe Zitat von Ail.
Zudem sollte man bedenken, dass wir momentan eine ganz andere Situation haben als noch vor paar Jahren. Heute läuft mit einer 200-250€ GTX560TI(448) oder vergleichbarer AMD Karte der HD6xxx Reihe praktisch jedes Spiel in Full-HD flüssig. Bei nur wenigen muss man eventuell MSAA kleiner stellen oder ganz drauf verzichten. Wie will man also den Kunden wenn nicht über den Preis für +xx% mehr Leistung überzeugen zu wechseln? Natürlich kann man "Mondpreise" verlangen - die Frage ist halt ob das nicht dann nach hinten losgeht und die Hardware wie Blei in den Regalen liegen bleibt.
Ailuros
2012-03-06, 20:45:23
Die Preis-relevante Diskussion ist fuer jeglichen Verbraucher von hoechster Interesse, eben weil momentan die 28nm GPU Preise viel zu hoch sind.
dargo
2012-03-06, 21:02:55
Die Preis-relevante Diskussion ist fuer jeglichen Verbraucher von hoechster Interesse, eben weil momentan die 28nm GPU Preise viel zu hoch sind.
Im Moment sehe ich nur einen Hersteller der in 28nm liefern kann. Sollte NV ebenfalls so hohe Preise bei ihren 28nm GPUs verlangen ist die einzig richtige Reaktion nichts davon zu kaufen. Wie gesagt... es ist nicht so (außer paar Enthusiasten für SSAA, DS etc.), dass unbedigt deutlich schnellere GPUs benötigt werden. Es gibt genug preiswerte 40nm Alternativen. Wirklich mehr als 250€ braucht man da gar nicht ausgeben.
Adam D.
2012-03-06, 21:05:46
Die Preis-relevante Diskussion ist fuer jeglichen Verbraucher von hoechster Interesse, eben weil momentan die 28nm GPU Preise viel zu hoch sind.
Die Frage ist halt, inwieweit man als Verbraucher Druck auf ATi und (möglicherweise) Nvidia ausüben kann. Die Problematik ist ja nun neu (eben wegen 28nm), aber bei den bedauernswerten Auslieferungsmengen und einer offenbar willigen Käuferschicht können beide IHVs Mondepreise veranschlagen und keinen interessierts.
fizzo
2012-03-06, 21:13:41
Im Moment sehe ich nur einen Hersteller der in 28nm liefern kann. Sollte NV ebenfalls so hohe Preise bei ihren 28nm GPUs verlangen ist die einzig richtige Reaktion nichts davon zu kaufen. Wie gesagt... es ist nicht so (außer paar Enthusiasten für SSAA, DS etc.), dass unbedigt deutlich schnellere GPUs benötigt werden. Es gibt genug preiswerte 40nm Alternativen. Wirklich mehr als 250€ braucht man da gar nicht ausgeben...
Und genau da schlägt die HD 7850 auf. IMHO momentan vom Preis/Leistung die beste 28nm Karte. Bei einem MSRP von 250$ wird sich der Straßenpreis bei ~220-230€ einpendeln. Dafüer bekommt man eine Karte mit zukunftsicheren 2GiB, 110W Lastverbrauch und Leistung knapp unter GTX570/HD 6970 (http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-hd-7850-7870/launch-analyse-amd-radeon-hd-7850-7870-seite-2). Also warum noch alte 40nm Kamelen kaufen?
dargo
2012-03-06, 21:22:50
Und genau da schlägt die HD 7850 auf. IMHO momentan vom Preis/Leistung die beste 28nm Karte. Bei einem MSRP von 250$ wird sich der Straßenpreis bei ~220-230€ einpendeln. Dafüer bekommt man eine Karte mit zukunftsicheren 2GiB, 110W Lastverbrauch und Leistung knapp unter GTX570/HD 6970 (http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-hd-7850-7870/launch-analyse-amd-radeon-hd-7850-7870-seite-2). Also warum noch alte 40nm Kamelen kaufen?
Ich kann über diese Preise nur lachen. Diese Leistung habe ich vor ca. 6 Monaten in Form einer Zotac GTX480 AMP! Edition (extrem guter Kühler) für 219€ in 40nm bekommen. Natürlich ist der Stromverbrauch der HD7850 sehr gut. Ich wechsle aber nicht meine Grafikkarte nur wegen dem Stromverbrauch, das wäre völlig banane. Soo günstig ist also eine HD7850 in März/April 2012 auch nicht.
Blediator16
2012-03-06, 21:33:57
Ich kann über diese Preise nur lachen. Diese Leistung habe ich vor ca. 6 Monaten in Form einer Zotac GTX480 AMP! Edition (extrem guter Kühler) für 219€ in 40nm bekommen. Natürlich ist der Stromverbrauch der HD7850 sehr gut. Ich wechsle aber nicht meine Grafikkarte nur wegen dem Stromverbrauch, das wäre völlig banane. Soo günstig ist also eine HD7850 in März/April 2012 auch nicht.
Normal wechselt man um mehr Leistung zu bekommen. Keiner würde von einer 480 auf eine 7850 wechseln (es sei denn die alte Graka ist tot und RMA nicht mehr mögl.) zumal 480er verramscht wurde und es wenige davon gab das kann man nicht wirklich als Preisbrecher anführen. Es gab auch einige HP Touchpads für 100€ was nicht heisst, dass man die als Referenz nehmen kann.
Im Moment sehe ich nur einen Hersteller der in 28nm liefern kann. Sollte NV ebenfalls so hohe Preise bei ihren 28nm GPUs verlangen ist die einzig richtige Reaktion nichts davon zu kaufen. Wie gesagt... es ist nicht so (außer paar Enthusiasten für SSAA, DS etc.), dass unbedigt deutlich schnellere GPUs benötigt werden. Es gibt genug preiswerte 40nm Alternativen. Wirklich mehr als 250€ braucht man da gar nicht ausgeben.
Das ist nun nichts Neues, das man mit 200€ Karten gut über die Runden kommen kann (war bei der 88GT z.b. auch der Fall) aber die GTX560TI bekommt man mit z.b. bf3 in den handelsüblichen FullHD Auflösungen auch problemlos klein ohne sich Downsampling oder grossartigem AA zu bedienen.
Allerdings sind 200-250€ 2012 mit nichten günstig für Hardware vom Schlage einer GTX560TI denn die gabs vor Monaten schon zu niedrigeren Preisen und ist wenn mans genau nimmt schon "Asbach-Uralt" (vollausbau der GTX460 die es schon vor fast 2 Jahren für <200€ gab)
Klar kann man jetzt damit kommen das es keine Alternativen gibt etc. aber das interessiert den Kunden nicht - denn wenn dieser vor nem Jahr schon nicht auf eine GTX560TI aufgerüstet hat warum sollte er es jetzt zu gleichen Preisen tun?
fizzo
2012-03-06, 21:37:25
Ich kann über diese Preise nur lachen. Diese Leistung habe ich vor ca. 6 Monaten in Form einer Zotac GTX480 AMP! Edition (extrem guter Kühler) für 219€ in 40nm bekommen. Natürlich ist der Stromverbrauch der HD7850 sehr gut. Ich wechsle aber nicht meine Grafikkarte nur wegen dem Stromverbrauch, das wäre völlig banane. Soo günstig ist also eine HD7850 in März/April 2012 auch nicht.
Und was ändert jetzt dein Restpostenschnäppchen an meiner Grundaussage? Welche Karte wäre nun objektiv die sinnigste Wahl in der dieser Preisklasse? Für einen Neukäufer:
Also warum noch alte 40nm Kamelen kaufen?
Bin ganz Ohr =)
Hugo78
2012-03-06, 21:54:41
Mit etwas Glueck erreiche ich vielleicht zumindest 2 Antworten, sonst dann vor Mitte Maerz fuer die Presse-Einweihung wird es wohl nichts werden.
Naja noch eine Woche bis zum Press-Preview, ab dann fällt links und rechts sicher wieder was raus und bis zum Launch können es ab dann nur noch 1-2 Wochen sein.
Länger hält kein NDA...
Wäre also Launch in 2-3 Wochen.
dargo
2012-03-06, 22:14:04
Welche Karte wäre nun objektiv die sinnigste Wahl in der dieser Preisklasse? Für einen Neukäufer:
Bei NV sowas.
http://geizhals.at/de/707342
Wobei ich selbst das heute als noch etwas zu teuer ansehe. Diese Karte müsste ~50€ weniger kosten. Im Prinzip ist heute der schlechteste Zeitpunkt für Neukäufer von Grafikkarten. Wollen wir hoffen, dass sich dies in April/Mai 2012 ändert.
Screemer
2012-03-06, 22:30:16
Bei NV sowas.
http://geizhals.at/de/707342
Wobei ich selbst das heute als noch etwas zu teuer ansehe. Diese Karte müsste ~50€ weniger kosten. Im Prinzip ist heute der schlechteste Zeitpunkt für Neukäufer von Grafikkarten. Wollen wir hoffen, dass sich dies in April/Mai 2012 ändert.
das ist aber nicht dein ernst oder?! die 7850 dürfte sogar günstiger zu bekommen sein als die von dir verlinkte.
dargo
2012-03-06, 22:34:30
das ist aber nicht dein ernst oder?! die 7850 dürfte sogar günstiger zu bekommen sein als die von dir verlinkte.
Kannst du sie heute kaufen? Wo? Zudem sagte ich bereits, dass auch eine 560TI 448, wenn man den zeitlichen Rahmen berücksichtigt, zu teuer sei. Und wenn man keine AMD-Karte haben will (aus welchen Gründen auch immer) kann sie noch so billig sein.
fizzo
2012-03-06, 22:35:15
Bei NV sowas.
http://geizhals.at/de/707342
Wobei ich selbst das heute als noch etwas zu teuer ansehe. Diese Karte müsste ~50€ weniger kosten. Im Prinzip ist heute der schlechteste Zeitpunkt für Neukäufer von Grafikkarten. Wollen wir hoffen, dass sich dies in April/Mai 2012 ändert.
Das ist nicht dein Ernst oder? Also lieber eine Karte die knapp das doppelte Verbraucht und nur 1,25GiB Speicher verbaut hat? Sehr objektiv :ugly:
Da echauffieren sich die Leute seitenlang über die hohen Preise (großteils zu recht!) der 28nm Karten, aber die HD 7850 findet da keine Beachtung. Selektive Wahrnehmung ahoi!
horn 12
2012-03-06, 22:39:12
Also HD 7950 ist gut lieferbar,
HD 7950 OC sehr mäßig lieferbar
HD7970 sehr gut lieferbar und so wenig Karten gehen gar nicht weg wie viele meinen.
Da muss NV erst mal Anschluss finden
!Das der Preis der HD7xx0-er Serie in den nä. 2-3 Wochen sinkt ist mal stark anzunehmen,- und mir persönlich auch ganz recht.
Adam D.
2012-03-06, 22:40:43
HD7970 sehr gut lieferbar und so wenig Karten gehen gar nicht weg wie viele meinen.
Woher nimmst du diese "Tatsache"?
dargo
2012-03-06, 22:42:11
Das ist nicht dein Ernst oder? Also lieber eine Karte die knapp das doppelte Verbraucht und nur 1,25GiB Speicher verbaut hat? Sehr objektiv :ugly:
Der Stromverbrauch bei Last interessiert mich nicht die Bohne solange die Grafikkarte nicht zu laut wird. Und ja... ich bezahle meine Stromrechnung selbst, bevor wieder dumme Bemerkungen kommen. 1,25GB Vram reichen für Full-HD vollkommen aus solange man nicht irgendwelche übertriebenen Texturmods installiert.
PS: ich warte immer noch auf den Link wo ich eine HD7850 heute/morgen für ~235€ kaufen kann.
Tomahawk
2012-03-06, 22:42:30
das ist aber nicht dein ernst oder?! die 7850 dürfte sogar günstiger zu bekommen sein als die von dir verlinkte.
Die 7850 wäre auch etwas langsamer als die Ti560 448. Es ist ein Novum, dass die Nachfolgemodelle kein besseres P/L-Verhältnis bieten als die Vorgänger.
Die Preisdiskussion hier ist befremdlich - es wird tatsächlich davon ausgegangen, dass die verkauften Mengen bei den jetzigen Preisen und günstigeren Preisen nahezu unverändert wären. Der PC-Spiele Markt ist nicht sonderlich groß. Mit dieser Preispolitik wird man viele Kunden auf günstigere Karten zwingen oder gar zu den Konsolen treiben.
horn 12
2012-03-06, 22:44:47
Italien. Online Shop hat seit Anfang Jänner 850 Karten verkauft.
Dies ist nicht mal sooo schlecht für die anfangs gedachte sehr magere Verfügbarkeit.
Trudelten immer zwischen 20-50 Karten dort ein.
Tomahawk
2012-03-06, 22:50:42
Die Ti560-448 ist nahezu so schnell wie eine GTX 570 (3%-4% langsamer).
Ach, falsch verstanden: Die 7850 liegt ziemlich mittig zwischen Ti560 und GTX 570. Die 7850 ist gleichschnell wie die HD5870.
dargo
2012-03-06, 23:01:31
Ach, falsch verstanden: Die 7850 liegt ziemlich mittig zwischen Ti560 und GTX 570. Die 7850 ist gleichschnell wie die HD5870.
Lol... und diese Leistung gabs für 250€ vor einem Jahr schon.
http://geizhals.at/de/?phist=537055&age=9999
Hier wirds noch lustiger.
http://geizhals.at/de/?phist=551462&age=9999
Was war denn da im Mai/Juni 2011 los? Dollarschwäche?
AnarchX
2012-03-06, 23:06:49
Wo wir wieder bei der langfristigen Preis-Leistungs-Betrachtung wären:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8658354#post8658354
Mal sehen ob da Kepler noch etwas bis April reißen kann oder ob es nun wieder 0% gibt, wie schon 2010.
Tomahawk
2012-03-06, 23:14:17
Genau das ist der Grund, wieso ich hier zahlreiche Kommentare in keinster Weise nachvollziehen kann.
Im Retail-Markt werden verdammt viele Grafikkarten (20%-30%) im Segment um 150 bis knapp über 200 Euro verkauft und dann rund 2-3 Jahre verwendet.
Wenn nun der technische Fortschritt deutlich geringer wird (und ebenfalls die Leistungsbedarfssteigerungen durch zahlreiche Konsolenports etc.), dann werden Karten einfach länger genutzt (insbesondere wenn nur die Performance gesteigert wird, Performance/Euro hingegen nahezu unverändert bleibt).
Jemand der vor 2,5 Jahren eine HD4870 für rund 130 Euro gekauft hat bekommt heute im gleichen Preissegment kaum mehr Leistung pro Euro.
Ich glaube kaum, dass nVidia auf die Hochpreisstrategie aufspringen wird. GK104 bleibt bei 299USD, egal was AMD treibt.
Adam D.
2012-03-06, 23:27:44
Ich glaube kaum, dass nVidia auf die Hochpreisstrategie aufspringen wird. GK104 bleibt bei 299USD, egal was AMD treibt.
Starten sie mit $299, werden ihnen die Leute die Karten aus den Händen reißen - bei den Kapazitäten eine fragwürdige Strategie. Außer man will ATi wirklich irgendwie entblößen, aber selbst mit $349 unterbietet man den Konkurrenten deutlich. Nvidia will seine Karten doch nicht unnötig "verschenken"...
Gipsel
2012-03-07, 00:14:28
GK104 will be 680.
Seeing some benchmarks show 7970 in the lead, mostly in tessellated situations there, other "normal" synthetic 3D benchmarks and gaming benchmarks show 680 faster. Driver advancements still happening as well for 680.
Link (http://hardforum.com/showthread.php?p=1038464236#post1038464236)
Käsetoast
2012-03-07, 00:33:01
Jemand der vor 2,5 Jahren eine HD4870 für rund 130 Euro gekauft hat bekommt heute im gleichen Preissegment kaum mehr Leistung pro Euro.
Also damit fällst du aber auch ein wenig aus dem Rahmen: 130 € für die 4870 (und entsprechende Angebote für die 4850 die's ja auch auch) waren einfach nur Abverkäufe der Lagerbestände. Das kannst du schlecht mit Karten die ganz neu am Markt sind mit einem Produktionsprozess der noch keine guten Yields abwirft vergleichen (und diese Abverkäufe sind ja auch nichts besonderes - günstige 5870er gab's ja auch und dementsprechend wird's in einiger Zeit auch vergünstigte Karten der 6000er Serie geben)...
Was AMD außerdem bei dieser Generation anders handhabt ist das Thema Stromverbrauch: Seit langem steigt dieser erstmal nicht an, wodurch natürlich keine so hohen Leistungssteigerungen wie bei den Sprüngen der vergangenen Generationen möglich ist. So verbraucht eine HD4870 ca. 140 Watt (was damals noch als verschwenderisch kritisiert wurde) und eine 6970 schon 200 Watt. Man sollte also immer im Hinterkopf behalten, dass ein guter Teil der Mehrleistung der letzten Jahre einfach durch eine höhere Leistungsaufnahme erkauft wurde...
Wir werden dann noch sehen wie NVIDIA das handhabt, aber die Tendenz geht ja wohl auch hier in Richtung Effizienz und im Vergleich geringer Stromverbrauch (zumindest abseits vom GK110 bei dem der Stromverbrauch sicherlich incht so wichtig ist)...
Ronny145
2012-03-07, 01:11:15
mostly in tessellated situations? Das ist Paradox, wurde doch immer die Tess-Leistung von Nvidia in den Vordergund gestellt. Ein Tess Schalter müsste Nvidia mal bringen. Allerdings ist der zweite Teil mir wichtiger: gaming benchmarks show 680 faster
Wenn das ausgewählte Benchmarks von Nvidia sind, ist das mit Vorsicht zu genießen.
Thunder99
2012-03-07, 01:14:37
mostly in tessellated situations? Das ist Paradox, wurde doch immer die Tess-Leistung von Nvidia in den Vordergund gestellt. Ein Tess Schalter müsste Nvidia mal bringen. Allerdings ist der zweite Teil mir wichtiger: gaming benchmarks show 680 faster
Wenn das ausgewählte Benchmarks von Nvidia sind, ist das mit Vorsicht zu genießen.
nvidia braucht keinen Tess-Schalter. Wozu auch, da deren GPU´s stark genug sind ;)
Ich frag mich grad ob es Sinn macht bei den prognostizierten Preisen in 2012 von einer GTX470 @7xx Mhz zu wechseln...
OBrian
2012-03-07, 01:16:33
Man hat mit dem Stromverbrauch aber auch gewisse Grenzen erreicht. Früher war es relativ egal, weil das NT einen höheren Verbrauch der Karte üblicherweise verdaut hat, aber irgednwo ist dann mal Schicht im Schacht. Die Leute kaufen sich kein neues NT nur wegen einer neuen Karte. Das machen High-End-Käufer, aber nicht jemand, der nur flüssig zocken und dafür möglichst wenig ausgeben will.
Ich z.B. hatte eine 4850, bin dann auf eine 5850 gewechselt, die genauso viel verbraucht hat (eher noch ein paar Watt weniger), und ich will als Ersatz für die auch keine Karte, die wesentlich mehr zieht. Gleichzeitig sollte der Leistungsgewinn auch spürbar sein. Von 4850 auf 5850 war es eine glatte Verdoppelung (eigentlich noch viel mehr, weil die nur 512MB RAM vorher öfter limitiert hatten). Der Schritt auf eine 7870 wäre nicht ganz so groß, also zögere ich noch, aber das wäre wohl die Karte, die am ehesten in Frage käme. Aber die 7900er sind mir zu fett, auch wenn sie für 200€ rausgingen.
Ich denke auch, die Einteilung der Chips und die Benennung orientiert sich hauptsächlich an diesen Stromverbrauchsbereichen. Die Leute bleiben gerne in ihrer Klasse, d.h. wer bisher einen 5er BMW fuhr, nimmt beim neuen Modell keinen 3er. Aber wer bisher eine Karte mit einem PCIe-Stecker betrieben hat, wird ungern auf eine mit zwei Steckern wechseln, auch wenn die im gleichen Preisbereich ist wie die alte mal war.
Blediator16
2012-03-07, 01:31:07
Falls sie diese Karte wirklich für 299€ bringen sollten, dann werden die Karten darunter hoffentlich spottbillig.
Leider wirds wohl nicht so eintreten :(
guest_29132
2012-03-07, 01:41:59
Es ist ein Novum, dass die Nachfolgemodelle kein besseres P/L-Verhältnis bieten als die Vorgänger.
Nein, das ist nicht wahr.
Link (http://hardforum.com/showthread.php?p=1038464236#post1038464236)
und daran glaubst du? oder hast du bewusst keine wertung dazu gepostet?
weil GK104 in den meisten spielen schneller als 7970 und nur in gpgpu und tesslationslastigem (unigine bench, metro evtl.) langsamer klingt da doch äusserst abenteuerlich
mostly in tessellated situations? Das ist Paradox, wurde doch immer die Tess-Leistung von Nvidia in den Vordergund gestellt. Ein Tess Schalter müsste Nvidia mal bringen. Allerdings ist der zweite Teil mir wichtiger: gaming benchmarks show 680 faster
Wenn das ausgewählte Benchmarks von Nvidia sind, ist das mit Vorsicht zu genießen.
nein das ist nicht paradox weil der GK104 nicht die gpgpu karte wie bei thermi ist sondern eine consumer "gamer" card - da macht es sinn in gpgpu dingen überproportional "schlechter" als tahiti dazustehen...nur das mit in games meistens vor 7970 glaub ich nicht
Screemer
2012-03-07, 03:35:31
jetzt kommt dann "tesselation done the cost saving way", oder wie?! kann ich mir grad nicht wirklich vorstellen, dass gk104 langsamer tesselieren soll als die 2 tesselatoren der tahiti.
horn 12
2012-03-07, 06:35:52
Preis des GF 104 bei ca. 350 Euro.
Somit sollte klar sein dass man HD7970 nicht klar schlagen kann und mna zwischen HD7950 und HD7970 liegt, wohl eher öfters auf HD7950 Performance.
http://we.pcinlife.com/thread-1847364-1-1.html
boxleitnerb
2012-03-07, 07:43:36
zu spät...
feris
2012-03-07, 07:55:19
Wenn das ausgewählte Benchmarks von Nvidia sind, ist das mit Vorsicht zu genießen.
Was sollen das denn sonst sein? Ist doch das typische, was zuerst ans Licht kommt.
Hugo78
2012-03-07, 08:44:52
und daran glaubst du? oder hast du bewusst keine wertung dazu gepostet?
Warum soll Gispel bewerten, was ein Redakteur an Ergebnissen gesehen haben will?
weil GK104 in den meisten spielen schneller als 7970 und nur in gpgpu und tesslationslastigem (unigine bench, metro evtl.) langsamer klingt da doch äusserst abenteuerlich
GK104 ist ein Performancechip und wird auf Spiele optimiert sein.
Sein Vorgänger ist GF114 und wenn man hier in Sachen Tess, eventuell sogar nur Stillstand ggü GF114 fährt, hätte Nvidia im Grunde nur die Fermikritiker Ernst genommen.
Es hieß ja immer, "Soviel Tess braucht kein Mensch, die sollen den Speed für Wichtigeres verwenden".
Siehe da, Nvidia ist lernfähig. ;D
AnarchX
2012-03-07, 08:51:20
Sehr fraglich, wie ein GK104 unter Tessellations-Benchmarks (Heaven, Stone Gigant, TessMark) langsamer sein könnte.
Da müsste man wohl wirklich bei 2 GPCs geblieben sein und eventuell die PolyMorph-Engines von 0,25 Dreiecken pro Takt auf 0,125 reduziert haben. Damit wäre man dann auf GF114 Niveau.
Neurosphere
2012-03-07, 09:14:48
Preis des GF 104 bei ca. 350 Euro.
Somit sollte klar sein dass man HD7970 nicht klar schlagen kann und mna zwischen HD7950 und HD7970 liegt, wohl eher öfters auf HD7950 Performance.
http://we.pcinlife.com/thread-1847364-1-1.html
Dabei sollte man nicht vergessen das der Preis für Tahiti eigentlich noch immer viel zu hoch angesetzt ist.
350€ müssen da nicht unrealistisch sein, AMD muss dann halt nach unten korrigieren.
john carmack
2012-03-07, 09:37:51
Laut http://www.3dcenter.org/ soll der GK104 die GTX680 werden...
Welchen Namen soll dann der GK110 bekommen?
Dachte immer das der GK104 den Namen GTX660 (Ti) / GTX760 (Ti) bekommen soll?!
boxleitnerb
2012-03-07, 09:40:21
Weil GK104 so gut gegen Tahiti dasteht, ist das wohl eine Marketinggeschichte. GK110 kommt vermutlich eh später und hat angeblich noch mehr Features, dass man ihn gleich als Pseudo-"Refresh" (ist ja keiner, aber gut) als 700er Serie vertickt.
][immy
2012-03-07, 09:46:48
Tut mir leid, aber mit den Gerücht von VR-Zone kann etwas nicht stimmen.
705 Mhz bei einer neuen Fertigung (auch wenn die Ausbeute wohl relativ schlecht ist) sind doch sehr gering, wenn man mal schaut was AMD hier hinbekommen hat mit der 28nm Fertigung (> 1GHz). Ich weiß es sind verschiedene Architekturen, aber das kann so nicht stimmen, das wäre ja kaum ein Fortschritt zu Fermi und alles kann die Architektur hier auch nicht rausholen. Eventuell wurde hier ein bisschen was mit dem GF104 verwechselt? Zumindest die Taktraten stimmen ziemlich genau mit meiner GTX 460 überein. Hier würde auch das mit den Hotclocks wieder stimmen.
Zudem wie das Diagramm auf der News-Seite schon zeigt, wäre das Verhältnis von Shader-Leistung (wenn die Annahmen den stimmen) zum rest der Karte viel zu groß. Da würde ja Beispielsweise die Speicherbandbreite stark bremsen bevor die "angenommen" hohe Shader-Leistung überhaupt verwendet werden könnte.
http://www.3dcenter.org/dateien/abbildungen/Rohleistungs-Vergleich-GeForce-GTX-680-Radeon-HD-7950-7970.png
Sry, aber das macht so einfach keinen Sinn. Es sei den die Fertigung läuft wirklich so mieß, das man so geringe Taktraten nutzen muss um die Chips überhaupt zum laufen zu bringen.
Also bei einem Chip der kleiner ist als Tahiti können wir wohl mal davon ausgehen, das auch die Taktrate zur vorgängergeneration gestiegen ist, von daher können die Daten eigentlich nicht stimmen. Ich kann mich zumindest nicht erinnern, das die Taktraten jemals mit einem neuen Chip + neuen Fertigung jemals wieder nach unten gegangen sind.
john carmack
2012-03-07, 09:48:49
Weil GK104 so gut gegen Tahiti dasteht, ist das wohl eine Marketinggeschichte. GK110 kommt vermutlich eh später und hat angeblich noch mehr Features, dass man ihn gleich als Pseudo-"Refresh" (ist ja keiner, aber gut) als 700er Serie vertickt.
Kann schon sein das dann auch "Tenerife" als 7980 / 89xx kommt...
AnarchX
2012-03-07, 09:56:55
Kann schon sein das dann auch "Tenerife" als 7980 / 89xx kommt...
Tenerife ist ein Fake: http://ht4u.net/news/25227_geruechte_um_amd_tenerife-gpu_stellen_eine_falschmeldung_dar/
Godmode
2012-03-07, 10:08:17
Tenerife ist ein Fake: http://ht4u.net/news/25227_geruechte_um_amd_tenerife-gpu_stellen_eine_falschmeldung_dar/
Hätte mich auch sehr gewundert, wenn nach so kurzer Zeit schon wieder ein Refresh kommt.
boxleitnerb
2012-03-07, 10:30:45
Angeblich hat TMSC die 28nm-Produktion vor drei Wochen komplett gestoppt, um Änderungen am Prozess vorzunehmen:
http://semiaccurate.com/2012/03/07/tsmc-suddenly-halts-28nm-production/
An den Yields soll es nicht liegen, ist die Frage an was dann.
Charlie besteht weiterhin darauf, dass Kepler Probleme hat, die nicht prozessbedingt sind. Die Frage ist nur, wenn Nvidia so doof ist und es nicht der Prozess ist, warum dann dieser drastische Schritt? Das ergibt Null Sinn.
das würde jedenfalls erklären warum noch keine richtigen Abverkäufe der gut gefüllten 40nm Lager angelaufen sind.
Auf jedenfall schlechte Nachricht falls da was dran ist.
Adam D.
2012-03-07, 10:53:17
das würde jedenfalls erklären warum noch keine richtigen Abverkäufe der gut gefüllten 40nm Lager angelaufen sind.
Auf jedenfall schlechte Nachricht falls da was dran ist.
Naja, der Artikel sagt ja auch, dass es Ende März besser als zuvor sein könnte (wobei etwas mehr als schlecht immer noch schlecht ist :freak: ).
Hugo78
2012-03-07, 12:02:13
Angeblich hat TMSC die 28nm-Produktion vor drei Wochen komplett gestoppt, um Änderungen am Prozess vorzunehmen:
http://semiaccurate.com/2012/03/07/tsmc-suddenly-halts-28nm-production/
An den Yields soll es nicht liegen, ist die Frage an was dann.
Charlie besteht weiterhin darauf, dass Kepler Probleme hat, die nicht prozessbedingt sind. Die Frage ist nur, wenn Nvidia so doof ist und es nicht der Prozess ist, warum dann dieser drastische Schritt? Das ergibt Null Sinn.
Er sagt das alles gestoppt wurde, inkl. 28nm für Qualcomm, was also auch den 28LP betrifft, nicht den 28HP allein.
edit: Am ende hat man nur die neue, zweite 28nm Fab eingeweiht und die erste bekommt jetzt ein Upgrade...
dargo
2012-03-07, 12:04:23
[immy;9198276']
Zudem wie das Diagramm auf der News-Seite schon zeigt, wäre das Verhältnis von Shader-Leistung (wenn die Annahmen den stimmen) zum rest der Karte viel zu groß. Da würde ja Beispielsweise die Speicherbandbreite stark bremsen bevor die "angenommen" hohe Shader-Leistung überhaupt verwendet werden könnte.
Du weißt wie effizient der GK104 mit der Speicherbandbreite umgeht? Interessant...
Edit:
Mal etwas in die Vergangenheit geschaut.
GTX285 = ~159GB/s
GTX580 = ~192GB/s (+ ~21%)
GTX280 = ~156GB/s
GTX480 = ~177GB/s (+ ~13%)
GTX560TI = 128GB/s
GTX680 = spekulierte 192GB/s (+ 50%)
Wo verhurgert also der GK104 bei der Speicherbandbreite nochmal?
Naja, der Artikel sagt ja auch, dass es Ende März besser als zuvor sein könnte (wobei etwas mehr als schlecht immer noch schlecht ist :freak: ).
ja gut "besser als vorher" aber einen hardlaunch im März können wir dann vergessen
und selbst im April wirds wenn überhaupt erstmal anfangs kaum was geben - besser wäre es wenn die Verfügbarkeit erst zwar schlecht aber wenigstens in irgendeiner Form vorhanden wäre...dann könnte man erstmal die early adopters melken und käme schneller auf reale preise
AffenJack
2012-03-07, 12:48:21
Wer sagt, dass an der Meldung irgendwas dran ist? Dass erscheint mir doch äußerst unglaubwürdig. Wieso sollte man die gesamte Fertigung stoppen? Und ja, Charlie hat durchaus einige Quellen bei TSMC, wenns um Tapeouts geht, aber bei der Fertigung soll niemand aus Fernost mitbekommen haben, dass kein 28nm mehr produziert wird seit 3 wochen? Und TSMC hat auch keine Absichten an die Öffentlichkeit zu gehen, obwohl das jeder in den quartalszahlen sehen wird?
AnarchX
2012-03-07, 13:02:20
Fragt sich nur welche Fab.
Laut Pitcairn Chip-Markierung gibt es wohl auch eine TSMC 28nm Fab in China.
AffenJack
2012-03-07, 13:16:29
Denke nicht, TSMC hat wohl nur eine 200mm² Fab in China.
http://www.tsmc.com/download/4Q11_installed_capacity.pdf
Das auf Pitcairn nun Made in China auftaucht könnte eher daran liegen, dass weitere Schritte nach China ausgelagert wurden. Auf Amd-Cpus stand ja auch immer Made in Malaysia.
AnarchX
2012-03-07, 13:19:53
Auf den AMD CPUs stand "Assembled in Malaysia".
Aber natürlich denkbar, dass der Die und das Package nun in China zusammengebracht werden, wenn auch die Aussage "Made in China" etwas merkwürdig wirkt. Aber vielleicht will man damit ein paar mehr Chinesische Kunden gewinnen. :D
][immy
2012-03-07, 13:50:24
Du weißt wie effizient der GK104 mit der Speicherbandbreite umgeht? Interessant...
Edit:
Mal etwas in die Vergangenheit geschaut.
GTX285 = ~159GB/s
GTX580 = ~192GB/s (+ ~21%)
GTX280 = ~156GB/s
GTX480 = ~177GB/s (+ ~13%)
GTX560TI = 128GB/s
GTX680 = spekulierte 192GB/s (+ 50%)
Wo verhurgert also der GK104 bei der Speicherbandbreite nochmal?
ähm, die angenommene Bandbreite würde hier der Bandbreite der GTX580 entsprechen, welche aber weniger als halb so viel GFlops (~1581) hat wie der hier angepriesene GK104. Zwar krankt die GTX580 nicht unbedingt an der bandbreite, aber bei mehr als der doppelten Rechenleistung dürfte man ziemlich schnell auf diese barriere treffen. Zudem die anderen "angenommenen" Werte ebenfalls schon bremsen dürften.
Hier mag vielleicht ein wenig mehr effizienz hinter stecken als beim Fermi, aber so ein extrem dürfte es an sich nicht sein.
dargo
2012-03-07, 14:03:08
[immy;9198626']ähm, die angenommene Bandbreite würde hier der Bandbreite der GTX580 entsprechen, welche aber weniger als halb so viel GFlops (~1581) hat wie der hier angepriesene GK104. Zwar krankt die GTX580 nicht unbedingt an der bandbreite, aber bei mehr als der doppelten Rechenleistung dürfte man ziemlich schnell auf diese barriere treffen.
Dir ist wohl entgangen, dass GFlops Fermi nichts mit GFlops Kepler gemeinsam haben. Das gleiche gilt übrigens für den Tahiti auch. Tahiti hat auf dem Papier ~140% mehr Rechenleistung als der Fermi. Um wieviel Prozent ist die HD7970 nochmal schneller als eine GTX580?
AnarchX
2012-03-07, 14:08:03
Diese 1536SPs@1,4GHz sind für das Referenz-Modell eh nicht realistisch. Vielleicht mit WaKü und grenzwertigen Spannungen.
Mit 180-190GB/s dürfte GK104 recht gut bedient sein, mehr Bandbreite ist natürlich nie verkehrt. Aber als 104er Chip wurde dieser als Performance-GPU konzipiert, der wohl nur vereinzelte Ausflüge über 1920x1080 machen sollte.
Aber vielleicht nur 10% im Durchschnitt über der GTX 580 fände ich anhand der Leistungsdaten (128 TMUs, 1536SPs @>900MHz + 180-190GB/s) etwas zu gering.
Vielleicht hat Kyle doch recht und man hat an Raster- und Geometrie-Leistung gespart, wobei das wiederrum nicht ganz zu den ~X3000 3DM11 Gerüchten passt.
dargo
2012-03-07, 14:13:12
Mit 180-190GB/s dürfte GK104 recht gut bedient sein, mehr Bandbreite ist natürlich nie verkehrt. Aber als 104er Chip wurde dieser als Performance-GPU konzipiert, der wohl nur vereinzelte Ausflüge über 1920x1080 machen sollte.
Eben, eine Performance-GPU ist kaum für Auflösungen @2560x1600 oder sogar noch höher vorgesehen.
boxleitnerb
2012-03-07, 14:16:47
Eben, eine Performance-GPU ist kaum für Auflösungen @2560x1600 oder sogar noch höher vorgesehen.
Naja, was gestern High End war, ist heute Performance. Der Übergang ist ja doch recht plötzlich, bei Release verschiebt sich auf einen Schlag alles. Was ich damit sagen will: Die 580 musste sich bisher auch an 1600p messen lassen und es ist jetzt nicht so, dass die Spiele im Schnitt fürchterlich zugelegt haben bei den Anforderungen.
dargo
2012-03-07, 14:25:57
@boxleitnerb
Wenn du dir die Bandbreiten weiter oben anschaut wird dir aufgefallen sein, dass die GTX680 möglicherweise die gleiche Speicherbandbreite hat wie die GTX580. Eventuell erfährt Kepler kleine Effizenzsteigerungen in diesem Bereich. Selbst wenn nicht... nehmen wir mal an im Spiel XY liegt GK104 in Full-HD 20% vor der GTX580. Im gleichen Spiel @2560x1600 sind es nur noch 5-10%. Was wäre daran jetzt so dramatisch? Die Mehrheit der Spieler geht eh nicht über Full-HD hinaus. SSAA, DS und Konsorten ist auch eher Enthusiasten-Gebiet.
boxleitnerb
2012-03-07, 14:29:46
Natürlich ist mir das aufgefallen. Vielleicht verstehst du nicht so ganz, was ich meine. Wenn die 580 ein paar Monate vor dem Launch gut genug für 1600p ist, sollte GK104 es mit diesen Specs auch sein. Auf lange Sicht fährt man mit GK110 sicher besser, aber sooo schnell ändert sich die Softwarelandschaft nun nicht, dass man GK104 automatisch auf 1080p herunterschicken muss, nur weil er im neuen Lineup Performance ist.
AnarchX
2012-03-07, 14:39:48
GF110/100 ist am Ende seines Lebenszyklus und seit dem Launch Anfang 2010 sind einige anspruchsvollere Titel erschienen.
Für 2012 bis 2013 sind eben 150-190GB/s Bandbreite für Performance-GPUs angemessen, die in der vorherigen Generation noch dem High-End vorbehalten waren, welches nun bei >240GB/s liegt.
dargo
2012-03-07, 14:42:23
@boxleitnerb
Ich glaube du verstehst nicht worauf ich hinaus will. Der GK104 könnte (muss nicht) weit über Full-HD etwas stärker an der Speicherbandbreite hängen, sprich stärker einbrechen als die GTX580. Das ist bei einer Performance-GPU nicht weiter tragisch. NV muss sich schon beim schnellsten GDDR5 bedienen. Eine weitere Steigerung der Bandbreite ist nur über ein breiteres SI möglich was wiederum mit höheren Kosten verbunden ist. Zudem sollte man nicht vergessen, dass schon die GTX580 mehr als genug Bandbreite für Games hat.
Blediator16
2012-03-07, 14:43:22
Wenn NV "Highend" hätte, dann würde die "Midrange" nicht 680 heißen unabhängig ob AMD angeblich so scheiss lahme Karten hat. Welchen Sinn würde es ergeben? Zu sagen "ach wartet noch ein halbes Jahr dann ist das Monster da" macht keinen Sinn. Dann kannste danach nochmal ein halbes Jahr warten und schon haste das Refresh des Konkurenten usw. Und anhand der Threads der 79xx Reviews und der Enttäuschung einiger, dürfte NV auch keine gute Arbeit geleistet haben, weil der neue Highende ja so lahm geworden ist ;)
dildo4u
2012-03-07, 14:44:37
TSMC suddenly halts 28nm production
http://semiaccurate.com/2012/03/07/tsmc-suddenly-halts-28nm-production/
Komisch will keiner neue Chips bzw erstmal sein Lager frei räumen?Vom Timing her dürfte das ja nicht nur NV sondern auch die 7870 betreffen.
mironicus
2012-03-07, 14:45:57
Bin schon mal gespannt auf die Performance pro Watt im Vergleich zu AMD. Hat NVidia wohl auch etwas vergleichbares wie ZeroCore in Planung?
AnarchX
2012-03-07, 14:46:57
Wenn NV "Highend" hätte, dann würde die "Midrange" nicht 680 heißen unabhängig ob AMD angeblich so scheiss lahme Karten hat. Welchen Sinn würde es ergeben? Zu sagen "ach wartet noch ein halbes Jahr dann ist das Monster da" macht keinen Sinn. Dann kannste danach nochmal ein halbes Jahr warten und schon haste das Refresh des Konkurenten usw. Und anhand der Threads der 79xx Reviews und der Enttäuschung einiger, dürfte NV auch keine gute Arbeit geleistet haben, weil der neue Highende ja so lahm geworden ist ;)
Im Endeffekt macht wohl TSMC beiden Herstellern wieder einen Strich durch die Rechnung.
Wo man Anfang 2011 auf Basis von Versprechungen aus Taiwan wohl an 2011er Launchs glaubte, ist man nun möglicherweise Anfang 2012 in der Situation, wo TSMC einfach mal die Produktion für fast 1 Monat still stehen lässt. :freak:
Der zeitliche Abstand zwischen GK104 und GK110 Tape-Out deutet theoretisch nicht auf einen weiten Abstand der Launchtermine hin.
boxleitnerb
2012-03-07, 14:47:55
@boxleitnerb
Ich glaube du verstehst nicht worauf ich hinaus will. Der GK104 könnte (muss nicht) weit über Full-HD etwas stärker an der Speicherbandbreite hängen, sprich stärker einbrechen als die GTX580. Das ist bei einer Performance-GPU nicht weiter tragisch. NV muss sich schon beim schnellsten GDDR5 bedienen. Eine weitere Steigerung der Bandbreite ist nur über ein breiteres SI möglich was wiederum mit höheren Kosten verbunden ist.
Stärker einbrechen trotz gleicher Bandbreite? Kann ich mir nicht vorstellen ehrlich gesagt. Was für eine Erklärung würde es dafür geben?
@AnarchX:
Das mag schon sein, mir stößt halt diese plötzliche Deklassifizierung auf 1080p etwas übel auf. Ich glaube, dass GK104 überall, egal wo, besser dastehen wird als GF110. Auch bei 1600p, ob heute oder in 2 Jahren.
dargo
2012-03-07, 14:49:11
Bin schon mal gespannt auf die Performance pro Watt im Vergleich zu AMD.
Was manche hier mit ihrer Performance pro Watt haben werde ich wohl nie verstehen. Ich bin auch gespannt, aber auf Performance pro Euro.
AnarchX
2012-03-07, 14:52:07
Das mag schon sein, mir stößt halt diese plötzliche Deklassifizierung auf 1080p etwas übel auf. Ich glaube, dass GK104 überall, egal wo, besser dastehen wird als GF110. Auch bei 1600p, ob heute oder in 2 Jahren.
Natürlich, aber eben nicht mehr in dem Rahmen, wie man es von einer Next-Generation High-End-GPU erwarten würde.
Was manche hier mit ihrer Performance pro Watt haben werde ich wohl nie verstehen. Ich bin auch gespannt, aber auf Performance pro Euro.
Nicht jeder möchte >225W GraKas.
Aber laut aktuellem Stand könnte Nvidia wohl recht nah an Southern Islands bzgl. der Pro-Watt-Leistung liegen.
dargo
2012-03-07, 14:53:29
Stärker einbrechen trotz gleicher Bandbreite? Kann ich mir nicht vorstellen ehrlich gesagt. Was für eine Erklärung würde es dafür geben?
Was ist daran unverständlich?
Spiel X @1920x1080:
GK104 = 120%
GTX580 = 100%
Spiel X @2560x1600:
GK104 = 110%
GTX580 = 100%
Nicht jeder möchte >225W GraKas.
Verständlich... gibt aber genug Alternativen unter 225W.
boxleitnerb
2012-03-07, 14:57:34
^ ich hab schon verstanden, was du gemeint hast. Aber warum es so sein sollte, erschließt sich mir nicht. Vor allem da Kepler ja anscheinend sehr effizient mit der Bandbreite umgeht.
dargo
2012-03-07, 15:02:07
Aber warum es so sein sollte, erschließt sich mir nicht. Vor allem da Kepler ja anscheinend sehr effizient mit der Bandbreite umgeht.
:ugly:
Ich habe doch nicht gesagt, dass es so kommen muss sondern nur kann. Je nachdem in welchem Umfang Kepler mit der Speicherbandbreite effizienter umgeht kann es natürlich sein, dass die Verhältnisse zur GTX580 trotz höherer Rechenleistung auch bei sehr hohen Auflösungen gleich bleiben.
Godmode
2012-03-07, 15:42:41
Wenn NV "Highend" hätte, dann würde die "Midrange" nicht 680 heißen unabhängig ob AMD angeblich so scheiss lahme Karten hat. Welchen Sinn würde es ergeben? Zu sagen "ach wartet noch ein halbes Jahr dann ist das Monster da" macht keinen Sinn. Dann kannste danach nochmal ein halbes Jahr warten und schon haste das Refresh des Konkurenten usw. Und anhand der Threads der 79xx Reviews und der Enttäuschung einiger, dürfte NV auch keine gute Arbeit geleistet haben, weil der neue Highende ja so lahm geworden ist ;)
Das GK104 kein Highend ist, ist wohl offensichtlich. Oder Was soll eine neue Generation mit genau der selben Menge Transistoren wie die alte?
PrefoX
2012-03-07, 15:45:39
Was manche hier mit ihrer Performance pro Watt haben werde ich wohl nie verstehen. Ich bin auch gespannt, aber auf Performance pro Euro.
ja aber du musst den verbrauch doch auch in deine perf/watt rechnung mit einbeziehen... wenn du die graka 3 jahre nutzt und sie jedes jahr 30€ mehr kostet, dann macht das auch etwas aus oder?....
Blediator16
2012-03-07, 15:52:28
Das GK104 kein Highend ist, ist wohl offensichtlich. Oder Was soll eine neue Generation mit genau der selben Menge Transistoren wie die alte?
Das kannste dann sagen, wenn das wirkliche Monster aufschlägt, was im Moment eher nicht Zeitnah passieren wird und wohl alleine durch den Fertiger unrealistisch seint und NV den "Midrange" bereits zum Highendnamen vermarket.
Im Grunde genommen läuft alles darauf hinaus, dass man sich über AMD lustig macht, weil der SI lahm sein soll und man das als Entschuldigung für einen 104 680er und die Verspätung des "Großen" nimmt.
Iruwen
2012-03-07, 16:10:14
Wenn AMD Pitcairn zuerst gebracht hätte wäre das also High-End gewesen weil "das wirkliche Monster" Tahiti noch nicht dagewesen wäre, bestechende Logik.
Blediator16
2012-03-07, 16:14:22
Wenn AMD Pitcairn zuerst gebracht hätte wäre das also High-End gewesen weil "das wirkliche Monster" Tahiti noch nicht dagewesen wäre, bestechende Logik.
Das darfst du dann AMD und Nvidia fragen, denn scheinbar haben BEIDE entschieden ihre "Midrangekarten" als ihre "Highendekarten" zu vermarkten oder behaupte ich etwas anderes? :rolleyes:
Was spricht dagegen, dass NV ihre Karte nicht 680 nennen sollte, wenns doch "nur" der Midragechip ist oder haben sie doch noch nichts besseres als das und müssen sich eingestehen, dass mehr im Moment nicht wirklich möglich ist? Solange der 104er als 79xx Gegner da sein wird und der "Große" nicht erscheint, sind alle Highend.
dargo
2012-03-07, 16:21:56
ja aber du musst den verbrauch doch auch in deine perf/watt rechnung mit einbeziehen... wenn du die graka 3 jahre nutzt und sie jedes jahr 30€ mehr kostet, dann macht das auch etwas aus oder?....
Oh Gott... jetzt diskutieren wir hier schon über 30€ mehr Stromkosten im Jahr? :freak: Wenn du so arm dran bist dann lass den Rechner gleich aus. Dann kostet der dich nichts.
Oh Gott... jetzt diskutieren wir hier schon über 30€ mehr Stromkosten im Jahr? :freak: Wenn du so arm dran bist dann lass den Rechner gleich aus. Dann kostet der dich nichts.
ich würde dir raten, deinen Spruch zu überdenken, nur so...
für nicht wenige Menschen ist Stromersparnis durchaus ratsam, auch wenn es sich um "ist des Denkens nicht wert: 30 Euro" handelt...
boxleitnerb
2012-03-07, 16:26:30
Oh Gott... jetzt diskutieren wir hier schon über 30€ mehr Stromkosten im Jahr? :freak: Wenn du so arm dran bist dann lass den Rechner gleich aus. Dann kostet der dich nichts.
Perf/W ist schon wichtig. Es geht dir um Perf/Euro, da spielt der Verbrauch auch (je nach Nutzung mehr oder weniger intensiv) mit rein. Man kann sich nicht auf der einen Seite über die Preise aufregen und auf der anderen die Stromkosten für irrelevant erklären. Und Perf/W setzt natürlich "da oben" auch Grenzen, siehe GTX590, die schlappe 60% auf die 580 bringt, statt 80-100%.
Ist Perf/W zu schlecht, geht das auf Kosten der Leistung, weil die Käufer eben nur bis zu einem bestimmten Grad tolerant sind was Wärmeentwicklung, Betriebskosten und Lautstärke angeht.
Iruwen
2012-03-07, 16:33:38
Wie konnte man eigentlich die GTX 590 / HD 6990 mit 2x8-Pin bringen, das verletzt ja eigentlich die PCIe Spec - druff gschisse?
DarknessFalls
2012-03-07, 16:42:51
(...) druff gschisse?
Genau das.
Hugo78
2012-03-07, 16:53:55
Wie konnte man eigentlich die GTX 590 / HD 6990 mit 2x8-Pin bringen, das verletzt ja eigentlich die PCIe Spec - druff gschisse?
Only real men have fabs TSMC und Regeln sind zum brechen da. :D
PrefoX
2012-03-07, 17:08:07
Oh Gott... jetzt diskutieren wir hier schon über 30€ mehr Stromkosten im Jahr? :freak: Wenn du so arm dran bist dann lass den Rechner gleich aus. Dann kostet der dich nichts.
äh du [..] meckerst doch wenn die graka 50€ mehr kostet, wo ist dann da der unterschied? dir ging es doch auch nur um die paar euro...
€dit: Boxleitnerb hats schon erklärt, dankeschön : )
Vorallem erhöhen die Strom Mehrkosten ja nicht nur den potentiellen Preis, sondern auch die Tendenz übermässiger Wärme- und Geräuschentwicklung.
Weiterhin sollte man nicht außer Acht lassen, das es so einigen auch um den "Ökologischen" Gedanken sowie generell das Problem Energiereserven geht.
Also ich würde immer eher eine Karte präferieren die möglichst wenig Strom verschwendet, wenn man schon seine Hardware wechselt.
OgrEGT
2012-03-07, 19:37:09
Sagen wir es mal so:
Wenn von 2 Karten bei vergleichbarer Leistung+Features die eine nur die Hälfte an Strom verbraucht, dadurch wesentlich kühler, und damit leiser list, dann würde ich mich genau für diese Karte entscheiden. Verbunden mit dem Gefühl der Umwelt gleichzeitig etwas Gutes zu tun, umso besser, wäre für mich derzeit alleine aber nicht kaufentscheidend.
Sorry for OT...
aufkrawall
2012-03-07, 19:49:45
Verbunden mit dem Gefühl der Umwelt gleichzeitig etwas Gutes zu tun, umso besser, wäre für mich derzeit alleine aber nicht kaufentscheidend.
Zu dem Schluss kommt man auch bei rein egoistischer Betrachtung.
Wenn der Lüfter meiner GTX 570 mit Spannungserhöhung schon hochfährt, wenn die Karte nur kurz in den P0-State schaltet, brauch ich nicht lange überlegen, dass ich weiß, ich werd das Ding so schnell wie möglich durch die neue Generation ersetzen.
Und auch wenn mehrere dicke Recher fast den ganzen Tag laufen, spielt Stromverbrauch eine wichtige Rolle.
mboeller
2012-03-07, 19:58:10
Cebit-Impressionen:
http://www.heise.de/newsticker/meldung/Nvidias-GeForce-GTX-680-bringt-Turbo-Technik-und-kommt-noch-im-Maerz-1465891.html
IMHO: rosig ist was anderes.
Ronny145
2012-03-07, 20:02:41
Cebit-Impressionen:
http://www.heise.de/newsticker/meldung/Nvidias-GeForce-GTX-680-bringt-Turbo-Technik-und-kommt-noch-im-Maerz-1465891.html
IMHO: rosig ist was anderes.
Stattdessen wurde behauptet, der 28-nm-Erstling von Nvidia sei in Battlefield 3 rund 10 Prozent schneller als eine Radeon HD 7970 und im DirectX-11-Benchmark 3DMark 11 sogar unterlegen.
Das hört sich doch vernünftig an.
AnarchX
2012-03-07, 20:06:57
Der Turbo klingt etwas problematisch.
X.Perry_Mental
2012-03-07, 20:12:00
Der Turbo klingt etwas problematisch.
Habe ich das richtig verstanden, dass der Turbo 5-7% beträgt, bei um die 1000MHz [um einen Basis zum Rechnen zu haben, nicht dass die 1000MHz irgendwo im Artikel genannt wären...] also 50 -70MHz "Turbo"?
mironicus
2012-03-07, 20:12:30
Du meinst wohl die Karte erkauft sich ihre Leistung mit starken Stromschüben. :D
boxleitnerb
2012-03-07, 20:14:40
Naja, wenn wir von 170W TDP ausgehen, bleiben immer noch 30W zur 7970, die man verbraten kann, wenn nötig.
Blaire
2012-03-07, 20:17:59
Das hört sich doch vernünftig an.
Genau, scheiss auf 3DMark, Games sind wichtig. ;)
gamba66
2012-03-07, 20:22:32
oh nein hoffentlich kommt das nicht in die laptop gpus
sonst wird die throttling und runtertakt problematik nur verstärkt wie z.b. beim 3830tg
Klingt eher nach einer Notlösung
AnarchX
2012-03-07, 20:24:35
Von anderer Seite wurde der Turbo Modus eher so beschrieben, dass die GTX 680 vielleicht bei 170W TDP liegt und man dann die TDP in Richtung 200W anheben kann, während die Taktrate/Leistung folgt.
Hoffentlich ist es optional und nicht ein Standard Feature.
Fleisch McDöner
2012-03-07, 20:25:45
Bei den CPUs funktioniert es doch auch sehr gut, wo ist das Problem?
Adam D.
2012-03-07, 20:28:26
Sehe da auch kein Problem, Nvidia wird sich schon was dabei gedacht haben. Die Performance-Einschätzung ist ja auch nix neues. Selbes Thema bei der Verfügbarkeit. Krass finde ich nur, dass immer noch keine Sau weiß, was die GTX 680 kosten soll :ulol:
AnarchX
2012-03-07, 20:30:46
Krass finde ich nur, dass immer noch keine Sau weiß, was die GTX 680 kosten soll :ulol:
Man muss wohl noch klären wie-viel man an den >$400 Radeon 7900 mitverdienen kann. :ulol:
Aber seltsam, dass man nun langsamer bei 3DM11 sein soll. Vielleicht nur der P-Score?
Deinorius
2012-03-07, 20:31:08
Von anderer Seite wurde der Turbo Modus eher so beschrieben, dass die GTX 680 vielleicht bei 170W TDP liegt und man dann die TDP in Richtung 200W anheben kann, während die Taktrate/Leistung folgt.
So funktioniert aber kein Turbo Modus. Es kann nur bis zur max. TDP übertaktet werden, damit die Kühlung gewährleistet ist. Da muss man bei GPUs doch erst recht aufpassen.
Adam D.
2012-03-07, 20:31:37
Man muss wohl noch klären wie-viel man an den >$400 Radeon 7900 mitverdienen kann. :ulol:
Sag doch sowas nicht :freak: :frown:
vielleicht funktioniert der Turbo Modus so, dass einige Chipteile runtergetaktet werden und der stark belastete Teil dafür hoch.
zB so:
braucht man viel Rechenleistung werden die TMUs runtergetaktet und die SPs nach oben oder halt andersrum je nach Lastverteilung.
Wäre das eine Möglichkeit?
Ailuros
2012-03-07, 20:36:08
Man muss wohl noch klären wie-viel man an den >$400 Radeon 7900 mitverdienen kann. :ulol:
ROFL :biggrin: Keine Sorge wenn NV dem Trend folgt, hab ich zumindest nicht vor still zu halten.
Botcruscher
2012-03-07, 20:36:53
Das hört sich doch vernünftig an.
Das ist dann wohl eines der Spiele wo man vorn liegt. Gerade in BF3 hat Thaiti ja nicht gerade sonderlich zum Vorgänger zugelegt.
Ailuros
2012-03-07, 20:39:22
vielleicht funktioniert der Turbo Modus so, dass einige Chipteile runtergetaktet werden und der stark belastete Teil dafür hoch.
zB so:
braucht man viel Rechenleistung werden die TMUs runtergetaktet und die SPs nach oben oder halt andersrum je nach Lastverteilung.
Wäre das eine Möglichkeit?
Klingt mir als Laie verdammt kompliziert.
Das hört sich doch vernünftig an.
In Battlefield 3 suckt (http://www.pcgameshardware.de/aid,870528/Radeon-HD-7870-GHz-Edition-und-HD-7850-im-Test-Schnell-und-sparsam-dank-28-nm/Grafikkarte/Test/?page=2) GCN nach wie vor.
MfG,
Raff
boxleitnerb
2012-03-07, 20:50:21
Wird ja lustig, wenn man das nicht abschalten könnte. Dann hat jede Seite nochmal andere Ergebnisse.
Bleibt zu hoffen, dass Nvidia ähnlich dem Powertune-Regler bei AMD etwas ins Treiberpanel flakkt. Das GeForce-Containment lässt sich nicht per Treiber regeln ...
MfG,
Raff
boxleitnerb
2012-03-07, 20:53:24
Wirkt das überhaupt irgendwo, so dass die Ergebnisse niedriger sind als ohne? Mit irgendeiner GPU-Z Version konnte man das für die aktuelle Windows-Session deaktivieren.
In Spielen keine Ahnung, aber im Felleuro & PCGH VGA-Tool geht beispielsweise eine GTX 580 durch die Decke, wenn man daran rumspielt. Die Dinger sind ganz klar gedrosselt, wobei ein paar Custom-Designs sich nicht daran halten.
MfG,
Raff
Klingt mir als Laie verdammt kompliziert.
ich bin auch nur Laie, aber wäre ne kluge Lösung wenn es so wäre
Ailuros
2012-03-07, 21:08:49
ich bin auch nur Laie, aber wäre ne kluge Lösung wenn es so wäre
Wenn sie so viel Aufwand in hw scheduling geworfen haetten waere es vielleicht auch eine Idee das oede AFR loszuwerden.
Sonst sollte es klar sein dass so mancher Bloedsinn generell bis zum eigentlichen launch herumschwirren wird. Erst wenn die reviews von unabhaengigen Quellen ankommen wird das Bild deutlicher sein.
Adam D.
2012-03-07, 21:35:37
Wenn sie so viel Aufwand in hw scheduling geworfen haetten waere es vielleicht auch eine Idee das oede AFR loszuwerden.
Sonst sollte es klar sein dass so mancher Bloedsinn generell bis zum eigentlichen launch herumschwirren wird. Erst wenn die reviews von unabhaengigen Quellen ankommen wird das Bild deutlicher sein.
Die Spiele-Performance scheint ja inzwischen relativ klar zu sein, was noch fehlt, sind architektonische Details. Darauf freu ich mich schon, ich hoffe, dass die wenigen Journalisten nächste Woche was durchsickern lassen :cool:
Die lassen gewiss nichts sickern. Wenn was sickert, dann bei Lecks außerhalb der Presse (oder Pfosten wie OBR ...)
MfG,
Raff
Ailuros
2012-03-07, 21:41:21
Die Spiele-Performance scheint ja inzwischen relativ klar zu sein, was noch fehlt, sind architektonische Details. Darauf freu ich mich schon, ich hoffe, dass die wenigen Journalisten nächste Woche was durchsickern lassen :cool:
Selbst wenn wird sich der Brei eher auf GK10x begrenzen. Nicht wirklich so interessant fuer die techno-freaks und architektur-bedingte Erweiterungen ;)
Schaffe89
2012-03-07, 21:58:06
In Battlefield 3 suckt GCN nach wie vor.
Naja ihr nutzt HQ-AF und wohl nicht den neuesten Treiber der HD 7950, weil die HD 7870 ja bis auf 4% rankommt.
Schickt AMD eigentlich zu jedem Nvidia Release noch Preview Spezialtreiber ins Haus? :)
Ich bin echt gespannt, wie die GTX680 unter 2560x1600 klarkommt gegen GCN.
Naja ihr nutzt HQ-AF und wohl nicht den neuesten Treiber der HD 7950, weil die HD 7870 ja bis auf 4% rankommt.
Schickt AMD eigentlich zu jedem Nvidia Release noch Preview Spezialtreiber ins Haus? :)
Ich bin echt gespannt, wie die GTX680 unter 2560x1600 klarkommt gegen GCN.
Das ist der neueste Treiber (steht im Benchmark). Und HQ-AF ist schlicht und ergreifend fair. GCN hat durch neue Treiber etwas zugelegt, suckt aber immer noch.
MfG,
Raff
Ronny145
2012-03-07, 22:06:07
Das ist der neueste Treiber (steht im Benchmark). Und HQ-AF ist schlicht und ergreifend fair. GCN hat durch neue Treiber etwas zugelegt, suckt aber immer noch.
MfG,
Raff
Auf anderen Seiten liegt Tahiti 10-15% vorne in BF3. Zwar kein GCN Vorzeigespiel, aber es gibt schlimmeres.
Tahiti XT ist ja vor GF110, aber eben nur schwach (in 2.560 x 1.600 ist's besser als in 1080p). Ich wollte damit nur sagen, dass es ziemlich arm wäre, wenn Kepler Junior da nicht schneller ist. ;)
MfG,
Raff
Ronny145
2012-03-07, 22:26:15
Tahiti XT ist ja vor GF110, aber eben nur schwach (in 2.560 x 1.600 ist's besser als in 1080p). Ich wollte damit nur sagen, dass es ziemlich arm wäre, wenn Kepler Junior da nicht schneller ist. ;)
MfG,
Raff
Aber eben nur 5% bei euch. Tahiti liegt im Schnitt aller Spiele bei CB und ht4u 15% und 21% vorne, Battlefield 3 bewegt sich zwischen 10-15% auf anderen Seiten. Damit liegt BF3 nicht so weit unter dem Durschnitt. Bei euch liegt Tahiti 10% im Schnitt vor der GTX580, BF3 hier also nur 5% unter Durschnitt.
2.560 x 1.600: Tahiti XT +13 Prozent vor GF110. Im Heft-Index sind's im Mittel IIRC gerade auch schon 12 Prozent (Indexwert)
MfG,
Raff
Nakai
2012-03-07, 22:36:12
Tahitis mickriges Frontend behindert einfach dessen Leistung. Tahiti könnte locker 20% schneller sein. Eigentlich müsste er fast 3 mal so schnell wie Cape Verde sein, wenn man die Rohleistung skaliert. Er kommt leider nur auf 2,4fache Leistung. AMD müsste nur das Frontend mal richtig auf Vordermann bringen und das Ding wäre locker 20% schneller.
Da braucht man keine Wunschvorstellungen haben, GK104 wird schneller als Tahiti, da braucht man sich nur Pitcairn angucken, wo die Leistung hinverpufft.
Mancko
2012-03-07, 23:06:52
Da braucht man keine Wunschvorstellungen haben, GK104 wird schneller als Tahiti, da braucht man sich nur Pitcairn angucken, wo die Leistung hinverpufft.
Na daran mag ich noch nicht so recht glauben. Wenn doch, wird das für AMD aber eine ganz bittere Pille wenn GK110 kommt. So schnell haben die das Frontend dann nicht umgebaut.
Blediator16
2012-03-07, 23:11:05
Na daran mag ich noch nicht so recht glauben. Wenn doch, wird das für AMD aber eine ganz bittere Pille wenn GK110 kommt. So schnell haben die das Frontend dann nicht umgebaut.
Stimmt.Wieso dann nicht nochmal ein halbes Jahr warten und auf den SI Refresh warten? :freak: Dann, aaaaber dann...ja dann... :D
horn 12
2012-03-07, 23:12:41
Dennoch wenn jetzt schon Kartenhersteller verkünden dass es anfangs KEINE OC Versionen des GF104 geben wird hat man wohl die GPU auf ziemlich das Maximum gepushtum gegen Zahiti besser darstehen zu können und das OC Potential wird wohl erst mit der Zeit besser werden, sodaß OC Versionen (100+ Mhz) wohl erst reichlich später folgen könnten, sage könnten!
Ailuros
2012-03-07, 23:14:16
Beide IHVs werden ihre Zeit brauchen etwas mehr Potential aus einer neuen Architektur durch die Treiber herauskitzeln zu koennen und AMD ist in diesem Bereich zweifellos im Vorsprung.
Wer glauben sollte dass NV keine Treiber-Optimierungen mit Kepler brauchen wird, taeuscht sich ziemlich stark.
Blediator16
2012-03-07, 23:15:08
Dennoch wenn jetzt schon Kartenhersteller verkünden dass es anfangs KEINE OC Versionen des GF104 geben wird hat man wohl die GPU auf ziemlich das Maximum gepushtum gegen Zahiti besser darstehen zu können und das OC Potential wird wohl erst mit der Zeit besser werden, sodaß OC Versionen (100+ Mhz) wohl erst reichlich später folgen könnten, sage könnten!
Anfangs wirds wohl keine geben, weil man scheinbar keine Karten für WerksOC hat. Falls deine Behauptung überhaupt stimmt.
Ailuros
2012-03-07, 23:18:24
Dennoch wenn jetzt schon Kartenhersteller verkünden dass es anfangs KEINE OC Versionen des GF104 geben wird hat man wohl die GPU auf ziemlich das Maximum gepushtum gegen Zahiti besser darstehen zu können und das OC Potential wird wohl erst mit der Zeit besser werden, sodaß OC Versionen (100+ Mhz) wohl erst reichlich später folgen könnten, sage könnten!
Es ist nur ein beauftragter Hersteller der den ersten Schub an SKUs herstellen wird. Ob und wie uebertaktbar die ersten GPUs wirklich sind werden wir erst nach dem eigentlichem launch sehen.
Hugo78
2012-03-08, 00:10:47
Es ist nur ein beauftragter Hersteller der den ersten Schub an SKUs herstellen wird.
War ja immer so, dass die Boardpartner für die erste Charge nur ihren Sticker auf Ref.Designkarten packen.
Kein Idealzustand wenn das Ref.Design saugt, aber das war ja zuletzt bei NV lang nicht mehr der Fall.
redfirediablo
2012-03-08, 00:45:50
So limitiert wie am Anfang die Stückzahlen wohl seien werden, kann sich NV auch nicht leisten die Karte zu günstig anzubieten, auch wenn Sie das wohl ursprünglich vor hatten. Nur ein Hersteller klingt ganz und gar nicht gut.
Ich tippe auf 449$, schlechte Verfügbarkeit und Leistung in etwa zw. 7950 und 7970. Von der Preisgestaltung her hat wohl AMD alles richtig gemacht, ich sehe jedenfalls keine großen Anpassungen auf uns zukommen...
Blediator16
2012-03-08, 01:42:31
https://twitter.com/#!/stephentotilo/status/177526590236917761
Last year's Epic Games' Unreal Engine 3 Samritan demo ran on 3 GTX 580 Nvidia cards. Today, Epic is showing it on 1 new Kepler Nvidia card
Da bin ich ja mal gespannt :freak:
Kann mir nicht vorstellen, dass die Demo noch die alte ist. Da wurde sicher so einiges optimiert oder man hat nur 3 580 reingesteckt obwohl evtl. 2 gereicht hätten um bösen Überraschungen aus dem Weg zu gehen.
dargo
2012-03-08, 02:30:04
Zum x-ten Mal - es waren zwei GTX580 fürs Rendering und eine für GPU-PhysX.
dargo
2012-03-08, 03:22:44
Ja.
dildo4u
2012-03-08, 03:57:55
Epic hat ja 2.5 Tera Flops für die Demo veranschlagt,damit dürfte schon die kleine Karte ordentlich zulegen was Rechenleistung angeht.
boxleitnerb
2012-03-08, 05:50:59
http://www.gamesindustry.biz/articles/2012-03-08-gdc-epic-aiming-to-get-samaritan-into-flash
Speaking of the "Samaritan" demo, Rein noted that when they showed it off last year, it took three Nvidia cards and a massive power supply to run. However, they showed it off the demo again that ran using a new, not yet released Nvidia card and one 200 watt power supply.
Die haben sicher FXAA verwendet, darum dreht sich ein guter Teil des Artikels hier:
http://www.geforce.com/News/articles/epic-shows-samaritan-demo-running-on-next-generation-nvidia-kepler-gpu
Ob die fps ähnlich waren, wird auch nicht gesagt. Kann ja sein, dass mit 2+1 580ern 40fps erreicht wurden, jetzt nur 30-35 oder so. Marketing, wir lieben es :D
Aber 200W ist verdammt wenig, selbst wenn es nur für die Karte wäre. Damit ist eine TDP von unter 200W eigentlich bestätigt.
M4xw0lf
2012-03-08, 07:52:31
(...) Aber 200W ist verdammt wenig, selbst wenn es nur für die Karte wäre. Damit ist eine TDP von unter 200W eigentlich bestätigt.
Eher eine durchschnittliche Leistungsaufnahme von unter 200W in dieser Demo. Die TDP ist ja dann doch eher gleichbedeutend mit der maximalen Leistungsaufnahme (zumindest wird es immer äquivalent verwendet) und könnte auch über den 200W liegen.
boxleitnerb
2012-03-08, 07:55:19
Dann ist die Frage, wie sehr am Limit das Netzteil betrieben wurde. Es kann also beides sein.
Palpatin
2012-03-08, 08:00:34
Ich tippe auf 449$, schlechte Verfügbarkeit und Leistung in etwa zw. 7950 und 7970.
Hmm wenn so kommt ist von der neuen Gen für den Gamer imo nur die 7850 und die 7870 einigermaßen sexy.
Ich tipp imo auch auf 7970 Leistung und 7970 Preis. Etwas weniger Leistungsaufnahme, die üblichen NV-Vorteile, als Nachteil vermutlich weniger OC-Potential, anfangs keine Custom Designs und weniger VRAM.
Kann man dann nur hoffen das bei beiden die Verfügbarkeit schnell steigt und die Preise fallen.
Gipsel
2012-03-08, 09:34:18
Dann ist die Frage, wie sehr am Limit das Netzteil betrieben wurde. Es kann also beides sein.
Es war sicher kein 200W Netzteil. Die meinem im Artikel einen 200W Verbrauch nur für die Karte.
boxleitnerb
2012-03-08, 09:42:22
Wie kannst du so sicher sein?
Ach ja, Powertune bekommt Gesellschaft. Dieses nette Bildchen ist im aktuellen 295er Treiber versteckt in einer dll.
http://www.abload.de/img/j97nd55asbvl2gvib.jpg (http://www.abload.de/image.php?img=j97nd55asbvl2gvib.jpg)
Scheint noch nicht ganz fertig zu sein. Laut Beschreibung:
"You can configure global and program-specific settings for GPU power and performance."
Das zweite scheint der fps-Limiter zu sein.
Deinorius
2012-03-08, 10:21:23
Wie kannst du so sicher sein?
Es geht hier immerhin um PCs und nicht um Konsolen.
Ach ja, Powertune bekommt Gesellschaft. Dieses nette Bildchen ist im aktuellen 295er Treiber versteckt in einer dll.
Obs veröffentlicht wird, wenn Kepler erscheint?
AnarchX
2012-03-08, 11:11:32
The puppy is here... :D
http://venturebeat.files.wordpress.com/2012/03/mark-rein.jpg
http://venturebeat.com/2012/03/07/browser-based-games-get-real-3d-graphics-with-latest-unreal-engine-and-flash-technology/
http://www.abload.de/img/s20120308045811399e4w6.jpg
http://www.brightsideofnews.com/news/2012/3/7/epic-games-shows-off-unreal-engine-3-in-flash-and-kepler.aspx
Also ein Radial-Lüfter mit Direct Exhaust.
Henroldus
2012-03-08, 11:26:35
Also ein Radial-Lüfter mit Direct Exhaust.
wer weiß welch Holzklotz diesmal drinsteckt.
Ich würde da nichts drauf geben.
Godmode
2012-03-08, 11:27:06
Soll das GK104 sein oder GK110?
AnarchX
2012-03-08, 11:27:55
Zu 95% GK104 aka GTX 680.
wer weiß welch Holzklotz diesmal drinsteckt.
Ich würde da nichts drauf geben.
Das dürfte wohl schon eine Endversion sein, anders als bei Fermi ein halbes Jahr vor dem Launch.
Winter[Raven]
2012-03-08, 11:29:57
Moment... diese GPU-Namen verwirren mich jetzt bissel.... GK104 ist der Zwischenkicker, was wäre dann der Highend Kepler von GPU Namen?
boxleitnerb
2012-03-08, 11:31:23
TNT 3 Ultra :D
Ne 700er Serie wahrscheinlich, also GTX780.
AnarchX
2012-03-08, 11:32:07
Mit GK110 und GK106 dürfte wohl die GeForce 700 Serie kommen, mit einem deutlich besseren Preis-Leistungsniveau.
Ebenso dürfte es dann eine Kepler-only GeForce 700M Serie geben.
boxleitnerb
2012-03-08, 11:36:19
Hm, wenn das so kommt, heißt das der klassische Kepler-Refresh kommt auch später? Wie könnte der überhaupt aussehen? Einfach mehr Takt?
AnarchX
2012-03-08, 11:39:06
Ein Half-Node steht so bald nicht an und GF11x war wohl eher etwas einmaliges, da hier größeres Potential brach lag.
Vielleicht hat man bei der Feature-Liste Potential für einen Refresh:
Multi-Display, D3D11.1, QuickSync/VCE-Alternative, ZeroCore,...
boxleitnerb
2012-03-08, 11:40:38
Multi-Display gibts jetzt schon laut Kyle. Jede DX11-GPU kann auch DX11.1 hab ich neulich gelesen. Und der Rest...dafür können sie kein Geld verlangen. Es muss schon wie üblich 10-20% mehr Performance sein, sonst packt doch keiner seine Börse aus.
PrefoX
2012-03-08, 11:43:12
Wie wollen die denn bitte die GraKa mit ner Tüte drum kühlen?
Ich sag Fake ;D
AffenJack
2012-03-08, 11:44:01
Ein Half-Node steht so bald nicht an und GF11x war wohl eher etwas einmaliges, da hier größeres Potential brach lag.
Vielleicht hat man bei der Feature-Liste Potential für einen Refresh:
Multi-Display, D3D11.1, QuickSync/VCE-Alternative, ZeroCore,...
Huang hat mit Fermi doch eigentlich angekündigt, dass immer nen Midlifekicker kommen wird. Also würde ich Gf11x nicht unbedingt als was einmaliges ansehen oder schmeißt man das gleich wieder über Bord?
Wobei Gk104 als 6xx und GK110 als 7xx auch schon gewisserweise als 2 Generationen gelten könnten.
AnarchX
2012-03-08, 11:45:04
Ich sag Fake ;D
Es ist Mark Rein und ein bisher nicht gesehenes GeForce Design.
Natürlich kann es ein Mockup sein, aber der Launch soll laut heise nicht sehr weit entfernt sein.
PrefoX
2012-03-08, 11:47:42
Es ist Mark Rein und ein bisher nicht gesehenes GeForce Design.
Natürlich kann es ein Mockup sein, aber der Launch soll laut heise nicht sehr weit entfernt sein.
eigentlich sollte das auch nur ein Scherz sein, weil man GraKas ja nicht in einer "Tüte" betreibt.
Ich denke schon das es eine lauffähige Graka ist.
dargo
2012-03-08, 12:33:41
Epic hat ja 2.5 Tera Flops für die Demo veranschlagt,damit dürfte schon die kleine Karte ordentlich zulegen was Rechenleistung angeht.
Geht dieses Rechenleistung-Geblubber denn wieder los? Dann reicht ja auch ein Cypress @HD5870. :ulol:
Ob die fps ähnlich waren, wird auch nicht gesagt. Kann ja sein, dass mit 2+1 580ern 40fps erreicht wurden, jetzt nur 30-35 oder so. Marketing, wir lieben es :D
Afaik lief die Samaritan-Demo mit 3 GTX580 in Full-HD und nur 30fps. Das mag für eine Vorführung ausreichen. Fürs selbst spielen sind die fps eh viel zu niedrig.
boxleitnerb
2012-03-08, 12:41:20
Das sieht doch flüssiger aus als 30fps. Das war aber auch nicht mein Punkt - wenn die fps unterschiedlich waren, wovon bei unterschiedlicher Hardware eigentlich auszugehen ist (ich meine, wie wahrscheinlich ist es, dass man mit zwei Konfigurationen und gleichen Settings dieselben fps erzielt), muss man vorsichtig sein, bevor man GK104=3xGTX580 schreit :)
Aber das nur am Rande, es gibt ja noch genügend andere Stolpersteine beim Vergleich letztes Jahr vs. heute.
Iruwen
2012-03-08, 12:45:19
Hauptsache man sieht das Teil überhaupt mal, und wenns nur in einer Antistatiktüte ist. Geschickter Schachzug um die Leute zu beruhigen, auch dass es nicht jemand von NV selbst war.
Man From Atlantis
2012-03-08, 12:56:25
already got the GK104 kind of card, to identify less than a model, the stream processors 1536, about 5% lower than the HD7970 in performance, seconds away relatively satisfied with the HD7950, temperature and noise, close to GTX560ti It is said that the price 3299-3499
http://weibo.com/fengke117
GK104GTX
http://www.abload.de/img/gtx680_mfa_keplerx7uud.jpg
http://www.redquasar.com/forum.php?mod=viewthread&tid=7234&fromuid=1
boxleitnerb
2012-03-08, 12:57:47
Man, I just wanted to post this ;)
Schaut auf die Einprägung auf dem Kühler...670 Ti, nicht 680.
In was für einer Währung sind die Preise?
3500 Taiwan Dollar: 90 Euro :D
3500 Renminbi: 418 Euro
3500 Hongkong Dollar: 340 Euro
Ronny145
2012-03-08, 13:06:50
522-554 USD wären das wenn ich von Renminbi ausgehe. Wie viel USD beträgt die HD7970 UVP nochmal?
Gipsel
2012-03-08, 13:06:53
Jede DX11-GPU kann auch DX11.1 hab ich neulich gelesen.Aber es stimmt nicht. ;)
Man From Atlantis
2012-03-08, 13:07:41
Man, I just wanted to post this ;)
Schaut auf die Einprägung auf dem Kühler...670 Ti, nicht 680.
In was für einer Währung sind die Preise?
3500 Taiwan Dollar: 90 Euro :D
3500 Renminbi: 418 Euro
3500 Hongkong Dollar: 340 Euro
Ja you are right 670Ti :wink:
It's Chinese Hangzhou, Zhejiang something ;D
aufkrawall
2012-03-08, 13:09:04
Schaut auf die Einprägung auf dem Kühler...670 Ti, nicht 680.
Macht ja auch Sinn.
Das impliziert, dass das noch nicht die Karte ist, die gegen die 7970 antritt, sondern dass da noch was kommt.
Godmode
2012-03-08, 13:23:02
Vielleicht wird ja hinter verschlossenen Türen auch zu GK110 was gesagt und dann könnte da auch mal was rausleaken...
boxleitnerb
2012-03-08, 13:25:48
Wird es dann diese Generation gar keine 680 geben?
GK104 wird zu 660(Ti) und 670(Ti), GK104x2 zu 680 kann ich mir nicht so vorstellen.
AnarchX
2012-03-08, 13:26:01
Macht ja auch Sinn.
Das impliziert, dass das noch nicht die Karte ist, die gegen die 7970 antritt, sondern dass da noch was kommt.
Es soll doch zwei GK104-Karten geben: GTX 670 Ti + GTX 680?
Bezieht sich der Preis auf die GTX 670 Ti?
Wird es dann diese Generation gar keine 680 geben?
GK104 wird zu 660(Ti) und 670(Ti), GK104x2 zu 680 kann ich mir nicht so vorstellen.
Vielleicht:
GTX 690 (Dual-GK104)
GTX 680
GTX 670 Ti (Salvage GK104)
GTX 560Ti bis GTX 560SE (GF114 Abverkauf)
GTX 650 (GK107)
Ronny145
2012-03-08, 13:27:24
Es soll doch zwei GK104-Karten geben: GTX 670 Ti + GTX 680?
Bezieht sich der Preis auf die GTX 670 Ti?
GTX 660 Ti kein GK104?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.