PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

ndrs
2012-01-04, 16:55:54
Eine GTX460 hat ein 65% besseres Perf/Watt Verhältnis als die GTX285. Der unterliegende Chip hat 39% mehr Transistoren und ist 24% kleiner. Und genauso wie Tahiti handelt es sich um eine vollkommen neue Architektur.
Die 460er erschien sehr spät und hatte schon die meisten Verbesserungen der 500er-Serie drin, ist also strenggenommen schon Fermi-Refresh. Ich würde beim allerersten Kepler nicht die selben Maßstäbe ansetzen.

LovesuckZ
2012-01-04, 17:02:14
Es geht um die Effizienz-Entwicklung von GTX8800 --> G92, was ein Shrink entspricht.
Und bei Shrinks sind Effizienz-Steigerung nicht unwichtig, vorallem wenn man sich jetzt so viel durch die 28nm-Fertigung erwartet.

Und was hat das auch nur im geringsten mit Kepler, der Architektur und TSMC's 28nm Prozess zu tun? :confused:
Die 6800 Ultra, bei IBM in 130nm gefertigt, verbraucht nicht mehr als die 5900 Ultra und war 2x so schnell: http://techreport.com/articles.x/6572/28

Die 8800GTX verbrauchte auch knapp 50 Watt mehr als die 7900GTX, müssten 50% mehr sein, und war 2x+ schneller.

Das hat genauso keinen Belang, zeigt aber, dass das Design maßgeblich für eine Steigerung verantwortlich ist.


Das war nicht das Thema.
Das G92 auch schon damals erst 5 Monate später ausgereift rausbrachte, (sonst hätte Nvidia ja gleich 8800 GTS als 9800 GTX bezeichnet und den Preis mehr dem 8800GT angeglichen) wollte ich nur anmerken.

Damals war das noch egal.

Junge, die g92 Chips auf den 9800GTX Karten sind die gleichen wie auf den 8800GT(S) Karten. g92 kam im Oktober und damit vor AMD. Und war effizienter. Lebe einfach damit. Und Spamme doch bitte nicht diesen Thread mit 4 Jahre alten Chips und Prozessstrukturen zu!

Die 460er erschien sehr spät und hatte schon die meisten Verbesserungen der 500er-Serie drin, ist also strenggenommen schon Fermi-Refresh. Ich würde beim allerersten Kepler nicht die selben Maßstäbe ansetzen.

Naja, GF104 lebte von den Erfahrungen von GF100. Außerdem kamen alle Chips nach GF100 mit A1 - also dem Tape-Out. Und soviel Zeit zwischen GF104 und GF100 liegt nun auch nicht. Tape-Out von GF104 müsste wohl kurz nach A2 von GF100 geschehen sein.

robbitop
2012-01-04, 17:11:33
Naja die NV40 und G80 sollte man lieber nicht in den Vergleich einbeziehen. Ihre Vorgänger waren ziemliche Krüppelarchitekturen.
Das scheint heute weder bei ATI noch bei NV der Fall zu sein. Man befindet sich schon auf einem sehr guten Grundgerüst hinsichtlich punch pro Transistor.
Befindet man sich auf einem Krüppel, ist es natürlich extrem leicht mit einer anständigen Nachfolgearchitektur die großen Performancesprünge zu schaffen.

chrigeligigeli
2012-01-04, 17:14:47
Junge, die g92 Chips auf den 9800GTX Karten sind die gleichen wie auf den 8800GT(S) Karten. g92 kam im Oktober und damit vor AMD. Und war effizienter. Lebe einfach damit. Und Spamme doch bitte nicht diesen Thread mit 4 Jahre alten Chips und Prozessstrukturen zu!

jungchen, die erste g92 war die 8800gt, kam ziemlich in den letzten tagen des oktobers 2007 raus.

die erste rv670 karte war die 3870, welche mitte november lieferbar war. release date finde ich gerade nicht.

also immer schön ball flach halten und den thread nicht zumüllen, da gehörst du nämlich zu den schlimmsten!

und jetzt btt.

LovesuckZ
2012-01-04, 17:17:24
Naja die NV40 und G80 sollte man lieber nicht in den Vergleich einbeziehen. Ihre Vorgänger waren ziemliche Krüppelarchitekturen.
Das scheint heute weder bei ATI noch bei NV der Fall zu sein. Man befindet sich schon auf einem sehr guten Grundgerüst hinsichtlich punch pro Transistor.
Befindet man sich auf einem Krüppel, ist es natürlich extrem leicht mit einer anständigen Nachfolgearchitektur die großen Performancesprünge zu schaffen.

Wir reden jedoch bei G80 um den selben Prozess und bei NV40 um einen ähnlichen bei IBM. Und in beiden Fällen entstand die Effizienzverbesserung zum Großteil durch das Design.

Und das Design wird laut Huang eben immer mehr zum entstandenen Punkt. Shrinks sollen nicht mehr weiter die meiste Verbesserung bringen. Und Huang selbst sagt doch, dass Fermi nicht effizient genug war. Man hat also neben den Shrink auch das Design als Anlaufstelle ausgemacht.

jungchen, die erste g92 war die 8800gt, kam ziemlich in den letzten tagen des oktobers 2007 raus.

die erste rv670 karte war die 3870, welche mitte november lieferbar war. release date finde ich gerade nicht.

also immer schön ball flach halten und den thread nicht zumüllen, da gehörst du nämlich zu den schlimmsten!

und jetzt btt.

Aha. Und was habe ich geschrieben? :rolleyes:

Ailuros
2012-01-04, 17:25:28
Aber das ist doch kein Trollen. Wenn man annimmt, dass die Effizienz im Vergleich zu AMD unverändert bleibt und man z.B. die 560Ti mit der 6950 vergleicht, dann kommt man von Tahiti XT ausgehend schon sehr schnell auf die spekulierten TDP Werte. Dass die Indizien nicht für diese Annahme sprechen, mag ich nicht bestreiten. Aber bis GK104 vorgestellt wird, ist die Annahme möglich, wenn auch nicht fundiert.
Ich bestreite ja auch gar nicht, dass AMD mit der "Banane" wohl möglicherweise weit daneben gegriffen hat und das es dafür einige Anhaltspunkte gibt.

GK104 hat so manchen fundamentalen Unterschied zu GF114 und noch mehr zu Tahiti was die Architektur betrifft. Von dem abgesehen sehe ich kein einziges logisches Argument dass mich ueberzeugen koennte dass GK104 einen 250W TDP haben wird mit kleinerer Leistung einer TahitiXT@210W.

Ich werde nicht sagen dass es unmoeglich ist, aber GK104 ist von mehreren Aspekten um einiges einfacher als chip als Tahiti dass wirklich etwas wirklich miserabel laufen muss dass ploetzlich ein performance chip so viel verbraucht wie ein high end chip. Noch schlimmer keiner hat die blasseste Ahnung wie GK110 ueberhaupt aussieht und die frei aus der Luft gegriffene Logik oben will ihm sogar gleich 325W TDP zuschreiben.

Falls AMD die Konkurrenz unterschaetzt hat werden sie es auch ausbaden muessen. Von dem abgesehen ein zu hoher TDP deutet auf eine "Banane", ergo entscheidet Euch endlich was daraus werden soll, ueberhaupt da noch keiner weiss wo der eigentliche TDP liegt.


Genau. Da liegen wir auf einer Welle.
Es ist schlicht Schwachsinn, Tahiti schlechtzureden, weil ein Produkt oberhalb seiner Liga möglicherweise schneller ist.
Er wäre schlecht, wenn das Konkurrenzprodukt aus der gleichen Liga besser wäre.

Persoenlich meckere ich seit einiger Zeit lediglich um die Tahiti MSRPs. TahitiXT wird einen MSRP von $549 haben; wenn jetzt die Konkurrenz ein Produkt hat mit nicht besonders grossen Leistungsabstand aber fast 50% Preis-unterschied, dann wuerde ich mal gerne Deine Logik hoeren was "besser" genau bedeutet.

Ailuros
2012-01-04, 17:27:38
Wer weiterhin Pullover stricken will ueber vergangene Architekturen vom letzten Jahrzent gerne, aber macht Euch gefaelligst einen relevanten Thread woanders dafuer auf. Bitte zurueck zum Thema. Merci.

AwesomeSauce
2012-01-04, 17:28:31
immer gern, nur wenn man seit zich Seiten dumm von der Seite angemacht wird, dann muss man jemanden auch mal wieder aufn Bode holen, auch wenn das normal nicht meine Art ist.
Ich kann mich nur wiederholen: Kindergarten. Du bist etwas zu sehr von dir überzeugt. Leute auf den Boden zu holen ist nicht deine Arbeit. Erzähl etwas, das zum Thema beiträgt, oder schweig einfach. Es ist nicht auszuhalten.
Btt:
GK104 soll aber nach den Gerüchten langsamer werden als Tahiti Xt, welchen ihr mehr oder weniger als Flop darstellt, was ist dann GK104, der ja ähnlich groß werden soll.

Das macht keinen Sinn was ihr erzählt.
Es ist hoffnungslos:facepalm: GK104 wird etwas kleiner sein als Tahiti und etwa auch um denselben Prozentsatz langsamer, dies aber bei markant günstigerem Preis. Und wenn du jetzt mit dem achsotollen OC-Potential von Tahiti kommst, reise ich höchstpersönlich zu dir rüber und verpass dir eine:D (take it with a grain of salt)

Blediator16
2012-01-04, 17:29:07
Persoenlich meckere ich seit einiger Zeit lediglich um die Tahiti MSRPs. TahitiXT wird einen MSRP von $549 haben; wenn jetzt die Konkurrenz ein Produkt hat mit nicht besonders grossen Leistungsabstand aber fast 50% Preis-unterschied, dann wuerde ich mal gerne Deine Logik hoeren was "besser" genau bedeutet.

Wieso sollte NV eine MRSP von 50% des Tahiti XT ansetzen. Damit würden sie ihre 580er vollkommen abschießen oder wer sollte da noch eine kaufen wollen, wenn man dafür eine 28nm GPU bekommt?
Auch wenn es so kommen sollte. Wieso an einer UVP aufhängen. Die Händler werden das sowieso regeln. Einer im HWluxx Forum hat seine z.b für 520€ bekommen.

LovesuckZ
2012-01-04, 17:33:07
Weil angeblich nach GK104 eben GK10(1)0 kommt. Oder soll nVidia diese Karten für $750 verkaufen?!

Blediator16
2012-01-04, 17:35:01
Weil angeblich nach GK104 eben GK10(1)0 kommt. Oder soll nVidia diese Karten für $750 verkaufen?!

Dann hat AMD den Preis anzupassen:biggrin: Zumal die Situation doch schon merkwürdig ist.

Bucklew
2012-01-04, 17:47:28
Glauben heißt nicht wissen. Keiner von uns beiden hat beide Karten, um das nochmal nachzustellen. Legen wir diesen Punkt bei. Vieleicht hat GT200 ein paar % bekommen, die G80 nicht bekam. Ich kann aus eigener Erfahrung mit der GPU sagen, dass G80 sehr lange und insgesamt einiges an Treiberperformanceverbesserung bekam (war ja damals auch eine frische µ-Arch).
Nur noch soviel sei zum Thema gesagt: Ich habe sowohl G80 als auch GT200 oft genug gebencht, um diese Aussage treffen zu können. Das war zwar kein Crysis und über einen Teil der Anwendungen darf ich nicht mal was sagen, aber die 100% waren da. Natürlich nicht bei einem Renderer, der komplett CPU-Bound war.

Genau. Da liegen wir auf einer Welle.
Es ist schlicht Schwachsinn, Tahiti schlechtzureden, weil ein Produkt oberhalb seiner Liga möglicherweise schneller ist.
Er wäre schlecht, wenn das Konkurrenzprodukt aus der gleichen Liga besser wäre.
Das entscheidende Detail ist allerdings, dass GK104 eine Transistorzahl ~3 Millarden (ergo GF110 Niveau) nachgesagt wird. Das heißt wenn der +/- 10% schneller/langsamer ist als Tahitit, würde Nvidia diese Leistung immer noch mit 25% weniger Transistoren erreichen. Das wäre ziemlich beeindruckend.

Außer natürlich AMD hat sich mal wieder um ne Millarde Transistoren verrechnet, soll ja öfter mal vorkommen ;D

V2.0
2012-01-04, 17:49:20
Leistung ist so relativ. Ich glaube nicht, dass GK104 mehr GPGPU Leistung hat oder mehr DP Leistung.

robbitop
2012-01-04, 17:50:36
Persoenlich meckere ich seit einiger Zeit lediglich um die Tahiti MSRPs. TahitiXT wird einen MSRP von $549 haben; wenn jetzt die Konkurrenz ein Produkt hat mit nicht besonders grossen Leistungsabstand aber fast 50% Preis-unterschied, dann wuerde ich mal gerne Deine Logik hoeren was "besser" genau bedeutet.
Im moment kann AMD ohne einen gleichstarken oder schnelleren Konkurrenten diesen Preis verlangen. Später nicht mehr.
Angebot und Nachfrage - absolut normal und legitim.

Mit besser meine ich eine höhere Klasse, die natürlich bei gleichem Fertigungsprozess auch mehr Leistung bringt - völlig klar.

robbitop
2012-01-04, 17:52:24
Nur noch soviel sei zum Thema gesagt: Ich habe sowohl G80 als auch GT200 oft genug gebencht, um diese Aussage treffen zu können. Das war zwar kein Crysis und über einen Teil der Anwendungen darf ich nicht mal was sagen, aber die 100% waren da. Natürlich nicht bei einem Renderer, der komplett CPU-Bound war.

Nunja - hier geht es aber nicht um Quadro oder Tesla Anwendungen (wofür GT200 ohne Frage besser ist) - sondern um herkömmliche Spiele. ;)


Das entscheidende Detail ist allerdings, dass GK104 eine Transistorzahl ~3 Millarden (ergo GF110 Niveau) nachgesagt wird. Das heißt wenn der +/- 10% schneller/langsamer ist als Tahitit, würde Nvidia diese Leistung immer noch mit 25% weniger Transistoren erreichen. Das wäre ziemlich beeindruckend.
Wenn das so kommt, stimme ich zu!

LovesuckZ
2012-01-04, 17:53:30
Leistung ist so relativ. Ich glaube nicht, dass GK104 mehr GPGPU Leistung hat oder mehr DP Leistung.

GK104 ist eine GPU für den Gaming-Markt. Die braucht kein ECC, kein DP. Das ist ja die Ironie: Fermi wurde immer nachgesagt, dass man viel zu wenig Wert für "Graphics" gelegt hätte. Dabei ist es AMD mit Tahiti, die für Graphics kaum Transistoren aufgewendet haben.

Im HPC-Markt muss AMD gegen GK1x0 antreten. Im PC Markt gegen alle Kepler-Ausführungen.

Ailuros
2012-01-04, 17:53:51
Wieso sollte NV eine MRSP von 50% des Tahiti XT ansetzen.

Ich sagte weniger als 50%...weil es ein logischer Preis ist fuer eine Performance GPU? Tahiti XT ist eben eine "high end GPU"; Gott hilf man darf ja das Ding heutzutage nicht als performance bezeichnen sonst stehen sofort Teer und Federn bereit.

Damit würden sie ihre 580er vollkommen abschießen oder wer sollte da noch eine kaufen wollen, wenn man dafür eine 28nm GPU bekommt?
Auch wenn es so kommen sollte. Wieso an einer UVP aufhängen. Die Händler werden das sowieso regeln. Einer im HWluxx Forum hat seine z.b für 520€ bekommen.

GF110 ist EOL seit Dezember 2011. Was die Haendler mit dem restlichen stock anstellen werden ist wohl ziemlich egal.

Im Notfall google nach wofuer MSRP genau steht.

Bucklew
2012-01-04, 17:56:00
Im moment kann AMD ohne einen gleichstarken oder schnelleren Konkurrenten diesen Preis verlangen. Später nicht mehr.
Angebot und Nachfrage - absolut normal und legitim.
Naja, bei den 5 Karten, die AMD wohl verkauft spielts eh keine große Rolle. Das Spielchen kennen wir ja schon von den letzten AMD-Launches.

Wenn die Verfügbarkeit besser wäre, würde AMD den Preis auch runterschrauben. Denn dann könnte die Karte auch für Leute mit den Topmodellen der letzten Generation lohnen, bei den aktuellen Preisen ist das schlicht nicht der Fall.

Nunja - hier geht es aber nicht um Quadro oder Tesla Anwendungen (wofür GT200 ohne Frage besser ist) - sondern um herkömmliche Spiele. ;)
Erkläre mir gerade mal den Unterschied zwischen einem Flugsimulator und Crysis.

Ailuros
2012-01-04, 17:57:28
Leistung ist so relativ. Ich glaube nicht, dass GK104 mehr GPGPU Leistung hat oder mehr DP Leistung.

Und wieviele genau Benutzer werden im Gegenfall eine Tahiti kaufen fuer GPGPU bzw. DP?

Nakai
2012-01-04, 17:59:56
Das entscheidende Detail ist allerdings, dass GK104 eine Transistorzahl ~3 Millarden (ergo GF110 Niveau) nachgesagt wird. Das heißt wenn der +/- 10% schneller/langsamer ist als Tahitit, würde Nvidia diese Leistung immer noch mit 25% weniger Transistoren erreichen. Das wäre ziemlich beeindruckend.

Ein Schelm wer Böses denkt...:rolleyes:

Nein, im Ernst du könntest recht haben. Aber ich gehe eher davon aus, dass GK104 nur mit Mühe und Not über GF110 kommt...jedenfalls, da wo Tahiti stark ist.

M4xw0lf
2012-01-04, 18:00:39
Das entscheidende Detail ist allerdings, dass GK104 eine Transistorzahl ~3 Millarden (ergo GF110 Niveau) nachgesagt wird. Das heißt wenn der +/- 10% schneller/langsamer ist als Tahitit, würde Nvidia diese Leistung immer noch mit 25% weniger Transistoren erreichen. Das wäre ziemlich beeindruckend.

Das wäre möglich, eine GTX580@28nm mit ~950MHz Takt sollte vermutlich ausreichen um Tahiti zu erreichen. Ist halt noch die Frage, ob (bzw. wie sehr) der Wegfall der Hotclock die Performance negativ beeinflusst.

Ailuros
2012-01-04, 18:01:15
Im moment kann AMD ohne einen gleichstarken oder schnelleren Konkurrenten diesen Preis verlangen. Später nicht mehr.
Angebot und Nachfrage - absolut normal und legitim.

Mit besser meine ich eine höhere Klasse, die natürlich bei gleichem Fertigungsprozess auch mehr Leistung bringt - völlig klar.

Ein Produkt aus der gleichen Liga das ein besseres Preis-/Leistungsverhaeltnis hat IST besser und es gibt gar nichts daran zu aendern, bezweifeln oder anders zu meinen.

GTX580 MSRP war bei $499 wenn's schon sein muss. Wenn der Kepler top dog mit gleichem MSRP antanzt sieht es wie genau aus gegen einen $549 MSRP einer eigentlichen Performance GPU?

Bucklew
2012-01-04, 18:03:21
GTX580 MSRP war bei $499 wenn's schon sein muss. Wenn der Kepler top dog mit gleichem MSRP antanzt sieht es wie genau aus gegen einen $549 MSRP einer eigentlichen Performance GPU?
Dann macht Jenson das gleiche wie Peter:
http://www.youtube.com/watch?v=5DnUhv86XWM

;D

Skysnake
2012-01-04, 18:03:54
Es ist hoffnungslos:facepalm: GK104 wird etwas kleiner sein als Tahiti und etwa auch um denselben Prozentsatz langsamer, dies aber bei markant günstigerem Preis. Und wenn du jetzt mit dem achsotollen OC-Potential von Tahiti kommst, reise ich höchstpersönlich zu dir rüber und verpass dir eine:D (take it with a grain of salt)

Les bitte nochmal was ich geschrieben hab. Einige meckern hieran der Leistung von Tahiti XT rum, ganz unabhängig vom Preis, und meinen das das Ding nichts taugt. Der wie von aber genannte GK104 Vergleich ist dann aber toll.

Hypothetische 10% kleiner, aber auch 10% langsamer. Wie kann das eine gut und das andere schlecht sein? DAS war mein Einwurf. Nichts sonst, und da darf man doch skeptisch sein oder meinste nicht?

Das ist das gleiche was LZ auch seit einigen Seiten vom Stapel lässt. Keller wird wie Zugang sagt min 2,5 mal so performant sein pro Watt, aber nVidia soll mit einer GK110 nur 60%schneller sein bei 250W, im Vergleich zur GTX580. Das passt nicht zusammen.

Solchen blödsinn muss ich aber Grad ständig hier lesen, weil scheinbarmanche Leute irgendwas bedroht sehen.

Ailuros
2012-01-04, 18:06:05
Nein, im Ernst du könntest recht haben. Aber ich gehe eher davon aus, dass GK104 nur mit Mühe und Not über GF110 kommt...jedenfalls, da wo Tahiti stark ist.

Es reicht wenn GK104 um so viel schneller ist als GF114 wie man von einer neuen Generation erwartet. Im Vergleich zu TahitiXT wird wohl keiner erwarten dass GK104 im Durschnitt schneller sein wird. Dass sich aber so manche Augenbrauce zocken wird beim durchlesen der echten unabhaengigen Messungen der Zukunft koennte ich schon erwarten.

AffenJack
2012-01-04, 18:10:17
Das ist das gleiche was LZ auch seit einigen Seiten vom Stapel lässt. Keller wird wie Zugang sagt min 2,5 mal so performant sein pro Watt, aber nVidia soll mit einer GK110 nur 60%schneller sein bei 250W, im Vergleich zur GTX580. Das passt nicht zusammen.

Solchen blödsinn muss ich aber Grad ständig hier lesen, weil scheinbarmanche Leute irgendwas bedroht sehen.

Klar passt das zusammen, Kepler setzt massiv auf mehr Rechenleistung und verliert dabei an Effizienz und andere Chipteile werden nicht so stark mitskaliert. Schon haste zwar mehr als 2,5 fache Gflop per W, aber bei Spielen kommt deutlich weniger an, weil andere Sachen limitieren.

LovesuckZ
2012-01-04, 18:12:02
Man sollte hier aber auch bedenken:
Tahiti hat "Graphics" für "Compute" geopfert. Der Front-End Aufbau ist weiterhin veraltet. Die Steigerung bei Tessellation kommt zu 90% vom neuen Cache-System.

Das macht die Sache für GK104 in Spielen so einfach: Durch das Front-End ist die Verzögerung deutlich geringer als bei AMD. Dadurch kann man mit weniger theoretischer Leistung ein ähnliches bis besseres Ergebnis erreichen.
Bei Compute oder Spielen mit viel Rechenaufwand kann sich das Blatt drehen, aber relevant ist das kaum für den Durchschnitt.


Das ist das gleiche was LZ auch seit einigen Seiten vom Stapel lässt. Keller wird wie Zugang sagt min 2,5 mal so performant sein pro Watt, aber nVidia soll mit einer GK110 nur 60%schneller sein bei 250W, im Vergleich zur GTX580. Das passt nicht zusammen.

Das liegt daran, dass ich die bekannten Informationen vernünftig deuten kann. :)

Ailuros
2012-01-04, 18:12:02
Das ist das gleiche was LZ auch seit einigen Seiten vom Stapel lässt. Keller wird wie Zugang sagt min 2,5 mal so performant sein pro Watt, aber nVidia soll mit einer GK110 nur 60%schneller sein bei 250W, im Vergleich zur GTX580. Das passt nicht zusammen.

Solchen blödsinn muss ich aber Grad ständig hier lesen, weil scheinbarmanche Leute irgendwas bedroht sehen.

Ich lese in letzter Zeit viel zu selektiv Sachen hier im Forum und ich weiss ehrlich nicht was LZ behauptet hat, aber NV hat behauptet dass Tesla Kepler ueber 2.5x so viel sustainable DP TFLOPs haben wird pro Watt im Vergleich zu Tesla Fermi. Was soll daran so absurd sein wenn jetzt GK110 "nur" 60,70 oder 80% schneller sein sollte als desktop GPU im Vergleich zu einer GTX580 oder anders was genau hast Du die bisher gelieferten Schnaeppchen fuer Kepler nicht richtig verstanden?

NVIDIA brauchte eine Architektur die im desktop so viel mehr Leistung liefert wie man erwarten wuerde und fuer HPC zich Male mehr DP FLOPs. Man krempelt eventuell die Architektur so um dass man zich mehr SP FLOPs im Vergleich zum Vorgaenger erreicht, damit die DP FLOP Raten so steigen wie erwartet und dabei ist es total wurscht ob im desktop die Leistung pro FLOP eigentlich sinkt.

Rein aus der Luft gegriffene Zahlen....angenommen GK104 erreicht irgendwo um die 3 TFLOPs SP ergo ca. 2.5x TFLOPs im Vergleich zu GF114, kann sie wirklich auch 2.5x Mal so viel 3D Leistung erreichen im Vergleich zu GF114? Im allerbesten Fall ~+70%.

Nakai
2012-01-04, 18:13:32
Es reicht wenn GK104 um so viel schneller ist als GF114 wie man von einer neuen Generation erwartet. Im Vergleich zu TahitiXT wird wohl keiner erwarten dass GK104 im Durschnitt schneller sein wird. Dass sich aber so manche Augenbrauce zocken wird beim durchlesen der echten unabhaengigen Messungen der Zukunft koennte ich schon erwarten.

Da stimme ich dir auch zu. GK104 wird auf Tahiti-Regionen vorstoßen, aber auf Tahiti-Niveau wird es doch nicht reichen. Tahiti wird hier und da seine Vorteile haben.

Das ist das gleiche was LZ auch seit einigen Seiten vom Stapel lässt. Keller wird wie Zugang sagt min 2,5 mal so performant sein pro Watt, aber nVidia soll mit einer GK110 nur 60%schneller sein bei 250W, im Vergleich zur GTX580. Das passt nicht zusammen.

Nein, es steht eindeutig DP GFLOPs per Watt. Schon die ganzen anderen Folien, suggerieren, dass Kepler deutlich stärker auf GPGPU ausgelegt ist(NV geht ihren Weg konsequent weiter). Wie es mit der Spieleperformance aussieht, können wir spekulieren, der Rest wurde von NVs Marketing schon lange breitgetreten.

Skysnake
2012-01-04, 18:16:47
Da hast du durchaus recht, nur setzen eben genau diese Leute GPGPU=Gaming Leistung und sprechen auch davon, das GK104 mehr der Gamerchip wird und GK110 dann der GPGPU Knaller, womit AMD dann ja ganz unter geht.

Weißt was ich mein, da wird zurechtgebogen wies halt grad in den Kram passt.

Skysnake
2012-01-04, 18:26:34
Ich lese in letzter Zeit viel zu selektiv Sachen hier im Forum und ich weiss ehrlich nicht was LZ behauptet hat, aber NV hat behauptet dass Tesla Kepler ueber 2.5x so viel sustainable DP TFLOPs haben wird pro Watt im Vergleich zu Tesla Fermi. Was soll daran so absurd sein wenn jetzt GK110 "nur" 60,70 oder 80% schneller sein sollte als desktop GPU im Vergleich zu einer GTX580 oder anders was genau hast Du die bisher gelieferten Schnaeppchen fuer Kepler nicht richtig verstanden?

NVIDIA brauchte eine Architektur die im desktop so viel mehr Leistung liefert wie man erwarten wuerde und fuer HPC zich Male mehr DP FLOPs. Man krempelt eventuell die Architektur so um dass man zich mehr SP FLOPs im Vergleich zum Vorgaenger erreicht, damit die DP FLOP Raten so steigen wie erwartet und dabei ist es total wurscht ob im desktop die Leistung pro FLOP eigentlich sinkt.

Rein aus der Luft gegriffene Zahlen....angenommen GK104 erreicht irgendwo um die 3 TFLOPs SP ergo ca. 2.5x TFLOPs im Vergleich zu GF114, kann sie wirklich auch 2.5x Mal so viel 3D Leistung erreichen im Vergleich zu GF114? Im allerbesten Fall ~+70%.

Da geb ICH dir auch absolut recht. Kurz gesagt manchen gewisse Leute aber im Prinzip folgendes:

"ALTOOOOOOR!!11 wartet blos ab, nVidia zerfetzt AMDs Dreck mit Kepler in jedem Belang in der Luft. ALTOOOOORRR ihr werdet schon sehen"

Da bekomm ich Augenkrebs von und kann so'n geistigen Dünnpfiff nicht ertragen.

Knuddelbearli
2012-01-04, 18:29:42
Und das ist traurig genug. Bei einer neuen Generation erwarte ich Faktor 2. Erst recht wenn die Generationswechsel immer mehr Zeit in Anspruch nehmen. 40% ist schon beinahe ein etwas besserer Refresh.

zeig mir bitte einen shrink in den letzen 10 jahren einen faktor von *2 für die Leistung bei gleichen Verbrauch unter normalen einstellungen gab.

selbst die 8800 GTX schafft das nicht, die hatte im Bestfall ( 4x AA wo die 7950 extrem abkackt ) +80% bei ~30% mehr Verbrauch

Nakai
2012-01-04, 18:29:45
Dumme nervige Speku meinerseits:

GK100
1024SPs
128 TMUs
1,2GHz
1:1 DP-SP-Ratio
280W TDP

(1024*2*1,2)/(512*1*1,54) ~ 3,11

3,11 * (244/280) ~ 2,71

DP Effizienz um 2,71 gestiegen bei höherem Verbrauch und wohl 55% höherer SP-Performance(welche bei Spielen eher tragend ist).

Aber jegliches rumspekulieren ist nervtötend.

LovesuckZ
2012-01-04, 18:32:22
zeig mir bitte einen shrink in den letzen 10 jahren einen faktor von *2 für die Leistung bei gleichen Verbrauch unter normalen einstellungen gab.

selbst die 8800 GTX schafft das nicht

Klar schafft es die 8800GTX: http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/3/#abschnitt_leistung_mit_aaaf

Okay, die 7900GTX ist eigentlich kein sinniger Vergleich. Nimm die X1950XT von Ati.

Dumme nervige Speku meinerseits:

GK100
1024SPs
128 TMUs
1,2GHz
1:1 DP-SP-Ratio
280W TDP

(1024*2*1,2)/(512*1*1,54) ~ 3,11

3,11 * (244/280) ~ 2,71

DP Effizienz um 2,71 gestiegen bei höherem Verbrauch und wohl 55% höherer SP-Performance(welche bei Spielen eher tragend ist).

Aber jegliches rumspekulieren ist nervtötend.

Ich glaube weder an ein 1:1 Verhältnis noch an 128 TMUs. nVidia hat mit Fermi gezeigt, dass sie Texturleistung im Notfall opfern werden.

AnarchX
2012-01-04, 18:33:03
Dumme nervige Speku meinerseits:

GK100
1024SPs
128 TMUs
1,2GHz
1:1 DP-SP-Ratio
280W TDP

(1024*2*1,2)/(512*1*1,54) ~ 3,11

3,11 * (244/280) ~ 2,71

DP Effizienz um 2,71 gestiegen bei höherem Verbrauch und wohl 55% höherer SP-Performance(welche bei Spielen eher tragend ist).

Aber jegliches rumspekulieren ist nervtötend.

Und GK104 hat dann eine höhere SP-Leistung und mehr ALUs als GK100? :D

Ailuros
2012-01-04, 18:34:51
Dumme nervige Speku meinerseits:

GK100
1024SPs
128 TMUs
1,2GHz
1:1 DP-SP-Ratio
280W TDP

(1024*2*1,2)/(512*1*1,54) ~ 3,11

3,11 * (244/280) ~ 2,71

DP Effizienz um 2,71 gestiegen bei höherem Verbrauch und wohl 55% höherer SP-Performance(welche bei Spielen eher tragend ist).

Aber jegliches rumspekulieren ist nervtötend.

Nein zu ALLEM :D
Und das bloedeste ueberhaupt ist das angebliche 1:1 SP/DP ratio. Soooo besoffen sind NV engineers nun auch wieder nicht ;)

Skysnake
2012-01-04, 18:35:30
ziemlich hoher Takt finde ich, aber wohl machbar ohne Hot-clock mit 28nm, wenn man die Tahiti XT OCs anschaut.

Wo ich dann aber aussteig ist die 1:1 Ratio. Mir ist KEIN Chip bekannt, wo das gemacht wurde. Ich halte das für sehr unwahrscheinlich.

Knuddelbearli
2012-01-04, 18:36:23
Klar schafft es die 8800GTX: http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/3/#abschnitt_leistung_mit_aaaf

Okay, die 7900GTX ist eigentlich kein sinniger Vergleich. Nimm die X1950XT von AMD.




bei Launch bitte, nicht x Jahre später ...

AMD HD 7970 ist wie die 8800 GTX eine komplett neue Architektur und der 8800 spielt auch das Featureset stark in die Hände


und selbst wenn es +100% WÄREN! bei +50% verbrauch bleibt da pro W auch nur +33% mehr FPS/Watt übrig

Nakai
2012-01-04, 18:37:16
Und GK104 hat dann eine höhere SP-Leistung und mehr ALUs als GK100?

:freak:
Nein, aber meine Gedanken zu GK104 willst du nicht höheren. ;D

Ich glaube weder an ein 1:1 Verhältnis noch an 128 TMUs. nVidia hat mit Fermi gezeigt, dass sie Texturleistung im Notfall opfern werden.

Dann entschlackt man die TMUs eben wieder. FP16-FullSpeed raus und dafür höhere Taktraten.
Keine Ahnung, wie es kommt.

Ich wollte nur zeigen, dass jegliches Spekulieren derzeit einfach sinnlos ist.:)

€:
Nein zu ALLEM
Und das bloedeste ueberhaupt ist das angebliche 1:1 SP/DP ratio. Soooo besoffen sind NV engineers nun auch wieder nicht

:freak:

Skysnake
2012-01-04, 18:39:20
naja, nicht ganz sinnlos, aber man kann nur einige SEHR grobe Abschätzungen machen.

Hübie
2012-01-04, 18:39:48
Kannst du mal bitte die Rechnung aufschlüsseln? Woher kommen die 244, 1,54 und und und... ^^ Die ersten vier Zeilen klingen nicht so abwegig.

Mal eben was zum Verständnis: GK100 ist die top-single GPU und GK110 die top-dual GPU (2*GK104) oder hab ich das vercheckt? Ja ich weiß nix offizielles...

Bucklew
2012-01-04, 18:40:35
Und das bloedeste ueberhaupt ist das angebliche 1:1 SP/DP ratio. Soooo besoffen sind NV engineers nun auch wieder nicht ;)
Hätte aber was. Müsste TSMC halt nur noch schaffen einen NOCH größeren Chip zu bauen ;)

Ailuros
2012-01-04, 18:44:05
Hätte aber was. Müsste TSMC halt nur noch schaffen einen NOCH größeren Chip zu bauen ;)

Wenn es ueberhaupt in 28nm passen wuerde. Sonst eben ein netter LRB4.

LovesuckZ
2012-01-04, 18:48:57
bei Launch bitte, nicht x Jahre später ...

AMD HD 7970 ist wie die 8800 GTX eine komplett neue Architektur und der 8800 spielt auch das Featureset stark in die Hände

Welches Featureset? DX10 hatte überhaupt keine Bedeutung früher.
Die Karte war mit LQ-AF ca. 70% schneller als die X1950XTX. Leider hat HT4U.de das 8800GTX Review offline genommen, aber sie waren die einzige Seite, die auch mal HQ-AF verglichen haben. Und dann ging es fast ausnahmelos in Richtung 2x.

Und nicht zu vergessen: Das war der gleiche Prozess, auf den ATi r580 fertigen lies.

aylano
2012-01-04, 18:51:59
Und was hat das auch nur im geringsten mit Kepler, der Architektur und TSMC's 28nm Prozess zu tun? :confused:
Es kommt alles von Nvidia & TMSC, die eben davor auch was entwickelten.
Wenn die vorigen Tendenzen/Entwicklungen nicht gelten, dann sind sowieso alle anderen Argumenten nutzlos.


Die 6800 Ultra, bei IBM in 130nm gefertigt, verbraucht nicht mehr als die 5900 Ultra und war 2x so schnell: http://techreport.com/articles.x/6572/28

Die 8800GTX verbrauchte auch knapp 50 Watt mehr als die 7900GTX, müssten 50% mehr sein, und war 2x+ schneller.

Das hat genauso keinen Belang, zeigt aber, dass das Design maßgeblich für eine Steigerung verantwortlich ist.

Es ist nicht Belanglos.
Es zeigt, dass wie immer am Anfang von Architektur/Konzept am meisten zu holen sind. Und da zeigt es eine schöne Typische Kurve.
Nachdem die Architektur dann irgendwann ziemlich ausgereift war, ist der Performance-Anstieg dann in letzten Jahre schon mehr und mehr durch den Fortschritt der Transistoren gestiegen.

Übliche Entwicklungsformen die so seit Jahrzehnten so laufen.


Junge, die g92 Chips auf den 9800GTX Karten sind die gleichen wie auf den 8800GT(S) Karten. g92 kam im Oktober und damit vor AMD.

Das ist eben falsch.
Wenn G92 @ 9800GTX der gleiche wäre (Yield, Takte & Co), dann hätten sie 9800GTX gleich statt 8800GT gebraucht.
Und das haben sie eben nicht.

Ailuros
2012-01-04, 18:52:39
Welches Featureset? DX10 hatte überhaupt keine Bedeutung früher.
Die Karte war mit LQ-AF ca. 70% schneller als die X1950XTX. Leider hat HT4U.de das 8800GTX Review offline genommen, aber sie waren die einzige Seite, die auch mal HQ-AF verglichen haben. Und dann ging es fast ausnahmelos in Richtung 2x.

Und nicht zu vergessen: Das war der gleiche Prozess, auf den ATi r580 fertigen lies.

Es ist das letzte Mal dass ich ueber OT warne. Es gibt noch einen weiteren modtext weiter oben, der bittet dass Ihr gefaelligst die Debatte ueber Antiquitaeten wo anders weiterfuehrt.

aylano,

Gilt fuer Dich genau so und jeglichen anderen.

AwesomeSauce
2012-01-04, 18:54:47
Da geb ICH dir auch absolut recht. Kurz gesagt manchen gewisse Leute aber im Prinzip folgendes:

"ALTOOOOOOR!!11 wartet blos ab, nVidia zerfetzt AMDs Dreck mit Kepler in jedem Belang in der Luft. ALTOOOOORRR ihr werdet schon sehen"

Da bekomm ich Augenkrebs von und kann so'n geistigen Dünnpfiff nicht ertragen.
Es ist zwar verdammt OT aber bitte:

Du predigst Wasser, säufst selbst aber Wein: Wem geht denn im Tahiti-Thread einer ab über das galaktische OC-Potential von Tahiti?
Und ich sage es noch einmal: es ist nicht deine Aufgabe, irgendwelche Luftschlösser platzen zu lassen. Die platzen schon noch früh genug, verlass dich drauf.;)

@Nakai
Nach Wegfall der Hotclocks erwarte ich doch eher ein breiteres Design. Takt dürfte auch zu hoch sein. 1:1 SP : DP sehe ich auch nicht kommen. Kurz: Try again:D

Ailuros
2012-01-04, 19:00:00
Wenn wir die Anzahl der GPCs auf GK104 haben wuerden, waere es um einiges leichter weiter zu raten.

Sonst Nakai damit es hilft: selbst GK104 duerfte auf jeden Fall mehr als 1000SPs haben. Je nachdem wie der Aufbau aussieht irgendwo zwischen 1100 und 1500. Was jetzt den top dog betrifft je nach Fall um ein gutes Stueck mehr als die vorerwaehnten Zahlen.

AwesomeSauce
2012-01-04, 19:04:24
Wenn wir die Anzahl der GPCs auf GK104 haben wuerden, waere es um einiges leichter weiter zu raten.

Sonst Nakai damit es hilft: selbst GK104 duerfte auf jeden Fall mehr als 1000SPs haben. Je nachdem wie der Aufbau aussieht irgendwo zwischen 1100 und 1500. Was jetzt den top dog betrifft je nach Fall um ein gutes Stueck mehr als die vorerwaehnten Zahlen.
Selbst Charlie hält die Zahlen in der Tabelle (von Chiphell (?)) nicht für absoluten Schwachsinn
That was one set of numbers I am hearing.
Die Frage ist aber, ob das nun gut oder schlecht ist;D

LovesuckZ
2012-01-04, 19:07:51
Vielleicht liest ihm sein Browser das vor. :D

Ach kommt, die Zahlen in der Tabelle sind rein ausgedacht.

Hübie
2012-01-04, 19:08:08
Na wie wir ja alle wissen sind die Werte auf dem Papier nicht unbedingt für Rückschlüsse in der Praxis geeignet. Mein Lieblingsbeispiel ist und bleibt der R600 gefolgt von Bulldozer; allein der Name... man man man. Furchteinflößend. ;D

@Edit: Die Zahlen sind vielleicht ausgedacht, aber auch beim Rätselraten ist mal ein Treffer dabei ;)

Skysnake
2012-01-04, 19:12:46
ja, das würde schon viel helfen.

@Awesome:
Naja, die OC Werte sind real und ich hab ja selbst gesagt, das die 925 für eine unausgereifte Fertigung sprechen. Daher auch mit ausgereifter Fertigung wie ich finde reelle Chancen auf viele Werks-OC Karten.

Hierin könnte auch der Grund für den Wegfall des hot-clock bei nv liegen. Der Prozess lässt schon recht hohe Taktraten zu, womit der Vorteil von hot-clock wegfällt, da dieser so weit oben nicht mehr skaliert.

Klingt das vernünftig für den Wegfall von hot-clock?

Ailuros
2012-01-04, 19:20:36
ja, das würde schon viel helfen.

@Awesome:
Naja, die OC Werte sind real und ich hab ja selbst gesagt, das die 925 für eine unausgereifte Fertigung sprechen. Daher auch mit ausgereifter Fertigung wie ich finde reelle Chancen auf viele Werks-OC Karten.

Was soll an 925MHz unausgereift sein mit der Chip-komplexitaet? Sie haetten auch auf 1GHz oder sogar mehr takten koennen welches natuerlich erstmal den TDP erhoeht und die Zeiten sind schlecht fuer zu hohen Stromverbrauch *wink* und den overclockers ihr hobby aus der Hand gerissen.

Was fuer eine Wundertuete soll denn 28nm genau sein wenn man erwartet dass man gleichzeitig um X% die Transistoren-Anzahl und um Y% die Frequenz steigern kann?

Hierin könnte auch der Grund für den Wegfall des hot-clock bei nv liegen. Der Prozess lässt schon recht hohe Taktraten zu, womit der Vorteil von hot-clock wegfällt, da dieser so weit oben nicht mehr skaliert.

Klingt das vernünftig für den Wegfall von hot-clock?

Nein. NV brauchte/wollte N DP TFLOPs und man konnte sie nur so erreichen.

AnarchX
2012-01-04, 19:23:04
Was soll an 925MHz unausgereift sein mit der Chip-komplexitaet? Sie haetten auch auf 1GHz oder sogar mehr takten koennen welches natuerlich erstmal den TDP erhoeht und die Zeiten sind schlecht fuer zu hohen Stromverbrauch *wink* und den overclockers ihr hobby aus der Hand gerissen.

Mit einem 6-Pin-Connector kommt GK104 aber nicht aus? :D

boxleitnerb
2012-01-04, 19:24:35
Mit einem 6-Pin-Connector kommt GK104 aber nicht aus? :D

Ach was, der braucht gar keinen mehr :eek:

Ailuros
2012-01-04, 19:31:58
Mit einem 6-Pin-Connector kommt GK104 aber nicht aus? :D

Im Performance segment sind selbst 210W schon grenzwertig. Noch hoeher wuerde nicht gut aussehen. Noch schlimmer AMD muss ja auch noch eine 7990 auf den Ladentisch bringen.

AnarchX
2012-01-04, 19:42:27
Wenn GK104 einen >$300 MSRP hat, würde ich ihn aber nicht mehr als Performance-Lösung ansehen.

<200W ~$200 sind historisch gesehen eher der Performance-Bereich.

Ailuros
2012-01-04, 19:49:06
Wenn GK104 einen >$300 MSRP hat, würde ich ihn aber nicht mehr als Performance-Lösung ansehen.

<200W ~$200 sind historisch gesehen eher der Performance-Bereich.

http://www.geforce.com/Hardware/GPUs/geforce-gtx-560ti/specifications

Eine 5850, 6950, 7950 sind auch keine high end GPUs obwohl die letztere um einiges mehr als $300 MSRP haben wird.

Skysnake
2012-01-04, 19:51:40
Was soll an 925MHz unausgereift sein mit der Chip-komplexitaet? Sie haetten auch auf 1GHz oder sogar mehr takten koennen welches natuerlich erstmal den TDP erhoeht und die Zeiten sind schlecht fuer zu hohen Stromverbrauch *wink* und den overclockers ihr hobby aus der Hand gerissen.

Was fuer eine Wundertuete soll denn 28nm genau sein wenn man erwartet dass man gleichzeitig um X% die Transistoren-Anzahl und um Y% die Frequenz steigern kann?

Naja, die Spannung ist nicht soo niedrig. Wenn ich mich recht erinnere mehr als bei der Serie vorher.
Und 925 MHz sind natürlich nicht schlecht, aber keine von uns kann einschätzen, was AMD wirklich mit ihrem Desing vorgesehen hat. Es ist ja auch hot-clock möglich, das ist weitaus mehr Takt. Daher kommts halt immer drauf an, was da jetzt wirklich produziert wird, und was dafür wirklich vorgesehen war.

Die 925 können da schon super top sein, oder halt unter den Erwartungen, und ich tendiere eher zu unter den Erwartungen aus den bekannten Gründen.
Aber bringt einem halt nichts, wenn ein hoher 2 stelliger % Satz der Chips das halt nicht mit macht, weil die Fertigungsqualität stark schwankt. Hatten wir doch bei 40nm auch, wenn ich mich recht erinnere.


Nein. NV brauchte/wollte N DP TFLOPs und man konnte sie nur so erreichen.
Die Frage ist halt nur, warum man das mit Hot-clock nicht geschafft hat. Bisher hats ja scheinbar auch immer gepasst.
Meine Vermutung halt wie gesagt die, dass die normalen Transistoren gut skalieren, die für Hot-Clock aber nicht, womit diese eben völlig uninteressant werden.

Ich glaub nämlich nicht, das man bei nVidia Freudentänze aufführt, weil man nach Fermi mit den vielen Änderungen jetzt die Hot-clocks wegwirft und dann auch wieder massig Sachen ändern darf. Und das nach dem Fermi Debakel, was massig Ressourcen gebunden haben wird. Dann noch Tegra an der Backe, der auch forciert werden will/muss etc. etc.

AnarchX
2012-01-04, 19:54:33
http://www.geforce.com/Hardware/GPUs/geforce-gtx-560ti/specifications

Liegen beide unter $300 MSRP. Für $349 gab es mit der 570 High-End.


Eine 5850, 6950, 7950 sind auch keine high end GPUs obwohl die letztere um einiges mehr als $300 MSRP haben wird.
Mit 384-Bit und 3GiB bietet man schon einen gewissen High-End-Character.
edit: Aber wohl möglich sind es nicht mal mehr $300 bei der 7950: Pre-Launch-Preissenkung der 7970 auf $475? (http://www.donanimhaber.com/ekran-karti/haberleri/Ozel-Haber-AMD-Radeon-HD-7970in-fiyatinda-indirim-yapildi.htm)

Ailuros
2012-01-04, 20:14:29
Naja, die Spannung ist nicht soo niedrig. Wenn ich mich recht erinnere mehr als bei der Serie vorher.
Und 925 MHz sind natürlich nicht schlecht, aber keine von uns kann einschätzen, was AMD wirklich mit ihrem Desing vorgesehen hat.

Sie haben ihr Design-Ziel nicht verpasst obwohl sie mit dem 1GHz Gedanken vor dem launch spielten.

Es ist ja auch hot-clock möglich, das ist weitaus mehr Takt. Daher kommts halt immer drauf an, was da jetzt wirklich produziert wird, und was dafür wirklich vorgesehen war.

Hotclock ist nie umsonst.

Die Frage ist halt nur, warum man das mit Hot-clock nicht geschafft hat. Bisher hats ja scheinbar auch immer gepasst.

NV engineering sagte selber dass sie am Anfang jeder neuen Architektur seit Jahren jegliche Einheiten fuer hotclock untersuchen. Es stand nie und nirgends dass es IMMER Sinn machen wird. OT: wieso hat AMD VLiW nicht behalten?

Meine Vermutung halt wie gesagt die, dass die normalen Transistoren gut skalieren, die für Hot-Clock aber nicht, womit diese eben völlig uninteressant werden.

Ich glaub nämlich nicht, das man bei nVidia Freudentänze aufführt, weil man nach Fermi mit den vielen Änderungen jetzt die Hot-clocks wegwirft und dann auch wieder massig Sachen ändern darf. Und das nach dem Fermi Debakel, was massig Ressourcen gebunden haben wird. Dann noch Tegra an der Backe, der auch forciert werden will/muss etc. etc.

Erstens setzt NV nicht auf moderate Frequenzen generell fuer NVIDIA und zweitens eine neue Architektur hat stets mehr Aufwand als ein refresh. Nur den hotclock loszuwerden ist nur eine Kleinigkeit. Sie haben wohl die ALUs seit G80 mit etwa "Handarbeit" zu hohen Frequenzen gejagt, was nicht heissen soll dass man die gleiche alberne Routine bei jeglicher neuen Architektur von Anfang an mit der Hand angehen musste.

Fermi's "teuerste" Entwicklung war das interconnect/Tessellations/OoO Dingsda und alles was damit zusammenhaengt. Ich bezweifle dass sie hier etwas fundamentales geaendert haben.

Liegen beide unter $300 MSRP. Für $349 gab es mit der 570 High-End.

Ja der Haarspalterei zu liebe liegt die 448 560Ti bei 290. Ja natuerlich gab es $349 fuer high end was die heutigen Tahiti MSRPs umso laecherlicher macht.

Mit 384-Bit und 3GiB bietet man schon einen gewissen High-End-Character.

Och dann haetten sie auch gleich einen 512bit Bus und 4GB draufknallen koennen mit dem Gewinn-prozentual bis zu $549.

edit: Aber wohl möglich sind es nicht mal mehr $300 bei der 7950: Pre-Launch-Preissenkung der 7970 auf $475? (http://www.donanimhaber.com/ekran-karti/haberleri/Ozel-Haber-AMD-Radeon-HD-7970in-fiyatinda-indirim-yapildi.htm)

Und selbst die $475 wuerde ich so langsam bezweifeln. Wenn's am Ende <$400 beim launch der 7970 werden sollten, kann sich AMD immer noch fuer einen "Druckfehler" entschuldigen :biggrin:

Hugo78
2012-01-04, 20:23:57
@Ailuros
Was sagt denn deine stille Post zur CES nächste Woche?
Können wir da bisschen was erwarten?

Ach was, der braucht gar keinen mehr :eek:

Nicht nur das, Kepler wird ein Perpetuum Mobile das irgendwann sogar Energie zurück gibt. :biggrin:

Nightspider
2012-01-04, 20:25:10
dass kepler auf der fermi architektur aufbaut ist aber der gängige ton in allen einschlägigen foren und hardware speku webseiten, auch dem 3dcenter. Das klingt ja erstmal ernüchternd, wenn das ein falsches gerücht wäre, müsste uns bis jetzt sicher ein kleines inoffizielles dementi "nein es wird was ganz neues..." oder so von einem nv mitarbeiter durchgesickert sein. Das macht denen doch spaß die spekulationen zu füttern, das kennt man doch schon...

Eine im Detail deutlich verbesserte Architektur kann viel besser sein als eine komplett neue Architektur, bei der vieles schief gehen kann.

Sandy Bridge basierte auch auf Nehalem und ist in jeder Hinsicht deutlich besser.

dargo
2012-01-04, 21:27:01
Aber wohl möglich sind es nicht mal mehr $300 bei der 7950: Pre-Launch-Preissenkung der 7970 auf $475? (http://www.donanimhaber.com/ekran-karti/haberleri/Ozel-Haber-AMD-Radeon-HD-7970in-fiyatinda-indirim-yapildi.htm)
Das war sowas von klar, dass der Preis korrigiert werden muss. Und ich wette, dass das nicht die einzige Korrektur war. ;)

robbitop
2012-01-04, 21:28:59
Na dann viel Spaß biem nachprüfen.

Ich habe mir gerade nur die ersten 10 sek des ersten Levels angeschaut:

Crysis 1080p, alles @max, keine Mods, 32 bit Version:

4xMSAA : 878 MiB VRAM
8xMSAA: 1127 MiB VRAM

Ich bin mir sicher, dass die erste Bucht bei Crysis noch lange nicht das Ende der Fahnenstange ist. Der VRAM Bedarf wird bspw im Eislevel (was gern gebencht wird) sicher noch höher sein.

Aber eines ist klar: in 1080p mit 4x MSAA geht dem G80 absolut der VRAM aus und er muss bereits auslagern. Insbesondere bei G80 mit dem alten Speichermanagement beginnt das zu kosten.
Klar, dass sich der Vorsprung von GT200 mit mehr VRAM hier ausbaut.
Ergo: nix mit 81 % Vorsprung, sofern der VRAM nicht limitiert. ;)

Nighthawk13
2012-01-04, 21:34:26
OT: wieso hat AMD VLiW nicht behalten?
Ist das zwangsläufig OT?
Ich fänd's ja Ironie des Schicksal, wenn Kepler seine GFlops/Watt-Verbesserung durch Ausnutzung von Instruction-Level-Parallelism erzielt, während AMD VLIW aufgibt und auf Thread-Level-Parallelism umgeschwenkt ist.

Immerhin ging der GF104 mit seinem "3 Instruktionen aus 2 Threads" schon etwas in die Richtung.
"2 Instruktionen aus 1 Thread" zur Compilezeit wäre dann ja schon 2D-VLIW.

Würde mich nicht wundern, wenn NV in dieser Richtung noch ein Ass im Ärmel hat(nicht zwangsläufig VLIW).

Godmode
2012-01-04, 22:29:24
Auf B3D (http://forum.beyond3d.com/showpost.php?p=1608787&postcount=703) meinte trinibwoy, dass es seit 2006 ein Patent von Nvidia auf ALUs gibt, die alles können inkl. Texture Filtering. Wäre so ein radikaler Umbau mit der aktuellen Fertigung überhaupt möglich? TMUs in Hardware brauchen ja IMO viel weniger Platz als wenn das über die ALUs gemacht wird. Ist das immer noch so?

Nightspider
2012-01-04, 22:38:31
Falls NV tatsächlich die Hotclocks fallen lässt, wird GK100 wohl sicherlich >1024SPs besitzen.
Durch bessere Packdichte, effizienteres Design könnten imo gar 1536 SPs im GK100 stecken.

Für GK104 wurden doch auch 'mal 768SPs spekuliert, wenn ich mich richtig erinnere.

Trotz Hotclock Verlusten dürfte damit GK104 mind. auf Tahiti Niveau liegen.

Falls GK104 nur 512SPs besitzt wird man das durch höhere Core-Taktrate ausgleichen und ebenfalls auf Tahiti Niveau liegen, wenn schon der GF100 nur 20-30% hinter Tahiti liegt.

Godmode
2012-01-04, 22:41:29
Falls NV tatsächlich die Hotclocks fallen lässt, wird GK100 wohl sicherlich >1024SPs besitzen.
Durch bessere Packdichte, effizienteres Design könnten imo gar 1536 SPs im GK100 stecken.

Für GK104 wurden doch auch 'mal 768SPs spekuliert, wenn ich mich richtig erinnere.

Trotz Hotclock Verlusten dürfte damit GK104 mind. auf Tahiti Niveau liegen.

Falls GK104 nur 512SPs besitzt wird man das durch höhere Core-Taktrate ausgleichen und ebenfalls auf Tahiti Niveau liegen, wenn schon der GF100 nur 20-30% hinter Tahiti liegt.

Also laut Ail werdens beim kleinen über 1000 und beim großen über 2000, IIRC.

Felixxz2
2012-01-04, 22:42:20
Ich denke schon. Denn TMUs können ja viele Sachen in 1 Takt/wenigen Takten wofür ALUs mehrere Takte brauchen. Sachen in Hardware zu machen ist immer effizienter (siehe Video Decoding). Außerdem was für einen Sinn hätte das? Man verliert Effizienz zugunsten von ein wenig mehr Flexibilität.

Man könnte halt, wenn nötig, die gesamten Einheiten aufs Shading jagen. Trotzdem würde der Chip denke ich größer ausfallen und man kann ja auch einfach, wie zz. von AMD/nVidia gemacht, das Zahlenwachstum der TMUs beschränken. Früher wurden auch noch TMUs verdoppelt oder gar mehr, heute ist das Wachstum deutlich geringer. Denn TMU Leistung ist nichtmehr so gefragt.

Für mich macht das keinen Sinn, aber vielleicht haben ja andere ein paar nähere Infos bzw. können sagen inwieweit und mit wie vielen ALUs man die aktuellen ~100 TMUs für High End Chips ersetzen kann.

Nightspider
2012-01-04, 22:43:21
Also laut Ail werdens beim kleinen über 1000 und beim großen über 2000, IIRC.

Ja hab ich auch gelesen wobei mein Wissenstand nicht reicht, inwiefern Hotclock-Transistoren einen höheren Platzbedarf haben und wieviel % der Chipfläche bei NV bisher aus Hotclock Areas bestand.

Da muss ich passen.

Knuddelbearli
2012-01-04, 23:30:04
jau wenn Hotclock wegfällt würde ich beim GK100 auch mit über 2000 Sps rechnen

Skysnake
2012-01-04, 23:40:19
Sie haben ihr Design-Ziel nicht verpasst obwohl sie mit dem 1GHz Gedanken vor dem launch spielten.
Dann sind die Werte aus den Reviews bzgl OC sehr verwunderlich, oder die müssen die Spannung für den Prozess eigentlich abartig hoch ansetzen, da richtige Gurken teils aus der Produktion kommen.

Hotclock ist nie umsonst.
Klar, aber die haben auch richtig richtig know-how da rein gesteckt. Zumindest was das Layout angeht, also sofern da noch per Hand gearbeitet wurde, wovon ich durchaus ausgehe, dann können sie sich das jetzt sonst wo hin schieben, wenn Hot-clock weg fällt.


NV engineering sagte selber dass sie am Anfang jeder neuen Architektur seit Jahren jegliche Einheiten fuer hotclock untersuchen. Es stand nie und nirgends dass es IMMER Sinn machen wird.

Hat auch niemand behauptet. Nur stellt sich mir eben die Frage, warum nun kein hot-clock mehr, und davor ja? Was hat sich geändert? Und warum nicht früher? Oder erst später? Und kann es in der nächsten Generation wieder anders aussehen?


OT: wieso hat AMD VLiW nicht behalten?

Also WENN man den Aussagen AMDs glauben schenken mag, dann lags wohl mit an der komplexität des Compilers.
Ob man das glauben soll? Keine Ahnung. Kann nur Marketingblabla sein, aber auch wirklich Hand und Fuß haben. Compilerbau ist nicht wirklich trivial, und wenn ich an die Zukunft/Gegenwart denke mit den Multi-GPUs, den asymmetrischen Devices (APU+dezidierte GPU), SoCs etc. denke, dann kann ich mir schon vorstellen, dass das ziemlich viele Ressourcen binden kann, da nen gescheiten Compiler zu bauen.

Ich denke gerade die Sache mit den asymmetrischen Devices könnte bei VLIW einfach so kompliziert werden, das man es mit vernünftigen Aufwand gar nicht hin bekommt, oder zumindest der SIMD Ansatz günstiger ist.


Erstens setzt NV nicht auf moderate Frequenzen generell fuer NVIDIA und zweitens eine neue Architektur hat stets mehr Aufwand als ein refresh. Nur den hotclock loszuwerden ist nur eine Kleinigkeit. Sie haben wohl die ALUs seit G80 mit etwa "Handarbeit" zu hohen Frequenzen gejagt, was nicht heissen soll dass man die gleiche alberne Routine bei jeglicher neuen Architektur von Anfang an mit der Hand angehen musste.

Sicher, das Hot-clock so ne kleine Sache ist? Man muss ja das placement und routing komplett über den Haufen werfen. Dazu noch die Ansteuerungslogik ändern, etc. etc. Da beginnt man ja praktisch auf nem weißen Blatt Papier wieder.
Und klar muss man nicht per Hand immer und immer wieder das Zeug komplett neu machen, aber halt anpassen auf die neuen Designvorgaben des neuen Prozesses. Wenn man aber mal nen gutes Layout hat für ALUs, kann man das ja weiterentwickeln.


Fermi's "teuerste" Entwicklung war das interconnect/Tessellations/OoO Dingsda und alles was damit zusammenhaengt. Ich bezweifle dass sie hier etwas fundamentales geaendert haben.

DAS ist halt auch eine sehr gute Frage. Bei Fermi waren es gerade mal 16 Blöcke die verbunden werden mussten, und das Ding wurde verdammt fett. Tess nehm ich mal raus. Skaliert das Interconnect von Fermi? Vor allem noch viel wichtiger, skaliert das Interconnect von Fermi wenn durch den Wegfall von Hot-clock sich die Einheitenzahl verdoppelt? Das Sie innerhalb gewisser Grenzen skaliert ist klar, sonst hätte man die Idee gleich zu den Akten gelegt und nie bei Fermi implementiert. Aber bei nem Faktor 2 wegen dem Hot-clock Wegfall, muss das nicht mehr sein. Das ist ja schon eine ziemlich ordentliche Steigerung.

Und Fermi hat OoO? wo? Auf Kernelebene ja, aber auf Instruction Ebene? Sorry, so tief bin ich in Fermi auch im Moment nicht mehr drin.

Gipsel
2012-01-04, 23:48:38
Und Fermi hat OoO? wo? Auf Kernelebene ja, aber auf Instruction Ebene? Sorry, so tief bin ich in Fermi auch im Moment nicht mehr drin.
In-order-Issue zum "Read Operand"-Teil der Pipeline, out-of-order Dispatch an die Einheiten, Scoreboarding (mit einem Fenster von 4 Instruktionen pro Thread) eben.

Coda
2012-01-04, 23:54:32
Ich halte eine Combination von TMUs und ALUs vor allem in Hinblick auf zukünftige Architekturen für durchaus denkbar.

Man braucht im wesentlichen eine Instruction für die Gradientenbestimmung, bilerp und Load-Instructions für Texturkompression, dann ist der Kittel geflickt.

Vor allem die Gradientenbestimmung im Code zu machen dürfte zu teuer sein. Allerdings könnte auch einfach nur meine Methode total unoptimiert sein ;)

In-order-Issue zum "Read Operand"-Teil der Pipeline, out-of-order Dispatch an die Einheiten, Scoreboarding (mit einem Fenster von 4 Instruktionen pro Thread) eben.
Wobei man natürlich sagen muss, dass Scoreboarding wesentlich einfacher ist als volles Tomasulo mit Reservation-Stations und damit Register-Renaming und dem ganzen Kram.

Gipsel
2012-01-05, 00:38:27
Tomasulo mit allem drum und dran (wie Register-Renaming) bei den Größen der Registerfiles von GPUs wäre auch etwas viel Aufwand für den bei typischen Anwendungen kaum vorhandenen Vorteil. Das ist was für CPUs mit wenigen Threads und kleinen Registerfiles.

Skysnake
2012-01-05, 00:53:29
Das heißt also, wenn ich es richtig verstanden habe, bitte korrigieren, wenn nein, folgendes:

Zuerst wird Code ganz normal durch den Decoder etc. gejagt, und die Loads angestoßen. Sobald das aber passiert ist, kann innerhalb des 4 Instruction-windows aber die Reihenfolge der Instructionen getauscht werden.

Also z.B.

A+B=C
B+D=E
usw

A ist nicht im Registerfile vorhanden sondern irgendwo anders. B und D sind aber im Registerfile. Jetzt kann Fermi Instruction 2 vor Instruction 1 ausführen. Richtig?

Gipsel
2012-01-05, 01:27:51
Ja.

Skysnake
2012-01-05, 02:19:37
Danke. Wieder was dazu gelernt. :up:

Meinste das hat nen großen Performanceeinfluss? Im Optimalfall kann man damit ja gerade mal 3 Instructionen gewinnen.

Wobei, ware es nicht so, das die ALUs immer 2 Takte lang für eine Instruction belegt waren? Wegen den Worps, oder war das was anders?

Aber für den L1 sollte es vielleicht damit reichen. L2 wird wohl nicht hin hauen.

hm.. schwer zu sagen, wie viel das bringt. Zweistelliger %satz wirds aber nicht sein, oder was meinst du?

robbitop
2012-01-05, 07:50:09
Erkläre mir gerade mal den Unterschied zwischen einem Flugsimulator und Crysis.
Der Durchschnitt der Spiele hat nunmal keinen Faktor 2. Und das ist es, worauf es ankommt. Die Rohleistung ist dafür auch gar nicht da. Woher soll es denn dann auch kommen? ;)

Nochmal, wenn GT200 so weit vorn ist, resultiert es entweder aus VRAM Limitierung oder aus einer GPGPU Aufgabe.

Wenn der Kepler top dog mit gleichem MSRP antanzt sieht es wie genau aus gegen einen $549 MSRP einer eigentlichen Performance GPU?
Sobald Kepler da ist, wird die MSRP der 7970 geändert.
ATI hat es betriebswirtschaftlich richtig gemacht und ich hätte es auch so gemacht.

dargo
2012-01-05, 08:41:38
Die Rohleistung ist dafür auch gar nicht da. Woher soll es denn dann auch kommen? ;)

Durch Effizienzsteigerungen der Architektur. Die Speicherbandbreite wird auch nie verdoppelt und trotzdem mangelt es keiner GPU an dieser.

robbitop
2012-01-05, 08:46:37
Durch Effizienzsteigerungen der Architektur. Die Speicherbandbreite wird auch nie verdoppelt und trotzdem mangelt es keiner GPU an dieser.
Da ist aber nichts bzgl der Rohleistung auch nur annähernd verdoppelt. Nur die reine aritmetische Rechenleistung. Aber auch dort nicht Faktor 2. Die Effizienz der Shaderleistung steigt IIRC nicht - im Gegenteil- da man pro Cluster die ALUs verbreitert hat ohne groß Kontrolllogik erhöt zu haben.

Ohne VRAM Limitiertung habe ich bisher nur 60 ... 70 % gesehen. 8800 U vs. GTX280.

dargo
2012-01-05, 09:03:19
Ohne VRAM Limitiertung habe ich bisher nur 60 ... 70 % gesehen. 8800 U vs. GTX280.
Achso... du vergleicht die Ultra mit der GTX280. Wenn schon dann müsste man die 8800GTX mit der GTX280 vergleichen oder 8800Ultra mit GTX285. Ist aber auch egal. Ich erwarte beim GK100 mindestens +80% gegenüber GTX580, wäre dann in etwa Faktor 2 zur GTX480. Alles andere fände ich enttäuschend.

robbitop
2012-01-05, 09:14:55
Es wird ja auch GTX580 und 6970 mit 7970 verglichen und nicht GTX480 und 5870. ;)
Und ja: 80 % waren die letzten Male drin. Aber du vergisst etwas: Das war auch nur auf Kosten der Leistungsaufnahme drin. Die Leistungsaufnahme und Kerngröße stieg von Generation zu Generation an.

Wenn sie diesmal bei beidem auf dem Niveau von der GTX580 bleiben wollen, werden +80% eher schwer.

M4xw0lf
2012-01-05, 10:09:54
Achso... du vergleicht die Ultra mit der GTX280. Wenn schon dann müsste man die 8800GTX mit der GTX280 vergleichen oder 8800Ultra mit GTX285. Ist aber auch egal. Ich erwarte beim GK100 mindestens +80% gegenüber GTX580, wäre dann in etwa Faktor 2 zur GTX480. Alles andere fände ich enttäuschend.

Es wurde hier ja schon erörtert, dass 80% Mehrleistung auch bei den als besonders erfolgreich im Gedächtnis gebliebenen Karten in der Praxis nur in handverlesenen Tests erreicht wurden. Dann solltest du dich schon mal auf eine Enttäuschung gefasst machen.

dargo
2012-01-05, 10:26:49
Aber du vergisst etwas: Das war auch nur auf Kosten der Leistungsaufnahme drin. Die Leistungsaufnahme und Kerngröße stieg von Generation zu Generation an.

Die Leistungsaufnahme interessiert mich bei High-End nicht, das hatte ich schon mal gesagt. Naja... zumindest bis ~300W finde ich sie noch ok. Aber auch nur solange die Kühlung nicht unerträglich laut bei Last ist. Und wie man an der GTX480 AMP! sehen kann ist das spielend machbar.

Es wurde hier ja schon erörtert, dass 80% Mehrleistung auch bei den als besonders erfolgreich im Gedächtnis gebliebenen Karten in der Praxis nur in handverlesenen Tests erreicht wurden. Dann solltest du dich schon mal auf eine Enttäuschung gefasst machen.
Ich hab zwar keine Ahnung was du mit handverlesenen Tests meinst, wenn aber die neue in wenigen Spielen die 80% erreicht dann reicht mir das. In alten Gurken die eh schon mit weit über 100fps laufen interessiert mich die Mehrleistung nicht besonders. Sollte die Karte dennoch enttäuschen... tja, dann muss es der Preis halt regeln. Wird also länger gewartet bis ein für mich akzeptabler Preis angeboten wird.

Blaire
2012-01-05, 10:30:33
Es wurde hier ja schon erörtert, dass 80% Mehrleistung auch bei den als besonders erfolgreich im Gedächtnis gebliebenen Karten in der Praxis nur in handverlesenen Tests erreicht wurden.

Weil in vielen Reviews nicht immer 100% GPU Limitierte Settings getestet und somit das wahre Leistungsbild verfälschen? ;)

dargo
2012-01-05, 10:31:41
Weil in vielen Reviews nicht immer 100% GPU Limitierte Settings getestet und somit das wahre Leistungsbild verfälschen? ;)
Also wer Benchmarks in CPU-Limits bei Grafikkarten betrachtet der hat sie nicht mehr alle.

Godmode
2012-01-05, 10:47:02
Ich halte eine Combination von TMUs und ALUs vor allem in Hinblick auf zukünftige Architekturen für durchaus denkbar.

Man braucht im wesentlichen eine Instruction für die Gradientenbestimmung, bilerp und Load-Instructions für Texturkompression, dann ist der Kittel geflickt.

Vor allem die Gradientenbestimmung im Code zu machen dürfte zu teuer sein. Allerdings könnte auch einfach nur meine Methode total unoptimiert sein ;)


Wobei man natürlich sagen muss, dass Scoreboarding wesentlich einfacher ist als volles Tomasulo mit Reservation-Stations und damit Register-Renaming und dem ganzen Kram.

Und könntest du dir das auch schon für Kepler vorstellen?

boxleitnerb
2012-01-05, 10:50:16
Also mehr als mit SSAA kann man nicht benchen. In 1080p mit 4xSGSSAA sollte in Titeln, die nicht gerade CoD heißen, eine CPU-Limitierung praktisch ausgeschlossen sein.

Es wurde zwar schon öfters erwähnt, dass einige hier 100% gesehen haben wollen, aber Beweise hab ich da noch nicht gefunden ;)
Ich glaub ich werde mal selbst ein paar der fordendsten Benchmarks machen, die archivieren und dann selbst vergleichen, wenn Kepler da ist. Also Butter bei die Fische.Dann werden wir ja sehen, ob wir 80 oder gar 100% erreichen.

dargo
2012-01-05, 10:52:25
Also mehr als mit SSAA kann man nicht benchen.
Man könnte für höhere GPU-Last auf Downsampling zurückgreifen.

robbitop
2012-01-05, 10:54:48
Die Leistungsaufnahme interessiert mich bei High-End nicht, das hatte ich schon mal gesagt. Naja... zumindest bis ~300W finde ich sie noch ok. Aber auch nur solange die Kühlung nicht unerträglich laut bei Last ist. Und wie man an der GTX480 AMP! sehen kann ist das spielend machbar.

NVIDIA hat aber bereits angekündigt die Abwärme wieder senken zu wollen.
Mit Leistungsaufnahme und Kerngröße sind sie bereits jetzt am Limit. Dieser Wachstum wird nunmal stagnieren - und dann werden auch die 80 % von Generation zu Generation nicht mehr gehen.

boxleitnerb
2012-01-05, 10:57:21
Man könnte für höhere GPU-Last auf Downsampling zurückgreifen.

Das auch noch, ok. Aber meinst du nicht in 3840x2160 mit 4/8xSGSSAA ist overkill? Da gibts doch mit einer 580 wenn es nicht gleich abstürzt nur einstellige fps. Praxisrelevant finde ich das nicht gerade.

Botcruscher
2012-01-05, 10:58:38
Da sind wir dann wieder an dem Punkt Praxisfremd. Je mehr man von den typischen Auflösungen und AA-Modi weg geht, um so höher wird das Risiko irgendwelche Anomalien auszugraben. Die Ansprüche an die Einheiten verschieben sich ja nicht linear. Im schlimmsten Fall wird aus einer Schwäche bei der arithmetischen Rohleistung ein Stärke bei Bandbreite und TMUs. Es ist halt das gleiche Problem wie bei den CPUs.

M4xw0lf
2012-01-05, 11:00:40
Weil in vielen Reviews nicht immer 100% GPU Limitierte Settings getestet und somit das wahre Leistungsbild verfälschen? ;)
Also wer Benchmarks in CPU-Limits bei Grafikkarten betrachtet der hat sie nicht mehr alle.

GT200 Launch: PCGH (http://www.pcgameshardware.de/aid,647813/GT200-Test-PCGH-Performance-Index-Juni-2008/Grafikkarte/Test/bildergalerie/?iid=839390)

GF100 Launch: PCGH (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/bildergalerie/?iid=1270175)

Wie man sieht brachte die GTX280 gegenüber der 8800 Ultra ~30% Mehrleistung im Durchschnitt. Fermi packte 40-50% auf die GTX285.
80% Mehrleistung sind einfach unrealistisch, es sei denn man pickt sich einzelne Benchmarks heraus - aber wie schon im Thread erwähnt gibt es auch Benchmarks wo die 7970 80% vor der GTX580 und 100% vor der 6970 liegt.
Eine durchschnittliche Mehrperformance von 80% gab es seit Ewigkeiten nicht.

dargo
2012-01-05, 11:00:43
NVIDIA hat aber bereits angekündigt die Abwärme wieder senken zu wollen.
Mit Leistungsaufnahme und Kerngröße sind sie bereits jetzt am Limit. Dieser Wachstum wird nunmal stagnieren - und dann werden auch die 80 % von Generation zu Generation nicht mehr gehen.
Das können sie von mir aus gerne machen. Nur brauchen sie sich nicht nachher wundern wenn die Dinger wie Blei in den Regalen liegen bleiben weil man bsw. für 50% mehr Leistung 100% oder sogar mehr Aufpreis verlangt.

robbitop
2012-01-05, 11:04:39
Ich vermute, dass viele extrem hohe Vorsprünge durch VRAM Limitierung beim Vorgängerprodukt kommen. Das habe ich gestern Abend bereits in Crysis gesehen.
IMO muss man das bei Benchmarks mitmessen und berücksichtigen. Sobald einer Karte der VRAM ausgeht, sind die Messwerte dann Grütze.

boxleitnerb
2012-01-05, 11:10:57
Ich vermute, dass viele extrem hohe Vorsprünge durch VRAM Limitierung beim Vorgängerprodukt kommen. Das habe ich gestern Abend bereits in Crysis gesehen.
IMO muss man das bei Benchmarks mitmessen und berücksichtigen. Sobald einer Karte der VRAM ausgeht, sind die Messwerte dann Grütze.

Bevor man das behauptet, sollte man das eingehender untersuchen. Die Belegung an sich sagt recht wenig aus. Man müsste schon zwei Karten mit unterschiedlicher Speichermenge benchen (sonstige Charakteristika natürlich gleich).

dargo
2012-01-05, 11:13:32
GT200 Launch: PCGH (http://www.pcgameshardware.de/aid,647813/GT200-Test-PCGH-Performance-Index-Juni-2008/Grafikkarte/Test/bildergalerie/?iid=839390)

GF100 Launch: PCGH (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/bildergalerie/?iid=1270175)

Wie man sieht brachte die GTX280 gegenüber der 8800 Ultra ~30% Mehrleistung im Durchschnitt. Fermi packte 40-50% auf die GTX285.
80% Mehrleistung sind einfach unrealistisch, es sei denn man pickt sich einzelne Benchmarks heraus - aber wie schon im Thread erwähnt gibt es auch Benchmarks wo die 7970 80% vor der GTX580 und 100% vor der 6970 liegt.
Eine durchschnittliche Mehrperformance von 80% gab es seit Ewigkeiten nicht.
Dir ist aber schon klar, dass die PCGH mittlerweile mit Savegames testet die je nach Szene oft im starken CPU-Limit liegen? Das verdeutlicht dein verlinkter Test mit Anno 1404 sehr deutlich (GTX480 vs. GTX470).

M4xw0lf
2012-01-05, 11:16:57
Dir ist aber schon klar, dass die PCGH mittlerweile mit Savegames testet die je nach Szene oft im starken CPU-Limit liegen? Das verdeutlicht dein verlinkter Test mit Anno 1404 sehr deutlich (GTX480 vs. GTX470).

Da sind noch haufenweise weitere Benches, häng dich halt nicht an dem in 1680*1050 auf. Wenn ich mich darauf bezogen hätte, hätte ich auch nicht von 40-50% Mehrperformance gesprochen, oder?

robbitop
2012-01-05, 11:20:27
Bevor man das behauptet, sollte man das eingehender untersuchen. Die Belegung an sich sagt recht wenig aus. Man müsste schon zwei Karten mit unterschiedlicher Speichermenge benchen (sonstige Charakteristika natürlich gleich).
Deswegen habe ich gesagt "ich vermute" - nicht "ich behaupte". ;)

Wenn die belegte VRAM Menge größer wird als die vorhandene, fängt die Karte an, an Bandbreitenmangel langsam zu ertrinken. Das ist eigentlich bereits bewiesen und sollte als Axiom gelten.

Nicht umsonst erhöhen die IHVs bei jeder Generation stetig die VRAM Mengen.

Wie gesagt: Bei Crysis @FullHD + MSAA konnte ich es direkt in der allerersten Szene nachmessen.

Dem kann man bei Launch-Benchmarks klar aus dem Weg gehen, in dem man für jede Messung auch die benötigte VRAM Menge notiert.

boxleitnerb
2012-01-05, 11:23:32
Deswegen habe ich gesagt "ich vermute" - nicht "ich behaupte". ;)

Wenn die belegte VRAM Menge größer wird als die vorhandene, fängt die Karte an, an Bandbreitenmangel langsam zu ertrinken. Das ist eigentlich bereits bewiesen und sollte als Axiom gelten.

Nicht umsonst erhöhen die IHVs bei jeder Generation stetig die VRAM Mengen.

Wie gesagt: Bei Crysis @FullHD + MSAA konnte ich es direkt in der allerersten Szene nachmessen.

Dem kann man bei Launch-Benchmarks klar aus dem Weg gehen, in dem man für jede Messung auch die benötigte VRAM Menge notiert.

Die Karte bricht allerdings nicht sofort ein, jedenfalls habe ich das so verstanden. Insbesondere aktuelle Karten sind da unempfindlicher. Wenn man den VRAM um 100-200MB überfährt, ist das nicht so schlimm. Es könnte sich allerdings in Nachladerucklern äußern, die jedoch auf die avg fps wiederum kaum Auswirkung haben.

Skysnake
2012-01-05, 11:27:42
Na so einfach gehts aber auch nicht. Eigentlich müsstest du genau die Karte verwenden, bei der du sehen willst ob ihr der RAM ausgeht.

Karten mit mehr RAM behalten auch mehr drin, wo ne Karte mit kleinen RAM auch mal schon was weg wirft.

So was also am Besten immer mit der Karte anschauen, die man auch testen will. Alles anedere ist so lala. Man kann nur sagen, das KEIN VRAM-Limit vorliegt, aber nicht das eins vorliegt, auch wenn so was wie ne Startszene wohl relativ gutartig sein sollte, und die Ergebnisse übertragbar sein sollten.

dargo
2012-01-05, 11:28:44
Da sind noch haufenweise weitere Benches, häng dich halt nicht an dem in 1680*1050 auf.
Und was macht dich so sicher, dass die anderen nicht ebenfalls im mehr oder weniger starken CPU-Limit liegen? Ich hoffe du kennst den Unterschied zwischen Savegames und Timedemos.

Edit:
Ich habe mir jetzt mal die anderen Benchmarks auf die schnelle angeschaut. Im Prinzip ist nur BF:BC2 in Full-HD zu gebrauchen weil die GTX480 sich um 29% von der GTX470 absetzen kann. Von den Leistungsdaten unterscheiden sich beide um 30% (könnten auch 33% sein, bin mir nicht mehr ganz sicher). Dh. in diesem Test bewegt man sich tatsächlich beinahe im vollständigen GPU-Limit.

IMO muss man das bei Benchmarks mitmessen und berücksichtigen. Sobald einer Karte der VRAM ausgeht, sind die Messwerte dann Grütze.
Das sowieso. Ansonsten kommt sowas lustiges bei raus.
http://www.pcgameshardware.de/aid,647813/GT200-Test-PCGH-Performance-Index-Juni-2008/Grafikkarte/Test/bildergalerie/?iid=839390

G8800U 63% schneller als G9800GTX. :freak:

robbitop
2012-01-05, 12:02:20
Die Karte bricht allerdings nicht sofort ein, jedenfalls habe ich das so verstanden. Insbesondere aktuelle Karten sind da unempfindlicher. Wenn man den VRAM um 100-200MB überfährt, ist das nicht so schlimm. Es könnte sich allerdings in Nachladerucklern äußern, die jedoch auf die avg fps wiederum kaum Auswirkung haben.
Es ist schleichend. Aber sobald es überschritten wurde, kostet es und verzerrt das Bild. Ab dem Punkt ist man messtechnisch nicht mehr sauber. Egal, wie "unwesentlich" die Quantität der Verzerrung ist.

robbitop
2012-01-05, 12:04:09
Na so einfach gehts aber auch nicht. Eigentlich müsstest du genau die Karte verwenden, bei der du sehen willst ob ihr der RAM ausgeht.

Karten mit mehr RAM behalten auch mehr drin, wo ne Karte mit kleinen RAM auch mal schon was weg wirft.

So was also am Besten immer mit der Karte anschauen, die man auch testen will. Alles anedere ist so lala. Man kann nur sagen, das KEIN VRAM-Limit vorliegt, aber nicht das eins vorliegt, auch wenn so was wie ne Startszene wohl relativ gutartig sein sollte, und die Ergebnisse übertragbar sein sollten.
Wegschmeissen kann man in der ersten Szene wohl nur recht wenig, oder? ;)
Und wenn sich eine Karte mit mehr VRAM da was einbehält, dann wird sich das sicher nicht zu Ungunsten der Performance ausdrücken.

Skysnake
2012-01-05, 12:08:53
Naja, ist halt die Frage, ob am Anfang nur das absolut nötige geladen wird, oder mehr, wenn mehr VRAM da ist.

robbitop
2012-01-05, 12:17:52
Naja, ist halt die Frage, ob am Anfang nur das absolut nötige geladen wird, oder mehr, wenn mehr VRAM da ist.
Und genau das wird ja einen Sinn haben - das macht man schließlich nicht ohne Sinn. Und der Sinn ist, dass man ggf. die Daten schon da hat und nicht nachladen muss - ergo Performance - ergo potenziell messtechnisch unsauber.

PCGH_Carsten
2012-01-05, 12:23:28
Das sowieso. Ansonsten kommt sowas lustiges bei raus.
http://www.pcgameshardware.de/aid,647813/GT200-Test-PCGH-Performance-Index-Juni-2008/Grafikkarte/Test/bildergalerie/?iid=839390

G8800U 63% schneller als G9800GTX. :freak:

Ja, wenn man beide Augen feste zukneift und sich nur den schmalen Ausschnitt anguckt, den man braucht um sich darüber lustig zu machen. :freak:

Ist ein bißchen wie zitieren ohne Kontext, oder?

dargo
2012-01-05, 12:27:16
Ja, wenn man beide Augen feste zukneift und sich nur den schmalen Ausschnitt anguckt, den man braucht um sich darüber lustig zu machen. :freak:

Ist ein bißchen wie zitieren ohne Kontext, oder?
Das sollte auch keine Kritik an PCGH sein. :) Ich erkenne den Vram-Mangel sofort am Ergebnis ohne irgendwelchen Text zu lesen. Die Masse schaut sich aber leider nur die Bildchen an und so kommen schnell falsche Schlussfolgerungen zustande.

LovesuckZ
2012-01-05, 12:41:57
GT200 Launch: PCGH (http://www.pcgameshardware.de/aid,647813/GT200-Test-PCGH-Performance-Index-Juni-2008/Grafikkarte/Test/bildergalerie/?iid=839390)

GF100 Launch: PCGH (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/bildergalerie/?iid=1270175)

Wie man sieht brachte die GTX280 gegenüber der 8800 Ultra ~30% Mehrleistung im Durchschnitt. Fermi packte 40-50% auf die GTX285.
80% Mehrleistung sind einfach unrealistisch, es sei denn man pickt sich einzelne Benchmarks heraus - aber wie schon im Thread erwähnt gibt es auch Benchmarks wo die 7970 80% vor der GTX580 und 100% vor der 6970 liegt.
Eine durchschnittliche Mehrperformance von 80% gab es seit Ewigkeiten nicht.

Immer wieder erstaunlich, dieses selektive Lesen.
Mit 1080p ist die GTX480 bei PCGH.de in...
... Anno1404 34% schneller (CPU-Limit)
... ArmA 2 55% schneller
... BC2 63% schneller
... Dirt:2 34% schneller (CPU-Limit)
... MW 2 25% schneller (Limitierung durch Texturleistung)
... Crysis W 38% schneller (Limitierung durch Texturleistung)
... GTA 4 57% schneller
... ME 2 44% schneller
... Metro 2033 100% schneller (dank Rechenleistung)
... Shift 2 38 schneller (CPU-Limit)
... WoW Wra... 63% schneller (CPU-Limit)

50,9% schneller im Schnitt.

Und hier die Ergebnisse von Hardware.fr (http://www.behardware.com/articles/787-1/report-nvidia-geforce-gtx-480-470.html) als zweite Quelle:
Mit 1080p und 4xMSAA ist die GTX480 in...
... Shift 41% schneller (CPU-Limit)
... ArmA 2 83% schneller (CPU-Limit)
... World in Conflict 37% schneller
... Anno1404 39% (1600p, da 1080p CPU-Limit)
... Red Faction Guerilla 78% schneller
... Crysis W 52% schneller
... Farcry 2 80% schneller
... HAWX 79% schneller
... Battleforge 177% schneller
... Stalker ist unfair - 300% schneller :D
... Dirt:2 43% schneller
... Metro 2033 100% schneller
... Batman: AA 48% schneller (PhysX)

Im Schnitt ist die GTX480 71% (ohne Stalker) schneller gewesen.

Guck an. Wie sich das Bild ändern kann, wenn man andere Spiele verwendet.

/edit: Eine GTX570 hat somit ein 71% besseres Perf/Watt Verhältnis als die GTX285. Da muss AMD noch einiges aufholen, um dort hinzukommen.

M4xw0lf
2012-01-05, 12:48:25
Immer wieder erstaunlich, dieses selektive Lesen.
Mit 1080p ist die GTX480 bei PCGH.de in...
... Anno1404 34% schneller (CPU-Limit)
... ArmA 2 55% schneller
... BC2 63% schneller
... Dirt:2 34% schneller (CPU-Limit)
... MW 2 25% schneller (Limitierung durch Texturleistung)
... Crysis W 38% schneller (Limitierung durch Texturleistung)
... GTA 4 57% schneller
... ME 2 44% schneller
... Metro 2033 100% schneller (dank Rechenleistung)
... Shift 2 38 schneller (CPU-Limit)
... WoW Wra... 63% schneller (CPU-Limit)

50,9% schneller im Schnitt.

Und hier die Ergebnisse von Hardware.fr (http://www.behardware.com/articles/787-1/report-nvidia-geforce-gtx-480-470.html) als zweite Quelle:
Mit 1080p und 4xMSAA ist die GTX480 in...
... Shift 41% schneller (CPU-Limit)
... ArmA 2 83% schneller (CPU-Limit)
... World in Conflict 37% schneller
... Anno1404 39% (1600p, da 1080p CPU-Limit)
... Red Faction Guerilla 78% schneller
... Crysis W 52% schneller
... Farcry 2 80% schneller
... HAWX 79% schneller
... Battleforge 177% schneller
... Stalker ist unfair - 300% schneller :D
... Dirt:2 43% schneller
... Metro 2033 100% schneller
... Batman: AA 48% schneller (PhysX)

Im Schnitt ist die GTX480 71% (ohne Stalker) schneller gewesen.

Guck an. Wie sich das Bild ändern kann, wenn man andere Spiele verwendet.

/edit: Eine GTX570 hat somit ein 71% besseres Perf/Watt Verhältnis als die GTX285. Da muss AMD noch einiges aufholen, um dort hinzukommen.

Na klar, wenn man auch jedes Ergebnis unter 40% als CPU-Limit wegdiskutiert ;D

Übrigens kommt Hardware.fr ohne AA auch nur auf +51% - danach schreie ich VRam-Limit und die Werte sind verfälscht, analog zum CPU-Limit.

dargo
2012-01-05, 12:49:02
Deshalb sage ich ja, dass Performanceratings, ergo Durchschnitt für den Popo ist. Erst recht wenn CPU-Limits in die Rechnung hineinfließen.

Na klar, wenn man auch jedes Ergebnis unter 40% als CPU-Limit wegdiskutiert ;D
Das zeigt mir wieder wunderbar, dass du einer von vielen bist die Benchmarks nicht richtig deuten können.

LovesuckZ
2012-01-05, 12:58:11
Na klar, wenn man auch jedes Ergebnis unter 40% als CPU-Limit wegdiskutiert ;D

Übrigens kommt Hardware.fr ohne AA auch nur auf +51% - danach schreie ich VRam-Limit und die Werte sind verfälscht, analog zum CPU-Limit.

Ich habe das Standard-Setting von beiden Seiten genommen.
Man sollte schon damit leben, wenn man sich dieses Setting selbst ausgesucht hat.

M4xw0lf
2012-01-05, 12:59:09
Deshalb sage ich ja, dass Performanceratings, ergo Durchschnitt für den Popo ist. Erst recht wenn CPU-Limits in die Rechnung hineinfließen.

Das zeigt mir wieder wunderbar, dass du einer von vielen bist die Benchmarks nicht richtig deuten können.

Und du bist wohl einer von vielen, die nur cherry-picked Benchmarks als "echt" erachten - "Durchschnitt ist für den Popo" und so.

Ich habe das Standard-Setting von beiden Seiten genommen.
Man sollte schon damit leben, wenn man sich dieses Setting selbst ausgesucht hat.

1920*1200 ohne AA ist auch ein Standardsetting, darüber geht der GTX285 dann wohl der VRam aus, was die Ergebnisse genauso verfälscht wie ein CPU-Limit. Hat jemand Benches von der GTX285 2GB vs GTX480?

boxleitnerb
2012-01-05, 13:07:33
Der Durchschnitt verfälscht aber. Allerdings ist es auch bei Einzelbenchmarks oft schwierig, zwischen VRAM-Limit, CPU-Limit und einer Limitierung durch die GPU (Bandbreite, Füllrate, schlagmichtot) zu unterscheiden. Gerade weil das Limit schleichend eintritt in jedem Fall, denn in einer Benchmarkszene wechseln die Anforderungen ja permanent.

Ich finde beide Ansätze ok:
Durchschnitt in den fordernsten Settings, die man mit handelsüblichen Mitteln einstellen kann. Die Spiele müssen halt modern und fordernd sein. Und dazu noch Spezialtests mit SSAA und Downsampling oder (neutrale) Techdemos.

LovesuckZ
2012-01-05, 13:07:48
1920*1200 ohne AA ist auch ein Standardsetting, darüber geht der GTX285 dann wohl der VRam aus, was die Ergebnisse genauso verfälscht wie ein CPU-Limit. Hat jemand Benches von der GTX285 2GB vs GTX480?

:facepalm:

Tja, das Niveau singt sich immer weiter in den VorderHintergrund. Schade, für das Forum.

Da wir gerade davon reden: Bei Computerbase.de (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/21/#abschnitt_performancerating) ist ist die GTX480 71% schneller in 1680x1050 gewesen. Tja, und schon bist du widerlegt.

Dural
2012-01-05, 13:07:58
kann nicht mal eine Seite ALLE "high-end" Grafikkarten seit G7x/R5xx mit dem GLEICHEM Treiber (sofern noch möglich) mit ca. 10 alten und neuen Spielen durch testen?!? am besten mit einer Intel Quad Core CPU @ 5GHz

Das würde ein schönes Leistungsbild ergeben! Wenn Ich bei einer Redaktion arbeiten würde, würde ich so was jedes Jahr einmal machen. stattdessen hört man aus diesem Bereich ständig immer nur "zu wenig Zeit" da muss ich mich fragen was so presse Menschen eigentlich den ganzen Tag machen... ;)

M4xw0lf
2012-01-05, 13:08:20
:facepalm:

Tja, das Niveau singt sich immer weiter in den Vordergrund. Schade, für das Forum.

Du hast so recht.

Bucklew
2012-01-05, 13:10:14
Der Durchschnitt der Spiele hat nunmal keinen Faktor 2. Und das ist es, worauf es ankommt. Die Rohleistung ist dafür auch gar nicht da. Woher soll es denn dann auch kommen? ;)
Na klar hat der Durchschnitt der Spiele keinen Faktor2, wenn sich die neue GPU in 2/3 der Benchmarks langweilt, weil die CPU sie verhungern lässt. Wenn ich dich 3 Tage hungern lasse rennst du die 100m auch nicht in 10 Sekunden.

Inzwischen habe ich auch den Fehler gefunden: Du hast mir die Daten der GTX280 verlinkt, obwohl es die GTX285, auf deren Leistung ich mich bezogen habe.

Und du bist wohl einer von vielen, die nur cherry-picked Benchmarks als "echt" erachten - "Durchschnitt ist für den Popo" und so.
Was bringt denn ein Test im CPU-Limit zur Beurteilung der Leistung einer GPU?

Wenn du wissen willst wie schnell dein Auto fährt, fährste doch auch nicht durch die 30er Zone und stellst fest, dass ein Käfer genauso schnell ist...

M4xw0lf
2012-01-05, 13:13:44
Was bringt denn ein Test im CPU-Limit zur Beurteilung der Leistung einer GPU?

Wenn du wissen willst wie schnell dein Auto fährt, fährste doch auch nicht durch die 30er Zone und stellst fest, dass ein Käfer genauso schnell ist...

Ich beziehe mich durchaus nicht auf CPU-limitierte Szenarien, auch wenn mir das hier andauernd unterstellt wird. Die Benches bei PCGH in 2560*1600+AA sind wohl kaum verdächtig im CPU-Limit zu laufen.

dargo
2012-01-05, 13:14:02
Und du bist wohl einer von vielen, die nur cherry-picked Benchmarks als "echt" erachten - "Durchschnitt ist für den Popo" und so.

Du verstehst es immer noch nicht oder? Wenn Karte X im Spiel X sich von Karte Y um bsw. 80% absetzen kann (Rechenleistung von Karte X ebenfalls 80% höher) und im Spiel Y nur um bsw. 40% dann gibt es nur eine Möglichkeit... nämlich CPU-Limit im Spiel Y.

Solche Extremen gibt es seit dem G80 zwischen einzelnen Spielen nicht mehr. Das gab es früher als der G70/71 bei shaderlastigen Games stark geschwächelt hat. Seit G80 aber nicht mehr. Dass es geringe Unterschiede von bsw. 10% zwischen einzelnen Spielen gibt will ich ja nicht abstreiten. Und wenn du eben solche cpu-limitierten Gametests hast und diese ins Performancerating hineinfließen wirst du wohl 1 und 1 zusammenzählen können.

Nakai
2012-01-05, 13:15:45
Leudz, langsam wirds echt abstrus hier.
Nimmt euch ne Pille oder so...:rolleyes:

BTW.: Ich kann mich nicht erinnern, dass es hier um alte GPUs, Chips oder Karten geht. Außerdem kann das ideale Testszenario niemals wirklich erreicht werden. Da müssen leider die Leser etwas Hirnschmalz benutzen, um die Tests richtig zu interpretieren...:freak:

V2.0
2012-01-05, 13:17:24
Wenn wir uns nicht darauf einigen, dass nur NV30 gegen R300 ein brauchbarer Hinweis für Kepler gegen Tahiti ist, dann brauchen wir über die alten Karten nicht sprechen.

Godmode
2012-01-05, 13:19:20
Könnte man diese Diskussion heraussplitten, weil es ist absolut uninteressant. Es wäre schön wenn es hier um Kepler gehen würde und nicht über irgend welchen Kram. :mad:

M4xw0lf
2012-01-05, 13:23:59
Du verstehst es immer noch nicht oder? Wenn Karte X im Spiel X sich von Karte Y um bsw. 80% absetzen kann (Rechenleistung von Karte X ebenfalls 80% höher) und im Spiel Y nur um bsw. 40% dann gibt es nur eine Möglichkeit... nämlich CPU-Limit im Spiel Y.

Solche Extremen gibt es seit dem G80 zwischen einzelnen Spielen nicht mehr. Das gab es früher als der G70/71 bei shaderlastigen Games stark geschwächelt hat. Seit G80 aber nicht mehr. Dass es geringe Unterschiede von bsw. 10% zwischen einzelnen Spielen gibt will ich ja nicht abstreiten. Und wenn du eben solche cpu-limitierten Gametests hast und diese ins Performancerating hineinfließen wirst du wohl 1 und 1 zusammenzählen können.

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/bildergalerie/?iid=1270204

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/bildergalerie/?iid=1270196

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/bildergalerie/?iid=1270179

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/bildergalerie/?iid=1270178

Das hier sind alles Benchmarks in 2560*1600 und z.T. noch mit 4xAA. Der Abstand von GTX470 zu GTX480 beträgt immer erwartungsgemäß ~25%. Wo willst du hier ein CPU-Limit postulieren?
Die GTX480 liegt dabei in bemerkenswerter Weise NICHT 80% vor der GTX285.

Könnte man diese Diskussion heraussplitten, weil es ist absolut uninteressant. Es wäre schön wenn es hier um Kepler gehen würde und nicht über irgend welchen Kram. :mad:

Ja da hast du recht, ich lasse es jetzt auch. :wink:

boxleitnerb
2012-01-05, 13:24:18
Du verstehst es immer noch nicht oder? Wenn Karte X im Spiel X sich von Karte Y um bsw. 80% absetzen kann (Rechenleistung von Karte X ebenfalls 80% höher) und im Spiel Y nur um bsw. 40% dann gibt es nur eine Möglichkeit... nämlich CPU-Limit im Spiel Y.


Das ist so aber überhaupt nicht richtig. Da muss Karte X in Spiel Y nur der VRAM ausgehen, vielleicht hat sie zu wenig Tessellation-/Rechenleistung oder sonstwas. Oder sind die Radeons in Stone Giant plötzlich CPU-limitiert und hinken nur deshalb hinterher? :freak:

Es gibt nicht nur CPU-Limit und kein CPU-Limit. Da können noch ganz andere Sachen reinspielen. Du solltest das doch eigentlich wissen.

LovesuckZ
2012-01-05, 13:26:40
Das ist so aber überhaupt nicht richtig. Da muss Karte X in Spiel Y nur der VRAM ausgehen, vielleicht hat sie zu wenig Tessellation-/Rechenleistung oder sonstwas. Oder sind die Radeons in Stone Giant plötzlich CPU-limitiert und hinken nur deshalb hinterher? :freak:

Es gibt nicht nur CPU-Limit und kein CPU-Limit. Da können noch ganz andere Sachen reinspielen. Du solltest das doch eigentlich wissen.

Dafür müsste man sich für die Architektur interessieren. Und das ist eben nicht mehr der Fall in diesem Forum. :(

Deswegen werden hier auch irgendwelche Benchmarks rumgeworfen, die man nichtmal richtig einordnen kann.

dargo
2012-01-05, 13:31:44
Übrigens kommt Hardware.fr ohne AA auch nur auf +51% - danach schreie ich VRam-Limit und die Werte sind verfälscht, analog zum CPU-Limit.
Bei einzelnen Tests @Hardware.fr würde ich auch vom Vram-Mangel ausgehen. In Battleforge verlierst bsw. die GTX285 mit 4xAA gegenüber 1xAA 27%, die GTX480 nur 3%. Das sieht sehr verdächtig aus. Ich kann mich nicht daran erinnern, dass erstere GPU-Generation so stark mit 4xAA einbricht. Möglicherweise limitiert der Vram der GTX285 bereits mit 1xAA.

LovesuckZ
2012-01-05, 13:40:29
Bei einzelnen Tests @Hardware.fr würde ich auch vom Vram-Mangel ausgehen. In Battleforge verlierst bsw. die GTX285 mit 4xAA gegenüber 1xAA 27%, die GTX480 nur 3%. Das sieht sehr verdächtig aus. Ich kann mich nicht daran erinnern, dass erstere GPU-Generation so stark mit 4xAA einbricht. Möglicherweise limitiert der Vram der GTX285 bereits mit 1xAA.

Da liegt kein VRAM-Limit vor. Der Einbruch von 4xMSAA -> 8xMSAA ist genauso hoch.
Es sind Architekturunterschiede, die das Ergebnis beeinflussen: DX11 und veränderte Rechenarchitektur. Auch ohne AA ist die GTX480 2x schneller.

dargo
2012-01-05, 13:41:08
Das ist so aber überhaupt nicht richtig. Da muss Karte X in Spiel Y nur der VRAM ausgehen, vielleicht hat sie zu wenig Tessellation-/Rechenleistung oder sonstwas. Oder sind die Radeons in Stone Giant plötzlich CPU-limitiert und hinken nur deshalb hinterher? :freak:

Es gibt nicht nur CPU-Limit und kein CPU-Limit. Da können noch ganz andere Sachen reinspielen. Du solltest das doch eigentlich wissen.
Ähm... erstens sollte erstere Karte die GTX480 wiederspiegeln, zweitere eine ältere Generation wie zb. die GTX285. Welche hat nun mehr Vram? ;)
Zweitens... Tessellation spielt hier absolut keine Rolle da zweitere Karte nur DX10 beherrscht. Und natürlich wäre Tessellation je nach Testszene ein weiterer "Störfaktor".

Gipsel
2012-01-05, 13:41:32
So, jetzt ist hier endgültig Schluß mit den Vergleichen von 8800er mit GTX280/285 oder GTX285/GTX480! Macht einen anderen Thread dafür auf!

Jeder weitere Post dazu in diesem Thread wird sanktioniert. Gab ja wohl schon genug Ermahnungen per Modtext.

LovesuckZ
2012-01-05, 15:14:30
"We are shipping 28nm products now"

CES, i hör di tapsen. :D

Gipsel
2012-01-05, 15:28:09
Hier mal eine Präsentation zu den Herausforderungen für die Zukunft von nV (http://mediasite.colostate.edu/Mediasite/SilverlightPlayer/Default.aspx?peid=22c9d4e9c8cf474a8f887157581c458a1d#) (man benötigt wohl Silverlight). Um etwa 30 Minuten geht es um einen Maxwell-Nachfolger (er nennt ihn Einstein), wo klar gesagt wird, daß dort keine Scoreboarding mehr gemacht wird und das Scheduling dramatisch vereinfacht wird. Es fallen auch Wörter wie "latency counter". Damit wird erreicht, daß man eine Operation sicher absetzen kann, ohne sich groß um Abhängigkeiten kümmern zu müssen. Das Scheduling wird also sich also offenbar auf die selben simplen Prinzipien zurückziehen wie GCN das heute tut. Die SM-Lanes arbeiten aber vollkommen anders, das sieht nicht mehr nach SIMD aus.

Edit:
Das Ding ist übrigens angeblich für den 10nm Prozeß geplant (die 290mm² Diegröße sind allerdings zu diesem Zeitpunkt schwerlich mehr als eine sehr grobe Schätzung), kann man sich also grob überlegen, wann das kommt (2018+).

Hugo78
2012-01-05, 16:35:00
@LZ

Link plz :)

@Gispel

Wenn du schon Ideen hast wohin Einstein gehen könnte, dann mach doch am besten gleich extra Thema zu "Nvidia: Einstein, 10nm, 2018" auf. ;)

Mein erster Spekualtuis dazu, spätestens mit Einstein wird es ein neues Namesschema geben müssen. *lol*

M4xw0lf
2012-01-05, 16:40:27
@LZ

Link plz :)

@Gispel

Wenn du schon Ideen hats wohin Einstein gehen könnte, dann mach doch am besten gleich extra Thema zu "Nvidia: Einstein, 10nm, 2018" auf. ;)

Mein erster Spekualtuis dazu, spätestens mit Einstein wird es ein neues Namesschema geben müssen. *lol*

Geforce 1100 "Einstein"... joa eher nicht ^^

Iruwen
2012-01-05, 16:48:40
Geforce 1000-3000 wäre ja noch frei. Und NG1 als Erinnerung an NV1 (Next Gen oder New Geforce oder...). Würd ich mir schonmal sichern.

AnarchX
2012-01-05, 16:53:55
Diskussionen über die Namen von GraKas in >5 Jahren? :ugly:

Interessanter wird wohl nächste Woche der Live Webcast von der CES: http://finance.yahoo.com/news/NVIDIA-Announces-2012-CES-iw-1382447867.html?x=0

Hugo78
2012-01-05, 17:03:53
Diskussionen über die Namen von GraKas in >5 Jahren? :ugly:


Jein, aber mehr fällt mir DAU erstmal dazu nicht ein.
Ausser das TSMC bis dahin ihren Fertigungsrückstand auf Intel in Sachen 3D Transitoren wett gemacht haben sollten.

Meiner Ansicht nach, wird sich Intels MIC nur solange halten, wie Intel es auch weiterhin schafft, über die Fertigung einen Vorteil zugenerieren.

Wenn Intel also mit MIC jetzt die nächsten paar Jahre, der Teslasparte Anteile abnimmt, ohne deutlich vom Design her energieeffizienter zuwerden,
könnte sich diese Marktstellung wieder ändern, sobald die Physik ihnen da einen Strich durch die Rechnung macht.

Ronny145
2012-01-05, 17:03:56
We’ve heard that there is a slight chance that Nvidia will show its new Kepler 28nm architecture at next week’s CES and possibly showcase it at Jen Hsun Huang’s press conference scheduled for January 9th.

Meanwhile AMD’s 28nm lineup looks very good and despite silent promises made by Nvidia to its partners that “Kepler is much better than that“...

A few partners also confirm that they have heard talk of a Q1 launch for Kepler, but there is no better data than that. A few other independent sources expect to see the cards in Q1 2012 but then to actually start selling the parts in volume in Q2 2012.
http://www.fudzilla.com/graphics/item/25431-nvidia-partners-concerned-about-amds-28nm-lead

Bucklew
2012-01-05, 17:09:43
Das hätte doch mal was: am 9.1. Hardlaunch der Keplerserie.

Schade, das das nichts wird, aber hätte schon echt Stil ;D

M4xw0lf
2012-01-05, 17:14:25
Das hätte doch mal was: am 9.1. Hardlaunch der Keplerserie.

Schade, das das nichts wird, aber hätte schon echt Stil ;D

Ich wäre nicht als einziger ziemlich überrascht :wink:

dildo4u
2012-01-05, 17:17:01
Hier mal eine Präsentation zu den Herausforderungen für die Zukunft von nV (http://mediasite.colostate.edu/Mediasite/SilverlightPlayer/Default.aspx?peid=22c9d4e9c8cf474a8f887157581c458a1d#) (man benötigt wohl Silverlight). Um etwa 30 Minuten geht es um einen Maxwell-Nachfolger (er nennt ihn Einstein), wo klar gesagt wird, daß dort keine Scoreboarding mehr gemacht wird und das Scheduling dramatisch vereinfacht wird. Es fallen auch Wörter wie "latency counter". Damit wird erreicht, daß man eine Operation sicher absetzen kann, ohne sich groß um Abhängigkeiten kümmern zu müssen. Das Scheduling wird also sich also offenbar auf die selben simplen Prinzipien zurückziehen wie GCN das heute tut. Die SM-Lanes arbeiten aber vollkommen anders, das sieht nicht mehr nach SIMD aus.

Edit:
Das Ding ist übrigens angeblich für den 10nm Prozeß geplant (die 290mm² Diegröße sind allerdings zu diesem Zeitpunkt schwerlich mehr als eine sehr grobe Schätzung), kann man sich also grob überlegen, wann das kommt (2018+).
Interresant 8 ARM Cores und 2048 SP ist das Ding das gleichzeigt Denver?Halt mit weniger SP in 20nm.

horn 12
2012-01-05, 17:18:02
Vor Ende April, Anfang Mai wird nichts von NV kommen was Tahiti XT gefährlich werden kann.

Nightspider
2012-01-05, 17:31:20
Vor Ende April, Anfang Mai wird nichts von NV kommen was Tahiti XT gefährlich werden kann.

Wer ist deine Quelle? Weihnachtsmann oder Osterhase?

Zergra
2012-01-05, 17:37:28
Wer ist deine Quelle? Weihnachtsmann oder Osterhase?
ich würd sagen die Statistik :D -> und ich kann dir versichern das es der Fall ist... wenn nicht gar noch später...

Adam D.
2012-01-05, 17:38:08
Wer ist deine Quelle? Weihnachtsmann oder Osterhase?
Er ist für seine guten Quellen bekannt :freak: Ernsthaft, aktuell weiß man doch nur "bald", was auch immer das bedeuten mag. Könnte Februar sein, könnte Juni sein.

Gipsel
2012-01-05, 17:49:51
Wenn du schon Ideen hast wohin Einstein gehen könnte, dann mach doch am besten gleich extra Thema zu "Nvidia: Einstein, 10nm, 2018" auf. ;)
Siehe hier:
Interresant 8 ARM Cores und 2048 SP ist das Ding das gleichzeigt Denver?Halt mit weniger SP in 20nm.
Ich denke auch, daß ein Teil der Dinge schon früher ins Design einfließen werden. Die Frage ist was genau kommt schon mit Kepler, was mit Maxwell und was erst noch später. Aber zumindest scheint die Richtung klar, in die es gehen wird.

Blediator16
2012-01-05, 18:17:21
Die Frage ist welche Kepler nun kommen. Die mobile Variante oder wird da schon evtl. ein Launchtag für den 104 angegeben.

Dural
2012-01-05, 18:28:35
ich würd sagen die Statistik :D -> und ich kann dir versichern das es der Fall ist... wenn nicht gar noch später...


welche statistik?!? :rolleyes:

M4xw0lf
2012-01-05, 18:41:26
welche statistik?!? :rolleyes:

Vermutlich die Fermi-Launch-Statistik. "Hundert Prozent aller Fermi-Launches waren ein halbes Jahr später als die Konkurrenz." oder so :freak:

OgrEGT
2012-01-05, 18:41:39
Zu schön um wahr zu sein?

http://forum.beyond3d.com/showpost.php?p=1610228&postcount=715

Edit: Die Tabelle kommt einem bekannt vor :D Die Balken hatte ich bis jetzt noch nicht gesehen...

M4xw0lf
2012-01-05, 18:43:45
Zu schön um wahr zu sein?

http://forum.beyond3d.com/showpost.php?p=1610228&postcount=715

Ja. Und was ist überhaupt eine "GTR 785"?
GTX 780 Refresh vermutlich. Wäre es da nicht erst recht reichlich früh für Benchmarks?

boxleitnerb
2012-01-05, 18:47:19
Na das ist ja völliger Quatsch, total unprofessionell. Allein die Überschrift. Dann passen die Farben nicht in das übliche NV-Schema. Und BF3 unterstützt gar kein PhysX. Selten so einen miserablen Fake gesehen.

LovesuckZ
2012-01-05, 18:48:33
welche statistik?!? :rolleyes:

Na, wir haben doch schon gelernt, dass Oktober 5 Monate nach November kommt. Da liegt es eigentlich nahe, dass Juli und November 6 Monate nach Oktober bzw. Dezember erscheinen.

Zergra
2012-01-05, 18:49:11
:D:D genau sie schon den benchmark von der 790 GTX und unten haben sie die Daten der 600Serie und der Benchmark beschreibt die 700Serie häh? fake oO ?

LovesuckZ
2012-01-05, 19:04:36
@LZ

Link plz :)


Siehe den Link von Gipsel.

"We are announcing our Kepler products very soon"

Gipsel
2012-01-05, 19:18:30
Siehe den Link von Gipsel.

"We are announcing our Kepler products very soon"
Die sagen in der von mir verlinkten Präsentation was über Kepler? :confused:

Hugo
2012-01-05, 19:21:45
is da was drann? verzögert sich Kepler doch?
http://hartware.net/news_53710.html

Bucklew
2012-01-05, 19:24:26
is da was drann? verzögert sich Kepler doch?
http://hartware.net/news_53710.html
Steht da was neues drin? Nö.

Hugo
2012-01-05, 19:49:05
naja ich ging bis jetzt von Lieferbaren Karten im Q1 aus. Da klingt eher von Q2

V2.0
2012-01-05, 19:51:52
Ist doch bekannt.
GK107 - Q1 (OEM)
GK104 - Q2
GK106 - Q2
GK110 - Q3

Mit etwas Glück verschiebt sich das alles um 1-2 Monate nach hinten.

AwesomeSauce
2012-01-05, 19:52:33
Ist doch bekannt.
GK107 - Q1
GK104 - Q2
GK106 - Q2
GK110 - Q3
Die Kunst deines Trollierens ist kaum zu überbieten:rolleyes:

A few aspects should become a lot clearer in the following days.
http://semiaccurate.com/forums/showthread.php?p=147332#post147332
Also vielleicht doch etwas zur CES...

V2.0
2012-01-05, 20:24:10
Die Kunst deines Trollierens ist kaum zu überbieten:rolleyes:

Das sind die Daten die man überall lesen kann, ich bevorzuge ab solche Daten als Launch bis und nicht als Launch ab anzugeben.

Schnitzl
2012-01-05, 21:42:35
Das sind die Daten die man überall lesen kann, ich bevorzuge ab solche Daten als Launch bis und nicht als Launch ab anzugeben.
Also ich lese hier was ganz anderes:
http://www.3dcenter.org/artikel/das-hardware-jahr-2012-der-vorschau

Februar/März ist für mich 1.Quartal (z.B. für GK104)

Hugo78
2012-01-05, 23:49:00
Siehe den Link von Gipsel.
"We are announcing our Kepler products very soon"

Ah ok. :smile:

Skysnake
2012-01-06, 03:40:06
Hier mal eine Präsentation zu den Herausforderungen für die Zukunft von nV (http://mediasite.colostate.edu/Mediasite/SilverlightPlayer/Default.aspx?peid=22c9d4e9c8cf474a8f887157581c458a1d#) (man benötigt wohl Silverlight). Um etwa 30 Minuten geht es um einen Maxwell-Nachfolger (er nennt ihn Einstein), wo klar gesagt wird, daß dort keine Scoreboarding mehr gemacht wird und das Scheduling dramatisch vereinfacht wird. Es fallen auch Wörter wie "latency counter". Damit wird erreicht, daß man eine Operation sicher absetzen kann, ohne sich groß um Abhängigkeiten kümmern zu müssen. Das Scheduling wird also sich also offenbar auf die selben simplen Prinzipien zurückziehen wie GCN das heute tut. Die SM-Lanes arbeiten aber vollkommen anders, das sieht nicht mehr nach SIMD aus.

Edit:
Das Ding ist übrigens angeblich für den 10nm Prozeß geplant (die 290mm² Diegröße sind allerdings zu diesem Zeitpunkt schwerlich mehr als eine sehr grobe Schätzung), kann man sich also grob überlegen, wann das kommt (2018+).
Gipsel, das Video ist doch ein schlechter Witz oder?

Das war doch bitte hoffentlich nicht in Stonford..... Der hat doch absolut NICHTS aber wirklich rein gar NICHTS erzählt, was Leuten die in der Thematik drin sind, nicht schon seit langem klar sein sollte.

Dazu noch das ganze tools und jeder soll das machen was seine Aufgabe ist gelaber... WTF! Nein, Programmierer machen das nur zum Spaß...

Auch seh ich einige konzeptionelle Schwächen. Da wird wohl von single-User Umgebungen ausgegangen. Das was du hast, hast du exclusive und keiner Funkt dir dazwischen. Dazu seh ich gerade mit den tools etc. was er erzählt hat, ziemliche Probleme bzgl. der Vorhersagbarkeit von Programmabläufen. Denn wenn die sehr stark schwanken im Programmablauf, dann kann er sich seine tools sonst wo hin stecken, weil es da dann sehr schnell passieren kann, dass das totalen Bockmist baut. Ist ja auch nicht so, das man bisher nicht versucht hat den Programmierern tools an die Hand zu geben. In die Richtung gabs ja auch ne Frage aus dem Puplikum.

Zudem scheint mir das ganze Konzept recht Spitz auf Knopf genäht zu sein. Sprich:

Also wenn die Applikation gutartig ist, und zu unserer Architektur passt, dann läuft das dann echt schneller und Effizienter, aber bitte nicht zu weit vom Optimum weg gehen, sonst stürzen wir richtig ab.

Irgendwie musste ich da spontan an das Gerücht bzgl. den veralteten Workingsets denken, die für die BD-Entwicklung angeblich verwendet worden sind.

Ich hoffe mal nVidia verhebt sich an der Sache nicht und arbeitet an vielen anderen Sachen noch.

Gerade einen Knackpunkt hat er ja angesprochen. Den DRAM. Wenn man allein die Energiekosten weg bekommen könnte, wäre das schon ein sehr großer Schritt. Aber in die Richtung gibts ja weder von AMD noch von nVidia was zu hören.....

Und was die Sache mit den Daten anbelangt, die man hin und her schiebt. Da müssen Sie halt mal an das Programmiermodell setzen, und dem Programmierer die Möglichkeit auf Caching und überhaupt die Datenverteilung mehr einfluss zu geben per Pragmas. Ich weiß zwar, dass das Zeug irgendwo in nem Cache ist, aber nicht in welchem, und auch sonst nichts. Ich als Programmierer kann da Zusammenhänge erkennen, die ein tool wohl nie erkennen wird, oder nur sehr sehr sehr sehr schwer.

Genau wie das reingefunke von anderen Sachen. Die will ich abstellen können wenn ich denke, das ich mein Problem super gemapped bekomme und mir da blos keiner drin rum pfuschen soll etc. etc. etc.

Also sorry, eine Stunde Zeit meines Lebens vergeudet mit so nem oberflächlichen Gelaber...

OgrEGT
2012-01-06, 09:30:42
Aus dem Canary Island Thread...
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519547&page=3




Wieso soll ich dir was Garantieren müssen? wir sind im Spekulationsforum. Ansonsten Garantier du mir mal das der GK100 noch vor 1 Juni 2012 kommt ^^

Es gibt mehr Kepler als GK110 und ja ich kann Dir garantieren dass schon seit Dezember Kepler GPUs bei Partnern liegen aber eben nicht GK110.

der GK104 wird aber eher im ebstenfall mit SI konkurieren und ihn nicht übertrumpfen, also interessiert der eher weniger

Ich hab nirgends GK104 erwaehnt; sonst eben weil Tahiti in einer vergleichbareren Kategorie mit 104 liegt und AMD eben keine single high end chips seit Jahren herstellt will ich auch keine Apfel zu Birnen Vergleiche.

Heißt das, dass somit seit Dezember GK107 GPUs bei den Boardpartnern sind, aber noch keine GK104, GK110 sowieso nicht? :O

Hugo78
2012-01-06, 09:38:57
Die ersten paar 10k Karten kommen doch eh von Nvidia und die Partner kleben einfach nur ihren Sticker drauf.

M4xw0lf
2012-01-06, 11:14:46
Heißt das, dass somit seit Dezember GK107 GPUs bei den Boardpartnern sind, aber noch keine GK104, GK110 sowieso nicht? :O

Das war ja zu vermuten, es hieß ja schon die ganze Zeit das Kepler mit dem low-end oder sogar mobile-Segment starten wird. Insofern ist das nicht sehr überraschend. Wenn jetzt gerade GK104 eintrudelt bei den Partnern kann er immer noch im Q1 kommen.

OgrEGT
2012-01-06, 11:29:12
Das war ja zu vermuten, es hieß ja schon die ganze Zeit das Kepler mit dem low-end oder sogar mobile-Segment starten wird. Insofern ist das nicht sehr überraschend. Wenn jetzt gerade GK104 eintrudelt bei den Partnern kann er immer noch im Q1 kommen.

Viel Zeit wäre das aber nicht oder? Man wird es sehen, soblad die ersten Leaks durchsickern, da die meistens von den Boardpartnern kommen. So lange da nix (also überhaupt gar nix) zu hören ist, sind wohl auch noch keine Chips dort, geschweige denn schon Karten produziert, was ja auch nochmal ein wenig Zeit benötigt (wieviel eigentlich?).

Edit:
Immerhin war hier so zu lesen, dass der Anspruch ist, dass GK104 "hard" gelauncht wird bei gutem Preis/Leistungsverhältnis, was dann aber auch eine ordentliche Stücktahl voraussetzt. Ich glaube so langsam, dass wir in Q1 analog zu AMD einen Papierlaunch sehen werden, mit guter Verfügbarkeit in Q2.

Mancko
2012-01-06, 11:35:22
Viel Zeit wäre das aber nicht oder? Man wird es sehen, soblad die ersten Leaks durchsickern, da die meistens von den Boardpartnern kommen. So lange da nix (also überhaupt gar nix) zu hören ist, sind wohl auch noch keine Chips dort, geschweige denn schon Karten produziert, was ja auch nochmal ein wenig Zeit benötigt (wieviel eigentlich?).

Die ersten Karten kommen wahrscheinlich direkt von Nvidia und werden nur mit anderen Stickern beklebt.

M4xw0lf
2012-01-06, 11:59:03
Die ersten Karten kommen wahrscheinlich direkt von Nvidia und werden nur mit anderen Stickern beklebt.

Ja, so wies mit den ersten 7970ern auch grade noch ist. Allerdings sollten auch langsam mal geleakte Bilder von fertig bestickerten Keplern auftauchen, das ist immer so das sicherste Anzeichen für einen baldigen Release ^^

Hugo78
2012-01-06, 12:08:00
Viel Zeit wäre das aber nicht oder? Man wird es sehen, soblad die ersten Leaks durchsickern, da die meistens von den Boardpartnern kommen.

Wenn NV wieder erst im letzten Moment ihre Partner mit mehr als dem nötigsten Details versorgt, dann nicht unbedingt.

Zur Erinnerung:
Am 30.10.2010 hat Char_LIE sich noch köstlich ausgekotzt, dass der Launch der GTX 580 ein Paperlaunch werden würde,
nur um die Analysten zufrieden zustellen und man die Karte erst viel später, wenn überhaupt kaufen kann.
http://semiaccurate.com/2010/10/30/nvidia-paper-launch-gtx580-week/

10 Tage später gabs den Hardlaunch der GTX 580.

davidzo
2012-01-06, 12:54:51
Ja, so wies mit den ersten 7970ern auch grade noch ist. Allerdings sollten auch langsam mal geleakte Bilder von fertig bestickerten Keplern auftauchen, das ist immer so das sicherste Anzeichen für einen baldigen Release ^^

nö, die leakbilder machen die oems doch bevor sie ihren sticker draufkleben, so dumm sind die auch nicht ;)

V2.0
2012-01-06, 13:24:21
Was nicht existiert kann man nicht leaken.

LovesuckZ
2012-01-06, 13:26:52
Was nicht existiert kann man nicht leaken.

Und erst wenn es geleakt wurde, existiert es.

V2.0
2012-01-06, 13:37:30
Exakt. :D

OgrEGT
2012-01-06, 14:01:22
Wenn NV wieder erst im letzten Moment ihre Partner mit mehr als dem nötigsten Details versorgt, dann nicht unbedingt.

Zur Erinnerung:
Am 30.10.2010 hat Char_LIE sich noch köstlich ausgekotzt, dass der Launch der GTX 580 ein Paperlaunch werden würde,
nur um die Analysten zufrieden zustellen und man die Karte erst viel später, wenn überhaupt kaufen kann.
http://semiaccurate.com/2010/10/30/nvidia-paper-launch-gtx580-week/

10 Tage später gabs den Hardlaunch der GTX 580.

Vor Charlie's Geplapper gab es aber schon Leaks von der GTX 580. Zugegeben 1 Tag vor Launch :freak:
http://www.chiphell.com/thread-133243-1-1.html

Edit:
Könnte jetzt auch wieder so sein oder auch nicht...

OgrEGT
2012-01-06, 14:10:12
http://translate.google.de/translate?hl=de&sl=zh-CN&tl=en&u=http%3A%2F%2Fdiy.pconline.com.cn%2Fgraphics%2Fhq%2Fzj%2F1201%2F2644362.html

Nvidia originally from the point of view the road map, Kepler product should be pushed back a year. This is more or less inside the new system by the TSMC 28nm process technology impact. We expect the first to market graphics card GK107 Kepler is expected in March next year (Anm.: gemeint ist wohl 2012) or four-month listing. The GK107 entry-level graphics card may be the first all-new NVIDIA 28nm GPU series, with a 128bit memory interface, while carrying GDDR5 memory particles. As a mainstream version of the GK106 chip will support 256bit interface and PCI Express 3.0, while the former uses PCI Express 2.0, and the main Qianyuan Ji market. The GK104 is expected to be Q3 quarter of next year (Anm.: gemeint ist wohl 2012), its floating point capability to reach 2 TFLOPs, and high-end positioning. Higher top card is GK110 chip, expected to debut next year Q4 quarter (Anm.: gemeint ist wohl 2012), which is used in two GK104 of the GPU, the floating point capability of up to 4TFLOPs.

AwesomeSauce
2012-01-06, 14:12:11
Higher top card is GK110 chip, expected to debut next year Q4 quarter (Anm.: gemeint ist wohl 2012), which is used in two GK104 of the GPU, the floating point capability of up to 4TFLOPs.
Schwachsinn, GK110 ist kein Dual-Chip. GK104 ist auch nicht High-End, sondern Performance. Ergo alles Unsinn.

OgrEGT
2012-01-06, 14:16:18
Schwachsinn, GK110 ist kein Dual-Chip. GK104 ist auch nicht High-End, sondern Performance. Ergo alles Unsinn.

Mal abgesehen von den Codenamen der Chips,... woher weißt Du das mit Sicherheit, dass alles Unsinn ist?

boxleitnerb
2012-01-06, 14:19:07
Es erkennt schon ein blinder mit Krückstock, dass das schon wieder auf der 4gamers Roadmap basiert. Muss man das echt jede Woche neu aufwärmen?

AffenJack
2012-01-06, 14:20:04
Das ist einfach die ausgedachte 4gamer roadmap und nichts anderes. Wie oft wollt ihr den scheiß noch verlinken? Aber Fakes werden ja immer wahr, wenn man sie nur oft genug posted.

dargo
2012-01-06, 14:34:38
Soll der GK100 (oder 110? blicke bei den Bezeichnungen nicht mehr durch :D) tatsächlich 4 TFLOPS haben? :eek: Eine GTX580 hat ja nur 1,6. Das wäre der Hammer.

AnarchX
2012-01-06, 14:36:51
Soll der GK100 (oder 110? blicke bei den Bezeichnungen nicht mehr durch :D) tatsächlich 4 TFLOPS haben? :eek: Eine GTX580 hat ja nur 1,6. Das wäre der Hammer.
Was ~4TFLOPs wert sein könnten, zeigt die 7970. ;)

dargo
2012-01-06, 14:38:17
Was ~4TFLOPs wert sein könnten, zeigt die 7970. ;)
Nur haben die TFLOPS von AMD nichts mit den TFLOPS bei NV gemeinsam, siehe HD5870 und HD6970. ;)

Edit:
Ganz blöd gerechnet in Bezug auf GTX580 vs. HD6970 würden 4 TFLOPS bei NV 6,7 TFLOPS bei AMD entsprechen.

AnarchX
2012-01-06, 14:40:32
Nur haben die TFLOPS von AMD nichts mit den TFLOPS bei NV gemeinsam, siehe HD5870 HD6970. ;)
Kepler wird wohl architektonisch sich auch von bisherigen NV-GPUs unterscheiden, sodass ~2,5TFLOPs ~GTX580+10% ergeben.

Aber mal sehen ob es wirklich 4 TFLOPs für GK100 sind, so weit lag GF110 auch nicht vor GF104/114, vielleicht eher knapp über 3 TFLOPs, die aber mehr FPS-Leistung nach sich ziehen, als bei GK104.

dargo
2012-01-06, 14:43:36
Kepler wird wohl architektonisch sich auch von bisherigen NV-GPUs unterscheiden, sodass ~2,5TFLOPs ~GTX580+10% ergeben.

Warum sollte man in dieser Beziehung einen Rückschritt machen und den Nachfolger ineffizienter bauen? Ergibt für mich keinen Sinn.

Edit:
Und wie kommst du darauf, dass 2,5 TFLOPS bei Kepler einer GTX580 + 10% entsprechen? Gehst du davon aus, dass der GK104 2,5 TFLOPS haben wird und eben bei der Performance die GTX580 um 10% schlägt?

Bucklew
2012-01-06, 14:43:51
Soll der GK100 (oder 110? blicke bei den Bezeichnungen nicht mehr durch :D) tatsächlich 4 TFLOPS haben? :eek: Eine GTX580 hat ja nur 1,6. Das wäre der Hammer.
Du liest schon, dass laut Text der GK110 nur ein Karte mit 2xGK104 ist? Und da sieht man schon den Blödsinn: Solche eine Bennung hatte nvidia nie, warum sollte sie plötzlich eingeführt werden?

AnarchX
2012-01-06, 14:45:19
Du liest schon, dass laut Text der GK110 nur ein Karte mit 2xGK104 ist? Und da sieht man schon den Blödsinn: Solche eine Bennung hatte nvidia nie, warum sollte sie plötzlich eingeführt werden?
Weil man ein Interconnect-Konzept einführt, das aus zwei GPUs eine GPU macht? :naughty:

Warum sollte man in dieser Beziehung einen Rückschritt machen und den Nachfolger ineffizienter bauen? Ergibt für mich keinen Sinn.
Eben ein Trade-off zwischen Gaming-Leistung und maximaler ALU-Leistung, die für HPC nicht ganz unwichtig ist.

Bucklew
2012-01-06, 14:50:48
Weil man ein Interconnect-Konzept einführt, das aus zwei GPUs eine GPU macht? :naughty:
AFR oder SFR?

Gipsel
2012-01-06, 15:00:08
Warum sollte man in dieser Beziehung einen Rückschritt machen und den Nachfolger ineffizienter bauen? Ergibt für mich keinen Sinn.Schau Dir mal den von mir weiter vorne (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9110743#post9110743) verlinkten Vortrag an. Da wird eindeutig gesagt, daß es im Sinne der besseren Energieeffizienz günstiger ist, andere Sachen (wie nutzbare Leistung / theoretischer Peakleistung) zu opfern. NVidia wird in Zukunft Kompromisse in diese Richtung machen. Die Frage ist bloß, welche wann genau.

dargo
2012-01-06, 15:12:35
Ist der Vortrag in deutsch? Ansonsten bringt mir das eh nichts.

Ailuros
2012-01-06, 15:23:01
Aus dem Canary Island Thread...
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519547&page=3



Heißt das, dass somit seit Dezember GK107 GPUs bei den Boardpartnern sind, aber noch keine GK104, GK110 sowieso nicht? :O

Verraeter :P 104 und 107 haben einen geplanten 1 Monat Abstand.

Nur haben die TFLOPS von AMD nichts mit den TFLOPS bei NV gemeinsam, siehe HD5870 und HD6970. ;)


Bis zu Fermi; danach die Sintflut :D

Warum sollte man in dieser Beziehung einen Rückschritt machen und den Nachfolger ineffizienter bauen? Ergibt für mich keinen Sinn.

Wir sind auch keine hw engineers oder?

Edit:
Und wie kommst du darauf, dass 2,5 TFLOPS bei Kepler einer GTX580 + 10% entsprechen? Gehst du davon aus, dass der GK104 2,5 TFLOPS haben wird und eben bei der Performance die GTX580 um 10% schlägt?

Es koennten sogar mehr sein.

Schau Dir mal den von mir weiter vorne (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9110743#post9110743) verlinkten Vortrag an. Da wird eindeutig gesagt, daß es im Sinne der besseren Energieeffizienz günstiger ist, andere Sachen (wie nutzbare Leistung / theoretischer Peakleistung) zu opfern. NVidia wird in Zukunft Kompromisse in diese Richtung machen. Die Frage ist bloß, welche wann genau.

Neben dem Vortrag wurde im thread hier der gleiche Brei so oft erwaehnt dass es nicht mehr schoen ist. Nochmal und so einfach wie moeglich: NV brauchte N DP FLOPs fuer HPC und der einfachste und billigste Weg dafuer war die pro SP FLOP Effizienz in 3D zu opfern. Irgendwie ist es ziemlich langweilig den gleichen Brei immer und immer wieder wiederholen zu muessen.

=Floi=
2012-01-06, 15:42:27
warum muß man diese "opfern"? bisher skalierte die architektur sehr effizient und von der grundarchitektur sollte man auch viel mehr einheiten pro cluster (effizient) auslasten können. mit einem TF mehr rechenleistung sollten eigentlich auch in 3d mehr fps ankommen und die shaderlast wird auch immer größer und komplexer. imho spricht dies eher für mehr SMs pro GPC.

Nightspider
2012-01-06, 15:47:20
warum muß man diese "opfern"? bisher skalierte die architektur sehr effizient und von der grundarchitektur sollte man auch viel mehr einheiten pro cluster (effizient) auslasten können. mit einem TF mehr rechenleistung sollten eigentlich auch in 3d mehr fps ankommen und die shaderlast wird auch immer größer und komplexer. imho spricht dies eher für mehr SMs pro GPC.

Es gibt nicht nur eine Effizienz.

Nvidia opfert die Gaming Effizienz für die Effizienz in Server Anwendungen.

Das tat man schon mit dem GF100 (GTX480).

OgrEGT
2012-01-06, 15:49:26
Es erkennt schon ein blinder mit Krückstock, dass das schon wieder auf der 4gamers Roadmap basiert. Muss man das echt jede Woche neu aufwärmen?

Du liest schon, dass laut Text der GK110 nur ein Karte mit 2xGK104 ist? Und da sieht man schon den Blödsinn: Solche eine Bennung hatte nvidia nie, warum sollte sie plötzlich eingeführt werden?

Nur weil es euch vlt. nicht in den Kram passt, oder weil NV dies oder das noch nie gemacht hat, bedeutet doch nicht, dass man nach derzeitiger Infolage zu 100% ausschließen kann, dass NV doch mit GK110 aka 2xGK104 an den Start gehen wird. Fermi1 war schon an der Grenze des Machbaren, konnte mit Fermi1b gerade noch die Kurve kriegen. Möglicherweise sind die Probleme mit 28nm einfach noch zu groß als dass man schon wieder einen 500mm2 Chip (GK100) aus dem Hut zaubern könnte. Auszuschließen ist das nicht, bis es aber so weit ist, könnte ein GK110 die Lücke füllen, zumal die HD7990 wohl früher kommt als GK100.

OgrEGT
2012-01-06, 15:50:24
Verraeter :P 104 und 107 haben einen geplanten 1 Monat Abstand.


Wieso? :rolleyes: alles öffentlich zugänglich :wink:

Zergra
2012-01-06, 15:53:32
Zwei Chips in einem ? :D genau das was ich mir gestern gedacht habe was noch auf dem Markt fehlt :D

M4xw0lf
2012-01-06, 16:36:15
Das ist einfach die ausgedachte 4gamer roadmap und nichts anderes. Wie oft wollt ihr den scheiß noch verlinken? Aber Fakes werden ja immer wahr, wenn man sie nur oft genug posted.

Ich erinnere nur an diesen legendären Post:

AMD Architects : IPC increases (Anand article commenting on the 2 ALUs an 16KB L1)

terrace215 post: IPC decreases, because of the 2 ALUs..
terrace215 post: IPC decreases, because of the 16KB caches
terrace215 post: IPC decreases, AMD presentation sheet no.X tells us so.
terrace215 post: IPC decreases, AMD presentation sheet no.Y confesses this.

JF-AMD posting: IPC increases!! instead of getting worse.

terrace215 post: IPC decreases, the marketing guy isn't talking about IPC
terrace215 post: IPC decreases, don't trust marketing guys.
terrace215 post: IPC decreases, Bulldozer is only optimized for server workloads.
terrace215 post: IPC decreases, AMD presentation sheet no.Y confesses this.

JF-AMD posting: IPC increases!!!! You are spreading FUD

terrace215 post: IPC decreases, AMD presentation sheet no.X tells us so.
terrace215 post: IPC decreases, The AMD architect says it decreases by 5%
terrace215 post: IPC decreases, because of the 2 ALUs..
terrace215 post: IPC decreases, AMD has given up improving IPC.

JF-AMD posting: IPC increases!!!!!!! How many times did I tell you!!!

forever{
terrace215 post: IPC decreases, because .....
terrace215 post: IPC decreases, says .... of AMD
terrace215 post: IPC decreases, according to AMD's presentation.
terrace215 post: IPC decreases, don't trust marketing guys.
terrace215 post: IPC decreases, because of the 2 ALUs..
terrace215 post: IPC decreases, the marketing guy isn't talking about IPC
terrace215 post: IPC decreases, because of the 16KB caches
terrace215 post: IPC decreases, AMD has given up improving IPC.
terrace215 post: IPC decreases, The AMD architect says it decreases by 5%
terrace215 post: IPC decreases, Bulldozer is only optimized for server workloads.
terrace215 post: IPC decreases, AMD presentation sheet no.X tells us so.
terrace215 post: IPC decreases, The more I post the more it decreases.
terrace215 post: IPC decreases, The more I post the more it decreases.
terrace215 post: IPC decreases, The more I post the more it decreases.
.....}
until (interrupt by Movieman)

Da hats offenbar geklappt, er hat gepostet und gepostet und schließlich kam Bulldozer mit weniger IPC als Thuban/Deneb :freak:

Bucklew
2012-01-06, 17:24:08
Nur weil es euch vlt. nicht in den Kram passt, oder weil NV dies oder das noch nie gemacht hat, bedeutet doch nicht, dass man nach derzeitiger Infolage zu 100% ausschließen kann, dass NV doch mit GK110 aka 2xGK104 an den Start gehen wird. Fermi1 war schon an der Grenze des Machbaren, konnte mit Fermi1b gerade noch die Kurve kriegen. Möglicherweise sind die Probleme mit 28nm einfach noch zu groß als dass man schon wieder einen 500mm2 Chip (GK100) aus dem Hut zaubern könnte. Auszuschließen ist das nicht, bis es aber so weit ist, könnte ein GK110 die Lücke füllen, zumal die HD7990 wohl früher kommt als GK100.
Weil es Chipcodenamen sind. Und ein GK110 aka 2xGK104 ist was? Genau, 2xGK104. Warum sollte man die jetzt plötzlich GK110 nennen?

Die gesamte "News" ist Blödsinn. Unabhängig davon, wie sehr sie dir in den Kram passt.

Hugo78
2012-01-06, 17:37:24
Weil man ein Interconnect-Konzept einführt, das aus zwei GPUs eine GPU macht? :naughty:

Wenn das ohne µRuckler und einer Skalierung von immer über 90% abgeht, hätte wohl auch keiner was dagegen, aber soo...

OgrEGT
2012-01-07, 01:38:03
Vielleicht ist somit hier ein guter Schlusspunkt gesetzt, und wir können alle wieder zum eigentlichen Thema des Threads zurückkehren, und die letzten paar Seiten in einen extra Thread verschieben.

Edit:
Vlt. den Thread analog zu den anderen Spekuthreads in "Nvidia - Kepler - 28nm - 2012" umbenennen und alles andere zu den noch viel weiter entfernten Architekturen Maxwell und Einstein auslagern "Nvidia - Next gen Architekturen Maxwell and beyond"...

Skysnake
2012-01-07, 01:41:45
Dem schließe ich mich an, auch wenn es für das Verständis für Kepler/Maxwell etc. wohl wichtig wäre, dass die Leute einen Einblick erhalten, worum sich die aktuellen Probleme drehen beim Design neuer Architekturen.

Eigentlich sind das zwar recht offensichtliche und leicht zu verstehende Sachen, aber so manches widerspricht eben den ersten naiven Gedankengängen. Überhaupt muss man ziemlich stark seine Denkweise im Vergleich zum bisherigen Vorgehen ändern. Man steht halt wirklich am Anfang einer neuen Ära.

Gipsel
2012-01-07, 01:58:21
Vielleicht ist somit hier ein guter Schlusspunkt gesetzt, und wir können alle wieder zum eigentlichen Thema des Threads zurückkehren, und die letzten paar Seiten in einen extra Thread verschieben.

Gute Idee!
Mit der Diskussion der mittel- bis langfristigen Probleme (und deren Lösung) von nV-GPUs geht es hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9113147#post9113147) weiter.

Skysnake
2012-01-07, 02:18:34
Danke Gipsel. :up:

Was denkt ihr jetzt eigentlich bzgl CES? Wird hinter verschlossenen Türen gezeigt, oder öffentlich?

Und wenn hinter verschlossenen Türen, wie lange müssen wir auf Leaks warten? ;D

OgrEGT
2012-01-07, 10:01:46
Danke Gipsel. :up:

Was denkt ihr jetzt eigentlich bzgl CES? Wird hinter verschlossenen Türen gezeigt, oder öffentlich?

Und wenn hinter verschlossenen Türen, wie lange müssen wir auf Leaks warten? ;D

Am besten sollte einer von hier hinfahren :D

Ailuros
2012-01-07, 15:16:18
Seit froh dass ich meine Klappe ueberhaupt aufgemacht habe sonst haetten wir insgesamt gar nichts bis jetzt. Und da ich dafuer Stunk bekommen habe, will ich hoffen dass es mir nicht irgendwelche Tueren schliesst.

Von dem abgesehen GK110 ist ein einziger grosser chip, der nach dem desktop launch in die Quadro/Tesla Segmente fliessen wird, aber erst zum Zeitpunkt wo TSMC ihre 28nm Kapazitaeten um einiges erhoehen wird. Sonst die meist brennende Frage "wann" fuer desktop hoechstwahrscheinlich frueher als manche moechtegern roadmaps "wissen" wollen. Wenn alles nach Plan laeuft natuerlich.

Hübie
2012-01-07, 17:10:38
Zuckerbrot und Peitsche Ail! ;D Dann klappts auch mit dem Nachbarn.
nVidia wird mit ziemlich hoher Wahrscheinlichkeit auf der CES etwas zeige. Sonst machen die sich unglaubwürdig auf einer solchen Messe. Es wird wohl ein paar Fetzen für die Öffentlichkeit geben, aber der Rest wird an geknebelte Fachbesucher/Presse weitergereicht.
Schon erstaunlich wie gut dieses mal alle dicht halten. Ich rühre jedenfalls keinen Finger bzgl. eines Neukaufs bis GK104 released ist.

AFR oder SFR?

Wohl AFR. Allein aus Kompatiblitätsgründen. Bei SFR hättest du im Verhältnis zum Zugewinn einen zu hohen Energiebedarf.

Edit:
STIMMUNG (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/21025-kepler-nvidias-partner-sind-besorgt.html).

Coda
2012-01-07, 18:37:01
Wohl AFR. Allein aus Kompatiblitätsgründen. Bei SFR hättest du im Verhältnis zum Zugewinn einen zu hohen Energiebedarf.
Bitte was? Bitte was???

Hübie
2012-01-07, 18:56:50
Formuliere eine Frage. Dann kann ich antworten.

Iruwen
2012-01-07, 19:24:55
Wie ist eigentlich die Nomenklatur bei Nvidia, also warum GF... und jetzt GK...?

/e: Fermi und Kepler eh :freak:

Hugo78
2012-01-07, 19:26:57
Edit:
STIMMUNG (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/21025-kepler-nvidias-partner-sind-besorgt.html).

Sinnfreie Schwarzmalerei weil AMD einen Paperlaunch bringt.
Das hat ja schon SA Qualitäten. :facepalm:

Statt den Hintergrund für diesen Paperlaunch, die Verschiebung der HD7950 in den Februar rein, die genauen Stückzahlen zur 7970,
eventuell gar die Yield der Thaitis oder auch die stark unterschiedliche Performance der Reviewtreiber der 7970 und ob man hier wirklich schon ein finales Produkt seitens AMD präsentiert hat, zu hinter fragen.
Also statt seinen Job zumachen, kommt die HWLuxx mit so einer Bild-Meldung. :ulol4:

M4xw0lf
2012-01-07, 19:33:36
Sinnfreie Schwarzmalerei weil AMD einen Paperlaunch bringt.

Du mit deinem endlosen Paperlaunch. Der Verkaufsstart ist Übermorgen am 9. Januar und es gibt schon in ungefähr jedem Hardwareforum Personen, die die Karten bereits jetzt unter der Hand kaufen konnten.
Wenn Übermorgen wider erwarten keine einzige 7970 lieferbar ist, dann kannst du wieder anfangen mit deinem "es gibt gar keine fertigen 7970".

Und was die andere Meldung angeht: schon beim verzögerten Fermi-Launch hatten viele Nvidia-Partner Probleme, da ist es kein Wunder, dass die im Moment keine große Party schmeißen.

Hübie
2012-01-07, 19:33:54
So denke ich auch ;) Hauptsache mal ne Nachricht schreiben. Sinn und Gehalt sind dabei nebensächlich.

OgrEGT
2012-01-07, 19:41:06
Du mit deinem endlosen Paperlaunch. Der Verkaufsstart ist Übermorgen am 9. Januar und es gibt schon in ungefähr jedem Hardwareforum Personen, die die Karten bereits jetzt unter der Hand kaufen konnten.
Wenn Übermorgen wider erwarten keine einzige 7970 lieferbar ist, dann kannst du wieder anfangen mit deinem "es gibt gar keine fertigen 7970".

Und was die andere Meldung angeht: schon beim verzögerten Fermi-Launch hatten viele Nvidia-Partner Probleme, da ist es kein Wunder, dass die im Moment keine große Party schmeißen.

Habs gerade im HD7970 Thread geschrieben, bei geizhals für 529 Euronen gelistet (Amazon).
http://geizhals.at/eu/719058

Wenns ab Montag dann los geht, bestimmt auch verfügbar...

Hugo78
2012-01-07, 20:37:21
@M4xw0lf

Dieser Paperlaunch von vor 2 Wochen, soll doch genau das bewirken, was aktuell abgeht.
Es ist ne Salamitaktik, bei der man so tun kann, als könnte man Nachfrage bedienen, gleichzeitig kommt die Boulevardabteilung der Hardware Presse und
spielt sich hier freiwillig als verlängerter Arm von AMD's PR auf, ohne konkrete Anhaltspunkte.

Da werden dann Vergleiche angestellt, als ob es in der Geschichte der Mikrochips noch nie Anlaufschwierigkeiten bei größernen Architekturänderungen gegeben hätte.
Und man blendet auch aus dass jede folgende Gen, einer anfänglich problematischen Gen, immer nur besser wurde statt schlechter.

Das ist plumpe Schwarzmalerei, so lange es noch möglich ist, damit ein paar Klicks zubekommen.

Kepler wird die Weiterentwicklung zu Fermi, so wie NV5 zu NV4, NV15 zu NV10, NV25 zu NV20, und NV40 zu NV30 ect. pp.

Wenn es wirklich ein Problem bei Kepler gäbe, bräuchte NV nur GF110 in 28nm @ 1Ghz + 3GB VRAM bringen und wäre zumindest wieder gleich auf.

moBi
2012-01-07, 20:44:23
Kepler wird die Weiterentwicklung zu Fermi

Sicher? Bis auf das Frontend dürfte sich alles andere drastisch Verändern(Hotclock weg, mehr Einheiten weniger Effizienz).

Coda
2012-01-07, 20:48:10
Sagt wer?

Hübie
2012-01-07, 20:50:39
Hat du die letzten Seiten verschlafen Coda? Er schreibt ausserdem dürfte... Das impliziert eine Eventualität.

LovesuckZ
2012-01-07, 20:51:47
Wenn es wirklich ein Problem bei Kepler gäbe, bräuchte NV nur GF110 in 28nm @ 1Ghz + 3GB VRAM bringen und wäre zumindest wieder gleich auf.

Es gibt doch keine Probleme. Kepler ist fertig. nVidia hat Kepler-Chips seit August. Deswegen konnten sie auch die Design Wins für IB sich sichern. Und der Rest der Bande geht seit November kontinuirlich zum Tape-Out und vor allem in Produktion.

11. August:

Hans Mosesmann - Raymond James & Associates, Inc.

And if I can, just a quick follow-up. 28 nanometer, how does that look relative to 40-nanometer? That was a tough industry transition. Can you give comment there?

Jen-Hsun Huang

28, we are far, far better prepared for 28 than we were for 40. Because we took it so much more seriously. We were successful on so many different nodes for so long that we all collectively, as an industry, forgot how hard it is. And so one of the things that we did this time around was to set up an entire organization that is dedicated to advanced nodes. And we've had many, many tests chips run on 28-nanometer. We have working silicon and, momentarily, about to go to production with 28-nanometer. And it's looking really good, it's looking much, much better than our experience with 40-nanometer. It's just a comprehensive, across-the-board engagement between TSMC and ourselves, and making sure that we're ready for production ramp when the time comes. So I feel really good about 28.
http://seekingalpha.com/article/286901-nvidia-s-ceo-discusses-q2-2012-results-earnings-call-transcript?part=qanda

10. November

James Schneider - Goldman Sachs Group Inc., Research Division

That's helpful. And then as a follow-up, on the OpEx trajectory, you're guiding that up partly on the strategic new programs and partly, I assume, just on 28-nanometer new products and the sort of normal course of things on GPUs. Can you talk about how much is coming from each of those areas? And whether we should expect OpEx to continue to go up the similar rate in future quarters?

Jen-Hsun Huang

The vast majority of the increase is coming from the very significant increase in design wins that we have in several areas. We have more notebook design wins for the Ivy Bridge cyle than we ever had in notebooks. And this is likely the most successful notebook cycle we've ever experienced. And so we've got a lot of engineers dedicated to getting those notebooks into production. The reason for our success, I believe, is because our Kepler generation of GPU was designed for intense energy efficiency. And with energy efficiency, we were able to translate that to simultaneously higher performance, as well as longer battery life. And so that's the first part. The second thing is we have more smartphones in design as a result of Tegra 3. We have more tablets in design as a result of Tegra 3. And on top of that, we have Windows 8 tablets and devices that we're building all over the world. And so those, all of those design wins translate to quite a bit of customer engineering, customer-facing engineering, to build these exquisite devices. And then there's a portion of it that is related to 28-nanometer tape out of new processors that will go into production shortly.
http://seekingalpha.com/article/307194-nvidia-s-ceo-discusses-q3-2012-results-earnings-call-transcript?part=qanda

Hugo78
2012-01-07, 20:58:12
Es gibt doch keine Probleme. Kepler ist fertig. nVidia hat Kepler-Chips seit August. Deswegen konnten sie auch die Design Wins für IB sich sichern.

Das seh ich auch so, nur ist das bei HWLuxx noch nicht angekommen.

ChaosTM
2012-01-07, 21:05:57
Wenn Kepler fertig wäre, gäbe es mittlerweile zumindest ein paar obskure Leaks.

Derzeit ist AMD knapp vorne, hat aber noch ~ 30% Reserven..


edit.: Ich hab momentan eine MSI N560GTX-Ti Twin Frozr II @ 980mhz

LovesuckZ
2012-01-07, 21:12:11
Klar. Von GF110 wussten wir alle auch schon 3 Monate vorher. :freak:

Leaks gibt es erst, wenn OEMs Karten bzw. Chips erhalten. Und das geschieht meistens erst unmittelbar vor Launch.

Nightspider
2012-01-07, 21:12:53
Wenn Kepler fertig wäre, gäbe es mittlerweile zumindest ein paar obskure Leaks.

Derzeit ist AMD knapp vorne, hat aber noch ~ 30% Reserven..


edit.: Ich hab momentan eine MSI N560GTX-Ti Twin Frozr II @ 980mhz

Schwachsinn. Beim G80 gabs vorher keine Infos und nur falsche Gerüchte & Meldungen und dann hat der G80 alle vom Stuhl geschossen.

Godmode
2012-01-07, 21:13:35
Wenn Kepler fertig wäre, gäbe es mittlerweile zumindest ein paar obskure Leaks.

Derzeit ist AMD knapp vorne, hat aber noch ~ 30% Reserven..


edit.: Ich hab momentan eine MSI N560GTX-Ti Twin Frozr II @ 980mhz

Kommt drauf an was mit fertig gemeint ist. Kann auch heißen, fertig für den Produktionsstart, aber der Prozess ist noch zu schlecht...

ChaosTM
2012-01-07, 21:16:57
Schwachsinn. Beim G80 gabs vorher keine Infos und nur falsche Gerüchte & Meldungen und dann hat der G80 alle vom Stuhl geschossen.

Das stimmt! Ich hoffe auch auf was ähnlich grandioses bei Kepler ;)

wird aber schwer..

DarknessFalls
2012-01-07, 21:19:11
@M4xw0lf
Wenn es wirklich ein Problem bei Kepler gäbe, bräuchte NV nur GF110 in 28nm @ 1Ghz + 3GB VRAM bringen und wäre zumindest wieder gleich auf.

Daß das wohl nicht passieren würde, hat uns ja wohl Bulldozer gezeigt. Vordergründig hätte ein geshrinkter Phenom II als X8 die Bullis in jeder Beziehung in den Boden gestampft. Genauer betrachtet wäre es aber Stillstand für AMD gewesen.

Wenn nV der neuen Architektur bessere Chancen für die Zukunft einräumt, werden sie auch genau auf diese Architektur setzen anstatt Manpower darauf zu veschwenden, einen Shrink von Fermi hinzubiegen.

Hugo78
2012-01-07, 22:49:46
@DarknessFalls

Hab ich auch nie behauptet.

Lesen und verstehen.
Ich hab eine Alternative beschrieben, einen Plan B, der schon längst öffentlich wäre, würde Kepler Probleme haben.

Hat er aber nicht.

Bucklew
2012-01-07, 22:59:25
Du mit deinem endlosen Paperlaunch. Der Verkaufsstart ist Übermorgen am 9. Januar und es gibt schon in ungefähr jedem Hardwareforum Personen, die die Karten bereits jetzt unter der Hand kaufen konnten.
Paperlaunch eben. Schließlich wurde die Karte vor mehr als zwei Wochen präsentiert. Das nennt man gemeinhin einen "Paperlaunch".

Und auch die Verfügbarkeit muss sich erst noch beweisen am Montag ;)

foenfrisur
2012-01-07, 23:52:08
ja und....paperlaunch ja oder nein ist doch vollkommen egal.

amd macht eben die leute schnellstmöglich heiß.
für mich gibts da keinen unterschied, ob paperlaunch 3 wochen vor einem hard-launch.
der einzige unterschied:

infos VOR dem hard-launch. herzlichen glückwunsch. wie schlimm, wenn alle heiß gemacht sind und man nix kaufen kann....lol

nvidia könnte ja auch schon einen paperlaunch hinlegen...das verändert den hard-launch erstmal in KEINSTER weise...
also wo genau ist das problem? genau...der mensch in seinem kopf...

ihr könnt doch einfach so tun, als ob ihr NICHTS vom SI wüsstet und die kleine welt im kopf ist in ordnung oder hat es doch andere gründe?

@topic
sind die 90-100% performance-steigerung in bf3 der gtx790 ggü. der 580 vielleicht doch realistisch? immerhin ist es ja ein relatives extrem-setting. auch wenn physx in der folie mal vollkommen dagegen spricht.

siehe:
6970 vs. 7970 +20% OC
anno2070 unter 2560er auflösung inkl. AA+AF

ist gleich 21 fps vs. 42 fps +100%.

quelle: CB

dazu muss man sagen, dass die 7970 zwar übertaktet ist und minimal mehr verbraucht, aber laut cb noch nicht am ende des möglich war. nvidia das zumindest auch schaffen kann und noch etwas mehr für bf3.
vielleicht auch mit denkfehlern :D
ggf. einfach nur wegen 6970 2GB vs. 7970 mit 3GB.
auf kepler übertragbar?

mfg

Knuddelbearli
2012-01-07, 23:52:14
Das stimmt! Ich hoffe auch auf was ähnlich grandioses bei Kepler ;)

wird aber schwer..

Na G80 waren auch nur 33% mehr fps je W

Knuddelbearli
2012-01-07, 23:56:18
Daß das wohl nicht passieren würde, hat uns ja wohl Bulldozer gezeigt. Vordergründig hätte ein geshrinkter Phenom II als X8 die Bullis in jeder Beziehung in den Boden gestampft. Genauer betrachtet wäre es aber Stillstand für AMD gewesen.

Wenn nV der neuen Architektur bessere Chancen für die Zukunft einräumt, werden sie auch genau auf diese Architektur setzen anstatt Manpower darauf zu veschwenden, einen Shrink von Fermi hinzubiegen.



ist nicht korrekt, wie oft den noch?
Problem des FX8 ist ja das er nicht schneller als der FX6 ist, also bringt ein 8 Kern Phenom2 schon mal gar nichts. Und man sieht ja am Athlon in 32nm ( also ohne Grafikkarte ) das der immer noch mit deutlich weniger Takt kommt, bei selber TDP, wie der 45nm Athlon.
Dazu verbraucht auch AVX usw ordentlich was.

foenfrisur
2012-01-08, 00:03:48
eine weitere folie von batman:AC

http://i44.tinypic.com/2s9pt3n.png

mfg

Knuddelbearli
2012-01-08, 00:06:46
sieht extrem nach fake aus und falls die 660 so kommt schlägt sie ja nichtmal annährend die 580 ^^

boxleitnerb
2012-01-08, 00:07:27
Schon wieder so ein Fake. FXAA high...lol. Es gibt MSAA unter DX11, warum sollte man das nicht zuschalten? Und die Skalierung der 590 ist mal lächerlich, die ist im GPU-Limit locker 50% flotter. Next :D

Knuddelbearli
2012-01-08, 00:11:44
? wenn dann skaliert die 790 doch eher zu gut, skaliert besser als die 580 zur 780.

und jetzt schon ne 785 in der Pipeline? naja wie gesagt fake ^^

foenfrisur
2012-01-08, 00:12:49
ich halte von den wunschdenke-folien ja auch nix...
aber eine gurke ist vom kepler sicher auch nicht zu erwarten.
ähnliches bsp. hab ich oben auch genannt.

mfg

p.s.
ich dachte die 7xx-bezeichnungen stehen fest??

boxleitnerb
2012-01-08, 00:20:17
? wenn dann skaliert die 790 doch eher zu gut, skaliert besser als die 580 zur 780.

und jetzt schon ne 785 in der Pipeline? naja wie gesagt fake ^^

Auf der Folie liegt die 590 kaum über der 580 - was halt hinten und vorne nicht stimmt. Ich würde auch eher erwarten, dass die neuen Karten in SLI schlechter skalieren - aber auch nur, weil da das CPU-Limit zuschlägt - jedenfalls in Batman AC mit FXAA.

Orbmu2k
2012-01-08, 00:25:59
http://www.geforce.com/Active/en_US/shared/images/articles/batmanarkhamcity/BAC-DX11-TessHigh-PhysXHigh-FXAAHigh.png

Naja passt zu den Werten auf der NVIDIA Seite.

Aber was soll GTR bedeuten?

Knuddelbearli
2012-01-08, 00:29:31
refresh ? ^^

boxleitnerb
2012-01-08, 00:31:42
Wo hast die Folie her? Das macht so keinen Sinn, denn in deiner Folie ist ja wieder teilweise ein CPU-Limit ab etwa GTX580 - wie soll da irgendwas bedeutend flotter sein?

Orbmu2k
2012-01-08, 00:33:40
Wo hast die Folie her? Das macht so keinen Sinn, denn in deiner Folie ist ja wieder teilweise ein CPU-Limit ab etwa GTX580 - wie soll da irgendwas bedeutend flotter sein?

von da:
http://www.geforce.com/Optimize/Guides/batman-arkham-city-graphics-breakdown-and-performance-guide

Each test was conducted using a stock-clocked Intel i7-2600K, a P67 motherboard, and 8GB of DDR3 RAM. The Very High detail preset and DirectX 11 effects enabled were enabled, in addition to any configuration options listed on the charts.

Das System passt also auch.


Hat sich wohl jemand Mühe gegeben. :D

Hübie
2012-01-08, 01:16:36
ja und....paperlaunch ja oder nein ist doch vollkommen egal.

amd macht eben die leute schnellstmöglich heiß.
für mich gibts da keinen unterschied, ob paperlaunch 3 wochen vor einem hard-launch.
der einzige unterschied:

infos VOR dem hard-launch. herzlichen glückwunsch. wie schlimm, wenn alle heiß gemacht sind und man nix kaufen kann....lol

nvidia könnte ja auch schon einen paperlaunch hinlegen...das verändert den hard-launch erstmal in KEINSTER weise...
also wo genau ist das problem? genau...der mensch in seinem kopf...

ihr könnt doch einfach so tun, als ob ihr NICHTS vom SI wüsstet und die kleine welt im kopf ist in ordnung oder hat es doch andere gründe?

@topic
sind die 90-100% performance-steigerung in bf3 der gtx790 ggü. der 580 vielleicht doch realistisch? immerhin ist es ja ein relatives extrem-setting. auch wenn physx in der folie mal vollkommen dagegen spricht.

siehe:
6970 vs. 7970 +20% OC
anno2070 unter 2560er auflösung inkl. AA+AF

ist gleich 21 fps vs. 42 fps +100%.

quelle: CB

dazu muss man sagen, dass die 7970 zwar übertaktet ist und minimal mehr verbraucht, aber laut cb noch nicht am ende des möglich war. nvidia das zumindest auch schaffen kann und noch etwas mehr für bf3.
vielleicht auch mit denkfehlern :D
ggf. einfach nur wegen 6970 2GB vs. 7970 mit 3GB.
auf kepler übertragbar?

mfg

BF3 nutzt PhysX? Glaube nicht. Afaik is das ne Eigenkreation welche aus Havok heraus entstand und rein CPU-lastig agiert.
Da ich gerad am non-smartphone bin is mir die Recherche zu fummelig. Du kannst jedenfalls davon ausgehen das die Werte der Fermikarten real sind und die der Kepler gewürfelt/gezaubert sind.
Edit: Wir können uns nächste Woche Samstag auf 1, 2 oder 10 Bier treffen um zu diskutieren ;D Was sagst??

@all: Wenn ich frei habe bastel ich euch auch gerne kleine lustige Folien, welche ihr euch ausdrucken und als Origami ins Wohnzimmer stellen könnt ;D Gerne auch in rot-schwarz :freak: Die Balkenlänge dürft ihr bestimmen.

boxleitnerb
2012-01-08, 01:31:30
Ich frag nochmal in die Runde weil mir das immer noch nicht so klar ist:


GK104 wird wohl kaum weniger TMUs/ROPs haben als 64 bzw. 32. Nehme ich jetzt einfach mal an. 64 TMUs hat schon GF114 bzw. 56 GF104. Beide haben 32 ROPs (nicht die Krüppelversion von GF104), was zu einem 256bit SI passt.
Takt liegt laut Ailuros deutlich über Tahiti (XT nehme ich mal an). Gehen wir von 1,1 GHz aus.
Bei 2+ TF sollte die reine Rechenleistung der ALUs "ausreichend" sein, um in Spielen nicht (übermäßig) zu limitieren.
Wir haben gute 40% mehr Füllrate bei o.g. Annahmen. Ich nehme an, Nvidia ist nicht so doof und verbaut so viele Einheiten bzw. taktet die so hoch, dass dann in 90% der Fälle die Bandbreite stark limitiert. Dann könnte man entweder Energie oder Fläche sparen.
Wie passt das jetzt mit den GTX580+10% Gerüchten zusammen? Gerade mit Takt skaliert eine GPU doch ziemlich gut, da wäre das nicht gerade prickelnd. Würde die Performance stimmen, wäre Kepler pro "Rohleistung" deutlich ineffizienter als Fermi. Okay, wenn Perf/mm2 und perf/W steigen, nicht wirklich wichtig, aber immer noch komisch.

Hugo78
2012-01-08, 01:48:27
Wenn die Einheiten einfacher werden, man davon aber mehr verbauen kann, ist es nicht komisch.
Fraglich ist höchstens, ob NV die vielen mehr Einheiten auch immer "füttern" kann.

Das war ja der Ansatz für Hotclock, lieber weniger Einheiten, dafür die maximale Auslastung.

boxleitnerb
2012-01-08, 01:51:25
Ich nahm aber an, dass die ALUs eher nicht limitieren. Die TMUs/ROPs werden die wohl kaum einfacher gemacht haben, wozu auch? Es werden wahrscheinlich nicht mehr verbaut, jedenfalls nicht doppelt so viele wie zuvor. Sollte es also wirklich an den ALUs liegen?

Hugo78
2012-01-08, 02:05:15
Nun ja, wo hakt es denn?
Shaderpower allgemein und zumindest für richtig hohe Auflösungen dann auch an Texturleistung.

Bei Tess könnte NV auch Stillstand fahren und wäre immernoch knapp vorn, mit mehr ALUs bringt man aber auch mehr Shaderpower (für zb. Crysis) und mit deutlich schnelleren TMUs, mehr Speed für die Region > Full HD.
Ob jetzt wirklich mehr TMUs verbaut werden, oder ob der höhere Takt reicht, dazu hab ich jetzt keine Meinung, im Zeifel von beidem mehr,
aber bei den ALUs klingt für mich ein "drei mal mehr ALUs für 40% weniger Speed" und dabei bessere perf/W., wie einen guten Deal.

foenfrisur
2012-01-08, 02:12:31
jetzt gibt es schonwieder so ein leak, wo eine andere folie das gleiche zeigt...doppelte performance...
ist ja auch schon ein netter zufall irgendwie...

http://wccftech.com/leaked-nvidia-generation-performance-slide-pits-upcoming-flagship-gk100-kepler-based-geforce-gtx-780-gtx-580/

@hübie
natürlich hat bf3 havok, was meinst warum ich schrieb:
"auch wenn physx in der folie mal vollkommen dagegen spricht.(echt zu sein)"

mfg

edit:
ist ja schon 3 wochen alt^^