PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

Gipsel
2012-01-02, 22:18:15
Ich argumentiere mit keiner Schwäche, sondern nur mit der von AMD versprochenen höheren Auslastung der Rechenwerke, die scheinbar nicht gegeben ist.
Die ist in anderem (und laut Deiner Aussage ja offenbar relevanterem) Code aber durchaus gegeben. Also entweder oder. ;)

Edit:
Oder anders: Wenn man bei einem bestimmten Codeschnipsel (z.B. Bitcoin) bereits ~90% Auslastung hat, ist da nicht mehr viel Spielraum für Steigerung, insbesondere wenn der Code gut auf die Eigenarten der alten Architektur zugeschnitten ist. Als Alternative kannst Du Dir ja z.B. mal GPU-Raytracer ansehen. ;)

Skysnake
2012-01-02, 22:19:14
welche du anhand von optimierter Software erkennen willst...

Das kannste aber knicken. Wenn musste erst mal zumindest rudimentäre Optimierungen für GCN vornehmen.

Bzw. LZ ich warte ;)

Bucklew
2012-01-02, 22:19:29
Die ist in anderem (und laut Deiner Aussage ja offenbar relevanterem) Code aber durchaus gegeben. Also entweder oder. ;)
Ja in DIESEM Beispiel aber nicht. Bricht dir das einen Zacken aus deiner AMD-Krone? Musst du deshalb jetzt ständig o.t. posten?

Der_Korken
2012-01-02, 22:19:31
Mit einem GCN-ähnlichen Ansatz, der mittlerweile für Kepler spekuliert wird, und einem ~500mm² Die sind 2304SPs durchaus möglich.

Das würde der Spekulation widersprechen, dass sich architekturmäßig mit Kepler eher wenig ändern soll gegenüber Fermi. Außerdem wäre die Performance der neuen Shader dann mit jetzigen Nvidia-Shadern bezogen auf die Anzahl überhaupt nicht mehr zu vergleichen.

HarryHirsch
2012-01-02, 22:22:27
für bucklew:

http://www.abload.de/img/hd7970-65xwjrd.jpg (http://www.abload.de/image.php?img=hd7970-65xwjrd.jpg)

hab mal eine von den rosinen gepickt

LovesuckZ
2012-01-02, 22:22:46
Und da die Leute nach News schreien: Laut Fudo kommt Kepler noch in Q1 - irgendwie: http://www.fudzilla.com/graphics/item/25396-kepler-to-show-its-face-in-q1-2012

bzw LZ wo ist denn dein Link zu der Aussage, Kepler hätte die doppelte Leistung von Termin wie von dir behauptet.

Ich erinnere mich nur an eine gestiegene Effizienz. Um einen Faktor 2-2,5.

Ich würde mich über die entsprechende Quelle aber freuen ;)

Hä? Kepler wird mindesten die Rechenleistung um Faktor 2 erhöhen. Dabei bleibe ich. Dafür gibt es auch keinen Link. Es geht hier nicht um "doppelte Leistung". Die hängt sowieso davon ab, wo nVidia Einschnitte vornehmen wird.

Das würde der Spekulation widersprechen, dass sich architekturmäßig mit Kepler eher wenig ändern soll gegenüber Fermi. Außerdem wäre die Performance der neuen Shader dann mit jetzigen Nvidia-Shadern bezogen auf die Anzahl überhaupt nicht mehr zu vergleichen.

Man kann keinen Spekulationen widersprechen. :D
Die einzigen relevanten Aussagen sind die von Huang und die Folie über das, in welcher Art auch immer, verbesserte DP Perf/Watt Verhältnis. Alles andere sind Spekulationen in jede Richtung.

AwesomeSauce
2012-01-02, 22:24:15
Bzw. LZ ich warte ;)
Hörst du jetzt mit dem Kindergarten auf?

Man sollte den Thread schliessen, bis sich die Streitköpfe wieder abgekühlt haben...

Bucklew
2012-01-02, 22:24:41
für bucklew:

hab mal eine von den rosinen gepickt
Und? Bezweifel ich nicht. Ändert nichts am Bitcoin-Benchmark.

AnarchX
2012-01-02, 22:25:07
Das würde der Spekulation widersprechen, dass sich architekturmäßig mit Kepler eher wenig ändern soll gegenüber Fermi.
Seit Mitte Dezember gehen die Spekulationen in diese Richtung: http://www.3dcenter.org/news/nvidia-kepler


Außerdem wäre die Performance der neuen Shader dann mit jetzigen Nvidia-Shadern bezogen auf die Anzahl überhaupt nicht mehr zu vergleichen.
Das wäre natürlich der Fall. Der spekulierte GK104 mit >1000SPs@1GHz+ soll wohl etwas oberhalb der GTX 580 liegen.

Bucklew
2012-01-02, 22:26:32
Und da die Leute nach News schreien: Laut Fudo kommt Kepler noch in Q1 - irgendwie: http://www.fudzilla.com/graphics/item/25396-kepler-to-show-its-face-in-q1-2012
"Without any doubt, AMD is the first with a successful 28nm launch" ;D

Da scheint fudo wohl was nicht so ganz verstanden zu ham ;)

john carmack
2012-01-02, 22:26:33
Hey leute.... hab bisher nur recht wenig zu Kepler mitbekommen.

Kann mir bitte jemand sagen woher dieses Gerücht einer enormen Leistungssteigerrung kommt?

Sehe ich das richtig das Kepler min. 80% - 100% schneller als die aktuellen Nvidias werden soll?
Hab sogar schon was gelesen das der Chip bis zu 100% - 120% schneller werden soll.

HarryHirsch
2012-01-02, 22:26:43
Und? Bezweifel ich nicht. Ändert nichts am Bitcoin-Benchmark.

wie gipsel schon schrieb könnte sich das bei einem client update ändern.
genug ot ich bin raus.

Gipsel
2012-01-02, 22:28:25
Ja in DIESEM Beispiel aber nicht. Bricht dir das einen Zacken aus deiner AMD-Krone?
:confused:
Ich habe eine Begründung geliefert, warum GCN in DIESEM Beispiel nicht viel bringt und somit erläutert, warum das ein schlechtes Beispiel für eine höhere Auslastung der Einheiten bei GCN ist (und das ziemlich allgemein auch für ein paar andere Typen von Code). Weiterhin habe ich gesagt, daß Kepler in diesen Gebieten aufholen wird.

Das Bitcoin-Ding ist cherrypicking at its best, das taugt nun wirklich nicht dafür, angeblich ausbleibende Effizienzsteigerungen zu demonstrieren. Ist das so schwer zu akzeptieren?

Bucklew
2012-01-02, 22:28:39
wie gipsel schon schrieb könnte sich das bei einem client update ändern.
könnte auch gerade die Sonne scheinen, wenn nicht Nachts wäre.

LovesuckZ
2012-01-02, 22:29:18
Und das kommt von VR-Zone:
In a way, this is an appropriate delay as well since NVIDIA is widely expected to introduce its GK104, its first part based on 28nm Kepler architecture in the last week of January or in early February.

Read more: http://vr-zone.com/articles/amd-postpones-radeon-hd-7950-until-february/14404.html#ixzz1iL400Jji

AnarchX
2012-01-02, 22:30:02
Sehe ich das richtig das Kepler min. 80% - 100% schneller als die aktuellen Nvidias werden soll?
Hab sogar schon was gelesen das der Chip bis zu 100% - 120% schneller werden soll.
Wohl möglich Gerüchte, die man aus 2,5-3x DP-Leistung pro Watt ableitet. Wenn NV deutlich mehr Rechenleistung hinter ihr skalierbares Front-End bekommt, als mit der Fermi-Architektur, dann können solche Leistungssteigerungen möglich sein. Wobei für >100% gegenüber einer GTX 580 wohl die Leistungsaufnahme steigen müsste.

Bucklew
2012-01-02, 22:30:29
:confused:
Ich habe eine Begründung geliefert, warum GCN in DIESEM Beispiel nicht viel bringt und somit erläutert, warum das ein schlechtes Beispiel für eine höhere Auslastung der Einheiten bei GCN ist (und das ziemlich allgemein auch für ein paar andere Typen von Code). Weiterhin habe ich gesagt, daß Kepler in diesen Gebieten aufholen wird.

Das Bitcoin-Ding ist cherrypicking at its best, das taugt nun wirklich nicht dafür, angeblich ausbleibende Effizienzsteigerungen zu demonstrieren. Ist das so schwer zu akzeptieren?
Solltest du nicht als Mod zumindest langsam mit dem off topic aufhören?

HarryHirsch
2012-01-02, 22:32:00
könnte auch gerade die Sonne scheinen, wenn nicht Nachts wäre.

sagt dir milkyway@home was? falls nicht, google mal.

nu aber endgültig raus hier.

Hauwech
2012-01-02, 22:40:56
Seit Mitte Dezember gehen die Spekulationen in diese Richtung: http://www.3dcenter.org/news/nvidia-kepler


Das wäre natürlich der Fall. Der spekulierte GK104 mit >1000SPs@1GHz+ soll wohl etwas oberhalb der GTX 580 liegen.

Laut Ail sollen es mit den ersten Betas ca. + 10% gewesen sein. Fraglich ist halt nur, mit wieviel MHz das ganze schon zustande kam und ob es sich "nur" um einen Durchschnittswert handelt. Das eine oder andere Prozentchen wird da wahrscheinlich schon noch hinzukommen.

Ailuros
2012-01-02, 22:57:12
GK104 und GK106 beide mit 64 TMUs? :|
Die Tabelle kommt wohl aus Dtl., da PHK einen Abload.de-Link hat: http://bbs.expreview.com/thread-49044-1-1.html

Ein paar Fehler stecken offensichtlich drin, aber total fuer den Abfalleimer ist das Zeug nun auch wieder nicht. Die TDPs duerften uebrigens auch total daneben sein.

Laut Ail sollen es mit den ersten Betas ca. + 10% gewesen sein. Fraglich ist halt nur, mit wieviel MHz das ganze schon zustande kam und ob es sich "nur" um einen Durchschnittswert handelt. Das eine oder andere Prozentchen wird da wahrscheinlich schon noch hinzukommen.

Volle Zielfrequenz.

AwesomeSauce
2012-01-02, 22:59:20
Konntest du noch etwas mehr über den Aufbau der GPCs und SMs erfahren? Nach der leidigen Diskussion über den Nutzen von GPGPU vs. Tessellation wäre das eine willkommene Abwechslung:freak:

Ailuros
2012-01-02, 23:03:32
Und das kommt von VR-Zone:

Read more: http://vr-zone.com/articles/amd-postpones-radeon-hd-7950-until-february/14404.html#ixzz1iL400Jji

Der eigentliche "Kepler launch" war eigentlich schon immer mit GK104 geplant; ich hoerte schon Anfang 2011 als sich AMD noch sehr sicher war dass sie noch innerhalb des Jahres schaffen werden dass NV einen performance Kepler chip noch vor Weihnachten plant. Falls es stimmt und alles wirklich nach Plan laeuft kommt auch der wichtigste Baustein noch innerhalb FY13.

LovesuckZ
2012-01-02, 23:07:21
Ich hoffe du meinst Fiscal Year 2012. 2013 endet erst nächtes Jahr. :D

Hauwech
2012-01-02, 23:07:35
Volle Zielfrequenz und erste Betas bei + 10% hmmm...tippe mal so auf + 20 - 25% ggü 580 bei Veröffentlichung. Hauptsache das Dingen wird schon mit Referenzkühlung schön leise. Den Fehler mit der Wärmeleitpaste werden sie wohl nicht machen. :tongue:

Ailuros
2012-01-02, 23:10:39
Konntest du noch etwas mehr über den Aufbau der GPCs und SMs erfahren? Nach der leidigen Diskussion über den Nutzen von GPGPU vs. Tessellation wäre das eine willkommene Abwechslung:freak:

Ich bleib mal beim GK100 der Tabelle (welches afaik eigentlich GK110 sein sollte ist aber nebenwichtig)...wer immer das Ding zusammengelegt hat denkt an 6 GPCs mit nach wie vor 4 SMs/GPC.

24SMs *4 TMUs/GPC = 96 TMUs
2304SPs / 24 SMs = 96SPs/SM

Man sieht schon an den SP vs. DP FLOP Raten dass man hier an 3:1 dachte.

Wie es jetzt in jeglichem SM aussehen koennte? 3*32 und das Zeug ist garantiert nicht von jemand der absolut keine Ahnung hat. Von mir auf jeden Fall nicht, aber ich hab den Verdacht dass derjenige der die Tabelle entwickelt hat mehr weiss als sich manche denken koennten. Oder es hat jemand Lotterie gespielt mit ein paar Fetzen hier und ich hab mal wieder zu viel verraten LOL ;)

AwesomeSauce
2012-01-02, 23:10:41
Volle Zielfrequenz und erste Betas bei + 10% hmmm...tippe mal so auf + 20 - 25% ggü 580 bei Veröffentlichung.
Das wäre knapp Tahiti XT Revier, vielleicht etwas zu optimistisch.

Wie es jetzt in jeglichem SM aussehen koennte? 3*32 und das Zeug ist garantiert nicht von jemand der absolut keine Ahnung hat.
3xVec32 ALUs? Hatte Fermi nicht 2xVec16 (3x für GF104/114)? Das wäre doch ein arger Bruch für den Scheduler... Wie gross waren die Warps bei NV nochmal?

Ailuros
2012-01-02, 23:14:51
Ich hoffe du meinst Fiscal Year 2012. 2013 endet erst nächtes Jahr. :D

Dann geh mal auf den NV marketing slide zurueck und seh selber was draufsteht. Sonst http://pressroom.nvidia.com/easyir/customrel.do?easyirid=A0D622CE9F579F09&version=live&prid=755674&releasejsp=release_157&xhtml=true

LovesuckZ
2012-01-02, 23:16:37
Dann geh mal auf den NV marketing slide zurueck und seh selber was draufsteht. Sonst http://pressroom.nvidia.com/easyir/customrel.do?easyirid=A0D622CE9F579F09&version=live&prid=755674&releasejsp=release_157&xhtml=true

Ja, Fiscal Year 2012 endet ende Januar. Wenn du sagst, dass der wichtigste Baustein noch im Jahr FY 2013 erscheine, dann geht dieses FY von Februar 2012 bis Januar 2013. ;)

Ailuros
2012-01-02, 23:18:36
Das wäre knapp Tahiti XT Revier, vielleicht etwas zu optimistisch.

Irgendwo in der Region koennte es tatsaechlich liegen; haengt natuerlich auch davon ab was Du fuer eine Benchmarksammlung benutzt und AMD darf eben in der Zwischenzeit keine schnellere Treiber liefern.

3xVec32 ALUs? Hatte Fermi nicht 2xVec16 (3x für GF104/114)? Das wäre doch ein arger Bruch für den Scheduler...

Ich sagte nirgends das alles wirklich stimmt, aber 16-er SIMDs sind es bei Kepler IMHO nicht mehr. Wie gesagt Kepler ist eine neue Architektur und kein einfacher refresh.

Hauwech
2012-01-02, 23:20:13
Das wäre knapp Tahiti XT Revier, vielleicht etwas zu optimistisch.


3xVec32 ALUs? Hatte Fermi nicht 2xVec16 (3x für GF104/114)? Das wäre doch ein arger Bruch für den Scheduler...

Naja, warum nicht. GK104 ist in dem Sinne ja auch "nur" ein Performance Chip wie Tahiti.

Ailuros
2012-01-02, 23:23:39
Ja, Fiscal Year 2012 endet ende Januar. Wenn du sagst, dass der wichtigste Baustein noch im Jahr FY 2013 erscheine, dann geht dieses FY von Februar 2012 bis Januar 2013. ;)

...for the first quarter of fiscal 2012 ended May 1, 2011...

Welchen Januar?

LovesuckZ
2012-01-02, 23:24:53
Januar 2012.
Q1 2013 endet dann ende April/anfang Mai 2012.

Ailuros
2012-01-02, 23:28:52
Naja, warum nicht. GK104 ist in dem Sinne ja auch "nur" ein Performance Chip wie Tahiti.

Die Tabelle hat aber 96SPs/SM fuer GK100 und um diese geht es ihm auch. Nach dieser ist GK104 lediglich um 1/3 kuerzer. Die 96 koennten fuer 104 stimmen als These aber dass es ebenso auf GK100 aussieht will ich bezweifeln.

Januar 2012.
Q1 2013 endet dann ende April/anfang Mai 2012.

Und was war jetzt so schwer daran zu verstehen? NV hat selber in einem slide 1QFY13 fuer Kepler angegeben, welches schon immer das Ziel war. Falls alles nach Plan laeuft ja, sonst wird's dann eher Juni.

Skysnake
2012-01-02, 23:34:21
Irgendwo in der Region koennte es tatsaechlich liegen; haengt natuerlich auch davon ab was Du fuer eine Benchmarksammlung benutzt und AMD darf eben in der Zwischenzeit keine schnellere Treiber liefern.



Ich sagte nirgends das alles wirklich stimmt, aber 16-er SIMDs sind es bei Kepler IMHO nicht mehr. Wie gesagt Kepler ist eine neue Architektur und kein einfacher refresh.

dann wohl 1xVec64 oder 2xVec32, was ich für wahrscheinlicher halte, man muss ja zu CUDA kompatibel sein. Auch würden AMD und nVidia die selben Größen verwenden, was es den Entwicklern einfacher macht.

Gipsel
2012-01-02, 23:38:51
Wie es jetzt in jeglichem SM aussehen koennte? 3*32 und das Zeug ist garantiert nicht von jemand der absolut keine Ahnung hat. Von mir auf jeden Fall nicht, aber ich hab den Verdacht dass derjenige der die Tabelle entwickelt hat mehr weiss als sich manche denken koennten. Oder es hat jemand Lotterie gespielt mit ein paar Fetzen hier und ich hab mal wieder zu viel verraten LOL ;)
Ich würde auf die zweite Möglichkeit tippen: jemand liest hier einfach aufmerksam mit, macht sich seine Gedanken und bastelt dann eine Tabelle per mix n' match.
Ob mit Kepler jetzt zwei logische Vec32-ALUs kommen oder deren drei oder gar vier, keine Ahnung. Vermutlich wird es aber bei der logischen Größe von 32 bleiben (also die Warpgröße bleibt konstant). Bei G80/GT200 waren es physisch Vec8-ALUs (die über 4 Takte die 32 Elemente eines Warps abgearbeitet haben), bei GF1xx waren es physisch Vec16 (Warp über 2 Takte), maximal könnten sie physisch Vec32 verbauen (dann wäre der Hotclock praktisch automatisch weg bzw. würden die Scheduler dann auch damit laufen), aber da müssen wir uns überraschen lassen.

So oder so, falls die Hotclock wegfällt, bietet es sich an, das Scheduling sowieso komplett umzukrempeln, Stichwort niedrigere Latenzen. Dann noch ein Registerfile pro Vektor-ALU (und nicht eins für den kompletten SM) und es dürften die größten Stolpersteine für eine überproportionale Erhöhung der ALU-Zahl bei gleichzeitig verbesserter Energieeffizienz beseitigt sein (in jedem Fermi-SM läuft ein 8192Bit (!) Bus "über" alle Einheiten, um die mit den Operanden aus dem Regfile zu versorgen).

Das könnte dann oberflächlich GCN erstmal ziemlich ähnlich sehen, auch wenn das Scheduling immer noch komplett anders als bei AMD laufen dürfte (also unter der Haube trotzdem deutlich anders funktioniert).
Wir werden ja bald sehen, was es denn wirklich geworden ist.

boxleitnerb
2012-01-03, 06:42:33
Die TDPs duerften uebrigens auch total daneben sein.

Ich hoffe doch, sie sind (deutlich?) zu hoch gegriffen.

Mein Tip:
GK110: 250W (für GTX680/780, die 670/770 dann natürlich weniger)
GK104: 160W (GTX660/760)

Skysnake
2012-01-03, 08:49:29
Das wird wohl nicht hinkommen, wenn du die angepeilte Leistung berücksichtigst.

Da wird die GK104 wohl eher in die Richtung 200W gehen und GK110 halt in die Richtung von 300W, wie bei einer Dual-GPU halt.

mapel110
2012-01-03, 08:56:36
btw was ich nicht ganz verstehe, GK104 soll nur etwa so viele Transistoren wie GF110 haben, also 3 Milliarden. Und dann soll noch ein High End Chip kommen, der das Maximum der Fertigungsmöglichkeiten darstellt mit über 500mm² Chipfläche?!
Da sollten doch locker 6 Milliarden Transistoren realistisch sein. Ergibt das dann nicht eine viel zu große Performance-Lücke?!

So krass war das ja nun bei GF110 und GF114 nicht.

Skysnake
2012-01-03, 09:14:13
Naja, gehen wir mal die Spekulationen durch:

GK104 DIE-Size < Tahiti
GK104 Performance <Tahiti XT, aber >Tahiti Pro
GK110 soll aus 2 GK104 bestehen

Da wir wohl von ~ 200W TDP für GK104 ausgehen können, +/- 20W würde ich sagen (Weiß jemand wieviel die 7950 verbraucht?), kannste nicht einfach die zwei GK104 zusammenbappen.

Du wirst also einen recht hochgezüchteten GK104 haben, was die Taktraten anbelangt, und dann beim GK110 die Taktraten deutlich runterschrauben, aber eben doppelt so viele Ausführungseinheiten haben. Für GPGPU eine tolle Sache, weil damit das RAM-Bandbreite/GFlops-Verhältnis ansteigt. Man hat ja dann wohl auch das doppelte Speicherinterface ;)

Wie es mit der Bandbreite der Caches aussieht, muss man schauen. Da wäre es natrürlich schön, wenn die mit voller Leistung laufen könnten, aber das kann ich mir aktuell nicht vorstellen, wie das zu bewerkstelligen sein soll, außer für den L2.

Also mal weiter im Text.

Wir haben einen hochgezüchteten GK104. Da müssen wir sagen wir mal die Taktraten um 25-30% senken, um in der TDP von 300W zu bleiben. Eventuell sogar um 50% bei Vollauslastung.

Einschub: Die TDP ist ein sehr interessantes Thema. AMD und nVidia haben ja beide seit einiger Zeit Maßnahmen, um die Leistungsaufnahme der Chips zu beschränken. nVidia dadurch, das Sie soweit ich das verstanden habe, die clock aussetzen lassen für eine gewisse Anzahl an Takten, und AMD reduziert "einfach" den Takt. Die Lösung von AMD scheint nach allen Berichten, die ich dazu gelesen habe, deutlich besser/dosierter zu arbeiten, als die von nVidia (bezogen auf HD6k vs GTX500). Mit der HD7k soll das ja nochmals verbessert worden sein. Allgemein scheint AMD hier Technologie/Know-how aus dem CPU-Bau verwendet/genutzt zu haben, wie es mir scheint. nVidia wird hier aber hoffentlich nachlegen mit Kepler, was für unseren theoretischen GK110 aus zwei GK104 mit jeweils ~200W TDP auch bitter nötig wäre.

Also weiter:
Der Vorteil an den vielen Ausführungseinheiten ist auch, das man, sofern die Anwendung die Einheiten schlecht auslastet, und man eine geringe Leistungsaufnahme hat, den Takt gut anziehen kann, ohne in einen Bereich zu fallen, wo die Leistungsaufnahme explodiert. Man musste wegen den vielen Einheiten ja deutlich mit dem Takt runter. 10-30% Mehrtakt sind da je nach Anwendung sicherlich wieder drin, womit man im Optimalfall eben fast wieder einen echten doppelten GK104 hat. Essenziell wichtig hierfür ist aber ein wirklich gut funktionierendes Powermanagement, und genau hier hab ich etwas Bauchschmerzen. Das ist alles andere als trivial, so etwas zu bauen, und ich weiß wirklich nicht, ob nVidia dazu jetzt bereits in der Lage ist, dies bei so einem großen Chip in der nötigen Form zu machen.

Damit wäre die Performance-Lücke auch gar nicht sooo groß. Zumindest nicht für Gamer, weil wahrscheinlich nicht so groß, da man die Karten relativ gleichmäßig auslastet.

Klingt doch gar nicht so unwahrscheinlich, oder was meint ihr?
Ailuros hab ich mit meinem Stock irgendwo drauf gehauen? :biggrin: ;)

boxleitnerb
2012-01-03, 09:20:27
Das wird wohl nicht hinkommen, wenn du die angepeilte Leistung berücksichtigst.

Da wird die GK104 wohl eher in die Richtung 200W gehen und GK110 halt in die Richtung von 300W, wie bei einer Dual-GPU halt.

Das würde aber nicht zu dem Perf/W-Getöse passen. GTX560 Ti liegt 35-40% hinter der 580. Braucht aber nur 60% der Energie (ht4u 155W vs 245W).

Attestieren wir mal ein 50% besseres Perf/W Verhältnis, das vollständig in Performance umgemünzt wird, kommen wir bei GTX580+10% raus und sind immer noch bei 155W. AMD hat 35-40% mehr Performance zur 6970 rausgeholt bei annähernd gleichem Verbrauch, war aber gehemmt durch den ganzen HPC und GPGPU-Kram. Bei Nvidia sehe ich dieses Hindernis nicht, daher halte ich 50% bessere Leistung bei gleichem Verbrauch für realistisch.

Und GK110 wird garantiert nicht aus 2x GK104 bestehen, das halte ich für ausgemachten Unsinn. Auf die Roadmap von 4gamers würde ich rein gar nichts geben, die lagen schon oft genug daneben.

y33H@
2012-01-03, 09:25:53
GK110 wird höchstwahrscheinlich nicht aus zwei GK104 bestehen, da sieht das von PHK schon viel realistischer aus.

Skysnake
2012-01-03, 09:29:42
Dann machen wir aus den 200W halt 150W. Das würde dann den Zielvorgaben entsprechen. AMD hat ja auch noch etwas Luft. Paar % Punkte waren da mit OC ja wohl noch zu holen, da man die Spannung nicht erhöhen musste.

Ich bin halt davon ausgegangen, das man die Zielvorgaben nicht ganz erreicht. 28nm ist ja nicht ganz umproblematisch. Der Chip wird dafür relativ klein. Beim GK110 hat man das "Problem" aber, das man die Signale auf den anderen Chip treiben muss, wobei das sehr sehr sehr sehr viel kleiner ist als den RAM an zu sprechen. Glaub nen Faktor 1000 lag da im Energieaufwand dazwischen, wenn ich mich recht erinnere (Kann auch Faktor 100 gewesen sein, aber irgend ne 10er Potenz wars aber von der Größenordnung her).

Also kurz zurück. GK104 mit theoretischen 150-160W. Dann kommen wir beim GK110 wohl auf 300-320W, wenn wir das Ding einfach wirklich als doppelten GK104 hinstellen, wovon aus zu gehen ist. Das wäre eindeutig zu viel des guten. So 250W TDP wäre ein wünschenswertes Ziel. Kann man natürlich durch Taktreduzierung erreichen, aber dann hat man wieder mit einem fein regulierenden Powermanagement bessere Karten in der Hand.

Ich denke diesbezüglich wird man bei nVidia auch große Fortschritte sehen mit Kepler.

AffenJack
2012-01-03, 09:32:02
... Dann kommen wir beim GK110 wohl auf 300-320W, wenn wir das Ding einfach wirklich als doppelten GK104 hinstellen, wovon aus zu gehen ist.


Nein, wovon nur DU ausgehst, jedem anderen ist klar, dass GK110 kein doppelter GK104 wird.

AwesomeSauce
2012-01-03, 09:39:43
Also kurz zurück. GK104 mit theoretischen 150-160W. Dann kommen wir beim GK110 wohl auf 300-320W, wenn wir das Ding einfach wirklich als doppelten GK104 hinstellen, wovon aus zu gehen ist. Das wäre eindeutig zu viel des guten. So 250W TDP wäre ein wünschenswertes Ziel. Kann man natürlich durch Taktreduzierung erreichen, aber dann hat man wieder mit einem fein regulierenden Powermanagement bessere Karten in der Hand
Schwachsinn, GK110 ist kein doppelter GK104.

boxleitnerb
2012-01-03, 09:42:48
Nein, wovon nur DU ausgehst, jedem anderen ist klar, dass GK110 kein doppelter GK104 wird.

So schaut es aus.

Ich schätze, GK110 wird als Singlechip im Vollausbau 250W TDP haben. Dafür wird die Performance auch wie gehabt 40-50% über GK104 liegen, was dann in etwa GTX580+ 50-60%, etwas mehr wenn man durch Treiber noch was rausholt, bedeuten würde. Damit würde man dann auch je nach Benchmark 20-40% vor Tahiti XT liegen.
Mit Tahiti XTX gibts dann vielleicht einen Quasi-Gleichstand mit minimalem Vorteil für Nvidia, die dann ironischerweise etwas weniger verbrauchen werden in diesem Segment. Das ist jetzt meine persönliche Prognose ;)

Dural
2012-01-03, 10:06:33
Wer sagt den das es einen Tahiti XTX geben wird? Diese XTX Karten gibt es schon seit der 2900XT, in den Gerüchten jedenfalls ;)

Und wisst ihr auch wie so? Weil es selten Sinn macht von einem Chip eine "Ultra" Version nach zu schieben und meistens sind auch neuere Revisionen nötig (siehe RV790)

Zudem frage ich mich wo sich so eine Angebliche XTX positionieren will? zwischen den 7970 und deren OC Modell (1335MHz stehen im Raum, die ich derzeit nicht glaube) oder was? ;)


Es wird wohl ende 2012 eine Mischung aus beidem sein, mehr Takt und mehr Einheiten und etwas arbeit an der Effizients würde nicht schaden.

Skysnake
2012-01-03, 10:08:46
Ich bezog mich hierauf, was soweit ich das verfolgt und auch nochmals nachgeschaut habe, nicht entkräftet wurde: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9051609&postcount=1205
Wenn doch, bitte den Link zum Post. Danke.

So jetzt aber weiter im Thema.

Wenn der GK104 schon knapp 300mm² hat, und unterhalb der Performance des Tahiti XT liegen soll, bei rund 150-200W, dann kannste den Chip um 66,6% vergrößern. Das Speicherinterface soll ja mit skalieren. Hätte wir also maximal 66% Mehrleistung, was so round about maximal 50% Mehrleistung gegenüber Tahiti XT führen würde. Da müsste die Karte dann aber schon >=300W schlucken, was ich für eher unwahrscheinlich halte. Das macht nVidia glaube ich nicht nochmals.

Ich gehe eher von 250 bis maximal 275W aus, damit man noch etwas Luft zur 8+6 Spezifikation hat. Das wären dann aber wohl zwischen 10 und 15% weniger Leistung. Wären wir also nur noch so bei rund (ganz grob) 40% Mehrleistung gegenüber einer Tahiti XT, wobei wir dann wieder am absolut maximal machbaren wären, wo wahrscheinlich wieder alles auf biegen und brechen durchgezogen wird.

512 Bit Interface und und und.

Zudem frage ich mich, wie weit GK104 hinter Tahiti XT landet. Der hat ja anscheinend große Taktspielräume. Die Preisfrage ist jetzt halt, bezog sich die Aussage von Ailuros bzgl GK104<Tahiti XT auf die 925 MHz von Tahiti, oder die 1x00 MHz?

Dazu kommt halt immer noch, das nVidia die Effizienz ja massiv steigern will im Vergleich zu Fermi. Hohe Taktraten sind da sicherlich nicht angebracht.

boxleitnerb
2012-01-03, 10:10:15
Na 20% mehr Takt sollten doch ohne Probleme drin sein, wenn man selektiert. Dass man dann mit den OC-Modellen der normalen 7970 konkurriert, ist logisch und nicht ungewöhnlich. Wüsste nicht, was gegen eine 7980 sprechen sollte.

Edit:
Ich denke Ailuros meinte das mit GK104-Takt bzgl. der 925MHz von Tahiti XT. Aber: Wer sagt denn, dass sich nicht GK104 auch hervorragend übertakten lassen wird?

Skysnake
2012-01-03, 10:24:41
Das ist halt eine entscheidende Frage!

Wir wissen ja nicht, wie hoch der stock clock ausfallen wird. Der Hot-Clock soll ja wegfallen. Dadurch muss der Chip breiter werden. Fragt sich nun, wie viel DIE-Size brauchen Sie hierfür? Je nach dem können Sie halt mehr oder weniger viele Einheiten auf den DIE packen. Was zur Folge hat, das man mehr oder weniger Takt brauch um an die 7970 ran zu kommen.

Sind halt VERDAMMT viele Unbakannten dabei.

Ich vermute mal eher nicht, das nVidia die gleiche Packungsdichte erreicht wie AMD mit ihren Chips. nVidia hat einfach bisher immer Hot-clock verwendet, was sich dann doch wieder etwas unterscheidet. Viel wird es wohl nicht sein, aber ich bin mir ziemlich sicher, das es weniger sein wird.

Das und die Annahme, das GK104 kleiner sein soll deutet für mich eher auf einen höheren Takt als bei Tahiti XT hin. Was wiederum eher darauf hindeutet, das man beim GK110 dann wahrscheinlich etwas niedriger takten wird.

Da frag ich mich dann aber, wie will man da dann wirklich eindeutig AMDs HD7k Serie in der Luft zerreisen, was in meinen Augen nötig ist, wenn man ~4-6 Monate später kommt. Der Vorsprung sollte sich schon in Richtung 20%+ bewegen, am Besten bei gleichem Energieverbrauch.

Wir müssen ja immer im Hinterkopf haben, das wohl niemand einen zweiten Thermi mit >300W Verbrauch haben will. Ich kann mir das auf jeden Fall bei bestem Willen nicht vorstellen. 300W ja, als absolute Schmerzgrenze in Ausnahmefällen, aber nicht mehr.

y33H@
2012-01-03, 10:25:25
Dazu kommt halt immer noch, das nVidia die Effizienz ja massiv steigern will im Vergleich zu Fermi. Hohe Taktraten sind da sicherlich nicht angebracht.NV will laut Slides die DP-FLOPS/Watt massiv steigern, die Spiele-(SP-)Leistung steht auf einem ganz anderen Blatt. Ohne Hotclock braucht NV bei einem nicht übertrieben breiten Design höhere Taktraten als bisher, Richtung 1.000 MHz sind daher schon anzunehmen.

boxleitnerb
2012-01-03, 10:28:29
Fermi braucht keine >300W (in Spielen). In der Luft zerreissen...wieso sollte das nötig sein? Die Karten können trotzdem ein großer Erfolg werden, siehe GTX460/470/560/570.

Außerdem ist Takt nicht alles. Die 580 hat deutlichst weniger Shaderpower und Texelfüllrate (weniger Einheiten UND weniger Takt) und schlägt trotzdem die 6970.

Dural
2012-01-03, 10:38:33
ich würde einfach mal abwarten bis alle Chips im Laden erhältlich sind, jetzt von Takt und Verbrauch zu sprechen ist etwas verfrüht, alles ist noch offen und man kann es gar nicht wissen :)

Skysnake
2012-01-03, 10:52:42
NV will laut Slides die DP-FLOPS/Watt massiv steigern, die Spiele-(SP-)Leistung steht auf einem ganz anderen Blatt. Ohne Hotclock braucht NV bei einem nicht übertrieben breiten Design höhere Taktraten als bisher, Richtung 1.000 MHz sind daher schon anzunehmen.
Ja, es war ja auch die 1:1 Ratio mal im Gespräch, wobei ich das wirklich nicht glauben kann.

Genau das mein ich ja was du sagst. Wenn die da über/rund 1GHz brauchen, dann ist da auch nicht mehr so viel Luft nach oben, vor allem wenn Sie die Effizienzsteigerungen im Blick behalten wollen.

Die Frage ist halt, bekommt nVidia auch eine vernünftige/gleich gute Skalierung/Auslastung bei der höheren Anzahl an Einheiten hin? Seh ich als schwieriger an, als bei weniger Einheiten.

Mir schwirren einfach immer und immer wieder diese 2,5x DP/W bei Kepler durch den Kopf. Wenn man da von der GTX580 ausgeht, und annimmt, dass die Leistungsaufnahme um 25% sinkt, aber die (Spiele-)Leistung linear mit skaliert, dann sind wir bei ca 80% Mehrleistung im Vergleich zur GTX580.

Wie will man das denn bitte ohne ein wirklich extrem breites Design und niedrige Taktraten erreichen?
Wie will man das dann aber bitte auf 500mm² packen, wenn der GF104 schon ~300mm² und 1 GHz takt haben soll, dabei aber Tahiti XT nicht schlagen können soll... Hier wieder die entscheidende Frage. Tahiti XT mit welchem Takt? -.-

Daher fand ich die doppelter GK104 per Interposer gar nicht als sooo unrealistisch an. Bei FPGAs wird es gemacht, und es scheint gut zu funktionieren. Man muss dann auch keinen riesigen DIE produzieren, was auch nicht verkehrt ist. In meinen Augen einfach eine charmante Möglichkeit

Fermi braucht keine >300W (in Spielen). In der Luft zerreissen...wieso sollte das nötig sein? Die Karten können trotzdem ein großer Erfolg werden, siehe GTX460/470/560/570.

Außerdem ist Takt nicht alles. Die 580 hat deutlichst weniger Shaderpower und Texelfüllrate (weniger Einheiten UND weniger Takt) und schlägt trotzdem die 6970.
Siehe oben. nVidia hat nur eins zu Kepler gesagt. Die Effizienz steigt massiv an. Faktor 2,5 halt für DP. Dazu kommt man halt viel später, wie es scheint. Da sollte man dann schon deutlich nachlegen können. Es soll ja auch der GK110 sein und nicht GK100. Es ist also fraglich, ob nVidia dann zeitnah zur DH8k Serie einen Nachfolger bringen kann. Für mich hört sich das eher so an, als ob GK100 nicht funktioniert hat, GK110 herhalten muss, man AMD erst mal das Feld überlassen muss, um sie dann aber richtig platt zu machen, wobei man dann aber halt auch nichts wirklich mehr großartig zum nachlegen hat, wenn die HD8k Serie kommt.

Oder erwartet einer dann einen GK120? Gabs sowas schonmal bei nVidia innerhalt einer Fertigung???

Mich beunruhigt einfach die ganze Sache.

Man ist scheinbar spät dran, und es ist absolut nicht klar, ob alles nach plan läuft, wo man im Plan steht, und ob schon alles in trockenen Tüchern ist und einfach noch Zeit brauch, oder ob die großen Knackpunkte erst noch ausstehen.

Selbst zum HD5k Launch haben wir mehr zu Fermi gewusst als jetzt. Vor allem gibt es absolut gar keine Leaks. Kein Foto von irgendwelchen Karten, kein absolut rein gar nichts. Wir haben so ein richtiges Informationsvakuum.

Klar nVidia könnte im Februar/März uns noch alle überraschen und die GK1x0 bringen, aber glaubt da wirklich einer dran, so still wie es ist?

Also ich nicht.

EDIT:
ich würde einfach mal abwarten bis alle Chips im Laden erhältlich sind, jetzt von Takt und Verbrauch zu sprechen ist etwas verfrüht, alles ist noch offen und man kann es gar nicht wissen :)
Ja genau, und ich empfinde dies als einen unerträglichen Zustand. Überleg mal, das FDS wo GCN vorgestellt wurde, ist jetzt wie lange her? nen halbes Jahr ca. oder?

So was will ich endlich auch für Kepler haben. Minimum.

CES ist auch nur noch ne Woche hin, und man hört die Spatzen nichts von den Häusern singen. Rein gar nichts. Wenn die da was planen, sollten die Messebauer etc. etc. doch längst irgendwo involwiert sein, was dann auch zu leaks führt. Aber nichts, NADA.

Btw. Wie würdet ihr das eigentlich einschätzen, wenn zur CES nichts von nVidia zu Kepler kommt?

Ich würde das als schlechtes Zeichen werten.

V2.0
2012-01-03, 10:58:37
Was wissen wir bisher.

1. GK104 ist etwas kleiner als Tahiti. Hotclocks sind weg, so dass das Design breiter sein muss und der Baseclock hoch muss.

Ich halte um 1GHz für realistisch. Geht man davon aus, dass AMD immer die besserer Perf./W hat, dann würde ich für GK104 (im Vollausbau, falls er überhaupt verfügbar wird) gegen 250W haben dürfte. GK110 dürfte gegenwärtig gar nicht produzierbar sein und später gegen 325W tendieren. Also ca. 50% mehr Verbrauch für 40% mehr Leistung als Tahiti.

LovesuckZ
2012-01-03, 10:58:49
/edit: Bitte löschen.

LovesuckZ
2012-01-03, 11:00:33
Selbst zum HD5k Launch haben wir mehr zu Fermi gewusst als jetzt.


:facepalm:

Alter, hast du überhaupt eine Ahnung, von was du redest? Zum Cypress-Launch wusste man garnichts über Fermi - außer das in 40nm gefertigt und noch 2009 gelauncht werden sollte...

Gipsel
2012-01-03, 11:28:28
Zum Cypress-Launch wusste man garnichts über Fermi - außer das in 40nm gefertigt und noch 2009 gelauncht werden sollte...
Die HD5870 wurde am 23.09.2009 vorgestellt, die HD5850-Samples wurden zum 30.09.2009 für Tests freigegeben. Am gleichen Tag gab nVidia die Architektur-Präsentation zum Fermi auf der GTC. Das ist schon ziemlich gleichzeitig.

Mancko
2012-01-03, 11:40:19
Selbst zum HD5k Launch haben wir mehr zu Fermi gewusst als jetzt.


Die HD5870 wurde am 23.09.2009 vorgestellt, die HD5850-Samples wurden zum 30.09.2009 für Tests freigegeben. Am gleichen Tag gab nVidia die Architektur-Präsentation zum Fermi auf der GTC. Das ist schon ziemlich gleichzeitig.

Ich werfe hier mal folgende These in den Raum:

Wann immer Nvidia sich eher ruhig verhalten hat, waren die Launches in der Regel sehr erfolgreich. Wann immer sie lange im Vorfeld Informationen Preis gegeben und mächtig die Werbetrommel gerührt haben, waren die Launches eher nicht so prickelnd (siehe NV30 und GTX480 aka Fermi Version 1).

Rein rational betrachtet macht das auch Sinn. Wenn ich selber doch weiß, dass mein Produkt viel später als das der Konkurenz kommt (5 Monate und mehr), dann ist es doch durchaus sinnvoll die Medien und potentiellen Käufer permanent in einer Art Salamitaktik mit Informationen zu versorgen, nur um weite Teile der Käufer hinzuhalten bis ich auch soweit bin. Zwei mal hat Nvidia das bereits gemacht und es hat im Endeffekt auch beide Male funktioniert um den Schaden doch deutlich zu begrenzen.

Wenn ich aber überzeugt bin, dass ich gut in der Zeit liege und dann sehe, dass die Konkurenz auch eher holprig startet (Verfügbarkeit etc.) dann ist es doch besser den Mund zu halten und dann im Big Bang Style zu launchen. Nvidia weiß doch ganz genau wie es um die Verfügbarkeit bei AMD aussieht. Die fertigen beide bei der gleichen Foundry. Kann mir keiner erzählen, dass die nicht wissen was beim anderen abgeht.

Marketing ist halt extrem wichtig und in dem Punkt ist Nvidia einfach abgezockter als AMD. AMD und Marketing ist eh so ein Fall für sich. Neben den reinen Marketing Leuten ist hier der entscheidende Unterschied der Nvidia CEO. Wenn der was sagt hört jeder zu. Wenn irgendein Hansel bei AMD etwas sagt interessiert das kaum jemanden. Es gibt dort auch keine Person die das AMD Sprachrohr ist. Seit Jerry Sanders weg ist, sind dort nur farblose Personen unterwegs. Der Huang ist ja nicht blöd. Der weiß sehr genau um seine charismatische Außenwirkung. Wenn ihm seine Leute sagen, dass etwas schief gelaufen ist, wird der sich immer hinstellen und mit Interviews, Präsentationen etc. den Mund bei den Leuten wässrig zu halten. Das kann er natürlich nicht permanent machen, weil sonst seine Glaubwürdigkeit irgendwann total leidet. Das weiß der ja auch. Aber so alle paar Jahre kann man das schonmal machen, wenn wirklich was schief gelaufen ist und das ist auch im Sinne der Firma absolut richtig so. Da er bis jetzt sehr ruhig ist würde ich mal von einem sehr guten Start der Nvidia Palette ausgehen.

Skysnake
2012-01-03, 11:55:43
Und das hier ist natürlich reine Einbildung von mir...
http://www.brightsideofnews.com/news/2009/5/18/nvidia-geforce-gtx380-clocks-leak-out.aspx
:facepalm:

Es gab durchaus die eine oder andere Meldung, die zwar nicht 100% zugetroffen hat, aber doch in die richtige Richtung ging. Viel wars nicht, aber man hat auf jeden Fall die Flöhe mehr husten gehört als jetzt, und zumindest die 512 Cores waren mal richtig.

Man hat halt irgend einen Ansatzpunkt gehabt.

Vor allem hatte ich über den einen oder anderen Weg vor dem HD5k Launch das eine oder andere gehört, dieses mal hat aber scheinbar niemand auch nur den Hauch eines Schimmers, was mit Kepler kommt.

Aber so richtig los ging es dann kurz nach dem Launch der HD5k Serie, bzw. der Holzmodell show, da haste recht, wobei da wars dann ja was die Architektur anbelangt, eigentlich schon rum. Viel zu spekulieren gabs da diesbezüglich nicht mehr.

Btw:
Hab noch was gefunden
http://vr-zone.com/articles/amd-vs-nvidia-dx11-gpu-war-heats-up-this-christmas/7740.html?doc=7740

Das sind 2 Tage nach der offiziellen Vorstellung der HD5k Serie. Da sind wir inzwischen drüber. Nämlich 12 Tage um genau zu sein ;)

Damit passen sogar die folgenden News auch noch ins Zeitfenster:
http://vr-zone.com/articles/-rumour-nvidia-gt300-details--fermi-codename-revealed/7760.html
Und vor allem das hier ;)
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13208-nvidia-praesentiert-next-generation-gpu-fermi-bzw-gt300.html
Das liegt auch in dem Zeitfenster zwischen offizieller Vorstellung der HD7k und heutigem Datum relativ zum HD5k Launch und News.

aylano
2012-01-03, 12:10:34
Was wissen wir bisher.

Wissen wir das wirklich?


1. GK104 ist etwas kleiner als Tahiti. Hotclocks sind weg, so dass das Design breiter sein muss und der Baseclock hoch muss.

Klar muss der Base-Takt hoch sein.
Aber vielleicht ist das wegen HKMG möglich.
Siehe 1,1Ghz-Standardkühler & 1,325GHz-AFAIK-Airkühler & 1,7GHz-LN2


Ich halte um 1GHz für realistisch. Geht man davon aus, dass AMD immer die besserer Perf./W hat, dann würde ich für GK104 (im Vollausbau, falls er überhaupt verfügbar wird) gegen 250W haben dürfte. GK110 dürfte gegenwärtig gar nicht produzierbar sein und später gegen 325W tendieren. Also ca. 50% mehr Verbrauch für 40% mehr Leistung als Tahiti.
Öhm,
mit 250W & 325W meinst du doch TDP-Verbrauch (DX11-Mark) und nicht Spiele-Verbrauch?

V2.0
2012-01-03, 12:12:07
TDP

Nightspider
2012-01-03, 12:12:51
Ich werfe hier mal folgende These in den Raum:

Wann immer Nvidia sich eher ruhig verhalten hat, waren die Launches in der Regel sehr erfolgreich. Wann immer sie lange im Vorfeld Informationen Preis gegeben und mächtig die Werbetrommel gerührt haben, waren die Launches eher nicht so prickelnd (siehe NV30 und GTX480 aka Fermi Version 1).

Rein rational betrachtet macht das auch Sinn. Wenn ich selber doch weiß, dass mein Produkt viel später als das der Konkurenz kommt (5 Monate und mehr), dann ist es doch durchaus sinnvoll die Medien und potentiellen Käufer permanent in einer Art Salamitaktik mit Informationen zu versorgen, nur um weite Teile der Käufer hinzuhalten bis ich auch soweit bin. Zwei mal hat Nvidia das bereits gemacht und es hat im Endeffekt auch beide Male funktioniert um den Schaden doch deutlich zu begrenzen.

Wenn ich aber überzeugt bin, dass ich gut in der Zeit liege und dann sehe, dass die Konkurenz auch eher holprig startet (Verfügbarkeit etc.) dann ist es doch besser den Mund zu halten und dann im Big Bang Style zu launchen. Nvidia weiß doch ganz genau wie es um die Verfügbarkeit bei AMD aussieht. Die fertigen beide bei der gleichen Foundry. Kann mir keiner erzählen, dass die nicht wissen was beim anderen abgeht.

Marketing ist halt extrem wichtig und in dem Punkt ist Nvidia einfach abgezockter als AMD. AMD und Marketing ist eh so ein Fall für sich. Neben den reinen Marketing Leuten ist hier der entscheidende Unterschied der Nvidia CEO. Wenn der was sagt hört jeder zu. Wenn irgendein Hansel bei AMD etwas sagt interessiert das kaum jemanden. Es gibt dort auch keine Person die das AMD Sprachrohr ist. Seit Jerry Sanders weg ist, sind dort nur farblose Personen unterwegs. Der Huang ist ja nicht blöd. Der weiß sehr genau um seine charismatische Außenwirkung. Wenn ihm seine Leute sagen, dass etwas schief gelaufen ist, wird der sich immer hinstellen und mit Interviews, Präsentationen etc. den Mund bei den Leuten wässrig zu halten. Das kann er natürlich nicht permanent machen, weil sonst seine Glaubwürdigkeit irgendwann total leidet. Das weiß der ja auch. Aber so alle paar Jahre kann man das schonmal machen, wenn wirklich was schief gelaufen ist und das ist auch im Sinne der Firma absolut richtig so. Da er bis jetzt sehr ruhig ist würde ich mal von einem sehr guten Start der Nvidia Palette ausgehen.

Sehe ich auch so.
Ich persöhnlich gehe auch davon aus, das Nvidias neue Generation ein (großer) Erfolg wird und merklich mehr Leistung bietet als die neuen ATI Karten.

Ich rechne bei der GTX680 mit 30-50% mehr Leistung als bei der HD7970

Das hab ich im Urin. :D

Skysnake
2012-01-03, 12:35:22
Dann sollte das Ding, wenn man nVidias Marketing glauben schenken darf, wohl nur 200W verbrauchen, eventuell sogar weniger. Das wäre schon recht wenig für die Speerspitze von nVidia.

Also ich traue dem Braten noch nicht. Entweder sie halten die 2,5 DP/W nicht ein, es sei denn Sie haben 1:1 und/oder schalten Front-End etc. ab bei GPGPU, oder wenn Sie sie einhalten, muss entweder die Leistungsaufnahme extrem runter, womit AMD zersägt wird, oder aber Sie haben den krassesten Monsterchip, was ich mir aber auf einem DIE ohne Interposer irgendwie auch nicht so recht vorstellen kann.

Ergo sind wir wieder beim gleichen Punkt. Wir haben absolut keine Indizien, wie die Architektur denn nun aussieht.

disap.ed
2012-01-03, 12:59:06
Ich rechne bei der GTX680 mit 30-50% mehr Leistung als bei der HD7970


Prepare yourself to be disappointed. Das wäre zur GTX580 ja teilweise eine Steigerung von 100%.

Das hab ich im Urin :wink:

Bucklew
2012-01-03, 13:01:00
Prepare yourself to be disappointed.

Das hab ich im Urin :wink:
Die DesignWins für IvyBridge sagen dir, wohin die Richtung geht.

V2.0
2012-01-03, 13:19:50
NV hat die Preise massiv gesenkt?

Blediator16
2012-01-03, 13:22:45
Huang meint, dass die Designwins durch die extrem gute Effizienz Keplers kommen.

AffenJack
2012-01-03, 14:22:02
Wie wärs damit, dass Amd keine kleinen 28nm Chips hat? Da kann man nur Design wins holen.

AnarchX
2012-01-03, 14:26:34
AMD hat einen ~130mm² Cape Verde: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519103
Ähnlich groß wird wohl auch GK107 sein. Darunter wird es es wohl einen Fermi-Shrink mit GF117 geben.

Skysnake
2012-01-03, 14:33:58
Naja, mit den Designwins bin ich immer etwas vorsichtig. Nur weil meine Hardware irgendwo drin steckt, heißt das noch lange nicht, das sich die Dinger auch verkaufen.

Zudem wird man in Intel-Laptops eben immer noch eher auf nVidia setzen, als auf eine AMD GPU. Die Kombi aus APU und kleiner/mittlerer GPU dürfte mit zeropower allerdings ganz interessant werden.

Deswegen würde ich auf die Designwins auch nicht viel geben. Man kann einfach noch nicht abschätzen, wie sich die Verkäufe von IB Laptop ohne nVidia, IB Laptops mit nVidia und AMD Laptops entwickeln werden in 2012.

Gerade die Ultrabooks sind da doch auch ein Unsicherheitsfaktor. Wenn Intel mit dem Preis für den Chip runter geht, lässt sich der eine oder andere sicherlich zu so nem Ding verführen, und da steckt eben keine dezidierte GPU mit drin.

LovesuckZ
2012-01-03, 14:38:51
Die HD5870 wurde am 23.09.2009 vorgestellt, die HD5850-Samples wurden zum 30.09.2009 für Tests freigegeben. Am gleichen Tag gab nVidia die Architektur-Präsentation zum Fermi auf der GTC. Das ist schon ziemlich gleichzeitig.

Da war die GTC. Dort hat man die Architektur vorgestellt. Das hätte man auch ohne Cypress getan. Erst zur CES hat man dann den Rest präsentiert - 3 Monate später.
Der einzige Vorteil für uns war, dass nVidia wesentlich offener mit Fermi umgegangen ist.

Und das hier ist natürlich reine Einbildung von mir...
http://www.brightsideofnews.com/news/2009/5/18/nvidia-geforce-gtx380-clocks-leak-out.aspx
:facepalm:

Es gab durchaus die eine oder andere Meldung, die zwar nicht 100% zugetroffen hat, aber doch in die richtige Richtung ging. Viel wars nicht, aber man hat auf jeden Fall die Flöhe mehr husten gehört als jetzt, und zumindest die 512 Cores waren mal richtig.

Man hat halt irgend einen Ansatzpunkt gehabt.

Vor allem hatte ich über den einen oder anderen Weg vor dem HD5k Launch das eine oder andere gehört, dieses mal hat aber scheinbar niemand auch nur den Hauch eines Schimmers, was mit Kepler kommt.

Aber so richtig los ging es dann kurz nach dem Launch der HD5k Serie, bzw. der Holzmodell show, da haste recht, wobei da wars dann ja was die Architektur anbelangt, eigentlich schon rum. Viel zu spekulieren gabs da diesbezüglich nicht mehr.

Btw:
Hab noch was gefunden
http://vr-zone.com/articles/amd-vs-nvidia-dx11-gpu-war-heats-up-this-christmas/7740.html?doc=7740

Das sind 2 Tage nach der offiziellen Vorstellung der HD5k Serie. Da sind wir inzwischen drüber. Nämlich 12 Tage um genau zu sein ;)

Damit passen sogar die folgenden News auch noch ins Zeitfenster:
http://vr-zone.com/articles/-rumour-nvidia-gt300-details--fermi-codename-revealed/7760.html
Und vor allem das hier ;)
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13208-nvidia-praesentiert-next-generation-gpu-fermi-bzw-gt300.html
Das liegt auch in dem Zeitfenster zwischen offizieller Vorstellung der HD7k und heutigem Datum relativ zum HD5k Launch und News.

Nein, es gab Spekulationen. Das war wirklich was neues. :lol:

NV hat die Preise massiv gesenkt?

Wie lange darfst du eigentlich weiter trollen?

M4xw0lf
2012-01-03, 15:07:40
NV hat die Preise massiv gesenkt?Wie lange darfst du eigentlich weiter trollen?

Ich weiß nicht genau was daran trollen sein soll. Für Designwins bei OEMs kommt es schließlich auf jeden Fall auf die Kosten an.
Abgesehen davon - wie kommt es eigentlich zu Designwins wenn es überhaupt kein fertiges Produkt vorzuweisen gibt?
Sind die OEMs allesamt so vertrauensselig, dass es reicht wenn Nvidia sagt: "hey, kauft unsere neuen Grafikchips, die werden nämlich toll wenn sie mal fertig sind"? :wink:
Also ernsthaft, wie läuft das ab?

LovesuckZ
2012-01-03, 15:15:20
Also ernsthaft, wie läuft das ab?

Meistens ohne Trollen. :)

Analysieren wir mal dein geschriebenes auf Trolling:


Für Designwins bei OEMs kommt es schließlich auf jeden Fall auf die Kosten an.

Anscheinend nur bei nVidia. Deswegen würde nur nVidia die Preise senken müssen. Typische Trollaussage ala Scharlie.


Abgesehen davon - wie kommt es eigentlich zu Designwins wenn es überhaupt kein fertiges Produkt vorzuweisen gibt?

Hm, wie kann ein Mensch Aussagen treffen, deren Wahrheitsgehalt er nicht nachweisen kann, da er über keine Informationen verfügt? Man, unsere Welt offenbart soviele Geheimnisse, das ist echt erstaunlich.


Sind die OEMs allesamt so vertrauensselig, dass es reicht wenn Nvidia sagt: "hey, kauft unsere neuen Grafikchips, die werden nämlich toll wenn sie mal fertig sind"? :wink:

Wer die Wahl hat zwischen Pest und Erdbeeren, der wird wohl kaum zur Pest greifen.

Könnt ihr es nicht einfach unterlassen solchen Quatsch zu schreiben? Denkt hier jemand, dass irgendwem interessiert, welche Phantasien ihr hier offenlegt?

M4xw0lf
2012-01-03, 15:17:21
Meistens ohne Trollen. :)

Analysieren wir mal dein geschriebenes auf Trolling:



Anscheinend nur bei nVidia. Deswegen würde nur nVidia die Preise senken müssen. Typische Trollaussage ala Scharlie.



Hm, wie kann ein Mensch Aussagen treffen, deren Wahrheitsgehalt er nicht nachweisen kann, da er über keine Informationen verfügt? Man, unsere Welt offenbart soviele Geheimnisse, das ist echt erstaunlich.



Wer die Wahl hat zwischen Pest und Erdbeeren, der wird wohl kaum zur Pest greifen.

Könnt ihr es nicht einfach unterlassen solchen Quatsch zu schreiben? Denkt hier jemand, dass irgendwem interessiert, welche Phantasien ihr hier offenlegt?

Dankeschön für deine informative Anwort auf meine durchaus ernstgemeinte Frage. Wie gut, dass du über jegliches Trollen erhaben bist.

Gipsel
2012-01-03, 15:20:17
Die HD5870 wurde am 23.09.2009 vorgestellt, die HD5850-Samples wurden zum 30.09.2009 für Tests freigegeben. Am gleichen Tag gab nVidia die Architektur-Präsentation zum Fermi auf der GTC.Da war die GTC. Dort hat man die Architektur vorgestellt.Sag' mal, habe ich nicht genau das geschrieben? :rolleyes:

Über Kepler weiß man gesichert aber noch gar nichts. Allerhöchstens gibt es die Gerüchte von wegen keine Hotclock mehr. Das war es dann aber auch schon.

RoNsOn Xs
2012-01-03, 15:20:34
Lese hier schon ewig mit, seit jahren. Aber auf einen User könnte ich immer wieder verzichten.
Schade, das derjenige jedes Mal alles kaputt macht.

Bucklew
2012-01-03, 15:22:46
Sind die OEMs allesamt so vertrauensselig, dass es reicht wenn Nvidia sagt: "hey, kauft unsere neuen Grafikchips, die werden nämlich toll wenn sie mal fertig sind"? :wink:
Also ernsthaft, wie läuft das ab?
Wie sonst? Und offensichtlich ist das Vertrauen so hoch, dass das eben exakt so funktioniert.

Die Alternative wäre, sich jetzt auf veraltete 40nm Chips einzulassen. Das tut doch niemand.

Gipsel
2012-01-03, 15:23:09
Ich trolle hier auch gleich mal. Und zwar mit ein paar Karten.

Bitte beschränkt die Diskussion auf Sachliches! Danke.

LovesuckZ
2012-01-03, 15:28:52
Sag' mal, habe ich nicht genau das geschrieben? :rolleyes:

Über Kepler weiß man gesichert aber noch gar nichts. Allerhöchstens gibt es die Gerüchte von wegen keine Hotclock mehr. Das war es dann aber auch schon.

Du wusstest auch über Fermi nichts bis zur GTC. Und das du etwas nach AMD erfahren hast - was vorallem kaum etwas mit Graphics zu tun hatte - war reiner Zufall. Bis zur CES war nichtmal klar, wie nVidia Tessellation abarbeiten würde. Wieviele TMUs es gäbe. Die Präsentation auf der GTC war gerademal brauchbar für ein paar Einblicke.

Wenn es danach geht: Durch die letztjährige GTC weiß man auch schon einiges über Kepler.

Gipsel
2012-01-03, 15:50:51
Du wusstest auch über Fermi nichts bis zur GTC. Und das du etwas nach AMD erfahren hast - was vorallem kaum etwas mit Graphics zu tun hatte - war reiner Zufall. Bis zur CES war nichtmal klar, wie nVidia Tessellation abarbeiten würde. Wieviele TMUs es gäbe. Die Präsentation auf der GTC war gerademal brauchbar für ein paar Einblicke.

Wenn es danach geht: Durch die letztjährige GTC weiß man auch schon einiges über Kepler.
Bessere Performance/Watt? Das weiß ich nicht durch die letzte GTC, daß ergibt sich schon aus dem Shrink alleine und sagt überhaupt nichts über den Aufbau von Kepler. :freak:

Ich bleibe beim Offensichtlichen: Über die Kepler-Architektur gibt es (im Gegensatz zu Fermi im vergleichbaren Zeitraum) bisher nur ein paar halbgare Gerüchte, bekannt ist gar nichts.

aylano
2012-01-03, 15:51:04
..., dann würde ich für GK104 (im Vollausbau,...) gegen 250W haben dürfte. GK110 dürfte gegenwärtig gar nicht produzierbar sein und später gegen 325W tendieren. Also ca. 50% mehr Verbrauch für 40% mehr Leistung als Tahiti.
Von wo sind die 250 & 325W-TDP-Angaben?

Kommt mir ein bischen viel vor. Ich hätte als TDP-Planziel mit weniger gerechnet.
AFAIK konnte die 40nm-Fertigung nie ihre Planziele erreichen, da die ganzen Refresh-karten von AMD & Nvidia mit so 5% eine höhere Spannung erhielten.
Zwar wurde beim 40nm die Yield-Probleme gelöst, aber nicht ganz die Performance-pro-Watt Probleme.
Die Anzeichen deuten IMO auf etwas gröbere Fertigungsprobleme (=Abweichung vom Fertigungs-Planziel)hin, sodass es bei GK100 bei den ominösen 325W-TDP dann noch mehr werden könnte, was sich aufgrund der eventuellen geringen Reserven dann recht schnell in geringen Takt durchschlagen könnte.

Bucklew
2012-01-03, 15:58:35
Die Anzeichen deuten IMO auf etwas gröbere Fertigungsprobleme (=Abweichung vom Fertigungs-Planziel)hin, sodass es bei GK100 bei den ominösen 325W-TDP dann noch mehr werden könnte, was sich aufgrund der eventuellen geringen Reserven dann recht schnell in geringen Takt durchschlagen könnte.
Lest ihr eigentlich, was Ailuros schreibt? :confused:

LovesuckZ
2012-01-03, 16:09:58
Bessere Performance/Watt? Das weiß ich nicht durch die letzte GTC, daß ergibt sich schon aus dem Shrink alleine und sagt überhaupt nichts über den Aufbau von Kepler. :freak:

Natürlich. Nur wird nVidia ihre neue Architektur nicht per PressRelease im PDF Format veröffentlichen.

Außerdem haben Huang und Scott schon viele Andeutungen gemacht, auf dessen hier auch spekuliert wird. Weitaus mehr als man bei Fermi, hoppla, ich meine GT300, wusste.


Ich bleibe beim Offensichtlichen: Über die Kepler-Architektur gibt es (im Gegensatz zu Fermi im vergleichbaren Zeitraum) bisher nur ein paar halbgare Gerüchte, bekannt ist gar nichts.

Ist auch logisch. 2009 stand die GTC vor der Tür als AMD Cypress brachte. Mit Fermi hat sich nVidia neben der "GPU" einen weiteren Platz in der Geschichte der Grafikkartenhistorie gesichert - deswegen auch die HPC-Architektorvorstellung.

Weder die Supercomputer noch die GTC Asia waren wohl bedeutend genug, um ausführlicher über Kepler zu reden.

aylano
2012-01-03, 16:11:56
Lest ihr eigentlich, was Ailuros schreibt? :confused:
Teils auch, aber die zwei TDP-Zahlen las ich bisher nicht.
GK100 momentan nicht machbar, wodurch mein Text nicht abweicht.

Hades11
2012-01-03, 16:26:22
Ganz ehrlich? Ich habe lieber 5% mehr in Spielen und dafür wird Bitcoin keinen Furz schneller, als ich auf die 5% verzichten müsste und Bitcoin doppelt so schnell wird wie bei Thaiti.

Und ich denke, dass ich da mindestens 95% der Nutzer hinter mir habe mit dieser Aussage.
volkommen richtig! Bitcoining ist für fast alle komplett vernachlässichbar, mich würde es z.b. nichtmal stören wenn sie es überhaupt garnicht berechnen könnten. Es ist und bleibt zwar eine schwäche von Nvidia, aber eine beinahe völlig bedeutungslose.

V2.0
2012-01-03, 17:28:43
Meistens ohne Trollen. :)

Anscheinend nur bei nVidia. Deswegen würde nur nVidia die Preise senken müssen. Typische Trollaussage ala Scharlie.

Es gibt viele Möglichkeiten wie NV Desgin wins einfahren könnte.

a) NV senkt die eigenen Preise
b) AMD erhöht seine Preise
c) NV holt bei Perf/W massiv auf und hat das bessere Produkt
d) NV verbessert sich nur wenig oder geringfügig, verspricht aber einen früheren Liefertermin
.
.
.

Gipsel
2012-01-03, 17:35:01
Natürlich. Nur wird nVidia ihre neue Architektur nicht per PressRelease im PDF Format veröffentlichen.Bei Fermi haben sie es gemacht.
Außerdem haben Huang und Scott schon viele Andeutungen gemacht, auf dessen hier auch spekuliert wird. Weitaus mehr als man bei Fermi, hoppla, ich meine GT300, wusste.Ja? Was denn?
Dürfte ziemlich schwer werden, das Fermi-Architecture-Whitepaper (im pdf-Format! ;)) zu schlagen.
Ist auch logisch. 2009 stand die GTC vor der Tür als AMD Cypress brachte. Mit Fermi hat sich nVidia neben der "GPU" einen weiteren Platz in der Geschichte der Grafikkartenhistorie gesichert -Ja, von Huangs Woodscrew-Puppy Fermi wird man noch lange reden.

Nee, jetzt mal im Ernst, was weißt Du Konkretes über die Keplerarchitektur? Also harte Fakten nicht irgendwas Schwammiges wie "bessere Energieeffizienz".
Was ist so schwer daran, der Aussage zuzustimmen, daß man über Keplers Architektur zu diesem Zeitpunkt deutlich weniger weiß als über Fermis Architektur zum Cypress-Launch (+-1 Woche)?

LovesuckZ
2012-01-03, 17:47:32
Es gibt viele Möglichkeiten wie NV Desgin wins einfahren könnte.

a) NV senkt die eigenen Preise
b) AMD erhöht seine Preise
c) NV holt bei Perf/W massiv auf und hat das bessere Produkt
d) NV verbessert sich nur wenig oder geringfügig, verspricht aber einen früheren Liefertermin
.
.
.

Und Huang hat sich dazu geäußert. Wer was anderes behauptet, trollt einfach zur Zeit.

Bei Fermi haben sie es gemacht.
Ja? Was denn?
Dürfte ziemlich schwer werden, das Fermi-Architecture-Whitepaper (im pdf-Format! ;)) zu schlagen.

Stimmt, wenn man die GTC, die Keynote, den CEO und die offizielle Einführung auf der Bühne ignoriert, dann wurde Fermi als Pressrelease per PDF präsentiert.

Aber du wärst nicht Gipsel, wenn dich alles interessieren würde. ;D


Was ist so schwer daran, der Aussage zuzustimmen, daß man über Keplers Architektur zu diesem Zeitpunkt deutlich weniger weiß als über Fermis Architektur zum Cypress-Launch (+-1 Woche)?

Ich gebe es auf. Wenn du nicht verstehst, dass wir nur deswegen Informationen erhielten, weil mit der GTC die Messe für HPC anstand, die nVidia auch ausgerichtet hat, dann soll es so sein. Mir ist die Zeit schade mit dir über die Realität zu reden. Ignoriere daher einfach weiterhin die Fakten. So What. Ist ja normal in diesem Forum.

AwesomeSauce
2012-01-03, 17:59:40
Bei Fermi haben sie es gemacht.
Ja? Was denn?
Dürfte ziemlich schwer werden, das Fermi-Architecture-Whitepaper (im pdf-Format! ;)) zu schlagen.
Ja, von Huangs Woodscrew-Puppy Fermi wird man noch lange reden.

Für einen Moderator trollst du aber sehr offensichtlich. Was haben Fermis Fertigungsprobleme genau mit Kepler zu tun?

Gipsel
2012-01-03, 18:07:03
Für einen Moderator trollst du aber sehr offensichtlich. Was haben Fermis Fertigungsprobleme genau mit Kepler zu tun?WTF?!? Wo habe ich von Fertigungsproblemen geredet? Es geht um die Architektur und das wir bisher über Keplers noch nichts wissen!

Gipsel
2012-01-03, 18:15:22
Stimmt, wenn man die GTC, die Keynote, den CEO und die offizielle Einführung auf der Bühne ignoriert, dann wurde Fermi als Pressrelease per PDF präsentiert.
Okay, die hatten ein Whitepaper über die Architektur, eine Powerpoint-Präsentation und ein Mockup mit abgesägtem PCB. Was ändert das daran, daß man ab dem Zeitpunkt wichtige Kernpunkte der Architektur kannte? Nichts.
Ich gebe es auf. Wenn du nicht verstehst, dass wir nur deswegen Informationen erhielten, weil mit der GTC die Messe für HPC anstand, die nVidia auch ausgerichtet hat, dann soll es so sein.Wenn Du nicht verstehst, daß ich gar nichts über die etwaigen Gründe sagte, sondern lediglich feststellte, daß man zum Cypress-Launch (bzw. zur sehr zeitnah stattfindenden GTC) über die Architektur Fermis aus offiziellen Quellen (Präsentation + Architektur-Whitepaper) informiert war (was Du bestritten hast (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9106845#post9106845)), aber jetzt zum SI-Launch praktisch noch nichts über Keplers Architektur weiß, dann solltest Du wirklich aufgeben. :rolleyes:

LovesuckZ
2012-01-03, 18:25:46
Okay, die hatten ein Whitepaper über die Architektur, eine Powerpoint-Präsentation und ein Mockup mit abgesägtem PCB. Was ändert das daran, daß man ab dem Zeitpunkt wichtige Kernpunkte der Architektur kannte? Nichts.
Wenn Du nicht verstehst, daß ich gar nichts über die etwaigen Gründe sagte, sondern lediglich feststellte, daß man zum Cypress-Launch (bzw. zur sehr zeitnah stattfindenden GTC) über die Architektur Fermis aus offiziellen Quellen (Präsentation + Architektur-Whitepaper) informiert war (was Du bestritten hast (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9106845#post9106845)), aber jetzt zum SI-Launch praktisch noch nichts über Keplers Architektur weiß, dann solltest Du wirklich aufgeben. :rolleyes:

Begreifst du es nicht, dass wir nur deswegen Informationen bekommen haben, weil die GTC anstand? Es also eine schon monate vorher geplante Veranstaltung war, auf die die HPC-Architektur vorgestellt wurde und dies daher eine besondere Situation darstellte?

Erst zur CES - 3 Monate später - hatte man dann den kompletten Überblick. Ohne GTC im September hätte man wohl locker bis zur CES warten müssen.

Bitte, verstehe diesen logischen Zusammenhang.

/edit: Und zum Cypress-Launch hatten wir keine Informationen. Wer so gerne auf solchen Kleinigkeiten rumreitet, sollte sie dann ebenfalls akzeptieren. :rolleyes:

Lyka
2012-01-03, 18:35:02
was ich gerade gelesen habe, gegebenenfalls schon alt (?)

Anfang April-->GK107 Entry / OEM (GTX620-GTX650)
Anfang Mai--->GK106 Mainstream (GTX660/Ti?)
Ende Juni---->GK104 Performance (GTX670)
Ende Juli----->GK110 High End (GTX680)
Ende Dez.---->GK112 Enthusiast (GTX690)
Laut Leistungseinschätzung von NV an die OEM`s
soll der GK104 gute 25% schneller sein als eine GTX580.

http://extreme.pcgameshardware.de/user-news/195519-nvs-roadmap-2012-a.html

also doch warten, bis die 660 (?) sich auf menschliches Niveau begibt -.-'

Bucklew
2012-01-03, 18:35:29
Dürfte ziemlich schwer werden, das Fermi-Architecture-Whitepaper (im pdf-Format! ;)) zu schlagen.
Was stand da Grafikmäßiges so Tolles drin?

Der gute Charlie hat noch bis wenige Tage vor dem Fermilaunch behauptet, dass Fermi Tessellation per Software auf den Shadern berechnet und gegen Cypress keinen Stich sieht. War also wirklich soviel über Fermi bekannt, wie du hier gerade darstellen willst?

War es nicht so, dass fast alles, was vorher über Fermi bekannt war sich nahezu ausschließlich auf GPGPU bezogen war? War es nicht sogar so, dass sich eben jener Charlie sogar so schlecht informiert gezeigt hat, dass er behauptet hatte, dass Fermi eigentlich nur GPGPU werden sollte, aber der eigentliche Grafikchip so mies war, dass man Fermi schnell umgebaut hat?

boxleitnerb
2012-01-03, 18:36:23
Das ist weder neu noch richtig. Die 4gamers Roadmap gibt es schon seit November und die ist höchstwahrscheinlich komplett falsch.

Lyka
2012-01-03, 18:40:26
ja, ich weiss -.-'
gerade gelesen
http://www.fudzilla.com/graphics/item/25396-kepler-to-show-its-face-in-q1-2012 das wäre hier der Link, den ich später gesehen habe

Skysnake
2012-01-03, 18:50:58
Was stand da Grafikmäßiges so Tolles drin?

Der gute Charlie hat noch bis wenige Tage vor dem Fermilaunch behauptet, dass Fermi Tessellation per Software auf den Shadern berechnet und gegen Cypress keinen Stich sieht. War also wirklich soviel über Fermi bekannt, wie du hier gerade darstellen willst?

War es nicht so, dass fast alles, was vorher über Fermi bekannt war sich nahezu ausschließlich auf GPGPU bezogen war? War es nicht sogar so, dass sich eben jener Charlie sogar so schlecht informiert gezeigt hat, dass er behauptet hatte, dass Fermi eigentlich nur GPGPU werden sollte, aber der eigentliche Grafikchip so mies war, dass man Fermi schnell umgebaut hat?

Und damit massig Informationen für viele Leute, und für Leute wie mich die wichtigsten Infos.

Tellerrand und so:rolleyes:

Hugo78
2012-01-03, 19:12:44
was ich gerade gelesen habe, gegebenenfalls schon alt (?)

http://extreme.pcgameshardware.de/user-news/195519-nvs-roadmap-2012-a.html

also doch warten, bis die 660 (?) sich auf menschliches Niveau begibt -.-'

Lies doch einfach die Main vom 3DC, wozu schreibt Leonidas das sonst?
Artikel von gestern:
http://www.3dcenter.org/news/2012-01-02-0

M4xw0lf
2012-01-03, 19:13:52
Und Huang hat sich dazu geäußert. Wer was anderes behauptet, trollt einfach zur Zeit.

Wenn man Jen-Hsun Huang blind glauben schenken möchte. Er als CEO von Nvidia ist nicht gerade die erste Anlaufstelle für objektive Einschätzungen der Marktlage und deswegen bleibt immer noch genug Raum für Spekulation, und genau dafür ist dieses Unterforum ja auch da.

LovesuckZ
2012-01-03, 19:21:46
Wenn man Jen-Hsun Huang blind glauben schenken möchte. Er als CEO von Nvidia ist nicht gerade die erste Anlaufstelle für objektive Einschätzungen der Marktlage und deswegen bleibt immer noch genug Raum für Spekulation, und genau dafür ist dieses Unterforum ja auch da.

Zeige bitte, dass Huang gelogen hat und die Design Wins nicht aufgrund des "designed for intense energy efficiency", sowie dem "focus an enormous amount of our energy on creating an architecture that was energy efficient" und der daraus entstandenen "really, really fabulous" Kepler-Generation hervorgangen sind.

boxleitnerb
2012-01-03, 19:23:58
Na also das ist jetzt doch völlig lächerlich. Niemand hat behauptet, er lügt. Natürlich lässt man das eigene Produkt in tollem Licht dastehen. Objektivität gibt es nur von dritter Seite. Mein Gott, dass man das erst sagen muss...

M4xw0lf
2012-01-03, 19:25:12
Na also das ist jetzt doch völlig lächerlich. Niemand hat behauptet, er lügt. Natürlich lässt man das eigene Produkt in tollem Licht dastehen. Objektivität gibt es nur von dritter Seite. Mein Gott, dass man das erst sagen muss...

Merci, das hilft meine Tastatur zu schonen :wink:

LovesuckZ
2012-01-03, 19:26:49
Na also das ist jetzt doch völlig lächerlich. Niemand hat behauptet, er lügt. Natürlich lässt man das eigene Produkt in tollem Licht dastehen. Objektivität gibt es nur von dritter Seite. Mein Gott, dass man das erst sagen muss...

Huang hat sich klar dazu positioniert. Wer was anderes behauptet, bezichtigt ihm des lügens. Logisch, oder?
Es sollte daher ein leichtes für diese Leute sein zu zeigen, dass die Aussagen von Huang falsch wären.


The thing that kept us from being even more successful is that our processor could've been more energy-efficient in itself. And so one of the things that we dedicated ourselves to do with Kepler was to focus an enormous amount of our energy on creating an architecture that was energy efficient. And the result is just really, really fabulous. And so our customers see that, they understand the benefit of it. And in combination, between Kepler and Optimus, we just have a great solution. And we just have a great, great, great solution. And this is probably as competitive as we've ever been in the Notebook segment.
http://seekingalpha.com/article/307194-nvidia-s-ceo-discusses-q3-2012-results-earnings-call-transcript?part=qanda

boxleitnerb
2012-01-03, 19:31:45
Natürlich hat er sich positioniert. Aber er hat doch eine Agenda, schließlich ist es seine Firma, sein Produkt. Man kann weder beweisen, dass er lügt, noch dass er die Wahrheit sagt.

Gegenfrage: Wenn AMD morgen sagt, BD 2 wird Intel ungespitzt in den Boden rammen, glaubst du denen dann auch?

Warten wir doch einfach mal die eigentlichen Produkte und ihre unabhängige Bewertung ab. Ich persönlich glaube keinem Hersteller blind irgendwas im Bezug auf die eigenen Produkte. Da sind meist Beschönigungen und Übertreibungen dabei und es wird sowieso nur die Hälfte gesagt. Genau deshalb gibt es doch Tests.

LovesuckZ
2012-01-03, 19:38:30
Natürlich hat er sich positioniert. Aber er hat doch eine Agenda, schließlich ist es seine Firma, sein Produkt. Man kann weder beweisen, dass er lügt, noch dass er die Wahrheit sagt.

Gegenfrage: Wenn AMD morgen sagt, BD 2 wird Intel ungespitzt in den Boden rammen, glaubst du denen dann auch?

Warten wir doch einfach mal die eigentlichen Produkte und ihre unabhängige Bewertung ab. Ich persönlich glaube keinem Hersteller blind irgendwas im Bezug auf die eigenen Produkte. Da sind meist Beschönigungen und Übertreibungen dabei und es wird sowieso nur die Hälfte gesagt. Genau deshalb gibt es doch Tests.

Ich glaube, du versteht da etwas nicht.
Wenn hier behauptet wird, dass die Design Wins aufgrund von Preisnachlass enstanden wären, dann wird ziemlich offensichtlich den Aussagen von Huang widersprochen. Hier geht es nicht um irgendwelche unabhängigen Tests. Huang stellt auch keinen Vergleich mit AMD an ala "ja, wir schaffen 50% mehr Leistung bei 33% weniger Verbrauch". Er hat sich vor Investoren klar positioniert und dargelegt, wieso sie im Notebookmarkt umsatzmäßig wachsen werden.

Wer keine Beweise hat, dass die Aussagen von Huang falsch sind, der trollt. Und sowas hat im Spekulationsforum eben nichts zu suchen. Weil dann brauchen wir auch keins mehr.

Dural
2012-01-03, 19:40:16
ehm Huang ist CEO einer Firma die auch an der Börse gehandelt wird, da kann man nicht davon sprechen das man so viele desginwins wie noch nie hat und in Wahrheit will das ding keiner weil es so schlecht ist.

das wäre Irreführung der Aktionäre :rolleyes:

von dem her ist an der aussage sicher was dran, wie so steht natürlich auf einem anderen blatt, theoretisch könnte das ja alles nur wegen sehr tiefen preise zustande kommen zb.

Blediator16
2012-01-03, 19:47:59
ehm Huang ist CEO einer Firma die auch an der Börse gehandelt wird, da kann man nicht davon sprechen das man so viele desginwins wie noch nie hat und in Wahrheit will das ding keiner weil es so schlecht ist.

das wäre Irreführung der Aktionäre :rolleyes:

von dem her ist an der aussage sicher was dran, wie so steht natürlich auf einem anderen blatt, theoretisch könnte das ja alles nur wegen sehr tiefen preise zustande kommen zb.

Es geht einfach darum, dass von LZ behauptet wird bzw. Huang, Kepler wäre eine unheimlich effiziente Architektur und nur deswegen Designwins zustande gekommen sind.

Vorschläge wie bestimmte Preiskonditionen oder z.b. einer Versicherung genug liefern zu können wurden direkt abgeschmettert und auf die "Effizient These" versteift.

boxleitnerb
2012-01-03, 19:50:14
Ich glaube, du versteht da etwas nicht nicht.
Wenn hier behauptet wird, dass die Design Wins aufgrund von Preisnachlass enstanden wären, dann wird ziemlich offensichtlich den Aussagen von Huang widersprochen. Hier geht es nicht um irgendwelche unabhängigen Tests. Huang stellt auch keinen Vergleich mit AMD an ala "ja, wir schaffen 50% mehr Leistung bei 33% weniger Verbrauch". Er hat sich vor Investoren klar positioniert und dargelegt, wieso sie im Notebookmarkt umsatzmäßig wachsen werden.

Wer keine Beweise hat, dass die Aussagen von Huang falsch sind, der trollt. Und sowas hat im Spekulationsforum eben nichts zu suchen. Weil dann brauchen wir auch keins mehr.

Es mag schon sein, dass man sich auf Effizienz konzentriert hat, das glaube ich auch. Aber auch Investoren kann man mit bunten Folien und schönen Zahlen beeindrucken - was genau dahintersteckt, können die auch nicht beurteilen. Wenn ich vor Investoren treten würde, würde ich mein Produkt in bestcase-Szenarien präsentieren - wie es dann in aktuellen Anwendungsfällen aussieht, kann davon auch wieder etwas abweichen.

Weißt du, man kann auch was kritisch hinterfragen ohne gleich als Troll beschimpft zu werden. Das ist einfach nur frech.

Btw zu der Frage, die vorher gestellt wurde, das würde mich auch interessieren. Und bitte jetzt ernsthaft:

Wie läuft so ein Design Win überhaupt ab? Jede ernsthafte Firma wird wenigstens ein paar Specs oder unanfechtbare Messungen (vielleicht sogar selbst durchgeführt) haben wollen, bevor man sich entscheidet, Hunderttausende Notebooks mit Chip A zu bestücken. Wer kauft schon die Katze im Sack?

@blediator:
thx, das wollte ich auch noch sagen. Es ist ja auch das Gesamtpaket, das zählt. Wer will sich eine GPU ins Notebook stecken, die schlecht lieferbar und doppelt so teuer ist wie die der Konkurrenz? Da kann die effizient sein bis zum geht-nicht-mehr, das wäre dann von wenig Interesse. Rein hypothetisch natürlich.

LovesuckZ
2012-01-03, 19:55:38
Es geht einfach darum, dass von LZ behauptet wird bzw. Huang, Kepler wäre eine unheimlich effiziente Architektur und nur deswegen Designwins zustande gekommen sind.

Vorschläge wie bestimmte Preiskonditionen oder z.b. einer Versicherung genug liefern zu können wurden direkt abgeschmettert und auf die "Effizient These" versteift.

Das ist nunmal die Begründung. Er stellt es als primären Grund hervor.


The vast majority of the increase is coming from the very significant increase in design wins that we have in several areas. We have more notebook design wins for the Ivy Bridge cyle than we ever had in notebooks. And this is likely the most successful notebook cycle we've ever experienced. And so we've got a lot of engineers dedicated to getting those notebooks into production. The reason for our success, I believe, is because our Kepler generation of GPU was designed for intense energy efficiency. And with energy efficiency, we were able to translate that to simultaneously higher performance, as well as longer battery life. And so that's the first part.

Ich kann nichts für die Realität. Und andere können die Realität gerne ignorieren. Aber, muss es denn in diesem Forum passieren?


Weißt du, man kann auch was kritisch hinterfragen ohne gleich als Troll beschimpft zu werden. Das ist einfach nur frech.


Sry, aber das ist Quatsch. Seahawk und der andere Typ haben keine Informationen, die andere Schlüsse zulassen. Die hinterfragen aus reinem Protest => Trollen. Wenn es danach geht, brauchen wir diesen Thread nicht, da es diesen Leuten nicht um "ernsthaftes" spekulieren geht, sondern um andere Gründe.

boxleitnerb
2012-01-03, 20:09:13
Sry, aber das ist Quatsch. Seahawk und der andere Typ haben keine Informationen, die andere Schlüsse zulassen. Die hinterfragen aus reinem Protest => Trollen. Wenn es danach geht, brauchen wir diesen Thread nicht, da es diesen Leuten nicht um "ernsthaftes" spekulieren geht, sondern um andere Gründe.

Ist ja gut, dass du das beurteilen kannst/darfst. Hier ist jede Meinung und Spekulation erlaubt, nicht nur die dir genehmen. Wie wäre es, wenn wir jetzt die persönlichen Angriffe unterlassen und auch andere Meinungen akzeptieren?

LovesuckZ
2012-01-03, 20:15:22
Ist ja gut, dass du das beurteilen kannst/darfst. Hier ist jede Meinung und Spekulation erlaubt, nicht nur die dir genehmen. Wie wäre es, wenn wir jetzt die persönlichen Angriffe unterlassen und auch andere Meinungen akzeptieren?

Ich habe doch darum gebeten, dass hier dargelegt wird, warum die Aussagen von Huang nicht stimmen würden. Es sollte doch für die Leute möglich sein, die diese Ansicht vertreten, dafür auch entsprechende Informationen zu liefern. Immerhin hat nVidia über Monate die Verbesserung des Perf/Watt Verhältnis als wichtiges Merkmal ihrer Roadmap hervorgehoben.

Wer also eine andere Meinung vertritt, sollte diese doch wohl auch begründen. Oder welchen Sinn hat es sonst?

Mancko
2012-01-03, 20:23:18
Natürlich hat er sich positioniert. Aber er hat doch eine Agenda, schließlich ist es seine Firma, sein Produkt. Man kann weder beweisen, dass er lügt, noch dass er die Wahrheit sagt.

Gegenfrage: Wenn AMD morgen sagt, BD 2 wird Intel ungespitzt in den Boden rammen, glaubst du denen dann auch?


Naja dazu hat man bei AMD ja nun auch wirklich keinen Grund. Die Frage war rein rethorisch nehme ich mal an.

Felixxz2
2012-01-03, 20:27:36
Ist ne Vec32 kleiner als 2xVec16?

Coda
2012-01-03, 20:28:33
Wahrscheinlich schon, aber die Steuerungslogik wird dafür umso größer, weil sie mit gleichem Takt laufen müsste.

Felixxz2
2012-01-03, 21:32:09
Also kann man dadurch nicht mehr ALUs auf dem selben Raum unterbringen?

Ailuros
2012-01-03, 21:33:17
Wahrscheinlich schon, aber die Steuerungslogik wird dafür umso größer, weil sie mit gleichem Takt laufen müsste.

Wenn man aber 64SPs pro ALU haben will ist man mit 2*32 oder 4*16 theoretisch billiger angelegt?

----------------------------------------------------------------

Generell hab ich es verdammt schwer den teilweise angehaueften Bloedsinn der letzten paar Seiten zu verfolgen.

V2.0,

Es gibt kein einziges bisheriges Geruecht selbst hinter der Kulissen der auf 250/GK104, 325/GK110 TDP deutet. Das die chiphell Tabelle frei erfunden ist (jedoch clever zusammengekritzelt) braeuchte ich nicht wiederholen und nach Gipsel's Beitrag nach der Bumstabelle sollte es klar sein dass irgend ein Heini hier Schnippchen sammelt und bunte Tabellen malt.

Noch kuerzer: hoer bitte auf zu trollen.

aylano,

Nicht dass ich irgendwie erwarten wuerde dass Du ueberhaupt je etwas ausfuehrlich durchlesen oder verstehen willst, aber siehe oben und spar mir bitte die muesahme Quote-Orgien Antwort auf diesen Abschnitt.

Selbst wenn ich TDPs im Aermel momentan haben wuerde, kommt kein Pieps darueber raus, nur damit manche von Euch ohne handfeste Infos weiter im Sandkasten buddeln koennt.

*atmet tief ein*

Sodele....zurueck zum Thema. Fuer diejenigen die es immer noch nicht kapiert haben (und wie schon jemand anders wo anders sagte): GK104 MUSS NICHT SCHNELLER SEIN ALS TAHITI XT. ALLES WAS ES BRAUCHT IST EIN PREIS DER ANALOG ZU EINER PERFORMANCE GPU LIEGT UND MIT DIESEM HAT NICHT NVIDIA DAS PROBLEM SONDERN AMD.

Genau aus dem Grund kann ich auch die vorzeitigen gezielten Versuche von sinnloser Schwarzmalerei verstehen. Wenn etwas schieflaufen sollte fuer NV, tret ich dann selber als erster auf den Schlauch und kritisiere als erster NV und dabei egal ob ich dann wieder die NV Juenger auf dem Hals habe. Bis zum Zeitpunkt wo etwas mehr Daten zum Vorschein kommen wird man sich wohl gedulden koennen.

Im schlimmsten Fall fuer die NV Juenger wiederholt sich die bisherige Geschichte und im schlimmsten Fall fuer die AMD Juenger steht vielleicht NV fuer diese Runde besser da als wir alle erwartet haetten. Es waere auch nicht das erste Mal dass ein IHV seine direkte Konkurrenz eventuell unterschaetzt und ja AMD erwartet eine Banane von Kepler.

My 2 cents.

horn 12
2012-01-03, 21:55:06
Auch wenn Kepler schneller wird als Tahiti XT wird sich AMD im Spätherbst schon zu helfen wissen!
Da verschiebt sich halt erneut die GPU Krone von Einem zum Anderen,- dies kennen wir ja bereits zur Genüge.

Skysnake
2012-01-03, 22:13:47
Ich habe doch darum gebeten, dass hier dargelegt wird, warum die Aussagen von Huang nicht stimmen würden. Es sollte doch für die Leute möglich sein, die diese Ansicht vertreten, dafür auch entsprechende Informationen zu liefern. Immerhin hat nVidia über Monate die Verbesserung des Perf/Watt Verhältnis als wichtiges Merkmal ihrer Roadmap hervorgehoben.

Wer also eine andere Meinung vertritt, sollte diese doch wohl auch begründen. Oder welchen Sinn hat es sonst?
Klar, und Huang hat ja auch nie gewisse Perf/W Aussagen zu Fermi getätigt, die sogar in ofiziellen "Werbematerialien" zu den Tesla Karten aufgeführt wurden, um die Leute zum kauf zu animieren, die dann später deutlich nach unten korrigiert werden mussten.

Nein wie komm ich denn darauf. :rolleyes:

Ailuros:
Das GK104 wohl langsamer ist, konnten wir ja gewissen Andeutungen von gewissen Leuten ;) schon entnehmen. Aber eben im Vergleich zu welchem Tahiti XT? Dem mit den 925, oder dem mit dem >1GHz?

Btw. mit dem Preis, den du ansprichst hab ich noch so meine Verständnisprobleme. nVidia wird die Dinger ja sicherlich nicht für 200€ raus hauen, wenn sie schneller als Pro und langsamer als XT sind, und man selbst nichts schnelleres hat. Da nimmt man doch dann die zusätzlichen Einnahmen einfach mit und freut sich. :confused: Oder nicht?
Und wenn AMD noch immer die schnellsten sind, müssen Sie zwar den Preis in so einem Fall anpassen, aber Sie werden ja wohl hoffentlich nicht so bedeutend teurer produzieren, das nVidia noch gute Gewinne macht pro Chip und AMD schon drauflegt.

Btw. noch was zum Schluss. Wir wissen halt nicht, ob gerade alles nach Plan läuft, oder ob da irgendwo der Wurm drin ist. Wenn man am ausgestreckten Arm verhungert, fängt man halt in jede Richtung an zu spekulieren. Vor allem, wenn man nahegelegt bekommt, das nVidia wohl deutlich später kommt, und man sich eben nicht sicher ist, ob die Chips schon in trockenen Tüchern sind oder nicht.

Es kann ja immer mal nen unerwarteter Fehler gefunden werden/auftauchen. Hat man ja beim Intel Chipsatz gesehen. Das wären dann aber halt gleich wieder Wochen, die man zurück fällt.

Klar dafür gibt es keine Indizien, aber man kann so was auch nicht beruhigten Herzens vom Tisch fegen, einfach weil man halt nichts weis -.-

Bucklew
2012-01-03, 22:15:42
Aber eben im Vergleich zu welchem Tahiti XT? Dem mit den 925, oder dem mit dem >1GHz?
:facepalm:

Skysnake
2012-01-03, 22:23:24
was :facepalm:

Niveauvoller Kommentar...

Es ist eben wichtig, da sollte GK104 knapp hinterm Tahiti XT @>1GHz liegen, siehts richtig Kacke aus für AMD, und ich kann Ailuros zustimmen, dass Sie ein Problem bekommen werden.

Wenn es aber nur für die XT@925 Version gilt, dann siehts für AMD wohl ganz passabel aus, und Sie müssen sich wohl auch um GK110 nicht all zu große Sorgen machen, da er zwar schneller, aber auch größer sein wird, und wohl die Effizienz keinen gewaltigen Unterschied aufweisen wird.

Btw. das wichtige Wort hab ich für dich nochmal fett markiert, damit dus nicht wieder überliest, und vorm Spiegel nen :facepalm: hinlegen musst....

Bucklew
2012-01-03, 22:26:17
Es ist eben wichtig, da sollte GK104 knapp hinterm Tahiti XT @>1GHz liegen
Wo soll denn jetzt auf einmal ein Tahiti XT @>1Ghz herkommen?

Ailuros
2012-01-03, 22:39:16
Ailuros:
Das GK104 wohl langsamer ist, konnten wir ja gewissen Andeutungen von gewissen Leuten ;) schon entnehmen. Aber eben im Vergleich zu welchem Tahiti XT? Dem mit den 925, oder dem mit dem >1GHz?

Kein Wunder das Bucklew oben so antwortete. Die offizielle Frequenz fuer Tahiti XT ist 925MHz core und dabei sollte es wohl wurscht sein ob sich jemand mit dem Ding in die Tiefkuehltruhe setzen will und auf 1.5GHz takten.

Btw. mit dem Preis, den du ansprichst hab ich noch so meine Verständnisprobleme. nVidia wird die Dinger ja sicherlich nicht für 200€ raus hauen, wenn sie schneller als Pro und langsamer als XT sind, und man selbst nichts schnelleres hat. Da nimmt man doch dann die zusätzlichen Einnahmen einfach mit und freut sich. :confused: Oder nicht?
Und wenn AMD noch immer die schnellsten sind, müssen Sie zwar den Preis in so einem Fall anpassen, aber Sie werden ja wohl hoffentlich nicht so bedeutend teurer produzieren, das nVidia noch gute Gewinne macht pro Chip und AMD schon drauflegt.

Ich hab nie Euros erwaehnt; der MSRP in $ wird IMHO nicht zu weit von $1 pro mm2 liegen.

Btw. noch was zum Schluss. Wir wissen halt nicht, ob gerade alles nach Plan läuft, oder ob da irgendwo der Wurm drin ist. Wenn man am ausgestreckten Arm verhungert, fängt man halt in jede Richtung an zu spekulieren. Vor allem, wenn man nahegelegt bekommt, das nVidia wohl deutlich später kommt, und man sich eben nicht sicher ist, ob die Chips schon in trockenen Tüchern sind oder nicht.

Ich hab keinen Bock mehr oeffentlich zu sagen damit irgend ein Fritzchen bunte Tabellen malen kann und im fernen Osten irgendwelche Heinis damit "Quellen" behaupten koennen.

Es kann ja immer mal nen unerwarteter Fehler gefunden werden/auftauchen. Hat man ja beim Intel Chipsatz gesehen. Das wären dann aber halt gleich wieder Wochen, die man zurück fällt.

Klar dafür gibt es keine Indizien, aber man kann so was auch nicht beruhigten Herzens vom Tisch fegen, einfach weil man halt nichts weis -.-

Du blubberst zu viel ueber viel zu wenig, obwohl der Weg zur PM box mit ein paar Fragen nur ein Klick entfernt ist :rolleyes:

Skysnake
2012-01-03, 22:49:20
Kein Wunder das Bucklew oben so antwortete. Die offizielle Frequenz fuer Tahiti XT ist 925MHz core und dabei sollte es wohl wurscht sein ob sich jemand mit dem Ding in die Tiefkuehltruhe setzen will und auf 1.5GHz takten.

Naja, ich bezieh mich da eben auf das Saphire Dokument. Keine Ahnung, von wann deine Info stammt. Könnte sich also durchaus auf die 1335MHz beziehen, die im Saphire Dokument stehen für Tahiti XT.


Ich hab keinen Bock mehr oeffentlich zu sagen damit irgend ein Fritzchen bunte Tabellen malen kann und im fernen Osten irgendwelche Heinis damit "Quellen" behaupten koennen.



Du blubberst zu viel ueber viel zu wenig, obwohl der Weg zur PM box mit ein paar Fragen nur ein Klick entfernt ist :rolleyes:
Na dann geh ich mir halt paar Briefmarken kaufen ;D

Dural
2012-01-03, 22:53:24
schon mal was von OC karten gehört?


default takt der 7970 ist und bleibt 925MHz und natürlich werden karten in erster linie stock zu stock verglichen.

AwesomeSauce
2012-01-03, 22:57:52
Naja, ich bezieh mich da eben auf das Saphire Dokument. Keine Ahnung, von wann deine Info stammt. Könnte sich also durchaus auf die 1335MHz beziehen, die im Saphire Dokument stehen für Tahiti XT.
Jenes Dokument, das auch die 36 CUs von Tahiti andeuten sollte?;D Ist ja nichts geworden daraus, wieso sollte dann der Rest auch stimmen?

Du musst dich schon mal entscheiden: Auf der einen Seite hängst du dich an jedem Strohhalm fest, auf der anderen Seite speist du jegliche positive Einschätzung als zu optimistisch ab.

Screemer
2012-01-03, 22:58:44
allerdings haben die amd partner dieses mal wohl fast völlig freie bahn, was ihre custom designs angeht. sollte gk104 über dem liegen was hier einige erwarten, dann ist es für partner doch unproblematisch >=1GHz versionen nachzuschieben. taktspielraum und spannungsspielraum bestehen ja laut den ersten reviews. vor allem die exklusivpartner wären schön dumm ihre karten dann nicht auf ein höheres niveau zum gleichen preis zu heben. wir natürlich märz bis die dinger kommen, wenn überhaupt. sollte gk104 wirklich für $1 netto/mm² kommen und entsprechender leistung kommen, dann bin ich einer der ersten der seine fullshader 6950 gegen so eine granate tauscht.

Ailuros
2012-01-03, 22:59:42
Naja, ich bezieh mich da eben auf das Saphire Dokument. Keine Ahnung, von wann deine Info stammt. Könnte sich also durchaus auf die 1335MHz beziehen, die im Saphire Dokument stehen für Tahiti XT.

Irgend ein Beweiss dass es erstmal echt ist und wenn ja ob es nicht irgend ein albernes Missverstaendnis war?

Wenn es aber nur für die XT@925 Version gilt, dann siehts für AMD wohl ganz passabel aus, und Sie müssen sich wohl auch um GK110 nicht all zu große Sorgen machen, da er zwar schneller, aber auch größer sein wird, und wohl die Effizienz keinen gewaltigen Unterschied aufweisen wird.

Ich hab ueber den top dog noch keine Ahnung um was es sich genau handelt aber irgendwelchen "unerwarteten" Groessenunterschied koennte ich mir nur in einem 512bit Fall vorstellen. Kann immer noch ein 384bit bus sein.

Food for thought: angenommen GK104 hat tatsaechlich so viel Transistoren wie GF1x0 und liegt auch bei ca. 2/3 Transistoren-anzahl und die area im Vergleich zu GK110, bekommst Du was genau von solch einer Milchmaedchen-rechnung? Ich kann mir schwer vorstellen dass die Anzahl der Transistoren vom GK110 zu weit von der Transistoren-Anzahl von Tahiti liegt; und frag jetzt nicht bitte welchen Tahiti oder bei welcher Frequenz (offensichtlicher Scherz_ ):D

Hübie
2012-01-03, 23:01:59
Und die nVidia-Chips kann man nicht übertakten...:confused: Dünnes Eis auf dem ihr gerade rutscht.

@Ailuros: Eine kleinere Chipfläche für GK104 und die gleiche Fläche für GK100 oder worauf willst du hinaus?

AwesomeSauce
2012-01-03, 23:03:25
Und die nVidia-Chips kann man nicht übertakten...:confused: Dünnes Eis auf dem ihr gerade rutscht.
und geschätzt anhand von extrem selektionierten Pressesamples. Ja, das kann nur gut gehen:freak: Aber das ist eine andere Geschichte.

Hübie
2012-01-03, 23:09:23
Selektionierten? ;D Hahahaaa... Ich glaube nicht das die so toll selektiert werden, da selbst meine 08-15 GTX 580 schon mit 960 MHz laufen kann. Die Lautstärke ist dann natürlich kein Vergnügen. Die meisten Fermi (GF110)-Reviews kamen da auch nicht auf astronomische Frequenzen die man nicht auch im heimischen Wohnzimmer zaubern könnte.

M4xw0lf
2012-01-03, 23:12:14
Das OC-Potential von Kepler ist ja wohl so ungefähr die unbekannteste Unbekannte überhaupt, es ist ja noch nichtmal wirklich bekannt welche Taktregionen angepeilt werden und wie hohe Frequenzen das neue Design verträgt. Fermi lässt sich ja nicht schlecht übertakten (bei ordentlicher Kühlung), aber Kepler ist noch nicht mal auf dem Spielplatz angekommen.

Hübie
2012-01-03, 23:13:20
Ja das ist mir schon klar. Aber hast du jemals einen Chip in der Hand gehabt, der nicht zu übertakten ging? ;)

Screemer
2012-01-03, 23:15:03
ohne hotclock wurde hier ja schon spekuliert, dass nvidia einen recht hohen basistakt ansetzen muss. die frage ist wieviel verträgt das design im aktuellen prozess. wir werden sehen. bin schon sehr gespann und halte auch noch ein paar euro zurück. bis dahin richt mir mein reptil.

mapel110
2012-01-03, 23:17:25
Das OC-Potential von Kepler ist ja wohl so ungefähr die unbekannteste Unbekannte überhaupt, es ist ja noch nichtmal wirklich bekannt welche Taktregionen angepeilt werden und wie hohe Frequenzen das neue Design verträgt. Fermi lässt sich ja nicht schlecht übertakten (bei ordentlicher Kühlung), aber Kepler ist noch nicht mal auf dem Spielplatz angekommen.
Zielfrequenz von GK104 wurde laut Ailuros erreicht und liegt höher als bei Tahiti. Das lässt auf etwa 1 Ghz schließen.
Es waere auch nicht das erste Mal dass ein IHV seine direkte Konkurrenz eventuell unterschaetzt und ja AMD erwartet eine Banane von Kepler.

My 2 cents.
Warum machen sie dann keinen Wind über Charlie? Strategie-Wechsel?

AwesomeSauce
2012-01-03, 23:17:49
Das OC-Potential von Kepler ist ja wohl so ungefähr die unbekannteste Unbekannte überhaupt, es ist ja noch nichtmal wirklich bekannt welche Taktregionen angepeilt werden und wie hohe Frequenzen das neue Design verträgt. Fermi lässt sich ja nicht schlecht übertakten (bei ordentlicher Kühlung), aber Kepler ist noch nicht mal auf dem Spielplatz angekommen.
Deswegen ist es ja umso affiger, GK104 gegen einen nicht exisiterenden >9000 GHz Tahiti antreten lassen zu wollen.;)

Skysnake
2012-01-03, 23:19:17
Jenes Dokument, das auch die 36 CUs von Tahiti andeuten sollte?;D Ist ja nichts geworden daraus, wieso sollte dann der Rest auch stimmen?

Du musst dich schon mal entscheiden: Auf der einen Seite hängst du dich an jedem Strohhalm fest, auf der anderen Seite speist du jegliche positive Einschätzung als zu optimistisch ab.
Ich bin halt zu 99,999% der Zeit nen recht pesimistischer Mensch. Ich ziehe fast immer (außer bei BD, so schlecht konnt selbst ich mir den nicht vorstellen...) den worst-case Fall mit in Betracht. Egal für welche Seite, und versuch meine Schlüsse daraus zu ziehen.

Zu dem Saphire Dokument: Der Punkt, der mich an der Richtigkeit glauben lässt, ist die recht verdammt gute Übertaktbarkeit von den Review-Samples und die Gerüchte von früher, das Tahiti einen Takt von ~1GHz erreichen/haben soll.

Es fügt sich halt recht stimmig zusammen.

Irgend ein Beweiss dass es erstmal echt ist und wenn ja ob es nicht irgend ein albernes Missverstaendnis war?

Kann sein, dafür passt mir aber die aktuellen OC-Ergebnisse @stock Voltage zu sehr wie die Faust aufs Auge.


Ich hab ueber den top dog noch keine Ahnung um was es sich genau handelt aber irgendwelchen "unerwarteten" Groessenunterschied koennte ich mir nur in einem 512bit Fall vorstellen. Kann immer noch ein 384bit bus sein.

Ja mit nem 384bit Interface wären keine sonderlich großen Sprünge zu erwarten. Ich wäre aber ganz ehrlich schon ziemlich enttäuscht, wenn die 512 nicht kommen sollten.

Ich bin auch über den GDDR5 RAM bei AMD sehr enttäuscht, wobei es das 384Bit Interface mit dem hohen RAM-Takt wieder etwas wett macht. Zufrieden wäre ich da aber auch erst mit nem 512er bei gleichem RAM-Takt gewesen. Da hätte man einfach mehr machen können/müssen. So ist es halt der Schritt zum Anschluss an nVidia für den Tesla-Bereich, aber nicht der klare Schritt vorbei. Wenn kann man jetzt auf Augenhöhe kämpfen, sofern eben nVidia nicht 512Bit bringen...


Food for thought: angenommen GK104 hat tatsaechlich so viel Transistoren wie GF1x0 und liegt auch bei ca. 2/3 Transistoren-anzahl und die area im Vergleich zu GK110, bekommst Du was genau von solch einer Milchmaedchen-rechnung? Ich kann mir schwer vorstellen dass die Anzahl der Transistoren vom GK110 zu weit von der Transistoren-Anzahl von Tahiti liegt; und frag jetzt nicht bitte welchen Tahiti oder bei welcher Frequenz (offensichtlicher Scherz_ ):D
Naja, ist doch recht einfach. Wenn GK104 2/3 DIE-Size vom GK110 hat, dann können wir uns das 512Bit Interface abschminken, sofern GK104 256Bit hat, wovon ich ausgehe.

Wenn GK104 384Bit hat, dann wird definitiv 512 für GK110 kommen.

Mit 2/3 können wir auch sehr sicher davon ausgehen, das GK110 als SingleChip ohne Interposer kommt. Dafür wäre der dann einfach zu klein. Das lohnt nicht. Da müsste GK110 schon so 600-700 mm² bringen. Wo das 512Bit Interface dann auch gut dazu passen würden.

Ergo alles ziemlich konservativ. Wenn man böse wäre könnte man sogar sagen langweilig, einfach was die Ausmaße des Chips betrifft. Kein großer Schritt in die Zukunft....

Und weil man sowas nicht soo einfach implementiert, können wir dann auf Interposer blablub wohl gleich bis 22nm 1., eher aber 2. Generation warten. Supi....:frown:

PS: welche Frequenz hat Hawai ;D

M4xw0lf
2012-01-03, 23:19:25
Ja das ist mir schon klar. Aber hast du jemals einen Chip in der Hand gehabt, der nicht zu übertakten ging? ;)

Na irgendwie geht Übertakten immer, aber es gibt dann doch einen Unterschied zwischen i7 2600K-Übertakten und Phenom I 9600-Übertakten, so als Beispiel ^^
Das OC-Potential hängt ja wie sonst kaum was an der Qualität der Fertigung und an der Architektur und diese beiden werden erst noch enthüllt werden.

Deswegen ist es ja umso affiger, GK104 gegen einen nicht exisiterenden >9000 GHz Tahiti antreten lassen zu wollen.;)

In diese Richtung argumentiere ich ja auch nicht, ich meine nur, dass Taktvorgaben schon oft nicht so leicht zu erreichen waren wie gewünscht.

Bucklew
2012-01-03, 23:25:20
Ich bin halt zu 99,999% der Zeit nen recht pesimistischer Mensch. Ich ziehe fast immer (außer bei BD, so schlecht konnt selbst ich mir den nicht vorstellen...) den worst-case Fall mit in Betracht. Egal für welche Seite, und versuch meine Schlüsse daraus zu ziehen.

Zu dem Saphire Dokument: Der Punkt, der mich an der Richtigkeit glauben lässt, ist die recht verdammt gute Übertaktbarkeit von den Review-Samples und die Gerüchte von früher, das Tahiti einen Takt von ~1GHz erreichen/haben soll.

Es fügt sich halt recht stimmig zusammen.
Was fügt sich irgendwo stimmig zusammen? Gar nichts, außer man will mit Biegen und Brechen AMD besser reden, als das die bisherigen Gerüchte andeuten - um es mal gnaz klar auf den Punkt zu bringen. Es gibt bisher KEINEN Hinweis auf eine offizielle Thaiti Version mit mehr Takt. Und ich wette es wird auch keinen geben, wozu auch? Die Entwicklungszeit steckt man lieber in einen viel weiter optimierten Chip als nur etwas mehr Takt.

Und deine Rumraterei mit den Busbandbreiten bie GK104/110 :facepalm:

Screemer
2012-01-03, 23:31:41
wurde hier auch schon angesprochen. oc-versionen kosten dieses mal keine zusätzlichen lizenzgebühren. so wie es aussieht gibt amd freie fahrt für die partner.

mitlesen, merken und nicht nur facepalmen wäre mal toll. würde uns allen viel leserei ersparen.

Skysnake
2012-01-03, 23:34:33
Das hat nichts mit Raten zu tun, sondern sind rein logische Schlussfolgerungen.

Und ruf dir mal in Erinnerung, das es Meldungen gab, das es direkt vom Start weg custom Designs der 7950 geben soll. Da ist der Schritt zu Custom Design 7970 auch nicht mehr weit, zumal eben die Grundlagen geschaffen sind für eine OC Version.

Man muss halt nur die Fertigung im Griff haben, und das in annehmbaren Stückzahlen bringen, was bei den Reviewern ankam. Damit steht und fällt das Ganze halt. Wenn nur ein einstelliger Prozentsatz der Karten so performen, kannstes knicken, wenn in paar Wochen/Monaten aber >30-40% der Chips so performen, wird garantiert einiges an OC Versionen kommen.

Selbst vom GF100 gabs OC Versionen...

guest_29132
2012-01-03, 23:42:58
sorry das ich hier so einbreche:

NV will laut Slides die DP-FLOPS/Watt massiv steigern, die Spiele-(SP-)Leistung steht auf einem ganz anderen Blatt.

Mir schwirren einfach immer und immer wieder diese 2,5x DP/W bei Kepler durch den Kopf. Wenn man da von der GTX580 ausgeht, und annimmt, dass die Leistungsaufnahme um 25% sinkt, aber die (Spiele-)Leistung linear mit skaliert, dann sind wir bei ca 80% Mehrleistung im Vergleich zur GTX580.

Welche Leistung? Mal angenommen die DP Leistung steigt tatsächlich um den Faktor 2,5 - die Rechenleistung von SP/DP vom GF100/110 gegenüber den RV870/970 sind ja nicht unbekannt. Einen Bezug zur Spieleleistung scheint das (zumindest für mich unwissenden) zumindest nicht zu haben? Oder ließe sich das tatsächlich auf die Spieleleistung bei der Fermiarchitektur übertragen?

Wer sagt den das es einen Tahiti XTX geben wird? Diese XTX Karten gibt es schon seit der 2900XT, in den Gerüchten jedenfalls ;)
....
Zudem frage ich mich wo sich so eine Angebliche XTX positionieren will? zwischen den 7970 und deren OC Modell (1335MHz stehen im Raum, die ich derzeit nicht glaube) oder was? ;)

Zugegeben, ich glaube auch nicht daran, und ja, AMD hat hier in der Vergangenheit nicht viele solcher Experimente angestellt - aber mit Blick auf Nvidia, für deren Refreshs (ohne große Designänderungen, oder neue Karten mit unpassender Namensgebung) ich hier sicher keine Beispiele aufführen muß - ist es da unmöglich?

Die 4770 in 40nm passt seit dem RV670 ebensowenig rein, wie die 4990, 4860, 6930 und die X2, x890, x990 Bezeichnungen

Bezüglich der Positionierung - hier wurde doch gerade sinngemäß geschrieben: Was interessiert hier eine Partnerkarte, wenn die Retailkarte den Ton angiebt? Da gibts sicher viele Beispiele, zb. ein GF104, der eine bessere GTX 470 dargestellt hätte. Oder eine 465, die eher 455 hätte heissen sollen, und die 460 465.

Wo wäre das Problem in einer 7990 bestehend aus selektierten welchen, und einer 7990 X2, 7990 XTX, 7995?

Bucklew
2012-01-03, 23:43:39
Das hat nichts mit Raten zu tun, sondern sind rein logische Schlussfolgerungen.
Natürlich ist es reines Raten ob GK104 nun 256 oder 384bit hat. Oder hast du irgendwelche Hinweise?

Und dann darauf hin irgendwelche Bandbreiten beim Gk100 herumraten. Mein Gott :facepalm:

Und ruf dir mal in Erinnerung, das es Meldungen gab, das es direkt vom Start weg custom Designs der 7950 geben soll. Da ist der Schritt zu Custom Design 7970 auch nicht mehr weit, zumal eben die Grundlagen geschaffen sind für eine OC Version.
Wurde die 7950 nicht erst verschoben?

Und jetzt sag mir bitte nochmal, was eine OC-Version mit einem Thaiti XT zu tun hat.

LovesuckZ
2012-01-04, 02:12:20
Klar, und Huang hat ja auch nie gewisse Perf/W Aussagen zu Fermi getätigt, die sogar in ofiziellen "Werbematerialien" zu den Tesla Karten aufgeführt wurden, um die Leute zum kauf zu animieren, die dann später deutlich nach unten korrigiert werden mussten.

Nein wie komm ich denn darauf. :rolleyes:


Er war nie bullish bezüglich fermi in dieser Sache. Er hat auch nie irgendwelche Aussagen über ein Perf/Watt Verhältnis gebracht.

Achja für dich: Die 5x Verbesserung von 2050 gegenüber 1060 ist weitaus mehr als AMD mit Tahiti erreicht hat. Aber das stört dich ja nicht. :rolleyes:

V2.0
2012-01-04, 07:19:17
Wenn man aber 64SPs pro ALU haben will ist man mit 2*32 oder 4*16 theoretisch billiger angelegt?

----------------------------------------------------------------

Generell hab ich es verdammt schwer den teilweise angehaueften Bloedsinn der letzten paar Seiten zu verfolgen.

V2.0,

Es gibt kein einziges bisheriges Geruecht selbst hinter der Kulissen der auf 250/GK104, 325/GK110 TDP deutet. Das die chiphell Tabelle frei erfunden ist (jedoch clever zusammengekritzelt) braeuchte ich nicht wiederholen und nach Gipsel's Beitrag nach der Bumstabelle sollte es klar sein dass irgend ein Heini hier Schnippchen sammelt und bunte Tabellen malt.

Noch kuerzer: hoer bitte auf zu trollen.



Aber das ist doch kein Trollen. Wenn man annimmt, dass die Effizienz im Vergleich zu AMD unverändert bleibt und man z.B. die 560Ti mit der 6950 vergleicht, dann kommt man von Tahiti XT ausgehend schon sehr schnell auf die spekulierten TDP Werte. Dass die Indizien nicht für diese Annahme sprechen, mag ich nicht bestreiten. Aber bis GK104 vorgestellt wird, ist die Annahme möglich, wenn auch nicht fundiert.
Ich bestreite ja auch gar nicht, dass AMD mit der "Banane" wohl möglicherweise weit daneben gegriffen hat und das es dafür einige Anhaltspunkte gibt.

Hugo78
2012-01-04, 07:26:23
Aber das ist doch kein Trollen. Wenn man annimmt, dass die Effizienz im Vergleich zu AMD unverändert bleibt

Ist die Effizienz bei AMD denn jetzt gestiegen oder eher weniger geworden?

Hugo
2012-01-04, 07:44:12
Wenn ich mir die Durchschnittswerte der Benchs so anschau und die Rohleistung im Cayman vergleiche, würde ich sagen dass die Effizienz fast gleich oder ein wenig geringer geworden ist.
Aber das gehört eher in den Tahiti-Thread

Hugo78
2012-01-04, 08:43:35
Nun wenn AMD beim wechsel auf eine neue Architektur, eher Effizienz in 3D verloren als gewonnen hat, und NV einfach nur gleich bleibt*, würde man in Relation immernoch aufholen/besser sein, je nach Standpunkt.

* wobei warscheinlicher ist, dass man zulegt, nachdem Fermi der Wechsel war.

Jetzt kann man Spiele + relevate Auflösung auslegen wie man will, ich persönlich halte mich ja an das was grade von >90% gezockt wird und
hier ist 1680*1050 + 4xMSAA / 1920*1080 + 4xMSAA mMn. eine passendende Vergleichsbasis und hier hat die 7970 eher verloren ggü. der 6970, welche auch schon kein Glanzstück in Perf./W war, ggü. anderen AMDs.

Die 7970 unterbietet zwar sogar eine 560Ti im Idle und ist grandios wenn der Monitor aus ist, hat aber Null Verbesserungen beim Videodecoder, da verbrät sie immernoch soviel wie die 6970.

Die Geforces brauchen hier teilw. nur ein Drittel.

Ich hoffe ja immernoch, dass NV diesen ganzen Decoderkram auslagern kann, auf einen 28LP ähnlich wie bei Tegra und hier dann ähnliche Werte wie Tegra erreicht oder zumindest in Full HD mit einstelligen Wattangaben daher kommt.
Und die Idle Bildausgabe darf dann auch gleich auf diese Einheit ausgelagert/umgeschaltet werden.

Quasi "HybridPower 2012".

boxleitnerb
2012-01-04, 08:54:30
Jetzt kann man Spiele + relevate Auflösung auslegen wie man will, ich persönlich halte mich ja an das was grade von >90% gezockt wird und
hier ist 1680*1050 + 4xMSAA / 1920*1080 + 4xMSAA mMn. eine passendende Vergleichsbasis und hier hat die 7970 eher verloren ggü. der 6970, welche auch schon kein Glanzstück in Perf./W war, ggü. anderen AMDs.

Das trügt, da du in diesen Auflösungen mit popligem MSAA oft (zumindest teilweise) CPU-limitiert bist. So sollten keine Highendkarten mehr getestet werden, das macht doch keinen Sinn. Bei anspruchsvollen Spielen haut das noch gut hin, aber viele Tests haben ältere bzw. nicht so fordernde Titel im Parcour. Daher lieber auf die Einzelergebnisse schauen statt auf Ratings. Wenn eine Karte flotter ist bei gleichem Verbrauch, hat sie ein besseres Perf/W-Verhältnis. Ob es so gut ist, wie es sein könnte, hätte man den Compute-Kram weggelassen, ist wieder was anderes.

Skysnake
2012-01-04, 08:59:23
Sicherlich möglich, halte ich persönlich aber eher für unwahrscheinlich.

Du hättest dann für recht wenig nen komplett eigenen Chip. Das tut man sich normal aus Kostengründen nicht an. Das PCB wird damit ja wieder aufwändiger, du brauchst nen extra packaging etc.

Man will ja immer mehr auf einen Chip packen, und nicht Sachen runter werfen.

EDIT:
Tja wie es scheint, kommen wohl ziemlich schnell auch Custom Designs der 7970. Das hier sollen zumindest 7970er sein.

Das deutet doch auf recht hoch getaktete Tahiti XT hin. Fragt sich nur, wann Sie kommen. Gabs das schon überhaupt mal, das so schnell die Custom Designs kamen?

Ich finde das btw sehr begrüßenswert, kann mir bei nVidia aber kaum vorstellen, dass da auch so schnell Custom Designs kommen. Bei AMD ist das schon ne gewaltige Überraschung, dann noch bei nVidia direkt hinterher??? Das wäre geradezu ein Wunder, wobei ich es SEHR begrüßen würde, wenn nVidia sich daran ein Beispiel nimmt, oder was meint ihr?

boxleitnerb
2012-01-04, 09:10:29
Es hat doch keiner behauptet, dass es eine Karte ohne dieses Zeug geben wird. Ich hab nur versucht zu erklären, warum da kein Effizienzverlust war. Man könnte höchstens sagen, die Karte hat nicht soviel Energieeffizienz gewonnen, wie mit einer eher auf Gaming ausgelegten Architektur in 28nm möglich gewesen wäre.

Allerdings gehe ich auch davon aus, dass sich die Energieeffizienz von Nvidia der von AMD angleichen wird. Vielleicht wird sie sogar besser sein.

Skysnake
2012-01-04, 09:13:05
Das war nicht auf dich bezogen, sondern auf Hugo mit seinem Decoder Zeugs, das er gern auf nem extra Chip sehen würde.

desert
2012-01-04, 09:17:23
Das trügt, da du in diesen Auflösungen mit popligem MSAA oft (zumindest teilweise) CPU-limitiert bist. So sollten keine Highendkarten mehr getestet werden, das macht doch keinen Sinn. Bei anspruchsvollen Spielen haut das noch gut hin, aber viele Tests haben ältere bzw. nicht so fordernde Titel im Parcour. Daher lieber auf die Einzelergebnisse schauen statt auf Ratings. Wenn eine Karte flotter ist bei gleichem Verbrauch, hat sie ein besseres Perf/W-Verhältnis. Ob es so gut ist, wie es sein könnte, hätte man den Compute-Kram weggelassen, ist wieder was anderes.

Naja bei grafiklastigen spielen konnte sie sich auch nicht absetzen von der 580, bei metro2033 waren es afaik 3 fps. So wenn jetzt GK104 min. 580 niveau erreicht, eher +10-20 %. Dann kann man sich doch denken wo der Vollausbau landen würde. Es würde wahrscheinlich sogar schon reichen die 580 in 28 NM mit mehr Frequenz neu aufzulegen um Tahiti zuschlagen.

boxleitnerb
2012-01-04, 09:33:23
Naja bei grafiklastigen spielen konnte sie sich auch nicht absetzen von der 580, bei metro2033 waren es afaik 3 fps. So wenn jetzt GK104 min. 580 niveau erreicht, eher +10-20 %. Dann kann man sich doch denken wo der Vollausbau landen würde. Es würde wahrscheinlich sogar schon reichen die 580 in 28 NM mit mehr Frequenz neu aufzulegen um Tahiti zuschlagen.

Ich denke, das könnte noch eine Treibergeschichte sein. Anders kann ich mir nicht erklären, dass man teilweise 40-45% ggü. der 6970 zulegt, anderswo kaum was.

Hoffentlich ist Kepler im Bezug auf die Rohleistung weiterhin so effizient wie Fermi. Wenn die GTX580+10% bei 96 TMUs@1GHz zustandekämen, wäre das doch etwas enttäuschend. Andererseits weiß man nicht, wie sehr die ROPs limitieren oder die Speicherbandbreite. Was sagen denn die Profis hier, von was hat Fermi eher zu wenig? Pixel-, Texel- oder Rechenleistung?

mapel110
2012-01-04, 09:39:36
Hauptproblem sollte die Rechenpower werden, wenn denn die Hotclock weggefallen ist. Allerdings sehe ich selbst das nicht so kritisch in Bezug auf Spieleperformance. Sonst würden ja die Radeons Kreise ziehen um sämtliche Geforces.

V2.0
2012-01-04, 09:44:17
Die Hotclocks sehe ich als unproblematisch an. AMD konnte bisher auf viel mehr SPs in eine vergleichbare Diefläche pressen, warum sollte NV das im Prinzip nicht auch können?

Skysnake
2012-01-04, 09:47:58
Ist schwierig zu sagen. Kommt halt immer sehr speziell drauf an, was man gerade für ein Problem vor sich hat.

Das Frontend wird sicherlich nicht schlechter werden. nVidia wird da also wohl weiterhin vor AMD liegen, zumindest bei hohen Tess werten. Wenn ein 384Bit Interface kommt beim GK104 sollte das auch kein Thema sein. Ich geh aber eher von 256 aus, das könnte Stellenweise dann zum Problem werden.

Was Rechenpower anbelangt, so muss man schauen, wie die das lösen ohne Hotclock. Je nachdem wird "einfach" der Hotclock entfernt und die ALU-Anzahl verdoppelt. Das wird dann halt ne ziemlich große Änderung für die ganze Ansteuerungslogik. Mehr Befehle muss man wohl nicht decodieren etc.

Man weiß aber einfach zu wenig, um da was vernünftiges sagen zu können. Vom Gefühl her, wirds aber nicht schlechter.

EDIT:
V2.0

AMD/ATI machen das aber auch schon ne halbe Ewigkeit. Die haben also mehr Erfahrung damit, wie man so etwas ohne Hotclock kompakt baut. nVidia wird da wahrscheinlich nicht ran kommen, selbst wenn alle nur die 0815 Transistoren von TSMC verwenden. Wenn AMD sogar eigene Transistorlayouts für Bereiche der ALUs verwendet, dann kann das sogar ein relativ deutlich Unterschied werden.

Man kann ja so etwas immer geschickt und ungeschickt bauen. Da kann man eigentlich nicht erwarten, das nVidia aus dem Stand raus genau so stark optimieren kann wie AMD, trotz der Tatsache, das die auch eine neue Architektur haben.

V2.0
2012-01-04, 10:05:04
Das ist eben die Frage. Evtl. nutzt AMD einen einfachen Bruteforce weg, während NV mehr optimieren musste. Und kann so die gewonnen Erfahrungen gewinnbringend nutzen.

Solange man Keppler nicht kennt, ist vieles möglich.

Skysnake
2012-01-04, 10:18:28
Hotclock Design != non Hotclock Design

Da werden die, was das Layout ihrer ALUs betrifft nicht viel mit anfangen können. Klar man kanns übernehmen, aber das wäre dann viel zu groß.

Sind halt zwei unterschiedliche Sachen mit unterschiedlichen Parametern. Das kannste nicht einfach übertragen.

Ein Autobauer kann auch nicht nen 500PS Motor mit wayne interessierts Verbrauch bauen, nur weil er nen 100PS Motor mit göttlichem verbrauch bauen kann und umgekehrt.

Man kennt zwar die Grundlagen, aber die Umsetzung zu nem hoch optimierten Produkt ist dann nochmal ein langer Weg, und da kann und darf man so etwas einfach nicht von nVidia erwarten in meinen Augen, was nicht heißt, das es unmöglich ist, aber sehr sehr sehr schwer vorstellbar für mich.

Mancko
2012-01-04, 11:00:05
Auch wenn Kepler schneller wird als Tahiti XT wird sich AMD im Spätherbst schon zu helfen wissen!
Da verschiebt sich halt erneut die GPU Krone von Einem zum Anderen,- dies kennen wir ja bereits zur Genüge.

In der Regel hat es AMD bei Refreshes nicht geschafft - siehe auch letzte Generation.

Dural
2012-01-04, 11:00:15
könnt ihr mal etwas herunter fahre, ist ja nicht mehr auszuhalten :wink:

wird Zeit das die GK104 gurke raus kommt :freak: dann haben wir mit Tahiti schon zwei "next Generation" Chip draussen, toll!

mittlerweile wird Tahiti so extrem hoch gelobt das es ja fast nicht mehr auszuhalten ist, aber ich meine es ist ja eine Sensation das eine neue Generation 20% vor der alten ist ;D Merkt ihr eigentlich nicht wie lächerlich das es ist?!? Früher hätte man den Chip zerissen heute ist es eine Sensation...


wie auch immer, es wird Zeit für GK100 :wink:

M4xw0lf
2012-01-04, 11:18:11
mittlerweile wird Tahiti so extrem hoch gelobt das es ja fast nicht mehr auszuhalten ist, aber ich meine es ist ja eine Sensation das eine neue Generation 20% vor der alten ist ;D

Um die 40% vor dem eigenen Vorgänger. Der Vergleich zur Konkurrenz hat ja nicht viel zu sagen, man muss ja sehen wo man herkommt - und das ist die 6970 gegenüber der so ziemlich alles verbessert wurde (Lüfterlautstärke mal ausgenommen).

Winter[Raven]
2012-01-04, 11:34:11
könnt ihr mal etwas herunter fahre, ist ja nicht mehr auszuhalten :wink:

wird Zeit das die GK104 gurke raus kommt :freak: dann haben wir mit Tahiti schon zwei "next Generation" Chip draussen, toll!

mittlerweile wird Tahiti so extrem hoch gelobt das es ja fast nicht mehr auszuhalten ist, aber ich meine es ist ja eine Sensation das eine neue Generation 20% vor der alten ist ;D Merkt ihr eigentlich nicht wie lächerlich das es ist?!? Früher hätte man den Chip zerissen heute ist es eine Sensation...
wie auch immer, es wird Zeit für GK100 :wink:

Tja, willkommen in der neuen Welt, sogar PCGH war vom Tahiti so begeistert, nur die Frage für was? Was macht es die Gpu so besonders, um so begeistert zu sein? Haben wir neues AA Modis bekommen, haben wir >= AF @ NV bekommen? Ist es leiser unter Last? Sind die Treiberschwächen nicht mehr existent?

Nur Pef.Steigerung kann ich mir sparen ... und beim besten Willen, 30% ... Naja ... egal ...

Ich erhoffe mir vom Kepler einfach mehr Features, der Unterbau für eine Pef./High-End Gpu sind ja vorhanden

Duplex
2012-01-04, 11:36:12
Wenn Tahiti kein gutes OC Potential hätte, dann würde sich fast keiner bei um die 500 € dafür interessieren...
Hauptsächlich kann der Chip durch das gute OC Potential & AF Verbesserungen punkten...

Bucklew
2012-01-04, 11:56:52
mittlerweile wird Tahiti so extrem hoch gelobt das es ja fast nicht mehr auszuhalten ist, aber ich meine es ist ja eine Sensation das eine neue Generation 20% vor der alten ist ;D Merkt ihr eigentlich nicht wie lächerlich das es ist?!? Früher hätte man den Chip zerissen heute ist es eine Sensation...
Ist halt immer ne Frage der Situation. Und da du siehst, WER den Thaiti so hochlobt, kann man das doch schon einsortieren ;)

Lassen wir ihnen die gloreichen 5 Minuten, nach den ersten Keplerbenches, auch wenn es nur GK104 ist, schaut die Welt anders aus. Ziemlich anders.

dargo
2012-01-04, 12:02:48
Um die 40% vor dem eigenen Vorgänger.
Und das ist traurig genug. Bei einer neuen Generation erwarte ich Faktor 2. Erst recht wenn die Generationswechsel immer mehr Zeit in Anspruch nehmen. 40% ist schon beinahe ein etwas besserer Refresh.

horn 12
2012-01-04, 12:17:27
@Duplex

Dies muss NV erst mal schaffen, GTX 580 plus % Mehr Performance
OHNE wieder die 300 Watt zu überbieten, oder an 300Watt zu kratzen.
GTX 680 wird sicher TOP werden,- aber will man unbedingt die EXTREMSTE Performance wird sich dies an Watt und Lautstärke extrem schlecht niederschlagen.
GF104 wird sicher gut werden, aber bis dahin kann AMD immer noch die Preise senken, bzw. anpassen.
Zumal muss NV erst mal nachlegen,- und dies dauert mind. 2-3 Monate.

V2.0
2012-01-04, 12:22:56
GTX580+30% ohne Mehrverbrauch gegenüber dem Vorgänger, ist ein Wort. Eine GTX680 muss dafür 50%+ schneller sein als die die 580 und darf nicht mehr vebrauchen und wäre dann nur gleich gut. Nur wer erwatet, dass das NV schafft? Ach ja produzieren und liefern müssen sie den Chip auch. Es gibt bereits Leute die ihre 7970 in der Hand halten. Wer hat einen Keppler?

Duplex
2012-01-04, 12:23:21
@horn 12
Nvidia & die Katze Huang kommen bald zurück!
Wenn wir davon ausgehen das zwischen GK104 & GK100 50% unterschied liegen & GK104 auf GTX580 Niveau landet, dann wird GK100 für den Anfang ca. 30% schneller als Tahiti XT.
Schau dir einfach die letzten Generationen von Nvidia an, natürlich die mit neuen Strukturen (90 > 65 > 40nm / G80 > GT200 > GF100) Solche Steigerungen sind bei Nvidia kein Problem, ich halte 50-70% mehr Leistung von GF100 > GK100 für möglich, also 30-50% mehr als TahitiXT.

Im übrigen war es Nvidia die als erster ein 40nm Refresh präsentiert haben (GF110 vor Cayman)

dargo
2012-01-04, 12:47:55
Es gibt bereits Leute die ihre 7970 in der Hand halten. Wer hat einen Keppler?
Wer eine GTX480/580 bereits hat... für den gibt es nicht mal einen Grund auf HD7970 zu wechseln. Dafür hat die Karte zu wenig Bums.

Wenn wir davon ausgehen das zwischen GK104 & GK100 50% unterschied liegen & GK104 auf GTX580 Niveau landet...
Wenn GK100 nur 50% schneller wird als eine GTX580 dann frage ich mich was Nvidia die ganze Zeit gemacht hat? Das wäre imo sehr enttäuschend.

Nightspider
2012-01-04, 12:51:10
Zumal eine Steigerung um 70-80% kein Ding der Unmöglichkeit sind.
Somit kann es gut sein, das die GTX680 30-50% schneller ist als Tahiti.

Ähnliche Sprünge gabs auch bei den letzten Generation bei Nvidia und einen Vorsprung hatte Nvidia ja schon mit der letzten Generation vor AMD.

AnarchX
2012-01-04, 12:54:36
Wenn GK100 nur 50% schneller wird als eine GTX580 dann frage ich mich was Nvidia die ganze Zeit gemacht hat? Das wäre imo sehr enttäuschend.
Bei GT200 hatte man auch damals große Hoffnungen. ;)

Im Endeffekt kommt es wohl darauf an, bei welcher TDP GK104 ~ GTX580+10% erreicht und in welche TDP-Region GK110 vorstoßen soll. Dazu auch die Frage nach den Die-Sizes, GK104 wird wohl kleiner als GF104/114 sein. Fragt sich ob GK110 kleiner als GF110/100 ist oder gar größer:D.

Zudem dürfte Kepler durch den hohen SP-Peak wohl in Spielen mit sehr aufwendigen Postprocessing sich auch deutlich von Fermi abheben.

Bucklew
2012-01-04, 12:55:00
Es gibt bereits Leute die ihre 7970 in der Hand halten. Wer hat einen Keppler?
Hör doch endlich mit dem Scheiß Getrolle auf....

Und wenn, dann lern wenigstens Kepler schreiben.

dargo
2012-01-04, 12:55:55
Wieviel schneller war nochmal die GTX480 gegenüber der GTX460? Waren das auch nur 50%? Falls ja könnte das mit den 50% GK100 vs. GK104 passen. Dann erwarte ich aber, dass der GK104 die HD7970 GTX580 schlägt sonst wäre die neue Gen für mich eine Enttäuschung.

Nightspider
2012-01-04, 12:58:15
Wieviel schneller war nochmal die GTX480 gegenüber der GTX460? Waren das auch nur 50%? Falls ja könnte das mit den 50% GK100 vs. GK104 passen. Dann erwarte ich aber, dass der GK104 die HD7970 schlägt sonst wäre die neue Gen für mich eine Enttäuschung.

Jepp. Und zwischen einer OC'ed GTX460 und einer 480 lagen teils nur 20-30%.

Der_Korken
2012-01-04, 12:59:02
Und das ist traurig genug. Bei einer neuen Generation erwarte ich Faktor 2. Erst recht wenn die Generationswechsel immer mehr Zeit in Anspruch nehmen. 40% ist schon beinahe ein etwas besserer Refresh.

Wunschdenken. Wann wurde in der letzten Zeit denn Faktor 2 gegenüber der alten Generation erreicht? Das letzte Beispiel was mir einfällt war der G80, danach wurde ein solcher Sprung nie wieder erreicht. Dennoch ist der Stromverbrauch mit jeder Generation deutlich gewachsen, weil man sich seit G80 mehr oder weniger am Limit bewegt, was technisch machbar ist.
Ich denke, so wird es auch bei Kepler sein: GTX580+50% bei 300W klingt noch realistisch, mit nem Refresh vllt auch noch etwas mehr.

boxleitnerb
2012-01-04, 12:59:32
Wenn GK100 nur 50% schneller wird als eine GTX580 dann frage ich mich was Nvidia die ganze Zeit gemacht hat? Das wäre imo sehr enttäuschend.

Jede Steigerung um mehr als 50% ging mit einer deutlichen Steigerung des Verbrauchs einher:

G71 zu G80: +60W
G80 zu G200: +60W
G200 zu GF100: +50W

Ganz grob im Netz zusammengesucht, aber du siehst ja schon die Tendenz. Hoffen wir mal, dass man diesmal da ausbrechen kann.

AnarchX
2012-01-04, 13:01:45
Mit SGSSAA und viel Geometrie dreht Fermi seine Runden um einen GT200.

Kepler dürfte wohl auch gewisse Parade-Disziplinen haben. Wie schon gesagt, dürfte man wohl zum Teil die deutlich gestiegene Rechenleistung umsetzen können. GK104 könnte ja schon 60% mehr SP-Peak-Leistung als GF110@580 aufweisen.

Und wenn AMD Tahiti von der Kette lässt, gibt es vielleicht auch ein High-End-Duell bei >250W TDP.

Nightspider
2012-01-04, 13:02:02
Wunschdenken. Wann wurde das in der letzten Zeit denn Faktor 2 gegenüber der alten Generation erreicht? Das letzte Beispiel was mir einfällt war der G80, danach wurde ein solcher Sprung nie wieder erreicht. Dennoch ist der Stromverbrauch mit jeder Generation deutlich gewachsen, weil man sich seit G80 mehr oder weniger am Limit bewegt, was technisch machbar ist.
Ich denke, so wird es auch bei Kepler sein: GTX580+50% bei 300W klingt noch realistisch, mit nem Refresh vllt auch noch etwas mehr.

GT200->GF100 waren es glaube rund 80% im Durchschnitt.

Nvidia wird ja nicht nur den Chip dank kleinerem Fertigungsprozess aufblasen sondern auch stark versuchen die Effizienz zu verbessern.

Wenn man dann noch ein par superbe Architekturverbesserungen einbauen würde, wären theoretisch Faktor 2 Leistung möglich.

Allerdings sind 70-80% realistisch bei GF100 Größe. Außer NV baut wieder einen Riesenchip wie beim GT200.

Wie AnarchX sagt, sind bei Extremsituationen deutlich mehr drin als 80%. Vor allem in zukünftigen Spielen oder mit DS+AA Modi.

Ich freu mich jedenfalls schon BF3 mit DS befeuern zu können.

Bucklew
2012-01-04, 13:07:47
Schon GT200 konnte G80 um 100% schlagen, wenns die richtigen Benchmarks sind.

dargo
2012-01-04, 13:14:38
Wunschdenken. Wann wurde in der letzten Zeit denn Faktor 2 gegenüber der alten Generation erreicht?

Fast immer. Manchmal waren halt nur ~80% drin. Mich interessiert nicht irgendein Durchschnitt wo noch zum Teil uralte Games getestet wurden. Es geht mir um Games wo die neue Karte ihr volles Potential ausspielen kann. Ich rechne also eher mit den größten Werten die erzielt werden.


Das letzte Beispiel was mir einfällt war der G80, danach wurde ein solcher Sprung nie wieder erreicht.

Ein G80 war teilweise sogar um mehr als den Faktor 3 schneller als der G71. Das lag natürlich nur daran, dass der G71 so schlecht war.

LovesuckZ
2012-01-04, 13:16:32
Wunschdenken. Wann wurde in der letzten Zeit denn Faktor 2 gegenüber der alten Generation erreicht? Das letzte Beispiel was mir einfällt war der G80, danach wurde ein solcher Sprung nie wieder erreicht. Dennoch ist der Stromverbrauch mit jeder Generation deutlich gewachsen, weil man sich seit G80 mehr oder weniger am Limit bewegt, was technisch machbar ist.
Ich denke, so wird es auch bei Kepler sein: GTX580+50% bei 300W klingt noch realistisch, mit nem Refresh vllt auch noch etwas mehr.

Sry, aber das ist Quatsch. Die GTX560TI ist ca. 30-50% schneller als die GTX285 und verbraucht dabei ca. 40 Watt weniger Strom. Da müsste nVidia die Putzabteilung mit der Entwicklung betreut haben, um nur auf 50% Mehrleistung zu kommen...

davidzo
2012-01-04, 13:20:47
Mit SGSSAA und viele Geometrie dreht Fermi seine Runden um einen GT200.

Kepler dürfte wohl auch gewisse Parade-Disziplinen haben. Wie schon gesagt, dürfte man wohl zum Teil die deutlich gestiegene Rechenleistung umsetzen können. GK104 könnte ja schon 60% mehr SP-Peak-Leistung als GF110@580 aufweisen.

Und wenn AMD Tahiti von der Kette lässt, gibt es vielleicht auch ein High-End-Duell bei >250W TDP.

naja, wie nvidia die sp-peak rate so dermaßen steigern will ohne dass die transistorenzahl explodiert ist mir schleierhaft. wenn man einen weg weiß doppeltsoviele shader ohne taktdomain auf demselben platz unterzubringen wie welche mit taktdomain, dann frage ich mich wieso man das bisher nicht getan hat.

ich würde eher mal niedrig stapeln. Das einzige zu dem wir verlässliche aussagen haben ist die DP-rate.
ich würde hier mal deutlich niedriger stapeln. nvidia kann auch nicht zaubern. bei fermi hat man sich schon am rande des machbaren bewegt (tdptechnisch), luft nach oben bleibt also immer weniger (als bei amd).

mal ein beispiel: jensens prognose einer Effinzienzverdopplung bei den teslas könnte auch bedeuten dass man jetzt zwei oder vier kleinere chips auf eine tesla baut. Damit ließen sich mehr cores unterbringen, die speicherbandbreite steigern und die kühlung vereinfachen.

es ist echt jedes mal dieselbe leier. in den amdthreads wird immer tiefgestapelt vor dem launch und bei den nvidiathreads übernimmtman sich mit den leistungsprognosen. Nix dazugelernt!

Ich denke die Erfahrung spricht dafür Jensens Aussagen immer im schlechtmöglichsten Fall zu interpretieren und dann bei Erscheinungsdatum und letztendlicher Leistung nochmal 10-20% abzuziehen.
Bei den Teslas war zuerst von 768Gflops die rede und dann von 633 und letzendlich bekommt man aber nur karten mit 515gflop/s und das ca. ein halbe sjahr später. Das war bei GT200 auch nicht anders, wo man zuerst von einer "mindestens verdopplung" sprach, dann bei einer fast verdopplung (240sp mehr takt) und sich nachher auf 240sp bei weniger takt aber tollen "effizienzverbesserungen" die man kaum spürte einigte.

immer realistisch bleiben... - auch wenn es vielleicht wunschgedanke ist und und Kundne natürlich zum Vorteil wäre.

Gipsel
2012-01-04, 13:26:54
Schon GT200 konnte G80 um 100% schlagen, wenns die richtigen Benchmarks sind.
Mit den richtigen Benchmarks kann auch Tahiti einen Cayman um 100% schlagen oder eine GTX580 um 70%. Und mit den "wirklich richtigen" (tm) liegt Tahiti auch über 100% vor einer GTX580. :rolleyes:
Das kann man sich in gewissen Grenzen immer so hinbasteln, wie es einem beliebt.

Duplex
2012-01-04, 13:27:56
Man muss nur die schwächen der Architekturen kennen und sich den richtigen Software Code raussuchen ;)
GF100 ist in FullHD mit 8AA auch über Faktor2 schneller als GT200...

Der_Korken
2012-01-04, 13:29:03
Schon GT200 konnte G80 um 100% schlagen, wenns die richtigen Benchmarks sind.
Fast immer. Manchmal waren halt nur ~80% drin. Mich interessiert nicht irgendein Durchschnitt wo noch zum Teil uralte Games getestet wurden. Es geht mir um Games wo die neue Karte ihr volles Potential ausspielen kann. Ich rechne also eher mit den größten Werten die erzielt werden.

OK, kann gut sein, dass ich den GT200 da etwas überschätze. Wobei ich natürlich GTX285 mit GTX480 vergleiche, genauso wie Tahiti mit GTX580/R6970 verglichen wird. Da fällt eben auf, dass die GTX480 ihre hohe Leistung durch einen deutlich höheren Stromverbrauch erkauft.

Ein G80 war teilweise sogar um mehr als den Faktor 3 schneller als der G71. Das lag natürlich nur daran, dass der G71 so schlecht war.

Jo, den G71 muss man fast schon aus dem Vergleich streichen, weil der später auch von den X1000er-Karten vernichtet wurde. Deswegen meine ich mit Faktor 2 hier dann eher X1900 <-> 8800GTX.

Sry, aber das ist Quatsch. Die GTX560TI ist ca. 30-50% schneller als die GTX285 und verbraucht dabei ca. 40 Watt weniger Strom. Da müsste nVidia die Putzabteilung mit der Entwicklung betreut haben, um nur auf 50% Mehrleistung zu kommen...

Moment, du vergleichst hier erstens Highend mit Performance und zweitens mit Refresh gegen Refresh. Wenn müsstest du GTX460 mit GTX285 vergleichen und dann schrumpft der Geschwindigkeitsvorteil entsprechend.

Generell will ich aber sagen: Klar könnte Kepler die GTX580 um 100% schlagen, läge dann aber analog zur Situation GT200 vs GF100 bei >350W!

LovesuckZ
2012-01-04, 13:34:37
Moment, du vergleichst hier erstens Highend mit Performance und zweitens mit Refresh gegen Refresh. Wenn müsstest du GTX460 mit GTX285 vergleichen und dann schrumpft der Geschwindigkeitsvorteil entsprechend.


Die GTX460? :confused:
Die GTX460 verbraucht in Spielen ca. 125 Watt und ist ähnlich schnell, meisten sogar leicht schneller. Die GTX285 schluckt in Spielen 195 Watt. Das ist mehr als 50% soviel...

davidzo
2012-01-04, 13:37:30
Jo, den G71 muss man fast schon aus dem Vergleich streichen, weil der später auch von den X1000er-Karten vernichtet wurde. Deswegen meine ich mit Faktor 2 hier dann eher X1900 <-> 8800GTX.


das hat man zum launch aber nicht so gesehen. Die Tests gingen da von +26 bis +68% mit FSAA in hohen Auflösungen, von +100% keine Spur.
Sowas kristallisiert sich immer erst später heraus, wenn die CPUleistung steigt, die Treiber besser werden, aber vor allem mit neueren Inhalten (Spielen).
Das sieht man ja auch schön an nder 4870 vs 5770. Erstere war anfangs deutlich überlegen, in neuen Anwendungen ist letztere aber klar vorzuziehen, schlägt sogar meist die 4890.

Ich denke dass der geringe Vorsprung der 7970 gegenüber den alten Bekannten 6970&gtx580 mit dem kleiner werdenden CPUlimit, neuen Anwendungen und weiterentwickelten Treibern noch deutlich ausgebaut werden kann.
Selbiges erwarte ich auch von kepler. +40% fände ich schon überwältigend, ich meine dass muss man erstmal auf die Straße bringen, wenn viele Anwendungen doch schon jetzt eher suboptimal skalieren.


Die GTX460? :confused:
Die GTX460 verbraucht in Spielen ca. 125 Watt und ist ähnlich schnell, meisten sogar leicht schneller. Die GTX285 schluckt in Spielen 195 Watt. Das ist mehr als 50% soviel...

LOL, da greift mal wieder Lovesuckz berühmte Prozentrechnung. Beim dreisatz nicht aufgepasst häh :uhammer:

Entweder man bezieht sich auf die GTX460 und schreibt "56% mehr", oder man bezieht sich auf die GTX285 und sagt "das ist 156% soviel", was aber imo nicht besonders deutsch klingt. 50% soviel ist grammatikalisch merkwürdig und inhaltlich irreführend, das klingt nämlich als würdest du uns weismachen wollen die 460 verbrauche 50% soviel wie eine 285. :ucrazy:

Nebenbei sind deine Ausgangsdaten falsch. Eine GTX285 liegt eher bei 185watt, etwa 25Watt von der 5870 entfernt, 40 von der 460.

robbitop
2012-01-04, 13:45:36
Wenn man die stärkste Variante für Last-Gen gegen die erste Next-Gen nimmt, sieht es im Durchschnitt so aus (Voraussetzung: VRAM geht beim Vorgänger nicht aus):

8800 Ultra - GTX280: +50 ... 60 %
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-gtx-280-sli/28/#abschnitt_performancerating_qualitaet
GTX285 - GTX480: +60 ... 80 % (wobei ich mir nicht sicher bin, ob bei 2536er Auflösung der 285 nicht langsam der VRAM ausgeht)
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/21/#abschnitt_performancerating_qualitaet

Faktor 2 sind im Durchschnitt wirklich lange nicht mehr drin gewesen.

Ich denke aber auch, dass für den großen Kepler 60 ... 80 % von GF110 drin sein sollten. Wäre zumindest innerhalb des Erwartungshozitontes.

Bei Tahiti wird sicher noch etwas aus dem Treiber kommen - Architektur ist schließlich brandneu. Aber nichts kriegsentscheidendes. Wie gesagt: es ist kein 500 sqmm Chip sondern ein Performance Chip mit 350 sqmm. Dafür ist er schon innerhalb des Erwartungshorizonts. GK110 wird sich New Zealand stellen müssen.

Der_Korken
2012-01-04, 13:57:40
Die GTX460? :confused:
Die GTX460 verbraucht in Spielen ca. 125 Watt und ist ähnlich schnell, meisten sogar leicht schneller. Die GTX285 schluckt in Spielen 195 Watt. Das ist mehr als 50% soviel...

Wie gesagt, sinnvoller wäre der Vergleich mit der GTX480, aber bedeutend mehr als 50% bekommst du auch hier bei Perf/W nicht heraus. Deswegen habe ich ja gesagt, dass GTX580+50% bei den gleichen 300W Maximalverbrauch für den ersten Kepler schon sehr gut wären. Den Luxus, dass man einfach den Stromverbrauch miterhöht, um 100% Mehrleistung zu bringen, hat man so langsam bei 300W nicht mehr.

@X1900 vs 8800GTX:

Klar war letztere am Anfang nicht doppelt so schnell, vielleicht auch später nicht, aber das ändert ja nichts an meiner Aussage, dass man einen Faktor 2 schon Ewigkeiten nicht mehr hatte.

Dural
2012-01-04, 13:58:02
sag ich ja schon lange, das bedeutet ja nichts anders als das eine GTX580 rund doppelt so schnell (im Durchschnitt!) ist wie sein Vorgänger Chip / GT200b auf GTX285 :cool:

Fermi rockt halt einfach und für Kepler wird es umso schwerer sein, wie ich es auch schon x mal gesagt habe, die GTX580 ist halt eine sehr starke Karte! aber mit 60% müsste man schon rechnen können

LovesuckZ
2012-01-04, 13:58:37
LOL, da greift mal wieder Lovesuckz berühmte Prozentrechnung. Beim dreisatz nicht aufgepasst häh :uhammer:

Entweder man bezieht sich auf die GTX460 und schreibt "56% mehr", oder man bezieht sich auf die GTX285 und sagt "das ist 156% soviel", was aber imo nicht besonders deutsch klingt. 50% soviel ist grammatikalisch merkwürdig und inhaltlich irreführend, das klingt nämlich als würdest du uns weismachen wollen die 460 verbrauche 50% soviel wie eine 285. :ucrazy:

Nebenbei sind deine Ausgangsdaten falsch. Eine GTX285 liegt eher bei 185watt, etwa 25Watt von der 5870 entfernt, 40 von der 460.

Es gibt kein 156% soviel. 56% bezieht sich auf einen 100% Ausgang. Das sollte man schon wissen, wenn man trollt, gell?

Davon abgesehen ist meine Ausgangsbasis das GTX460 Review von HT4U.de:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_460_768mb_1024_mb/index18.php

Daher für dich, der so gerne alles 100% will: Die GTX460 hat einen 33% geringeren Stromverbrauch bei 10% Mehrleistung gegenüber der GTX285. Das macht am Ende ein verbessertes Perf/Watt Verhältnis von ca. 65% aus.

AnarchX
2012-01-04, 14:06:08
Im Endeffekt wird es wohl auch darauf ankommen, ob NV bei GK110 auf ein 512-Bit SI setzt, mit diesem könnte der Leistungsunterschied zu einem 256-Bit GK104 schon höher ausfallen.

Mittlerweile wäre es wohl gar nicht so abwegig, wenn man GK110 auch auf 2048SPs und 128 TMUs schätzt, aber eben kombiniert mit GPCs und skalierender Geometrie-Leistungs.

davidzo
2012-01-04, 14:10:23
naja, für mich passt das alles trotzdem nicht zusammen.

- 60-80% mehr Leistung sollen es sein?
- Bei der Diefläche ist man am Limit, aufbohren geht hier nicht und macht auch keinen Sinn, Takt erhöhen ist da billiger wenn man eh am TDPlimit wäre mit so einem riesenchip.
- Fertigungstechnisch sind also nur etwa 75% mehr transistoren drin (skalierung ist nie 100%, cayman->tahiti sind auch 75%)
- Architekturell soll im Grunde alles beim Alten bleiben, kein so großer Schritt wie bei GCN
- Das Speicherinterface hat viel zu niedrige Taktraten, kein neuer Speicher in Sicht, eine Bandbreitensteigerung von gut 33% ist nur über ein 512bit interface zu realisieren was Transistoren für SI, rops und interconnect kostet und mehr strom verbraucht
- Man gibt womöglich die Shaderdomain auf. das hat wohl mit der Leistungsaufnahme zutun. Wenn man allerdings auf derselben Fläche doppelt soviele einheiten verbauen könnte hätte man das ja schon früher gemacht. Eine Verdopplung der Shadereinheiten wird also womöglich mehr Transistoren kosten als der Wegfall der Shaderdomain bringt, zugunsten der Leistungsaufnahme
- Die Energieeffizienz soll dramatisch steigen (jensens slide zeigt hier was von 3-4x dp gflops pro watt)



in meinen Augen passt das alles beim besten Willen nicht zusamen. Entweder man hat früher so einiges falsch gemacht und macht jetzt große Architekturelle veränderungen die das beheben, oder es ist nur einges von dem wahr was wir als fakten nehmen oder nvidia benutzt einen völlig anderen "28nm Wunder-Prozess" als AMD. Allem Anschein nach ist 28nm ein eher durchschnittlicher Prozess mit hoher Streuung, der keine großartig niedrigeren Spannungen zulässt und die Leistungsaufnahme etwa in demselben Maße schrumpfen lässt wie die Transistorflächenverhältnisse (~70%).

Wenn man die Energieefizienz verdreifachen möchte muss man mit dem Takt herunter, trotz 28nm.
Wenn man die Shaderdomain aufgibt muss man entweder mindestens dreimal soviele einheiten verbauen oder mit dem Chiptakt hoch.
Wenn man die Shaderdomain aufgibt um den Energieverbrauch zu senken verbraucht man mehr Fläche
Wenn man die neuen Shader mit chiptakt mehr Fläche brauchen als halbsoviele shader mit shaderdomain, wird man kaum drei bis viermal soviele (1,5-2x leistung) davon verbauen können
Wenn man mehr Fläche für dieselbe Aluleistung braucht und einen nicht oder kaum gesteigerten Chiptakt hat, ist eine verdopplung der shaderleistung unmöglich, auf Effizienzgewinne kann man kam rechnen, Fermi ist ja schon sehr effizient

Wenn man also alle diese Ziele erreichen will, wird man niemals eine 60-80 prozentige Leistungssteigerung in einem 500mm2 Chip erreichen.

AnarchX
2012-01-04, 14:13:19
- Architekturell soll im Grunde alles beim Alten bleiben, kein so großer Schritt wie bei GCN

Das wurde aber niemals von NV behauptet - "G80 ohne USA"... ;)

davidzo
2012-01-04, 14:23:13
dass kepler auf der fermi architektur aufbaut ist aber der gängige ton in allen einschlägigen foren und hardware speku webseiten, auch dem 3dcenter. Das klingt ja erstmal ernüchternd, wenn das ein falsches gerücht wäre, müsste uns bis jetzt sicher ein kleines inoffizielles dementi "nein es wird was ganz neues..." oder so von einem nv mitarbeiter durchgesickert sein. Das macht denen doch spaß die spekulationen zu füttern, das kennt man doch schon...

aylano
2012-01-04, 14:23:42
Wenn man die stärkste Variante für Last-Gen gegen die erste Next-Gen nimmt, sieht es im Durchschnitt so aus (Voraussetzung: VRAM geht beim Vorgänger nicht aus):

8800 Ultra - GTX280: +50 ... 60 %
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-gtx-280-sli/28/#abschnitt_performancerating_qualitaet
GTX285 - GTX480: +60 ... 80 % (wobei ich mir nicht sicher bin, ob bei 2536er Auflösung der 285 nicht langsam der VRAM ausgeht)
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/21/#abschnitt_performancerating_qualitaet

Faktor 2 sind im Durchschnitt wirklich lange nicht mehr drin gewesen.

So ist es.
Und wenn man den Strom-Mehrverbrauch abzieht, dann liegt die Effizienz-Steigerung bei so um 40%, was dann schon die Gegend einer Effizienz-Steigerung des Transistors ist.

Dass man mit einem Shrink nicht immer deutliche Sprünge schaffen muss/will, zeigt ja der Sprung 8800GTX -->9800GTX.
Plus 10% Performance-Steigerung bei nur 5%-Verbrauchsreduktion.
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-9800-gtx-sli/24/#abschnitt_leistungsaufnahme
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-9800-gtx-sli/21/#abschnitt_performancerating

Klar haben die zusätzlich 60 Mio. Transistoren einen Betrag dazu geleisten. AFAIK sind die für GPGPU-Zeugs verwendet worden. Das nehme ich mal an, da damals eine Priorität war, mit den GPUs in den HPC-Markt zu kommen bzw. verstärkt in den Profi-Markt zu gehen.
Da sie schon im HPC-Markt drinnen sowie im Profi-Markt schon gut gefestigt sind, würde es nicht verwundern wieder mal eine Zeitlang die Prioritäten mehr in die Spiele-Effizienz zu legen und bei einem Shrink mal nicht so viele zusätzliche Transistoren für GPGPU einzufügen a la Marketing-Aussagen.

Bucklew
2012-01-04, 14:28:09
Mit den richtigen Benchmarks kann auch Tahiti einen Cayman um 100% schlagen oder eine GTX580 um 70%. Und mit den "wirklich richtigen" (tm) liegt Tahiti auch über 100% vor einer GTX580. :rolleyes:
Das kann man sich in gewissen Grenzen immer so hinbasteln, wie es einem beliebt.
Das was du meinst ist Cherrypicking. Das meine ich gar nicht. Ich meine Benchmarks, die mit der GPU skalieren und zwar auch mit der Leistungsfähigkeit der neuen/aktuellen Topmodelle. Ein Benchmark der schon mit ner GTX580 im CPU-Limit festhängt, wird mit ner Kepler-GPU nicht (viel) schneller werden.

Das du das natürlich nicht verstehst und sofort mit so Blödsinn um die Ecke kommst wundert mich natürlich (wie immer) nicht. Man kennt ja die Pappenheimer.

LovesuckZ
2012-01-04, 14:28:22
Nur weil AMD eine mittelmäßige 28nm Generation gebracht hat, darf man bei nVidia nicht mehr erwarten? Wow.

Schonmal überlegt, dass unterschiedliche Entscheidungen in der Vergangenheit sich auswirken? nVidia hat mit Fermi nunmal die Zukunft von AMD vorweggenommen. Und wir wissen nichtmal, was von AMD's Papierarchitektur überhaupt alles schon bei SI umgesetzt wurde.

Und wenn nVidia sich für Kepler eine massive Steigerung des Perf/Watt Verhältnis vorgenommen hat, dann wird man dies annährend auch erreichen. Und das ist gleichbedeutend mit mehr Leistung. Vor allem in Bezug Rechenleistung wird man genauso wie bei Fermi deutlich zulegen und das wird sich fast 1:1 in den heutigen Spielen durchsetzen - abgesehen von CoD. :D

dass kepler auf der fermi architektur aufbaut ist aber der gängige ton in allen einschlägigen foren und hardware speku webseiten, auch dem 3dcenter. Das klingt ja erstmal ernüchternd, wenn das ein falsches gerücht wäre, müsste uns bis jetzt sicher ein kleines inoffizielles dementi "nein es wird was ganz neues..." oder so von einem nv mitarbeiter durchgesickert sein. Das macht denen doch spaß die spekulationen zu füttern, das kennt man doch schon...

Deswegen halten sie auch die Klappe. Der beste Zustand für nVidia ist, wenn die Leute nichts wissen. Das regt Spekulationen an. Siehe Fermi und Front-End.

Godmode
2012-01-04, 14:31:43
So ist es.
Und wenn man den Strom-Mehrverbrauch abzieht, dann liegt die Effizienz-Steigerung bei so um 40%, was dann schon die Gegend einer Effizienz-Steigerung des Transistors ist.

Dass man mit einem Shrink nicht immer deutliche Sprünge schaffen muss/will, zeigt ja der Sprung 8800GTX -->9800GTX.
Plus 10% Performance-Steigerung bei nur 5%-Verbrauchsreduktion.
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-9800-gtx-sli/24/#abschnitt_leistungsaufnahme
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-9800-gtx-sli/21/#abschnitt_performancerating

Klar haben die zusätzlich 60 Mio. Transistoren einen Betrag dazu geleisten. AFAIK sind die für GPGPU-Zeugs verwendet worden. Das nehme ich mal an, da damals eine Priorität war, mit den GPUs in den HPC-Markt zu kommen bzw. verstärkt in den Profi-Markt zu gehen.
Da sie schon im HPC-Markt drinnen sowie im Profi-Markt schon gut gefestigt sind, würde es nicht verwundern wieder mal eine Zeitlang die Prioritäten mehr in die Spiele-Effizienz zu legen und bei einem Shrink mal nicht so viele zusätzliche Transistoren für GPGPU einzufügen a la Marketing-Aussagen.

Das war doch keine neue Generation, IMO nur ein neu benannter G92!

Bucklew
2012-01-04, 14:35:09
8800 Ultra - GTX280: +50 ... 60 %
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-gtx-280-sli/28/#abschnitt_performancerating_qualitaet
GTX285 - GTX480: +60 ... 80 % (wobei ich mir nicht sicher bin, ob bei 2536er Auflösung der 285 nicht langsam der VRAM ausgeht)
Das doch auch kein Wunder, solange so Benchmarks ala CoD4 drin sind:
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-gtx-280-sli/14/#abschnitt_call_of_duty_4

CPU-Limit ole!

robbitop
2012-01-04, 14:40:03
Nur weil AMD eine mittelmäßige 28nm Generation gebracht hat, darf man bei nVidia nicht mehr erwarten? Wow.
Wieso mittelmäßig? 350 sqmm und < 200 W. Das darf man nie vergessen. Das Ding ist ein Performance Chip wie GF104/114.
Es muss sich mit GK104 messen. Und dort wird sich zeigen müssen, ob das nur mittelmäßig ist.

AMD baut seit R600 keine 500 - 600 sqmm Enthusiast GPUs mehr.

robbitop
2012-01-04, 14:42:32
Das doch auch kein Wunder, solange so Benchmarks ala CoD4 drin sind:
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-gtx-280-sli/14/#abschnitt_call_of_duty_4

CPU-Limit ole!
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-gtx-280-sli/25/#abschnitt_crysis
Bei Crysis sah es so viel besser auch nicht aus (Achtung: VRAM Limit für G80!)

LovesuckZ
2012-01-04, 14:43:56
Wieso mittelmäßig? 350 sqmm und < 200 W. Das darf man nie vergessen. Das Ding ist ein Performance Chip wie GF104/114.
Es muss sich mit GK104 messen. Und dort wird sich zeigen müssen, ob das nur mittelmäßig ist.

Wenn er sich nur mit dem zweitbesten Chip von nVidia messen kann, ist es dann hervorragend? :confused:


AMD baut seit R600 keine 500 - 600 sqmm Enthusiast GPUs mehr.

Und? Was willst du mir damit sagen? Verbraucht Tahiti weniger Strom als Cayman? Ist Tahiti deutlich kleiner als Cayman?

Vergleiche GF114 mit GT200b. Da sieht man, dass solche Aussagen keinen Sinn ergeben.

Bucklew
2012-01-04, 14:50:47
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-gtx-280-sli/25/#abschnitt_crysis
Bei Crysis sah es so viel besser auch nicht aus (Achtung: VRAM Limit für G80!)
Also unten bei FullHD und 16xAA sehe ich +80% für den GT200.

Und die 8800 Ultra wird kaum im VRAM-Limit sein.

aylano
2012-01-04, 14:52:08
Das war doch keine neue Generation, IMO nur ein neu benannter G92!
Gerade deshalb sollte bei einem Shrink die Effizienz-Steigerung des Transistors durchschlagen.

Mit 15%-Performance-pro-Watt Steigerung ist das ein negatives NV-Extrem-Beispiel. Hier erwarten manche nicht nur +60% sondern noch welche mit Faktor 2 (=+100%)
Diese 15% schließen nicht eine +60%-Effizienzsteigerung von GK100 aus, sondern es zeigt, wie Effizienz-Steigerungen zum Vorgänger-Modell varieren können, obwohl G92 (65nm) 5-Monate nach dem RV670 ("65/55nm"-Fertigung) gekommen ist.

Und beim GK100-Start interessiert den Leuten auch, was die Karte aktuell gegen HD 7970 bringt und nicht in einigen Quartalen bzw. Jahren. (Deshalb die Links von Start-Benchmarks)

LovesuckZ
2012-01-04, 14:55:03
Diese 15% schließen nicht eine +60%-Effizienzsteigerung von GK100 aus, sondern es zeigt, wie Effizienz-Steigerungen zum Vorgänger-Modell varieren können, obwohl G92 (65nm) 5-Monate nach dem RV670 ("65/55nm"-Fertigung) gekommen ist.


In welchem weltlichen Kalender liegt Oktober 5 Monate hinter November? :confused:

Gipsel
2012-01-04, 14:56:39
- Architekturell soll im Grunde alles beim Alten bleiben, kein so großer Schritt wie bei GCN
Und ich dachte der momentane Trend der Gerüchte geht eher in die Richtung einer deutlich umgekrempelten Architektur, Stichwort Konvergenz. Also irgendwas grob wie GCN, zumindest an der Oberfläche. :rolleyes:
Das was du meinst ist Cherrypicking.
Richtig erkannt. War aber auch nicht so schwer. ;)
Das du das natürlich nicht verstehst und sofort mit so Blödsinn um die Ecke kommst wundert mich natürlich (wie immer) nicht. Man kennt ja die Pappenheimer.
Kannst Du diesen Blödsinn nicht mal lassen? Denkst Du ich wäre irgendein Klippschüler? Frage bzw. bitte ich Dich jetzt wirklich ganz höflich.

robbitop
2012-01-04, 14:56:53
Wenn er sich nur mit dem zweitbesten Chip von nVidia messen kann, ist es dann hervorragend? :confused:



Und? Was willst du mir damit sagen? Verbraucht Tahiti weniger Strom als Cayman? Ist Tahiti deutlich kleiner als Cayman?

Vergleiche GF114 mit GT200b. Da sieht man, dass solche Aussagen keinen Sinn ergeben.
Es geht nicht um den Verbrauch sondern um die Leistungsklasse. Gegen Enthusiast GPUs sind die Doppel-Performance GPUs gerichtet.
AMD hatte bei den letzten 2 Generationen einfach Glück, dass NV für die übergroßen Enthusiast Kerne keine sooo große Leistungsvorteile hatten, wie es hätte durch den Transistormehraufwand sein können. Nur deshalb war man in der glücklichen Lage, eigene Performancechips gegen die Enthusiastchips zu stellen.

Also unten bei FullHD und 16xAA sehe ich +80% für den GT200.

Und die 8800 Ultra wird kaum im VRAM-Limit sein.

Sagst du so. Die 8800 hat läppische 768 MiB RAM. Da wird es schnell eng. Insbesondere bei Spielen mit scharfen - hochauflösenden Texturen. Man müsste mal den VRAM Verbrauch von 16x AA und FullHD in Crysis 1 messen. Ich wette, da ist man schon drüber.

Auch 80 % sind nicht Faktor 2. ;)
Sieht mir ohne VRAM Limit aber mehr nach 60 % aus.

Es ist keine Kunst mit 500-600 sqmm schneller zu sein als mit 350 ;)

AnarchX
2012-01-04, 15:01:21
Gerüchteweise mangelt es ja AMD an 28nm Waferkapazitäten, wenn man da von der Konkurrenz Kapazität abkaufen muss, kostet ein 365mm² Tahtiti vielleicht in der BOM soviel wie ein >500mm² GK110.
Deswegen vielleicht auch der eher gewagte MSRP von $549 der laut Ailuros mit GK104 in ein paar Wochen sehr fraglich sein könnte. ;)

Satchmo90
2012-01-04, 15:06:00
Es ist keine Kunst mit 500-600 sqmm schneller zu sein als mit 350 ;)

Nur mal so eine Zwischenfrage: Mir als Kunde kann es doch egal sein ob der Chip 300mm² oder 600mm² groß ist. Was mich intressiert sind parameter wie Leistung, Preis, Lautstärke, Features und der Verbrauch. Wie man die Parameter erreicht kann mir als Kunde doch völlig egal sein.:wink:

Iruwen
2012-01-04, 15:09:16
Wieso mittelmäßig? 350 sqmm und < 200 W. Das darf man nie vergessen. Das Ding ist ein Performance Chip wie GF104/114.
Es muss sich mit GK104 messen. Und dort wird sich zeigen müssen, ob das nur mittelmäßig ist.

AMD baut seit R600 keine 500 - 600 sqmm Enthusiast GPUs mehr.

Frag mal jemanden ob ihn die Chipgröße oder der Preis mehr interessiert.

robbitop
2012-01-04, 15:13:21
Nur mal so eine Zwischenfrage: Mir als Kunde kann es doch egal sein ob der Chip 300mm² oder 600mm² groß ist. Was mich intressiert sind parameter wie Leistung, Preis, Lautstärke, Features und der Verbrauch. Wie man die Parameter erreicht kann mir als Kunde doch völlig egal sein.:wink:
Die Karte wird so platziert, wie es von der Performance ggü der schnellsten Karte gerechtfertigt ist.
Mit einem 350 sqmm Kern mit 200 W fällt die Karte in der Produktion deutlich günstiger aus. Sie kann also auch günstiger verkauft werden.
Wenn NV mit ihrer übergroßen Enthusiast-GPU ein ähnliches Punch/Transistor Verhältnis hinbekommen sollte, wie Tahiti, dann wird sie deutlich schneller sein. Entsprechend niedriger wird dann auch der Preis. Der wird sich vermutlich an GK104 orientieren.

Frag mal jemanden ob ihn die Chipgröße oder der Preis mehr interessiert.
Siehe oben. Chipgröße ist direkter Einfluss auf die Kosten der Karte. Die Karte kann also billiger verkauft werden.

Natürlich zu einem Zeitpunkt, wo GK110 und GK104 erschienen sind und 28 nm ausgereift ist.
Im Moment wird 28 nm ein fettes Preispremium geben.

Bucklew
2012-01-04, 15:14:37
Richtig erkannt. War aber auch nicht so schwer. ;)
Ich meinte aber kein Cherrypicking. Sondern Benchmarks, in denen die GPUs auch ihre Leistungsfähigkeit ausspielen können.

Es macht keinen Sinn einen Ferrari gegen einen Lamborghini auf nem Waldweg antreten zu lassen und dann daraus zu schlußfolgern, welcher schneller ist. Genau das tut ihr aber, wenn ihr irgendwelche Blödsinn-Benchmarks ala CoD4 als Beispiel nehmt, um zu zeigen wie wenig Vorsprung doch ein GT200 ggü einem G80 hat.

Kannst Du diesen Blödsinn nicht mal lassen? Denkst Du ich wäre irgendein Klippschüler? Frage bzw. bitte ich Dich jetzt wirklich ganz höflich.
Spars dir halt mich mit Blödsinn dumm von der Seite anzuquatschen, wie du es oben gemacht hast. Du weißt genau was ich meine und stellst dich nur absichtlich dumm. Zumindest hoffe ich das für dich!

Sagst du so. Die 8800 hat läppische 768 MiB RAM. Da wird es schnell eng. Insbesondere bei Spielen mit scharfen - hochauflösenden Texturen. Man müsste mal den VRAM Verbrauch von 16x AA und FullHD in Crysis 1 messen. Ich wette, da ist man schon drüber.
Nein, ist kein VRAM-Limit, weil (wie du siehst) die Karten mit 512MB trotz höherer theoretischer Leistung (siehe 9800GTX) auf die Hälfte einbrechen.

Auch 80 % sind nicht Faktor 2. ;)
Sieht mir ohne VRAM Limit aber mehr nach 60 % aus.
1. 81%
2. kein VRAM-Limt
3. Optimierte Treiber, optimierte Spiele und schon biste bei den 100%

Es ist keine Kunst mit 500-600 sqmm schneller zu sein als mit 350 ;)
Seit wann ist G80 350sqmm groß?

boxleitnerb
2012-01-04, 15:14:51
IdR kostet ein kleinerer Chip den Kunden weniger, da die Herstellungskosten, Kosten für PCB, Stromversorgung und Kühlung geringer sind. Das ist schon relevant.

Mancko
2012-01-04, 15:15:55
Frag mal jemanden ob ihn die Chipgröße oder der Preis mehr interessiert.

Also mich interessiert auch die Chipgröße - je größer desto besser :)
Deswegen kann ich AMD's Produkten in der Regel auch nichts abgewinnen. Ist mir einfach nicht spektakulär genug. Im Fahrwasser mitschwimmen kann jeder. Echte Leaderqualitäten sind was anderes.

Am Ende des Tages - da gebe ich Dir Recht - wird die große Masse sich den Preis, die Features und die Leistung ansehen. Wie groß nun der Chip ist, dürfte den Leuten egal sein.

Allerdings kann sich Nvidia durch solche Produkte natürlich auch immer den Leaderbonus sichern. Das führt zu höheren durchschnittlichen Verkaufspreisen. Der Kunde ist bei Nvidia Produkten in der Regel bereit etwas mehr zu bezahlen. Das liegt aber auch noch an diversen anderen Gründen, die deren Produkte am Ende häufig runder aussehen lassen.

Iruwen
2012-01-04, 15:19:10
Wieso mittelmäßig? 350 sqmm und < 200 W. Das darf man nie vergessen. Das Ding ist ein Performance Chip wie GF104/114.
Es muss sich mit GK104 messen. Und dort wird sich zeigen müssen, ob das nur mittelmäßig ist.
AMD baut seit R600 keine 500 - 600 sqmm Enthusiast GPUs mehr.

Die Argumentation kann man auch umdrehen, wenn man nicht vergisst dass AMD nur einen Performancechip geliefert hat ist das momentane Preisschild auch nicht gerechtfertigt. Die HD 5870 war auch wegen des guten Preis-/Leistungsverhältnisses so erfolgreich.
Aber gut, das Thema erledigt sich ja bald von selbst. Kann man nur für AMD hoffen dass sie den Preis so angesetzt haben weil sie können und nicht weil sie (aus welchen Gründen auch immer) müssen.

LovesuckZ
2012-01-04, 15:20:17
Es geht nicht um den Verbrauch sondern um die Leistungsklasse. Gegen Enthusiast GPUs sind die Doppel-Performance GPUs gerichtet.
AMD hatte bei den letzten 2 Generationen einfach Glück, dass NV für die übergroßen Enthusiast Kerne keine sooo große Leistungsvorteile hatten, wie es hätte durch den Transistormehraufwand sein können. Nur deshalb war man in der glücklichen Lage, eigene Performancechips gegen die Enthusiastchips zu stellen.


Wenn es danach geht: Dank Tahiti hat nVidia die besten Chancen mit ihren Performance-Chip den von AMD zu schlagen. Nennst du das "hervorragend" aus Sicht von AMD? :confused:

Mancko
2012-01-04, 15:20:37
IdR kostet ein kleinerer Chip den Kunden weniger, da die Herstellungskosten, Kosten für PCB, Stromversorgung und Kühlung geringer sind. Das ist schon relevant.

Das hat sich bisher noch nirgends wirklich bestätigt. Vielmehr kosten AMD Produkte in der Regel weniger, weil sie sie auch nicht für mehr losbekommen. Ich würde niemals für ein AMD Produkt das gleiche zahlen wie für Nvidia. Da müssten die schon ordentlich auftrumpfen. Diese Ambitionen haben die aber anscheinend nicht, weshalb sie auch kein Leader Image haben.

Am Ende des Tages haben Nvidia's große Chips in der Regel denen die Krone gesichert. Die Kunden haben gekauft und ordentlich Gewinn haben die auch gemacht. AMD dagegen schwächelt halt häufig nicht nur bei den Produkten ein wenig sondern in der Regel auch bei den Geschäftsergebnissen. Da war von der Tollen DIE Effizienz nicht viel zu sehen was einmal mehr bestätigt, dass Nvidia

a) bessere Verkaufspreise erziehlt was auch vollkommen gerechtfertigt ist
b) offensichtlich auch bessere Konditionen beim Auftragsfertiger hat

Skysnake
2012-01-04, 15:29:10
Klar haben die zusätzlich 60 Mio. Transistoren einen Betrag dazu geleisten. AFAIK sind die für GPGPU-Zeugs verwendet worden. Das nehme ich mal an, da damals eine Priorität war, mit den GPUs in den HPC-Markt zu kommen bzw. verstärkt in den Profi-Markt zu gehen.
Da sie schon im HPC-Markt drinnen sowie im Profi-Markt schon gut gefestigt sind, würde es nicht verwundern wieder mal eine Zeitlang die Prioritäten mehr in die Spiele-Effizienz zu legen und bei einem Shrink mal nicht so viele zusätzliche Transistoren für GPGPU einzufügen a la Marketing-Aussagen.
Genau das Gegenteil ist aber zu erwarten. Im GPGPU Markt steht nVidia sehr stark unter Druck. AMD steigt erstmals mit einer echten Alternative zu den Tesla-Karten ein, und Intel bringt mit MIC das dicke Schlachtschiff in Stellung, das beide wenns dumm läuft mit einem Treffer ins Jenseitskatapultiert (bischen dramatisiert ;))

Im reinen Gamer-Markt siehts doch komplett anders aus. Wer ist denn da die Konkurrenz? Richtig. AMD. Und wer noch? Ach ja, gibt ja keinen. Und die stehen vor dem gleichen Problem wie nVidia, wobei auch klar abzusehen war, das dort auch der fokus auf GPGPU liegt.

An der Situation seid ihr/wir aber selbst schuld. Wer auch bei kleinen Leistungssteigerungen ständig kauft und kauft und kauft, der muss sich nicht wundern, dass die Hersteller den Fokus eben auf stellen richtig, bei denen die Leistungssteigerung darüber entscheidet ob ja oder nein. Bei Gamern ist das doch kaum der Fall. Schau mal raus in die Welt. Da wird entweder gekauft, weil die alte am Arsch ist, und dann mus eh gekauft werden, oder es wird praktisch schon gekauft, weil halt ne größere Zahl drauf steht...

Nur weil AMD eine mittelmäßige 28nm Generation gebracht hat, darf man bei nVidia nicht mehr erwarten? Wow.

Schonmal überlegt, dass unterschiedliche Entscheidungen in der Vergangenheit sich auswirken? nVidia hat mit Fermi nunmal die Zukunft von AMD vorweggenommen. Und wir wissen nichtmal, was von AMD's Papierarchitektur überhaupt alles schon bei SI umgesetzt wurde.

Und wenn nVidia sich für Kepler eine massive Steigerung des Perf/Watt Verhältnis vorgenommen hat, dann wird man dies annährend auch erreichen. Und das ist gleichbedeutend mit mehr Leistung. Vor allem in Bezug Rechenleistung wird man genauso wie bei Fermi deutlich zulegen und das wird sich fast 1:1 in den heutigen Spielen durchsetzen - abgesehen von CoD. :D

Deswegen halten sie auch die Klappe. Der beste Zustand für nVidia ist, wenn die Leute nichts wissen. Das regt Spekulationen an. Siehe Fermi und Front-End.
Huang unser Messias, das Sprachrohr Gottes, der Unfehlbare, der Erleuchtete..... :massa:

Bucklew
2012-01-04, 15:32:22
Genau das Gegenteil ist aber zu erwarten. Im GPGPU Markt steht nVidia sehr stark unter Druck. AMD steigt erstmals mit einer echten Alternative zu den Tesla-Karten ein, und Intel bringt mit MIC das dicke Schlachtschiff in Stellung, das beide wenns dumm läuft mit einem Treffer ins Jenseitskatapultiert (bischen dramatisiert ;))
Da kann man wieder nur :facepalm:

Was bringt denn AMD für "echte Alternativen" zu den Teslakarten? Und Intels MIC wirste mit Glück mal in einem Jahr sehen. Ob es sich dann überhaupt durchsetzt, wird man sehen müssen. Bisher wars ein ziemlich gigantischer Flop.

Skysnake
2012-01-04, 15:34:21
Wetten wir um ne GTX680, wegen MIC sehen?

guest_29132
2012-01-04, 15:36:51
Nur weil AMD eine mittelmäßige 28nm Generation gebracht hat, darf man bei nVidia nicht mehr erwarten? Wow.

Sie hat wohl ausgericht. So bekommt man hier im Kepler Thread zuletzt statt spekulationen nur noch Luftschlösser zu lesen.

Bucklew
2012-01-04, 15:37:18
Wetten wir um ne GTX680, wegen MIC sehen?
Geh woanders spielen.

robbitop
2012-01-04, 15:41:24
Nein, ist kein VRAM-Limit, weil (wie du siehst) die Karten mit 512MB trotz höherer theoretischer Leistung (siehe 9800GTX) auf die Hälfte einbrechen.
Ein VRAM-Limit tritt nicht binär auf. (ja oder nein) Es tritt mit fließendem Übergang auf.
Um das n-fache des AA Grades steigt auch linear die Color- und Z-Buffergröße an.
Kann mal jemand Crysis @max @FullHD @8xAA die VRAM Size messen? Ich fresse nen Besen, wenn das unter 768 MiB ist.



1. 81%
2. kein VRAM-Limt
3. Optimierte Treiber, optimierte Spiele und schon biste bei den 100%
Ist erst noch nachzuweisen, ob man da nicht schon z.T. durch VRAM gebremst wurde. Treiberoptimierungen sollten G80 auch profitieren lassen.
Was meinst du mit optimierte Spiele? Crysis hat schon sehr viele Takte pro Pixel für Arithmetik und ist eigentlich noch immer sehr modern. Moderner als so manch anderes neues Spiel.


Seit wann ist G80 350sqmm groß?
Ich spreche von Tahiti.

robbitop
2012-01-04, 15:42:19
Wenn es danach geht: Dank Tahiti hat nVidia die besten Chancen mit ihren Performance-Chip den von AMD zu schlagen. Nennst du das "hervorragend" aus Sicht von AMD? :confused:
NVs Performance Chip ist GK104. Und da muss sich zeigen, ob der Tahiti schlägt. Ich vermute eher nicht.

LovesuckZ
2012-01-04, 15:45:35
NVs Performance Chip ist GK104. Und da muss sich zeigen, ob der Tahiti schlägt. Ich vermute eher nicht.

GF114 kann bis auf Tessellation nur maximal mit der 6950 mithalten. Wenn GK104 20% auf die GTX580 packt, dann kämpft GK104 mit der 7970. Eine deutliche Verschlechterung bei AMD. Nämlich dort, wo Tahiti auftrumpft, interessiert es niemanden - und vorallem nVidia - ob AMD ihren Chip für $30 billiger fertigen kann.

Bucklew
2012-01-04, 15:48:19
Ein VRAM-Limit tritt nicht binär auf. (ja oder nein) Es tritt mit fließendem Übergang auf.
Um das n-fache des AA Grades steigt auch linear die Color- und Z-Buffergröße an.
Kann mal jemand Crysis @max @FullHD @8xAA die VRAM Size messen? Ich fresse nen Besen, wenn das unter 768 MiB ist.
Na dann viel Spaß biem nachprüfen.

Ist erst noch nachzuweisen, ob man da nicht schon z.T. durch VRAM gebremst wurde. Treiberoptimierungen sollten G80 auch profitieren lassen.
s.o.

Treiberoptimierungen werden GT200 eher profitierne lassen als G80.

Was meinst du mit optimierte Spiele? Crysis hat schon sehr viele Takte pro Pixel für Arithmetik und ist eigentlich noch immer sehr modern. Moderner als so manch anderes neues Spiel.
Crysis wurde natürlich für/auf G80 entwickelt, mangels GT200 Chips, die zur Entwicklung verfügbar waren.

Ich spreche von Tahiti.
GK104 wird ähnlich groß werden wie tahiti.

N0Thing
2012-01-04, 15:48:31
Das doch auch kein Wunder, solange so Benchmarks ala CoD4 drin sind:
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-gtx-280-sli/14/#abschnitt_call_of_duty_4

CPU-Limit ole!

Ein CPU-Limit bei einem Zuwachs für das SLI-System von 60-84%? Da erscheint es mir wahrscheinlicher, daßdie Anwendung nicht so gut von der Architektur profitiert.

robbitop
2012-01-04, 15:53:31
Die Argumentation kann man auch umdrehen, wenn man nicht vergisst dass AMD nur einen Performancechip geliefert hat ist das momentane Preisschild auch nicht gerechtfertigt. Die HD 5870 war auch wegen des guten Preis-/Leistungsverhältnisses so erfolgreich.
Aber gut, das Thema erledigt sich ja bald von selbst. Kann man nur für AMD hoffen dass sie den Preis so angesetzt haben weil sie können und nicht weil sie (aus welchen Gründen auch immer) müssen.
Im Moment ist Tahiti die schnellste Karte, darf also auch kosten. Aber wenn GK110 kommt, wird sie weniger kosten. Haut doch alles hin.

GF114 kann bis auf Tessellation nur maximal mit der 6950 mithalten. Wenn GK104 20% auf die GTX580 packt, dann kämpft GK104 mit der 7970. Eine deutliche Verschlechterung bei AMD. Nämlich dort, wo Tahiti auftrumpft, interessiert es niemanden - und vorallem nVidia - ob AMD ihren Chip für $30 billiger fertigen kann.
Man konnte in der Vergangenheit ja nur auftrumpfen, weil NVs Enthusiast GPUs für ihre Größe nicht soo schnell waren. Das war Glück.

robbitop
2012-01-04, 15:57:44
Na dann viel Spaß biem nachprüfen.

Besser als einfach irgendwelche Behauptungen aufzustellen. ;)



Treiberoptimierungen werden GT200 eher profitierne lassen als G80.
Sagst du so. Die Architektur ist die gleiche. Sämtliche Compilerverbesserungen uvm treffen auch den G80.

Schon allein die Rohleistungsdaten sprechen für keine Verdopplung. Weder Bandbreite noch aritmetische Leistung noch Texturleistung wurden verdoppelt. Wo soll es auch herkommen?
http://www.computerbase.de/artikel/grafikkarten/2008/test-nvidia-geforce-gtx-280-sli/2/#abschnitt_technische_daten


Crysis wurde natürlich für/auf G80 entwickelt, mangels GT200 Chips, die zur Entwicklung verfügbar waren.
Crysis wurde für einen spezifischen ASIC entwickelt? :|


GK104 wird ähnlich groß werden wie tahiti.

Eben. Er ist der Vergleichspartner.

Skysnake
2012-01-04, 16:04:29
Geh woanders spielen.
Was denn plötzlich so kleinlaut, wenn dich jemand an den Eiern packt.

Sorry, aber wer ne dicke Lippe riskiert brauch nichts weinen anfangen, wenn er was aufn Sack bekommt.

Mehr als Sprüche klopfen kommt von dir nämlich seit einiger Zeit nicht mehr.

boxleitnerb
2012-01-04, 16:08:35
Ein CPU-Limit bei einem Zuwachs für das SLI-System von 60-84%? Da erscheint es mir wahrscheinlicher, daßdie Anwendung nicht so gut von der Architektur profitiert.

Es gibt nicht "das" CPU-Limit. Das, was da gemessen wird, ist ein Mittelwert. Da kann trotzdem an einigen Szenen die CPU bremsen. SLI skaliert normalerweise mit 90-100%.

LovesuckZ
2012-01-04, 16:10:48
Man konnte in der Vergangenheit ja nur auftrumpfen, weil NVs Enthusiast GPUs für ihre Größe nicht soo schnell waren. Das war Glück.

Das sind nur Ausreden. Wenn nVidia bei 250 Watt 60% Leistung draufpackt, dann wird der Abstand zwischen nVidia und AMD wieder größer. Warum sollte also AMD nicht auch diese 60% gegenüber Cayman schaffen?

Eine GTX460 hat ein 65% besseres Perf/Watt Verhältnis als die GTX285. Der unterliegende Chip hat 39% mehr Transistoren und ist 24% kleiner. Und genauso wie Tahiti handelt es sich um eine vollkommen neue Architektur.

Tahiti leistet im "Graphics"-Bereich einfach viel zu wenig. Ich erwarte daher selbst für den Performance-Kepler-Chip mindesten das selbe Verhältnis zur GTX580.

Bucklew
2012-01-04, 16:12:14
Besser als einfach irgendwelche Behauptungen aufzustellen. ;)
Naja, du wolltest doch "beweisen", wie gering der Unterschied zwischen G80 und GT200 ist. Oder?

Sagst du so. Die Architektur ist die gleiche. Sämtliche Compilerverbesserungen uvm treffen auch den G80.
Stell dir vor: Man kann auch mehr als nur den Compiler verbessern!

Crysis wurde für einen spezifischen ASIC entwickelt? :|
Ja weißt du, die programmieren das einfach und testen das dann nicht, obs auf den entsprechenden Karten läuft. Wenn der Code compilt ist wird schon alles gut sein.

Oder testet man vielleicht schon während der Entwicklung, wie man möglichst effizenten Code für die einzelnen Chip programmiert?

Eben. Er ist der Vergleichspartner.
Und was sollen dann die blödsinnigen 500 oder 600mm²?

Was denn plötzlich so kleinlaut, wenn dich jemand an den Eiern packt.
Und du glaubst das stört die deutsche Eiche, wenn sich die Wildsau an ihr reibt?

Dein ganzes Gefasel spricht nunmal für sich. Aber ich meld mich dann, wenn es die Intel MIC gibt. Irgendwann 2013 ;D

M4xw0lf
2012-01-04, 16:17:40
GK104 wird ähnlich groß werden wie tahiti.

Nvidia muss aufholen was Transistoren/Fläche und Leistung/Fläche angeht, um mit GK104 mit Tahiti gleichzuziehen. Bei gleicher Chipgröße haben in den letzten Generationen durchgängig AMD/Ati-Karten mehr Leistung gehabt.

BTW: kann hier mal wieder kräftig durchgewischt werden? Ich bekomme Augenkrebs von dem Kleinkrieg hier.

aylano
2012-01-04, 16:18:53
In welchem weltlichen Kalender liegt Oktober 5 Monate hinter November? :confused:
9800 GTX kam nicht in Oktober raus.

http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8800-gt-sli/24/#abschnitt_performancerating
Wir können auch über die 8800 GT reden, welche beim Computerbase-Bench zwar 17% weniger Strom benötigt als die GTX8800, aber dafür in mittleren Auflösungen so 10% langsamer aber in hohen Auflösungen völlig einbricht
1600x1200 4xAA/16xAF .... -21%
und mit
D3D10 2560x1600 4xAA/16xAF ... -34%
sodass die Effizient des G92 da sogar ins negative driftet.

Natürlich geht in den hohen Auslösungen & Einstellungen der Speicher aus, aber andererseits bringt die Speicherbandbreite-Einsparung auch eine Stromverbrauchs-Einsparung, sodass es mit diesem G92 eigentlich noch schlimmer aussieht als mit GTX9800
a la mittlere Auflösungen: -17%-(-10%) = -7% enspricht somit nur eine Effizienz-Steigerung beim Shrink von ca. +10%

LovesuckZ
2012-01-04, 16:19:21
Nvidia muss aufholen was Transistoren/Fläche und Leistung/Fläche angeht, um mit GK104 mit Tahiti gleichzuziehen. Bei gleicher Chipgröße haben in den letzten Generationen durchgängig AMD/Ati-Karten mehr Leistung gehabt.

Und dafür macht nVidia mehr $/Fläche.

Und jetzt stellen wir uns vor, nVidia holt sogar noch auf. Dann wird wohl aus $/Fläche => $^2/(Fläche/2). :freak:

9800 GTX kam nicht in Oktober raus.

http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8800-gt-sli/24/#abschnitt_performancerating
Wir können auch über die 8800 GT reden, welche beim Computerbase-Bench zwar 17% weniger Strom benötigt als die GTX8800, aber dafür in mittleren Auflösungen so 10% langsamer aber in hohen Auflösungen völlig einbricht
1600x1200 4xAA/16xAF .... -21%
und mit
D3D10 2560x1600 4xAA/16xAF ... -34%
sodass die Effizient des G92 da sogar ins negative driftet.

Natürlich geht in den hohen Auslösungen & Einstellungen der Speicher aus, aber andererseits bringt die Speicherbandbreite-Einsparung auch eine Stromverbrauchs-Einsparung, sodass es mit diesem G92 eigentlich noch schlimmer aussieht als mit GTX9800
a la mittlere Auflösungen: -17%-(-10%) = -7% enspricht somit nur eine Effizienz-Steigerung beim Shrink von ca. +10%

Aha. 9800GTX. Und was wurde auf den 8800GT und 8800GTS Karten verbaut? Achja stimmt, Leibniz-Kekse.
Die Effizienz von G92 spielt hier nichts zu Sache. G92 war des Weiteren effizienter als AMD's 55nm GPUs. Daher, so What.

Bucklew
2012-01-04, 16:21:02
Nvidia muss aufholen was Transistoren/Fläche und Leistung/Fläche angeht, um mit GK104 mit Tahiti gleichzuziehen. Bei gleicher Chipgröße haben in den letzten Generationen durchgängig AMD/Ati-Karten mehr Leistung gehabt.
Genau deswegen hat man ja auch an diesem Punkt angesetzt. Und genua deswegen hat man auch die Designwins bei IvyBridge.

M4xw0lf
2012-01-04, 16:21:15
Und dafür macht nVidia mehr $/Fläche.

Was hat das jetzt mit der Leistung von GK104 im Vergleich zu Tahiti zu tun? Gleiche Fläche heißt nach bisheriger Erfahrung Vorteil für AMD.

Genau deswegen hat man ja auch an diesem Punkt angesetzt. Und genua deswegen hat man auch die Designwins bei IvyBridge.

Na das muss sich erst noch beweisen. Ich weiß ihr zwei (LZ und du) seht das anders, aber mir reichen Huangs blumige Versprechen nicht, um das zu glauben.

robbitop
2012-01-04, 16:23:41
Stell dir vor: Man kann auch mehr als nur den Compiler verbessern!
Deswegen schriebtich "uvm" (und vieles mehr). Es macht aufgrund von Architekturgleichheit gar keinen Sinn, wenn die Treiberverbesserungen nicht auch G80 treffen.
Die Performanceverbesserungen habe ich bei meinem G80 bis vor nem Jahr noch gut mitbekommen. (dann folgte der Tausch auf eine GTX470)


Ja weißt du, die programmieren das einfach und testen das dann nicht, obs auf den entsprechenden Karten läuft. Wenn der Code compilt ist wird schon alles gut sein.

Oder testet man vielleicht schon während der Entwicklung, wie man möglichst effizenten Code für die einzelnen Chip programmiert?
Das hat doch aber nichts mit GT200 zu tun. Das Spiel hält sich an Direct3D Standards. Natürlich gibts eine QA, die überprüft, ob das Spiel auf den damals vorhandenen GPUs läuft. Das sagt aber nichts über das TEX:ALU Verhältnis oder ähnliches aus. Da muss nichts für GT200 optimiert sein.
Was das ALU:TEX Verhältnis bzw. die Aufwändigkeit der aritmetischen Berechnungen pro Pixel angeht, ist Crysis mit Neuerscheinungen absolut vergleichbar.


Und was sollen dann die blödsinnigen 500 oder 600mm²?
Seit G80 hat NV Enthusiast GPUs mit wahnwitzig hohen Transistorzahlen und Kernflächen. Klar, dass man da mehr Performance holen kann.
Tahiti hat 350 sqmm Kernfläche. Dafür ist die Performance nicht schlecht. Mehr steckte hinter der Aussage nicht.

LovesuckZ
2012-01-04, 16:26:08
Was hat das jetzt mit der Leistung von GK104 im Vergleich zu Tahiti zu tun? Gleiche Fläche heißt nach bisheriger Erfahrung Vorteil für AMD.

Denk scharf nach: Wenn nVidia heute schon mehr $/Fläche verdient, dann müssen sie nicht aufholen. Wenn sie sich dann sogar noch verbessern, wird sich auch dieses Verhältnis deutlich verbessern. Daher sollte man nicht mit irgendwelchen Verhältnissen spielen.


Na das muss sich erst noch beweisen. Ich weiß ihr zwei (LZ und du) seht das anders, aber mir reichen Huangs blumige Versprechen nicht, um das zu glauben.

Sagen wir mal so: Huang ist glaubwürdiger als du. Das du an den Aussagen nicht glaubst - nunja. Früher haben die Menschen auch nicht an Sachen geglaubt, die heute als Realität akzeptiert werden. :)

M4xw0lf
2012-01-04, 16:29:33
Denk scharf nach: Wenn nVidia heute schon mehr $/Fläche verdient, dann müssen sie nicht aufholen. Wenn sie sich dann sogar noch verbessern, wird sich auch dieses Verhältnis deutlich verbessern. Daher sollte man nicht mit irgendwelchen Verhältnissen spielen.

Das ändert nichts daran, dass ich von der Leistung von Tahiti vs. GK104 spreche und du konsequent nicht.

Bucklew
2012-01-04, 16:32:40
Na das muss sich erst noch beweisen. Ich weiß ihr zwei (LZ und du) seht das anders, aber mir reichen Huangs blumige Versprechen nicht, um das zu glauben.
Bewiesen haben das defakto die OEMs. Da kann auch ein Charlie noch so oft irgendwelchen Bullshit über Preisnachlässe von nvidia erzählen.

Deswegen schriebtich "uvm" (und vieles mehr). Es macht aufgrund von Architekturgleichheit gar keinen Sinn, wenn die Treiberverbesserungen nicht auch G80 treffen.
Jein. Es wird sicherlich Verbesserungen geben, die AUCH G80 treffen, es wird aber sicherlich auch welche geben, die nur GT200 betreffen. Oder da stärkere Auswirkungen haben.

Das hat doch aber nichts mit GT200 zu tun. Das Spiel hält sich an Direct3D Standards. Natürlich gibts eine QA, die überprüft, ob das Spiel auf den damals vorhandenen GPUs läuft. Das sagt aber nichts über das TEX:ALU Verhältnis oder ähnliches aus. Da muss nichts für GT200 optimiert sein.
Was das ALU:TEX Verhältnis bzw. die Aufwändigkeit der aritmetischen Berechnungen pro Pixel angeht, ist Crysis mit Neuerscheinungen absolut vergleichbar.
Du redest von sehr generischem Code. Damit holst du dann (ohne großes Testen) die bekannten 70-80% raus. Die danach folgenden 20-30% (und das ist es ja auch, was die Treiberupdates anpacken) holt man durch viel Handarbeit und viel Optimierung raus. Und da unterscheidet sich ein GT200 dann doch stärker von einem G80, als das auf den ersten Blick der Fall ist.

Seit G80 hat NV Enthusiast GPUs mit wahnwitzig hohen Transistorzahlen und Kernflächen. Klar, dass man da mehr Performance holen kann.
Tahiti hat 350 sqmm Kernfläche. Dafür ist die Performance nicht schlecht. Mehr steckte hinter der Aussage nicht.
Deswegen reden wir ja nicht von der Enthusiast GPU, sondern von der Performance GPU, die schätzungsweise zuerst kommt und in der Größenordnung von Tahiti liegt.

Duplex
2012-01-04, 16:33:11
AMDs Gewinn in der GPU Sparte beträgt vom Umsatz nichtmal 3%, nvidia hat viel größere DIEs und verdient viel viel mehr als AMDs GPU Sparte.

LovesuckZ
2012-01-04, 16:33:36
Das ändert nichts daran, dass ich von der Leistung von Tahiti vs. GK104 spreche und du konsequent nicht.

Wir reden hier nur von der Leistung von Tahiti vs. GK104. Und nVidia verdient schon heute mehr Geld bei schlechteren Verhältnissen mit ihren Geforce-Produkten. Du siehst, sie müssen sich überhaupt nicht bessern. Aber wenn sie es tun, dann verdienen sogar noch mehr Geld.

Skysnake
2012-01-04, 16:37:51
Das sind nur Ausreden. Wenn nVidia bei 250 Watt 60% Leistung draufpackt, dann wird der Abstand zwischen nVidia und AMD wieder größer. Warum sollte also AMD nicht auch diese 60% gegenüber Cayman schaffen?

Eine GTX460 hat ein 65% besseres Perf/Watt Verhältnis als die GTX285. Der unterliegende Chip hat 39% mehr Transistoren und ist 24% kleiner. Und genauso wie Tahiti handelt es sich um eine vollkommen neue Architektur.

Tahiti leistet im "Graphics"-Bereich einfach viel zu wenig. Ich erwarte daher selbst für den Performance-Kepler-Chip mindesten das selbe Verhältnis zur GTX580.
das wäre aber wohl deutlich schlechter als das was dein Huang ablässt. Entscheid dich mal was du für wahr hälst.

@buck: Die deutsche Eiche zieht aber nicht kleinlaut den Schwanz ein und fängt fast das Heulen an, wenn mal leicht angeschupst wird. Die vermeintlich starke Eiche scheint wohl eher innen faul und hohl zu sein ;D

robbitop
2012-01-04, 16:39:05
Jein. Es wird sicherlich Verbesserungen geben, die AUCH G80 treffen, es wird aber sicherlich auch welche geben, die nur GT200 betreffen. Oder da stärkere Auswirkungen haben.
Glauben heißt nicht wissen. Keiner von uns beiden hat beide Karten, um das nochmal nachzustellen. Legen wir diesen Punkt bei. Vieleicht hat GT200 ein paar % bekommen, die G80 nicht bekam. Ich kann aus eigener Erfahrung mit der GPU sagen, dass G80 sehr lange und insgesamt einiges an Treiberperformanceverbesserung bekam (war ja damals auch eine frische µ-Arch).


Du redest von sehr generischem Code. Damit holst du dann (ohne großes Testen) die bekannten 70-80% raus. Die danach folgenden 20-30% (und das ist es ja auch, was die Treiberupdates anpacken) holt man durch viel Handarbeit und viel Optimierung raus. Und da unterscheidet sich ein GT200 dann doch stärker von einem G80, als das auf den ersten Blick der Fall ist.

Wenn ein Spiel für eine spezielle GPU optimiert wäre (und das ist Crysis nicht) - dann wäre es Cherry Picking. Ergo irrelevant.
Es gilt für einen Vergleich der Durchschnitt. Ohne spezifische Optimierungen.

Aber mal ehrlich: Wo soll Faktor 2 GT200 vs G80 herkommen? Nochmal: Kein Einzelbereich der Rohleistung (oder Bandbreite) hat sich verdoppelt. ;)
Und es war die gleiche Architektur.

Ich werde versuchen, heute Abend Cryis mit FullHD und AA den Speicherverbrauch zu messen. Wenn der >768 MiB ist, kannst du selbst die 81 % vergessen und es sind dann eher 60...70 %.


Deswegen reden wir ja nicht von der Enthusiast GPU, sondern von der Performance GPU, die schätzungsweise zuerst kommt und in der Größenordnung von Tahiti liegt.
Genau. Da liegen wir auf einer Welle.
Es ist schlicht Schwachsinn, Tahiti schlechtzureden, weil ein Produkt oberhalb seiner Liga möglicherweise schneller ist.
Er wäre schlecht, wenn das Konkurrenzprodukt aus der gleichen Liga besser wäre.

AnarchX
2012-01-04, 16:45:03
Skysnake und besonders Bucklew mäßigt euren Diskussionstil, sonst wird es bald Karten geben.
Und allen Diskussionsteilnehmern wird angeraten sich möglichst sachlich zu verhalten und persönliche Angriffe zu unterlassen.

Skysnake
2012-01-04, 16:50:39
immer gern, nur wenn man seit zich Seiten dumm von der Seite angemacht wird, dann muss man jemanden auch mal wieder aufn Bode holen, auch wenn das normal nicht meine Art ist.

Btt:
GK104 soll aber nach den Gerüchten langsamer werden als Tahiti Xt, welchen ihr mehr oder weniger als Flop darstellt, was ist dann GK104, der ja ähnlich groß werden soll.

Das macht keinen Sinn was ihr erzählt.

aylano
2012-01-04, 16:51:33
Genau das Gegenteil ist aber zu erwarten. Im GPGPU Markt steht nVidia sehr stark unter Druck. AMD steigt erstmals mit einer echten Alternative zu den Tesla-Karten ein, und Intel bringt mit MIC das dicke Schlachtschiff in Stellung, das beide wenns dumm läuft mit einem Treffer ins Jenseitskatapultiert (bischen dramatisiert ;))

Ich wäre vorsichtig mit Produkten, die glaub-ich schon für 2008 angekündigt wurden.
Dazu kann Nvidia sehr wohl mehr Geld als heute im HPC-Markt verdienen, auch wenn wenn wenn MIC gleichgut bzw. besser wäre als Kepler, da eben der GPGPU-HPC-Markt eben generell im Steigen ist und Nvidia im Gegensatz zu Intel keine Server-CPU-Anbietet, wo MICs & GPUs diese teils ersetzen.

Aha. 9800GTX. Und was wurde auf den 8800GT und 8800GTS Karten verbaut? Achja stimmt, Leibniz-Kekse.
Die Effizienz von G92 spielt hier nichts zu Sache.

Es geht um die Effizienz-Entwicklung von GTX8800 --> G92, was ein Shrink entspricht.
Und bei Shrinks sind Effizienz-Steigerung nicht unwichtig, vorallem wenn man sich jetzt so viel durch die 28nm-Fertigung erwartet.


G92 war des Weiteren effizienter als AMD's 55nm GPUs. Daher, so What.
Das war nicht das Thema.
Das G92 auch schon damals erst 5 Monate später ausgereift rausbrachte, (sonst hätte Nvidia ja gleich 8800 GTS als 9800 GTX bezeichnet und den Preis mehr dem 8800GT angeglichen) wollte ich nur anmerken.

Damals war das noch egal.