PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

M4xw0lf
2012-01-22, 16:58:21
Und was, wenn GK104 knapp hinter Tahiti XT liegt? Und GK104x2 dann hinter der 7990? Das wäre untypisch für Nvidia.

Na die GTX590 liegt auch schon nur gleich auf mit der HD 6990. Das ist ja auch nicht eine Frage des "typisch oder nicht", sondern der technischen Machbarkeit.

boxleitnerb
2012-01-22, 17:05:35
Bloß:
Wenn Kepler so toll ist was Perf/W angeht, sollte es kein Problem sein, die XT bei 250W einzustampfen. Und der 7990 deutlich davonzuziehen.

M4xw0lf
2012-01-22, 17:06:23
Ja, wenn.

PCGH_Carsten
2012-01-22, 17:08:06
Wo verdient denn Nvidia das meiste Geld, aktuell aber besonders auch die projizierte Zukunft? Würde es nicht sinnvoll sein, genau hierauf zu optimieren, auch wenn die SGPU-Performance-Krone dabei flöten geht? Klar, man schwingt gern den längsten 3DMark-Balken vor sich her, aber vom rein geschäftlichen Standpunkt aus betrachtet sind fette Verkäufe in Segmenten mit hohen Gewinnspannen sicherlich interessanter; HPC und Mobile - beide extrem energiesensitiv, während der Enthusiast-Gamers das ja nicht unbedingt ist.

Bucklew
2012-01-22, 17:14:59
Wo verdient denn Nvidia das meiste Geld, aktuell aber besonders auch die projizierte Zukunft?
Quadro/Tesla. Eventuell bald Tegra. GeForce hat zwar hohen Umsatz, das sind aber vorallem die kleinen Chips.

boxleitnerb
2012-01-22, 17:19:54
Aber war bisher nicht immer argumentiert worden, dass eine extra SKU für Quadro/Tesla nicht lohnt und man diese mit dem Desktop querfinanzieren muss/will? Was spricht denn dagegen, die GK110 Chips nicht auch auf dem Desktop anzubieten statt für vielleicht 100k Chips ein eigenes Design zu machen?

PCGH_Carsten
2012-01-22, 17:32:49
Ich gehe jetzt mal von Charlies „GK110 is 2x GK104“ aus - und davon, dass es im eine seiner Quellen so zugetragen hat. Oft sind solche Orakelsprüche aus Industriequellen zwar richtig, aber ziemlich interpretationsbedürftig und das geht bekanntlich meist auf unterschiedliche Art.

Rein hypothetisch gesprochen kann 2x GK104 auch durchaus die DP-Leistung meinen. Wenn GK104 also als Gamer-Chip eine ähnliche Aufteilung hätte wie GF104/b, also 1/3 theoretische DP-Leistung (die Geforce-Beschneidung jetzt mal außen vor) und GK110 mit dem selben Aufbau, aber in zwei der drei SMs DP-Fähigkeiten hätte sowie einen breiteren Speicherbus, wäre er für das Einsatzgebiet HPC „2x GK104“, dem Spieler würde allerdings höchstens die gesteigerte Bandbreite etwas bringen.

Skysnake
2012-01-22, 17:35:25
Wenn man jetzt davon ausgeht, dass GK104 ein auf Gaming ausgelegter Chip ohne großartigen HPC-Kram ist, wäre es dann nicht möglich, dass man den GK110 quasi zum HPC-Only, also nur Quadro macht und sich beim High-End-Segment für den Gamer-Markt dann dem doppelten GK104 als Zweichip-Lösung bedient? Sozusagen zweigleisig fahren mit dem GK104 nur für Desktop und Gaming und dem GK110 als Arbeitsstier für Server und Workstations. Würde einem ein wenig den Spagat ersparen Chips zu entwickeln, die beides gut können - ist auf der anderen Seite natürlich auch mehr Arbeit...

boxleitnerb hats ja schon richtig erfasst. Ein extra design kannste nicht machen. Dafür sind die Stückzahlen einfach zu gering. Ihr vergesst da immer die Fixkosten durch die Entwicklung, die sehr sehr hoch sind. Man braucht einfach die Stückzahlen aus dem gamer-markt.

Zudem sind gamer recht.leicht zufrieden zu stellen. Einfach etwas schneller als in der Generation davor, egal wie und wenns mit der Brechstange sein muss. Konkurrenz hat man ja eh nur vom direkten Konkurrenten, der vor ähnlicuen Problemen steht. Im HPC Geschäft muss man aber aufh mit CPUs, FPGAs etc konkurieren.
Natürlich wirds ne GeForce mit Gk110 geben. Und nein, der ist nicht einfach nur 2xGK104 sondern ein ganz anderer Chip.

Mein Gott denkt doch mal 2 Sekunden nach :rolleyes:
Und was ist die Grundlage für deine Sicherheit?

FPGAs gibt es inzwischen in dieser Art, und werden da kein Stück einfacher sein. Als ne GPU.

Sunrise
2012-01-22, 17:39:17
Aber war bisher nicht immer argumentiert worden, dass eine extra SKU für Quadro/Tesla nicht lohnt und man diese mit dem Desktop querfinanzieren muss/will? Was spricht denn dagegen, die GK110 Chips nicht auch auf dem Desktop anzubieten statt für vielleicht 100k Chips ein eigenes Design zu machen?
Da sich die Stückzahlen von "HPC-Designs" (Fermi fällt da ja schon irgendwie drunter) logischerweise wohl immer mehr Richtung Quadro/Tesla bewegen (dort macht man die höchste Marge) ergibt es IMHO Sinn, auch darauf anzupassen und den Desktop dann mit aggressiver getakteten ASICs zu versorgen, wo man nicht diese sensitiven TDP-Limits hat (Carsten sprach es ja schon an).

GK110 hat aufgrund dieser Ausrichtung auch mehr Platz (Die Size) und man kann dann natürlich stärker auf HPC-Aspekte eingehen, da die Preise ohnehin gezahlt werden, sofern die Leistung und die TDP in guter Relation stehen.

Das eine (perf/watt) muss das andere ja auch nicht ausschließen. Nur erwarte ich von GK110 etwas größere Caches, mehr Logik usw. da dieser ja auch möglichst wenig Flaschenhälse aufweisen sollte (sustained throughput). Im Consumer-Bereich hat man keine andere Wahl, da hier eben einer der Hauptaspekte der Preis ist. Und da sollte man möglichst mit niedriger BOM produzieren können.

Ich teile da also auch deine Einschätzung. Wir wissen über Kepler aber derzeit zuwenig, als dass uns das irgendwie weiterhilft.

AnarchX
2012-01-22, 17:50:25
Das wäre extrem überraschend für mich, in mehrerer Hinsicht. Vor allem aber auch im Hinblick auf Ailuros' Aussagen. Das Ding würde regelrecht alles in den Boden stampfen, wenn GK104 bereits so schnell ist, wie prognostiziert.
Nicht wenn es bei den restlichen Einheiten keinen Faktor 2 gibt.

Zum Beispiel:
GK104 - 16SMs (je 8* TMUs, 96SPs), 4 GPCs
GK110 - 24SMs (je 4 TMUs, 128SPs), 6 GPCs

*wobei 64TMUs@>1GHz auch reichen könnte um Tahiti XT in 3D-Avg zu erreichen

Bucklew
2012-01-22, 18:06:32
Und was ist die Grundlage für deine Sicherheit?
Mein Wissen.

FPGAs gibt es inzwischen in dieser Art, und werden da kein Stück einfacher sein. Als ne GPU.
In der Synchronisierung eben doch. Sonst müssten wir uns nicht mit Krücken ala AFR rumschlagen.

Sunrise
2012-01-22, 18:19:52
Nicht wenn es bei den restlichen Einheiten keinen Faktor 2 gibt.
Ja, ok, da können wir uns gerne treffen. Ergibt auch hinsichtlich HPC mehr Sinn.

Coda
2012-01-22, 18:20:41
In der Synchronisierung eben doch. Sonst müssten wir uns nicht mit Krücken ala AFR rumschlagen.
Es gibt Multi-GPU per Silicon Interposer? Hab ich was verpasst?

Skysnake
2012-01-22, 18:20:50
Mein Wissen.


In der Synchronisierung eben doch. Sonst müssten wir uns nicht mit Krücken ala AFR rumschlagen.

Ähm... Dir ist schon der Unterschied bzgl Laufzeiten, Linkbreiten etc. beim Vergleich Interposer vs. Multi-Package bekannt?

Du weißt schon woher viele der Latenzen kommen bei solchen Sachen oder?

Ich gehe jetzt mal von Charlies „GK110 is 2x GK104“ aus - und davon, dass es im eine seiner Quellen so zugetragen hat. Oft sind solche Orakelsprüche aus Industriequellen zwar richtig, aber ziemlich interpretationsbedürftig und das geht bekanntlich meist auf unterschiedliche Art.

Rein hypothetisch gesprochen kann 2x GK104 auch durchaus die DP-Leistung meinen. Wenn GK104 also als Gamer-Chip eine ähnliche Aufteilung hätte wie GF104/b, also 1/3 theoretische DP-Leistung (die Geforce-Beschneidung jetzt mal außen vor) und GK110 mit dem selben Aufbau, aber in zwei der drei SMs DP-Fähigkeiten hätte sowie einen breiteren Speicherbus, wäre er für das Einsatzgebiet HPC „2x GK104“, dem Spieler würde allerdings höchstens die gesteigerte Bandbreite etwas bringen.
Das macht für mich gerade keinen Sinn, vielleicht verstehe ich dich aber auch nicht. GK1x0 wird garantiert nicht unter 1:2 DP:SP Ratio haben. Alles andere wäre ein gewaltiger Rückschritt, für den es wirklich sehr sehr sehr sehr gute Gründe geben müsste.

Aber wie gesagt, vielleicht habe ich dich auch falsch verstanden, zumal ich die SAche mit dem SMs eh nicht schnall. Die sind nämlich homogen. :ugly:

Wenn unterscheiden Sie sich eher in der größe der Caches, größe des Front-Ends, breite des SI und eben wie viele ALUs in einen SM gepackt werden, was natürlich die anderen Dinge mit beeinflusst.

PCGH_Carsten
2012-01-22, 18:36:22
Die Ratio ist doch wurst - was hinten rauskommt zählt. Du würdest ja auch keinen Chip ablehnen, welcher statt 1.544 nur noch 1.250 MHz hat - auch wenn die Endleistung aus bestimmten Gründen trotzdem doppelt so hoch ist, oder?

Zumindest im GF104/b sind sie - soweit ich weiß - eben nicht homogen.

Bucklew
2012-01-22, 18:42:23
Ähm... Dir ist schon der Unterschied bzgl Laufzeiten, Linkbreiten etc. beim Vergleich Interposer vs. Multi-Package bekannt?

Du weißt schon woher viele der Latenzen kommen bei solchen Sachen oder?
Und wo bleiben dann diese Multi-GPU-Systeme? AMD erzählt das jetzt seit Jahren und mehr als AFR gibbet net.

boxleitnerb
2012-01-22, 19:02:12
OBR macht sich echt zum Clown:

PS. Previously published specifications of GK104 here are complete bullshit :) :) Enjoy your day, as me :) First real leaks will be after the end of Chinese New Year celebration, stay tuned ...

Und:

The first card with Kepler literally crush the Radeon HD 7970, including the OC version!

Hübie
2012-01-22, 19:13:40
Und wo bleiben dann diese Multi-GPU-Systeme? AMD erzählt das jetzt seit Jahren und mehr als AFR gibbet net.


Vor 5 Jahren sprach AMD auch schon von sich abschaltenden Kernen und/oder Teilbereiche welche schlafen gelegt werden. Und wie du siehst kam es erst 2012 (und dann auch noch softwareverbuggt)! AMDs Mühlen mahlen laaaaaangsaaaaam :rolleyes: Es kommt. Nur wann und wie steht in den Sternen. nVidia hatte afaik auch mal in einem Interview sowas verlautbaren lassen. GT200-Zeiten waren das wohl.

Ich bin leider nicht schlau genug um passende Stichworte für die googlesuche zusammen zu fassen :freak:

@box: Das du die Zeit noch verplämperst wundert mich ehrlich gesagt. Hast du Urlaub oder so? :redface:

boxleitnerb
2012-01-22, 19:15:02
Du meinst bei S|A? Wochenende ;)

Schaffe89
2012-01-22, 19:21:10
Also GK104 Launch am 01.4.2012 mit einer Performance die 60% besser ist als die der GTX 580, also nochmal 10 bis 15% schneller als die OC HD7970..hmm.. ja sehr wahrscheinlich OBR. :D

PCGH_Carsten
2012-01-22, 19:46:29
Am 1.4. ist alles möglich. ;)

V2.0
2012-01-22, 19:57:41
Ich würde mich mit dem Gedanken anfreunden, dass Charlie und OBR dieses Mal noch nichts genaues wissen. Wobei OBR in einem extrem unwahrscheinlichen Falle, und wenn man GK104 gegen einen anderen Codenamen ersetzt, Recht haben könnte.

y33H@
2012-01-22, 20:20:49
Bei Bulldozer haben ihn auch alle verflucht ... und er behielt fast durchweg Recht.

Ich guck mir die ganzen Leaks und alles einfach an, denk mir meinen Teil und nach dem Release schaue ich dann, wer richtig lag :biggrin:

Mancko
2012-01-22, 21:54:56
Bei Bulldozer haben ihn auch alle verflucht ... und er behielt fast durchweg Recht.

Ich guck mir die ganzen Leaks und alles einfach an, denk mir meinen Teil und nach dem Release schaue ich dann, wer richtig lag :biggrin:

Die Strategie ist immer gut :)

Ich lehne mich jetzt mal aus dem Fenster und setzte darauf, dass Nvidia am Ende vorne liegen wird. Die Chancen dafür sind 50/50, wobei die von AMD vorgelegte Hürde nicht so wahnsinnig groß ist. Mich überzeugt die HD7970 einfach nicht genügend im Vergleich zu dem was schon erhältlich war.

boxleitnerb
2012-01-22, 22:03:45
Wenn Nvidia einen GK100/110 bringt, dann werden sie vorne liegen, ohne wenn und aber. Belassen sie es bei GK104 bzw. GK104x2, wird es bei sehr fordernden Settings und Surround Gaming wohl nicht durchgehend reichen gegen Tahiti XT.

Sollte es wirklich so kommen, frage ich mich, auf was die 480/580 bzw. SLI-Besitzer aufrüsten sollen. Für 30% macht das doch keiner.

Ronny145
2012-01-22, 22:03:49
Kepler is coming in April,
the info being released in February was old and was planed in July 2011.
First batch will be a High and Mid range card so the GTX680 and the GTX670 the GTX660 will follow a month later.
The problem is NVIDIA had some problems with PCIE 3 and had to revision the chip.So it is coming april you will see, I'ts in an official NVIDIA document.
It's from the official NVIDIA Czech office, they know better than HardOCP.
They also said that the February information was leaked (the old roadmap for kepler) to some Chinese company which started to spread this false date.
http://forum.wmdportal.com/showthread.php?2384-560-or-560-Ti


Ein paar Tage alt die Beiträge.

boxleitnerb
2012-01-22, 22:06:59
Du bist auch in jedem Forum registriert, was? :D

Gut zu lesen. Die ärgern sich bestimmt, wegen sowas Trivialem 2 Monate Verspätung zu haben.

Ronny145
2012-01-22, 22:09:55
Du bist auch in jedem Forum registriert, was? :D



Project CARS Member bin ich schon länger.

V2.0
2012-01-23, 06:52:26
http://forum.wmdportal.com/showthread.php?2384-560-or-560-Ti
Ein paar Tage alt die Beiträge.

Was kommt Anfang April mit PCIe 3.0...... wo hatte NV Design-Wins...was spricht also für eine Verzögerung auf NV Seite....

Hübie
2012-01-23, 07:47:18
Hrhr... Ein Schlingel wer hier pöhses denkt! X-D

Skysnake
2012-01-23, 08:55:10
Ich halte es eher für wahrscheinlich, das nVidia sich mit den "Design-Wins" für den Mobilbereich einfach übernommen hat, weil TSMC nicht liefern kann und somit die ganzen Ressourcen/Wafer für die Mobil-Chips herhalten müssen, um die Verpflichtungen gegenüber den OEMs zu erfüllen. Da wird eventuell einfach kein Platz für eine Desktop-Karte sein. Bringt ja nichts, wenn man nur winzige Stückzahlen hat. Da dann doch lieber die Zeit nutzen, die man gezwungener maßen hat, um den Chip weiter zu verbessern.

Ailuros
2012-01-23, 10:47:18
http://forum.wmdportal.com/showthread.php?2384-560-or-560-Ti


Ein paar Tage alt die Beiträge.

Na es wurde so langsam Zeit dass es jemand erwaehnt.

------------------------------------------------

Carsten,

Wenn Charlie den Gk110=2*104 auch wirklich ernst meint dann beruht es nirgends auf zuverlaessigen Informationen oder Dokumentation.

Ich halte es eher für wahrscheinlich, das nVidia sich mit den "Design-Wins" für den Mobilbereich einfach übernommen hat, weil TSMC nicht liefern kann und somit die ganzen Ressourcen/Wafer für die Mobil-Chips herhalten müssen, um die Verpflichtungen gegenüber den OEMs zu erfüllen. Da wird eventuell einfach kein Platz für eine Desktop-Karte sein. Bringt ja nichts, wenn man nur winzige Stückzahlen hat. Da dann doch lieber die Zeit nutzen, die man gezwungener maßen hat, um den Chip weiter zu verbessern.

Siehe Ronnys vorigen Beitrag; Gk104 braucht A2 um den PCIe3.0 bug zu entfernen. Der originale Plan war stets die groesstmoegliche Pallette an Kepler chip-Varianten fuer den ivy bridge launch zu haben und am meisten GK104 der das eigentliche "high end" fuer das mobile Zeug sein wird. Februar desktop war nicht moeglich aus vorerwaehntem Grund, ergo wenn moeglich wird 104/desktop noch ein paar Wochen vor ivy bridge erscheinen damit der ivy bridge launch auch mit einem gewissen "halo" mit sich kommt.

Und Deine These ist zwar schoen und gut, aber da Intel diesmal um einiges aggressiver ist mit Grafik-leistung im ivy bridge wuerde ich mich auch eher auf eine Intel Konkurrenz konzentrieren mit N Verkaufszahlen der sehr breiten Masse als AMD's fruehen Tahiti-launch fuer ein paar dutzend tausende Exemplare die mit sehr hohen Preisen zwar sofort ausverkauft sind aber auch nicht gerade irgend welchen "Laden" ueberfluten. Wenn Du jetzt die eine Quantitaet gegen die andere vergleichen willst, gerne, aber man braucht um einiges mehr Kapazitaeten so viele IB design wins zu fuettern als ein dutzend GPUs pro retailer pro Land pro Schub. AMD hat uebrigens auch andere 28nm Verpflichtungen ausserhalb Tahiti.

Mal ganz grob vereinfacht der eine IHV war so bloed die Spannung nicht richtig hinzubekommen und der andere PCIe3.0. NVIDIA ist uebrigens tatsaechlich wieder in Apple Macs drin. Du kannst ja mal sicherheitshalber herumfragen wie "nachlaessig" Apple's Vertraege sind wenn jemand mal nicht liefern kann so wie versprochen.

Skysnake
2012-01-23, 11:11:45
Und Deine These ist zwar schoen und gut, aber da Intel diesmal um einiges aggressiver ist mit Grafik-leistung im ivy bridge wuerde ich mich auch eher auf eine Intel Konkurrenz konzentrieren mit N Verkaufszahlen der sehr breiten Masse als AMD's fruehen Tahiti-launch fuer ein paar dutzend tausende Exemplare die mit sehr hohen Preisen zwar sofort ausverkauft sind aber auch nicht gerade irgend welchen "Laden" ueberfluten.
irgendwie erschließt sich mir gerde der Sinn nicht. Fehlt da irgendwo nen Wort dazwischen? :freak:

Ja, IB wird mehr iGPU Leistung haben. Das ist doch aber klar oder?

Die Ultrabooks kommen ja ohne dezidierte GPU daher. Also da setzt nvidia wohl nichts ab. Dafür ist die Leistungsaufnahme zu beschränkt und IBs iGPU wohl zu gut.

Der Zusammenhang IB Tahiti XT und was das für Kepler bedeutet ist mir nicht klar.

Ja. nVidia hatl viele Design-Wins (was mit btw. etwas verwundert, da die IB iGPU ja wohl deutlich besser nutzbar sein wird, als die von SB. Hab daher eher mit einem Rückgang gerechnet. Man muss ja immer sehr aufs Powerbudget achten im Mobile Bereich. Da muss Kepler also wohl ziemlich fett reinhauen). Diesbezüglich hab ich ja aber auch schon erwähnt gehabt, das man da wohl auch einfach zu wenig Kapazitäten hat von TSMC, und daher mit den Mobile-Chips genug zu tun haben wird. Die Sache mit PCI-E 3.0 ist natürlich auch ein totschlag argument. Wenn das nicht funktioniert brauchen Sie Kepler eigentlich nicht launchen, wobei im Desktop/Gamer Markt würde er sich wahrscheinlich dennoch verkaufen, so lange es noch als 2.0 funktioniert :ugly:

Und bzgl. Apple. Da muss ich mich nicht informieren, das ist mir bereits bekannt. Das unterstützt dann auch die Vermutung zu dem Punkt mit geringen Kapazitäten bei TSMC und dem Vorrang von OEM Ware. Denn Apple versteht da keinen Spaß....

AwesomeSauce
2012-01-23, 11:15:47
Da verbaut man >3 Mrd. Transistoren und muss A2 nachschieben wegen des Interfaces :freak: Als netten Nebeneffekt könnte man aber auch die Taktrate weiter erhöhen, oder halt das Übertaktungspotential steigern.

Bucklew
2012-01-23, 11:18:06
Die Ultrabooks kommen ja ohne dezidierte GPU daher. Also da setzt nvidia wohl nichts ab. Dafür ist die Leistungsaufnahme zu beschränkt und IBs iGPU wohl zu gut.
Quatsch:
http://news.softpedia.com/news/Lenovo-ThinkPad-T430u-Ultrabook-Packs-Nvidia-Discrete-Graphics-244583.shtml

Gibt durchaus die Möglichkeit in die Ultrabooks eine dedizierte GPU zu kriegen.

PCGH_Carsten
2012-01-23, 11:24:24
Carsten,

Wenn Charlie den Gk110=2*104 auch wirklich ernst meint dann beruht es nirgends auf zuverlaessigen Informationen oder Dokumentation.



Siehe Ronnys vorigen Beitrag; Gk104 braucht A2 um den PCIe3.0 bug zu entfernen. Der originale Plan war stets die groesstmoegliche Pallette an Kepler chip-Varianten fuer den ivy bridge launch zu haben und am meisten GK104 der das eigentliche "high end" fuer das mobile Zeug sein wird. Februar desktop war nicht moeglich aus vorerwaehntem Grund, ergo wenn moeglich wird 104/desktop noch ein paar Wochen vor ivy bridge erscheinen damit der ivy bridge launch auch mit einem gewissen "halo" mit sich kommt.

Und Deine These ist zwar schoen und gut, aber da Intel diesmal um einiges aggressiver ist mit Grafik-leistung im ivy bridge wuerde ich mich auch eher auf eine Intel Konkurrenz konzentrieren mit N Verkaufszahlen der sehr breiten Masse als AMD's fruehen Tahiti-launch fuer ein paar dutzend tausende Exemplare die mit sehr hohen Preisen zwar sofort ausverkauft sind aber auch nicht gerade irgend welchen "Laden" ueberfluten. Wenn Du jetzt die eine Quantitaet gegen die andere vergleichen willst, gerne, aber man braucht um einiges mehr Kapazitaeten so viele IB design wins zu fuettern als ein dutzend GPUs pro retailer pro Land pro Schub. AMD hat uebrigens auch andere 28nm Verpflichtungen ausserhalb Tahiti.

Mal ganz grob vereinfacht der eine IHV war so bloed die Spannung nicht richtig hinzubekommen und der andere PCIe3.0. NVIDIA ist uebrigens tatsaechlich wieder in Apple Macs drin. Du kannst ja mal sicherheitshalber herumfragen wie "nachlaessig" Apple's Vertraege sind wenn jemand mal nicht liefern kann so wie versprochen.
Ich hoffe, du meintest nicht den zwinkernden 1-April-Post?

Ansonsten:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9134265#post9134265

mapel110
2012-01-23, 11:26:05
OMG nvidia, PCIe-Bug... und dabei extra viele Leute abgestellt, damit diesmal nichts schief geht. Viele Köche und Brei?!

Mancko
2012-01-23, 11:29:16
Quatsch:
http://news.softpedia.com/news/Lenovo-ThinkPad-T430u-Ultrabook-Packs-Nvidia-Discrete-Graphics-244583.shtml

Gibt durchaus die Möglichkeit in die Ultrabooks eine dedizierte GPU zu kriegen.

Lenovo rockt halt einfach. Ich habe bereits das T420s. Für mich ist das T430u daher leider kein großartiges Upgrade, wenngleich es mich trotzdem sehr anlacht. Aber schon heute bekommt man bei Lenovo's mobilen Laptops und auch Laptop Workstations diverse Nvidia GPUs als Option. Und hier reden wir schnell von Laptops in der Preisklasse 1800 bis 2500 Euro. Da fließt wenigstens noch Asche und nicht wie bei diesem ganzen Billig Ramsch. Spielt bei der Kundschaft ohnehin keine Rolle. Sind alles Betriebsausgaben :) Da tut Nvidia wirklich gut daran sich dort ordentlich zu platzieren.

Ailuros
2012-01-23, 11:29:54
irgendwie erschließt sich mir gerde der Sinn nicht. Fehlt da irgendwo nen Wort dazwischen? :freak:

Ja, IB wird mehr iGPU Leistung haben. Das ist doch aber klar oder?

Die Ultrabooks kommen ja ohne dezidierte GPU daher. Also da setzt nvidia wohl nichts ab. Dafür ist die Leistungsaufnahme zu beschränkt und IBs iGPU wohl zu gut.

Echt? Und wofuer sind dann die angeblichen >300 ivy bridge design wins? Heisse Luft? Nur weil IB 3D Leistung besser wird heisst es noch lange nicht dass es Kepler schlagen koennte.


Ja. nVidia hatl viele Design-Wins (was mit btw. etwas verwundert, da die IB iGPU ja wohl deutlich besser nutzbar sein wird, als die von SB. Hab daher eher mit einem Rückgang gerechnet. Man muss ja immer sehr aufs Powerbudget achten im Mobile Bereich. Da muss Kepler also wohl ziemlich fett reinhauen). Diesbezüglich hab ich ja aber auch schon erwähnt gehabt, das man da wohl auch einfach zu wenig Kapazitäten hat von TSMC, und daher mit den Mobile-Chips genug zu tun haben wird. Die Sache mit PCI-E 3.0 ist natürlich auch ein totschlag argument. Wenn das nicht funktioniert brauchen Sie Kepler eigentlich nicht launchen, wobei im Desktop/Gamer Markt würde er sich wahrscheinlich dennoch verkaufen, so lange es noch als 2.0 funktioniert :ugly:

Uhmmm die ivy bridge design wins fuer NVIDIA sind fuer GK10x bis zu GK104; zeig mir mal wo IB vergleichare 104/Tahiti Leistung haben wird. Schon eine GK107 wird einige Strecken vor IB liegen.

Und bzgl. Apple. Da muss ich mich nicht informieren, das ist mir bereits bekannt. Das unterstützt dann auch die Vermutung zu dem Punkt mit geringen Kapazitäten bei TSMC und dem Vorrang von OEM Ware. Denn Apple versteht da keinen Spaß....

Unter den Kepler design wins liegt auch ein fetter Apple deal. Deshalb fragte sich auch semiaccurate bzw. Charlie ob NV Apple zeitig ausliefern wird.

http://semiaccurate.com/2011/12/01/can-nvidia-supply-apple/

Sonst:

http://www.xbitlabs.com/news/other/display/20120119204855_TSMC_Ships_More_28nm_Wafers_than_Expected_Projects_Rapid_Ramp.htm l

Hugo78
2012-01-23, 12:48:05
Viele Köche und Brei?!

Wenns danach geht, dürfte man bei keiner CPU/GPU je mehr irgend ein Stepping bringen.

btw ...
- Intel hat bei SB-E auf PCIe 3.0 verzichtet,
- AMD hat noch nicht mal Mobos mit PCIe 3.0 angekündigt,

Und ausgerechnet Nvidia als Anbieter ohne eigene HighEnd Mobo-Produktion soll jetzt das Kunststück hinbekommen und vom Start weg fehlerfreies PCIe 3.0 haben?!
Klingt nicht realistisch.

Bucklew
2012-01-23, 13:29:15
Woher weiß man eigentlich, ob das PCIe 3.0 bei den Thaiti GPUs korrekt funktioniert?

Sunrise
2012-01-23, 13:44:39
Wenns danach geht, dürfte man bei keiner CPU/GPU je mehr irgend ein Stepping bringen.

btw ...
- Intel hat bei SB-E auf PCIe 3.0 verzichtet,
- AMD hat noch nicht mal Mobos mit PCIe 3.0 angekündigt,

Und ausgerechnet Nvidia als Anbieter ohne eigene HighEnd Mobo-Produktion soll jetzt das Kunststück hinbekommen und vom Start weg fehlerfreies PCIe 3.0 haben?!
Klingt nicht realistisch.
Solche Fehler, so klein sie auch sein mögen, fallen meist auch erst auf, wenn das produzierte ASIC dann letztlich auf einem Testboard (von Intel) ausführlich validiert wird. Das kann nur eine (minimale) Verletzung der Spec (evtl. Instabilitäten) sein oder doch etwas Gravierenderes. Aber genaueres wissen wir ja nicht.

Ich hatte letztes Jahr im November schonmal etwas genau dazu geschrieben:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9052181#post9052181

Ich bin übrigens nicht überzeugt, dass A2 nun unbedingt bessere Performance als A1 bringen wird. Das war immerhin "nur" ein Metal Spin und kein kompletter Re-Spin. Da wir A1 aber wohl niemals zu Gesicht bekommen, ist das eigentlich auch egal.

Bucklew
2012-01-23, 13:45:20
Ich bin übrigens nicht überzeugt, dass A2 nun unbedingt bessere Performance als A1 bringen wird. Das war immerhin "nur" ein Metal Spin und kein kompletter Re-Spin. Da wir A1 aber wohl niemals zu Gesicht bekommen, ist das eigentlich auch egal.
Warum sollte man den Spin machen, wenn er keine Vorteile gegenüber A1 hätte?

Sunrise
2012-01-23, 13:47:06
Warum sollte man den Spin machen, wenn er keine Vorteile gegenüber A1 hätte?
Wieso, der Metal Spin hatte doch Vorteile? Er fixt den PCIe Gen.3 Bug? Missverständniss?

mapel110
2012-01-23, 13:48:52
Der Spin muss ja nicht unbedingt die Verbesserung bringen. Der Prozess selbst wird ja von Monat zu Monat besser.

Bucklew
2012-01-23, 13:50:32
Wieso, der Metal Spin hatte doch Vorteile? Er fixt den PCi Gen.3 Bug? Missverständniss?
Das A2 dafür da war um PCIe zu fixen ist deine Interpretation, das steht da nicht ;)

Sunrise
2012-01-23, 13:54:30
Das A2 dafür da war um PCIe zu fixen ist deine Interpretation, das steht da nicht ;)
:confused:
The problem is NVIDIA had some problems with PCIE 3 and had to revision the chip.So it is coming april you will see, I'ts in an official NVIDIA document.


Der Spin muss ja nicht unbedingt die Verbesserung bringen. Der Prozess selbst wird ja von Monat zu Monat besser.
Korrekt. NV hat da sicher auch mehr Spielraum, als AMD letztes Jahr noch hatte.

Bucklew
2012-01-23, 13:55:25
Und wo steht, dass die neue Revision A2 war und nicht vllt schon A1? ;)

Es wäre doch ziemlich unlogisch, dass man die PCIe-Compliance erst mit A1 testet und nicht schon mit A0.

Sunrise
2012-01-23, 14:03:36
Es wäre doch ziemlich unlogisch, dass man die PCIe-Compliance erst mit A1 testet und nicht schon mit A0.
Und warum benötigt man dann A2?

Dagegen spricht doch, dass man - hätte man richtig validiert (validieren können) - bereits mit A1 alle Fehler hätte ausbügeln können. Das ist doch das, was du meinst, oder? Mit welcher Revision das nun behoben wurde, ist natürlich Spekulation von mir, das steht da im Artikel nicht.

Das fragst du wohl besser NVIDIA. :D

Bucklew
2012-01-23, 14:06:28
Und warum benötigt man dann A2?
Weil TSMC einfach nicht genug liefern konnte und man einfach noch genug Zeit hatte um einen zusätzlichen Metal Spin für mehr Performance zu machen? ;)

Das fragst du wohl besser NVIDIA. :D
Muss ich die Tage eh mal angehen ;D

Ronny145
2012-01-23, 14:10:40
Dann würde der restliche Sinn nicht mehr passen. Wo wäre PCIe 3 ein Problem, wenn es im A1 das Problem nicht gäbe? Der ursprüngliche launch war für Januar/Februar geplant im A1 Stepping nehme ich an. A2 hat die Verspätung verursacht. Die TSMC Output These fand ich immer unglaubwürdig. AMD verkauft seit Januar die ersten Karten. Wer glaubt ernsthaft, Nvidia schaue sich das genüsslich bis April an, wenn bereits A1 problemlos funktionieren würde?

Bucklew
2012-01-23, 14:17:42
Und du hälst es für realistischer, dass so ein essentieller Teil der GPU wie PCIe erst mit A1 als verbuggt entdeckt wird? ;)

Ich würde eher sagen, dass die 28nm Wafer von nVidia einfach für die OEM-Chips für den IvyBridge-Launch drauf gehen.

Ronny145
2012-01-23, 14:24:33
Und du hälst es für realistischer, dass so ein essentieller Teil der GPU wie PCIe erst mit A1 als verbuggt entdeckt wird? ;)

Genauso wahrscheinlich wie der Sata Bug im Cougar Point Chipsatz des B1 Steppings. B0 Stepping hatte den Sata Bug nicht, B1 schon. Das hat überhaupt nichts zu sagen.

Bucklew
2012-01-23, 14:27:08
Genauso wahrscheinlich wie der Sata Bug im Cougar Point Chipsatz des B1 Steppings. B0 Stepping hatte den Sata Bug nicht, B1 schon. Das hat überhaupt nichts zu sagen.
Das sind jetzt nicht mehr nur Äpfel und Birnen, sondern Äpfel und Fussballstadien ;)

kruemelmonster
2012-01-23, 14:33:30
OMG nvidia, PCIe-Bug... und dabei extra viele Leute abgestellt, damit diesmal nichts schief geht. Viele Köche und Brei?!

Ist halt die erste Inkarnation einer neuen Technologiestufe, da kann man sich immer auf irgendwelche Probleme gefasst machen. Intel hat die Implementierung des PCIe 2.0 Link Speed Managements im X38-Chipsatz ja auch gegen den Baum gefahren so dass NV sich genötigt sah in den FW190+ Treiber auf 1.1 runterzugehen. Dafür gabs dann kurze Zeit später den X48, angeblich nur ein höher gebinnter X38 für die FSB1600 Validierung...wer's glaubt, denn auf dem X48 funktionierte PCIe 2.0.

Oder mit den Worten von John Carmack: First release is for developers, second release is for customers.

Ronny145
2012-01-23, 14:35:45
Das sind jetzt nicht mehr nur Äpfel und Birnen, sondern Äpfel und Fussballstadien ;)

Es umschreibt die gleiche Möglichkeit. Selbst wenn wenn wenn A0 keine PCIe 3 Probleme gehabt hat, bedeutet das nicht zwangsläufig, dass A1 sie nicht hat(te). Außerdem steht nirgends, dass es im A0 funktionierte. Du nimmst einfach, es müsste dann im nächsten Steppung gefixt sein. Unfehlbar ist auch Nvidia nicht.

Bucklew
2012-01-23, 14:37:08
Es umschreibt die gleiche Möglichkeit. Selbst wenn wenn wenn A0 keine PCIe 3 Probleme gehabt hat, bedeutet das nicht zwangsläufig, dass A1 sie nicht hat(te). Außerdem steht nirgends, dass es im A0 funktionierte. Du nimmst einfach, es müsste dann im nächsten Steppung gefixt sein. Unfehlbar ist auch Nvidia nicht.
Ne, ich sag nur, dass das nirgends steht, welches Stepping jetzt was genua gefixt hat, das ist alles ;)

Dural
2012-01-23, 14:45:04
naja, bug im A1 ist ja nicht so schlimm, den die retail version kommt meistens ja eh erst mit A2. Gerade bei neuen Architekturen und Prozessen kann man fast immer von min. A2 ausgehen, war bei NV glaub noch nie anders, kann mich an keinen NV Chip erinnern wo es nicht so war.

Skysnake
2012-01-23, 16:02:25
Woher weiß man eigentlich, ob das PCIe 3.0 bei den Thaiti GPUs korrekt funktioniert?
Daher, dass der Chip das PCI-E 3.0 Zertifikat erhalten hat. Wenn später herauskommen sollte, das wegen der AMD GPU in welcher Kombi auch immer, PCI-E Specs nicht eingehalten werden des Gesamtsystems, dann wäre das mehr als erbärmlich. Dann kannste die Specs nämlich in die Tonne treten und die Leute, die Sie entwickelt haben gleich mit. Denn auf die wäre dann absolut kein Verlass. Bei Specs prüft man das doppelt und dreifach und haut noch Sicherheitsmargen drauf, damits auch ganz sicher funktioniert.

Echt? Und wofuer sind dann die angeblichen >300 ivy bridge design wins? Heisse Luft? Nur weil IB 3D Leistung besser wird heisst es noch lange nicht dass es Kepler schlagen koennte.



Uhmmm die ivy bridge design wins fuer NVIDIA sind fuer GK10x bis zu GK104; zeig mir mal wo IB vergleichare 104/Tahiti Leistung haben wird. Schon eine GK107 wird einige Strecken vor IB liegen.



Unter den Kepler design wins liegt auch ein fetter Apple deal. Deshalb fragte sich auch semiaccurate bzw. Charlie ob NV Apple zeitig ausliefern wird.

http://semiaccurate.com/2011/12/01/can-nvidia-supply-apple/

Sonst:

http://www.xbitlabs.com/news/other/display/20120119204855_TSMC_Ships_More_28nm_Wafers_than_Expected_Projects_Rapid_Ramp.htm l
Design-Wins sagen erst mal nichts über Stückzahlen aus. Aber das meinte ich ja auch gar nicht.

Wie ich schon sagte. Es wundert mich, das nVidia die Design-Wins steigern konnte, denn das war für mich nicht zu erwarten. Intel treibt die Ultrabook Kuh durchs Dorf, dass es nicht mehr feierlich ist, und IB hat bei der iGPU eben ein starkes Stück zugelegt, was eigentlich erwarten lässt (aus meiner Sicht) dass weniger Hersteller sich genötigt fühlen, eine dezidierte GPU zu verbauen.

Man hat mit einer dezidierten ja 100% Mehrkosten, nämlich die für die dezidierte Karte, aber nur einen Leistungszugewinn von Leistung_Dezidierte_GPU-iGPU.
Also weniger.

Daher muss Kepler was Perf/W angeht schon ziemlich stark sein, wenn Sie so viele Hersteller überzeugen konnten.

Und es ist doch klar, das IB nicht mit einer Dezidierten GPU vom Schlage einer GK107/104 mithalten kann, aber Intel treibt die Ultrabooks ja durch Dorf als ob es kein Morgen mehr geben würde. Was anders hörste von Intel im Moment ja kaum noch als Ultrabook hier und Ultrabook dort, und für mich passt zu nem Ultrabook nicht wirklich eine dezidierte GPU.

Der größte Faktor wird wohl eher der Deal mit Apple sein. Wenn die da ihre Chips rein bekommen, dann sind das sichere Umsätze. Das ist schon sehr gut und wird AMD dim Gegenzug dafür schon stark treffen. Insbesondre da man ja durchaus spekulieren konnte, ob man nicht vielleicht auch mal APUs bei Apple sieht.

Ailuros
2012-01-23, 17:18:43
Es umschreibt die gleiche Möglichkeit. Selbst wenn wenn wenn A0 keine PCIe 3 Probleme gehabt hat, bedeutet das nicht zwangsläufig, dass A1 sie nicht hat(te). Außerdem steht nirgends, dass es im A0 funktionierte. Du nimmst einfach, es müsste dann im nächsten Steppung gefixt sein. Unfehlbar ist auch Nvidia nicht.

Ronny es gibt kein A0 bei NVIDIA. A1 ist tape out silicon.

Ronny145
2012-01-23, 17:21:59
Ronny es gibt kein A0 bei NVIDIA. A1 ist tape out silicon.


A0 hat Bucklew zuerst ins Spiel gebracht. Dann hätten wir uns die Diskussion ersparen können.

AnarchX
2012-01-23, 17:26:47
Kepler mit kaputtem PCIe3.0 obwohl man den PCIe-Kontroller mit GF117 wohl schon seit fast einem Jahr validiert?

Ailuros
2012-01-23, 17:34:08
Insbesondre da man ja durchaus spekulieren konnte, ob man nicht vielleicht auch mal APUs bei Apple sieht.

APU ist wohl eher eine AMD marketing Beschreibung fuer SoC. Zwar verdammt OT es spricht ueberhaupt nichts dagegen. Genauso wie nichts theoretisch dagegen spricht dass irgendwann in der weiteren Zukunft Apple eventuell SoCs ausserhalb von small form factor selber entwickelt. Mit Apple weiss man ja wohl selten bis nie was sie genau vorhaben. Ich erlaub mir schnell ein paar bytes zusaetzlich an OT zu fressen aber als sie mit ihren Plaenen fuer das erste i-Phone fertig waren hatten sie im geheimem einen multi-year multi-license deal mit IMG fuer GPU IP unterschrieben. Nicht allzu lange danach liessen sie ein paar Kerle von dem damaligen Bitboys OY aus Finnland in die US fliegen damit sie sich die Technologie naeher ansehen koennen. Die BB Kerle schwebten damals auf der neunten Wolke voll von Euphorie dass sie vielleicht Apple gewinnen koennen. In etwa so verhaelt sich Apple immer, deshalb ist es fuer mich auch nie eine Garantie wenn Geruecht A, B oder C fuer sie erscheint.

Zurueck zu Kepler: von den paar verstreuten Daten die ich hauptsaechlich ueber 104 habe sieht die perf/$ und perf/W Relation sehr gut aus. Da unsere Welt eben zunehmend "mobiler" wird von vielen Aspekten kann es gar nicht anders sein dass perf/W so langsam den absoluten Vorrang nimmt.

A0 hat Bucklew zuerst ins Spiel gebracht. Dann hätten wir uns die Diskussion ersparen können.

Wenn er irgendwo deutlich A0 erwaehnt hat, entschuldige ich mich denn ich habe es verpasst. Ich lag aber wohl aber auch mit dem launch silicon falsch, da es wohl doch nicht A1 fuer Februar und 104 war sondern eher A2.

Skysnake
2012-01-23, 17:56:57
das ist wohl wahr.

boxleitnerb
2012-01-23, 18:03:41
MRSP für GK104 liegt um die 299$ schreibt Charlie.

Bucklew
2012-01-23, 18:05:10
A0 hat Bucklew zuerst ins Spiel gebracht. Dann hätten wir uns die Diskussion ersparen können.
Hups, durcheinander geworfen :freak:

Wobei sich die Frage stellt, ob man durch einen simplem Metal Spin mal eben so Bugs im PCIe fixen lassen (klar, kommt drauf an was für Bugs).

MRSP für GK104 liegt um die 299$ schreibt Charlie.
Schwer zu erraten ;D

Orbmu2k
2012-01-23, 18:22:27
Ich lag aber wohl aber auch mit dem launch silicon falsch, da es wohl doch nicht A1 fuer Februar und 104 war sondern eher A2.

Heisst das wir bekommen A3/B1?

Ailuros
2012-01-23, 18:33:30
MRSP für GK104 liegt um die 299$ schreibt Charlie.

Ach jetzt nach Wochen wird es glaubwuerdiger? :biggrin: Charlie hat gerechtfertigt Vorbehalte IMHO. Falls NV ihr Ziel noch etwas hoeher schlagen sollte als zuvor ist ein $300 MSRP natuerlich nicht garantiert.

Heisst das wir bekommen A3/B1?

Ich wuerde lieber zuerst eine Meinung lesen ob ein jeglicher PCIe3.0 bug ueberhaupt etwas mit dem chip zu tun haben koennte.

AwesomeSauce
2012-01-23, 18:33:52
Komisch ist ja, dass GK104 u.a. als GTX680 vermarktet werden soll. Wie passt da ein GK110 und ein eventueller Dualchip ins Schema?

Bucklew
2012-01-23, 18:37:05
Komisch ist ja, dass GK104 u.a. als GTX680 vermarktet werden soll. Wie passt da ein GK110 und ein eventueller Dualchip ins Schema?
GTX590? ;)

Vielleicht kann man sich die Dual-Chip Lösung ja sparen, weil 2xHD7970 langsamer ist als GK110?

Orbmu2k
2012-01-23, 18:45:04
Ich wuerde lieber zuerst eine Meinung lesen ob ein jeglicher PCIe3.0 bug ueberhaupt etwas mit dem chip zu tun haben koennte.

Vielleicht wurde der Bug schon beim GK106 entdeckt und beim A2 des GK104 gleich mitgefixt. Allerdings können wir dann A2 nicht mehr als Verzögerungsgrund hernehmen, wenn wie du sagst A2 schon der für Feb. war.

Ailuros
2012-01-23, 18:49:21
GTX590? ;)

Vielleicht kann man sich die Dual-Chip Lösung ja sparen, weil 2xHD7970 langsamer ist als GK110?

Er hat schon recht denn:

GTX6xx (GK110)
GTX6xx (GK110 salvage part)
GTX680 (GK104)
GTX670 (GK104 salvage part)

Je nachdem was NV sich am Ende entscheidet was fuer chips sie fuer mGPU benuetzen werden wird sich diese entweder zwischen 110 salvage part und 110 platzieren oder ueber GK110.

Momentan spielen sie tatsaechlich mit dem 2*104 mGPU Gedanken, aber solche Schaetzungen gab es auch in der Vergangenheit und es wurde nichts draus. Ich wuerde sagen dass sie erstmal New Zealand abwarten werden und sich dann erst darueber definitiv entscheiden. Dass es aber knapp wird mit den Zahlen ist aber schon ein Gedanke. Entweder nutzen sie alle Fetzen bis zu 699 aus oder sie gehen in die 700-er. Beide Loesungen klingen als Bloedsinn da sie end Otto-Normalverbraucher zu stark verwirren werden.

Vielleicht wurde der Bug schon beim GK106 entdeckt und beim A2 des GK104 gleich mitgefixt. Allerdings können wir dann A2 nicht mehr als Verzögerungsgrund hernehmen, wenn wie du sagst A2 schon der für Feb. war.

Meine Vorbehalte ist eher dass es ueberhaupt gar nichts mit dem chip selber zu tun hat. Dafuer fehlt mir das Wissen und deshalb auch mein voriger Post darueber. Better safe than sorry ;)

Bucklew
2012-01-23, 18:49:25
Oder aber GK104 heißt doch nicht GTX680, sondern 660? ;)

Ailuros
2012-01-23, 18:50:38
Oder aber GK104 heißt doch nicht GTX680, sondern 660? ;)

Und wieso erscheinte dann auf MSI und Asus roadmaps die GTX680 mit nur 2GB GDDR5?

Orbmu2k
2012-01-23, 18:51:04
Gibt doch noch Buchstaben... das ominöse GTR beispielsweise.

Und ne Ultra gabs auch lange nich. :)

Bucklew
2012-01-23, 18:51:05
Und wieso erscheinte dann auf MSI und Asus roadmaps die GTX680 mit nur 2GB GDDR5?
Fehler? Fake?

Ailuros
2012-01-23, 18:54:15
Fehler? Fake?

Kein Fehler und kein Fake; GK110 war NIE fuer Februar projeziert sondern wenn 104 im Februar kommen wuerde dann 110 im April. Jetzt heisst es Mai fuer den letzten und die 110 war nie auf irgend jeglichen bisherigen roadmaps.

***edit: ich weiss es klingt bloed aber es dauerte ein Weilchen bis neliz demzufolge schnallen konnte dass es doch einen GK104 gibt und GTX680 eben nicht GK110 ist.

Bucklew
2012-01-23, 19:00:40
Kein Fehler und kein Fake; GK110 war NIE fuer Februar projeziert sondern wenn 104 im Februar kommen wuerde dann 110 im April. Jetzt heisst es Mai fuer den letzten und die 110 war nie auf irgend jeglichen bisherigen roadmaps.
Ich denk mir meinen Rest :)

Thunder99
2012-01-23, 19:02:14
Wie realistisch ist die Vermutung, dass GK110 so schnell wird, dass sie sich wirklich die Multi-GPU Lösung sparen könnten? Nach dem Motto AMD braucht 2x Tahiti, wir nur 1x GK110 für die selber Performance! :naughty:

AnarchX
2012-01-23, 19:04:19
Das letzte Mal gab es so ein Gerücht bei GT200 und RV770. Und am Ende war ein RV770 fast so schnell wie GT200. ;D

Hugo78
2012-01-23, 19:04:33
Er hat schon recht denn:

GTX6xx (GK110)
GTX6xx (GK110 salvage part)
GTX680 (GK104)
GTX670 (GK104 salvage part)

Ich vermute der GK110 salvage part entfällt im Geforce Retailbereich.
Sehe dann so aus.

GTX 695 = 2*GK100
GTX 690 = GK110
GTX 685 = 2*GK104

Der Rest geht in den HPC Bereich um hier den Kunden noch mehr,
verschiedene Modelle zu entsprechend nach unten hin abgerundeten Preisen bieten zukönnen.

AMD wird ihre HPC Geschichten sicher relativ günstig platzieren wollen.

boxleitnerb
2012-01-23, 19:05:13
GTX590? ;)

Vielleicht kann man sich die Dual-Chip Lösung ja sparen, weil 2xHD7970 langsamer ist als GK110?

Also DAS glaubst du wohl selber nicht. :freak:

Bucklew
2012-01-23, 19:08:44
Wie realistisch ist die Vermutung, dass GK110 so schnell wird, dass sie sich wirklich die Multi-GPU Lösung sparen könnten? Nach dem Motto AMD braucht 2x Tahiti, wir nur 1x GK110 für die selber Performance! :naughty:
Naja, auch wenn 7970 relativ sparsam ist, müsste AMD sie für eine Dualkarte wohl trotzdem drosseln, um zwei davon auf ein PCB zu quetschen. Ergo läge man dann wohl pro Chip ungefähr auf GTX580 Niveau. Wäre durchaus möglich, wenn GK110 deutlich besser wird als GF110.

Das letzte Mal gab es so ein Gerücht bei GT200 und RV770. Und am Ende war ein RV770 fast so schnell wie GT200. ;D
Na das das ausgeschlossen ist, sollte doch nun wirklich klar sein, oder? ;)

Also DAS glaubst du wohl selber nicht. :freak:
Ich glaube wenn dem so wäre würde hier einigen die Hose nass werden ;D

Ailuros
2012-01-23, 19:09:55
Wie realistisch ist die Vermutung, dass GK110 so schnell wird, dass sie sich wirklich die Multi-GPU Lösung sparen könnten? Nach dem Motto AMD braucht 2x Tahiti, wir nur 1x GK110 für die selber Performance! :naughty:

Unrealistisch ist es durchaus nicht, aber ich wuerde trotz allem einen kuehlen Kopf behalten und abwarten wie New Zealand wirklich am Ende aussieht. Falls sich die Frequenzen auf der 7990 etwa auf TahitiPRO Nivaeu halten sollten, dann wuerde ich gleich oder etwas mehr als 7970+40% schaetzen. In solch einem Fall liegt so manche optimistische Spekulation fuer GK110 offen ;)

AwesomeSauce
2012-01-23, 19:16:41
Kein Fehler und kein Fake; GK110 war NIE fuer Februar projeziert sondern wenn 104 im Februar kommen wuerde dann 110 im April. Jetzt heisst es Mai fuer den letzten und die 110 war nie auf irgend jeglichen bisherigen roadmaps.
Verstehe ich das richtig? GK104 erst im Mai? Das wären ja fast schon Fermi-Verhältnisse:freak:

AnarchX
2012-01-23, 19:17:12
Man müsste halt die Rohleistung auf einem ebenso hohen Niveau umsetzen wie es GF110 tut.

Da würden wohl 128 TMUs, 2048SPs @~900MHz und 512-Bit @5,5Gbps ausreichen, um gefährlich nah an eine MGPU-Karte mit 1,9x TahitiXT heranzukommen, jedenfalls in den heutigen 3D-Benchmark-Parkours.

Braucht es dann nur noch etwas Pro-Watt-Leistung-Magie, damit man dass unter 300W zustande bringt.

boxleitnerb
2012-01-23, 19:19:32
Man müsste halt die Rohleistung auf einem ebenso hohen Niveau umsetzen wie es GF110 tut.

Da würden wohl 128 TMUs, 2048SPs @~900MHz und 512-Bit @5,5Gbps ausreichen, um gefährlich nah an eine MGPU-Karte mit 1,9x TahitiXT heranzukommen.

Braucht es dann nur noch etwas Pro-Watt-Leistung-Magie, damit man dass unter 300W zustande bringt.

Das ist schwierig zu glauben, damit hätte man in etwa dieselbe Rohleistung - und damit soll man fast doppelt so schnell sein?

Bucklew
2012-01-23, 19:21:23
Das ist schwierig zu glauben, damit hätte man in etwa dieselbe Rohleistung - und damit soll man fast doppelt so schnell sein?
Das die Keplerchips DEUTLICH effizienter zugange gehen als Fermi ist dir aber inzwischen bewusst geworden? ;)

AnarchX
2012-01-23, 19:22:12
Das ist schwierig zu glauben, damit hätte man in etwa dieselbe Rohleistung - und damit soll man fast doppelt so schnell sein?
Siehe meine Ergänzung: "jedenfalls in den heutigen 3D-Benchmark-Parkours"
GF110 wird mit weniger als der halben Rohleistung (ALU, TMU) auch nur um ~30% im Durchschnitt geschlagen.

Fragt sich natürlich, ob langfristig die hohe Shaderleistung vielleicht ein wichtigere Rolle spielen könnte. Vor allem, wenn die NG-Konsolen auch auf GCN setzen.

Sunrise
2012-01-23, 19:43:01
Unrealistisch ist es durchaus nicht, aber ich wuerde trotz allem einen kuehlen Kopf behalten und abwarten wie New Zealand wirklich am Ende aussieht. Falls sich die Frequenzen auf der 7990 etwa auf TahitiPRO Nivaeu halten sollten, dann wuerde ich gleich oder etwas mehr als 7970+40% schaetzen. In solch einem Fall liegt so manche optimistische Spekulation fuer GK110 offen ;)
Zugegeben, bis New Zealand ist es noch ein Weilchen hin. Man wird wohl jetzt erstmal AMDs "High-End"-Spielchen mitspielen und GK104 als High-End verkaufen, sofern man die 7970 SKU angreifen kann. Damit hat man dann problemlos nach oben Platz.

Siehe diesen Kommentar von Charlie:
This should tell you quite a bit about how large the silicon is, but not necessarily what it will be marketed as.


New Zealand
2x 360mm² + 2x 3GB GDDR5 + min. 12-Layer PCB + sehr aufwendige Stromversorgung + sehr aufwendiger Kühler

Die BOM von dem Teil möchte ich übrigens nicht wissen.

Da hat NV IMHO mehr als genug Spielraum für was auch immer man sich im Endeffekt entscheidet.

Bucklew
2012-01-23, 19:45:47
Fakt ist, dass selbst wenn GK104 nur mit GF110 gleichziehen kann, wird AMD bei einem Preis von 299$ den Preis für die 7970 weit runtersetzen müssen.

AwesomeSauce
2012-01-23, 19:48:17
Fakt ist, dass selbst wenn GK104 nur mit GF110 gleichziehen kann, wird AMD bei einem Preis von 299$ den Preis für die 7970 weit runtersetzen müssen.
Sollte GK104 sogar bis auf 10-20% an TahitiXT rankommen, dürften sich viele early adopters in den Hintern beissen.

M4xw0lf
2012-01-23, 19:49:39
Fakt ist, dass selbst wenn GK104 nur mit GF110 gleichziehen kann, wird AMD bei einem Preis von 299$ den Preis für die 7970 weit runtersetzen müssen.

...not. Im GF110-Bereich kommt ja schon die 7950 - wenn der Abstand zur 7970 nicht deutlich kleiner wird, dann wird sich AMD den Preis nicht senken.

Bucklew
2012-01-23, 19:53:21
Sollte GK104 sogar bis auf 10-20% an TahitiXT rankommen, dürften sich viele early adopters in den Hintern beissen.
Genau deswegen wird nVidia auch einen "normalen" Preis für GK104 ansetzen und keinen Premiumaufschlag verlangen, solange GK110 nicht draußen ist. Damit macht man sich keine Freunde.

...not. Im GF110-Bereich kommt ja schon die 7950 - wenn der Abstand zur 7970 nicht deutlich kleiner wird, dann wird sich AMD den Preis nicht senken.
Und du glaubst, dass wenn eine 7970 bei 500US-$ liegt, dass jetzt eine 7950 plötzlich bei 300 ist? ;)

Wie will AMD mit einem 500US-$ Preis gegen einen Chip konkurrieren, der für 300US-$, also gut 40% billiger, gerade mal 10-20% langsamer ist?

Wobei du davon ausgehen kannst, dass die 10-20% absolut utopisch sind ;)

boxleitnerb
2012-01-23, 19:55:23
Das die Keplerchips DEUTLICH effizienter zugange gehen als Fermi ist dir aber inzwischen bewusst geworden? ;)

Deutlich und deutlich+++ ist ein Unterschied. Auch Nvidia kann nicht zaubern. Wir wollen doch mal realistisch bleiben.

Bucklew
2012-01-23, 19:57:40
Deutlich und deutlich+++ ist ein Unterschied. Auch Nvidia kann nicht zaubern. Wir wollen doch mal realistisch bleiben.
G80 anyone? :)

Die 300US-$ zeigen doch, wo nVidia einen GK104 selbst im Portfolio sieht. Performance-Segment. Und darüber kommt noch was ;)

boxleitnerb
2012-01-23, 20:02:53
Du meinst, es wird sowas?
http://www.computerbase.de/artikel/grafikkarten/2008/test-ati-radeon-hd-3870-x2/24/#abschnitt_performancerating_qualitaet

Blediator16
2012-01-23, 20:08:08
Du meinst, es wird sowas?
http://www.computerbase.de/artikel/grafikkarten/2008/test-ati-radeon-hd-3870-x2/24/#abschnitt_performancerating_qualitaet

Naja.
Die 3870 kam ca 6 Monate nach der 8800Ultra und war zum Teil 50% langsamer dafür aber auch 50% sparsamer also kein Beinbruch und kein Wunder.

davidzo
2012-01-23, 20:11:21
Wie will AMD mit einem 500US-$ Preis gegen einen Chip konkurrieren, der für 300US-$, also gut 40% billiger, gerade mal 10-20% langsamer ist?


lol, das ist geil, genau dasselbe hatten wir bei der fermi vorstellung, wo ihr nvidia fanbois alle sichtlich schockiert von den lediglich 10-20% leistungplus gegenüber einer 5870 wart.
Da wurde dann herausgeredet das performance und highend eben ganz andere Klassen wären und Cypress eben nie highend war (was hauptsächlich an chipgröße, leistungsaufnahme und laustärke festgemacht wurde).
Praktisch stimmte aber und zeigte der Markt auch, das 20% schneller eben 20% mehr sind und dafür kann man einen unverschämten Aufpreis verlangen!
Die Karten kämpfen eben in unterschiedlichen Klassen und ein Highendkunde wird nicht etwa zum Performancesegment greifen bloß weil da das Preis-leistungsverhältnis plötzlich so gut ist.

Solange nicht ein überfluss an 28nm tahiti wafern auftritt, wird amd die Preise nicht senken. Highend ist eben ein gewisses Premiumsegment, da war das P/L noch nie besonders gut.
Stattdessen wird man eher mit den kleineren Karten konkurrieren und wenn sich die 7970 geringere Stückzahlen verkauft, hat man umso schneller die midrangekarten für die lieben OEMs bereit. Erst wenn die Kapazitäten bei TSMC drastisch gestiegen sind oder nvidias highendchip kommt muss man sich vielleicht auf einen preiskampf einlassen.

Bucklew
2012-01-23, 20:12:10
Du meinst, es wird sowas?
http://www.computerbase.de/artikel/grafikkarten/2008/test-ati-radeon-hd-3870-x2/24/#abschnitt_performancerating_qualitaet
Jupp. Weiß doch jeder, dass MGPU Scheiße ist und eine SGPU-Variante, die nur ein paar % zurück liegt - super Sache.

lol, das ist geil, genau dasselbe hatten wir bei der fermi vorstellung, wo ihr nvidia fanbois alle sichtlich schockiert von den lediglich 10-10% leistungplus gegenüber einer 5870 wart.
Ach 10% nur? Na da verklärt sich aber einiges :)

Der Unterschied ist nur, dass Charlie Fermi als absolut "unfixable" bezeichnet hat und jetzt selbst nicht mehr drumherum kommt zu geben zu müssen, dass der GK104 in den bisherigen Paradedisziplinen von AMD (also perf/W, perf/mm², perf/$) vorne liegt. Den Rest kann sich jeder ausmalen. So er das will, ohne sein Weltbild zu ruinieren ;)

Blediator16
2012-01-23, 20:14:38
Jupp. Weiß doch jeder, dass MGPU Scheiße ist und eine SGPU-Variante, die nur ein paar % zurück liegt - super Sache.

Zu dem Zeitpunkt hat AMD eben als Singlegpu keine mit dem Stromverbrauch/Leistung einer 8800Ultra gehabt also was soll der Quatsch? Beide waren in deren Gefielden vollkommen ok.

Ailuros
2012-01-23, 20:19:42
lol, das ist geil, genau dasselbe hatten wir bei der fermi vorstellung, wo ihr nvidia fanbois alle sichtlich schockiert von den lediglich 10-10% leistungplus gegenüber einer 5870 wart.
Da wurde dann herausgeredet das performance und highend eben ganz andere Klassen wären und Cypress eben nie highend war (was hauptsächlich an chipgröße, leistungsaufnahme und laustärke festgemacht wurde).
Praktisch stimmte aber und zeigte der Markt auch, das 20% schneller eben 20% mehr sind und dafür kann man einen unverschämten Aufpreis verlangen!
Die Karten kämpfen eben in unterschiedlichen Klassen und ein Highendkunde wird nicht etwa zum Performancesegment greifen bloß weil da das Preis-leistungsverhältnis plötzlich so gut ist.

Solange nicht ein überfluss an 28nm tahiti wafern auftritt, wird amd die Preise nicht senken. Highend ist eben ein gewisses Premiumsegment, da war das P/L noch nie besonders gut.
Stattdessen wird man eher mit den kleineren Karten konkurrieren und wenn sich die 7970 geringere Stückzahlen verkauft, hat man umso schneller die midrangekarten für die lieben OEMs bereit. Erst wenn die Kapazitäten bei TSMC drastisch gestiegen sind oder nvidias highendchip kommt muss man sich vielleicht auf einen preiskampf einlassen.

Da keiner hier zu 100% neutral ist und Du schon gar nicht, unterlass bitte jeglichen "fanboy" Schmarren. Der Rest des Beitrags kann so stehen bleiben, aber beim naechsten aehnlichen Streich von Dir gibt es ohne weitere Vorwarnung einen Punkt.

Bucklew
2012-01-23, 20:20:40
Zu dem Zeitpunkt hat AMD eben als Singlegpu keine mit dem Stromverbrauch/Leistung einer 8800Ultra gehabt also was soll der Quatsch? Beide waren in deren Gefielden vollkommen ok.
Warum sollte ich mir für 10% mehr Performance eine MGPU-Lösung antun? Noch dazu kommt, dass ohne Crossfireprofil ich nicht 10% mehr Leistung kriege, sondern 50% weniger.

Bucklew
2012-01-23, 20:21:39
Solange nicht ein überfluss an 28nm tahiti wafern auftritt, wird amd die Preise nicht senken. Highend ist eben ein gewisses Premiumsegment, da war das P/L noch nie besonders gut.
Wenn ein GK104 +/-10% (meinetwegen auch 20) im Gefilde einer 7970 wildert, MUSS AMD den Preis senken.

Skysnake
2012-01-23, 20:26:37
je nachdem wie nvidia die eigenen Preise setzt. Die können sich auch bei AMD bedanken und den Preis oben halten. Haben mit den OEMs (Apple) doch wahrscheinlich eh genug an der Backe und keine gewaltigen Stückzahlen für den Markt.

boxleitnerb
2012-01-23, 20:26:48
Aus dem Anandtech Review zur 8800GT:

It's really not often that we have the pleasure to review a product so impressively positioned. The 8800 GT is a terrific part, and it is hitting the street at a terrific price (provided NVIDIA's history of properly projecting street prices continues). The performance advantage and price utterly destroyed our perception of the GPU landscape. We liked the value of the 8800 GTS 320, and we were impressed when NVIDIA decided to go that route, providing such a high performance card for so little money. Upping the ante even more this time around really caught us off guard.

This launch really has the potential to introduce a card that could leave the same lasting impression on the computer industry that the Ti4200 left all those years ago. This kind of inflection point doesn't come along every year, or even every generation. But when architecture, process enhancements, and design decisions line up just right, the potential for a revolutionary product is high.

Mal sehen, ob sich die Geschichte wiederholt...

Bucklew
2012-01-23, 20:30:30
je nachdem wie nvidia die eigenen Preise setzt. Die können sich auch bei AMD bedanken und den Preis oben halten. Haben mit den OEMs (Apple) doch wahrscheinlich eh genug an der Backe und keine gewaltigen Stückzahlen für den Markt.
Nochmal: Die GK104 ist die Performance-GPU von nVidia. Die ist gar nicht dazu gedacht die Preise hoch zu halten, sondern als warme Semmel weg zu gehen und verkauft zu werden. Da sind 500US-$ absoluter Blödsinn.

Erst Recht von wenige Wochen später eine schneller GPU folgt. Wieviel soll die denn dann kosten? 700? 800? Ihr scheint wohl zuviel Geld zu haben :freak:

Godmode
2012-01-23, 20:33:53
Nochmal: Die GK104 ist die Performance-GPU von nVidia. Die ist gar nicht dazu gedacht die Preise hoch zu halten, sondern als warme Semmel weg zu gehen und verkauft zu werden. Da sind 500US-$ absoluter Blödsinn.


Kann das wirklich bestätigt werden? :confused:

Schaffe89
2012-01-23, 20:34:03
G80 anyone?

Jetzt übertreib es mal nicht mit den Loorbeeren.
G80 hat neue Spitzenwerte beim Stromverbrauch gesetzt und genau deswegen ist der Vergleich, egal wie oft er wiederholt wird, nicht aussagekräftig, da Leistungsaufnahme nicht nochmal um 50-60 Watt ansteigen kann.
Nvidia wird sich wieder vor AMD setzen, aber wie immer relativ knapp. Ein Performance/Watt und Performance/mm² Wunder wird es nicht geben, da Nvidia auch nicht zaubern kann.

Es werden wieder viel zu optimistische Erwartungen geschürt.
Eine OC HD 7970 dürfte mit optimierten Treibern + fetter Auflösung mal gut um die 50% schneller als die GTX 580 sein.
Und mehr als 70% Mehrleistung wird Kepler wohl auch kaum erreichen.

Bucklew
2012-01-23, 20:39:24
Nvidia wird sich wieder vor AMD setzen, aber wie immer relativ knapp. Ein Performance/Watt und Performance/mm² Wunder wird es nicht geben, da Nvidia auch nicht zaubern kann.
Nochmal: Wenn es AMD-Fanboy Charlie sogar sagt, kann man es ziemlich gut einsortieren.

boxleitnerb
2012-01-23, 20:44:25
Ich glaube, ein Lager wird im April heulen. Entweder sind es die Roten oder die Grünen. Ich glaube nicht, dass es die Grünen sind :)

Bucklew
2012-01-23, 20:45:25
Ich glaube, ein Lager wird im April heulen. Entweder sind es die Roten oder die Grünen. Ich glaube nicht, dass es die Grünen sind :)
Einer wird schonmal Charlie sein.... :)

Nightspider
2012-01-23, 20:50:06
Klar kann man der Verbrauch weiter erhöhen. Man wird es nur nicht. ;)

Aber dafür hat man ja die Design Wins. Die sind sogar besser, als wenn man nur den Verbrauch erhöht.

Zergra
2012-01-23, 20:51:23
Nochmal: Wenn es AMD-Fanboy Charlie sogar sagt, kann man es ziemlich gut einsortieren.
naja die Frage.... was ich nur lustig finde ist sobald jmd. irgentwo etwas positives schreibt wird das gleich ausgebreitet und als "das Argument" benutzt.... ich würd mich mal freuen wenn endlich was "HANDFESTES" rauskommt damit diese Spekulationen aufhören...

Bucklew
2012-01-23, 20:55:42
naja die Frage.... was ich nur lustig finde ist sobald jmd. irgentwo etwas positives schreibt wird das gleich ausgebreitet und als "das Argument" benutzt.... ich würd mich mal freuen wenn endlich was "HANDFESTES" rauskommt damit diese Spekulationen aufhören...
Nochmal: CHARLIE ;)

Ailuros
2012-01-23, 20:57:32
Jetzt übertreib es mal nicht mit den Loorbeeren.
G80 hat neue Spitzenwerte beim Stromverbrauch gesetzt und genau deswegen ist der Vergleich, egal wie oft er wiederholt wird, nicht aussagekräftig, da Leistungsaufnahme nicht nochmal um 50-60 Watt ansteigen kann.
Nvidia wird sich wieder vor AMD setzen, aber wie immer relativ knapp. Ein Performance/Watt und Performance/mm² Wunder wird es nicht geben, da Nvidia auch nicht zaubern kann.


Und der G80 Leistungsunterschied mit dem Stromverbrauch zu parallelisieren ist der absurdeste Bloedsinn ueberhaupt schon seit 2006 wo ich den Muell lesen muss, da sowohl die G7x als auch G80 unter 90nm hergestellt wurde. Wenn Dir das jetzt immer noch nichts nach ganzen 6 Jahren sagt, kann ich leider auch nicht weiterhelfen.

Nichtdestominder der Unterschied kann diesmal nicht so brutal sein weil der Wechsel von non-USC--> USC, DX9-->DX10 viel zu gross war und weil G7x mit high quality AF im brutalen Gegensatz zu allem G80 und danach viel zu viel Leistung einbussen musste im Vergleich zu quality AF u.a. Im brutalsten unrealistischem synthetischen Fall verlor die G70 von quality auf high quality bis zu 50% und die G80 lediglich 16%.

Es werden wieder viel zu optimistische Erwartungen geschürt.
Eine OC HD 7970 dürfte mit optimierten Treibern + fetter Auflösung mal gut um die 50% schneller als die GTX 580 sein.

Es optimiert nicht nur ein IHV seine Treiber. Muss zwar noch nichts heissen aber es heisst wohl nicht dass weil Kepler hw noch nicht draussen ist, die Mehrzahl vom Treiber-team in Urlaub geschickt wurde. Eher der Gegenteil.

Und mehr als 70% Mehrleistung wird Kepler wohl auch kaum erreichen.

Du meinst GK110 im absoluten Durchschnitt? Eine Frage die ich wohl schwer beantworten werde nach dem GK104/chiphell disaster.

AwesomeSauce
2012-01-23, 21:06:05
Eine Frage die ich wohl schwer beantworten werde nach dem GK104/chiphell disaster.
Was für ein Disaster?

Schaffe89
2012-01-23, 21:19:45
Und der G80 Leistungsunterschied mit dem Stromverbrauch zu parallelisieren ist der absurdeste Bloedsinn ueberhaupt schon seit 2006 wo ich den Muell lesen muss, da sowohl die G7x als auch G80 unter 90nm hergestellt wurde. Wenn Dir das jetzt immer noch nichts nach ganzen 6 Jahren sagt, kann ich leider auch nicht weiterhelfen

Ja der Vergleich ist Dünnpfiff, ich dachte G80 wurde in 90nm hergestellt und der Vorgänger in einem größeren Fertigungsprozess.

Skysnake
2012-01-23, 21:25:17
Ich glaube, ein Lager wird im April heulen. Entweder sind es die Roten oder die Grünen. Ich glaube nicht, dass es die Grünen sind :)

und ich bin mir recht sicher das alle heulen werden, weil keiner das bekommt, was er gern hätte.

Ailuros
2012-01-23, 21:27:13
Was für ein Disaster?

Es ist ueberhaupt kein disaster. Ich will hoffen dass sich der Staub endlich mal etwas legt und sich die Situation etwas beruhigt; wir brauchen Kraefte fuer nach dem April und es wird nicht leicht sein was immer dabei wirklich herauskommt.

Zergra
2012-01-23, 21:27:52
Nochmal: CHARLIE ;)
schau ! du fixierst dich doch auch nur auf seine Meinung ...-> vllt wurde er ja geschmiert wer weiß.... -> viele anderen gab es ja nicht und es ist doch immer das selbe...

naja zurück zum Thema

Bucklew
2012-01-23, 21:29:53
schau ! du fixierst dich doch auch nur auf seine Meinung ...-> vllt wurde er ja geschmiert wer weiß.... -> viele anderen gab es ja nicht und es ist doch immer das selbe...
Ja natürlich ist er geschmiert: von AMD ;D

Deswegen ja diese Wertung...

Ailuros
2012-01-23, 21:32:18
und ich bin mir recht sicher das alle heulen werden, weil keiner das bekommt, was er gern hätte.

Da kann ich schon jetzt heulen, denn umsonst bekomm ich garantiert nichts ;D

Skysnake
2012-01-23, 21:39:36
Tja, das ist doof :ugly:

Musst du bischen mehr Sozialising betreiben, dann klappts auch mit der Hardware ;)

Ich will auf jeden Fall, das es endlich Februar wird, ich meine Klausuren rum hab und mein Tahiti bekomm, damit ich mir GPGPU auf der Karte mal genauer anschauen kann...

Bei nVidia haste aber irgendwie voll keine Chance, da mal irgend wen an die Strippe zu bekommen -.-

Ailuros
2012-01-23, 21:47:08
Tja, das ist doof :ugly:

Musst du bischen mehr Sozialising betreiben, dann klappts auch mit der Hardware ;)

War auch nur ein Scherz da Du sagtest dass garantiert niemand das bekommt was er haben will. Ich will es natuerlich umsonst haben wenn's ums "wollen" und nicht ums "koennen" geht.

Ich will auf jeden Fall, das es endlich Februar wird, ich meine Klausuren rum hab und mein Tahiti bekomm, damit ich mir GPGPU auf der Karte mal genauer anschauen kann...

Bei nVidia haste aber irgendwie voll keine Chance, da mal irgend wen an die Strippe zu bekommen -.-

Bei nicht veroeffentlichter hw bestehen Null Chancen dass jemand etwas schon im voraus bekommt.

Bucklew
2012-01-23, 21:52:53
Bei nicht veroeffentlichter hw bestehen Null Chancen dass jemand etwas schon im voraus bekommt.
Geht natürlich. Alles ne Frage des Buisness dahinter ;)

horn 12
2012-01-23, 22:00:30
Was erwartet Ihr ALLE nur von GF104
Jener wird wohl zwischen Tahiti Pro und Tahiti XT zu liegen kommen,- und bissi billiger sein als HD7950.

Duplex
2012-01-23, 22:10:43
Was erwartet Ihr ALLE nur von GF104
Jener wird wohl zwischen Tahiti Pro und Tahiti XT zu liegen kommen,- und bissi billiger sein als HD7950.
GK104 wird genau wie die FX5000 Serie ein reinfall :(

scherz, bei ähnlicher Leistung sollte man auch ähnliche Preise erwarten, genau wie GTX570 vs. HD6970 die aktuell um die 300,- liegen, warum sollte man die Karten günstiger vermarkten wenn GK110 z.b. erst in 4-6 Monaten kommt?

Zergra
2012-01-23, 22:17:13
GK104 wird genau wie die FX5000 Serie ein reinfall :(

scherz, bei ähnlicher Leistung sollte man auch ähnliche Preise erwarten, genau wie GTX570 vs. HD6970 die aktuell um die 300,- liegen, warum sollte man die Karten günstiger vermarkten wenn GK110 z.b. erst in 4-6 Monaten kommt?
GK104 soll doch jetzt im April kommen ? und GK 110 dann im Juni, das wären dann aber nur 2 Monate und naja solange haben wir wucher Preise :D

Nighthawk13
2012-01-23, 22:29:17
Es optimiert nicht nur ein IHV seine Treiber. Muss zwar noch nichts heissen aber es heisst wohl nicht dass weil Kepler hw noch nicht draussen ist, die Mehrzahl vom Treiber-team in Urlaub geschickt wurde. Eher der Gegenteil.
Wenn's bei 1D-Shadern bleibt(und auch sonst keine fundamentalen Architektur-Änderungen gibt) dürfte sich die Aufwand in Grenzen halten. Das Optimierungspotential aber auch, aus Softwaresicht wäre der Chip dann mehr oder weniger Fermi 3.0, für den man schon seit 2+ Jahren optimiert.

Ein Wechsel auf (V)LIW wäre natürlich heftig, was Treiber/Libs/Tools angeht. Laut dem Echolon-Video/Paper zieht man das ja zumindest mittelfristig in Erwägung.

Ailuros
2012-01-23, 22:37:53
GK104 soll doch jetzt im April kommen ? und GK 110 dann im Juni, das wären dann aber nur 2 Monate und naja solange haben wir wucher Preise :D

Ihr koennt so lange Ihr wollt das alberne Zeug wiederkauen aber GK104 war fuer den Februar anfangs mit einem $299 MSRP geplant. Der Grund warum wahrscheinlich auf April oder leicht davor verschoben wurde, wurde schon erwaehnt und GK110 war original fuer April und jetzt fuer Mai geplant. Wenn das PCIe3.0 Geruecht auch stimmt, dann braucht man nicht fuer alle chips die gleiche Zeit es hinzubiegen.

Und nein ich oder jeder andere kann nicht ausschliessen dass dieses auch fuer 104 im April gelten wird. Jetzt wo aber die Katze aus dem Sack ist mit den diversen leaks, wird es wohl nicht besonders weiss sein eine 104 auf $400 oder mehr zu jagen.

Wenn's bei 1D-Shadern bleibt(und auch sonst keine fundamentalen Architektur-Änderungen gibt) dürfte sich die Aufwand in Grenzen halten. Das Optimierungspotential aber auch, aus Softwaresicht wäre der Chip dann mehr oder weniger Fermi 3.0, für den man schon seit 2+ Jahren optimiert.

1D Shader != 1D Shader und so leicht ist das alles nicht. G80 war 2*8, GT200 3*8 und Fermi 2*16. Wie's wohl mit Kepler weitergeht wird wohl nicht so schwer sein es zu raten; noch schlimmer es werden die Abstaende zwischen SMs auch groesser weil sich deren Anzahl auch mehr oder weniger verdoppeln wird.

Natuerlich haette NV z.B. die Kepler shader auf einen Fermi uncore schnallen koennen, aber das war wohl eher ein Projekt das aus 2 guten Gruenden storniert wurde in der Vergangenheit.

Ein Wechsel auf (V)LIW wäre natürlich heftig, was Treiber/Libs/Tools angeht. Laut dem Echolon-Video/Paper zieht man das ja zumindest mittelfristig in Erwägung.

Einstein (auch als Echelon bekannt davor) ist noch gute 4 Jahre von heute entfernt.

Knuddelbearli
2012-01-23, 23:05:36
jup die frage ist halt ob es sich überhaupt lohnt PCI-E fürs Einstiegssegment nach zulegen, eventuell ist ja nur dadurch der Ivybridge launch haltbar. ist halt die frage wie wichtig es den OEMs als Checklisten Feature ist

Nighthawk13
2012-01-24, 02:27:39
1D Shader != 1D Shader und so leicht ist das alles nicht. G80 war 2*8, GT200 3*8 und Fermi 2*16. Wie's wohl mit Kepler weitergeht wird wohl nicht so schwer sein es zu raten; noch schlimmer es werden die Abstaende zwischen SMs auch groesser weil sich deren Anzahl auch mehr oder weniger verdoppeln wird.

Hmm zu raten gibts noch genug;) 3*16 wären denkbar, gabs schon (mehr oder weniger) bei GF114.

Ich sag mal 2*32/SM ohne Hotclock, aber dafür 1.15Ghz Chipclock.
(~2x soviele SMs relativ zum GF110 oder 114?). Mal angenommen 16SM=>1024Cudacores=>2.35TFlops. Das wäre schon eine ordentliche Steigerung zu GF110 :)

Das man den Uncore mit aufbohren muss ist klar. Aber evtl. nimmt man hier gewisse Engpässe in Kauf, um bessere Performance/Watt zu erzielen bei Code der ALU-limitiert ist.

Worauf ich ursprünglich hinauswollte: Der Architekturmstellung Cayman->GCN ist vermutlich grösser als Fermi->Kepler sein wird, und deshalb haben die AMD-Treiberentwickler die nächsten Monate noch mehr Potential die Performance zu verbessern.
Man wird sehen was sich an der 7970er Leistung noch tut. Wenn GK104 rauskommt ist Stichtag.

Hübie
2012-01-24, 03:01:09
Stichtag ist wenn bei beiden alles gut läuft ;) Dein Rätselraten sieht nicht schlecht aus...

Ich sehe das eh locker: Die kommenden Spiele sind alle keine Hardwarefresser. BF3 is draussen und ME3 wird technisch ME2 stark ähneln. Ergo brauch ich die Leistung noch nicht. Es gibt ein paar Schinken die mit Superglättung noch mal durchgehämmert werden wollen, aber sonst...
Also Männer: Locker durch die Hose atmen, Valentinstag Frauchen ordentlich beglücken und dann dürfen wir uns alle Kepler kaufen! ;D

Mayk-Freak
2012-01-24, 05:08:52
"Metro Last Light" nicht vergessen.

V2.0
2012-01-24, 07:25:12
Es dürfte ein Fehler sein zu glauben, dass die Verzögerung von GK104 sich linear auf alle anderen Chips ausgewirkt hat. Dei Launches dürften nun enger beeinander liegen und das wird man sicher auch beim Startpreis des GK104 spüren.

Bucklew
2012-01-24, 09:37:00
Ich sehe das eh locker: Die kommenden Spiele sind alle keine Hardwarefresser. BF3 is draussen
Also für BF3 könnte mir ein GK110 echt gefallen :)

MadManniMan
2012-01-24, 10:30:40
Ich verliere den Überblick ... welche Neuigkeiten gibt es denn jetzt schon wieder zu vermelden, dass man von einer Verzögerung des GK104 ausgehen muss?

AnarchX
2012-01-24, 11:18:46
Mangelnde 28nm Kapazitäten für eine $299 GraKa (Hardlaunch != ein paar Stunden Verfügbarkeit) und wohlmöglich Probleme im PCIe3-Modus.

Edgecrusher86
2012-01-24, 11:19:18
Die Revision A2, die wohl aufgrund eines PCI-E 3.0 Bugs notwendig war, dürfte daran schuld sein, dass GK104 erst im April kommt:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9134673&postcount=3276

Gut, die Kapazitäten sind natürlich auch noch ein nicht zu unterschätzender Faktor, will man einen Hardlaunch und keinen Paperlaunch starten. :)

MfG
Edge

MadManniMan
2012-01-24, 11:30:33
Ach Scheiße! Aber natürlich vielen Dank Euch für die Info =)

Jeder Tag Verzögerung irgendeines Produktes wirft auch immer die Gesamtentwicklung zurück. ;(

yamo
2012-01-24, 11:38:56
Stichtag ist wenn bei beiden alles gut läuft ;) Dein Rätselraten sieht nicht schlecht aus...

Ich sehe das eh locker: Die kommenden Spiele sind alle keine Hardwarefresser. BF3 is draussen und ME3 wird technisch ME2 stark ähneln. Ergo brauch ich die Leistung noch nicht. Es gibt ein paar Schinken die mit Superglättung noch mal durchgehämmert werden wollen, aber sonst...
Also Männer: Locker durch die Hose atmen, Valentinstag Frauchen ordentlich beglücken und dann dürfen wir uns alle Kepler kaufen! ;D


Ich sehe es ähnlich. Mit nem anständigen Sli-System bekommt man eigentlich alle Spiele mit sehr hoher BQ auf den (einen) Schirm, 3DV sowieso. Um mir Kepler schmackhaft zu machen, müßte NV mit ganz perversen OG/SG SSAA Settings im Treiber kommen. Ein 2x2 DS Revival wäre ja mal toll.
Ich gehe von +60% Performance des GK110 gegenüber GF110 aus, und dann heißt es: hart bleiben :freak:
Die 7970 ist trotz ihrer guten OC-Werte eine Enttäuschung für mich, allerdings ist sie sehr effizient.

dargo
2012-01-24, 12:25:48
Ach menno... jetzt habe ich einen neuen PC (die uralte Gurke hat den Geist aufgegeben) für meinen Cousin zusammengestellt und ihm empfohlen auf den GK104 bis Februar zu warten. Jetzt erfahre ich, dass es frühestens April wird? ;( So ein Sche..., jetzt muss er bis dahin mit der Onboard-Grafik vom SB auskommen. :(

boxleitnerb
2012-01-24, 12:28:27
Es wird ja gesagt, GK104 könnte ein paar Wochen vor Ivy kommen. Zweite Märzhälfte kann es vielleicht auch werden. Aber das mit dem PCIe Bug ist echt peinlich. Die hätten sicher gerne im Februar gelauncht.

yamo
2012-01-24, 12:39:11
Ach menno... jetzt habe ich einen neuen PC (die uralte Gurke hat den Geist aufgegeben) für meinen Cousin zusammengestellt und ihm empfohlen auf den GK104 bis Februar zu warten. Jetzt erfahre ich, dass es frühestens April wird? ;( So ein Sche..., jetzt muss er bis dahin mit der Onboard-Grafik vom SB auskommen. :(
Sind doch nur bummelich 8 Wochen. Er wird Dir die Füsse küssen ;)

Es wird ja gesagt, GK104 könnte ein paar Wochen vor Ivy kommen. Zweite Märzhälfte kann es vielleicht auch werden. Aber das mit dem PCIe Bug ist echt peinlich. Die hätten sicher gerne im Februar gelauncht.
Box, immer abwarten. Seit dem GF100 sind se da etwas vorsichtich:rolleyes:

dargo
2012-01-24, 12:45:13
Sind doch nur bummelich 8 Wochen. Er wird Dir die Füsse küssen ;)

Ja schon... er spielt übrigens in 1280-er Auflösung. :D Man muss aber auch immer 2-4 Wochen drauflegen damit man den Deppenaufschlag nicht bezahlen muss. Wenn Ail von 299$ ausgeht bedeutet das ca. 250-275€. Und das passiert in der Regel nicht direkt beim Launch. Obwohl... die Konkurrenz ist schon da. Hängt wohl alles davon ab wie gut die Verfügbarkeit von Anfang an ist.

Iruwen
2012-01-24, 16:07:54
und ich bin mir recht sicher das alle heulen werden, weil keiner das bekommt, was er gern hätte.
Ich hätte gern 'ne Karte die durch die Bank doppelt so schnell ist wie meine HD 5870 und bei der ich mit der Leistung auch was anfangen kann und bin recht zuversichtlich dass das bis Mitte des Jahres klappt ;)

Hübie
2012-01-24, 16:17:23
Also für BF3 könnte mir ein GK110 echt gefallen :)

Wieso? Läuft doch schon mit ner GTX 580 wie Budder in der Mikro :freak:

@Mayk-Freak: Metro Last Light wird wieder so ein "ich-spiels-in-8-Stunden-durch-und-start-es-danach-nie-wieder". Dafür lohnt keine neue Hardware ;)

Zergra
2012-01-24, 16:29:45
Wieso? Läuft doch schon mit ner GTX 580 wie Budder in der Mikro :freak:



kommt auf die Auflösung drauf an :D
->
Ihr koennt so lange Ihr wollt das alberne Zeug wiederkauen aber GK104 war fuer den Februar anfangs mit einem $299 MSRP geplant. Der Grund warum wahrscheinlich auf April oder leicht davor verschoben wurde, wurde schon erwaehnt und GK110 war original fuer April und jetzt fuer Mai geplant. Wenn das PCIe3.0 Geruecht auch stimmt, dann braucht man nicht fuer alle chips die gleiche Zeit es hinzubiegen.

das ist mir klar gewesen nur wollt ich das nochmal wissen weil hier ständig was anderes geschrieben wird... verwiert einen zusätzlich :D

Hübie
2012-01-24, 16:32:33
Na full HD mit SSAA. Da wird zwar nicht alles super geglättet aber es läuft gut und schaut recht gut aus.

dargo
2012-01-24, 17:36:32
Na full HD mit SSAA. Da wird zwar nicht alles super geglättet aber es läuft gut und schaut recht gut aus.
Sorry... aber BF3 läuft mit einer GTX580 im MP @Max. und schon gar nicht mit SSAA butterweich in Full-HD. Oder sind für dich bsw. 30fps butterweich? :| Ich hab selbst eine GTX480@580 und weiß das genau. In Golf of Oman zb. fällt die Framerate teilweise bis auf unter 50fps runter und das trotz keinem AA, weder HBAO noch SSAO und keinem MB.

Hübie
2012-01-24, 17:41:49
Kann nur vom SP berichten ;) Da läufts einwandfrei. Eine GTX480 bekommt man sowie so nicht auf 580-Niveau :tongue:

dargo
2012-01-24, 17:44:13
Kann nur vom SP berichten ;) Da läufts einwandfrei.

Der SP ist in wenigen Stunden durchgespielt, völlig unbedeutend.


Eine GTX480 bekommt man sowie so nicht auf 580-Niveau :tongue:
Stimmt... meine OC-GTX480 ist sogar einen Tick schneller. ;)

boxleitnerb
2012-01-24, 17:47:53
Ich finds ulkig wie sie alle an den 299$ zweifeln. Da wird dann gesagt, GK104 muss bedeutend langsamer als die überteuerten AMDs sein, weil es kann ja gar nicht sein, dass eine 300$ Karte eine 550$ Karte angreift :freak:

Deren Gesichter möchte ich sehen. Ich glaub nicht, dass GK104 Tahiti XT durchgängig schlagen kann, aber er wird ihm oft recht nah kommen und hier und da auch mal gewinnen, aber nur knapp.

M4xw0lf
2012-01-24, 17:49:48
Ich finds ulkig wie sie alle an den 299$ zweifeln. Da wird dann gesagt, GK104 muss bedeutend langsamer als die überteuerten AMDs sein, weil es kann ja gar nicht sein, dass eine 300$ Karte eine 550$ Karte angreift :freak:

Deren Gesichter möchte ich sehen. Ich glaub nicht, dass GK104 Tahiti XT durchgängig schlagen kann, aber er wird ihm oft recht nah kommen und hier und da auch mal gewinnen, aber nur knapp.

Tahiti XT gleich, ja? Na das wird sich erst mal zeigen müssen.

boxleitnerb
2012-01-24, 17:51:40
Rechne doch selbst:

GTX560Ti+60%, da ist man ca. bei GTX580+20%. Damit ist man in Reichweite der XT. In dem ein oder anderen NV-affinen Spiel könnte es einen Gleichstand geben. Anderswo liegt man dann aber auch weiter zurück, sicher. 60% finde ich jetzt bei einem neuen Prozess und wenn alles richtig gemacht wurde, nicht unrealistisch.

Hübie
2012-01-24, 17:54:44
Der SP ist in wenigen Stunden durchgespielt, völlig unbedeutend.


Stimmt... meine OC-GTX480 ist sogar einen Tick schneller. ;)

Meine OC GTX 580 ist schneller! ;)

@box: Wie kommst du eigtl auf diese Zahlen :confused: Ich finde das Thema spannend wenn man Effizienz mit einbezieht. Zu dem aktuellen Kostenpunkt steht AMDs Karte ja nicht all zu gut da.

dargo
2012-01-24, 17:55:21
Ich finds ulkig wie sie alle an den 299$ zweifeln. Da wird dann gesagt, GK104 muss bedeutend langsamer als die überteuerten AMDs sein, weil es kann ja gar nicht sein, dass eine 300$ Karte eine 550$ Karte angreift :freak:

Der Tahiti ist doch nur so teuer weil sich AMD das mangels Konkurrenz noch erlauben kann. Jeder IHV der die schnellste Grafikkarte zum Schleuderpreis sofort verhöckern würde ist nicht ganz dicht im Kopf.

Meine OC GTX 580 ist schneller! ;)

Und mein Schwa.. ist länger als deiner.:rolleyes: Lies doch erstmal was du selbst schreibst bevor du wieder eine unnötige Diskussion lostreten tust. :rolleyes:

Zergra
2012-01-24, 17:57:42
Meine OC GTX 580 ist schneller! ;)

@box: Wie kommst du eigtl auf diese Zahlen :confused: Ich finde das Thema spannend wenn man Effizienz mit einbezieht. Zu dem aktuellen Kostenpunkt steht AMDs Karte ja nicht all zu gut da.

was? hast du dich wohl verschrieben... die Karte ist sogar sehr Effizient... es würde mich eher bei NV interessieren wie es da diesmal aussieht... wie war das mit der GF400 serie ? naja, das ist doch der eigentlich wichtige Punkt... mehr Power bei weniger Leistungsaufnahme

Hübie
2012-01-24, 17:59:18
So würd ichs auch machen. Was machen die aber wenn GK104 WIRKLICH 299$ kostet und knapp an Tahiti XT heran reicht? Ich kann mir durchaus vorstellen, das AMD den frühen launch teuer bezahlen muss/musste.
Oder wie handhabt das TSMC?

@Zergra: Nein ich habe mich nicht verschrieben ;) Rechne doch mal Mehrleistung, Minderverbrauch und Energiekosten gegen. Du musst die schon ne ganze Weile betreiben damit sich der Mehrpreis amortisiert.

Edit: Verstehe mich nicht falsch. Die Karte an sich ist recht effizient für die Performance.

boxleitnerb
2012-01-24, 18:02:33
Meine OC GTX 580 ist schneller! ;)

@box: Wie kommst du eigtl auf diese Zahlen :confused: Ich finde das Thema spannend wenn man Effizienz mit einbezieht. Zu dem aktuellen Kostenpunkt steht AMDs Karte ja nicht all zu gut da.

Ich spekuliere :)
AMD liegt mit der 7970 ca. 45% vor der 6970, mal mehr, mal weniger. Ich gehe durch das Effizienzgetöse und Charlies Kommentare einfach mal davon aus, dass Nvidia hier einen leicht größeren Sprung hinlegt. 60% finde ich da nicht verkehrt.

Zergra
2012-01-24, 18:04:11
So würd ichs auch machen. Was machen die aber wenn GK104 WIRKLICH 299$ kostet und knapp an Tahiti XT heran reicht? Ich kann mir durchaus vorstellen, das AMD den frühen launch teuer bezahlen muss/musste.
Oder wie handhabt das TSMC?

@Zergra: Nein ich habe mich nicht verschrieben ;) Rechne doch mal Mehrleistung, Minderverbrauch und Energiekosten gegen. Du musst die schon ne ganze Weile betreiben damit sich der Mehrpreis amortisiert.

Wenn :D -> naja Mehrkosten sind ja jetzt nur so hoch, aber das ist ja auch oben beschrieben -> Monopol, braucht man sich jetzt auch nicht kaufen,
und wenn GK104 dann wirklich im April kommt lohnt sich das für AMD noch mehr, denn wenn GK104 Tahiti nicht übertrifft ist Tahiti immer noch die schnellste Single GPU Karte -> Monopol, wieso sollten sie dann die Preise Stark senken ? ich glaube eher NV erhöht den Preis von GK104,

ob AMD wegen dem Frühen Launch mehr zahlen muss, mhh ich weiß nicht TSMC sollte wohl auch davon Profitieren

Zergra
2012-01-24, 18:05:55
Ich spekuliere :)
AMD liegt mit der 7970 ca. 45% vor der 6970, mal mehr, mal weniger. Ich gehe durch das Effizienzgetöse und Charlies Kommentare einfach mal davon aus, dass Nvidia hier einen leicht größeren Sprung hinlegt. 60% finde ich da nicht verkehrt.
von was ? wo sollen sie 60% zulegen ? von der 580GTX zu GK104 ? naja das bezweifle ich aber deine Meinung,

boxleitnerb
2012-01-24, 18:08:20
Nein, von der GTX560 (Ti). Von GF114 auf GK104.
Also 60% von jeder Karte auf ihren direkten Nachfolger in Nvidias Portfolio. 560->660, 570->670 usw.

Zergra
2012-01-24, 18:11:51
Nein, von der GTX560 (Ti). Von GF114 auf GK104.
Also 60% von jeder Karte auf ihren direkten Nachfolger in Nvidias Portfolio. 560->660, 570->670 usw.
soll GK104 nicht die 680GT(X?) werden ? und nicht die 660 mhh aber das steht noch in den Sternen :D

Hübie
2012-01-24, 18:12:23
Wenn :D -> naja Mehrkosten sind ja jetzt nur so hoch, aber das ist ja auch oben beschrieben -> Monopol, braucht man sich jetzt auch nicht kaufen,
und wenn GK104 dann wirklich im April kommt lohnt sich das für AMD noch mehr, denn wenn GK104 Tahiti nicht übertrifft ist Tahiti immer noch die schnellste Single GPU Karte -> Monopol, wieso sollten sie dann die Preise Stark senken ? ich glaube eher NV erhöht den Preis von GK104,

ob AMD wegen dem Frühen Launch mehr zahlen muss, mhh ich weiß nicht TSMC sollte wohl auch davon Profitieren
von was ? wo sollen sie 60% zulegen ? von der 580GTX zu GK104 ? naja das bezweifle ich aber deine Meinung,

Doppelpost! Verbrennt ihn :freak:
So herum habe ich das noch gar nicht betrachtet. Da kann nVidia ja auch schön die Preise oben lassen. Stimmt :cool:

Gaestle
2012-01-24, 18:13:24
Hmm zu raten gibts noch genug;) 3*16 wären denkbar, gabs schon (mehr oder weniger) bei GF114.

Ich sag mal 2*32/SM ohne Hotclock, aber dafür 1.15Ghz Chipclock.
(~2x soviele SMs relativ zum GF110 oder 114?). Mal angenommen 16SM=>1024Cudacores=>2.35TFlops.

AFAIR wurden schon 1536 Cores für GK104 geleakt und soweit bestätigt, wie es eben im Spekulationsstadium bestätigt werden kann.
1536 ergibt sich z.B. aus [3 x 32] x 16

Aber diese Rechnung gab's doch hier im Thread schonmal von jemandem.

Und was bedeuten Shaderzahlen am Ende? ATi zeigt seit einiger Zeit, das Arithmetik in Spielen nicht alles ist.

boxleitnerb
2012-01-24, 18:15:06
@Zergra:
Namen sind doch egal. Dann nenn die 660 eben 680 und die Karte, die die 680 sein sollte 699. An der Performance ändert das ja nix.

Aber ich hab da auch Zweifel dran. Wäre GK104 die GTX680, würde es bei den von mir erwarteten 60% so aussehen: GTX680=GTX580+20%. Wer kauft denen das ab??? Oder machen sie AMDs Umstellung der Namensgebung bei Cayman nach? Wo ist überhaupt die Quelle dafür, dass GK104 wirklich zur 680 wird?

Wilde Theorie:
GK104=GTX680=GTX560Ti + 100%. Dann würds halbwegs passen :D

Zergra
2012-01-24, 18:20:10
Stimmt das mit den Namen kann nach hinten losgehen,
mhh wie oben geschrieben soll GK104 nicht die 680GT(X?) werden ? und nicht die 660 mhh aber das steht noch in den Sternen
ich habe noch Erinnerungen daran das das hier ne Zeitlang ausgebreitet wurde mhh aber klar ist das wohl auch noch nicht

uweskw
2012-01-24, 20:38:34
Meine OC GTX 580 ist schneller! ;)

@box: Wie kommst du eigtl auf diese Zahlen :confused: Ich finde das Thema spannend wenn man Effizienz mit einbezieht. Zu dem aktuellen Kostenpunkt steht AMDs Karte ja nicht all zu gut da.

Immer dieses sinnlose AMD gebashe. Am Ende glaubt es noch einer......
Die 7970 ist vom Preis/Leistungsverhältnis der 580er klar vorzuziehen.
High-End ist die 580 nur als 3GB Karte. Und da kostet sie genausoviel wie die 7970 mit 4GB, braucht aber mehr Strom und ist langsamer.
http://geizhals.at/?cat=gra16_512&sort=p&bpmax=&asuch=&v=e&plz=&dist=&xf=132_2048%7E1439_GTX+580#xf_top


boxlei..schrieb:

......
Wilde Theorie:
GK104=GTX680=GTX560Ti + 100%. Dann würds halbwegs passen :D

Mir scheint es eher so als hätte sich NV diesmal verrannt. Hätten vllt. doch bei ihrer Hotclock bleiben sollen. Ich halte 50% mehr als GF114 schon für optimistisch.

Greetz
U.S.

Nighthawk13
2012-01-24, 20:42:46
AFAIR wurden schon 1536 Cores für GK104 geleakt und soweit bestätigt, wie es eben im Spekulationsstadium bestätigt werden kann.
1536 ergibt sich z.B. aus [3 x 32] x 16

Aber diese Rechnung gab's doch hier im Thread schonmal von jemandem.

Und was bedeuten Shaderzahlen am Ende? ATi zeigt seit einiger Zeit, das Arithmetik in Spielen nicht alles ist.
Wenn man Cuda programmiert, spielt die Aufteilung in SMs schon eine gewisse Rolle, auch wenn die Gesamtleistung das wichtigste Kriterium bleibt.

[3 x 32] x 16 fände ich auch sinnvoll(da GF114 energieeffizienter als GF110 agiert), das passt aber nicht mit den spekulierten 1+GHz zusammen, sonst wäre man bei >3TFlops.

Es sei denn, es gibt nur 2 von den 3 Execution Ports je SM die FMA können, aber alle 3 Ports können je Takt einen Warp ausführen. Z.b. 1 Execution Port kann alles, 1 nur FMA und 1 Load/Store+Tex+einfache Integer-OPs(Adressberechnung).
Aber für solche Details muss man auf das Whitepaper/NDA-Ende warten, fürchte ich.

Wie Ailuros schon sagte, 1D-Shader!=1D-Shader, da gibts im Detail viele Varianten, auch was das Scheduling angeht.

AnarchX
2012-01-24, 21:05:15
[3 x 32] x 16 fände ich auch sinnvoll(da GF114 energieeffizienter als GF110 agiert), das passt aber nicht mit den spekulierten 1+GHz zusammen, sonst wäre man bei >3TFlops.


GK104 hat um ~36% hoehere Geometrie-Leistung und ueber 2x Mal so viel Fuellrate im Vergleich zu GF110. Bei den GFLOPs auf Papier wird der Vergleich sogar peinlich.

Eben noch etwas deutlicher über 2 TFLOPs, als es wohl bei der A1 Version war.

Ailuros
2012-01-24, 21:19:25
Wenn man Cuda programmiert, spielt die Aufteilung in SMs schon eine gewisse Rolle, auch wenn die Gesamtleistung das wichtigste Kriterium bleibt.

[3 x 32] x 16 fände ich auch sinnvoll(da GF114 energieeffizienter als GF110 agiert), das passt aber nicht mit den spekulierten 1+GHz zusammen, sonst wäre man bei >3TFlops.

Doch die allererste Meldung war dass die Zielfrequenz fuer 104 bei 2/3 GF110 hotclock lag. Es sind ueber 3 TFLOPs.

Es sei denn, es gibt nur 2 von den 3 Execution Ports je SM die FMA können, aber alle 3 Ports können je Takt einen Warp ausführen. Z.b. 1 Execution Port kann alles, 1 nur FMA und 1 Load/Store+Tex+einfache Integer-OPs(Adressberechnung).
Aber für solche Details muss man auf das Whitepaper/NDA-Ende warten, fürchte ich.

Wie Ailuros schon sagte, 1D-Shader!=1D-Shader, da gibts im Detail viele Varianten, auch was das Scheduling angeht.

Tja meine brennende Frage ist und bleibt wie die relativ hohe Effizienz beim GK104 genau erreicht wird. Spekulative Antworten hab ich schon rechts und links bekommen aber nichts dass einleuchtend klang, oder ich hab einfach wieder einen blonden Moment und verpass irgend etwas wesentliches. Rohe Daten ok fuer diverse Einheiten aber wieso hier die Bandbreite nicht allzu stark stockt ist mein eigentliches Fragezeichen.

Wenn ich eine logische Erklaerung fuer die Bandbreite bekomme (ich tippe auf hoehere caching Effizienz kann aber auch bogus sein), dann imponiert mir der Rest nicht besonders. Sie verdoppelten einfach die Anzahl der SPs pro SIMD und mit der alles andere als mickrigen core-Frequenz schaffen es so deutlich mehr Leistung/W an den Mann zu bringen.

Da wo es wirklich interessant wird ist natuerlich erst wenn das erste Kepler whitepaper an die Luft kommt. Bis dahin tappen wir im Dunkeln.

AnarchX,

Ich sagte von Anfang weit um einiges ueber 2 TFLOPs und auch dass so manche rohe Specs (ausser der Busbreite) zu stark an Tahiti erinnern. Wenn es ueberhaupt einen Takt-unterschied zwischen A1 und A2 gab dann nie mehr als 100MHz. Bei hypothetischen 950MHz sind es 2.92TFLOPs und bei 1050MHz dann 3.22TFLOPs; nicht gerade ein sehr grosser Unterschied.

Gaestle
2012-01-24, 21:35:40
[3 x 32] x 16 fände ich auch sinnvoll(da GF114 energieeffizienter als GF110 agiert), das passt aber nicht mit den spekulierten 1+GHz zusammen, sonst wäre man bei >3TFlops.


Ailuros hat einen Teil schon beantwortet,

Es könnte außerdem damit zusammen passen, dass
a) GK110 ein "doppelter" GK104 sein soll
und gleichzeitig
b) GK104 "zwei Drittel" eines GK110 sein soll.

Wenn sich a) nur auf die SP-DP-Ratio bezieht und nicht auf den Output in absoluten Zahlen, könnte aus der Rechnung
[3 x (8x4)] x 16 ein [3 x (8x8)] x 16 werden.

Wenn b) dann auch zutrifft, könnte aus [3 x (8x8)] x16 ein [2 x (8x8)] x 16 werden.

Das ist aber auch nicht auf meinem Mist gewachsen.

Es bleibt die Frage, was die ganzen FLOPS dann tatsächlich in SPIELEN bringen (dass sie woanders sehr nützlich sind, ist klar).

Ailuros
2012-01-24, 21:40:36
Es könnte aber damit zusammenpassen, dass
a) GK110 ein "doppelter" GK104 sein soll
und
b) GK104 "zwei Drittel" eines GK110 sein soll.

Wenn sich a) nur auf die SP-DP-Ratio bezieht und nicht auf den Output in absoluten Zahlen, könnte aus der Rechnung
[3 x 32] x 16 ein [3 x 64] x 16 werden.

Wenn b) dann auch zutrifft, könnte aus [3 x 64] x16 ein [2 x 64] x 16 werden.

Es wird wohl kein IHV so viel Aufwand aufnehmen unterschiedliche SIMDs innerhalb einer Generation zu haben. Wie es danach beim top dog aussehen koennte ist nicht besonders schwer auszuraten, wenn man ein anstaendigeres als 3:1 SP<->DP ratio haben will. Performance und high end koennen auch nicht die genau gleiche Anzahl an rasters z.B. haben. Ueberhaupt da der top dog dank hoeherer Komplexitaet nicht unbedingt so hohe Frequenzen erreichen wird, schlaegst Du oben gerade einen high end chip vor der weniger Geometrie schafft als ein performance chip.


Es bleibt die Frage, was die ganzen FLOPS dann tatsächlich in SPIELEN bringen (dass sie woanders sehr nützlich sind, ist klar).

Es hocken auch eine Unzahl an FLOPs im GF114 im relativen Sinn dumm rum. GF114 hat 1.2 und GF110 1.5; neben der Tatsache dass GF110 ganz anders organisiert ist und doppelt so viel GPCs hat, hat es auch um einiges mehr Bandbreite.

boxleitnerb
2012-01-25, 07:15:03
Charlie:

Nvidia just warned. How long have I been pointing out the EXACT same thing? They said I was mad.......

Curiously, AMD didn't report the same things NV did. I wonder why? Hint: go read my last few articles on the topic.


Frage, ob es sich auf die Tegra Roadmap bezieht, Antwort:
Yeah, the Tegra roadies and to a lesser extent the GPU forecasts.

M4xw0lf
2012-01-25, 09:30:37
Charlie:

Nvidia just warned. How long have I been pointing out the EXACT same thing? They said I was mad.......
Curiously, AMD didn't report the same things NV did. I wonder why? Hint: go read my last few articles on the topic.


Frage, ob es sich auf die Tegra Roadmap bezieht, Antwort:
Yeah, the Tegra roadies and to a lesser extent the GPU forecasts.

Worum gehts da grade genau? I don't follow that at all :wink:

boxleitnerb
2012-01-25, 09:51:36
Gute Frage! :D
Anscheinend wurde er von Nvidia verwarnt, weil er etwas gepostet hat, was er nicht posten durfte? Vielleicht u.a. den Preis von 299$.

Später schreibt er auch im Forum (in Bezug auf den Crysis 2 Tess "Cheat"):
This time around, Nvidia's games are going to make Wall Street look look like Ghandi. I am in shock.

a) Das war erst der Anfang, Nvidia wird Tess und PhysX noch viel aggressiver pushen
b) Irgendwas im Bezug auf Kepler Preise?
c) Was völlig anderes.

Einem unsicheren 7970-Besitzer empfiehlt er, diese zu behalten. Das ist jetzt nicht weiter verwunderlich, weil 2 Monate ohne gescheite Karte ist ja auch blöd. Man könnte da zusammenfantasieren, dass er das auch sagt, weil GK104 nicht schneller als Tahiti XT wird.

mironicus
2012-01-25, 11:57:30
Erst sagt er, dass die neuen NVidia-Karten deutlich schneller als die 7970 werden und jetzt kommt der Preispunkt von 299 Dollar was eher darauf schließen lässt, dass NVidia zunächst keine schnellere Karte veröffentlichen wird.

NVidia selbst ist doch erstaunlich still nach der 7970-Veröffentlichung geworden.

boxleitnerb
2012-01-25, 11:58:28
Wo sagt er, dass sie deutlich schneller werden?

Duplex
2012-01-25, 12:09:40
Bei 299$ / 230 € glaubt doch keiner im ernst das GK104 etwas reißen wird, wenn der Preis stimmen sollte wird das ein ersatz für die GTX470 / GTX560 TI "448", mehr sollte man nicht erwarten.

Nvidia wird niemals eine Karte für 299$ veröffentlichen die schneller als eine 7970 wäre.

boxleitnerb
2012-01-25, 12:12:00
Und was für eine Steigerung erwartest du für diese Karte? Die 560Ti liegt schließlich "nur" ca. 70% hinter der 7970 im Schnitt. 70% sind für eine neue Generation eigentlich machbar. In der Vergangenheit vielleicht nicht bei gleicher Leistungsaufnahme, aber daran will man ja diesmal stark gearbeitet haben.
Oder willst du sagen, dass Nvidia den 560Ti Nachfolger für 400-500 Dollar bringt? Was kostet dann GK110? Und was die Dualchip-Lösung? 800 bzw. 1000 Dollar? Na viel Spass, das loszuwerden. Das Problem, was die Leute mit dieser hypothetischen 300$ schlägt 550$ Situation haben ist, dass die Radeons bezogen auf die Preisleistungssteigerung, die man eigentlich von einer neuen Generation erwarten würde, krass überteuert sind. Die können also nicht der Maßstab sein. Wenn es Ungeduldige gibt, die ihr Geld so rauswerfen wollen, ok. Aber man muss auch sehen, dass sich P/L im Vergleich zu den alten Karten im Moment praktisch gar nicht verbessert hat.

Edgecrusher86
2012-01-25, 12:17:12
Wurde glaub ich hier noch nicht geposted:

http://www.nordichardware.com/news/71-graphics/45147-nvidia-qwe-expected-more-from-radeon-hd-7900q-exclusive.html

Die "Kernaussagen":

In talks with spokesperson we had it confirmed that NVIDIA could not specify a launch schedule more preduce than "first half of 2012".
They insinuated that Kepler - the new architecture - will launch by the end of March, but could slide into Q2, which would still give AMD a headstart of a quarter of a year.


sowie:

"Honestly, we expected more from our competitor’s new architecture."


MfG
Edge

AwesomeSauce
2012-01-25, 12:33:42
Wurde glaub ich hier noch nicht geposted:

http://www.nordichardware.com/news/71-graphics/45147-nvidia-qwe-expected-more-from-radeon-hd-7900q-exclusive.html

Die "Kernaussagen":

sowie:

MfG
Edge
Was soll er auch sonst sagen? "Unser Produkt wird schlechter und wir empfehlen, Karten der Konkurrenz zu kaufen"?:freak:

Ich kriege hier einen Lachanfall, wenn ich die Kommentare auf CB zu dieser "News" lese. http://www.computerbase.de/news/2012-01/nvidia-haben-mehr-von-amds-radeon-hd-7900-erwartet/

Gaestle
2012-01-25, 12:39:58
Es hocken auch eine Unzahl an FLOPs im GF114 im relativen Sinn dumm rum. GF114 hat 1.2 und GF110 1.5; neben der Tatsache dass GF110 ganz anders organisiert ist und doppelt so viel GPCs hat, hat es auch um einiges mehr Bandbreite.

Genau darum ging es mir. Es gibt noch andere relevante Dinge neben den FLOPS.

Cubitus
2012-01-25, 12:40:02
Kommentar von Nvidia zur aktuellen AMD in Bezug auf Kepler.

Dem Bericht zufolge soll Nvidia während der CES 2012 in Las Vegas verlautbaren haben, dass Nvidia mehr von der AMD Radeon HD 7900 auf Basis einer komplett neuen Architektur erwartet habe. Bei Nvidia habe man zuvor Prognosen über die Karte des Konkurrenten angestellt, die es zu schlagen galt. Diese wurde dabei anscheinend sogar überbewertet, weshalb der Bericht direkt soweit geht, dass „Kepler“ in der vollen Ausbaustufe kein Problem haben wird, die Radeon HD 7900 zu schlagen.

http://www.computerbase.de/news/2012-01/nvidia-haben-mehr-von-amds-radeon-hd-7900-erwartet/

AnarchX
2012-01-25, 12:48:14
Besser gesagt ein Kommentar eines nicht genannten NV-Mitarbeiters, den NHW auf des CES gesprochen haben will.

mapel110
2012-01-25, 12:55:20
wäre schon irgendwie lustig. AMD erwartet von nvidia nicht viel und nvidia erwartet von AMD sehr viel. ^^
Sollte realistisch gesehen eher umgekehrt sein.

Nighthawk13
2012-01-25, 12:55:24
Doch die allererste Meldung war dass die Zielfrequenz fuer 104 bei 2/3 GF110 hotclock lag. Es sind ueber 3 TFLOPs.

Tja meine brennende Frage ist und bleibt wie die relativ hohe Effizienz beim GK104 genau erreicht wird. Spekulative Antworten hab ich schon rechts und links bekommen aber nichts dass einleuchtend klang, oder ich hab einfach wieder einen blonden Moment und verpass irgend etwas wesentliches. Rohe Daten ok fuer diverse Einheiten aber wieso hier die Bandbreite nicht allzu stark stockt ist mein eigentliches Fragezeichen.

Wenn ich eine logische Erklaerung fuer die Bandbreite bekomme (ich tippe auf hoehere caching Effizienz kann aber auch bogus sein), dann imponiert mir der Rest nicht besonders. Sie verdoppelten einfach die Anzahl der SPs pro SIMD und mit der alles andere als mickrigen core-Frequenz schaffen es so deutlich mehr Leistung/W an den Mann zu bringen.

>=3TFlops für <=300EUR klingt fast zu schön um wahr zu sein:)

Was das Bandbreitenproblem angeht kann ich auch nur in Blaue spekulieren.

Caches einfach vergrössern hilft nur begrenzt, da die vielen nicht-lokalen Speicherzugriffe den L2-Cache schnell trashen(Mipmap Zugriffe auf grosse Texturen aus tausenden Threads).

Vielleicht hat man den Texunits einen eigenen L2-Cache spendiert.
Der könnte read-only, non-coherent, high-latency(viel Speicherplatz) sein und müsste nur Blocktransfers in den L1-Textur-Cache beherrschen.
Für Spiele könnte das schon einiges bringen, für GPGPU meistens nix.

AwesomeSauce
2012-01-25, 12:56:19
Besser gesagt ein Kommentar eines nicht genannten NV-Mitarbeiters, den NHW auf des CES gesprochen haben will.
Psst, sonst kann man sich doch nicht über die Arroganz Nvidias aufregen:freak:

Cubitus
2012-01-25, 12:59:14
Jo deswegen ist das hier ja auch der Thread der Gerüchteküche und Spekulatius. :)

Und es stimmt schon, bei Fermi kamen damals ähnliche Äußerungen.
Fermi war ja auch schneller...

Ich hoffe dieses mal stimmt auch der Verbrauch.

Wobei ich das Gefühl habe, dass die große GPU schon wieder ein Dampfhammer und Verbrauchsmonster werden wird.

Punkten wird man mit dem kleinen 104er

Iruwen
2012-01-25, 12:59:34
weshalb der Bericht direkt soweit geht, dass „Kepler“ in der vollen Ausbaustufe kein Problem haben wird, die Radeon HD 7900 zu schlagen

Stand das jemals in Frage? Damit ist vermutlich nicht GK110 vs 7990 gemeint :freak:

Ailuros
2012-01-25, 13:01:11
Bei 299$ / 230 € glaubt doch keiner im ernst das GK104 etwas reißen wird, wenn der Preis stimmen sollte wird das ein ersatz für die GTX470 / GTX560 TI "448", mehr sollte man nicht erwarten.

Nvidia wird niemals eine Karte für 299$ veröffentlichen die schneller als eine 7970 wäre.

Wer sagte dass sie schneller als eine 7970 ist? Es reicht wenn es zwischen 7950 und 7970 was auch wohl so sein wird.

Was ist denn genau hier so schwer zu verstehen? GK104 hat als performance GPU genauso viel Transistoren wie GF110 und da der Abstand zwischen 40 und 28nm ziemlich gross ist und bei Kepler um eine neue effizientere Architektur handelt. Es ist stinknormal dass in solchen Faellen eine neue performance GPU etwas schneller sein koennte als der vorige high end.

Um es Dir mal auf eine andere Basis zu legen; ich hab die handausgesuchten NV benchmark Resultate um ein gutes Stueck reduziert um Marketing-Uebertreibungen zu entgehen und es sieht nicht danach aus dass ich mit solchen Specs besonders viel falsch liegen koennte.

Sonst darfst Du in der Zwischenzeit gerne raten dass wenn $299 Leistung so wie oben beschrieben aussieht, wie die $499 Leistung genau aussehen koennte. Die angeblichen Aussagen oben von NV's engineers Reaktionen als sie ueber Tahiti ein Bild hatten entspricht der Realitaet.

Stand das jemals in Frage? Damit ist vermutlich nicht GK110 vs 7990 gemeint :freak:

Welche Antwort aufs obrige koenntest Du leichter glauben? :P

boxleitnerb
2012-01-25, 13:32:18
Wahrheitsdichter oder könnte da was dran sein? Aus dem Computerbaseforum. Anscheinend arbeitet der bei einem Distributor oder so:

In den letzten Tagen halten sich die bekannteren(Seriösen) Seiten auffällig mit Infos/Gerüchten zurück...
Z.B, daß der GK104 stark auf Fermi basiert, ein Shrink wenn man so möchte, aber zum Preis von UVP 300$ die GTX 580 überholt.(GTX 560Ti Nachfolger).

Ich halt es nicht mehr aus und muß es sagen:
Ich sehe viele, viele hochinteressante Paletten bei uns rumstehen...leider undurchsichtig verpackt, aber der Lieferschein spricht.
Nix mit Paperlaunch, darum sah man auch nix auf der CES.

Und ich Wette um mein linkes Ei, daß CB(und alle anderen) schon fest am Testen ist, bzw. der Finger über dem "Veröffentlichen" Button zittert!

http://www.computerbase.de/forum/showpost.php?p=11410338&postcount=10

Ronny145
2012-01-25, 13:40:33
Ach vor jeden Launch gibt es solche Spinnereien.

AwesomeSauce
2012-01-25, 13:43:18
Silly Season eben. Sollte schon eine solche Anzahl an Karten verschifft worden sein, launcht man wohl kaum erst im April. I call BS.

Hugo78
2012-01-25, 13:45:02
@boxleitnerb

Ich sag mal, an einem kommenden Dienstag oder Donnerstag um 15Uhr unserer Zeit, wissen wir mehr. ;)

Duplex
2012-01-25, 13:52:27
Und was für eine Steigerung erwartest du für diese Karte? Oder willst du sagen, dass Nvidia den 560Ti Nachfolger für 400-500 Dollar bringt?.
Ich erwarte GTX580 > Tahiti Pro Leistung, aber nicht für 299$ sondern für 325-350$.

Wer sagte dass sie schneller als eine 7970 ist? Es reicht wenn es zwischen 7950 und 7970 was auch wohl so sein wird.
Und hier hätten wir wieder das Problem mit dem Preis, Leistung zwischen 7950 & 7970 ist Super aber bei nur 299$ kauft keiner mehr Tahiti Karten...

Ailuros
2012-01-25, 13:54:30
Wahrheitsdichter oder könnte da was dran sein? Aus dem Computerbaseforum. Anscheinend arbeitet der bei einem Distributor oder so:
http://www.computerbase.de/forum/showpost.php?p=11410338&postcount=10

Absoluter Bloedsinn.

AnarchX
2012-01-25, 13:55:11
Und hier hätten wir wieder das Problem mit dem Preis, Leistung zwischen 7950 & 7970 ist Super aber bei nur 299$ kauft keiner mehr Tahiti Karten...

Wer sagt, dass eine 1,5GiB 7950 nicht in 2 Monaten bei $279 liegt?

Duplex
2012-01-25, 13:56:32
wäre schon irgendwie lustig. AMD erwartet von nvidia nicht viel und nvidia erwartet von AMD sehr viel. ^^
Sollte realistisch gesehen eher umgekehrt sein.
Vielleicht hat Nvidia einen 2. RV770 erwartet?

boxleitnerb
2012-01-25, 13:57:36
Absoluter Bloedsinn.

Gut.
@Duplex: Und wo ist das ein Problem von Nvidia, wenn keiner mehr Tahitis kauft? :freak:

Ailuros
2012-01-25, 14:08:19
Und hier hätten wir wieder das Problem mit dem Preis, Leistung zwischen 7950 & 7970 ist Super aber bei nur 299$ kauft keiner mehr Tahiti Karten...

Haette NV genug Kapazitaeten fuer einen Februar hard launch finden koennen haetten sie wohl das Ding auch veroeffentlicht; selbst wenn das PCIe3.0 Zeug stimmt haetten sie es auch so auf die Strasse bringen koennen denn es ist ja nicht so dass der Markt mit PCIe3 mobos ueberschwemmt ist und sie haben auch schon schlimmeres in der Vergangenheit geschluckt.

Bei einem $299 MSRP waere die Anfrage gigantisch gewesen und bis zu Maerz/April wird AMD nicht die heutigen Preise halten koennen weil eben die Herstellungskosten bei TSMC kleiner sein werden. Genau den Grund gibt AMD auch links und rechts an, ergo koennten sich selbst wenn sie wollten nicht viel daran aendern als die Preise kurzfristig zu reduzieren.

GK104 hat 3 wesentliche Vorteile und diese genau in der Reihe je nach Groesse im Vergleich zu Tahiti heute:

perf/$
perf/W
perf/mm2

Das letzte ist offensichtlich der kleinste Unterschied insgesamt im Vergleich zu anderen. Wenn AMD noch rechtzeitig die Preise reduziert vor dem 104 launch rutscht vielleicht perf/$ auf den zweiten Platz.

$299 war stets fuer den performance Kepler geplant, zumindest $399 high end salvage part und zumindest $499 high end. Es hat sich nichts fundamentales gaendert im Vergleich zur GF11x Familie, nur eben dass GK104 einen leicht hoeheren MSRP hat im Vergleich zum GF114 MSRP eben weil der erste hoehere Leistung anbietet. Dabei sollte man nicht ausschliessen dass high end vielleicht etwas hoeher liegen koennte als die vorigen Preise.

Duplex
2012-01-25, 14:11:32
@boxleitnerb
Nehmen wir die GTX570 & HD6970 als Beispiel, beide leisten ähnlich viel und kosten in etwas das gleiche, warum soll Nvidia die Preise vom GK104 (z.b. 7950 Leistung) nicht einfach an der konkurrenz anpassen? Ich weiß das GK110 noch kommen wird, der wird auch bei 30% mehr GPU Leistung als Tahiti XT locker 550-600 € kosten.

Duplex
2012-01-25, 14:16:50
AMD hat aktuell genauso Vorteile bei Fläche & Leistungsaufnahme...
Man sollte auch nicht vergessen das "GK110" zwischen 40-50% größer als Tahiti ausfallen wird, AMD könnte genauso einen größeren Chip mit 512 Bit, 2560SPs & Frontend Tuning für ende 2012 planen...

boxleitnerb
2012-01-25, 14:40:06
Was ist besser:
Gleich viele Käufer abgreifen und sich das Image des besten P/L-Verhältnisses zu sichern oder nach 2 Wochen bei AMDs Preissenkung ebenfalls die Preise senken und die Erstkäufer verärgern? Wir reden hier nicht von 2 Monaten Raubritterei wie AMD das momentan machen kann. AMD bzw. der Markt wird schneller reagieren. Die Käufer lassen sich diese Preise im Moment nur deshalb gefallen, weil es keine Konkurrenz gibt. Wenn beide zuviel verlangen, werden die Karten in den Regalen liegenbleiben. Wir haben Wirtschaftskrise, glaubst du, du kannst im selben Segment den Preis um 50-100$ im Vergleich zu heute anheben und dieselben Stückzahlen absetzen? Geht das dann dauerhaft so weiter, kosten die Karten in 5 Jahren 150$ mehr als heute.

AMD könnte, hätte, würde. Haben sie seit 6 Jahren nicht gemacht, warum sollen sie jetzt damit anfangen?

Bucklew
2012-01-25, 14:43:20
Man nimmt natürlich die 299US-$, weil die Käuferschicht viel, viel größer ist als für eine 499US-$ Karte. Der Umsatz wird deutlich größer durch den niedrigeren Preis und damit unterm Strich der Gewinn.

Iruwen
2012-01-25, 14:44:58
Man sollte auch nicht vergessen das "GK110" zwischen 40-50% größer als Tahiti ausfallen wird, AMD könnte genauso einen größeren Chip mit 512 Bit, 2560SPs & Frontend Tuning für ende 2012 planen...

Mal davon abgesehen dass ich mir die Frage stellen würde ob sie das wirklich können: warum sollten sie? AMD legt offensichtlich keinen Wert auf die SGPU Performance Krone. Mit solchen Kloppern macht man im Consumerbereich auch nicht die großen Gewinne.

Die Käufer lassen sich diese Preise im Moment nur deshalb gefallen, weil es keine Konkurrenz gibt.

So einfach wie es ist kurzfristig eine 7970 zu bekommen obwohl TSMC ja offenbar noch keine Unmengen an Chips zu produzieren in der Lage ist scheinen sich das aber auch nicht allzu viele Leute gefallen zu lassen.

Ailuros
2012-01-25, 14:45:19
@boxleitnerb
Nehmen wir die GTX570 & HD6970 als Beispiel, beide leisten ähnlich viel und kosten in etwas das gleiche, warum soll Nvidia die Preise vom GK104 (z.b. 7950 Leistung) nicht einfach an der konkurrenz anpassen?

Weil sie von Anfang an eine komplette Pallette an GPUs von mainstream ueber performance bis zu high end innerhalb 3 Monaten geplant hatten. Wenn 104 im Februar mit $400 erschienen waere und 110 im April wie original geplant haette man den letzteren wohl eher auf 700 verkaufen sollen. Preise blindlings so anzusetzen ist zwar eine schoene Sache aber auch nur wenn es einem IHV scheiss egal ist wenn gar nichts oder nur sehr wenig verkauft wird was aber NIE der Fall ist. Je hoeher der Preis desto niedriger die Anfrage.

AMD kann NICHT besonders viele GPUs momentan verkaufen deshalb macht der hohe MSRP eventuell auch irgendwie Sinn.

Ich weiß das GK110 noch kommen wird, der wird auch bei 30% mehr GPU Leistung als Tahiti XT locker 550-600 € kosten.

Woher weisst Du wie gross der Leistungsunterschied sein wird? Angenommen es werden +30% dann ist der Unterschied so oder so erstmal um einiges groesser als bei GT200, GF100 und GF110 zu den jeweiligen AMD performance GPUs jeglicher Zeit. Kann es sein dass Du selber diesmal etwas besseres erwartest?

AMD hat aktuell genauso Vorteile bei Fläche & Leistungsaufnahme...

Und was spricht dagegen dass es diesmal bei NV leicht besser sein koennte?

Man sollte auch nicht vergessen das "GK110" zwischen 40-50% größer als Tahiti ausfallen wird, AMD könnte genauso einen größeren Chip mit 512 Bit, 2560SPs & Frontend Tuning für ende 2012 planen...

So lange das Preis-/Leistungs-Verhaeltnis auf einem GK110 stimmt ist dann die die area relativ wurscht, ueberhaupt wenn New Zealand zu 2*370 greifen muss um diesen zu kontern. Die Kuehlungsloesung und PCB ist so oder so billiger theoretisch im ersten Fall.

AMD koennte vieles planen fuer die Zukunft aber das heisst auch nicht dass NV nicht frueher oder spaeter darauf antworten wird. Es geht momentan um die erste Kepler Familie. Sonst kannst Du lange auf einen 512bit bus von AMD fuer den Tahiti Nachfolger hoffen ;)

dargo
2012-01-25, 15:14:45
@boxleitnerb
Nehmen wir die GTX570 & HD6970 als Beispiel, beide leisten ähnlich viel und kosten in etwas das gleiche, warum soll Nvidia die Preise vom GK104 (z.b. 7950 Leistung) nicht einfach an der konkurrenz anpassen?
Weil der GK104 der Nachfolger zur GTX560(Ti) ist. Und diese Leute werden bestimmt nicht auf einen GK104 umsteigen wenn dieser 400€ kostet. Ich habe schon mehrmals gesagt, dass die AMD-Preise nur so hoch sind weil die Konkurrenz noch nichts liefern kann. Was ist daran so schwer zu verstehen?

Ronny145
2012-01-25, 15:17:38
Weil der GK104 der Nachfolger zur GTX560(Ti) ist. Und diese Leute werden bestimmt nicht auf einen GK104 umsteigen wenn dieser 400€ kostet.


Nicht wirklich. GK104 geht bis GTX680 hoch. GTX660 wird sicherlich keine 400€ kosten.

fondness
2012-01-25, 15:18:04
Und hier hätten wir wieder das Problem mit dem Preis, Leistung zwischen 7950 & 7970 ist Super aber bei nur 299$ kauft keiner mehr Tahiti Karten...

Als ob die Tahiti-Karte im April auch nur annähernd das kosten werden was sie heute kosten. Tahiti ist eine Performance-GPU die aktuell mangels Konkurrenz zu High-End-Preisen verkauft werden. Kurz vorm GF104-Launch wird AMD die Preise anpassen, des sollte klar sein.

dargo
2012-01-25, 15:20:16
Nicht wirklich. GK104 geht bis GTX680 hoch. GTX660 wird sicherlich keine 400€ kosten.
Das ändert nichts daran, dass eine Performance-GPU bei NV keine 400€ kosten wird.

Dural
2012-01-25, 15:21:08
Tahiti ist auch ein witz für eine neue Architektur + Prozess


wer da nur irgend was gutes an lächerlichen rund 40% (oder was es sind) auf die ebenfalls schon schwache 6970 und mit rund 1,5 Miliarden Transistoren mehr für gut findet kann ich nicht ernst nehmen!


GK110 wird das ding in den bodenstapfen, die frage ist nur mit wie viel verbrauch und wann

Iruwen
2012-01-25, 15:24:51
Als ob die Tahiti-Karte im April auch nur annähernd das kosten werden was sie heute kosten. Tahiti ist eine Performance-GPU die aktuell mangels Konkurrenz zu High-End-Preisen verkauft werden. Kurz vorm GF104-Launch wird AMD die Preise anpassen, des sollte klar sein.

Wollen wir's hoffen, bei den aktuellen Preisen ist der WAF für eine neue Grafikkarte negativ :freak:

Tahiti ist auch ein witz für eine neue Architektur + Prozess
wer da nur irgend was gutes an lächerlichen rund 40% (oder was es sind) auf die ebenfalls schon schwache 6970 und mit rund 1,5 Miliarden Transistoren mehr für gut findet kann ich nicht ernst nehmen!

Das würde ich erst beurteilen wenn die Konkurrenz die Karten auf den Tisch legt (/e: WORTSPIELKLOPPER!). Die zusätzlichen Transistoren sind ja offensichtlich nicht nur in Spieleleistung geflossen.

Dural
2012-01-25, 15:30:13
das ist so, gerade NV musste sehr "leiden" weil sie Transistoren für HPC geopfert haben, bei Tahiti ist das offensichtlich komplett egal und das erschreckende für mich ist das der Chip nicht einmal 1:2 DP hat.

AnarchX
2012-01-25, 15:31:54
Als ob die Tahiti-Karte im April auch nur annähernd das kosten werden was sie heute kosten. Tahiti ist eine Performance-GPU die aktuell mangels Konkurrenz zu High-End-Preisen verkauft werden. Kurz vorm GF104-Launch wird AMD die Preise anpassen, des sollte klar sein.
Sofern AMD und Nvidia keine Einigung finden. ;)

Wenn ich mir die Preise aktueller Performance-GPUs anschaue, so haben die sich nach dem Launch kaum vom Launchpreis entfernt, wo in der Vergangenheit Performance GPUs wie G92 und RV770 die 100€ Marke unterschritten haben.
Zum Beispiel die HD 6850: kastrierte 256mm² GPU mit günstigem 4Gbps GDDR5, die ist in den letzten 13 Monaten gerade mal um ~30€ von 150 auf 120€ gefallen. :| Für eine 550Ti mit GDDR5 muss man auch noch 100€ bezahlen und darf sich mit DDR3-Schrott-Versionen herumärgern.

boxleitnerb
2012-01-25, 15:33:31
Als ob die Tahiti-Karte im April auch nur annähernd das kosten werden was sie heute kosten. Tahiti ist eine Performance-GPU die aktuell mangels Konkurrenz zu High-End-Preisen verkauft werden. Kurz vorm GF104-Launch wird AMD die Preise anpassen, des sollte klar sein.

Schreib das mal im Luxx oder auf CB, da wirste sofort geflamed. "Nein, Tahiti ist Highend, Tahiti ist Enthusiast, Tahiti..." :freak:

Aber ich stimme dir zu :)

Iruwen
2012-01-25, 15:38:05
OT: hat AMD mal selbst gesagt dass sie High-End bzw. Enthusiast nur mit MGPU abdecken?

mrt
2012-01-25, 15:38:23
Sie haben gesagt, dass sie auf Performance-GPUs setzen und Enthusiast eben mit M-GPU abdecken.

Woher weisst Du wie gross der Leistungsunterschied sein wird? Angenommen es werden +30% dann ist der Unterschied so oder so erstmal um einiges groesser als bei GT200, GF100 und GF110 zu den jeweiligen AMD performance GPUs jeglicher Zeit.
Wenn bei Nvidia alles glatt läuft, dann sind die 30% doch eine gute Schätzung. GK110 = GF110*1.6
Vorausgesetzt von AMD kommt nicht noch eine schnellere Variante nachdem sie sich ja ein wenig verschätzt haben... Meiner Meinung kommt da aber nichts mehr, haben sie bei RV670 immerhin auch nicht gemacht.

Dural
2012-01-25, 15:39:20
naja eine Performance-GPU ist es sicher schon jedoch hat diese Performance-GPU 3GB Speicher und 384Bit bei doch auch nicht kleinen 365mm2 im nigelnagel neuem 28nm Prozess.

Preise wie zu G92 oder RV770 zeiten wird man vergessen können, ausser NV ist mit GK104 extrem stark in diesem Bereich.

Ronny145
2012-01-25, 15:39:20
Das ändert nichts daran, dass eine Performance-GPU bei NV keine 400€ kosten wird.


Das wird sich daran orientieren wie gut sich die GTX680 gegen HD7970 einordnet und was GK110 bringen wird bzw. wann sie kommt.

Iruwen
2012-01-25, 15:43:34
Das wird sich auch nach den Produktionskosten bei TSMC richten denn wie Ail und dargo schon sagten sinkt die Nachfrage mit steigenden Preisen und für maximale Gewinne muss man einen Sweet Spot finden.
AMD wird die Karten jetzt so teuer verkaufen weil Nachfrage und Produktion noch halbwegs im Gleichgewicht sind, wenn die Produktion auf Hochtouren läuft würden die Lager bei den derzeitigen Preisen auf lange Sicht vermutlich voll bleiben.

Cubitus
2012-01-25, 15:45:16
Tahiti ist auch ein witz für eine neue Architektur + Prozess


wer da nur irgend was gutes an lächerlichen rund 40% (oder was es sind) auf die ebenfalls schon schwache 6970 und mit rund 1,5 Miliarden Transistoren mehr für gut findet kann ich nicht ernst nehmen!


GK110 wird das ding in den bodenstapfen, die frage ist nur mit wie viel verbrauch und wann

Kepler wird dem Thahiti einen Tsunami bereiten.
Und AMD wird mit dem Preis in "seichte Gewässer" von 300 Euro rücken :D

dargo
2012-01-25, 15:48:40
Das wird sich daran orientieren wie gut sich die GTX680 gegen HD7970 einordnet und was GK110 bringen wird bzw. wann sie kommt.
Du hast es immer noch nicht verstanden oder? Ein GK104 soll eine wesentlich größere Käuferschicht ansprechen als ein GK110. Und das erreicht man nicht mit Preisen @400€.

Ronny145
2012-01-25, 15:51:02
Du hast es immer noch nicht verstanden oder? Ein GK104 soll eine wesentlich größere Käuferschicht ansprechen als ein GK110. Und das erreicht man nicht mit Preisen @400€.


Du hast immer noch nicht verstanden, das GK104 nicht nur aus einer Karte besteht. Die größte Käuferschicht wird sicherlich der GTX660 gehören. Hier steht ein Preis von 400€ gar nicht zur Debatte.

dargo
2012-01-25, 15:54:15
Du hast immer noch nicht verstanden, das GK104 nicht nur aus einer Karte besteht.
Und? Dann gibt es halt keine TI mehr sondern von mir aus GTX660 und 680. Namen sind sowas von egal. Und wenn bei der schnellsten Version (keine Custom-OC Karten) vom GK104 299$ geplant sind wird die langsamere Karte (GTX660?) eine UVP von 229-249$ haben.

Ronny145
2012-01-25, 15:59:10
Und? Dann gibt es halt keine TI mehr sondern von mir aus GTX660 und 680. Namen sind sowas von egal. Und wenn bei der schnellsten Version (keine Custom-OC Karten) vom GK104 299$ geplant sind wird die langsamere Karte (GTX660?) eine UVP von 229-249$ haben.


Viel zu kleiner Preisunterschied. Zwischen 680 und 660 liegt noch die 670.

Zergra
2012-01-25, 16:02:33
Viel zu kleiner Preisunterschied. Zwischen 680 und 660 liegt noch die 670.
wie gesagt namen sich auch wirklich egal..... und darüber ist ja eh noch nicht klar..... vllt gibt es die 670 garnicht oder kommt viel später ... wer weiß

Ronny145
2012-01-25, 16:11:03
wie gesagt namen sich auch wirklich egal..... und darüber ist ja eh noch nicht klar..... vllt gibt es die 670 garnicht oder kommt viel später ... wer weiß


Ja das sind sie schon, nur darf davon ausgegangen werden, dass die GTX680 eine GTX580 hinter sich lässt, das gleiche mit 660 und 670. Alles andere wäre arg lächerlich für diese Bezeichnung. D.h. Nvidia ordnet die GTX680 in ihr eigentliches Highend Namensschema egal ob die Die size eher einer Performance Karte entspricht oder nicht. Dass dieses nicht unbedingt Performance Preise zur Folge haben muss, ist monentan schön an der HD7970 und kommenden HD7950 zu beobachten. Auch wenn ich stark von günstigeren Preisen bei der GTX680 ausgehe, wäre ich mir mit den 299 USD für die GTX680 noch lange nicht sicher. Performance Käufer haben die GTX660 im Auge. Ist überhaupt gesichert ob 660 auf GK104 basiert?

Schnitzl
2012-01-25, 16:15:36
Kepler wird dem Thahiti einen Tsunami bereiten.
Und AMD wird mit dem Preis in "seichte Gewässer" von 300 Euro rücken :D
also wenn AMD im März/April den Preis der 7970 von 500 auf 300 senkt werden einige Leute Amok laufen und AMD hat sich den Ruf vollends ruiniert...
Das muss bereits jetzt mit dem 7950-Launch in kleinen Schritten anfangen

Weiss nVidia überhaupt selbst schon ob der GK104 nun 660, 680 oder 760 heisst?

Ansonsten sehr schade, hatte eigentlich auf Ende Januar gehofft einen GK104 zu bekommen :(
.

AnarchX
2012-01-25, 16:17:57
also wenn AMD im März/April den Preis der 7970 von 500 auf 300 senkt werden einige Leute Amok laufen und AMD hat sich den Ruf vollends ruiniert...
Das muss bereits jetzt mit dem 7950-Launch in kleinen Schritten anfangen

Wenn AMD nicht noch diese Woche reagiert, wird die 7950 3GiB ~400€ kosten.
Ansonsten kann man ja die Kunden rückvergütten, wie es NV bei der GTX260/280 getan hat. :D

dargo
2012-01-25, 16:19:01
Ja das sind sie schon, nur darf davon ausgegangen werden, dass die GTX680 eine GTX580 hinter sich lässt, das gleiche mit 660 und 670. Alles andere wäre arg lächerlich für diese Bezeichnung.
Was ist das denn wieder für eine Schlussfolgerung? Schau dir doch mal die Vergangenheit an. Ist eine GTX550TI schneller als eine GTX285? Nein. Eine GTX460SE sicherlich auch nicht oder wird zumindest es sehr schwer haben.

Viel zu kleiner Preisunterschied. Zwischen 680 und 660 liegt noch die 670.
Dann nimm von mir aus 199$ für für GTX660, 249$ für GTX670 und 299$ für GTX680, sollte es die 670 geben. Bissel weniger Shadereinheiten, hier und da leicht kastriert und schon passen die Preise. Wüßte nicht wo das Problem sein soll.

Thunder99
2012-01-25, 16:20:04
Wie "sicher" ist denn eigentlich, dass GK104 = GTX680 ist? Das macht so was von keinen Sinn wenn die GPU knapp oberhalb von GTX580 sein sollte!
Nur weil nvidia aus GF100 a GTX480 die GF110 mit der GTX580 machte muss bei so einem kleinen Performance Sprung es bei Kepler nicht ebenso sein...

Ist doch marketing-technisch viel besser wenn eine GTX660(Ti) Tahiti angreift und der Big-Bang dann diesen vernichten wird :D

AnarchX
2012-01-25, 16:22:37
Wie "sicher" ist denn eigentlich, dass GK104 = GTX680 ist?
Diverse Hersteller-Roadmaps sprechen von einer GTX 680 2GiB.
Für GK110 wohl etwas zu wenig Speicher und auch der Termin in den Roadmaps wäre wohl zu früh.

Ronny145
2012-01-25, 16:24:28
Was ist das denn wieder für eine Schlussfolgerung? Schau dir doch mal die Vergangenheit an. Ist eine GTX550TI schneller als eine GTX285? Nein. Eine GTX460SE sicherlich auch nicht oder wird zumindest es sehr schwer haben.


Du hast es nicht verstanden. Erstens ist GTX285 vom Namensschema höher und zweitens liegen 3 Generationen dazwischen. Nochmal für dich:

580>680
570>670
560>660

Bei den Karten erwarte ich eine Steigerung zu ihren direkten Namensvorgängern.

AwesomeSauce
2012-01-25, 16:24:30
Wie "sicher" ist denn eigentlich, dass GK104 = GTX680 ist? Das macht so was von keinen Sinn wenn die GPU knapp oberhalb von GTX580 sein sollte!
Nur weil nvidia aus GF100 a GTX480 die GF110 mit der GTX580 machte muss bei so einem kleinen Performance Sprung es bei Kepler nicht ebenso sein...

Ist doch marketing-technisch viel besser wenn eine GTX660(Ti) Tahiti angreift und der Big-Bang dann diesen vernichten wird :D
Laut Ailuros hat eine GTX680 nur 2GB, was für einen eventuellen GK110 angesichts der Tahiti 3GB doch etwas wenig wäre. Von daher rührt GTX680 = GK104.

Edit: zu spät.

derguru
2012-01-25, 16:27:10
Du hast es nicht verstanden. Erstens ist GTX285 vom Namensschema höher und zweitens liegen 3 Generationen dazwischen. Nochmal für dich:

580>680
570>670
560>660

Bei den Karten erwarte ich eine Steigerung zu ihren direkten Namensvorgängern.

ich hab das nicht verfolgt, zuerst wird die 660 gelauncht und 2 monate später die großen?

dargo
2012-01-25, 16:27:27
Wie "sicher" ist denn eigentlich, dass GK104 = GTX680 ist? Das macht so was von keinen Sinn wenn die GPU knapp oberhalb von GTX580 sein sollte!
Nur weil nvidia aus GF100 a GTX480 die GF110 mit der GTX580 machte muss bei so einem kleinen Performance Sprung es bei Kepler nicht ebenso sein...

Warum das denn schon wieder? Der Leistungsunterschied zwischen der GTX580 und 480 ist auch mager und trotzdem hat NV nichts davon abgehalten sie GTX580 zu nennen obwohl es im Prinzip nur eine GTX485/490 ist.

dargo
2012-01-25, 16:32:34
Du hast es nicht verstanden. Erstens ist GTX285 vom Namensschema höher und zweitens liegen 3 Generationen dazwischen.
Hä? 285 ist höher als 550/460? :| Meine Güte... vergiss doch die blöden Namensgebungen. Selbst wenn du dich auf die zweite Zahl beziehst wirst du bei der GTX570 vs. 480 feststellen, dass es keinen Sinn macht.

Thunder99
2012-01-25, 16:33:28
Warum das denn schon wieder? Der Leistungsunterschied zwischen der GTX580 und 480 ist auch mager und trotzdem hat NV nichts davon abgehalten sie GTX580 zu nennen obwohl es im Prinzip nur eine GTX485/490 ist.
Dann wird es wohl entgültig vorbei sein, dass die direkte Nachfolgegeneration vom Namen her diesen auch aus Performance Gründen rechtfertigen kann. Oder anders ausgedrück es braucht jetzt schon 2 Generationssprünge für +60-100% mehr Speed :freak:

Dann macht auch der Name des GK110 Sinn, da GTX7xx Reihe... (hoch Spekulativ). Damals gab es die GT200 Reihe Anfangs auch nur für High-End...

Ronny145
2012-01-25, 16:48:46
Hä? 285 ist höher als 550/460? :| Meine Güte... vergiss doch die blöden Namensgebungen. Selbst wenn du dich auf die zweite Zahl beziehst wirst du bei der GTX570 vs. 480 feststellen, dass es keinen Sinn macht.


85 liegt höher als 55 oder 60. Das kann doch echt nicht so schwer sein.

AnarchX
2012-01-25, 16:49:58
Bitte die Namensdiskussion nicht zu ernst nehmen. ;)

Ailuros
2012-01-25, 19:32:04
Wenn bei Nvidia alles glatt läuft, dann sind die 30% doch eine gute Schätzung. GK110 = GF110*1.6
Vorausgesetzt von AMD kommt nicht noch eine schnellere Variante nachdem sie sich ja ein wenig verschätzt haben... Meiner Meinung kommt da aber nichts mehr, haben sie bei RV670 immerhin auch nicht gemacht.

Eine jegliche Schaetzung (ohne weitere Daten oder zumindest Indizien) kann sowohl optimistisch als auch pessimistisch sein.

Bis zum Zeitpunkt wo GK104 auftaucht und von unabhaengigen Quellen gegen Tahitis zu diesem (und nicht heutigem) Zeitpunkt verglichen werden koennen, wage ich noch keine definitive Schlussvolgerung ob sich AMD wirklich verschaetzt hat und um wie viel. Nach Herrn Wavey's Frage bei B3D ob sie mit einem fertigen Produkt haetten warten sollen war meine Antwort zwar negativ, ich bezweifle aber nach wie vor den "fertig" Anteil der Frage.

AwesomeSauce
2012-01-25, 20:21:09
Aus Charlies twitter Kanal:
More on this soon, there is a BIG secret in the Kepler line. :) It will take a long article though, so not RSN.
XDR2 :P

Hübie
2012-01-25, 20:24:37
Ich habe mir auch mal kurz die Mühe gemacht Preisentwicklung herauszupicken:

http://www.abload.de/img/preisentwicklung_bers4rjki.jpg (http://www.abload.de/image.php?img=preisentwicklung_bers4rjki.jpg)

Alle haben gemeinsam, das nach einem Monat die Preise runtergehen. Ansonsten ist der Markt recht stabil. Das wird auch bei der HD 7970 so sein. Die wird ruck-zuck auf 400-420 gehen. Mglw noch vor Kepler-Release, aber ich schätze eher danach (~1 Woche später).

Und diese Namensdiskussion ist doch nun wirklich für den Ar... Fuß! 8800 ist auch höher als 580 :tongue::rolleyes:

Ailuros
2012-01-25, 20:26:28
Aus Charlies twitter Kanal:

XDR2 :P

Yuppy! Endlich die Loesung zu meinem Raetsel ;D

Hübie
2012-01-25, 20:32:02
Hrhr. Das sag ich schon seid Monaten! ;D XDR2, XDR2, XDR2, XDR2, XDR2, XDR2, XDR2, Leute wirklich!

AnarchX
2012-01-25, 20:32:58
Ich habe mir auch mal kurz die Mühe gemacht Preisentwicklung herauszupicken:

http://www.abload.de/img/preisentwicklung_bers4rjki.jpg (http://www.abload.de/image.php?img=preisentwicklung_bers4rjki.jpg)

Die Zeiträume sind aber nicht die gleichen.

Preiskämpfe scheinen in der Tat nicht mehr zu existieren.
Der geringe Preisverfall nach dem Launch wird durch Cost-Down-Designs der Hersteller und einem Preiskampf zwischen den Herstellern bzw. zwischen den Händlern auf Basis der existierenden Marge realisiert. An den Chip-Preisen scheint sich da kaum etwas zu tun.

Da kann man nur hoffen das NV hier mit Kepler ein Zeichen setzt und nicht eine an Tahiti preislich angepasste GTX 680 bring. :|

Nightspider
2012-01-25, 20:39:10
Gibts denn irgendwo paar Infos, was den aktuellen Technikstand und die Verfügbarkeit von XDR2 betrifft?

Dann könnte man zumindest einschätzen, ob dies wirklich im Rahmen des Möglichen liegt.

Hat XDR2 irgendwelche Nachteile? Waren die Preise bei XDR1 nicht immens überzogen damals?

Oder braucht die Platine 1-2 Layer mehr? Fakten anyone? *mal googlen geh*