Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012
Ailuros
2012-01-25, 20:40:15
Nachteile? Es gibt einen grossen und der hoert auf den Namen Rambus :D
Blediator16
2012-01-25, 20:40:34
Irgendwie sollte er sich mal entscheiden. Vor einigen Tagen sagte er noch GDDR5 :freak:
Ailuros
2012-01-25, 20:42:00
Irgendwie sollte er sich mal entscheiden. Vor einigen Tagen sagte er noch GDDR5 :freak:
Charlie hat nirgends etwas ueber XDR2 angegeben oder angedeutet.
AwesomeSauce
2012-01-25, 20:42:02
Hmm irgendwo muss ich doch mein Sarkasmusschild hingelegt haben **such**
Blediator16
2012-01-25, 20:44:45
Charlie hat nirgends etwas ueber XDR2 angegeben oder angedeutet.
Deswegen ja auch der Smiley. Mir ist bewusst, dass wir uns gerade nur ein Späßchen erlauben...glaub ich:freak:
Hübie
2012-01-25, 20:51:21
Vielleicht hat man den Texunits einen eigenen L2-Cache spendiert.
Der könnte read-only, non-coherent, high-latency(viel Speicherplatz) sein und müsste nur Blocktransfers in den L1-Textur-Cache beherrschen.
Für Spiele könnte das schon einiges bringen, für GPGPU meistens nix.
:freak: So nun puzzeln wir alle mal und überlegen uns ob Späßchen oder nicht. Ail: Sag besser nix sonst gibts wieder ne news :P
Nightspider
2012-01-25, 21:03:12
Nagut, dann eben nicht.^^
fulgore1101
2012-01-25, 21:45:14
Gibts mittlerweile was handfestes zur nächsten Generation von Nvidia?
Zergra
2012-01-25, 21:46:13
Gibts mittlerweile was handfestes zur nächsten Generation von Nvidia?
nööö nicht wirklich :D immer nurnoch Spekulationen
AwesomeSauce
2012-01-25, 21:56:56
Ailuros will einfach keine Daten rausrücken:usad: Mit einem SP count wäre ich schon mal zufrieden, wobei doch vieles auf 1536 hindeutet.
fulgore1101
2012-01-25, 21:58:20
nööö nicht wirklich :D immer nurnoch Spekulationen
176 Seiten Spekulation? :uup:
Godmode
2012-01-25, 22:16:35
Yuppy! Endlich die Loesung zu meinem Raetsel ;D
Kann mir nicht vorstellen, dass diesen Gaunern noch wer was abkauft!
y33H@
2012-01-25, 22:26:11
DDR3 und 512 Bit sage ich! :biggrin:
Skysnake
2012-01-25, 22:49:48
Das glaubst am Ende wirklich noch wer...
Was mir aber zu Ohr gekommen ist, ist das man Samsungs/Microns Memory Cube einsetzen will. In den Laptops dann geshared und auf den Desktop Karten mit 2 Modulen pro PCB für den Gk104 und 4 für den GK110.
boxleitnerb
2012-01-25, 22:52:00
Ja genau...
mapel110
2012-01-25, 23:03:20
Und ich hab gehört, dass neben FXAA auch SMAA im Treiber eingebaut wird. FXAA wird gar den MSAA-Schalter im Panel ersetzen. Deshalb spielt Bandbreite bei GK104 auch keine große Rolle mehr.
boxleitnerb
2012-01-25, 23:05:53
Und es wird Upsampling über den Treiber geben. Auflösung ist nur noch 640x480 (damit ist Kepler dann 1500% schneller) und man kann auf jede Auflösung hochrechnen, die man haben will. Die doppelte Augenklappe gegen Augenkrebs gibts aber nur für 25$ Aufpreis - umsonst ist nichts im Leben.
Orbmu2k
2012-01-25, 23:12:07
...und mit Optimus 2.0 kommt dann der Framebuffer aus der Cloud und man kann sich sein Kepler Cluster einfach downloaden.
Hugo78
2012-01-25, 23:12:14
Leute ihr rockt. :biggrin:
Bucklew
2012-01-25, 23:22:47
Ach quatsch....
GK104 sind 2xBulldozer in "done right" :)
LuXon
2012-01-25, 23:37:21
Ihr habt doch keine Ahnung, Kepler ist nur ein umgelabelter Knights Corner.
boxleitnerb
2012-01-25, 23:39:40
Ne, das glaub ich weniger. Kepler ist...3dfx auferstanden! Wird auch gar nicht GTX680 heißen, sondern Voodoo 7000. Bestehend aus 128 kleinen Chips in Form des Nvidia Logos zusammengelötet.
Gipsel
2012-01-25, 23:47:17
Ja, schön.
Aber nun ist mal gut hier mit dem Blödsinn!
Hübie
2012-01-26, 02:54:11
Mal ein Buchstabe und zwei Ziffern: x86! Was denkt ihr über den Nutzen in einer GPU (also nicht nur)? Abseits vom computing-Kram. Ich meinte wirklich für Spiele (PhysX?).
Ich hab soviel Leerlauf im Kopf wenn ich arbeite, das ich schon die ganze Zeit grübel was die beiden großen Überraschungen sein könnten :freak:
Neurosphere
2012-01-26, 07:02:32
Da gibts doch das Lizenzproblem...
Die Frage ist auch ob man x86 wirklich in einer GPU braucht. Win läuft bald auf ARM und Serversoftware ist eh nicht immer x86.
Hübie
2012-01-26, 08:09:11
Mein Hirn sagt mir, das nVidia sich die Lizenzen (teilweise?) gesichert hat/hatte.
Edit: Okay - das wird nix -> http://www.anandtech.com/show/4122/intel-settles-with-nvidia-more-money-fewer-problems-no-x86/2 ;D
M4xw0lf
2012-01-26, 09:10:08
Ich hab grad nochwas gefunden: http://forums.anandtech.com/showthread.php?t=2222026
A forum poster at chiphell was the "source" for practically all of the Kepler "leaks", and is discovered to be a viral marketer for nVidia. Now he is banned.
Das könnte das sein, worauf Charlie vor kurzem angespielt hat:
This time around, Nvidia's games are going to make Wall Street look look like Ghandi. I am in shock.
Jetzt müsste jemand (und mit jemand meine ich Ailuros ^^) diese "Enthüllung" bewerten... wie viel "Information" über Kepler ist davon betroffen? Oder ist die ganze Story selbst Blödsinn?
Hugo78
2012-01-26, 09:45:27
Gehts hier um die Bullshit Roadmap, wonach Kepler erst im Sommer kommt?
Dann sag ich heut um 15uhr sehen wir den GK104 Test (1 Jahr und 1 Tag nach Release der 560Ti) *g*
Hübie
2012-01-26, 09:59:58
:facepalm: Also was ich dazu nun sagen soll weiß ich auch nicht, aber okay es ist ein Speku-thread und du spekulierst auf heute Nachmittag.
Bucklew
2012-01-26, 10:22:33
Jetzt müsste jemand (und mit jemand meine ich Ailuros ^^) diese "Enthüllung" bewerten... wie viel "Information" über Kepler ist davon betroffen? Oder ist die ganze Story selbst Blödsinn?
Wenn Charlie keine anderen Quellen hat als Posts im Chiphell, dann wäre das mehr als nur peinlich....
y33H@
2012-01-26, 10:39:53
Verstehe ich das richtig, "Napoleon" ist gebannt? Immer linkt der Post bei Anand auf seinen Thread *confused*
AwesomeSauce
2012-01-26, 10:40:22
Zur Abwechslung wieder mal Verschwörungstheorien;D Man muss silly season einfach lieben.
M4xw0lf
2012-01-26, 11:24:09
FUD und virales Marketing qualifizieren sich heutzutage wohl nicht mehr als Verschwörungstheorien.
AwesomeSauce
2012-01-26, 11:44:00
Ach ich bitte dich. Wo bleibt der Beweis? Wer sagt, dass nicht irgendein AMD Guerilla das Gerücht in die Welt gesetzt hat? Du kannst das Spiel beliebig weiter treiben.
mironicus
2012-01-26, 11:57:47
Wo hier gerade das Stichwort x86 gefallen ist... könnte man mit einer GPU eigentlich eine x86-CPU emulieren? Dann könnte man das Betriebssystem um weitere CPU-Kerne erweitern und man müsste keine Programme mehr umschreiben... :D
Ich habe schon so viel Ankündigungen gelesen, was dank GPU-Beschleunigung alles möglich sein soll, aber einen richtigen Nutzen für den Enduser sehe ich bis jetzt nicht. Z.B. ist es auch heute noch am sinnvollsten H264-Videos über die CPU zu enkodieren da die GPU-Enkodierung dagegegen qualitativ immer noch Müll ist.
Bucklew
2012-01-26, 12:02:44
FUD und virales Marketing qualifizieren sich heutzutage wohl nicht mehr als Verschwörungstheorien.
Charlie, ick hör dir trapsen ;D
Ich habe schon so viel Ankündigungen gelesen, was dank GPU-Beschleunigung alles möglich sein soll, aber einen richtigen Nutzen für den Enduser sehe ich bis jetzt nicht. Z.B. ist es auch heute noch am sinnvollsten H264-Videos über die CPU zu enkodieren da die GPU-Enkodierung dagegegen qualitativ immer noch Müll ist.
Das Problem ist, dass die GPU-Beschleunigung unbedingt 20x schneller sein muss als CPU - und dann Müll hinten rauskommt. Wäre eigentlich mal an der Zeit eine GPU-Beschleunigung für x264 zu bauen, die nur 2 oder 3x schneller ist, dafür aber auch Qualitätsmäßig mitkommen kann.
Hugo78
2012-01-26, 12:14:31
:facepalm: Also was ich dazu nun sagen soll weiß ich auch nicht, aber okay es ist ein Speku-thread und du spekulierst auf heute Nachmittag.
Na eigentlich wollt ich wissen, wer jetzt was an FUD verbreitet hat, der jetzt für angeblich virales Marketing gebannt wurde.
Wie Marc schon fragte, gehts um "Napoleon"?
AnarchX schreib ja:
Mal etwas aus bisher verlässlicher Quelle:
http://www.chiphell.com/thread-346223-1-1.html
Nur 780MHz und vergleichbare Leistung zur HD 7970? :|
Oder GK104 = GTX 680? Mit vielleicht 1536SPs @780MHz wäre man auch jenseits der 2 TFLOPs.
edit:
Also es geht nicht um Napoleon.
Scheint sich um den "airr23" zudrehen, aber die Beiträge sind nicht mehr zulesen, also was genau er da jetzt gepostet hat, kein Plan.
Winter[Raven]
2012-01-26, 15:03:54
Gehts hier um die Bullshit Roadmap, wonach Kepler erst im Sommer kommt?
Dann sag ich heut um 15uhr sehen wir den GK104 Test (1 Jahr und 1 Tag nach Release der 560Ti) *g*
15:03.... anything?
Hübie
2012-01-26, 15:05:03
Das hast du doch wohl nicht wirklich geglaubt, oder?
AwesomeSauce
2012-01-26, 16:32:44
Da gefällt einem AMD Bot wohl der aktuelle Wirbel um GK104 nicht und verbreitet Gerüchte um einen vermeintlichen bezahlten Guerilla Marketing Krieg seitens Nvidias und die Presse spielt mit (PCGH mit eingschlossen), obwohl überhaupt nichts bewiesen ist. Ganz grosses Kino:uclap:
AnarchX
2012-01-26, 16:47:30
Wirklich eine seltsame Aktion. Wirklich interessantes Material war bei Chiphell nicht zu sehen, eher Reposts der Gerüchte, die Charlie und Ail gestreut haben.
Und selbst wenn es mittlerweile keine $299 mehr sind, war dieser Preis wohl durchaus ein mögliches Ziel, mit der Annahme eines vernünftigen 28nm Outputs bei TSMC.
Botcruscher
2012-01-26, 17:01:14
Ist ja schön. Wenn Worte wie Fertigung, Termin, Output, Yield, läuft super usw. mit TSMC in einem Satz stehen ist es doch eh Bullshit oder eine Hiobsbotschaft. Die letzten Jahre lief es immer beschissen und das wird auch so bleiben.
Ailuros
2012-01-26, 17:25:55
Es gibt eine Antwort fuer den Frequenz Mist, aber das Resultat ist womoeglich ein Missverstaendnis. Sonst hab ich ernsthafteres zu tun als mich mit chiphell Quark und viralem marketing bzw. bunten Verschwoerungs-thesen zu beschaeftigen.
AwesomeSauce
2012-01-26, 17:39:43
Es gibt eine Antwort fuer den Frequenz Mist, aber das Resultat ist womoeglich ein Missverstaendnis.
Worauf beziehst du dich genau? Ich kann dir gerade nicht folgen.
Duplex
2012-01-26, 17:40:17
Hat GK104 jetzt doch weiterhin Hotclock ?
GTX6xx Fermi Refresh
GTX7xx Kepler?
Gaestle
2012-01-26, 17:55:31
Hat GK104 jetzt doch weiterhin Hotclock ?
GTX6xx Fermi Refresh
Wenn das stimmt, brauchen wir einen neuen Fermi-Refresh-Thread. Teile des dann alten Kepler-Threads (so die ersten 500 Postings) könnten ja vielleicht übernommen werden.
Ich würde es ziemlich lustig finden (könnte aber sehr gut verstehen, dass das andere gar nicht so sehen), obwohl es natürlich auch irgendwie schade wäre.
Ailuros
2012-01-26, 18:09:46
Worauf beziehst du dich genau? Ich kann dir gerade nicht folgen.
780 ist die originale Frequenz vom salvage part.
Hugo78
2012-01-26, 18:26:24
@Ailuros
Und der Vollausbau liegt dann bei 850 oder höher?!
;9140023']15:03.... anything?
Wenn ich ein *g* am ende eines Satzes packe, steht der Satz als solches für einen nicht erst gemeinten Stimmungsaufheller...
die Presse spielt mit (PCGH mit eingschlossen), obwohl überhaupt nichts bewiesen ist. Ganz grosses Kino:uclap:
Jup, vordergründiges Verhalten, grade wenn man den Eingangssatz liest.
Es könnte Nvidia das Gesicht kosten und einen unangenehmen Imageschaden hinterlassen. Unbestätigten Meldungen des Forums Chiphell zufolge hat Nvidia Forennutzer für sogenanntes virales Marketing bezahlt.
Anyway, eventuell fühlt sich NV jetzt noch mehr genötigt die Katze endlich aus dem Sack zulassen.
Ich glaubs aber nicht...
boxleitnerb
2012-01-26, 18:32:09
Wie weit könnte man dann vom Vollausbau entfernt sein? Die GTX570M hatte auch den beschnittenen GF114 drauf und taktete mit 575MHz, also ca. 70% vom Vollausbau (822MHz). Da könnte man bei GK104 in Richtung 1100MHz landen.
Auf dem Desktop allerdings lag der kleinste Part mit GF114, die GTX555 bei 776MHz. Das liegt ja jetzt was den Takt angeht nicht weit von der 560Ti weg.
AnarchX
2012-01-26, 18:56:41
Ein 780MHz GK104 mit teildeaktivierten Einheiten wäre wohl etwas für den <150W TDP Bereich und könnte mit einem 6-Pin auskommen.
Zu einer 100W mobile SKU würde es wohl auch passen, wenn der ~1GHz GK104 bei 170W liegt.
guest_29132
2012-01-26, 19:32:22
also wenn AMD im März/April den Preis der 7970 von 500 auf 300 senkt werden einige Leute Amok laufen und AMD hat sich den Ruf vollends ruiniert...
So wie bei Nvidia geschehen (http://www.computerbase.de/news/2008-07/drastische-preissenkung-der-geforce-gtx-200/), z.B. bei dem GT200? Ist ja nicht das erste mal.
AwesomeSauce
2012-01-27, 00:04:47
Darf ich mal die E-Tech Studis fragen, was gegen eine 3xVec32 SM-Konfiguration sprechen würde?
Ailuros
2012-01-27, 00:10:41
Darf ich mal die E-Tech Studis fragen, was gegen eine 3xVec32 SM-Konfiguration sprechen würde?
Gar nichts; nur sieht es diesmal dass es ein breiterer Trend ist als mit Fermi und sich nicht nur auf performance beschraenkt (bin natuerlich kein e-tech "studi" :P )
AwesomeSauce
2012-01-27, 00:20:59
Gar nichts; nur sieht es diesmal dass es ein breiterer Trend ist als mit Fermi und sich nicht nur auf performance beschraenkt (bin natuerlich kein e-tech "studi" :P )
Dann frage ich mich, die das Scheduling gehandelt wird, wenn die Warp Size wie bisher bei 64 Threads bleibt. Brainfart meinerseits...
Schnitzl
2012-01-27, 00:28:28
Wie sicher ist es denn jetzt, dass in den nächsten 1-2 Wochen nichts kommt?
Ich bin hier verzweifelt!!! Und ne 580 hab ich jetzt keinen Bock mehr...
mapel110
2012-01-27, 00:41:23
Wie sicher ist es denn jetzt, dass in den nächsten 1-2 Wochen nichts kommt?
Ende März, Anfang April kommt was Neues. High End noch einen Monat später. Das ist Stand der aktuellen Spekulationen. Nächste Woche kommt die 7950 von AMD und dann wars das wohl erstmal.
Ailuros
2012-01-27, 00:59:44
Wie sicher ist es denn jetzt, dass in den nächsten 1-2 Wochen nichts kommt?
Ich bin hier verzweifelt!!! Und ne 580 hab ich jetzt keinen Bock mehr...
Es kommt gar nichts in den naechsten paar Wochen, ausser einem langweiligen non-Kepler Dingsda. AMD wird bis dahin auch ihre Preise reduzieren fuer Tahitis, ergo wirst Du dann auch hoechstwahrscheinlich eine groessere Auswahl haben. Heute eine high end GPU wie die 580 bei den immer noch hohen Preisen zu kaufen waere ein fragliche Investition. Bis zum April wird es 28nm GPUs geben mit geringeren Preis und Stromverbrauch und zumindest vergleichbarer Leistung egal ob Radeon oder GeForce.
Godmode
2012-01-27, 09:13:47
Was spricht eigentlich wirklich dagegen: http://www.rambus.com/de/technology/solutions/xdr2/index.html
Das hört sich doch schon fast zu gut an, um wahr zu sein?
Sind es horrende Lizenzkosten, oder was ist wohl der Grund warum XDR2 nicht auf GPUs eingesetzt wird?
Godmode
2012-01-27, 09:57:44
Niemand produziert XDR2.
Ok, das Werbefilmchen auf der Rambus Seite hat was anderes gezeigt. Das ist dann wohl nur Marketing... Die zeigen in dem Video Chips von Elpida und Samsung.
Ailuros
2012-01-27, 10:27:33
Was spricht eigentlich wirklich dagegen: http://www.rambus.com/de/technology/solutions/xdr2/index.html
Das hört sich doch schon fast zu gut an, um wahr zu sein?
Sind es horrende Lizenzkosten, oder was ist wohl der Grund warum XDR2 nicht auf GPUs eingesetzt wird?
Rambus selber spricht dagegen dass es kein GPU IHV engineer beruehren wuerde. Die Anzahl an Patentklagen seitens Rambus ist alles andere als gering.
Bucklew
2012-01-27, 11:07:11
Rambus selber spricht dagegen dass es kein GPU IHV engineer beruehren wuerde. Die Anzahl an Patentklagen seitens Rambus ist alles andere als gering.
Und die Lizenzgebühren auch nicht billig ;)
Iruwen
2012-01-27, 12:23:15
RAMBUS hat Patente auf ein Produkt das nicht existiert und das wegen RAMBUS niemand einsetzen will, warten die jetzt drauf dass jemand eins ihrer Patente verletzt? Interessantes Geschäftsmodell.
BigKid
2012-01-27, 12:47:16
RAMBUS hat Patente auf ein Produkt das nicht existiert und das wegen RAMBUS niemand einsetzen will, warten die jetzt drauf dass jemand eins ihrer Patente verletzt? Interessantes Geschäftsmodell.
Das "Geschäftmodell" ist dir aber nun nicht wirklich neu oder ? Nennt sich Patent-Troll und es gibt sogar nen Wikipedia Artikel dazu. ;)
Gut zugegeben normalerweise gehts da um Trivial-Patente...
Aber um wieder OT zu kommen. Schade schade... Da kam (endlich) wieder bewegung hier rein und nu dümpelt's wieder vor sich hin...
Dabei find ich die Zeiten kurz vorm Launch immer so spannend...
Screemer
2012-01-27, 13:57:21
Umsatzwarunung bei Nvidia: http://www.hartware.net/news_53901.html
könnte doch durchaus mit "verzögerung" von kepler zusammenhängen.
Umsatzwarunung bei Nvidia: http://www.hartware.net/news_53901.html
könnte doch durchaus mit "verzögerung" von kepler zusammenhängen.
Eine gesenkte Prognose für den Zeitraum bis Ende Januar soll etwas mit einer Verschiebung eines Produktes zu tun haben, dass nie vor Februar erwartet wurde?
boxleitnerb
2012-01-27, 14:03:44
Für das (noch bis Ende Januar) laufende fiskalische vierte Quartal rechnet man nun mit rund 11 % weniger Umsatz als noch im letzten November erwartet.
So? Wie denn, wenn Kepler noch gar nicht in Massen an die Partner verkauft wird? Bis Ende Januar war nie etwas geplant, schon gar nicht in solchen Massen, dass dies bei Problemen eine Umsatzwarnung mit sich bringen könnte. Erst wenn Kepler auf Sommer/Herbst rutschen würde, würden potentielle Umsätze ausbleiben.
Zergra
2012-01-27, 14:06:29
So? Wie denn, wenn Kepler noch gar nicht in Massen an die Partner verkauft wird? Bis Ende Januar war nie etwas geplant, schon gar nicht in solchen Massen, dass dies bei Problemen eine Umsatzwarnung mit sich bringen könnte. Erst wenn Kepler auf Sommer/Herbst rutschen würde, würden potentielle Umsätze ausbleiben.
ja aber hätten sie die Karte doch ende Januar gebracht, hätte sie wohl schon ne menge verkauft -> ergo höherer Umsatz
N0Thing
2012-01-27, 14:09:46
Es gab (und gibt) ja auch noch die Ausfälle bei der Festplattenproduktion und damit auch weniger Absatzmöglichkeiten in Fertig-PCs. Das dürfte deutlich größeren Einfluß auf die Bilanzen gehabt haben als eine Verspätung von Kepler-Chips. ;)
AwesomeSauce
2012-01-27, 14:22:28
ja aber hätten sie die Karte doch ende Januar gebracht, hätte sie wohl schon ne menge verkauft -> ergo höherer Umsatz
Geforce Kepler war immer für Q1 FY13 (Feb-Apr 2012) geplant (proof (http://www.hardcore-hardware.com/images/news/nvidia-wayne-soc-kepler-gpu/nvidia-growth%20drivers.jpg)). Mit Kepler hat die Umsatzwarnung also gar nichts zu tun. Da hat man sich wohl eher bei der Tegra-Sparte etwas überschätzt, oder eben die Festplattenkrise.
boxleitnerb
2012-01-27, 14:43:14
ja aber hätten sie die Karte doch ende Januar gebracht, hätte sie wohl schon ne menge verkauft -> ergo höherer Umsatz
Eine Menge? Bei den Yields? Mach dich nicht lächerlich. Eine Menge ist ab einer Million. Bei 70$ pro Chip und 100k Chips sind das gerade mal 7 Mio. Umsatz. Weißt du, wieviel Umsatz Nvidia im Quartal macht? Etwa eine Milliarde.
davidzo
2012-01-27, 14:48:52
Geforce Kepler war immer für Q1 FY13 (Feb-Apr 2012) geplant (proof (http://www.hardcore-hardware.com/images/news/nvidia-wayne-soc-kepler-gpu/nvidia-growth%20drivers.jpg)). Mit Kepler hat die Umsatzwarnung also gar nichts zu tun. Da hat man sich wohl eher bei der Tegra-Sparte etwas überschätzt, oder eben die Festplattenkrise.
naja, die auslieferung von chips an die partner findet in der regel ein paar monate vorher statt und würde dementsprechend für einen januarlaunch noch in Q4/2011 fallen. optimal wäre es natürlich bei beiden IHVs gewesen wenn sie zum Weihnachtsgeschäft fertig gewesen wären. Das muss wohl irgendwann mal das Ziel gewesen sein, denke schon das sich nvidia gerärgert hat, aber dafür hats wohl einfach nicht gereicht.
Eine Menge? Bei den Yields? Mach dich nicht lächerlich. Eine Menge ist ab einer Million. Bei 70$ pro Chip und 100k Chips sind das gerade mal 7 Mio. Umsatz. Weißt du, wieviel Umsatz Nvidia im Quartal macht? Etwa eine Milliarde.
es ginge dabei aber auch um die vermeintlichen 28nm fermis für den mobilbereich. die scheinen wohl ebenso von der verspätung getroffen zu sein oder deshalb gar ganz gestrichen (z.b. weil zu zeitlich nahe an den minikeplers).
das hätte schon was ausgemacht...
boxleitnerb
2012-01-27, 15:12:49
^gibts dafür irgendwelche Quellen? Für die Streichung der umbenannten Chips meine ich.
Screemer
2012-01-27, 15:29:42
ich bin eher davon ausgegangen, dass die keplers/28nm-fermis schon in vergangen quartal ausgeliefert hätten werden müssen, um den feb. release zu halten. ergo wären sie auch in dieses quartalsergebniss einfließen müssen. lieg ich da falsch?
kruemelmonster
2012-01-27, 15:32:00
^gibts dafür irgendwelche Quellen? Für die Streichung der umbenannten Chips meine ich.
Hatte Ailuros nicht vor kurzem angedeutet dass NV ein Produkt gecancelt hat? Bin mir da recht sicher, finde nur das Posting grad nicht.
Blediator16
2012-01-27, 15:34:51
Hatte Ailuros nicht vor kurzem angedeutet dass NV ein Produkt gecancelt hat? Bin mir da recht sicher, finde nur das Posting grad nicht.
Die wurden wohl von Jan auf März/April verschoben glaube ich.
boxleitnerb
2012-01-27, 15:35:14
ich bin eher davon ausgegangen, dass die keplers/28nm-fermis schon in vergangen quartal ausgeliefert hätten werden müssen, um den feb. release zu halten. ergo wären sie auch in dieses quartalsergebniss einfließen müssen. lieg ich da falsch?
Das nicht unbedingt, aber die Mengen sind wie gesagt so gering, das ist ein Tropfen auf den heißen Stein.
Edit:
Kepler in Ultrabooks und auf dem Weg zu den Notebook-Herstellern
http://www.fudzilla.com/home/item/25746-kepler-to-get-to-ultrabooks
http://www.fudzilla.com/home/item/25747-nvidia-shipping-kepler-to-notebook-manufacturers
Wenn das Teil in Ultrabooks landet, muss die Effizienz ja wirklich sehr gut sein.
Ailuros
2012-01-27, 17:59:43
Die wurden wohl von Jan auf März/April verschoben glaube ich.
NV plante original die GK104 bei der CES anzukuendigen fuer einen Februar launch.
Sonst lagen kleinere Kepler chips schon vor Weihnachten bei Partnern, aber ich bezweifle dass die Menge gross genug ist bis heute um irgend einen besonderen Einfluss haben koennte fuer irgendwelche finanziellen Aspekte.
Wuerde NV nicht momentan fieberhaft daran arbeiten Stock zu sammeln fuer die ivy bridge design wins haetten sie auch Kapazitaeten uebrig gehabt im Februar eine GK104 vorzustellen. Und damit sind nicht nur geringe Kapazitaeten gemeint, sondern ziemlich viel denn fuer einen hypothetischen $300 MSRP waere die Nachfrage auch ziemlich hoch.
Nach TSMCs eigenen Angaben sind die Kapazitaeten fuer 28nm sogar um einiges besser als anfangs projeziert, aber die 2% vom insgesamten Volumen rettet auch nicht den Tag. Neben AMD und NV stellen auch noch zich andere IHVs unter 28nm bei TSMC her, ergo ist es wohl nicht so dass diese 2% nur den beiden IHVs entsprechen sondern um einiges weniger.
Am Rand gibt es ueberhaupt eine halbwegs ernsthafte Schaetzung wie viele Tahitis AMD bis jetzt ausgeliefert hat? Es sieht mir nicht mehr als eine zweistellige Anzahl pro retailer pro Land bis jetzt aus fuer den ersten Schub und neben den ueblichen Maerchen die meistens erzaehlt werden ueber voltage oder weiss der Geier was noch erfuhr ich gestern dass die 925MHz mit Absicht benutzt wurde damit die binning yields so hoch wie moeglich gehalten werden koennen (und ja es kommt direkt vom Maul des Loewen); noch kommt dazu dass TahitiPRO erst einen Monat spaeter antanzte diesmal.
Als ich ueber Kepler zu bohren versuchte wurde es ploetzlich still.
***edit: und ja Tegra design wins sind auch schlechter als je eingeschaetzt bis jetzt. Haette sich NV gegenueber Google nicht wie eine verwoehnte Rotznase verhalten waere vielleicht einiges besser heute. Mit dem Satz bekomm ich wohl wieder die NV Juenger auf den Buckel, aber Kritik sollte IHV agnostic sein.
Das nicht unbedingt, aber die Mengen sind wie gesagt so gering, das ist ein Tropfen auf den heißen Stein.
Edit:
Kepler in Ultrabooks und auf dem Weg zu den Notebook-Herstellern
http://www.fudzilla.com/home/item/25746-kepler-to-get-to-ultrabooks
http://www.fudzilla.com/home/item/25747-nvidia-shipping-kepler-to-notebook-manufacturers
Wenn das Teil in Ultrabooks landet, muss die Effizienz ja wirklich sehr gut sein.
Nvidia wants to focus on mobile market first, as Ivy Bridge makes a big milestone in notebook industry and the fact that Nvidia can get even to ultrabooks with Kepler, speaks for itself.
Stimmt auch so. NV hat in letzter Zeit einen ziemlich fetten Batzen an Marktanteil fuer notebooks an AMD verloren. Daher machte es auch vollkommen Sinn sich auf perf/W in einer neuen Architektur zu konzentrieren. Neben den ueblichen marketing Uebertreibungen mit den design wins sollte es klar sein dass unter den angeblichen 300 eine gesunde Anzahl an Bumsdeals liegen aber auch natuerlich einige sehr fette deals.
horn 12
2012-01-27, 19:23:33
Blöd gelaufen bei NV
AMD sahnt nun doppelt ab... schon bringen sie die 2-te Karte (HD7950)
2-3 Monate Vorsprung werden es wohl mindestens werden.
AnarchX
2012-01-27, 19:25:20
Im Launchmonat verkauft dann NV vielleicht so viele GK104-Karten, wie AMD bis zu diesem Zeitpunkt Tahitis. ;)
Kepler in Ultrabooks und auf dem Weg zu den Notebook-Herstellern
http://www.fudzilla.com/home/item/25746-kepler-to-get-to-ultrabooks
http://www.fudzilla.com/home/item/25747-nvidia-shipping-kepler-to-notebook-manufacturers
Wenn das Teil in Ultrabooks landet, muss die Effizienz ja wirklich sehr gut sein.
Das dürfte wohl GK107 sein, der schon in einigen Hersteller-Treiber gelistet war.
AwesomeSauce
2012-01-27, 19:27:26
Blöd gelaufen bei NV
AMD sahnt nun doppelt ab... schon bringen sie die 2-te Karte (HD7950)
2-3 Monate Vorsprung werden es wohl mindestens werden.
Bei den derzeitigen Umständen kann von Absahnen überhaupt keine Rede sein.
Ailuros
2012-01-27, 19:35:37
Blöd gelaufen bei NV
AMD sahnt nun doppelt ab... schon bringen sie die 2-te Karte (HD7950)
2-3 Monate Vorsprung werden es wohl mindestens werden.
Hohe Margen bei laecherlichem Volumen sind besser als niedrige Margen bei sehr hohem Volumen in welchem Universum genau? Aber dass Du je etwas anstaendigeres oder wirklich on topic irgendwo beitraegst ist sowieso fraglich.
Adam D.
2012-01-27, 19:39:01
Hohe Margen bei laecherlichem Volumen sind besser als niedrige Margen bei sehr hohem Volumen in welchem Universum genau?
Ist es denn tatsächlich so sicher, dass Nvidia anfangs mit tonnenweise Karten an den Start geht?
Hohe Margen bei laecherlichem Volumen sind besser als niedrige Margen bei sehr hohem Volumen in welchem Universum genau? Aber dass Du je etwas anstaendigeres oder wirklich on topic irgendwo beitraegst ist sowieso fraglich.
wie hoch ist denn das volumen der bereits verkauften tahitis?
Iruwen
2012-01-27, 19:50:03
wie hoch ist denn das volumen der bereits verkauften tahitis?
Wer soll das wissen? Aber angesichts der geringen Mengen die TSMC offenbar ausspuckt und bei dem aktuellen Preis kann es nicht viel sein. Bestell jetzt mal 'ne 7970, die Dinger sind einfach zu bekommen. Es spricht nicht viel dafür dass AMD damit gerade gut verdient. Viele werden auch erstmal auf die 7950 warten, da macht AMD sich selbst das Geschäft kaputt.
Ailuros
2012-01-27, 19:56:31
Ist es denn tatsächlich so sicher, dass Nvidia anfangs mit tonnenweise Karten an den Start geht?
So sicher wie man sich mit NV stets sein kann. Mir ist es im gegebenen Fall wurscht ob sie tatsaechlich >300 oder nur 200 oder sogar 100 design wins fuer IB und co. haben. Es reichen eine gute Anzahl an grossen design wins in jeglicher spekulativen Anzahl um das bisherige Tahiti Volumen zich Mal zu ueberdecken. Dabei sollte man natuerlich auch sagen dass es sich offensichtlich nicht um GK104 cores handelt, sondern eher GK107 und dergleichen. Je kleiner ein chip je mehr cores/wafer und auch bessere yields.
wie hoch ist denn das volumen der bereits verkauften tahitis?
Ich hab in meinem Post davor gefragt ob es wenigstens eine zuverlaessige Schaetzung diesbezueglich gibt. Ergo kann ich es nicht wissen aber ich tippe weiterhin dass es am Anfang nur zweistellige Zahlen pro retailer pro Land fuer den ersten Schub waren.
Wer soll das wissen? Aber angesichts der geringen Mengen die TSMC offenbar ausspuckt und bei dem aktuellen Preis kann es nicht viel sein. Bestell jetzt mal 'ne 7970, die Dinger sind einfach zu bekommen. Es spricht nicht viel dafür dass AMD damit gerade gut verdient. Viele werden auch erstmal auf die 7950 warten, da macht AMD sich selbst das Geschäft kaputt.
Wenn man nichts weiß ist es oftmals geschickt auch nichts zu sagen
Iruwen
2012-01-27, 20:07:11
Wenn man nichts weiß ist es oftmals geschickt auch nichts zu sagen
Dann wärs ganz schön öde im Spekulationsforum :freak:
Ailuros
2012-01-27, 20:20:46
Wenn man nichts weiß ist es oftmals geschickt auch nichts zu sagen
Wissen im strengen (auch juristischem) Sinn heisst dass man etwas entweder gesehen oder miterlebt hat. Wenn man danach geht, "wissen" wir alle um zich Male weniger und muessten auch mehr als oefters gar nichts mehr sagen.
Da es aber um ganz was anderes hier geht, kannst Du gerne die Sache bisherige Tahiti Volumen selber nachforschen und uns ueber das Gegenteil ueberzeugen. Nur wenn dann jegliches hoeren/sagen entfaellt ist es eben dann auch wieder kein wirkliches "wissen" mehr und wir haben ein nettes perpetuum mobile fuer alle Seiten.
Zergra
2012-01-27, 20:24:49
Ich hab in meinem Post davor gefragt ob es wenigstens eine zuverlaessige Schaetzung diesbezueglich gibt. Ergo kann ich es nicht wissen aber ich tippe weiterhin dass es am Anfang nur zweistellige Zahlen pro retailer pro Land fuer den ersten Schub waren.
das wären max. 99 Karten :D naja könnte sein da AMD am anfang von mehrern Tausend gesprochen haben.... wenn die jetzt 100€ pro Karte an gewinn machen sind das sagen wir mal 5000 Karten a 100€ -> 50000€ an gewinn was nicht gerade viel ist... aber nur Spekulationen :P
Ailuros
2012-01-27, 20:38:49
das wären max. 99 Karten :D naja könnte sein da AMD am anfang von mehrern Tausend gesprochen haben.... wenn die jetzt 100€ pro Karte an gewinn machen sind das sagen wir mal 5000 Karten a 100€ -> 50000€ an gewinn was nicht gerade viel ist... aber nur Spekulationen :P
Zweistellig sind auch 10 ist aber auch wurscht und so gering wie Du oben rechnest ist der Gewinn garantiert nicht. Selbst nur 10 GPUs pro retailer pro Land duerfte um einiges mehr als nur 5000 Stueck ausmachen.
Angenommen (vorsicht frei erfundene Zahlen) sowohl AMD als auch NVIDIA haben fuer 28nm und den Anfang jeder 1000 wafer gebucht. Wenn jetzt AMD sagen wir mal 70 operative chips pro wafer bekommt fuer Tahitis und NVIDIA fuer GK107 im Gegenfall zumindest 160, hast Du 70000 im ersten Fall und 160.000 im zweiten. Weder von den 70 noch den 160 tausend werden alle chips voll operativ sein ergo muss man binning yields und die Anzahl der salvage parts auch nochmal abrechnen. Kurz das Volumen kann in AMD's Fall nie und nimmer hoeher sein ausser NV's Produktion waere total im Eimer, worueber aber die neuesten Meldungen (typisches hearsay :D ) eher das Gegenteil zeigen.
Iruwen
2012-01-28, 00:39:10
Wenn man das mit optimistischen Zahlen hochrechnet und mit Nvidias und AMDs Quartalsgewinnen vergleicht (bzw. Umsätzen, bei AMD bleibt ja kaum was übrig :tongue: ) landet man wieder beim Tropfen auf den heißen Stein.
Dural
2012-01-28, 00:58:30
GK107 wird ausgeliefert und es sind noch keine Details von dem Chip bekannt, gab es den schon jemals was vergleichbares? ich kann
mich an keinen Chip / Architektur erinnern wo so geheimnis voll war :rolleyes: ich meine GK107 ist ein massen Produkt da müssen doch schon bei zig Firmen die Chips schon lange in der Entwicklungs-Abteilung liegen... Zum GK107 gibt es ja nicht mal Gerüchte wie der Chip aussehen könnte...
AnarchX
2012-01-28, 08:38:47
GK107 - NVIDIA N13P-GT - aka GT 650M aufgetaucht?
Hintergrund: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9061209#post9061209
http://img38.imageshack.us/img38/976/dsc0573i.jpg (http://imageshack.us/photo/my-images/38/dsc0573i.jpg/)
http://www.brightsideofnews.com/news/2012/1/27/samsung-laptops-show-new-nvidia-kepler-mobile-gpus.aspx
Taktraten und Shaderzahl sind wie im Artikel schon angedeutet etwas zu niedrig. Vielleicht erkennt der Treiber die Kepler GPUs noch nicht vollständig bzw. hat NV die Erkennung manipuliert um Leaks zu verhindern, wie bei den kleinen Fermis damals.
OgrEGT
2012-01-28, 08:55:20
Na was sehe ich denn da?
GK107 mit Hotclock?
Somit ist nicht auszuschließen, dass die anderen Ausbaustufen das nicht auch haben werden...
Im Umkehrschluss würde das aber doch auch heißen, dass GK104 etc mit wesentlich weniger CC kommen als spekuliert wurde...
AnarchX
2012-01-28, 09:05:18
Wie gesagt, die Anzeige ist etwas fragwürdig.
Damit hätte die GT 650M weniger Rechenleistung als die GT 630M!
Wahrscheinlich hat da NV für Kepler eine Manipulation durchgeführt. Die kleinen Fermis wurden damals nämlich über solche Bilder vollständig geleakt. Diesmal will man es vielleicht verhindern. ;)
Vielleicht ist der Processor-Takt der Chiptakt und die SP-Zahl muss mit dem Faktor 3 multipliziert werden.
288SPs@810MHz, würde zu GK107 mit 384SPs im Vollausbau passen.
OgrEGT
2012-01-28, 09:14:25
Wie gesagt, die Anzeige ist etwas fragwürdig.
Damit hätte die GT 650M weniger Rechenleistung als die GT 630M!
Wahrscheinlich hat da NV für Kepler eine Manipulation durchgeführt. Die kleinen Fermis wurden damals nämlich über solche Bilder vollständig geleakt. Diesmal will man es vielleicht verhindern. ;)
Vielleicht ist der Processor-Takt der Chiptakt und die SP-Zahl muss mit dem Faktor 3 multipliziert werden.
288SPs@810MHz, würde zu GK107 mit 384SPs im Vollausbau passen.
Ich vermute doch dass die Taktraten vom Treiber ausgelesen werden, also ließt er 2 verschiedene Taktdomains aus. Wenn GK107 kein HOtclock hätte, könnte der Treiber dort nichts auslesen, oder?
Kann natürlich auch sein, dass (auch bei Fermi) nur die Clock der CC's ausgelesen wird, und bei Fermi daraus dann die Hälfte als Chiptakt angegeben wird, so dass es sich dabei um keinen wirklich ausgelesenen Wert handelt...
AnarchX
2012-01-28, 09:18:25
Fermi dürfte wohl in der Tat nur noch die Shaderdomain melden.
Und wenn der Treiber nur die SM-Zahl ausliest und mal 32/48 rechnet und nicht wie bei Kepler spekuliert mal 96. Dann ergibt sich hier eben 96SPs statt 192SP/288SPs. ;)
Dural
2012-01-28, 09:21:00
naja software halt, die erkennt doch nur die cluster und fermi hatte halt 48SP pro cluster also sind das Total 2.
ich tippe jetzt mal auf 96SP / 192SP, wenn wir glück haben sind es sogar 128 / 256SP :wink:
AnarchX
2012-01-28, 09:25:34
Mal als Vergleich:
- GT 550M: 96SPs@1480MHz => 284GFLOPs
- spekulierte GT 650M: 192SPs@810MHz => 311GFLOPs
Eher eine verhaltene Steigerung, welche die breiteren ALUs auffressen könnte, wie auch bei GK104.
Vielleicht wird hier auf GF100/GF110 Basis gerechnet - also 3*32=96?
- GT 550M: 96SPs@1480MHz => 284GFLOPs
- spekulierte GT 650M: 288SPs@810MHz => 466GFLOPs
ich tippe jetzt mal auf 96SP / 192SP, wenn wir glück haben sind es sogar 128 / 256SP :wink:
Auf Basis der GK104 Spekulation sind 96SPs pro SM wahrscheinlicher.
Also GK107 wahrscheinlich 384SPs. Dazu dürfte es wohl ein 4Gbps 128-Bit GDDR5 SI sein, bei wohl um ~150mm².
Die Leistung dürfte wohl um das Niveau der GTX 550 Ti im Vollausbau liegen.
OgrEGT
2012-01-28, 09:35:06
Wie steht es mit der Angabe des DX-Levels? Hier 11.0. Könnte natürlich am Treiber liegen, oder ein Hinweis darauf, dass NV 11.1 nicht unterstützen wird?
AnarchX
2012-01-28, 09:37:35
Ohne DX11.1 von Microsoft, wird der Treiber auch kein DX11.1 anzeigen.
OgrEGT
2012-01-28, 10:02:30
:redface: :freak:
Hübie
2012-01-28, 17:13:56
Es könnte auch einer der P-States sein, welcher dort angezeigt wird. Zumindest die 405 MHz deuten ja darauf hin (P8).
LG Hübie
M4xw0lf
2012-01-28, 17:18:56
Eventuell gibt dieses Infotool in dem Screenshot auch einfach den halben Shadertakt als GPU-Takt an, ohne diesen nochmal auszulesen (oder versucht ihn auszulesen ohne korrektes Ergebnis, da es noch nicht auf die neue Architektur programmiert ist). 810 MHz klingen ja gar nicht verkehrt, jedenfalls viel realistischer als 405.
AwesomeSauce
2012-01-28, 17:23:01
Oder es ist ein Fermi-Ableger.
M4xw0lf
2012-01-28, 17:27:55
Dann aber kaum mit dem Namen GT650M, die GT550M hat ja schon einen deutlich höheren Takt und wäre ansonsten identisch.
Skysnake
2012-01-28, 17:40:07
Wieso nicht?
Die GT635M ist ja ein GF118 im Vollausbau oder ein GF116 mit reduzierter Shaderanzahl. Die GT650M könnte also der GF116 im Vollausbau sein. Würde passen meiner Meinung nach. Ansonsten nen GF114. Der wurde ja "noch" nicht rebrandet.
AffenJack
2012-01-28, 17:58:22
Wieso hat dieser fermi ableger dann im treiber einen gk107 eintrag?
cooli04
2012-01-28, 18:35:48
Was haltet ihr von folgendem?:
GK107
GPU-Takt: 850 MHz
Hotclock: 1750 MHz
128 Bit
192 Shader
AwesomeSauce
2012-01-28, 18:39:14
Es gibt keinen Hotclock mehr bei Kepler.
cooli04
2012-01-28, 18:41:43
Wir werden sehen. Ich denke schon.
Dural
2012-01-28, 18:47:50
viel Takt werden wir eh nicht sehen, NV betont seit Monaten das man bei Kepler viel Wert auf Per./W gelegt hat und da ist viel Takt selten förderlich um dies zu erreichen ;)
Hübie
2012-01-28, 18:55:16
Es gibt mehrere Faktoren abseits des Takts ;) Mglw. is GK107 auch nur ein überarbeiteter Fermi in 28nm. Das würde ebenso ins Bild passen: lowend und lower midrange sind sozusagen rebrands@shrink und erst obenrum kommen echte Kepler zum vorschein. Ähnlich cayman und äh... wie war der codename der 6870? :redface:
Edit Barts XT =)
AwesomeSauce
2012-01-28, 19:04:24
Es gibt mehrere Faktoren abseits des Takts ;) Mglw. is GK107 auch nur ein überarbeiteter Fermi in 28nm. Das würde ebenso ins Bild passen: lowend und lower midrange sind sozusagen rebrands@shrink und erst obenrum kommen echte Kepler zum vorschein. Ähnlich cayman und äh... wie war der codename der 6870? :redface:
Edit Barts XT =)
Womit hat man dann die ganzen Design Wins in Notebooks geholt? GK104?:freak:
M4xw0lf
2012-01-28, 19:12:48
viel Takt werden wir eh nicht sehen, NV betont seit Monaten das man bei Kepler viel Wert auf Per./W gelegt hat und da ist viel Takt selten förderlich um dies zu erreichen ;)
Sehr viel Takt ist da sehr gut, solang er bei sehr wenig Spannung erreicht wird ;D
Blediator16
2012-01-28, 19:14:34
Hatten wir das nicht schon, dass viele Dinge diese Designwins hervorrufen können.
dildo4u
2012-01-28, 19:18:01
Imo gibt's die Designwins weil bei NV Optimus halbwegs funzt und Stromverbrauch steht z.b bei den Ultrabooks im Vordergrund.AMD's Lösung ist Abfall und das liegt nicht an der Hardware wird also nicht automatisch mit der 7000 Serie besser.
http://www.notebookcheck.com/AMD-Dynamic-Switchable-Graphics-vs-Nvidia-Optimus-im-Test.63470.0.html
fondness
2012-01-28, 19:25:03
Imo gibt's die Designwins weil bei NV Optimus halbwegs funzt und Stromverbrauch steht z.b bei den Ultrabooks im Vordergrund.AMD's Lösung ist Abfall und das liegt nicht an der Hardware wird also nicht automatisch mit der 7000 Serie besser.
http://www.notebookcheck.com/AMD-Dynamic-Switchable-Graphics-vs-Nvidia-Optimus-im-Test.63470.0.html
AMD plant doch AFAIK gar keine 28nm Lowend-Chips, damit hat NV natürlich leichtes Spiel. Alles unter "Cape Verde" sind nur 40nm Produkte die renamed wurden.
dildo4u
2012-01-28, 19:29:22
Ich meine nicht Lowend in 1200€ Ultrabooks wird's kein Low End geben.Die GPU's müssen schon deutlich schneller sein als Intel HD4000 damit es Sinn macht,aber um vernünftige Akkulaufzeiten zu garantien braucht's ne funzende GPU switch Methode.
kunibätt
2012-01-28, 19:37:21
Wobei man realistischer Weise schon dazu sagen muss, dass sogar AMDs-"Treiberqualität" für viele User ein Preisaufschlag gegenüber dem Inteltreiber rechtfertigen würde. Dass OEMs das wohl kaum interessiert steht dagegen auf einem anderen Blatt ;)
foenfrisur
2012-01-28, 19:57:15
auf gpu-switching spezialisiert sich doch grad lucid-logix ^^
mfg
dildo4u
2012-01-28, 19:59:16
Kostet nur zusätzlich und NV bietet das umsonst,lucid hat nur ein Markt weil NV Optimus noch nicht im Desktop anbietet.SLI/Corssfire funzt ja jetzt auf Jeder aktuellen Plattform egal ob AMD oder Intel ohne Zusatzchip.
Ailuros
2012-01-28, 22:18:25
GK107 - NVIDIA N13P-GT - aka GT 650M aufgetaucht?
Hintergrund: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9061209#post9061209
http://img38.imageshack.us/img38/976/dsc0573i.jpg (http://imageshack.us/photo/my-images/38/dsc0573i.jpg/)
http://www.brightsideofnews.com/news/2012/1/27/samsung-laptops-show-new-nvidia-kepler-mobile-gpus.aspx
Taktraten und Shaderzahl sind wie im Artikel schon angedeutet etwas zu niedrig. Vielleicht erkennt der Treiber die Kepler GPUs noch nicht vollständig bzw. hat NV die Erkennung manipuliert um Leaks zu verhindern, wie bei den kleinen Fermis damals.
Steht es irgendwo im Bildmaterial drin dass es ein GK107 ist oder ist es wieder eins der typischen blonden Momente bei BSN? Riecht verdaechtlich nach einem GF117/28nm.
Hübie
2012-01-28, 23:06:12
Womit hat man dann die ganzen Design Wins in Notebooks geholt? GK104?:freak:
Hä? Wieso? Mit dem allgemeinen Design von Kepler welches in Notebooks/Ultrabooks verbaut wird. Fermi, überarbeitet, in 28nm und entsprechend guter Perf/mm²/W würde ebenfalls designwins erhalten. Verstehe nicht ganz worauf du hinaus willst.
@foenfrisur: Lucid versucht sich zumindest in derlei Spielereien. Wie ja kürzlich bekannt wurde lassen die Hydra fallen, was nicht gerade auf konsequente Entwicklung schließen lässt und imo das Vertrauen schmälert.
LG Hübie
M4xw0lf
2012-01-28, 23:09:13
Hier stand Müll.
boxleitnerb
2012-01-28, 23:13:02
OBR mal wieder:
Early next week Nvidia starts manufacturers in Asia to present graphic cards based on Kepler, when full production will start in two/three weeks from now.
It's time to say something new. The first news (if true)is breakthrough new feature for PhysX and CUDA through its processing. If this thing really confirmed, it will be a big bomb. Further information concerning the power consumption to be thanks to the final respin very low. Respin also helped NVIDIA achieve high operating GPU frequency. As for performance, still true that middle-class Kepler card easily beats Radeon 7970 ...
http://www.obr-hardware.com/2012/01/some-new-info-about-kepler-and-chiphell.html
Mag jemand raten, was das neue Feature für PhysX und CUDA sein könnte, das so toll sein soll? PhysX 3.0? Das wäre aber nix Neues, daran arbeiten sie ja schon länger. Vielleicht kann man dann aber ab nächste Woche endlich mit richtigen Leaks rechnen.
AwesomeSauce
2012-01-28, 23:18:51
OBR mal wieder:
http://www.obr-hardware.com/2012/01/some-new-info-about-kepler-and-chiphell.html
Mag jemand raten, was das neue Feature für PhysX und CUDA sein könnte, das so toll sein soll? PhysX 3.0? Das wäre aber nix Neues, daran arbeiten sie ja schon länger. Vielleicht kann man dann aber ab nächste Woche endlich mit richtigen Leaks rechnen.
PhysX Version AMD:naughty: Immerhin hat er mit dem Chiphell Zeugs recht.
boxleitnerb
2012-01-28, 23:23:52
Naja es gibt weder Beweise dafür oder dagegen. Im Zweifel für den Angeklagten.
PhysX...das sehe ich mit einem lachenden und einem weinenden Auge. Lachend weil neue Features immer toll sind. Weinend, weil die alle jetzt endlich mal mit einer standardisierten Lösung in die Puschen kommen sollen statt nichts zu tun (AMD) bzw. ihr eigenes Ding durch die Stadt zu treiben (Nvidia).
Hugo78
2012-01-29, 00:06:32
Naja es gibt weder Beweise dafür oder dagegen. Im Zweifel für den Angeklagten.
Also was hat Chiphell denn tolles geleakt?
Bis jetzt hab ich noch nicht einmal lesen können, wer denn der angebliche NV virale Mitarbeiter gewesen sein soll, und was er verbrochen hat.
3DC bietet bisher den besten Ausblick auf Kepler und alles was sich Links und Rechts davon als vermeindlicher Leak tummelt, ist endweder klar Fake oder klar ein abschreiben vom 3DC.
AwesomeSauce
2012-01-29, 00:13:36
Also was hat Chiphell denn tolles geleakt?
Bis jetzt hab ich noch nicht einmal lesen können, wer denn der angebliche NV virale Mitarbeiter gewesen sein soll, und was er verbrochen hat.
3DC bietet bisher den besten Ausblick auf Kepler und alles was sich Links und Rechts davon als vermeindlicher Leak tummelt, ist endweder klar Fake oder klar ein abschreiben vom 3DC.
Die Ironie an der ganzen Geschichte ist ja, dass Charlie genau das gleiche prophezeiht, wie die angeblichen Nvidia-Bots (z.B. der 299$ price tag).
Screemer
2012-01-29, 00:25:51
so wie ich das verstanden habe wurde von einem chiphell forenmitglied per pm informationen verteilt. dieser soll wiederum vm für nvidia betrieben haben. geht nicht um chiphell leaks sonder um die restlichen infos die im netz (obr, charli, etc.), die eben von ihm die infos gehabt haben sollen.
davidzo
2012-01-29, 00:28:54
Wobei man realistischer Weise schon dazu sagen muss, dass sogar AMDs-"Treiberqualität" für viele User ein Preisaufschlag gegenüber dem Inteltreiber rechtfertigen würde. Dass OEMs das wohl kaum interessiert steht dagegen auf einem anderen Blatt ;)
Oh doch, das interessiert sie in erster Linie. Die müssen sich schließlich mit den Kunden herumschlagen wenn mal wieder was nicht läuft. Schlechte Treiber sind ein erheblicher Kostenfaktor für die OEMs, dass es in manchen segmenten gar biliger ist einfach einen entrylevel ati oder nv chip zu verbauen. Das ist doch egnau die Welle auf der nVidia seit Jahren fährt. Der Aberglaube der besten Kompatibilität zahlt sich eben auch in den Service und Supportkosten aus.
Läuft die Anwendung nicht mit einer Intel schiebts der Käufer auf die Kaufberatung bzw. den hersteller. Läufts nicht mit der ATI liegt es wieder am hersteller. Läufts nur langsam mit ATI oder Nvidia weiß der Dazu er hätte mehr in die Grafik investieren sollen. Läufts nicht mit einer nvidia jedoch ist für den DAU plötzlich der Softwarehersteller schuld, nicht der vendor, die hardware oder der OEM.
Das spart Geld...
As for performance, still true that middle-class Kepler card easily beats Radeon 7970 ...
Dann wird die aber nie 299$ Kosten, das muss sich NV nicht freiwillig antun, wenn man sie auch für 450€ verkaufen könnt eund damit immer noch die 7970 unterbieten.
AffenJack
2012-01-29, 01:09:22
Steht es irgendwo im Bildmaterial drin dass es ein GK107 ist oder ist es wieder eins der typischen blonden Momente bei BSN? Riecht verdaechtlich nach einem GF117/28nm.
Siehe AnarchX Link:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9061209#post9061209
Device-ID des Codenamens bei BSN passt zu dem Treibereintrag von GK107. Zwar kommt nicht unbedingt alles was in den Treibern drinsteht, aber es würde mich doch wundern, wenn man da GK107 falsch zugeordnet hätte. Dazu kommt Computerbase Codenamenliste die den Codenamen als GT650M identifiziert und Charlies Liste die das Ding auch als was nicht so kleines ansieht. Das spricht alles für GK107 und Auslesefehler.
Mal Gf117 in betracht gezogen frag ich mich auch ob das mitn Speicherinterface hinhaut, wird gf117 nicht zu klein für 128bit?
Iruwen
2012-01-29, 01:10:51
Was sollen dann die High-End Karten kosten? Mit einem niedrigen Preis setzt man AMD unter Druck und wie schon mehrfach gesagt sind in dem Bereich hohe Absätze mit geringerem Gewinn immer noch lukrativer als geringere Absätze mit höherem Gewinn. Vorausgesetzt man kann entsprechende Stückzahlen liefern, sonst siehts halt aus wie bei AMD gerade, dann kann man die Preise auch hoch halten weil man eine höhere Nachfrage eh nicht bedienen könnte.
HarryHirsch
2012-01-29, 03:25:33
Also was hat Chiphell denn tolles geleakt?
Bis jetzt hab ich noch nicht einmal lesen können, wer denn der angebliche NV virale Mitarbeiter gewesen sein soll, und was er verbrochen hat.
3DC bietet bisher den besten Ausblick auf Kepler und alles was sich Links und Rechts davon als vermeindlicher Leak tummelt, ist endweder klar Fake oder klar ein abschreiben vom 3DC.
gibt es davon irgendwo eine zusammenfassung? bin leider zu selten hier um alles mit zu bekommen.
ich könnt auch schwören ich hab so typen schon im 3dc gesehen :upara:
boxleitnerb
2012-01-29, 08:53:19
Also was hat Chiphell denn tolles geleakt?
Bis jetzt hab ich noch nicht einmal lesen können, wer denn der angebliche NV virale Mitarbeiter gewesen sein soll, und was er verbrochen hat.
3DC bietet bisher den besten Ausblick auf Kepler und alles was sich Links und Rechts davon als vermeindlicher Leak tummelt, ist endweder klar Fake oder klar ein abschreiben vom 3DC.
DAS frage ich mich allerdings auch. Einer aus dem HardOCP Forum war glaub ich der erste, der das aufgegriffen hat. Er meinte auch, Charlie wäre "bamboozled" worden - da hat er wohl den Wallstreetkommentar so interpretiert und es als Fakt dargestellt. Dabei weiß niemand mit Sicherheit, wie der gemeint war, denn der war ja recht vage formuliert.
Alle haben sofort geglaubt, dass Nvidias Marketing dahintersteckt - ohne Beweis. D.h., der angebliche Beweis sei, dass jetzt keine Leaks mehr aus Asien kommen. Da wird so getan, als wäre da täglich was Neues gekommen, das jetzt versiegt ist. Dabei waren das entweder
a) aufgewärmte Gerüchte aus unserem Forum
b) Fake Slides (von denen ich ein paar Urheber kenne, und das war garantiert nicht NV)
Und eben das Zeug von Charlie, wobei der ja heftig dementiert hat, dass ihm das von irgendwelchen Marketingdrohnen zugepielt worden wäre. Er sagt, er hättet mehrere Industriequellen, und Karten will er ja auch (mit eigenen Augen?) gesehen haben.
Also was genau soll Nvidia denn da geleakt haben bei chiphell?
OgrEGT
2012-01-29, 08:58:17
OBR mal wieder:
http://www.obr-hardware.com/2012/01/some-new-info-about-kepler-and-chiphell.html
Mag jemand raten, was das neue Feature für PhysX und CUDA sein könnte, das so toll sein soll? PhysX 3.0? Das wäre aber nix Neues, daran arbeiten sie ja schon länger. Vielleicht kann man dann aber ab nächste Woche endlich mit richtigen Leaks rechnen.
Als ob OBR das mit eigenen Augen gesehen hätte...
Mit "performance" könnten auch nur die "metrics" gemeint sein, also perf/W, perf/mm2, perf/$ etc.
Also abwarten und q.e.d.
Mancko
2012-01-29, 11:18:39
Dann wird die aber nie 299$ Kosten, das muss sich NV nicht freiwillig antun, wenn man sie auch für 450€ verkaufen könnt eund damit immer noch die 7970 unterbieten.
Kommt darauf an. Wenn Nvidia noch den GK110 hat, dann will man den für 499 verkaufen. Das Zeug muss ja auch noch jemand kaufen können. Du kannst den Preis im privaten Endverbrauchermarkt nicht unendlich in die Höhe treiben.
Wenn sie den GK110 noch haben, würde ich diesen für 499, die Gk110Ausschusschips für 399 und alles ab Gk104 für 299 und darunter verkaufen. Das wäre der totale KO für AMD. Ich denke Nvidia hat Bedarf an Beidem: Geld und Marktanteilen. Insofern macht das Sinn. Natürlich unter der Annahme das GK104 die HD7970 übertrifft, gleich schnell ist oder nur knapp darunter.
Nehmen wir an das wäre so, dann wüsste ich nicht wieso Nvidia für den GK104 499 verlangen soll. Da wäre es mir wichtiger AMD in weiten Teilen im Markt für dedizidierte Grafikkarten zurückzudrängen. Das AMD Management hat eh kaum noch Lust auf kostenspielige Abentheuer und würde natürlich bei so einem Ergebnis seine Strategie im Bereich der Grafikkarten nochmal überdenken.
Hugo78
2012-01-29, 11:35:14
so wie ich das verstanden habe wurde von einem chiphell forenmitglied per pm informationen verteilt. dieser soll wiederum vm für nvidia betrieben haben. geht nicht um chiphell leaks sonder um die restlichen infos die im netz (obr, charli, etc.), die eben von ihm die infos gehabt haben sollen.
Der erste Teil könnte ja hinkommen, wenn jemand prominentes wie Napoleon selber FUD verbreitet hätte, aber doch nicht irgendein Nobody.
Da könnte ja jeder kommen. (Hmm.. muss mal wieder Gimp installieren *hust*)
OBR hat einfach nur das GF112 Gerücht aufgewärmt, dass schon mitte 2010 aufkam, unter dem Eindruck der mangelhaften Energiebilanz des GF100 und der guten des GF104.
Da war ein um 50% vergrößerter Vollausbau des GF104 als möglicher Nachfolger vom GF100 im Gamingbereich im Gespräch und diese Idee kam weltweit, zeitgleich auf.
War auch nur all zu logisch, zu der Zeit.
Dafür braucht man kein geheimsvollen Unbekannten ausm Chiphellforum, der OBR die Spec wiederaufwärmt, das hat er sicher von ganz allein hinbekommen.
Char_LIE wiederum nennt keine Specs, behauptet selber schon Karten gesehn zuhaben.
Das ist beides nichts, was ein PM Verteiler jetzt beeinflusst haben könnte.
Schon garnicht bei NV Hater Char_LIE, ausser da darf jetzt jeder ankommen, unbelegt, schwammig rumphantasieren und Char_LIE übernimmt das und setzt noch einen oben drauf,
in dem er schreibt, "GK104 cards seen by SemiAccurate all look very polished and complete...".
Ok, dass Char_LIE jetzt zum Wendehals wird, nachdem AMDs PR weitgehend entlassen wurde, wäre natürlich möglich.
Aber wie gesagt, ist kein Beleg für PM Verteiler Theorie im Chiphellforum.
Skysnake
2012-01-29, 13:05:28
kann aber auch sein, das er wieder mal einen Plagiarismus-Feldzug initialisiert.
Steht es irgendwo im Bildmaterial drin dass es ein GK107 ist oder ist es wieder eins der typischen blonden Momente bei BSN? Riecht verdaechtlich nach einem GF117/28nm.
Bringt NV denn auch Fermi's in 28nm auf den Markt? ich dacht die 28er Fermis waren nur testchips?
AnarchX
2012-01-29, 13:29:47
Bringt NV denn auch Fermi's in 28nm auf den Markt? ich dacht die 28er Fermis waren nur testchips?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9070027#post9070027
thx das kan ich noch garnicht
Schnitzl
2012-01-30, 00:04:09
Es kommt gar nichts in den naechsten paar Wochen, ausser einem langweiligen non-Kepler Dingsda. AMD wird bis dahin auch ihre Preise reduzieren fuer Tahitis, ergo wirst Du dann auch hoechstwahrscheinlich eine groessere Auswahl haben. Heute eine high end GPU wie die 580 bei den immer noch hohen Preisen zu kaufen waere ein fragliche Investition. Bis zum April wird es 28nm GPUs geben mit geringeren Preis und Stromverbrauch und zumindest vergleichbarer Leistung egal ob Radeon oder GeForce.
Danke, Ailuros
passt dazu, dass im Februar die Massenprod. von Kelper erst beginnen soll...
Ailuros
2012-01-30, 17:21:45
Nimmt mir bitte den OBR Mist nicht zu ernst. Ich weiss woher er sein "Material" bekommt und er wird oefters teilweise auf die Palme von diversen Kerlen getrieben mit mit Absicht eingepflanzten falschen Informationen nur damit manche etwas zum lachen haben.
M4xw0lf
2012-01-30, 17:24:04
Nimmt mir bitte den OBR Mist nicht zu ernst. Ich weiss woher er sein "Material" bekommt und er wird oefters teilweise auf die Palme von diversen Kerlen getrieben mit mit Absicht eingepflanzten falschen Informationen nur damit manche etwas zum lachen haben.
Mein Mitleid mit dem Hanswurst hält sich in Grenzen. :freak:
boxleitnerb
2012-01-30, 17:38:56
Charlie wollte heute einen weiteren Artikel bringen, diesmal etwas ausführlicher. Man darf gespannt sein.
Ailuros
2012-01-30, 17:51:02
so wie ich das verstanden habe wurde von einem chiphell forenmitglied per pm informationen verteilt. dieser soll wiederum vm für nvidia betrieben haben. geht nicht um chiphell leaks sonder um die restlichen infos die im netz (obr, charli, etc.), die eben von ihm die infos gehabt haben sollen.
Nein. Ich kann Dir privat sogar die "Quellen" vom ersten nennen und der zweite hat ueberhaupt nichts damit zu tun.
Siehe AnarchX Link:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9061209#post9061209
Device-ID des Codenamens bei BSN passt zu dem Treibereintrag von GK107. Zwar kommt nicht unbedingt alles was in den Treibern drinsteht, aber es würde mich doch wundern, wenn man da GK107 falsch zugeordnet hätte. Dazu kommt Computerbase Codenamenliste die den Codenamen als GT650M identifiziert und Charlies Liste die das Ding auch als was nicht so kleines ansieht. Das spricht alles für GK107 und Auslesefehler.
Mal Gf117 in betracht gezogen frag ich mich auch ob das mitn Speicherinterface hinhaut, wird gf117 nicht zu klein für 128bit?
Gegenfrage: nach SA's originaler Tabelle duerfte der N13P-GT bis zu 35W verbrauchen und 10k in 3dfart erreichen. Waere so etwas nicht ein "bisschen" viel fuer einen core mit nur 96SPs?
Mein Mitleid mit dem Hanswurst hält sich in Grenzen. :freak:
Jemand der Journalismus ernst nimmt, versucht info X ueber zumindest 2 ernsthafte Quellen zu sichern. Wenn ich persoenlich mal das Risiko nehme etwas zu erwaehnen dass nur von einer Ecke behauptet wird, steht es dann auch meistens im Text drin. Und nein ich bin natuerlich kein Journalist oder moechtegern Journalist.
AnarchX
2012-01-30, 17:56:17
Gegenfrage: nach SA's originaler Tabelle duerfte der N13P-GT bis zu 35W verbrauchen und 10k in 3dfart erreichen. Waere so etwas nicht ein "bisschen" viel fuer einen core mit nur 96SPs?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9142224#post9142224
Wobei 10K doch für 288SPs@810MHz relativ hoch wären oder kann man bei GK107 vielleicht 4*8 TMUs erwarten?
boxleitnerb
2012-01-30, 17:57:55
Wenn da kein Nvidia-Mitarbeiter oder eine Person, die der Firma nahesteht, Urheber der Chiphellgeschichte war, gibt es nur zwei Möglichkeiten:
1. Irgendein Idiot, der nichts Besseres zu tun hatte
2. AMD
Bucklew
2012-01-30, 17:58:15
Nimmt mir bitte den OBR Mist nicht zu ernst. Ich weiss woher er sein "Material" bekommt und er wird oefters teilweise auf die Palme von diversen Kerlen getrieben mit mit Absicht eingepflanzten falschen Informationen nur damit manche etwas zum lachen haben.
War da nichtmal was mit jemandem, der was von 7 funktionierenden Chips aus dem ersten TapeOut behauptet hat und dann hat ein Witzbold auf einen MockUP-Chip zum zeigen ne 7 gemacht? ;D
AwesomeSauce
2012-01-30, 18:07:47
[QUOTE=AnarchX;9145252]http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9142224#post9142224
Wobei doch die Vorgänger alle 48 SPs pro SM hatten. Da wäre es naheliegender, dass GK107 192 SPs hat, angenommen die SMs haben bei Kepler doppelte Grösse im Vergleich zu Fermi. 288 SPs gibts nur, falls die vorherige Basis 32 SPs/SM waren, was afaik nur bei GF1x0 der Fall war.
Oder der Treiber spuckt einfach irgendetwas hardgecodetes aus...
Gipsel
2012-01-30, 18:17:26
War da nichtmal was mit jemandem, der was von 7 funktionierenden Chips aus dem ersten TapeOut behauptet hat und dann hat ein Witzbold auf einen MockUP-Chip zum zeigen ne 7 gemacht? ;D
Wobei die Interpretation, das waere ein Scherzbold bei nV gewesen, von mir kam. So ganz klar war das damals naemlich nicht und koennte auch schlicht Zufall gewesen sein. Und Mockup war die "This puppy is Fermi"-Karte, bei den Chips ist es unsicher. ;)
Ailuros
2012-01-30, 18:24:00
Wobei doch die Vorgänger alle 48 SPs pro SM hatten. Da wäre es naheliegender, dass GK107 192 SPs hat, angenommen die SMs haben bei Kepler doppelte Grösse im Vergleich zu Fermi. 288 SPs gibts nur, falls die vorherige Basis 32 SPs/SM waren, was afaik nur bei GF1x0 der Fall war.
Oder der Treiber spuckt einfach irgendetwas hardgecodetes aus...
So lange mir jemand nicht irgendwelche Leistungs-indizie geben kann fuer das Samsung Geraet findet man nicht so leicht heraus um was es sich handelt.
288SPs koennten auch rein theoretische 3 Kepler SMs sein. Ist aber alles wohl nur bogus. Wenn Charlie's/SA Tabelle mehr oder weniger stimmt dann leistet der mobile top dog (GK104) wohl um die 20k in 3dfurz, der chip eine Kategorie tiefer 10k usw.
War da nichtmal was mit jemandem, der was von 7 funktionierenden Chips aus dem ersten TapeOut behauptet hat und dann hat ein Witzbold auf einen MockUP-Chip zum zeigen ne 7 gemacht? ;D
Die Geschichte hat sowieso niemand richtig hinbekommen; es liegt aber teilweise wahres daran. Es gab fuer ~400 wafers bei AMD pro wafer yields die nicht hoeher als 4% waeren (ja so brutal hat 40G am Anfang geschwankt) und als NV mit GF100 dann Monate spaeter in die Produktion ging waren die Schwankungen zwar um zich Male geringer insgesamt aber dank hw bug im interconnect bekamen sie pro wafer nicht mehr als nur 1 chip mit allen 16SMs operativ und vielleicht eine sehr seltene Ausnahme mit 2/wafer. 1 chip/16SM pro Wafer war ein binning yield von ca. 2% vom insgesamten yield/wafer, aber das hat leider damals niemand so leicht verstehen koennen hier. War aber auch Absicht ;)
Bucklew
2012-01-30, 18:26:11
Die Geschichte hat sowieso niemand richtig hinbekommen; es liegt aber teilweise wahres daran. Es gab fuer ~400 wafers bei AMD pro wafer yields die nicht hoeher als 4% waeren (ja so brutal hat 40G am Anfang geschwankt) und als NV mit GF100 dann Monate spaeter in die Produktion ging waren die Schwankungen zwar um zich Male geringer insgesamt aber dank hw bug im interconnect bekamen sie pro wafer nicht mehr als nur 1 chip mit allen 16SMs operativ und vielleicht eine sehr seltene Ausnahme mit 2/wafer. 1 chip/16SM pro Wafer war ein binning yield von ca. 2% vom insgesamten yield/wafer, aber das hat leider damals niemand so leicht verstehen koennen hier. War aber auch Absicht ;)
Naja, nicht ganz ;) Aber anyway, das ist Geschichte...
Ailuros
2012-01-30, 18:42:03
Naja, nicht ganz ;) Aber anyway, das ist Geschichte...
Mir persoenlich reicht es fuer mein eigenes Spekulations-Hobby (denn um was anderes handelt es sich ja nicht) wenn ich so nahe wie moeglich an der Realitaet von da wo ich eigentlich stehe sein kann.
Screemer
2012-01-30, 20:30:14
@ail: danke fürs angbot, aber ich lehne dankend ab. ich steck nicht tief drin und muss mir da auch nicht so den kopf machen. ist aber gut zu wissen, dass ich da was missverstanden hab.
Ailuros
2012-01-30, 21:00:36
@ail: danke fürs angbot, aber ich lehne dankend ab. ich steck nicht tief drin und muss mir da auch nicht so den kopf machen. ist aber gut zu wissen, dass ich da was missverstanden hab.
Na endlich mal jemand dem es zu billig ist sich mit solchen Albernheiten zu beschaeftigen ;) Ich stoess unter normalen Umstaenden nur aus Zufall auf solches Zeug.
Edgecrusher86
2012-01-31, 16:40:27
Könnte das eventuell GK104 sein - gefunden in der .inf des neuen 295.51 Beta:
http://www.abload.de/img/spekulationn7js6.png
Stamm der Device ID ist die GTX 560 Ti, also quasi das vermeintliche Vorgängermodell.
Das P dürfte für Performance stehen.
Ist jetzt halt die Frage...:D
MfG
Edge
AnarchX
2012-01-31, 16:44:17
D13 ist die GeForce 500 Serie. 124x ist GF116.
Leider keine Anzeichen von Kepler in den .infs des 295.51. Einzig ein paar 600er Desktop Karten: GT 640 (GF116), GT 620 (GF119), G 605 (GF119).
In den Mobile 295.51 .inf auch nur ein GF117-ES.
Hatte auch erst vermutet, dass NV vielleicht zum Launch der 7950 über diesen Kanal einen kleine Wink in Richtung Kepler gibt.
Edgecrusher86
2012-01-31, 16:45:05
Ok, schade - stimmt, 12 war 400er Serie und 13 500er (GF119 habe ich auch gesehen). ;)
Dural
2012-01-31, 17:42:38
NV scheint es nicht zu interessieren... sehr Speziell die aktuelle situation, so was gab es in dieser art wohl noch nie.
Alle reden immer nur wie toll kepler ist, aber von chips geschweige den von karten fehlt weit und breit jede spur :rolleyes:
Iruwen
2012-01-31, 17:45:48
Alle reden immer nur wie toll kepler ist
Hoffentlich geht das nicht nach hinten los :D
Edgecrusher86
2012-01-31, 17:55:07
Wäre es nicht auch möglich, dass D13P1-35 (das Namensschema ist schon relativ nah bei der spekulierten Liste bei S|A (http://semiaccurate.com/2011/08/23/nvidias-28nm-mobile-lineup-leaked/nvidia_mobile_gpus/) für die Mobil-Ableger, siehe etwa N13P-GT) für einen Kepler-Treiber-Erlkönig steht?
Alle Welt würde denken, es wär ein GF116. Beim Pressetreiber zum Launch könnte man das ja auch entsprechend umbenennen, sodass auf einmal wieder alles neu wäre.
Also ausgefuchst wäre so eine Umsetzung auf jeden Fall. :freak:
Ailuros
2012-01-31, 17:57:48
Hoffentlich geht das nicht nach hinten los :D
Na er wird sich garantiert nicht besser daruerber fuehlen :biggrin: Ich wuerde mir ja liebend gern den Scherz erlauben und behaupten was fuer ein grandioser Flop Kepler sein wird, aber es wird nur Minuten dauern bis meine PM box wieder ueberschwemmt wird ;)
AnarchX
2012-01-31, 18:14:38
Wäre es nicht auch möglich, dass D13P1-35 (das Namensschema ist schon relativ nah bei der spekulierten Liste bei S|A (http://semiaccurate.com/2011/08/23/nvidias-28nm-mobile-lineup-leaked/nvidia_mobile_gpus/) für die Mobil-Ableger, siehe etwa N13P-GT) für einen Kepler-Treiber-Erlkönig steht?
Alle Welt würde denken, es wär ein GF116. Beim Pressetreiber zum Launch könnte man das ja auch entsprechend umbenennen, sodass auf einmal wieder alles neu wäre.
Also ausgefuchst wäre so eine Umsetzung auf jeden Fall. :freak:
Imo wird NV schon eine gewisse Konsistenz in ihren Treibern anzielen.
Wer einen Kepler-Treiber braucht, bekommt wohl diesen mit passender inf. Wie auch ASUS wohl mit ihrem GK107 und einem 295.22, der bisher nicht öffentlich verfügbar ist.
Godmode
2012-01-31, 21:37:45
Na er wird sich garantiert nicht besser daruerber fuehlen :biggrin: Ich wuerde mir ja liebend gern den Scherz erlauben und behaupten was fuer ein grandioser Flop Kepler sein wird, aber es wird nur Minuten dauern bis meine PM box wieder ueberschwemmt wird ;)
Ein zweiter NV30 ist eh schon längst überfällig! ;D
edit:
Die aktuelle Situation ist unerträglich, keine Infos, keine Leaks :(
M4xw0lf
2012-01-31, 21:42:24
Ein zweiter NV30 ist eh schon längst überfällig! ;D
edit:
Die aktuelle Situation ist unerträglich, keine Infos, keine Leaks :(
Keine Karten, vermutlich :wink:
Zergra
2012-01-31, 23:01:30
Ein zweiter NV30 ist eh schon längst überfällig! ;D
edit:
Die aktuelle Situation ist unerträglich, keine Infos, keine Leaks :(
habe seid 3 Tagen aus Zeitlichen gründen das hier nicht weiterverfolgt -.- aber immer noch nichts neues oder? so wie es ausieht eher nicht
ecodriver
2012-01-31, 23:03:48
Vor dem Start der Geforce 5800 war es genau so leise...
In den Foren wurde auch gut Stimmung gemacht....
und das Ergebniss hat einen weggeblasen :biggrin:
Nightspider
2012-01-31, 23:03:56
habe seid 3 Tagen aus Zeitlichen gründen das hier nicht weiterverfolgt -.- aber immer noch nichts neues oder? so wie es ausieht eher nicht
3 Seiten zurückblättern und querzulesen ist anstrengender, als mal kurz nachzufragen oder? :rolleyes:
An der Farbe der Seitenzahl sieht man übrigens auf welcher Seite man zuletzt war. ;)
Zergra
2012-01-31, 23:06:07
3 Seiten zurückblättern und querzulesen ist anstrengender, als mal kurz nachzufragen oder? :rolleyes:
An der Farbe der Seitenzahl sieht man übrigens auf welcher Seite man zuletzt war. ;)
naja wer weiß :D aber irgentwie sah mir das mehr aus, also mehr als 3 Seiten, eher wie 10, dann sorry fürs fragen :P
Hübie
2012-01-31, 23:34:59
Vor dem Start der Geforce 5800 war es genau so leise...
In den Foren wurde auch gut Stimmung gemacht....
und das Ergebniss hat einen weggeblasen :biggrin:
Hrhr. Im wahrsten Sinne des Wortes, weggeblasen :freak:
Screemer
2012-02-01, 01:42:02
Hrhr. Im wahrsten Sinne des Wortes, weggeblasen :freak:
http://www.pcgameshardware.de/screenshots/250x375/2003/01/geforce_fx_foen.jpg
hehe. war das lustig damals. ich kann aber für kepler irgendwie nicht daran glauben. tahiti und speziell der verbrauch der 7950 zeigen das potential von 28nm.
Was für News erwartet ihr? Nur weill AMD im Zeitplan ist und fleissig neue GPUs launcht, wird NV nicht eher fertig.
Skysnake
2012-02-01, 07:19:11
Wenn die Konkurrenz aber ständig von der Presse "Honig ums Maul" geschmiert bekommt für ihre neuen Produkte (ACHTUNG! ich will damit NICHT sagen, dass die Presse hier unangemessen berichtet oder sonstiges!), dann sehen sich Firmen normal dazu veranlasst, selbst etwas Kund zu tun, wie toll und supi ihre neuen Sachen werden, und man doch nur noch ein bischen warten soll.
Jeder Tag den die 6950 drausen ist und kein Kepler ist ein schlechter Tag. Die 6950 konnte ja noch weitaus mehr überzeugen als die 6970, was durchaus zu erwarten war, wie gut Sie ist, hat mich allerdings schon überrascht. Das einzige Manko für ne AMD in meinen Augen ist atm noch der Preis. Der ist einfach zu hoch in meinen Augen. Da wird der Preis wohl (hoffentlich) deutlich fallen, sobald Kepler mal da ist.
Im Moment ist AMD aber wohl eindeutig die bessere Wahl, als jedwede nVidia Karte am Markt (Desktop).
Man muss auch schauen, wie sich der Preis nun weiter entwickelt. Die Verfügbarkeit für die 6950 sieht ja auch nicht so schlecht aus. Da wird dann sicherlich in absehbarer Zeit auch der Preiskampf einsetzen.
Die ersten 7950 sind ja inzwischen für ~393€ lagernd zu haben :D
Spasstiger
2012-02-01, 07:47:04
Im Moment ist AMD aber wohl eindeutig die bessere Wahl, als jedwede nVidia Karte am Markt (Desktop).
Zumindest hat Jemand, der jetzt noch eine GeForce GTX 580 für 400€ aufwärts kauft, sehr spezielle Präferenzen.
NV hat wohl wieder das altbekannte Problem, dass sie ihre komplexen Designs nicht rasch mit akkzeptablen Yields auf neuen Fertigungsprozesse realisiert bekommen. Und dummerweise ist NV seit dem GT200 an einem Punkt, wo man die Diegrößen bis zur Machbarkeitsgrenze ausreizt. Vom G71 zum G80 hatte man ja noch Flächenspielraum, so dass man den Fertigungsprozess nicht wechseln musste. Vielleicht muss NV sich diesen Spielraum wieder lassen und mal in einer Generation nicht krampfhaft versuchen, den Single-GPU-Thron zu erobern. Fürs Tesla-Geschäft wären auch zwei kleinere Chips auf einem Träger geeignet, das volle Featureset inkl. ECC und Double Precision vorausgesetzt.
Nightspider
2012-02-01, 07:58:24
http://www.pcgameshardware.de/screenshots/250x375/2003/01/geforce_fx_foen.jpg
hehe. war das lustig damals. ich kann aber für kepler irgendwie nicht daran glauben. tahiti und speziell der verbrauch der 7950 zeigen das potential von 28nm.
50% des Fehlers bei der 5800 war ja auch die Kühlkonstruktion. So schlechte Kühler kann man heut gar nicht mehr bauen. Nicht mal mit Absicht. :D
Hugo78
2012-02-01, 08:00:03
NV hat wohl wieder das altbekannte Problem, dass sie ihre komplexen Designs nicht rasch mit akkzeptablen Yields auf neuen Fertigungsprozesse realisiert bekommen.
Ailuros sagt da was anderes.
NV plante original die GK104 bei der CES anzukuendigen fuer einen Februar launch.
[...]
Wuerde NV nicht momentan fieberhaft daran arbeiten Stock zu sammeln fuer die ivy bridge design wins haetten sie auch Kapazitaeten uebrig gehabt im Februar eine GK104 vorzustellen. Und damit sind nicht nur geringe Kapazitaeten gemeint, sondern ziemlich viel denn fuer einen hypothetischen $300 MSRP waere die Nachfrage auch ziemlich hoch.
Nach TSMCs eigenen Angaben sind die Kapazitaeten fuer 28nm sogar um einiges besser als anfangs projeziert, aber die 2% vom insgesamten Volumen rettet auch nicht den Tag. Neben AMD und NV stellen auch noch zich andere IHVs unter 28nm bei TSMC her, ergo ist es wohl nicht so dass diese 2% nur den beiden IHVs entsprechen sondern um einiges weniger.
AnarchX
2012-02-01, 08:10:07
GK104 mit dedizierten PhysX-Einheiten? (http://news.techeye.net/chips/nvidias-kepler-suffers-wobbly-perturbations) :|
Some industry watchers suggest that Nvidia gave up a lot of space on its chip, trying to buff up Kepler by bringing Ageia to the hardware.
Das würde auch zu OBRs Andeutung passen:
The first news (if true)is breakthrough new feature for PhysX and CUDA through its processing. If this thing really confirmed, it will be a big bomb.
http://www.obr-hardware.com/2012/01/some-new-info-about-kepler-and-chiphell.html
Vielleicht ist es ja wirklich günstiger Fluid-Dynamics über dedizierte Schaltkreise auszuführen, als über die ALUs?
Oder vielleicht gibt es nun pro SM noch eine PhysX-Unit, welche die ALUs mit ein paar speziellen SFUs unterstützt?
DarknessFalls
2012-02-01, 08:15:16
...aber welchen Sinn würden solche dedizierten PhysX-Einheiten machen? In der Regel ist es doch bequem möglich, bei aktuellen Performance-Karten von nV (oder auch denen der letzten Gen wie z.B. GTX460) PhysX zuzuschalten, ohne daß die FPS in unspielbare Bereiche rasseln. Das wäre keine "big bomb" IMHO.
Spasstiger
2012-02-01, 08:17:07
Wenn, dann werden das wohl Funktionserweiterungen der SFUs in den CUDA-Cores sein bzw. mikroprogrammierte Befehlssatzerweiterungen. Man müsste schon ein Heer an dedizierten Einheiten bereitstellen, um rechenleistungstechnisch einen Vorteil gegenüber den vielen CUDA-Cores zu erreichen.
...aber welchen Sinn würden solche dedizierten PhysX-Einheiten machen? In der Regel ist es doch bequem möglich, bei aktuellen Performance-Karten von nV (oder auch denen der letzten Gen wie z.B. GTX460) PhysX zuzuschalten, ohne daß die FPS in unspielbare Bereiche rasseln. Das wäre keine "big bomb" IMHO.
Es geht wohl speziell um Flüssigkeitssimulation. Das geht mit den heutigen Karten auf jeden Fall nocht nicht für Spieleumgebung ausreichend realistisch bei spielbaren Frameraten. So sieht eine Realisierung nach aktuellem Stand aus: http://www.youtube.com/watch?v=iPzYyGAO9TE. Nicht schlecht, aber auch recht grob und plastikmäßig. Ob das in Verbindung mit einem LOD-System gut aussieht, ist die andere Frage, wäre aber wichtig für eine Spieleumgebung, um den Rechenaufwand managen zu können. Wäre ja blöd, wenn der Teich von Nahem nach Wasser, aber von Weitem nach Marmelade aussieht. ;)
Nightspider
2012-02-01, 08:49:59
Wenn man DIE Fläche für PhysX opfert würde man sich im Server Bereich nur selbst schaden.
Denn Vorteile hätte man nur in Spielen, und zwar in sehr wenigen Spielen.
Da würde sich Nvidia einen größeren Gefallen tun, die Fläche in mehr globale Leistung zu investieren.
Hugo78
2012-02-01, 08:51:37
GK104 mit dedizierten PhysX-Einheiten? (http://news.techeye.net/chips/nvidias-kepler-suffers-wobbly-perturbations) :|
Vielleicht ist es ja wirklich günstiger Fluid-Dynamics über dedizierte Schaltkreise auszuführen, als über die ALUs?
Bei GK110 für Quadro/Tesla könnte ich mir sowas vorstellen.
Aber ich glaub nicht, dass sich das bei GK104 lohnt.
Da müsste der zusätzliche Flächenbedarf minimal, der Perf.Zugewinn aber verhältnissmässig groß sein.
Also wenn PhysX zuschalten plötzlich "nix mehr kostet", d.h. der Perf.drop ähnlich winzig ist wie bei FXAA, dann wäre das natürlich was anderes.
Wenn man DIE Fläche für PhysX opfert würde man sich im Server Bereich nur selbst schaden.
Denn Vorteile hätte man nur in Spielen, und zwar in sehr wenigen Spielen.
Da würde sich Nvidia einen größeren Gefallen tun, die Fläche in mehr globale Leistung zu investieren.
Na ja auch zb. Feuer fällt iirc unter Flüssigkeitssimulation, dass tägliche Brot für jede Renderfarm.
http://www.youtube.com/watch?v=PQef_6gio14
AnarchX
2012-02-01, 08:57:26
Bei B3D meint man, dass wohl bestimmte Dinge nicht über CUDA-PhysX umsetzbar sind. So verspricht Nvidia schon ewig rigid-bodies über die GPU zu beschleunigen, was bisher noch nicht passiert ist.
Wenn man mit vielleicht ~300Mio. Transistoren die PhysX-Leistung von vielleicht 1,5-2TFLOPs @ CUDA umsetzen könnte, wäre das wohl kein schlechter Tradeoff.
boxleitnerb
2012-02-01, 08:58:19
Das wäre das absolut Dämlichste, was die machen könnten. Die Space für etwas Proprietäres opfern, was vielleicht in 2 Spielen im Jahr genutzt wird. Wenn die Einheiten nur explizit für PhysX benutzt werden können und sonst für nix anderes, ist das Kosten-Nutzen-Verhältnis doch total im Eimer. Was, wenn die Spieleentwickler es wegen dem Aufwand nicht aufgreifen oder es per Bullet/OpenCL implementieren, was auf diesen Einheiten vielleicht nicht oder nicht optimal läuft?
Das wäre nur dann richtig geil, wenn plötzlich jeder auf den PhysX-Zug aufspringen würde.
Nightspider
2012-02-01, 09:00:23
Im Gaming Bereich würde das atm wohl aber auch keine Sau interessieren. Weil eben passende Anwendungen fehlen und auch in Zukunft fehlen werden, solange ATI kein PhysX bietet und ATI einen Marktanteil bei Spielecomputern von ~40% besitzt.
Das ist genauso unwahrscheinlich, wie der Physikprozessor, der für die Wii damals spekuliert wurde. :D
AnarchX
2012-02-01, 09:00:33
Im Quadro-Markt wären wohl Echtzeit-Flüssigkeitssimulationen auch gefragt.
Im Gaming Bereich würde das atm wohl aber auch keine Sau interessieren. Weil eben passende Anwendungen fehlen und auch in Zukunft fehlen werden, solange ATI kein PhysX bietet und ATI einen Marktanteil bei Spielecomputern von ~40% besitzt.
Vielleicht öffnet man mit diesem Schritt PhysX für AMD, weil man durch die dedizierte Einheit einen komfortable Leistungsvorsprung hält?
boxleitnerb
2012-02-01, 09:05:23
Im Quadro-Markt wären wohl Echtzeit-Flüssigkeitssimulationen auch gefragt.
Vielleicht öffnet man mit diesem Schritt PhysX für AMD, weil man durch die dedizierte Einheit einen komfortable Leistungsvorsprung hält?
Das wäre echt krass. Ich glaub zwar eher, dass vorher die Hölle zufriert, aber gut...
Andererseits ist Nvidia nicht doof. Sie sind mit manchen Dingen vielleicht etwas zu früh am Markt (Tessellation), aber die machen sich sicher auch Gedanken ob das überhaupt abheben kann. Wenn sie dafür einiges opfern, müssen sie schon einen Plan haben.
AnarchX, vielleicht hast du Recht:
"LLVM's modular design allows third-party software tool developers to provide a custom LLVM solution for non-NVIDIA processor architectures, enabling CUDA applications to run across other vendors" (AMD?)
Steht beim neuen CUDA 4.1 Toolkit.
http://developer.nvidia.com/cuda-toolkit-41
Spasstiger
2012-02-01, 09:11:12
Sie sind mit manchen Dingen vielleicht etwas zu früh am Markt (Tessellation)
Der war gut angesichts dessen, dass die Radeon 8500 anno 2001 bereits einen Hardware-Tessellator besaß und alle Radeon HD seit 2007 ebenfalls (inkl. SDK, also durchaus nutzbar). NV kam erst 2010 mit Tessellation.
Nightspider
2012-02-01, 09:13:48
Vielleicht öffnet man mit diesem Schritt PhysX für AMD, weil man durch die dedizierte Einheit einen komfortable Leistungsvorsprung hält?
Selbst wenn AMD Interesse zeigen würde, würde es ewig dauern bis AMD Karten mit PhysX Einheiten/Optimierungen auf dem Markt wären.
Und selbst wenn beide Firmen derartige Karten auf dem Markt hätten, würde es ewig dauern bis angepasste Spiele auf dem Markt wären.
DarknessFalls
2012-02-01, 09:14:39
@box, strenggenommen war ATi seinerzeit mit R600 schon früher mit Tesselation am Markt; wenn ich mich recht entsinne, sollte Tesselation sogar schon Bestandteil von DX10 werden. Gab es seinerzeit nicht sogar Gerüchte, daß Tes wegen nV wieder gestrichen wurde?
Edit: Bei R200 war es IMHO noch keine wirkliche Tesselation, aber eine Vorstufe davon.
AnarchX
2012-02-01, 09:15:38
Selbst wenn AMD Interesse zeigen würde, würde es ewig dauern bis AMD Karten mit PhysX Einheiten/Optimierungen auf dem Markt wären.
Und selbst wenn beide Firmen derartige Karten auf dem Markt hätten, würde es ewig dauern bis angepasste Spiele auf dem Markt wären.
AMD Karten haben einen OpenCL-Treiber, insofern muss AMD hier nur die Specs einhalten, den Rest könnte Nvidia machen. ;)
AnarchX, vielleicht hast du Recht:
Steht beim neuen CUDA 4.1 Toolkit.
http://developer.nvidia.com/cuda-toolkit-41
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=518735
Spasstiger
2012-02-01, 09:16:00
Edit: Bei R200 war es IMHO noch keine wirkliche Tesselation, aber eine Vorstufe davon.
Doch, das war Tessellation, du konntest nur kein Displacement Mapping drauf anwenden.
AnarchX
2012-02-01, 09:21:54
Zu Tessellation haben wir genug andere Threads. ;)
Dural
2012-02-01, 09:24:42
hmm interessante sache.
für NV könnte es sich doppelt lohnen, sobald ihre neuen GPUs mit diesen Einheiten im Regal stehen können sie einfach PhysX auch auf den AMD Karten ermöglichen, natürlich sind die NV Karten dank den Einheiten im Vorteil...
NV hätte mit einem schlag jetzt schon die Nr. 1 bei den Physik-Engine für eine längere Zeit gesichert. Und man kann es hervoragend für das eigene Marketing nutzen, besser geht es ja nicht ;)
Wurde deswegen wohl schon letztes Jahr Cuda offengelegt?!
y33H@
2012-02-01, 09:34:59
So verspricht Nvidia schon ewig rigid-bodies über die GPU zu beschleunigen, was bisher noch nicht passiert ist.Nvidias Art Gallery Demo [auf der GDC 2011 vorgeführt] zeigt GPU Rigid Bodies via PhysX in Kombination mit der UE3 - aber es ist halt nicht, was man bisher in einem Spiel gesehen hat.
http://www.youtube.com/watch?v=9lCkB77it-M
PCGH_Carsten
2012-02-01, 09:54:26
Doch, das war Tessellation, du konntest nur kein Displacement Mapping drauf anwenden.
Wenn du die N-Patches auf R200 (und Parhelia) zählst, musst du auch die RT-Patches im NV20 berücksichtigen.
On-Topic:
Dedizierte Physx-Schaltungen wären mMn nur sinnvoll, wenn Nvidia in einer Next-Gen-Konsole wäre und die Spiele dort entsprechend optimiert werden. Wahrscheinlicher ist aber, dass von irgendeiner Quelle „physics“, nicht „physx“ gesagt wurde.
Dural
2012-02-01, 11:13:43
welche "Next-Gen-Konsolen" :freak:
Die sind ja bereits heute veraltet :rolleyes:
davidzo
2012-02-01, 11:44:06
Pysx ist doch schon lange offen für AMD, die haben nur keine Lust R&D Potential für eine Sache zu investieren in der nvidia einen meilenweiten Vorsprung hat. Da schweigt man es lieber tot und versucht es bei Spieleherstellern in Misskredit zu bringen, damit es gar nicht erst zum Standard wird.
Ich könnte mir vorstellen dass man ein dediziertes PhysX frontend einbaut. Die alus werden aber dasselbe sein. Seit DX10 haben sich die Alus so verallgemeinert dass wir es wirklich nurnoch mit einem massiv parallelen prozessor zutun haben - ideal für Physx, wozu sollte man diesen Unfied Vorteil wieder aufgeben und mit dedizierten Recheneinheiten wieder einen Rückschritt wagen?
Nighthawk13
2012-02-01, 12:24:43
Halte die Idee von dedizierte PhysX-Units für Quatsch. Da gibt es viele Algorithmen, da will man sich sicher nicht auf ein paar festlegen und nur die in Hardware giessen.
Wenn man eine CPU in die GPU integriert hat(Project Denver), dürfte das auch die Physikberechnung beschleunigen(Viele Algorithmen haben einen stark und schwach parallelen Teil).
|MatMan|
2012-02-01, 12:50:33
Ich könnte mir vorstellen dass man ein dediziertes PhysX frontend einbaut. Die alus werden aber dasselbe sein. Seit DX10 haben sich die Alus so verallgemeinert dass wir es wirklich nurnoch mit einem massiv parallelen prozessor zutun haben - ideal für Physx, wozu sollte man diesen Unfied Vorteil wieder aufgeben und mit dedizierten Recheneinheiten wieder einen Rückschritt wagen?
So allgemein kann man das sicherlich nicht sagen, es kann schon sein dass etwas spezialisiertes deutliche Vorteile gegenüber einer generalisierten Lösung hat. Intel's Quick Sync hat da z.B. ziemlich überrascht...
Dass nVidia was nur für Gamer einbaut kann ich mir aber auch nicht vorstellen, wenn dann muss das zumindest noch für die Quadros interessant sein oder besser für Quadros und Teslas... Es sei denn der Aufwand wäre wirklich extrem gering.
Godmode
2012-02-01, 14:32:12
IMHO ist das Schwachsinn! Warum sollte ich in diese Richtung gehen, wenn ich vorher schon in die andere gehe und möglichst viel General Purpose Units verbaue.
FUD FTW!
boxleitnerb
2012-02-01, 14:34:04
Was auch stutzig macht:
Redesign von Teilen von 32nm auf 28nm. Kepler war doch immer für 28nm geplant. Vielleicht stimmt von dem Artikel gar nichts.
Ailuros
2012-02-01, 16:22:09
Ich hab es schwer mit meinem beschraenkten Laien-wissen all die Einheiten von GK104 in die Logik der angeblichen die area bzw. Transistor-count zu bringen und das Ding soll auch noch dedizierte Einheiten fuer Phys-X haben? :rolleyes:
***edit:
Parts on the 32nm had to be redesigned for 28nm, but along the way there were challenges with packaging and interconnects.
http://news.techeye.net/chips/nvidias-kepler-suffers-wobbly-perturbations#ixzz1l92cYdD6
ROFL Ok.....danke fuer meine verschwendete 2 Minuten den Mist durchzulesen.
dildo4u
2012-02-01, 16:36:19
Wegen PhysX könnte eine Neuerung nicht sein das es im SLI über zwei Karten laufen kann oder geht das schon jetzt?
Skysnake
2012-02-01, 17:24:20
Pysx ist doch schon lange offen für AMD, die haben nur keine Lust R&D Potential für eine Sache zu investieren in der nvidia einen meilenweiten Vorsprung hat. Da schweigt man es lieber tot und versucht es bei Spieleherstellern in Misskredit zu bringen, damit es gar nicht erst zum Standard wird.
Ich könnte mir vorstellen dass man ein dediziertes PhysX frontend einbaut. Die alus werden aber dasselbe sein. Seit DX10 haben sich die Alus so verallgemeinert dass wir es wirklich nurnoch mit einem massiv parallelen prozessor zutun haben - ideal für Physx, wozu sollte man diesen Unfied Vorteil wieder aufgeben und mit dedizierten Recheneinheiten wieder einen Rückschritt wagen?
ähhh... Was redest du da?
Kannste das mal belegen?
Dir ist schon klar, dass das Zeug propritär ist und Nvidia seine Finger drauf hat?
][immy
2012-02-01, 17:43:25
auf die gefahr hin, das es schon irgendwo auf den letzten 100 seiten steht, aber ist schon raus ob GK104 ebenfalls auf die hotclocks bei den shadern verzichten wird? Oder wird es jetzt doch ein beinahe purer shrink (inkl. hotclocks)?
wenn ja, müsste das ja auch erst mal kompensiert werden. immerhin sind 50% rechnenleistung der shader dann erst mal futsch. wie viel potential für optimierung gibt es hier, den 50% ist schon ne hausnummer.
und die doppelte anzahl an einheiten dürfte sich dann trotz der 28nm fertigung doch ziemlich auf die chipfläche auswirken.
was würde theoretisch schon ein Synchroner Takt hier bringen? Immerhin haben die Hotclocks ja auch den nachteil, das die Shader vielleicht grad nichts zu tun bekommen aufgrund der synchronisation und so theoretische rechenleistung verloren geht.
an extra recheneinheiten für physx glaube ich eher nicht, es sei denn die haben noch ein paar ansonsten unbenutze chips drauf, die nur dank fertigungs/kostenoptimierung mit an bord sind und ihnen so dann einen verwendungszweck geben kann.
Ailuros
2012-02-01, 17:53:38
[immy;9148158']auf die gefahr hin, das es schon irgendwo auf den letzten 100 seiten steht, aber ist schon raus ob GK104 ebenfalls auf die hotclocks bei den shadern verzichten wird? Oder wird es jetzt doch ein beinahe purer shrink (inkl. hotclocks)?
Nach dem bisher geleakten authentischem Material ja.
wenn ja, müsste das ja auch erst mal kompensiert werden. immerhin sind 50% rechnenleistung der shader dann erst mal futsch. wie viel potential für optimierung gibt es hier, den 50% ist schon ne hausnummer.
und die doppelte anzahl an einheiten dürfte sich dann trotz der 28nm fertigung doch ziemlich auf die chipfläche auswirken.
was würde theoretisch schon ein Synchroner Takt hier bringen? Immerhin haben die Hotclocks ja auch den nachteil, das die Shader vielleicht grad nichts zu tun bekommen aufgrund der synchronisation und so theoretische rechenleistung verloren geht.
Es wird gar nichts via Optimierungen bzw. nur sw kompensiert. Nx Mal so viele ALUs mit Nx Mal groesserer Breite pro ALU bei hoeherer Core-Frequenz als bisher.
boxleitnerb
2012-02-01, 18:09:33
Kann man eigentlich inzwischen zu 90% Wahrscheinlichkeit von einem 384-bit Interface für GK110 ausgehen?
Unter den Gesichtspunkten Perf/W, Perf/$ wäre das anzunehmen. Weiterhin soll sich GK104 ja in Tahiti-Regionen bewegen können mit "nur" 256-bit, da wären 512-bit für den dicken Chip unnötig.
Kann sich eigentlich jemand an einen Launch erinnern der letzten Jahre, bei dem soviele verschiedene Möglichkeiten spekuliert wurden? Da kommt ja nichtmal G80 ran, wenn ich damit nicht falsch liege.
Ailuros
2012-02-01, 18:28:53
Kann man eigentlich inzwischen zu 90% Wahrscheinlichkeit von einem 384-bit Interface für GK110 ausgehen?
Unter den Gesichtspunkten Perf/W, Perf/$ wäre das anzunehmen. Weiterhin soll sich GK104 ja in Tahiti-Regionen bewegen können mit "nur" 256-bit, da wären 512-bit für den dicken Chip unnötig.
Wieso? Tahiti ist auch fuer HPC ausgelegt mit einem 384bit anstatt einem 256bit bus und GK110 wird wohl versuchen um einiges mehr als Tahiti im Bereich DP u.a. auf die Beine bringen zu wollen. Garantiert ist mir mit der obrigen Logik gar nichts, da GK104 wohl nichts mit HPC zu tun hat.
Kann sich eigentlich jemand an einen Launch erinnern der letzten Jahre, bei dem soviele verschiedene Möglichkeiten spekuliert wurden? Da kommt ja nichtmal G80 ran, wenn ich damit nicht falsch liege.
Ich bin zu faul die Zahlen vom damaligen G80 Spekulations-thread aufzusuchen, aber es klingt mir bei fast jedem launch stets der gleichgrosse Ramtamtam egal ob G80 oder irgend etwas langweiligeres nach diesem.
boxleitnerb
2012-02-01, 19:27:21
Aber der 384bit Bus bringt Tahiti ggü. einem 256er schon 15% in Spielen, wie Computerbase gemessen hat. Mit mehr Takt bei einem Refresh bzw. beim Übertakten sollte der erst recht notwendig sein. Allein an HPC wird das wohl nicht liegen.
Glaubst du an 512bit bei Kepler?
AwesomeSauce
2012-02-01, 20:38:29
Evtl. interessant...
http://semiaccurate.com/2012/02/01/physics-hardware-makes-keplergk104-fast/
Sources tell SemiAccurate that the ‘big secret’ lurking in the Kepler chips are optimisations for physics calculations. Some are calling this PhysX block a dedicated chunk of hardware, but more sources have been saying that it is simply shaders, optimisations, and likely a dedicated few new ops. In short, marketing may say it is, but under the heat spreader, it is simply shaders and optimisations.
GK104 is the mid-range GPU in Nvidia’s Kepler family, has a very small die, and the power consumption is far lower than the reported 225W. How low depends on what is released and what clock bins are supported by the final silicon. A1 stepping cards seen by SemiAccurate had much larger heatsinks than the A2 versions, and recent rumours suggest there may be an A3 to fix persistent PCIe3 headaches.
The architecture itself is very different from Fermi, SemiAccurate’s sources point to a near 3TF card with a 256-bit memory bus. Kepler is said to have a very different shader architecture from Fermi, going to much more AMD-like units, caches optimised for physics/computation, and clocks said to be close to the Cayman/Tahiti chips. The initial target floating among the informed is in the 900-1000MHz range. Rumours have it running anywhere from about 800MHz in early silicon to 1.1+GHz later on, with early stepping being not far off later ones. Contrary to some floating rumours, yields are not a problem for either GK104 or TSMC’s 28nm process in general.
Benchmarks for GK104 shown to SemiAccurate have the card running about 10-20% slower than Tahiti. On games that both heavily use physics related number crunching and have the code paths to do so on Kepler hardware, performance should seem to be well above what is expected from a generic 3TF card.
All of the benchmark numbers shown by Nvidia, and later to SemiAccurate, were overwhelmingly positive. How overwhelmingly positive? Far faster than an AMD HD7970/Tahiti for a chip with far less die area and power use, and it blew an overclocked 580GTX out of the water by unbelievable margins.
Dazwischen natürlich das übliche Geblubber über Verschwörungstheorien bei der Spieleentwicklung... Been there, done that. Harte Informationen sind keine drin. Ich glaube zumindest eine der "Semiaccurate Sources" zu kennen:tongue:
Ailuros
2012-02-01, 20:43:42
Aber der 384bit Bus bringt Tahiti ggü. einem 256er schon 15% in Spielen, wie Computerbase gemessen hat. Mit mehr Takt bei einem Refresh bzw. beim Übertakten sollte der erst recht notwendig sein. Allein an HPC wird das wohl nicht liegen.
Alleine nicht, aber eins der treibenden Gruende ja.
Glaubst du an 512bit bei Kepler?
Ich glaube an gar nichts bis wir endlich eine volle Architektur-Analyse in der Hand haben. Nichtdestominder einen 512bit bus will ich noch nicht ausschliessen da ich vom GK110 bis zu 40-50% hoehere DP Raten im Vergleich zu TahitiXT erwarte. Mit vergleichbarer Bandbreite klingt mir das Ganze viel zu knapp.
mapel110
2012-02-01, 20:49:38
http://semiaccurate.com/2012/02/01/physics-hardware-makes-keplergk104-fast/
Spekuliert, A3 könnte es geben, immer noch wegen PCIe3.0
und reitet auf PhysX rum...abseits der Benchmarkgames soll GK104 nicht gut sein.
boxleitnerb
2012-02-01, 20:51:21
Hm, Charlies Artikel stimmt mich nicht gerade fröhlich. Extrem schwankende Performance, cherry picking deluxe und Konzentration der massiven Verbesserungen auf ein paar wenige (meist unbedeutende) Titel im Jahr, wo das voll durchschlagen könnte. Na ich weiß ja nicht...
mapel110
2012-02-01, 20:52:59
Hm, Charlies Artikel stimmt mich nicht gerade fröhlich. Extrem schwankende Performance, cherry picking deluxe und Konzentration der massiven Verbesserungen auf ein paar wenige (meist unbedeutende) Titel im Jahr, wo das voll durchschlagen könnte. Na ich weiß ja nicht...
Spricht nur dafür, dass es bald Leaks geben wird, die extrem positiv sein werden. Charlie will natürlich, dass man dem keinen Glauben schenkt. FUD.
Schaffe89
2012-02-01, 20:55:20
Also 10 bis 20% langsamer als der Top Tahiti bei vielleicht 300mm² Die Größe.
Ich verstehe jetzt die überschwänglichen Worte von Semiaccurate bzw Charlie nicht ganz, zumindest die zuletzt.
DAs scheint ein guter Chip zu werden bei vielleicht 150 bis 160 Watt Spielverbrauch, aber das schafft eine HD 7950 auch.
DIE Größe ist nicht alles.
Scheinbar hat Nvidia aber wieder Kirschen rausgeholt.
Für mich hört sich das nach einem kommenden Flop an. ( Ist ja nur Speku).
Vielleicht will Charlie ja einfach nur Aufmerksamkeit und fährt jetzt die Erwartungen an GK104 Schrit für Schritt nach unten?
boxleitnerb
2012-02-01, 20:56:33
Spricht nur dafür, dass es bald Leaks geben wird, die extrem positiv sein werden. Charlie will natürlich, dass man dem keinen Glauben schenkt. FUD.
Du meinst also, dass Kepler nur in wenigen selektierten Spielen auftrumpft, stimmt nicht?
mapel110
2012-02-01, 20:59:00
Du meinst also, dass Kepler nur in wenigen selektierten Spielen auftrumpft, stimmt nicht?
Gab es ja bei Fermi auch mit den Farcry2-Leaks. Aber darauf deutet diesmal nicht wirklich viel. Es ist ja keine neue Technologiestufe. Also sollte nvidia es schon hinbekommen, eine gute generelle Leistungssteigerung zu liefern.
Bucklew
2012-02-01, 21:04:02
Evtl. interessant...
http://semiaccurate.com/2012/02/01/physics-hardware-makes-keplergk104-fast/
Interessant, da gehts doch zu 75% gar nicht um Kepler.
Peinlich Charlie, peinlich. Kepler muss also verdammt gut sein, wenn er ihn jetzt auf die Schiene klein reden muss ;)
Ailuros
2012-02-01, 21:04:59
Evtl. interessant...
http://semiaccurate.com/2012/02/01/physics-hardware-makes-keplergk104-fast/
OBR hatte wohl wieder recht...
Inwiefern hatte jeglicher OBR "recht"? Selbst Charlie bezweifelt zu gutem dass es sich um dedizierte hw handelt. Sonst hat er sich mal wieder Zeit genommen ueber zich Paragraphen das zu verbreiten was man sonst in nur einem oder mehreren Saetzen zusammenfassen kann. IHV spezifisches Launch-Material wird immer und ueberall von den marketing Abteilungen geschrieben und Uebertreibungen sind ueberall und stets zu erwarten.
Wer jetzt glauben will dass eine GTX580 als Beispiel nur wirklich das ist was man in Spielen sieht weil NV dafuer gesorgt hat dass Geometrie stellenweise bei ISVs absichtlich aufgepumpt wurde, dann kann man auch daran glauben dass ein GK104 hauptsaechlich seine Leistung von dem PissX Zeug schoepfen wird.
Die Leistungszahlen die er in der Hand hat betreffen den stornierten Februar launch, Leistung wird etwas hoeher sein als das was er momentan hat ohne dass die Frequenzen steigen werden. Und damit ist meine Schaetzung fuer eine durchschnittliche bequeme Platzierung zwischen TahitiPRO und TahitiXT nicht unrealistisch; eher um einiges konservativer als das was NV im finalen launch Material behaupten wird denn ich kann Dir schon jetzt sagen dass sie es hindrehen werden dass 104 eine XT mit flying colours schlaegt.
Schaffe89
2012-02-01, 21:06:09
Mir scheint so, als ob Nvidia einen ähnlichen Weg geht, den AMD jetzt mit ihren Shadern bzw CU´s eingeschlagen hat.
DAs würde auch die relativ hohen möglichen Flops für Nvidias Performancechip erklären und die angeblich stark schwankende Performance erklären. (Spekulatius)
104 eine XT mit flying colours schlaegt.
Beim aktuellen Testparcour von PCGH dürfte das auch der Fall sein.
Man muss einfach nur die richtigen Spiele und Settings/Szenen bzw. AF Einstellungen nutzen. ;-)
Ailuros
2012-02-01, 21:11:40
Mir scheint so, als ob Nvidia einen ähnlichen Weg geht, den AMD jetzt mit ihren Shadern bzw CU´s eingeschlagen hat.
War das nicht schon von dutzenden Seiten klar? Guten Appetit wer immer noch an hotclocks glaubt :rolleyes:
DAs würde auch die relativ hohen möglichen Flops für Nvidias Performancechip erklären und die angeblich stark schwankende Performance erklären. (Spekulatius)
Ohne PissX wird die 104 ein Stueck ueber der GTX580 liegen; mit dem Zeug wird sie sowohl eine ziemlich stark uebertaktete GTX580 als auch eine default/TahitiXT am Ende "schlagen" koennen. Das sollte aber nicht heissen dass die durchschnittliche insgesamte Preis/Leistungs-Relation nicht gut auf dem Ding sein wird. Ausser man hat fuer $299 eine Wundertuete erwartet die 1.5x so schnell sein wird als eine GTX580.
AwesomeSauce
2012-02-01, 21:13:04
Inwiefern hatte jeglicher OBR "recht"? Selbst Charlie bezweifelt zu gutem dass es sich um dedizierte hw handelt. Sonst hat er sich mal wieder Zeit genommen ueber zich Paragraphen das zu verbreiten was man sonst in nur einem oder mehreren Saetzen zusammenfassen kann. IHV spezifisches Launch-Material wird immer und ueberall von den marketing Abteilungen geschrieben und Uebertreibungen sind ueberall und stets zu erwarten.
Er hatte insofern recht, dass solche Optimierungen eben doch vorhanden sind, entgegen vieler Meinungen u.A. auch im B3D, wo man doch eher bewandert ist im Compute Bereich. Ob das jetzt ein dedizierter Hardwareblock ist, oder die Cores spezielle Instruktionen bekommen, ist nicht von grosser Bedeutung.
Fermi tesselliert ja schliesslich auch in Software;D
Mir scheint so, als ob Nvidia einen ähnlichen Weg geht, den AMD jetzt mit ihren Shadern bzw CU´s eingeschlagen hat.
Den Weg geht NV bereits seit G80. Der Wegfall des Hotclocks erlaubt nun halt viel breitere Designs. AMD hat sich eher NV angenähert als umgekehrt.
Spasstiger
2012-02-01, 21:15:50
Spieleperformance 10-20% unter Tahiti XT und Verbrauch "far below" 225 Watt trifft doch auch ziemlich gut auf die Radeon HD 7950 zu. Aber für Nvidia wäre es natürlich eine große Steigerung, wenn man bei der Perf pro Watt mit AMD gleichzieht. Und wenn die Yields stimmen, ist es auch kein Problem, mit Vollausbau gegen teildeaktivierte Chips anzutreten (man kann durchaus mehr teildeaktivierte 365-mm²-Dies aus einem Wafer rausbekommen als 300-mm²-Dies im Vollausbau, wenn die Yields mäßig sind).
boxleitnerb
2012-02-01, 21:19:25
Mit "power consumption" könnte er auch die TDP meinen, denn die 225W, die er erwähnt, waren auch eine angebliche TDP. Dann liegt der Realverbrauch vielleicht doch ein Stück unterhalb Tahiti Pro (160W bei HT4U in Spielen, da könnte GK104 bei vielleicht 130W landen).
Bucklew
2012-02-01, 21:23:41
Inwiefern hatte jeglicher OBR "recht"? Selbst Charlie bezweifelt zu gutem dass es sich um dedizierte hw handelt.
Ist die Frage, wie es ausgelegt wird. Einen Teilbereich des Chips für PhysX zu reservieren würde auf jeden Fall die langwierigen Kontextswitche zwischen Grafik und PhysX eliminieren.
guest_29132
2012-02-01, 21:42:55
Dann liegt der Realverbrauch vielleicht doch ein Stück unterhalb Tahiti Pro (160W bei HT4U in Spielen, da könnte GK104 bei vielleicht 130W landen).
130 Watt bei knapper Tahiti XT Performance in ~300mm² für den GK104 klingt nach ordentlich Power.
Für 299$ schon unverschämt günstig!
Da muß sich in wenigen Wochen AMD ganz schön blöd vor kommen.
Ailuros
2012-02-01, 22:09:19
Ist die Frage, wie es ausgelegt wird. Einen Teilbereich des Chips für PhysX zu reservieren würde auf jeden Fall die langwierigen Kontextswitche zwischen Grafik und PhysX eliminieren.
Αch Quatsch. Im Notfall schreib NV selber an, sie lachen sich momentan krumm mit dem Scheiss.
Spasstiger
2012-02-01, 22:09:49
AMD hat nach oben (Takt) und nach unten (Preis) jede Menge Spielraum. Dieses Jahr muss sich AMD imo nicht warm anziehen.
Ailuros
2012-02-01, 22:13:57
AMD hat nach oben (Takt) und nach unten (Preis) jede Menge Spielraum. Dieses Jahr muss sich AMD imo nicht warm anziehen.
Ich wuerde mich auf jedem Fall nicht auf diesen "Lorbeeren" all zu leicht ausruhen wenn ich AMD waere. Denn NV schlaegt eben nicht da zu wo es sich die meisten denken.
mapel110
2012-02-01, 22:21:42
Hm, dann darf man wohl neue Features erwarten. Da bin ich mal gespannt. Hoffentlich ist nicht die größte Neuerung der FXAA- und SMAA-Support. :ugly:
Ailuros
2012-02-01, 22:23:54
Hm, dann darf man wohl neue Features erwarten. Da bin ich mal gespannt. Hoffentlich ist nicht die größte Neuerung der FXAA- und SMAA-Support. :ugly:
Αuf jeden Fall hab ich mir mal die Behauptung mit dem PissX Zeug und der Pitcairn Leistung notiert fuer die sw tessellation claims of glory Gallerie :D
Bucklew
2012-02-01, 22:28:59
Αch Quatsch. Im Notfall schreib NV selber an, sie lachen sich momentan krumm mit dem Scheiss.
Damnit, aufs Getrolle reingefallen :(
AwesomeSauce
2012-02-01, 22:48:14
Αuf jeden Fall hab ich mir mal die Behauptung mit dem PissX Zeug und der Pitcairn Leistung notiert fuer die sw tessellation claims of glory Gallerie :D
Nichts dran an der Story? Damn, mich hats auch erwischt:freak: Wenn nicht öffentlich, dann gerne per PM;)
Ailuros
2012-02-01, 22:53:14
Nichts dran an der Story? Damn, mich hats auch erwischt:freak: Wenn nicht öffentlich, dann gerne per PM;)
Es gibt gar nichts ueber PM diesmal. Ich will denken dass wir alle reif genug sind unsere eigenen Schlussfolgerungen zu ziehen.
boxleitnerb
2012-02-02, 08:17:03
Ich glaube jetzt nicht so an Charlies Getexte - es sei denn, GK104 ist kleiner als 300mm2 und der "wirkliche" GK104 performt dann auch wie erwartet auf Tahiti-Level. Dass GK104 von Pitcairn geschlagen wird, erscheint mir einfach ziemlich unrealistisch. Das würde Nvidias Position schwächen und wäre so, als wenn die 560(Ti) jetzt gegen die 6870 bzw. 6850 verliert - was selten bis nie passiert.
Auch wäre Nvidia schön blöd, sich nur auf PhysX zu versteifen und dafür die Spieleperformance so schleifen zu lassen. Die wissen genau, dass PhysX im Sterben liegt mit Mühlsteinen auf der Brust, die "Konsolen" und "Proprietät (?)" heißen. Sie pushen es halt noch solang sie können, aber nicht auf Kosten anderer Dinge.
A3 würde weitere Verzögerung bedeuten - sehr gut für AMD.
boxleitnerb
2012-02-02, 08:33:02
A3 würde weitere Verzögerung bedeuten - sehr gut für AMD.
Das freut dich, was? Zeig es nur, lass es raus :tongue:
Nur auf die Idee, dass es schlecht für den Kunden ist, kommst du nicht.
disap.ed
2012-02-02, 08:41:34
130 Watt bei knapper Tahiti XT Performance in ~300mm² für den GK104 klingt nach ordentlich Power.
Für 299$ schon unverschämt günstig!
Da muß sich in wenigen Wochen AMD ganz schön blöd vor kommen.
Warum werden die GK104-Spekulationen hier immer als Fakt genommen?
Fakt ist dass die 7950 die Konkurrenz zur GTX580 ist, diese sind beide erhältlich und legen beide bei 400€ los (die 7950 dabei mit doppelt so viel Speicher, besserer Übertaktbarkeit und deutlich geringerem Verbrauch)
Mir persönlich sind die Tahiti-Karten auch zu teuer, aber sie gegenüber den Nvidia-Karten als überteuert hinzustellen sehe ich nicht als gerechtfertigt. AMD wäre ja blöd wenn sie die 2-3 Monate nicht noch ausnützen würden (auch wenn es für uns natürlich schlecht ist).
Hugo78
2012-02-02, 09:14:34
Ich glaube jetzt nicht so an Charlies Getexte - es sei denn, GK104 ist kleiner als 300mm2 und der "wirkliche" GK104 performt dann auch wie erwartet auf Tahiti-Level. Dass GK104 von Pitcairn geschlagen wird, erscheint mir einfach ziemlich unrealistisch.
Es wird immer mal Spiele geben, wo Karte XY überdurchschnittlich versagt oder gut darsteht.
6870 und 6950 haben sich schon nicht viel genommen, wenn das bei der 7870 und 7950 auch der Fall ist, was höchst warscheinlich so sein wird,
dann könnte selbst ich davon phantasieren, dass GK104 der 7970 zwar oft hallo sagen wird, aber es sie auch mal nicht schneller als eine 7870 wird.
Oder in anderen Worten, GK104 auch mal 2-3% hinter einer GTX 580/7950 liegt, auch wenn sie im Mittel +20% haben sollte.
Was anderes schreibt Char_LIE nicht und wenn man sich mal überlegt, wo GF104 gelandet wäre, hätten die ersten Fermis keine Verzögerungen gehabt.
Also Vollausbau bei 700 bis 750Mhz, dann hätte auch GF104 als kleinerer Chip der 5870 hallo gesagt, bei 20-30W weniger Verbrauch.
Char_LIEs langer Text ist wieder nichts weiter als das wiederkauen von altbekannten Best- und Worstcase Benchmark-Szenarien.
Wie es sie überall gibt.
Bspw. GTA4 (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=11) und Starcraft 2 (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=14) und dagegen SS3 (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=13) oder ME2 (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=12).
=Floi=
2012-02-02, 09:26:53
A3 würde weitere Verzögerung bedeuten - sehr gut für AMD.
auf einmal sind hohe preise und wenig stück gut und vorher waren die ramschpreise bei amd gut und die hohen preise bei nv schlecht?!
was ihr immer vergesst ist, warum man sich denn den überteuerten tahiti kaufen sollte, wenn ich mir dann auch eine karte von nv kaufen kann? durch die hohen preise wartet man doch im grunde auf nv und die können dann mit einem günstigen GK104 den prallvollen markt abernten und nebenbei auch noch amd kunden dazugewinnen. der amd kunde ist doch jetzt der dumme, weil er entweder den teuren tahiti kaufen soll oder noch weiter warten muß.
A3 bedeutet auch unterm strich ein besseres produkt!
boxleitnerb
2012-02-02, 09:32:20
Es wird immer mal Spiele geben, wo Karte XY überdurchschnittlich versagt oder gut darsteht.
6870 und 6950 haben sich schon nicht viel genommen, wenn das bei der 7870 und 7950 auch der Fall ist, was höchst warscheinlich so sein wird,
dann könnte selbst ich davon phantasieren, dass GK104 der 7970 zwar oft hallo sagen wird, aber es sie auch mal nicht schneller als eine 7870 wird.
Oder in anderen Worten, GK104 auch mal 2-3% hinter einer GTX 580/7950 liegt, auch wenn sie im Mittel +20% haben sollte.
Was anderes schreibt Char_LIE nicht und wenn man sich mal überlegt, wo GF104 gelandet wäre, hätten die ersten Fermis keine Verzögerungen gehabt.
Also Vollausbau bei 700 bis 750Mhz, dann hätte auch GF104 als kleinerer Chip der 5870 hallo gesagt, bei 20-30W weniger Verbrauch.
Char_LIEs langer Text ist wieder nichts weiter als das wiederkauen von altbekannten Best- und Worstcase Benchmark-Szenarien.
Wie es sie überall gibt.
Bspw. GTA4 (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=11) und Starcraft 2 (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=14) und dagegen SS3 (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=13) oder ME2 (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=12).
Es klingt für mich eher nach: PhysX-optimiert hui, sonst pfui. Und pfui hat ja eindeutig die Mehrheit, die PhysX-Spiele kannst an einer Hand abzählen. Na gut, an zwei. Ist aber wohl Interpretationssache.
Man weiß nicht genau, welche metrics Charlie gemeint hat, aber dass Nvidia wieder bei perf/mm2 ordentlich hintendran liegt (Pitcairn so um die 200-250mm2, GK104 320mm2?), mag ich nicht glauben.
disap.ed
2012-02-02, 09:36:48
auf einmal sind hohe preise und wenig stück gut und vorher waren die ramschpreise bei amd gut und die hohen preise bei nv schlecht?!
was ihr immer vergesst ist, warum man sich denn den überteuerten tahiti kaufen sollte, wenn ich mir dann auch eine karte von nv kaufen kann? durch die hohen preise wartet man doch im grunde auf nv und die können dann mit einem günstigen GK104 den prallvollen markt abernten und nebenbei auch noch amd kunden dazugewinnen. der amd kunde ist doch jetzt der dumme, weil er entweder den teuren tahiti kaufen soll oder noch weiter warten muß.
A3 bedeutet auch unterm strich ein besseres produkt!
Und nochmal, wo sind die Tahitis im Vergleich zu einer GTX580 überteuert?
Sollte die GK104 wirklich die Leistung einer 7950 für 300€ bieten, dann wird auch AMD mitziehen. Aber zum jetzigen Zeitpunkt bietet AMD für 400€ das bessere Produkt als Nvidia ... IMHO natürlich.
X.Perry_Mental
2012-02-02, 09:38:42
A3 würde weitere Verzögerung bedeuten - sehr gut für AMD.
Nicht in jedem Fall. Von mir wird AMD erst Geld für eine 7950 bekommen, wenn nVidia mit Kepler auf dem Markt ist - und sich die 7950-Preise entsprechend eingependelt haben.
Grüße: X.Perry_Mental
=Floi=
2012-02-02, 09:47:37
Und nochmal, wo sind die Tahitis im Vergleich zu einer GTX580 überteuert?
Sollte die GK104 wirklich die Leistung einer 7950 für 300€ bieten, dann wird auch AMD mitziehen. Aber zum jetzigen Zeitpunkt bietet AMD für 400€ das bessere Produkt als Nvidia ... IMHO natürlich.
ersetze bitte besser durch schneller! (auch wenn tahiti vieles richtig macht gibt es noch immer genug unterschiede!)
vergleich die karte mal mit den amd eigenen produkten. man schlägt den performancezuwachs noch im preis drauf und das geht einfach nicht. (nebenbei gab es bei der vorigen generation auch nur ein sidegrade)
die 580er ist etwas für liebhaber, aber eben auch das topmodell und entsprechend "schlecht" gepreist. beim nachfolger erwarte ich aber dessen performance zum ~halben preis und nicht eine um 50% teurere karte mit 30% mehr performance wie die 580er. :freak:
nochmal zum mitdenken:
da die 580er schon überteuert ist ist es tahiti auch, weil er dieses verhältnis beibehält. schaut man sich zB die 570er oder andere karten an merkt man den steilen anstieg im preis sehr stark.
Bucklew
2012-02-02, 10:06:44
A3 würde weitere Verzögerung bedeuten - sehr gut für AMD.
A3 ist der 2. Metal Spin, der hier schon vor Wochen angesprochen wurden :rolleyes:
guest_29132
2012-02-02, 11:09:58
Warum werden die GK104-Spekulationen hier immer als Fakt genommen?
Mein Fehler; nächstes mal übertreibe ich noch ein wenig mehr.
die 580er ist etwas für liebhaber, aber eben auch das topmodell und entsprechend "schlecht" gepreist. beim nachfolger erwarte ich aber dessen performance zum ~halben preis und nicht eine um 50% teurere karte mit 30% mehr performance wie die 580er. :freak:
:freak: Du erwartest von Heute auf Morgen die Performance von gestern für den halben Preis? Sonst noch wünsche?
Egal wie gut der GK104 sein wird, verschenken werden sie ihre Leistung nicht.
da die 580er schon überteuert ist ist es tahiti auch, weil er dieses verhältnis beibehält. schaut man sich zB die 570er oder andere karten an merkt man den steilen anstieg im preis sehr stark.
Und was ist mit der 570er? Die steht gegenüber einer 560 Ti auch nicht besser da.
Fällt dir erst jetzt auf, das Performance und besonders High End Karte selten bis nie Preis / Leistungsknaller sind?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.