PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

mapel110
2012-02-02, 11:15:25
A3 ist der 2. Metal Spin, der hier schon vor Wochen angesprochen wurden :rolleyes:
Nö, A2 ist das.

V2.0
2012-02-02, 11:17:11
A3 ist der 2. Metal Spin, der hier schon vor Wochen angesprochen wurden :rolleyes:

Wir wussten nur, dass sie einen zusätzlichen Meteal Spin brauchen.

Ergo war A1 -> A2 Charlie sagt nun sie brauchen noch einen auf A3. Ergo wird das wohl Mai werden bis wir GK104 sehen. Also 2+ Monate nach Pitcairn und 5 nach Tahiti.

Bucklew
2012-02-02, 11:22:41
Nö, A2 ist das.
A1 war Tapeout, A2 1. Spin, A3 2. Spin.

dargo
2012-02-02, 11:29:13
Und nochmal, wo sind die Tahitis im Vergleich zu einer GTX580 überteuert?

Und nochmal... auch eine GTX580 ist überteuert für das was sie heute leistet. Sie dürfte max. 300€ kosten.

Ailuros
2012-02-02, 11:32:30
Wir wussten nur, dass sie einen zusätzlichen Meteal Spin brauchen.

Schaetzen != wissen.

Ergo war A1 -> A2 Charlie sagt nun sie brauchen noch einen auf A3.

Welches auf meiner Schaetzung basiert und keiner direkten Quelle.

Ergo wird das wohl Mai werden bis wir GK104 sehen. Also 2+ Monate nach Pitcairn und 5 nach Tahiti.

Wie viele Monate braucht denn genau ein metal spin und wann kam A2 vom fab zurueck?

Gipsel
2012-02-02, 11:49:07
Was anderes schreibt Char_LIE nicht und wenn man sich mal überlegt, wo GF104 gelandet wäre, hätten die ersten Fermis keine Verzögerungen gehabt.
Also Vollausbau bei 700 bis 750Mhz, dann hätte auch GF104 als kleinerer Chip der 5870 hallo gesagt, bei 20-30W weniger Verbrauch.Alles schön und gut, aber GF104/114 ist nicht wirklich kleiner als Cypress, die sind höchstens ziemlich genau gleich groß. ;)

Mumpitzelchen
2012-02-02, 12:39:44
Nach lesen der SA Artikels scheint es Nvidia will unbedingt PhysX bei Kepler als Alleinstellungsmerkmal herausstellen und forcieren. Ohne PhysX scheint die Performance nicht so berauschend zu sein.
Da ich von PhysX praktisch keine Ahnung habe bin ich einfach mal ganz naiv zur Wikipedia gegangen und hab nachgesehen was für Spiele PhysX den nutzen. Die Liste ist ja ziemlich überschaubar, vor allem wenn man sieht wie wenig in den Spielen PhysX abhängig ist ausser in der Batman Reihe. Dann dachte ich,"hmmm, vielleicht sagt die allwissende Müllhalde nicht alles..." und bin zu nvidia.com gegangen, aber da stehen auch nicht wirklich mehr gute Spiele, dafür aber viel weniger Info pro Spiel.

Meine Frage ist nun: werden die Spielehersteller jetzt vermehrt auf PhysX setzen, ggf. mit massivem TWIMTBP Einsatz und Tiger Teams (aka "Bestechung") oder kriegen wir ein neues FX Fiasko wo die Spielehersteller Nvidia einfach ignoriert haben?

Ronny145
2012-02-02, 12:44:15
Charlie hat für Ivy Bridge stacked RAM versprochen, der erzählt häufig Müll. Weiß gar nicht weshalb man das ernster nehmen sollte als OBRs Zeug.

Undertaker
2012-02-02, 12:52:01
Nach lesen der SA Artikels scheint es Nvidia will unbedingt PhysX bei Kepler als Alleinstellungsmerkmal herausstellen und forcieren. Ohne PhysX scheint die Performance nicht so berauschend zu sein.

Das klingt eher danach, dass er etwas tollpatschig versucht seinen zuletzt extrem überschwänglichen Artikel zu Kepler zu relativieren. Die Performance mit PhysX als Vergleichsmerkmal heranzuziehen macht wenig Sinn, da man so ja nicht mit der AMD-Konkurrenz vergleichen könnte.

Hugo78
2012-02-02, 13:05:05
Alles schön und gut, aber GF104/114 ist nicht wirklich kleiner als Cypress, die sind höchstens ziemlich genau gleich groß. ;)

[erbsenzähler]Leonidas schreibt was von 349mm² (http://www.3dcenter.org/news/2010-10-11) für Cypress und ca. 330mm² (http://www.3dcenter.org/news/2011-11-29) für GF114. [/erbsenzähler] :cool:

Hmm ja sagen wir gleich groß, sind ja eh alles nur Schätzungen.
Für GK104 vs. Thaiti sollte aber meine Aussage dann zutreffen. :D

Das klingt eher danach, dass er etwas tollpatschig versucht seinen zuletzt extrem überschwänglichen Artikel zu Kepler zu relativieren. Die Performance mit PhysX als Vergleichsmerkmal heranzuziehen macht wenig Sinn, da man so ja nicht mit der AMD-Konkurrenz vergleichen könnte.

Ja da hat er wohl endlich seinen Scheck bekommen und schreibt wieder "was er schreiben soll". :whisper:

disap.ed
2012-02-02, 13:11:01
nochmal zum mitdenken:
da die 580er schon überteuert ist ist es tahiti auch, weil er dieses verhältnis beibehält. schaut man sich zB die 570er oder andere karten an merkt man den steilen anstieg im preis sehr stark.

Wie du meinem Post entnehmen kannst habe ich dezidiert geschrieben dass mir persönlich die Karten zu teuer sind, das P/L-Verhältnis stimmt auf keinen Fall.
Mir ging es nur darum dass nVidia um nichts großzügiger ist in dieser Hinsicht.

Nochmal was ich geschrieben hatte:
Mir persönlich sind die Tahiti-Karten auch zu teuer, aber sie gegenüber den Nvidia-Karten als überteuert hinzustellen sehe ich nicht als gerechtfertigt. AMD wäre ja blöd wenn sie die 2-3 Monate nicht noch ausnützen würden (auch wenn es für uns natürlich schlecht ist).

Ailuros
2012-02-02, 13:24:30
Nochmal fuer diejenigen die nicht immer alles erwischen hier im Thread: GF110 EOL im letzten Dezember. GTX590 wurde in mehreren Stellen dank Auslauf entfernt vom Angebot und wenn sie die 580-er auf sagen wir mal $350 reduzieren wuerden, waere die Nachfrage um so viel groesser dass sie NV nie im Leben decken koennte. Mit einem hohen Preis ist die Nachfrage analog klein und genau das gleiche gilt auch fuer Tahiti. Eine wahre Gerechtfertigung fuer die eine oder andere Seite gibt es eigentlich nicht, es passt eben beiden gerade schoen dass die Situation momentan so ist.

Wenn AMD z.B. Mitte Februar schon radikal ihre Preise reduzieren wuerden (ziemlich unwahrscheinlich) waere NV schnell in einer ziemlich zwickigen Situation. 580-Preise koennte man nicht mehr so hoch lassen und sobald man reduziert geht der vorhandene stock in Null komma nichts aus und sie stehen dumm ohne jegliche "high end" GPUs im Angebot fuer einige Wochen da.

=Floi=
2012-02-02, 13:24:50
du musst hald einfach den faktor zeit miteinrechnen und mit der 560er und zig anderen arten bekam man sehrwohl die highend performance des vorgängers zum halben preis.


edit
einen fertigen chip kann man natürlich nicht nachproduzieren. :rolleyes:
es würde nv nichts daran hindern neue karten zu produzieren oder einfach anders auf die neue situation zu reagieren. zumindest tatenlos zusehen würden sie dabei nicht.

Grumbart
2012-02-02, 13:25:26
Ja da hat er wohl endlich seinen Scheck bekommen und schreibt wieder "was er schreiben soll". :whisper:
Oder der von nVidia am 19. Jan versprochene Scheck blieb aus...

Ailuros
2012-02-02, 13:27:06
Gut. Setzt jetzt aber so langsam einen Punkt fuer das Preisgewarkel und zurueck zum eigentlichen Thema, da sich bis Mitte Maerz zumindest sowieso nichts an Preisen aendern wird und davor auch nichts von Kepler angekuendigt wird.

Knuddelbearli
2012-02-02, 13:30:10
wenn es amd schlau macht reduzieren sie jeden Monat den Preis um 20$

am anfang eher weniger später eher mehr

Ailuros
2012-02-02, 13:43:58
http://www.obr-hardware.com/2012/02/semiaccurace-is-absolutely-wrong-about.html

Schnell meine popcorn Tuete :biggrin: Ich sollte wohl eine Umfrage aufmachen, wie viele genau auf den PissX Quark reingefallen sind *grunz* Ok jetzt muss ich mir meinen eigenen weiteren Streich ausdenken denn Dennis hat wohl zu gute Arbeit diesmal geleistet ;)

Gipsel
2012-02-02, 13:50:02
[erbsenzähler]Leonidas schreibt was von 349mm² (http://www.3dcenter.org/news/2010-10-11) für Cypress und ca. 330mm² (http://www.3dcenter.org/news/2011-11-29) für GF114. [/erbsenzähler] :cool:

Hmm ja sagen wir gleich groß, sind ja eh alles nur Schätzungen.
[Krümelkacker]AMD gibt offizielle Zahlen heraus, und die für Cypress ist 334mm² (für GF104 geisterte mal 332mm² durch die Gegend, das ist aber afaik nicht offiziell von nV). Per Schiebelehre nachgemessen (das ist immer etwas mehr, wegen Teststrukturen [für Prozeßkontrolle und Yieldoptimierung] bzw. Leerraum zwischen den Dies für das Auseinandersägen) liegt ein Cypress wie bereits von Dir geschrieben bei 349mm², ein GF114 bei 358mm² (siehe z.B. hier, ebenfalls eine Meldung von Leo (http://www.3dcenter.org/news/2011-06-06), für GF104 hat mal jemand 360mm² ermittelt, also etwa das Gleiche; durch das etwas langestreckte rechteckige Layout beim GF104/114 dürfte der Verschnitt übrigens etwas höher als beim fast quadratischen Cypress sein)[/Krümelkacker].

Also ungefähr gleich groß, kommt schon gar nicht so schlecht hin. ;)

OgrEGT
2012-02-02, 13:51:24
Irgendeine Ahnung auf welche angeblichen "real specs" OBR anspielt, die man nur finden muss, sofern es die wirklich gibt...?

Bucklew
2012-02-02, 13:55:01
http://www.obr-hardware.com/2012/02/semiaccurace-is-absolutely-wrong-about.html
Oh da werden wohl bei semiaccurate ein paar Stühle fliegen...

[Krümelkacker]AMD gibt offizielle Zahlen heraus, und die für Cypress ist 334mm²
Ist die Zahl ähnlich genau ermittelt worden, wie der Transistorcount beim Bulldozer?

V2.0
2012-02-02, 14:02:09
SA hat aber oft richtig gelegen, gerade wenn es um Probleme bei nV geht . OBR ist ja einfach virales Marketing by NV. Darf man kein Wort glauben. Ich stehe lieber zu SA und dem erfahrenen und neutralen Charlie und erwarte dass 7870>GK104.

Gipsel
2012-02-02, 14:02:11
Ist die Zahl ähnlich genau ermittelt worden, wie der Transistorcount beim Bulldozer?
Ich streichle mal statt zu beißen und gebe zu bedenken, daß die Grafikkartensparte jeden einzelnen Transistor zählen kann, wie man an Tahiti sieht. Die geben einen präzise Zahl an (4.312.711.873), nicht nur irgendeinen Schätzwert. :tongue:

Bucklew
2012-02-02, 14:03:28
Ich streichle mal den Möchtegern-Troll und gebe zu bedenken, daß die Grafikkartensparte jeden einzelnen Transistor zählen kann, wie man an Tahiti sieht. Die geben einen präzise Zahl an (4.312.711.873), nicht nur irgendeinen Schätzwert. :tongue:
Ach so und weil eine Zahl "präzise" ist, ist sie auch automatisch richtig ;D

Ailuros
2012-02-02, 14:07:05
SA hat aber oft richtig gelegen, gerade wenn es um Probleme bei nV geht . OBR ist ja einfach virales Marketing by NV. Darf man kein Wort glauben. Ich stehe lieber zu SA und dem erfahrenen und neutralen Charlie und erwarte dass 7870>GK104.

neliz ist ein NV shill? Seit wann? Tut mir einen Gefallen und wenn Ihr schon keine Ahnung von dem Teufelskreis habt, habt zumindest den Anstand Euch von idiotischen Schlussfolgerungen fernzuhalten. OBR ist ein naiver Depp nicht mehr und nicht weniger und er wuerde von der richtigen "Quelle" fast alles glauben und veroeffentlichen.

Nur zu Deiner Info der hoehere Frequenz und A3 Quark im SA Artikel gegen auf meine Rechnung da neliz nicht der einzige ist der falsche Infos pflanzt um zu wissen woher jeglicher Mist genau kommt. Sonst keine Ahnung mit was 104 wirklich erscheinen wird.

Gipsel,

Ja GF114 ist 350+mm2.

guest_29132
2012-02-02, 14:11:45
du musst hald einfach den faktor zeit miteinrechnen und mit der 560er und zig anderen arten bekam man sehrwohl die highend performance des vorgängers zum halben preis.
oO
High End Performance zum nahezu halben Preis einer 560 Ti HEUTE wäre ne 5870 / GTX 470 - nur ist das gut zwei, zweieinhalb Jahre her!

Also bedenke DU doch bitte den Faktor Zeit; die 7950 ist gerade einmal zwei Tage jung. Und damit Nvidia einen spekulierten GK104 mit höhere Leistung 100€ günstiger anbietet, müsste schon einiges passieren ...

Gipsel
2012-02-02, 14:13:32
Ach so und weil eine Zahl "präzise" ist, ist sie auch automatisch richtig ;DDann vergleiche doch die mit Schiebelehre nachgemessenen Größen: Cypress 349mm², GF104/114 ~360mm². Dann ist Cypress also kleiner als GF104/114 und nicht nur gleich groß, wie von mir ursprünglich gesagt :P.
Ist im Übrigen sowieso OT. :rolleyes:

Bucklew
2012-02-02, 14:13:58
neliz ist ein NV shill? Seit wann? Tut mir einen Gefallen und wenn Ihr schon keine Ahnung von dem Teufelskreis habt, habt zumindest den Anstand Euch von idiotischen Schlussfolgerungen fernzuhalten. OBR ist ein naiver Depp nicht mehr und nicht weniger und er wuerde von der richtigen "Quelle" fast alles glauben und veroeffentlichen.
Warum antwortest du noch, nachdem dermaßen offensichtlich getrollt wird vom AMD-Troll?

Dann vergleiche doch die mit Schiebelehre nachgemessenen Größen: Cypress 349mm², GF104/114 ~360mm². Dann ist Cypress also kleiner als GF104/114 und nicht nur gleich groß, wie von mir ursprünglich gesagt :P.
Und was hat das nun damit zu tun, dass AMD bei solchen offiziellen Angaben durchaus mal nen paar Größenordnungen daneben liegt?

Gipsel
2012-02-02, 14:20:03
Und was hat das nun damit zu tun, dass AMD bei solchen offiziellen Angaben durchaus mal nen paar Größenordnungen daneben liegt?Daß man die Diegrößen inklusive dem Verschnitt problemlos selber nachmessen kann vielleicht? :rolleyes: ;D
Und AMD hat noch nirgendwo "mal nen paar Größenordnungen daneben" gelegen (auch nicht bei BD Transistorcount). Offensichtlich ist Dir die Bedeutung des Begriffes "Größenordnung" nicht klar. Aber das ist ja auch nichts Neues (wir können das gerne im Kontaktforum klären). :rolleyes:

So und jetzt zurück zum Thema!

Ailuros
2012-02-02, 14:25:41
Warum antwortest du noch, nachdem dermaßen offensichtlich getrollt wird vom AMD-Troll?


Es gibt hier Regeln und diese sind IHV-agnostic. Sei mir nicht boese wenn ich Dir beim naechsten aehnlichen indirekten persoenlichen Angriff Dich verpunkte und es gilt genauso fuer jeglichen anderen und das irrelevant zu jedermans Meinung. Merci bien.

Bucklew
2012-02-02, 14:26:40
Und AMD hat noch nirgendwo "mal nen paar Größenordnungen daneben" gelegen (auch nicht bei BD Transistorcount). Offensichtlich ist Dir die Bedeutung des Begriffes "Größenordnung" nicht klar. Aber das ist ja auch nichts Neues (wir können das gerne im Kontaktforum klären). :rolleyes:
Selbstverständlich lag man um fast eine binäre Größenordnung daneben. Aber mit der korrekten Verwendung von Fachtermini hast dus eh nicht so, ich weiß ;D

Es gibt hier Regeln und diese sind IHV-agnostic. Sei mir nicht boese wenn ich Dir beim naechsten aehnlichen indirekten persoenlichen Angriff Dich verpunkte und es gilt genauso fuer jeglichen anderen und das irrelevant zu jedermans Meinung. Merci bien.
Huch, ich dachte, nachdem ein Moderator sehr gerne mit dem Wort "Troll" um sich wirft, ist das eine akzeptable Formulierung?

Ja, Gipsel, da hilft auch kein editieren, dein Original steht noch in meinem Zitat ;D

Ailuros
2012-02-02, 14:37:56
Huch, ich dachte, nachdem ein Moderator sehr gerne mit dem Wort "Troll" um sich wirft, ist das eine akzeptable Formulierung?


Ich hab keinen hier im Forum direkt oder indirekt angegriffen. Ich mach fuer niemand irgendwelche Ausnahmen und Dein obriger Satz denn ich selber ausgestrichen habe verletzt die Regeln. Es war eine eindeutige Vorwarnung und nein moderative Entscheidungen stehen hier in solchen Threads nicht zur Debatte nicht fuer Dich oder sonst jemand. Jetzt aus damit und zurueck zum Thema.

V2.0
2012-02-02, 14:57:17
Wieviele Metal Spins für den PCIe Fix braucht NV nun 1 oder 2? Wenn die Antwort 1 ist, dann sollte es weiter auf März rauslaufen.

Nighthawk13
2012-02-02, 14:59:05
Gibt's eigentlich schon Infos bzgl. Multi-Monitor-Support? Da hinkt NV ja schon länger hinter Eyefinity her.

Zu den Anschlüssen, wenn man SA (http://semiaccurate.com/2012/01/19/nvidia-kepler-vs-amd-gcn-has-a-clear-winner/) glauben will:
For the doubters, both of the current cards we saw have two DVI plugs on the bottom, one HDMI, and one DP with a half slot cooling grate on one of the two slot end plates.

Aber wieviel Monitore können bei Kepler-Single-GPU gleichzeitig aktiv sein? 2,3,4?

Gipsel
2012-02-02, 15:11:20
Und was hat das nun damit zu tun, dass AMD bei solchen offiziellen Angaben durchaus mal nen paar Größenordnungen daneben liegt?
Selbstverständlich lag man um fast eine binäre Größenordnung daneben.
Nothing to add. :rolleyes:

Und ich sage das nicht nochmal: Zurück zum Thema!

Blediator16
2012-02-02, 15:32:12
http://www.obr-hardware.com/2012/02/semiaccurace-is-absolutely-wrong-about.html

Schnell meine popcorn Tuete :biggrin: Ich sollte wohl eine Umfrage aufmachen, wie viele genau auf den PissX Quark reingefallen sind *grunz* Ok jetzt muss ich mir meinen eigenen weiteren Streich ausdenken denn Dennis hat wohl zu gute Arbeit diesmal geleistet ;)

Nach seinen letzten zwei Fake Meldungen, die er kleinlaut erst verändert und dann als Fake deklariert hat, dürfte man wirklich kaum noch was glauben und schonmal Popcorn bereitstellen :D

Ailuros
2012-02-02, 16:34:14
Wieviele Metal Spins für den PCIe Fix braucht NV nun 1 oder 2? Wenn die Antwort 1 ist, dann sollte es weiter auf März rauslaufen.

Und die Milchmaedchen-Schlussfolgerung basiert auf welchen Fakten genau? So lange Du nicht die blasseste Ahnung hast wann A2 vom fab zurueckkam, ist das obrige nichts anderes als aus der Luft gegriffen. Der launch wurde so oder so wegen dem PCIe3.0 bug storniert sondern wegen fehlender Kapazitaeten; wenn diese im Maerz sich immer noch nicht verbessern haben dann wird es auch tatsaechlich nichts vor April.

boxleitnerb
2012-02-02, 16:36:15
Bzgl. der Kapazitäten:
Sammelt Nvidia nebenher Chips, während der Löwenanteil zu den mobilen Keplers geht oder werden erst letztere in einem Rutsch gefertigt, dann die Desktopvarianten?

Ailuros
2012-02-02, 17:06:02
Gibt's eigentlich schon Infos bzgl. Multi-Monitor-Support? Da hinkt NV ja schon länger hinter Eyefinity her.

Zu den Anschlüssen, wenn man SA (http://semiaccurate.com/2012/01/19/nvidia-kepler-vs-amd-gcn-has-a-clear-winner/) glauben will:


Aber wieviel Monitore können bei Kepler-Single-GPU gleichzeitig aktiv sein? 2,3,4?

:naughty:

Bzgl. der Kapazitäten:
Sammelt Nvidia nebenher Chips, während der Löwenanteil zu den mobilen Keplers geht oder werden erst letztere in einem Rutsch gefertigt, dann die Desktopvarianten?

Afaik stock piling.

V2.0
2012-02-02, 17:07:28
Und die Milchmaedchen-Schlussfolgerung basiert auf welchen Fakten genau? So lange Du nicht die blasseste Ahnung hast wann A2 vom fab zurueckkam, ist das obrige nichts anderes als aus der Luft gegriffen. Der launch wurde so oder so wegen dem PCIe3.0 bug storniert sondern wegen fehlender Kapazitaeten; wenn diese im Maerz sich immer noch nicht verbessern haben dann wird es auch tatsaechlich nichts vor April.

Was macht Nv mit den Kapazitäten? Afaik haben Sie sich mehr gesichert als AMD und so schlecht soll TSMC 28nm auch gar nicht laufen - wo sind die Chips? Ist das alles GK107?

Ailuros
2012-02-02, 17:08:56
Was macht Nv mit den Kapazitäten? Afaik haben Sie sich mehr gesichert als AMD und so schlecht soll TSMC 28nm auch gar nicht laufen - wo sind die Chips? Ist das alles GK107?

Die ivy bridge design wins betreffen mehr als nur einen GK10x cores mit dem groesstem GK104 als mobile high end. Sonst stricken sie Pullover mit den Kapazitaeten was sonst? :rolleyes:

boxleitnerb
2012-02-02, 17:12:20
Weißt du, um was für Größenordnungen es sich da handelt beim ersten Rutsch für den Ivy Bridge Launch? 100k, 500k, 1Mio?

Nighthawk13
2012-02-02, 17:22:34
:naughty:
Hmm, was sagt mir das? Gar 5? :freak:

http://lenzfire.com/2011/08/nvidia-confirms-kepler-release-date-72105/
The new incarnation of Kepler Surround technology will use 3 to 5 monitors without requiring a 2nd board and eliminate the need for third-party chips to achieve this function.

Gaestle
2012-02-02, 17:31:47
Wie könnte man denn 5 Anschlüsse technisch realisieren? Und warum ausgerechnet 5 und nicht 6?

boxleitnerb
2012-02-02, 17:34:12
5 ist besser als sechs, wenn alle Bildschirme in einer Reihe aufgestellt sind und nicht als 3x2 Muster. Wobei ich beides als extrem selten bezeichnen würde.

Gaestle
2012-02-02, 17:43:06
5 ist besser als sechs, wenn alle Bildschirme in einer Reihe aufgestellt sind und nicht als 3x2 Muster.

Warum? Echte Frage.

boxleitnerb
2012-02-02, 17:44:22
Weil man so keinen Rand mitten vorm Gesicht hat. Ein Bildschirm in der Mitte, jeweils zwei außen.

mapel110
2012-02-02, 17:44:28
Warum? Echte Frage.
Rahmen der Monitore sind sonst direkt in der Mitte.

Gaestle
2012-02-02, 17:47:33
Ah... klar.

Danke.

Knuddelbearli
2012-02-02, 17:50:52
Wie könnte man denn 5 Anschlüsse technisch realisieren? Und warum ausgerechnet 5 und nicht 6?

naja AMD hat inzwischen ja auch immer 4 also wieso frage nach technik?

Gaestle
2012-02-02, 17:56:28
Weil es meine Vorstellungskraft überstieg, mehr als zwei-drei Anschlüsse in das Slotblech zu stanzen. Ich hatte gedacht, da wird mit Doppelbelegungen oder so rumhantiert. Ist aber OT und passt hier eigentlich nicht hin. Trotzdem danke.

Knuddelbearli
2012-02-02, 18:03:56
DP braucht ja kaum platz mit mini DP ( wo man dann halt billige 2€ Adapter braucht ) gehen sogar 6 in einen Slot

Hugo78
2012-02-02, 18:46:01
Nur zu Deiner Info der hoehere Frequenz und A3 Quark im SA Artikel gegen auf meine Rechnung da neliz nicht der einzige ist der falsche Infos pflanzt um zu wissen woher jeglicher Mist genau kommt.

Mehr davon bitte :biggrin: :popcorn:

Btw hast du gehört ob irgendein Kepler in 28HPL kommt?

Muss ja nicht GK104 sein, aber es gab ja im Nov / Dez. noch das Gerücht das Thaiti mit 28HPL statt 28HP kommt und auch wenn das falsch war,
so besteht ja mit 28HPL doch ein nicht ganz unwichter Vorteil, wenn man keine extremen Frequenzen braucht.

boxleitnerb
2012-02-02, 18:59:53
Neue Info:

Some answers for people.
CUDA demo on unspecified live 28nm card vs GTX 580 was roughly 28% faster. No clue again what card. Also showed 580 vs Tesla cards.
When asked on the new cards launch date I was told "your next 6 paychecks so save up now." Take it as you will, I'm thinking under 45 days out.

http://www.overclock.net/t/1208362/q-and-a-session-with-nvidia-ceo

Ailuros
2012-02-02, 19:00:38
Mehr davon bitte :biggrin: :popcorn:

Btw hast du gehört ob irgendein Kepler in 28HPL kommt?

Muss ja nicht GK104 sein, aber es gab ja im Nov / Dez. noch das Gerücht das Thaiti mit 28HPL statt 28HP kommt und auch wenn das falsch war,
so besteht ja mit 28HPL doch ein nicht ganz unwichter Vorteil, wenn man keine extremen Frequenzen braucht.

28HPL/Tahiti war kein Geruecht seitens Charlie sondern eher ein logische These. HPL koennte von beiden Seiten eventuell kommen aber fuer jetzt klingt es etwas zu frueh. Fuer mobile cores wo man sowieso nicht die ueberragende Leistung bzw. Frequenzen braucht waere es keine schlechte Idee.

Edgecrusher86
2012-02-02, 19:40:14
Nun ja, ich glaube es ja nicht so - vor allem auch ein gleichzeitiger Launch von GK110 und GK104 am 12.04 und dann auch die SIs (außer beim 104er Vollausbau, aber die 224 Bit sind auch mal was neues :freak:). ;)

http://www.abload.de/img/124oz7.png

http://www.abload.de/img/2dfrt9.png

Entire Nvidia Kepler Series Specifications, Price & Release Date (http://lenzfire.com/2012/02/entire-nvidia-kepler-series-specifications-price-release-date-43823/)

E: Ah, der Hotclock ist auch wieder da und alle Karten heißen GTX. ;D

Blediator16
2012-02-02, 19:54:22
400€ für ne Karte mit 1,5gb und 400€ uvp eher nicht.

Ronny145
2012-02-02, 19:54:30
Alles oberhalb von GTX660 soll GK110 sein? Totaler Blödsinn. Die Seite ist völlig unseriös.

AnarchX
2012-02-02, 20:01:37
Nun ja, ich glaube es ja nicht so - vor allem auch ein gleichzeitiger Launch von GK110 und GK104 am 12.04 und dann auch die SIs (außer beim 104er). ;)

http://www.abload.de/img/124oz7.png

http://www.abload.de/img/2dfrt9.png

Entire Nvidia Kepler Series Specifications, Price & Release Date (http://lenzfire.com/2012/02/entire-nvidia-kepler-series-specifications-price-release-date-43823/)

E: Ah, der Hotclock ist auch wieder da und alle Karten heißen GTX. ;D

Die gleiche Seite die Cape Verde 164mm² andichten wollte. Bei der 7950 mit 900MHz lagen sie auch falsch.

Diese Kepler Specs sind wohl auch wieder für die Tonne.
Mal als Beispiel: 155mm² und 192-Bit 5,5Gbps? ;) :ulol:
224-Bit!?

Neue Info:



http://www.overclock.net/t/1208362/q-and-a-session-with-nvidia-ceo
CUDA-Demo?
28% mit 3 TFLOPs gegen 1,5 TFLOPs wären etwas bescheiden für eine Demo?
Vielleicht war es GK106 mit 768SPs @1,1GHz? :D

Edgecrusher86
2012-02-02, 20:16:44
Ja, hatte auch erst nur die 660 mit 256 im Auge...224 klingt doch mal frisch. :freak:
Nun ja, passt an für sich von vorne bis hinten nicht, da hatte wohl jemand Langeweile. ;)

boxleitnerb
2012-02-04, 06:53:31
Angeblich soll Kepler auch Software-PhysX Spiele beschleunigen, das wären mehr als 300 Titel:

You do realize that anything that uses the physx SOFTWARE API is likely to become hardware accelerated too. That is ~320 titles, so it is a decent number, including the ones you listed.

http://semiaccurate.com/forums/showpost.php?p=151502&postcount=551

Klingt nach Bogus. Allerdings...bei T&L z.B. wurden damals ja auch Berechnungen massiv auf die GPU ausgelagert. Die PhysX-Software und der Grafiktreiber sind beide in Nvidias Hand und sollten das problemlos umbiegen können.

Skysnake
2012-02-04, 08:58:50
Hat inzwischen eigentlich jemand die von OBR angepriesenen Infos gefunden, die im Netz rumgeistern sollen???

Die 7950 ist am Markt und gut lieferbar, selbst der Preis ist schon etwas runter auf ~380 für non OC und 390 für OC, der Februar hat angefangen und das erste Wochenende ist dann bald auch rum. Chinesische Neujahr ist jetzt auch schon ne weile vorbei.

Wirds eventuell doch erst zur CeBIT ne richtige Ankündigung/Vorstellung geben, oder was gibt es bis dort hin noch an möglichen Messen/Konferenzen whot ever?

Dural
2012-02-04, 09:07:37
für eine vorstellung braucht es immer noch keine messe :rolleyes:

boxleitnerb
2012-02-04, 09:09:12
Ich glaube fast diese Tabelle von Chiphell vor ner Weile hat doch so einiges richtig gehabt. Bis auf die TDP, die war mit 225W natürlich zu hoch. Takt dürfte dann auch einen Tacken höher liegen als die 1050. Selbst Ailuros hat gesagt, dass da vieles (?) richtig ist, wenn ich mich recht erinnere:
Deshalb ist lediglich nur eine einzige Kolumne auf dem chiphell Bildchen fast zu 100% korrekt, der Rest zum heulen falsch und sonst schwirrt nur Bloedsinn rum

Ich schätze mit Kolumne meint er Spalte. Das könnte GK104 sein.

Jemand aus dem XS Forum behauptet, ein Kontakt von ihm hätte die Tabelle größtenteils bestätigt.

Dural
2012-02-04, 09:11:21
und ich frage mich gerade ob es schon ein NDA gibt :confused: gewisse seiten und leute sind verdächtig ruhig geworden :rolleyes:

Hugo78
2012-02-04, 09:14:26
Wenn die ersten glaubhaften Leaks kommen, dann max. eine Woche und der Release kommt.
Ein Dienstag oder Donnerstag um 15Uhr unserer Zeit, wie immer. ;)

X.Perry_Mental
2012-02-04, 09:46:39
Angeblich soll Kepler auch Software-PhysX Spiele beschleunigen, das wären mehr als 300 Titel:
...
Klingt nach Bogus. Allerdings...bei T&L z.B. wurden damals ja auch Berechnungen massiv auf die GPU ausgelagert. Die PhysX-Software und der Grafiktreiber sind beide in Nvidias Hand und sollten das problemlos umbiegen können.
Was würde das bringen? Wenn Software-PhysX in den "über 300 Spielen" jetzt über die GPU sagen wir mal 20x "schneller" werden sollte - das merkt man dann nur, wenn man bisher eine für das jeweilige Spiel mit Software-PhysX eigentlich zu langsame CPU hatte, diese behält, die alte Grafikkarte gegen Kepler tauscht und dann die alten Spiele nochmal laufen lässt...

boxleitnerb
2012-02-04, 09:48:22
Was würde das bringen? Wenn Software-PhysX in den "über 300 Spielen" jetzt über die GPU sagen wir mal 20x "schneller" werden sollte - das merkt man dann nur, wenn man bisher eine für das jeweilige Spiel mit Software-PhysX eigentlich zu langsame CPU hatte, diese behält, die alte Grafikkarte gegen Kepler tauscht und dann die alten Spiele nochmal laufen lässt...

Das hab ich mich allerdings auch gefragt. IdR ist man sowieso GPU-limitiert.

y33H@
2012-02-04, 11:15:03
Die bisher über die CPU laufenden Gameplay-Physik soll auf die GPU ausgelagert werden? Das bezweifle ich sehr, idR hätte man hier eher einen Leistungsverlust, so wie boxleitnerb schon sagte.

@ Dural

Nein.

mapel110
2012-02-04, 11:31:34
Die bisher über die CPU laufenden Gameplay-Physik soll auf die GPU ausgelagert werden? Das bezweifle ich sehr, idR hätte man hier eher einen Leistungsverlust, so wie boxleitnerb schon sagte.

PhysX war doch bisher nur Effektphysik. :|
Fürs Gameplay völlig belanglos.

boxleitnerb
2012-02-04, 11:35:25
Carsten Spille scheint einen Einblick zu haben, er meint nämlich:

Think sharp - there would be other ways if you own an ecosystem. And a few weeks ago, they provided the perfect excuse.

Entweder sie verlangsamen den Code auf der CPU noch mehr (cheaten) oder sie patchen die Spiele bzw. lassen es von den Devs tun (extremst unwahrscheinlich). Vor ein paar Wochen hat Nvidia doch CUDA pseudo-geöffnet. Ehrlich gesagt tappe ich im Dunkeln, was dieses PhysX-Gerüchte angeht.

y33H@
2012-02-04, 11:44:46
PhysX war doch bisher nur Effektphysik. Fürs Gameplay völlig belanglos.Das Gegenteil ist der Fall: PhysX wird seit Jahren in erster Linie für Gameplay-Physik via CPU eingesetzt, die Effektnummer via GPU ist eine "neumodische" Erscheinung. Was meinst du, warum es aberhunderterte von PhysX-Spielen gibt? Die Bandbreite reicht vom Landwirtschaftssimulator über Gothic 3 bis hin zu Trine 2 (http://physxinfo.com/index.php?p=gam&f=all). Dank des IPP nutzt zudem nahezu jeder Titel auf Basis der UE3 PhysX.

mapel110
2012-02-04, 11:53:12
Ach okay, Denkfehler meinerseits.

M4xw0lf
2012-02-04, 11:59:25
Ach okay, Denkfehler meinerseits.

War nur nicht ganz richtig formuliert - die GPU-beschleunigte PhysX Effektphysik ist bisher fürs Gameplay völlig belanglos. :wink:

boxleitnerb
2012-02-04, 12:00:50
Deswegen heißt es ja auch Effektphysik und nicht Gameplayphysik ;)
Wenn das standardisiert ist irgendwann, wird's vielleicht sogar verschmelzen.

Nightspider
2012-02-04, 12:31:59
Selbst wenn, wie wollte man denn die Berechnungen auf die GPU auslagern? Dazu müsste man doch jedes Spiel patchen bzw. die Berechnungen der CPU abfangen? O_o
Die Novodex Physikengine ist doch in jedem Spiel in unterschiedlicher Art und Weise implementiert und war bei den alten Spielen nie für GPU Beschleunigung ausgelegt. Da fehlt doch dann irgendwo der interne Datenaustausch und man müsste den Programmablauf auch so ändern, das die CPU dies nichtmehr berechnen muss.

boxleitnerb
2012-02-04, 13:51:21
PhysX 3 mit vollem Multicore-Support, perfekt optimiert auf aktuelle CPUs.
All diese Optimierungen aktiv, wenn eine Kepler/Nvidia-GPU im System steckt, sonst aus?

Denkbar? Ich würde es Nvidia zutrauen, vor allem würde das zu Charlies Aussage bzgl. "Nvidias games" passen, da klang er ehrlich schockiert. Wäre nicht das erste Mal, dass Nvidia sowas in der Art tut. Je länger ich drüber nachdenke, desto wahrscheinlicher finde ich dieses Szenario. Und ganz ehrlich: Das wäre eine sehr große Schweinerei, weil mit Innovation und Fairness hätte das nun rein gar nix zu tun.

AwesomeSauce
2012-02-04, 14:06:48
PhysX 3 mit vollem Multicore-Support, perfekt optimiert auf aktuelle CPUs.
All diese Optimierungen aktiv, wenn eine Kepler/Nvidia-GPU im System steckt, sonst aus?

Denkbar? Ich würde es Nvidia zutrauen, vor allem würde das zu Charlies Aussage bzgl. "Nvidias games" passen, da klang er ehrlich schockiert. Wäre nicht das erste Mal, dass Nvidia sowas in der Art tut. Je länger ich drüber nachdenke, desto wahrscheinlicher finde ich dieses Szenario. Und ganz ehrlich: Das wäre eine sehr große Schweinerei, weil mit Innovation und Fairness hätte das nun rein gar nix zu tun.
Kein Spieleentwickler würde sich auch nur Gedanken darüber machen, PhysX zu benutzen, sollte dies eintreffen. Ist ja nicht so, dass es keine "neutraleren" Alternativen gäbe. Halte ich für sehr sehr unwahrscheinlich.

boxleitnerb
2012-02-04, 14:08:45
Es wäre die einzige Erklärung, die irgendwie Sinn macht. Wie soll man sonst auf einem Nvidia-System PhysX beschleunigen? Für GPU-PhysX wird man wohl kaum extra an der Hardware rumdoktern bei so wenigen Titeln.

dildo4u
2012-02-04, 14:16:21
Der Sinn von Physx3 ist das es besser auf allen Plattformen läuft nicht schlechter.Ihr nimmt den PC für zu wichtig er macht bei den meisten Games nur um 10% vom Umsatz aus,Nvidia will mit 3.0 erreichen das mehr Multiplattform Titel deren Physx Engine nutzen.Dadurch erhöt sich halt automatisch die Chance,das der Dev vieleicht was extra(Effektphysik) für Nvidia GPU's einbaut.

N0Thing
2012-02-04, 14:26:21
Sehe das wie Dildo. Wenn überhaupt haben die Kepler-Karten bei PyhsX@GPU Vorteile gegenüber ihren Vorgängern. Eine nachträgliche Beschleunigung der Software durch die Grafikkarte halte ich für sehr unwahrscheinlich, vor allem, weil es den Aufwand gar nicht rechtfertigt. Kauft sich jemand extra eine Kepler-Karte, um damit Borderlands erneut zu zocken? Wohl kaum.

Eher kann ich mir eine allgemeine Verbesserung für physikalische Berechnungen vorstellen, die dann aber auch eher im Berech der Tesla-Karten relevant sein werden. Also eher ein Mißverständnis von PhysX und physics.

boxleitnerb
2012-02-04, 14:27:49
Hm, rein für Spiele würde sich das nicht so lohnen, es sei denn Nvidia hätte eine große Anzahl von PhysX@GPU Titeln in der Mache. So viele gibts davon ja schon jetzt nicht bezogen auf den Gesamtmarkt.

Hugo78
2012-02-04, 14:36:16
@boxleitnerb

Was soll denn dieser Verschörungstheorie Unsinn?

Wenn PhysX 3 auch CPU Physik-Last auf KeplerGPUs auslagern könnte,
wäre das doch nur eine logische Weiterentwickelung von PhysX.

Die Entwickler brauchen sich immer weniger darum kümmern, wer, was, wie berechnet,
sondern sie lassen das einfach die API machen.
Die verteilt dann die Last je nachdem wo was frei ist.

AMD spricht von HSA als Zukunft, warum sollte das Nvidia anders sehen?

Fermi, Kepler ect. Nvidias GPUs werden immer CPU ähnlicher,
also muss man irgendwann keine getrennte Physikentwickelung mehr betreiben, wär doch gut.

boxleitnerb
2012-02-04, 14:38:32
Ich spekuliere nur bzw. verarbeite das weiter, was ich woanders lese. Vielleicht interessierts ja jemanden. Es muss nicht stimmen.

Was du sagst, klingt aber auch schlüssig.

Skysnake
2012-02-04, 15:48:19
@boxleitnerb

Was soll denn dieser Verschörungstheorie Unsinn?

Wenn PhysX 3 auch CPU Physik-Last auf KeplerGPUs auslagern könnte,
wäre das doch nur eine logische Weiterentwickelung von PhysX.

Die Entwickler brauchen sich immer weniger darum kümmern, wer, was, wie berechnet,
sondern sie lassen das einfach die API machen.
Die verteilt dann die Last je nachdem wo was frei ist.

AMD spricht von HSA als Zukunft, warum sollte das Nvidia anders sehen?

Fermi, Kepler ect. Nvidias GPUs werden immer CPU ähnlicher,
also muss man irgendwann keine getrennte Physikentwickelung mehr betreiben, wär doch gut.

CPUs und GPUs sind nicht mal im Ansatz ähnlich :ugly: Sorry Hugo, aber dazwischen liegen echt welten, und eine GPU wird nie eine CPU sein, wie auch eine CPU nie eine GPU sein wird. Man verfolgt dort ganz unterschiedliche Konzepte, um unterschiedliche Probleme zu lösen.

Die PhysX Sache könnte ihr euch aber denke ich wirklich abschinken, das wird einfach "lost in translation" gewesen sein. Es kommt sicherlich irgend was neues, um GPGPU zu verbessern und sonst nichts.

Kann mir gut vorstellen, dass Sie FFT verbessern durch SFUs.

OBR
2012-02-04, 16:58:53
Die tatsächlichen Spezifikationen Kepler sind brutal und alles jetzt im Internet zirkulierenden ist dumm gefälschte, wird es noch nicht verraten, aber schon bald genießen ..

PCGH_Carsten
2012-02-04, 17:07:11
Ja, aber Nvidia kocht auch nur mit Wasser. Wenn sie die Prozessoren schlanker machen, wird das nicht ohne Effizienzverlust gehen. Hätte Kepler bsw. 3x soviele ALUs wie GF100/b, wäre er damit noch lange nicht 3x so schnell (von Hotclocks mal ganz abgesehen).

Carsten Spille scheint einen Einblick zu haben, er meint nämlich:
For the record:
Ich habe keinen Einblick diesbezüglich, das sind lediglich theoretische Möglichkeiten, die nicht einmal praktisch durchführbar sein müssen. :)

OBR
2012-02-04, 17:11:28
Ja, aber Nvidia kocht auch nur mit Wasser. Wenn sie die Prozessoren schlanker machen, wird das nicht ohne Effizienzverlust gehen. Hätte Kepler bsw. 3x soviele ALUs wie GF100/b, wäre er damit noch lange nicht 3x so schnell (von Hotclocks mal ganz abgesehen).


For the record:
Ich habe keinen Einblick diesbezüglich, das sind lediglich theoretische Möglichkeiten, die nicht einmal praktisch durchführbar sein müssen. :)


Natürlich ist dies ein Mainstream-Chip, wenn es 3x mehr CUDA hat es + / - 25 Prozent der 580 + Hochfrequenz ... Also haben wir bei HD 7970 ... nicht wahr?

AwesomeSauce
2012-02-04, 17:11:30
Ja, aber Nvidia kocht auch nur mit Wasser. Wenn sie die Prozessoren schlanker machen, wird das nicht ohne Effizienzverlust gehen. Hätte Kepler bsw. 3x soviele ALUs wie GF100/b, wäre er damit noch lange nicht 3x so schnell (von Hotclocks mal ganz abgesehen).


For the record:
Ich habe keinen Einblick diesbezüglich, das sind lediglch theoretische Möglichkeiten, die nicht einmal praktisch durchführbar sein müssen. :)
Das hatten wir doch schon. Es erwartet niemand, dass die pro-Einheit-Effizienz gleich bleibt.

@OBR
You can write in English if you want to. No need to use Google Translator :)

AnarchX
2012-02-04, 17:14:16
Das hatten wir doch schon. Es erwartet niemand, dass die pro-Einheit-Effizienz gleich bleibt.
Wie soll das auch geschehen, wenn man GPCs und TMUs nicht entsprechend mit den CUDA-Cores skaliert.

Im Endeffekt hat man zusätzliche Reserven für shaderlastige Szenarien, worunter vielleicht auch GPU-PhysX fällt.

boxleitnerb
2012-02-04, 17:25:28
Ja, aber Nvidia kocht auch nur mit Wasser. Wenn sie die Prozessoren schlanker machen, wird das nicht ohne Effizienzverlust gehen. Hätte Kepler bsw. 3x soviele ALUs wie GF100/b, wäre er damit noch lange nicht 3x so schnell (von Hotclocks mal ganz abgesehen).


For the record:
Ich habe keinen Einblick diesbezüglich, das sind lediglich theoretische Möglichkeiten, die nicht einmal praktisch durchführbar sein müssen. :)

Ich schrieb "scheint".
Aber gut, es gibt auch Dinge, die dagegensprechen. Du klangst so überzeugt ;)

M4xw0lf
2012-02-04, 17:45:48
OBR höchstselbst, welch Glanz in unserer Hütte :freak:

boxleitnerb
2012-02-04, 17:46:51
Mal sehen, was unsere Experten zu ihm sagen...
Ich persönlich glaub ihm kein Wort nach dem hin und her und den bewussten Täuschungen.

M4xw0lf
2012-02-04, 17:50:15
Mal sehen, was unsere Experten zu ihm sagen...
Ich persönlich glaub ihm kein Wort nach dem hin und her und den bewussten Täuschungen.

Und ich glaube, wenn jemals irgendjemand von Nvidia für virales Marketing bezahlt werden sollte, dann er ;D

PCGH_Carsten
2012-02-04, 17:59:19
Ich schrieb "scheint".
Aber gut, es gibt auch Dinge, die dagegensprechen. Du klangst so überzeugt ;)
Keine Panik - ich wollte es nur ausdrücklich klarstellen, bevor wieder merkwürdige Gerüchte die Runde machen :)

PCGH_Carsten
2012-02-04, 18:02:36
Natürlich ist dies ein Mainstream-Chip, wenn es 3x mehr CUDA hat es + / - 25 Prozent der 580 + Hochfrequenz ... Also haben wir bei HD 7970 ... nicht wahr?
Kommt drauf an, wieviel Takt wir ohne Hotclock haben. Und vor allem – ja wir hatten es schon… – wieviel Papierleistung auf die Straße gebracht wird.

V2.0
2012-02-04, 18:11:12
Warum glaubt ihr jedem Gerücht? Die PissX Sache ist offensichtlich entweder völlig fake oder ein Versuch Leaks vorab zu entdecken.

Nakai
2012-02-04, 18:18:39
Ich rechne für GK100 ungefähr 60 bis 80% vor GF110.
Eine fiktive Geforce GTX 670(GK110) wird so auf HD7970-Niveau sein, eher darüber.
Eine GTX680(GK110) wird etwa 25 bis 30% vor einer HD7970 sein.

GK104 wird direkt gegen eine HD7950 gestellt.

GTX 660(GK104) wird gegen die HD7950 gestellt. Bei niedrigeren Auflösungen und Einstellungen wird man gut gegen sie vorgehen können. AMD hat Glück, dass sie im unteren Segment, deutlich besser dastehen werden.

Zergra
2012-02-04, 18:32:01
oha wie sie das alle fressen..... jeder kann so eine Liste erstellen und dann glauben das wieder viele.... NV wird sich mit ihrem Highend Chip nicht soweit absetzen wie hier Spekuliert wird :P sagen wir, ca 20-30 vor der HD7970 alles andere macht überhaupt keinen sinn

AnarchX
2012-02-04, 18:46:08
Eine GTX680(GK110) wird etwa 25 bis 30% vor einer HD7970 sein.

... und dann legt AMD einen ~1,1GHz Tahiti nach?

Mit möglicherweise 2048SPs, 128 TMUs, 8 GPCs @>900MHz (+130%) und 512-Bit @ 5,5Gbps (+83%), sollte man wohl mehr als 60-80% zur GTX 580 ereichen.
Die einzige Frage die sich noch stellt, ist die nach dem Stromverbrauch und wie weit man über 500mm² liegen könnte.

Blaire
2012-02-04, 19:04:20
Dann würde sich die Multi-GPU Variante ja erübrigen, man würde sich quasi selbst die Show stehlen, das macht keinen Sinn.

Hugo78
2012-02-04, 19:07:41
oha wie sie das alle fressen..... jeder kann so eine Liste erstellen und dann glauben das wieder viele.... NV wird sich mit ihrem Highend Chip nicht soweit absetzen wie hier Spekuliert wird :P sagen wir, ca 20-30 vor der HD7970 alles andere macht überhaupt keinen sinn

In Prozenten muss man so oder so immer den Bezugspunkt dazu angeben.
Wenn du max. +30% von 7970 auf GK110 sagt, dann wären das immernoch +70% von GTX 580 auf GK110. ;)

boxleitnerb
2012-02-04, 19:09:45
Dann würde sich die Multi-GPU Variante ja erübrigen, man würde sich quasi selbst die Show stehlen, das macht keinen Sinn.

Mehr geht zwar noch immer, aber man will ja auch was für einen Refresh haben. Bis 20nm ist es lang hin.

Zergra
2012-02-04, 19:17:54
naja aber der Stromverbrauch wird doch bei der Multi GPU ein Problem werden :D und das dann zu Kühlen, wenn die 400Watt TDP sind da locker möglich...

Und gibt es einen Beweis das es wirklich OBR ist? jeder könnte sich denn account erstellen aber egal :D

boxleitnerb
2012-02-04, 19:21:33
Och, gesenkte Taktraten und Spannungen, selektierte Chips, da gehen schon +50-60%, eben so wie jetzt.

AnarchX
2012-02-04, 19:28:37
Dann würde sich die Multi-GPU Variante ja erübrigen, man würde sich quasi selbst die Show stehlen, das macht keinen Sinn.
Wenn man von der GTX 295 oder GTX 590 ausgeht, dann dürfte die Dual-GPU-Version wohl eh fast nicht mehr in 2012 erscheinen.
Und GK110 Single-GPU dürfte wohl in einem ähnlichen Zeitraum wie New Zealand (2x Tahiti) launchen.

Zergra
2012-02-04, 19:42:32
ich versteh das eh nicht wirklich wieso es die MultiGpU Karten noch gibt, CF/SLI reicht doch in 99% der Fälle und ist noch schneller, vorallem ist man damit nicht so schnell an der Mikroruckler grenze :D

mrt
2012-02-04, 19:53:23
... und dann legt AMD einen ~1,1GHz Tahiti nach?

Mit möglicherweise 2048SPs, 128 TMUs, 8 GPCs @>900MHz (+130%) und 512-Bit @ 5,5Gbps (+83%), sollte man wohl mehr als 60-80% zur GTX 580 ereichen.
Die einzige Frage die sich noch stellt, ist die nach dem Stromverbrauch und wie weit man über 500mm² liegen könnte.
Mit 1,1GHz fängt man keinen ~30% schnelleren GK110 ab ;)
Woher kommen die 512 bit? Ich bin mir ziemlich sicher, dass wir nur ein 384bit-SI sehen werden.

AnarchX
2012-02-04, 20:00:29
Mit 1,1GHz fängt man keinen ~30% schnelleren GK110 ab ;)

Stellt ihn zusammen mit einer Preissenkung, ermöglicht durch die geringere Die-Size, aber ziemlich in Frage.

Woher kommen die 512 bit? Ich bin mir ziemlich sicher, dass wir nur ein 384bit-SI sehen werden.
Weil man sonst keinen Bandbreitenvorsprung gegenüber AMD hätte? Zudem sind 5,5Gbps GDDR5 mit ~1,5-1,6V schon ziemlich übel. Da ist gerade im Bezug zu HPC-Karten mit größeren Speichermengen, ein 512-Bit SI moderaten Taktraten um die 4Gbps sinnvoller.

ChaosTM
2012-02-04, 20:03:19
Mit 1,1GHz fängt man keinen ~30% schnelleren GK110 ab ;)
Woher kommen die 512 bit? Ich bin mir ziemlich sicher, dass wir nur ein 384bit-SI sehen werden.

Für einen 30% schnelleren GK110 würde AMD ca. 1250Mhz brauchen um aufzuschließen - was durchaus machbar wäre mit verbessertem Board-Layout/Kühlung und entsprechendem Vcore.
35-40% sollte man also schon vorne liegen, um auf der "sicheren" Seite zu sein..

Zergra
2012-02-04, 20:11:02
ja aber AMD´s 7980???? wird eh erst nach GK110 kommen, voher hätte das nicht wirklich sinn.... da man ja nicht weiß was NV dann macht...

mrt
2012-02-04, 20:18:02
Stellt ihn zusammen mit einer Preissenkung, ermöglicht durch die geringere Die-Size, aber ziemlich in Frage..
Eine hypothetische Tahiti XTX mit 1,1GHz wäre auch nicht so viel näher dran als Evergreen XT oder Cayman XT es waren. Davon mal ganz abgesehen, muss AMD so eine Karte auch tatsächlich vorstellen.

Weil man sonst keinen Bandbreitenvorsprung gegenüber AMD hätte? Zudem sind 5,5Gbps GDDR5 mit ~1,5-1,6V schon ziemlich übel. Da ist gerade im Bezug zu HPC-Karten mit größeren Speichermengen, ein 512-Bit SI moderaten Taktraten um die 4Gbps sinnvoller.
Naja normal fährt man seine eigene Roadmap ab und richtet sich weniger am Konkurrenten aus (außer ein wenig mehr Takt).
Die Speicherbandbreite wird leider immer noch für Grafkszenarien ausgelegt. Teslas haben idR geringere Takraten und weniger SMs, da seh ich kein Problem wenn am Desktop 1,5-1,6V 5,5Gbps GDDR5 verwendet wird.
Ich könnte auch auf Fermi mit einem 512bit-SI was anfangen und habs nicht bekommen :D

Blaire
2012-02-04, 20:19:39
Wenn man von der GTX 295 oder GTX 590 ausgeht, dann dürfte die Dual-GPU-Version wohl eh fast nicht mehr in 2012 erscheinen.
Und GK110 Single-GPU dürfte wohl in einem ähnlichen Zeitraum wie New Zealand (2x Tahiti) launchen.

Man will ja mit wenig Verbrauch und dennoch guter Leistung punkten, nicht umsonst taktet die neue AMD recht moderat, so hat man sich noch gut Spielraum für die Dual-Variante gelassen und bezahlbar muss die ja auch bleiben, niemand kauft sich für 1000€ eine HD7990. ;) Ein Refresh kommt wenn dann viel später und ich glaube nicht mehr in diesem Jahr.

Iruwen
2012-02-04, 21:21:46
Für einen 30% schnelleren GK110 würde AMD ca. 1250Mhz brauchen um aufzuschließen - was durchaus machbar wäre mit verbessertem Board-Layout/Kühlung und entsprechendem Vcore.
35-40% sollte man also schon vorne liegen, um auf der "sicheren" Seite zu sein..
Man muss (in Spielen) nicht deutlich vorne liegen wenn man dafür den Preis entsprechend anpasst.

mapel110
2012-02-04, 21:32:54
nicht umsonst taktet die neue AMD recht moderat,
Hauptgrund war die Ausbeute an Chips zu maximieren. AMD legt bestimmt noch nach.

Vor allem weil nvidia wohl über Features punkten will. Klingt für mich auch logisch nach dem Eyefinity-Desaster. Ich bin gespannt, was sie sich ausgedacht haben.

Zergra
2012-02-04, 21:54:29
Klar braucht NV. ein Gutes Eyefinity und andere Features, das wäre ja sonst noch ein Kaufgrund für AMD, auch wenn es NV Karten gibt die es auch alleine können, ist das eher spärlich....
Ich hoffe das da mal etwas mehr von Kepler kommt, vllt wird das ja was dolles.... :P

Schaffe89
2012-02-04, 22:24:59
Mit welchen tollen Features soll Nvidia denn noch nachlegen?

BQ mäßig hat man ja jetzt fast nichts besseres mehr zu bieten außer OGSSAA.
Und ansonsten halt Physx, wers bei den wenig Spielen dann für nötig hält.

Zergra
2012-02-04, 22:31:09
Vllt. was neues wovon keiner was weiß :D

Thunder99
2012-02-04, 22:32:42
Mit welchen tollen Features soll Nvidia denn noch nachlegen?

BQ mäßig hat man ja jetzt fast nichts besseres mehr zu bieten außer OGSSAA.
Und ansonsten halt Physx, wers bei den wenig Spielen dann für nötig hält.
SGSSAA in DX9 mit automatischer LOD Anpassung offiziell anbieten? :rolleyes: ;)

boxleitnerb
2012-02-05, 06:57:42
Mit welchen tollen Features soll Nvidia denn noch nachlegen?

BQ mäßig hat man ja jetzt fast nichts besseres mehr zu bieten außer OGSSAA.
Und ansonsten halt Physx, wers bei den wenig Spielen dann für nötig hält.

Du hast auch nix Besseres zu tun, oder? Nvidia hat immer noch genug Vorteile ;)

Für Kepler hoffe ich auf:
FXAA/SMAA offiziell (leider kann man FXAA 4.0 nur injizieren, um alle Features zu bekommen, das geht wohl kaum über den Treiber)
Downsampling offiziell

Mehr fällt mir grad nicht ein, wir haben ja schon alles.

Knuddelbearli
2012-02-05, 07:12:49
wtf was geht den hier wieder ab? auf einmal sind +80% gegenüber 580 zu wenig usw.

Alles über +60% würde mich stark wundern, Verlustleistung muss ( auch laut NV ) runter nicht rauf, und man will j auch platz für nen refresh.

Dural
2012-02-05, 12:24:00
Für einen 30% schnelleren GK110 würde AMD ca. 1250Mhz brauchen um aufzuschließen - was durchaus machbar wäre mit verbessertem Board-Layout/Kühlung und entsprechendem Vcore.


1250MHz stock ist aktuell sicher nicht möglich :rolleyes:

erstens sind die 1250MHz unter luft rund die derzeitige OC möglichkeiten und zweitens würde so eine karte sicher 300Watt + haben.

aktuell wäre wohl was mit rund 1100MHz möglich.


@kepler

+ 60% zur GTX580 ist mit GK110 wohl das maximum womit man rechnen sollte, wie ich hier schon gefühlt 100x geschrieben habe ist die GTX580 keine "schlechte" karte, sondern eher das komplette gegenteil trifft zu, die karte ist für ihre Generation extrem schnell!

boxleitnerb
2012-02-05, 12:30:40
...und wird trotz größerem Die und mehr Verbrauch manchmal von der 6970 geschlagen, wenn auch nur ganz ganz knapp.
In hohen Auflösungen bzw. mit SSAA erwarte ich mindestens 80% Steigerung, das muss einfach drin sein.

Schaffe89
2012-02-05, 13:17:57
Mehr fällt mir grad nicht ein, wir haben ja schon alles

Ja das ist ja alles etwas mager.
Ich bin ja wirklich gespannt, was es mit der dedizierten Physx Einheit da auf sich hat.

aktuell wäre wohl was mit rund 1100MHz möglich.

Ich vermute eher, dass man eine schnellere Karte überhaupt nicht nötig hat.
Zu GTX285 Zeiten waren es zu Launch auch nur 20%++ und etwas später fast 50% auf die GTX285.
Man hat da glaube ich noch genug Zeit für kleine Optimierungen.

die karte ist für ihre Generation extrem schnell!

Die Karte wird oft genug von der HD6970 geschlagen, siehe aktuellen CB Test.
Besonders bei SGSSAA oder unter 2560x1600.
Mal sehen ob Nvidia die Skalierungsschwäche mit Kepler etwas gemindert hat.

Nightspider
2012-02-05, 13:52:05
+ 60% zur GTX580 ist mit GK110 wohl das maximum womit man rechnen sollte, wie ich hier schon gefühlt 100x geschrieben habe ist die GTX580 keine "schlechte" karte, sondern eher das komplette gegenteil trifft zu, die karte ist für ihre Generation extrem schnell!

60% Wären imo für einen reinen aufgeblasenen Chip schon schwach, wenn der Prozesswechsel schon 50% Flächenersparnis bringt und der Chip sich auf das doppelte aufblasen lassen würde.
Mit deutlichen Architekturverbesserungen kann an wesentlich mehr als 60% erwarten.
60% Maximum? Ich würde eher sagen Minimum.

feris
2012-02-05, 14:10:14
Die tatsächlichen Spezifikationen Kepler sind brutal und alles jetzt im Internet zirkulierenden ist dumm gefälschte, wird es noch nicht verraten, aber schon bald genießen ..

Was ist denn das? Ein vorgezogener Aprilscherz, hier als OBR zu schreiben?
Aber mal ganz davon ab: Der Inhalt des Postings ist selbst für einen Spekulationsthread zu dünn :wink:

So langsam schaukelt man sich ja hier bezüglich der Leistung immer immer neue Höhen auf. Wenn man bei NV von der 7xxx mehr erwartet hat und bei Keppler von "breathtaking performance" spricht, dann sind 2% Unterschied für solche Formulierungen für's Marketing schon genug. ;D

Eyefinity a la NV wäre jetzt nicht so ein Killerfeature, sondern nur gleichziehen.

Ich mag falsch liegen, aber zum Glück ist das hier ja der Spekulationsthread:
Der GK104 wird der Chip für Spieler, der GK110 wird einen Haufen Ballast für HPC mitschleppen und sich in Spielen nicht so extrem vom GK 104 absetzen, wie man für High End erwartet. Aber immer noch genug, auch den Spielern das Geld aus der Tasche zu ziehen, denn schließlich muss die Entwicklung jemand finanzieren. Hat ja beim der GTX 480 auch schon funktioniert.

PrefoX
2012-02-05, 14:11:27
...und wird trotz größerem Die und mehr Verbrauch manchmal von der 6970 geschlagen, wenn auch nur ganz ganz knapp.
In hohen Auflösungen bzw. mit SSAA erwarte ich mindestens 80% Steigerung, das muss einfach drin sein.
und manchmal hat die 6970 auch nur 50-60% der power die eine GTX 580 hat... wir reden hier nicht von speziellen fällen oder?

Zergra
2012-02-05, 14:13:54
durchschnitt :D von allen anwendungen mit was anderem braucht man garnicht anzufangen, aber da natürlich mehr Pixel interessant sind sollte man das nicht vergessen denn in 1-2 Jahren haben wir alle 2560x19XX Pixel :P wenn dann NV wegen solchen sachen zurück hängt, Prost malzeit, sollten sich mal verbessern

boxleitnerb
2012-02-05, 14:16:36
und manchmal hat die 6970 auch nur 50-60% der power die eine GTX 580 hat... wir reden hier nicht von speziellen fällen oder?

Das "manchmal" der hohen Auflösungen ist momentan leider häufiger anzutreffen als die Fälle, von denen du sprichst. Das sind schließlich spezielle Spiele - hohe Auflösungen bzw. SSAA kann man fast immer zuschalten, das ist jetzt nicht speziell an sich.
Ich sehe das ähnlich wie die 8xMSAA Schwäche damals, nur nicht ganz so krass. Nvidia muss und wird da aufholen oder gar überholen, wenn sie ihre Multimonitorlösung pushen wollen.

Gaestle
2012-02-05, 14:29:13
Der GK104 wird der Chip für Spieler, der GK110 wird einen Haufen Ballast für HPC mitschleppen und sich in Spielen nicht so extrem vom GK 104 absetzen, wie man für High End erwartet. Aber immer noch genug, auch den Spielern das Geld aus der Tasche zu ziehen, denn schließlich muss die Entwicklung jemand finanzieren. Hat ja beim der GTX 480 auch schon funktioniert.

Wenn sich NV genauso verhält, wie bei den letzten beiden Generationen,
dann verhält sich IMHO

GK110 zu GK104
wie
GF110 zu GF114 (150% zu 100%)
oder
GF100 zu GF104 (150% zu 100%).

Die Prozentangaben stammen aus dem jeweiligen CB-Rating (1920er Auflösung, 4xAA/16AF).

Schaffe89
2012-02-05, 16:38:39
60% Wären imo für einen reinen aufgeblasenen Chip schon schwach, wenn der Prozesswechsel schon 50% Flächenersparnis bringt und der Chip sich auf das doppelte aufblasen lassen würde.

So kann man das nicht sehen.
Es gibt deutlich mehr Faktoren die da noch mit reinspielen.
So gut funktioniert der 28 nm Prozess denke ich nicht, denn genau deswegen hat AMD wohl die Taktraten extrem weit unten angesetzt.
Man hätte genausogut erst wie Nvidia im April releasen können und dafür Standardmäßig 1100 mhz bieten können und wäre dann60 bis 70% vor der HD6970 gelesen.

und manchmal hat die 6970 auch nur 50-60% der power die eine GTX 580 hat... wir reden hier nicht von speziellen fällen oder?

Nur sind die AMD Fälle in hohen Auflösungen überhaupt nicht speziell.

ZipKaffee
2012-02-05, 21:28:07
So kann man das nicht sehen.
Es gibt deutlich mehr Faktoren die da noch mit reinspielen.
So gut funktioniert der 28 nm Prozess denke ich nicht, denn genau deswegen hat AMD wohl die Taktraten extrem weit unten angesetzt.
Man hätte genausogut erst wie Nvidia im April releasen können und dafür Standardmäßig 1100 mhz bieten können und wäre dann60 bis 70% vor der HD6970 gelesen.


Wenn AMD jetzt schon 1100 mhz anbieten würde, hätten die ihr ganzen Pulver verschossen und dann wäre bis zur nächsten Verkleinerung nix mehr übrig.

Gipsel
2012-02-05, 22:22:24
Wenn AMD jetzt schon 1100 mhz anbieten würde, hätten die ihr ganzen Pulver verschossen und dann wäre bis zur nächsten Verkleinerung nix mehr übrig.
Die hätten noch massig Platz, mehr Transistoren zu verbraten. Man sollte nicht vergessen, daß Tahiti kleiner ist als Cayman, trotz breiterem Speicherinterface (was beim Prozeßwechsel nicht schrumpft). Von der reinen Kerngröße dürfte Tahiti nicht so viel über Cypress liegen, ein Refresh wie von Cypress -> Cayman ist also in jedem Fall drin. Dazu kommt, daß bei reiferem Prozeß die Verteilung der Binsplits deutlich schmaler wird (momentan scheint der Prozeß diesbezüglich noch mit einer sehr hohen Variabilität zu kämpfen, viel größer als bei den 40nm), man also ohne wesentlichen Mehrverbrauch die Taktraten deutlich steigern kann (grob geschätzt +20%, im Optimalfall gar mehr). Insofern sehe ich es als durchaus möglich an, daß der 28nm Refresh nochmal 30% bis 40% auf die Tahiti-Performance draufpacken kann (mit einem Die nur knapp über 400mm², also immer noch klein nach nV-Maßstäben) und das Ganze auch in ~250W. Wenn man in 3 Monaten oder so bereits das bessere Binning in Form einer 7980 mit sagen wir mal 1,1GHz ausnutzen würde (etwa +15% Performance), bliebe für den Refresh halt nur noch +20% oder so übrig (also etwa so viel wie bei Cypress -> Cayman, oder je nach dem wie aggressiv man rangeht eben auch mehr).

boxleitnerb
2012-02-06, 05:59:02
EVGA stellt anscheinend eine Menge Leute ein. Könnte was mit Kepler zu tun haben.

EVGA is expecting 2012 to be an extremely busy year and that there's a good chance that a lot of their business could pick up as a result of huge Kepler volume/orders.

http://www.brightsideofnews.com/news/2012/2/3/evga-has-big-plans-for-2012-looking-to-hire-many.aspx

Skysnake
2012-02-06, 08:32:30
Naja, ist bei EVGA nicht die OC-Sparter zu Saphire abgewandert?

Zudem, wie sahs vorher aus? Wenn da viele Leute gekickt wurden, ist es normal, das man auch wieder einstellen muss, wenn ein neues Produkt kommt.

guest_29132
2012-02-06, 08:37:42
Die hätten noch massig Platz, mehr Transistoren zu verbraten. Man sollte nicht vergessen, daß Tahiti kleiner ist als Cayman, trotz breiterem Speicherinterface (was beim Prozeßwechsel nicht schrumpft).

Das Gefühl das da noch Platz und Luft im Verbrauch vorhanden ist, um wenn gewollt etwas größeres auf die Beine zu stellen hatte man imho immer - aber ich glaube das wollen sie gar nicht. Aber sollen sie mich Lügen strafen, mit etwas wie die 4890.


http://www.brightsideofnews.com/news/2012/2/3/evga-has-big-plans-for-2012-looking-to-hire-many.aspx

Vielleicht wollen sie es XFX gleich tun?!

Screemer
2012-02-06, 10:39:22
Vielleicht wollen sie es XFX gleich tun?!
evga nicht mehr nv-exklusiv oder gar wie xfx amd exklusiv? kann ich mir grad nicht so vorstellen.

Knuddelbearli
2012-02-06, 10:53:51
nicht mehr amd exklusiv kann ich mri gut vorstellen, ist ja jetzt das 2te mal das fast ein halbes jahr zwischen amd und NV liegt bei einem shrink

Skysnake
2012-02-06, 11:26:03
äh du meinst nicht mehr NVIDIA exklusiv ;)

Davon steht dort aber nichts. Aber kommt Zeit kommt Rat. Denkbar wäre es durchaus. EVGA hat ja zur Zeit wohl doch etwas zu kämpfen. Wäre für nVidia aber schon eine ziemliche Blamage, wenn nach XFX nun auch noch EVGA ihnen den Rücken kehren würde....

Gibts dann eigenlich noch einen nVidia Exlusivpartner? Mir fällt da echt keiner mehr ein.

Knuddelbearli
2012-02-06, 11:42:16
ähm ja NV exklusiv ^^

wobei seitdem ich weiß das auch asus und sapphire offiziel kühlertausch und oc erlaubt ist mir evga ziemlich egal

wer braucht bitte 10 jahre garantie bei einem wertfall wie bei grafikkarten?

V2.0
2012-02-06, 12:03:27
Naja, als meine 8800GT starb und ich nach 3 Jahren eine 460GTX 768 von EVGA bekam, fand ich das ganz cool.

y33H@
2012-02-06, 12:26:48
Gibts dann eigenlich noch einen nVidia Exlusivpartner? Mir fällt da echt keiner mehr ein.Zotac (PC Partner, wie Sapphire), Axle, Galaxy/KFA^2 (einer der größten Hersteller in Asien), Point of View (TGT) und PNY, letztere machen zB alle Quadros/Teslas meinem Stand nach.

Hugo78
2012-02-06, 12:53:03
und PNY, letztere machen zB alle Quadros/Teslas meinem Stand nach.

PNY bedienen US/EU, Elsa iirc den asiatischen Markt.

http://www.elsa-jp.co.jp/english/index.html

Edgecrusher86
2012-02-06, 12:59:40
...Palit/Gainward (die hatten ja nur für RV7xx auch ATi), Leadtek, Inno3D oder Onda wären auch noch zu nennen. Auch wenn vor allem letzt genannter nur in Asien verbreitet ist (Inno3D hat ja auch Büros in den USA, UK oder auch hierzulande).

Nun ja, back to Topic. ;)

E: Colorful hat ja auch Radeons im Angebot, etwa die HD 6870 X2, konzentriert sich aber auch eher auf den asiatischen Markt (vor allem, wenn es um die i-Modelle geht).

Ailuros
2012-02-06, 13:00:13
Wenn Kepler wirklich wie NV verspricht ein leicht besseres perf/W Verhaeltnis haben wird im Vergleich zur Konkurrenz, dann wenn die letzte mit Takt reagieren wird kann NV ebenso mit Takt gegenreagieren rein theoretisch ohne dass sich der vorige Vorteil all zu stark minimalisiert.

Ich weiss wirklich nicht was manche mit dem Frequenz-Humbug im Hinterkopf haben. Es ist schon seit Jahren so dass Grafik IHVs eben NICHT mehr einen 6-monatigen Refresh-Zyklus haben. Ausser ein paar wenigen Aussnahmen ist es heutzutage im besten Fall ca. 9 Monate und wenn noch ein paar Aenderungen in den Design kommen =/> 12 Monate. Eben weil beide IHVs ein Uebermass an Resourcen aufwenden koennen heutzutage und weil die Verkaufszahlen rapide ueberall steigen (ja wo denn bitte und wenn sind die paar Prozente nicht der Rede wert...) haben beide gerade den Luxus nur so mit neuen GPUs alle 2-3 Monate herumzuschmeissen.

Nur so nebenbei yields bzw. Herstellungskosten werden sich ab Maerz ein gutes Stueck verbessern und dann wirklich um sehenswerte Margen ab Q3 12' wo die 28nm Kapazitaeten ziemlich stark ansteigen werden.

NV hat noch gar nichts von Kepler desktop angekuendigt (ab Maerz fruehestens) und AMD wird zu dem Zeitpunkt wohl erst mit New Zealand antanzen und so langsam mit den kleineren SI chips die dank hoher Nachfrage mehr Kapazitaeten brauchen als $400-500 Tahiti GPUs heute und >$600 7990-er.

Zurueck zum GK104: die Frequenz wird beim finalen launch nicht steigen im Vergleich zur original geplanten im Februar. Eben weil jegliches NV bzw. AMD stets auch Reserven behalten fuer den eigentlichen Refresh-schub der eben nicht vor Q3 erscheinen wird und mit einer realistischeren Schaetzung sogar Q4 12' fruehestens.

boxleitnerb
2012-02-06, 13:07:09
Zurueck zum GK104: die Frequenz wird beim finalen launch nicht steigen im Vergleich zur original geplanten im Februar. Eben weil jegliches NV bzw. AMD stets auch Reserven behalten fuer den eigentlichen Refresh-schub der eben nicht vor Q3 erscheinen wird und mit einer realistischeren Schaetzung sogar Q4 12' fruehestens.

Was war denn neu im Vergleich zu Februar? Der PCIe-Fix durch A3 oder noch was? Vielleicht hat sich etwas am OC-Potential geändert?

GK104 ist ca. 342mm2 groß?
http://semiaccurate.com/2012/02/06/how-big-is-the-keplergk104-die/

Er verhaspelt sich mit Performanceangaben, Effizienzbegriffen, rudert vor und zurück...irgendwie glaub ich langsam, der weiß gar nix.

Hugo78
2012-02-06, 13:32:52
Was war denn neu im Vergleich zu Februar? Der PCIe-Fix durch A3 oder noch was? Vielleicht hat sich etwas am OC-Potential geändert?

... ;D
Nur zu Deiner Info der hoehere Frequenz und A3 Quark im SA Artikel gegen auf meine Rechnung da neliz nicht der einzige ist der falsche Infos pflanzt um zu wissen woher jeglicher Mist genau kommt.

Ailuros
2012-02-06, 14:08:49
Was war denn neu im Vergleich zu Februar? Der PCIe-Fix durch A3 oder noch was? Vielleicht hat sich etwas am OC-Potential geändert?

GK104 ist ca. 342mm2 groß?
http://semiaccurate.com/2012/02/06/how-big-is-the-keplergk104-die/

Er verhaspelt sich mit Performanceangaben, Effizienzbegriffen, rudert vor und zurück...irgendwie glaub ich langsam, der weiß gar nix.

Meine eigene Schaetzung liegt bei ~330mm2, ergo liegt er wohl nicht zu weit davon entfernt. Ob es jetzt 320+ oder 340+ sind ist wohl wirklich nicht mehr so wichtig. Auf jeden Fall keine 290mm2 wie nach dem Quark von lenzfire ;)

boxleitnerb
2012-02-06, 15:38:08
Mal ne kurze Zwischenfrage zu was anderem:
Es heißt ja GT, GF, GK
Die letzten beiden sind klar, Fermi und Kepler. Wofür aber steht das T in GT200(b)? Tesla? Tesla ist aber doch eine separate Kartenserie. Und ist es Graphics Fermi/Kepler oder Geforce Fermi/Kepler?

Hugo78
2012-02-06, 15:43:29
Wofür aber steht das T in GT200(b)? Tesla?

Richtig.

Orbmu2k
2012-02-06, 17:12:00
@boxleitnerb: jap steht für die Tesla Architektur.

Curie -> Tesla -> Fermi -> Kepler -> Maxwell

Ailuros
2012-02-06, 17:19:17
Und danach smarta....errr tschuldigung Einstein :biggrin:

boxleitnerb
2012-02-06, 17:25:35
@boxleitnerb: jap steht für die Tesla Architektur.

Curie -> Tesla -> Fermi -> Kepler -> Maxwell

Curie? Wo kam ein C vor?

Ailuros
2012-02-06, 17:36:25
Curie? Wo kam ein C vor?

http://en.wikipedia.org/wiki/Marie_Curie

Namen von bekannten Wissenschaftlern sind schon seit G80 am Werk ;)

boxleitnerb
2012-02-06, 17:37:40
Ich weiß schon wer die gute Frau ist, nur hab ich den Namen noch nie in Verbindung mit einer Grafikkarte gehört. Gibts da ne Quelle oder so?

PCGH_Carsten
2012-02-06, 17:59:05
So, jetzt aber...

Tesla C870 zum Beispiel.

y33H@
2012-02-06, 18:18:26
http://nouveau.freedesktop.org/wiki/CodeNames :biggrin:

Je pense c'est un explication et - comme adaptable - en français ^^

Gipsel
2012-02-06, 23:01:59
Und danach smarta....errr tschuldigung Einstein :biggrin:
Ich dachte, Einstein wäre Maxwell+2, also zwischen Maxwell und Einstein kommt noch was. Zumindest hat das Dally da in einer Präsentation mal so gesagt. Keine Ahnung.

Aber mal ganz unabhängig davon, hat eigentlich irgendwer schon mitbekommen, daß Charlie meint (http://semiaccurate.com/forums/showthread.php?p=152015#post152015), daß der Kepler Memory-Controller sozusagen auf der Höhe der Zeit ankommen wird, also auch hohe Speicher-Frequenzen mitmacht? Wäre ja ein Fortschritt, der GK104 mit einem 256Bit-Interface sicher gut stehen wird.

Hugo78
2012-02-06, 23:51:30
Aber mal ganz unabhängig davon, hat eigentlich irgendwer schon mitbekommen, daß Charlie meint (http://semiaccurate.com/forums/showthread.php?p=152015#post152015), daß der Kepler Memory-Controller sozusagen auf der Höhe der Zeit ankommen wird, also auch hohe Speicher-Frequenzen mitmacht?

Man könnte auch sagen, Char_LIE gräbt ein offenes Geheimniss aus, mal wieder. :D

Iruwen
2012-02-07, 00:02:27
boxleitnerb is ja echt schmerzfrei wenn er versucht ernsthaft mit Charlie zu diskutieren.

The end is nigh, trust me here. :D

Screemer
2012-02-07, 00:13:32
das hierüber noch keiner ein wort verloren hat: http://en.expreview.com/2012/02/06/entire-nvidia-kepler-line-up-unearthed/20836.html

oder ist das wieder mal der lenzfire quark?

Ronny145
2012-02-07, 00:15:00
das hierüber noch keiner ein wort verloren hat: http://en.expreview.com/2012/02/06/entire-nvidia-kepler-line-up-unearthed/20836.html


Sieht nach dem Lenzfire Abfall aus.

Hayab
2012-02-07, 01:44:42
~45% mehr als HD7970 . Also bitte :biggrin:

Screemer
2012-02-07, 02:03:37
für gk110 und die 7970 kann ich mir 30 bis 40 prozent durchaus vorstellen. bei bis zu 550mm² die-size und entsprechend mehr verbrauch natürlich. ich bin sehr gespannt. freu mich aber eher auf gk104. leider dauert es bis wir die beiden sehen wohl noch ein bisschen.

Nightspider
2012-02-07, 02:21:43
~45% mehr als HD7970 . Also bitte :biggrin:

Echt mal. Viel zu wenig. ;D

uweskw
2012-02-07, 04:07:26
~45% mehr als HD7970 . Also bitte :biggrin:
Das bezieht sich doch auf den GK104:biggrin::biggrin:

AwesomeSauce
2012-02-07, 14:58:01
GK110 tapes out at last (No shit Sherlock?)
http://semiaccurate.com/2012/02/07/gk110-tapes-out-at-last/
Sources are now saying this chip might be called GK110, but we are still hearing some insiders say GK112.
Aber natürlich;D Charlie kommt endlich auch in der Neuzeit an:freak:
The reason for the vagueness it that the chip just taped out a few weeks ago. Current green-topped roadmaps not from green topped moles have the release date slated for August/September.
Der Rest ist Blablubb.

M4xw0lf
2012-02-07, 15:43:28
Wenn das stimmt, müsste Nvidia wohl sogar noch länger als zu "HD 5000 vs. Fermi"-Zeiten die Performance-Krone abgeben.

Ailuros
2012-02-07, 15:45:04
Nun ja zumindest ist die Busbreite fuer GK110 halbwegs raus :)

Dural
2012-02-07, 15:57:29
550mm2 und "nur" 384Bit? selbst mit 1500MHz Speicher hätte man nur 50% mehr Bandbreite als bei der GTX580, da macht es auch nicht viel sinn 100% mehr Alu Leistung (die man mit 550mm2 in 28nm sicher hat) in dem ding zu verbauen.

kann ich mir ja fast nicht vorstellen :rolleyes:

naja bei GT200 zu GF100/GF110 war es ja auch nicht wirklich besser...

Skysnake
2012-02-07, 16:01:38
Er hat gesagt "halbwegs" Ergo wird es sowohl eine 384 als auch eine 512er Variante wohl geben.

boxleitnerb
2012-02-07, 16:04:27
August/September wäre etwas spät. Rät er nur oder ist da was dran?

Blediator16
2012-02-07, 16:08:49
Vielleicht ist das die Folge der "Designwins" oder "Lieferversprechungen"^^

Dural
2012-02-07, 16:08:50
wie so spät? es gibt genügend aussagen die von einer grösseren Menge von 28nm Chips ab Q3 sprechen, da ist es doch klug sein 550mm2 Die erst dann zu bringen, die vergangeheit hat doch gnaz klar gezeigt das man nicht zu früh mit solchen Chips starten sollte.

wenn GK104 es mit Tahiti aufnehmen kann ist eigentlich alles "OK" aber der müsste jetzt den schon bald kommen...

Skysnake
2012-02-07, 16:14:00
Gabs doch schon vor Wochen/Monaten die Gerüchte, dass der GK110 erst im August/September kommt. Würde ja auch noch in den Zeitplan von nVidia passen, binnen 3 Monaten alle Chips zu launchen, wenn die ersten Karten im Mai kommen. Ansonsten wird der Plan halt nicht eingehalten :rolleyes:

Also von daher kann das durchaus sein. Wäre natürlich schon sehr beschämend/schlecht für nVidia, da ja spekuliert wird, dass der GK104 Tahiti XT eben NICHT knackt. Bzw. wenn, AMD eben auch noch nachlegen kann. Gehen wir einfach mal davon aus, das nVidia nicht vorbei kommt, dann hat AMD >6 Monate die S-GPU Leistungskrone bei sich, und mit der Dual-GPU dann wohl auch nochmals einige Monate Länger die absolute Leistungskrone.

Zudem könnte man dann sich auch schon überlegen, bis wann der Refresh von Tahiti XT kommt. So binnen 12 Monaten ist durch aus drin, da der Prozess ja ganz neu ist, und man doch arge Probleme am Anfang hatte. Da könnte ein Refresh dann wohl in 3-6 Monaten nach einem August/September launch von GK110 kommen, und dann würde das unter Umständen echt bitter werden für nVidia.

Vor allem stellt sich dann eben auch die Frage, ob nVidia noch einen richtigen Refresh in der Schublade hat für 28nm, oder ob es das dann oben rum war? Das Ding wird ja sicherlich nicht als beschnittene Version kommen.

Wenn aber nicht, dann bleibt ja auch nicht sooo viel Zeit, bis zum nächsten Shrink, wo man sicherlich nicht wieder Monate lang hinterherhinken will...

Also die ganze Sache bleibt auf jeden Fall dieses Jahr sehr spannend.

dargo
2012-02-07, 16:14:31
550mm2 und "nur" 384Bit? selbst mit 1500MHz Speicher hätte man nur 50% mehr Bandbreite als bei der GTX580, da macht es auch nicht viel sinn 100% mehr Alu Leistung (die man mit 550mm2 in 28nm sicher hat) in dem ding zu verbauen.

kann ich mir ja fast nicht vorstellen :rolleyes:
Du weißt doch gar nicht wie effizient Kepler mit der Speicherbandbreite umgeht. Selbst GDDR5 @1375Mhz (der bei der HD6970 schon lange verbaut wird) liefert 264GB/s. Das sollte denke ich reichen. Eine GTX580 hat gegenüber einer GTX480 auch nur 8% mehr Speicherbandbreite. Und trotzdem liefert sie je nach Game ~20% mehr Leistung.

Noch lustiger wirds wenn du die GTX280 mit der GTX480 vergleichst. Letztere hat 25% mehr Speicherbandbreite. Um wieviel Prozent ist die GTX480 bei der Spieleleistung nochmal gegenüber der GTX280 schneller?

Ailuros
2012-02-07, 16:35:01
Er hat gesagt "halbwegs" Ergo wird es sowohl eine 384 als auch eine 512er Variante wohl geben.

Ich will ernsthaft bezweifeln dass es sowohl eine 384 als auch eine 512bit Variante geben wird. Halbwegs steht in diesem Fall dass es fuer mich noch nicht gesichert ist. Ich frag nochmal nach und bevorzuge "Quellen" mit einem sauberen Kopf :tongue:

One thing the mole said when he looked up with somewhat bleary eyes is that the chip definitely has a 384-bit memory bus.

Du weißt doch gar nicht wie effizient Kepler mit der Speicherbandbreite umgeht. Selbst GDDR5 @1375Mhz (der bei der HD6970 schon lange verbaut wird) liefert 264GB/s. Das sollte denke ich reichen. Eine GTX580 hat gegenüber einer GTX480 auch nur 8% mehr Speicherbandbreite. Und trotzdem liefert sie je nach Game ~20% mehr Leistung.

Noch lustiger wirds wenn du die GTX280 mit der GTX480 vergleichst. Letztere hat 25% mehr Speicherbandbreite. Um wieviel Prozent ist die GTX480 bei der Spieleleistung nochmal gegenüber der GTX280 schneller?

ROFL eben.

Gabs doch schon vor Wochen/Monaten die Gerüchte, dass der GK110 erst im August/September kommt. Würde ja auch noch in den Zeitplan von nVidia passen, binnen 3 Monaten alle Chips zu launchen, wenn die ersten Karten im Mai kommen. Ansonsten wird der Plan halt nicht eingehalten :rolleyes:

Echt? Nach diesen war GK110 bzw. GK112 je nach Bumsquelle eine 2*GK104 wobei meine Frage immer noch unbeantwortet bleibt wieso zum Henker eine mGPU einen dedizierten chip Codenamen haben wuerde. Ergo haben wir erstmal das Eingestaendnis dass GK11x anscheinend doch ein single high end chip ist und nicht irgend ein Bumsfallera multi-chip SKU.

104 war anfangs fuer Februar und 110 fuer April geplant. Die roadmap hat sich lediglich um zumindest einen Monat nach vorne verschoben. Nach Q3 ist tatsaechlich eine mGPU geplant mit Kepler chips.


Also von daher kann das durchaus sein. Wäre natürlich schon sehr beschämend/schlecht für nVidia, da ja spekuliert wird, dass der GK104 Tahiti XT eben NICHT knackt. Bzw. wenn, AMD eben auch noch nachlegen kann. Gehen wir einfach mal davon aus, das nVidia nicht vorbei kommt, dann hat AMD >6 Monate die S-GPU Leistungskrone bei sich, und mit der Dual-GPU dann wohl auch nochmals einige Monate Länger die absolute Leistungskrone.

Hat Dir hier jemand versichert dass GK104 eine TahitiXT "knacken" wird? Im besten Fall lag die nuechterne Schaetzung hier stets irgendwo zwischen PRO und XT und man sollte auch nicht mehr mit einem $299 MSRP erwarten. Selbst "nur" PRO Nivaeu ergibt ein ziemlich gut platziertes Produkt.

Zudem könnte man dann sich auch schon überlegen, bis wann der Refresh von Tahiti XT kommt. So binnen 12 Monaten ist durch aus drin, da der Prozess ja ganz neu ist, und man doch arge Probleme am Anfang hatte. Da könnte ein Refresh dann wohl in 3-6 Monaten nach einem August/September launch von GK110 kommen, und dann würde das unter Umständen echt bitter werden für nVidia.

Welcher GK110 jetzt genau? Denn anscheinend willst Du jeglichem Scheiss der im Netz kursiert glauben schenken. Sonst ist Charlie's Aussage ziemlich wage ueber den tape out und schmeisst auch den idiotischen stornierten GK100 Brei in den Topf, einfach weil er nicht einsehen kann dass der top dog schon sehr frueh als letzter chip geplant war. Nebenbei GK110 tape out kam etwas mehr als nur vor ein paar Wochen. Afaik nicht mal in diesem Jahr falls es helfen sollte.

Wo hat Charlie und co. den GK104 tape out genau mitbekommen und wann kam davon A1 aus dem Ofen?

Vor allem stellt sich dann eben auch die Frage, ob nVidia noch einen richtigen Refresh in der Schublade hat für 28nm, oder ob es das dann oben rum war? Das Ding wird ja sicherlich nicht als beschnittene Version kommen.

Ich erzaehlt Dir nach dem Kepler launch was NV genau anfangs fuer 32nm geplant hatte und diesen sobald sie ueber Cayman im klaren waren mit GF110 ersetzt haben.

Wenn aber nicht, dann bleibt ja auch nicht sooo viel Zeit, bis zum nächsten Shrink, wo man sicherlich nicht wieder Monate lang hinterherhinken will...

Also die ganze Sache bleibt auf jeden Fall dieses Jahr sehr spannend.

Sicher ist es spannend wenn man jeglichen aufgetischtem Mist glauben schenken will. Nochmal zum mitlesen: angeblich hat NV einen "GK100" bis zum tape out getrieben und dieser wurde dank verpfutschtem interconnect (welcher komischerweise auf GF110 keine Probleme vorgewiesen hat) storniert weil eben IHVs heutzutage so viel Resourcen verplempern koennen um ein so teures Projekt im Klo runterzuspuelen weil sie alle Intel sind. Noch schlimmer NV schaffte es in Null komma nichts Zeitraum einen "GK110" aufzulegen der aber auch soooo "problematisch" ist (ja ich weiss der interconnect Eureka!) dass er fast ganze 10 Monate vom tape out zum launch braucht *kopfschuettel*

=Floi=
2012-02-07, 16:44:04
wie viele transistoren wird ein 550mm² chip in 28nm ungefähr haben? kann man da wirklich 6 mrd realisieren?

AnarchX
2012-02-07, 16:46:06
Deutlich über 5 Mrd. sollten es schon sein.

Ailuros
2012-02-07, 16:49:58
wie viele transistoren wird ein 550mm² chip in 28nm ungefähr haben? kann man da wirklich 6 mrd realisieren?

Haengt von der Packdichte ab. Moeglich sind 6Mrd schon in 550mm2 theoretisch, aber fuer 110 klingt es mir zu viel.

Skysnake
2012-02-07, 17:00:27
Ich will ernsthaft bezweifeln dass es sowohl eine 384 als auch eine 512bit Variante geben wird. Halbwegs steht in diesem Fall dass es fuer mich noch nicht gesichert ist. Ich frag nochmal nach und bevorzuge "Quellen" mit einem sauberen Kopf :tongue:

Ich hab nur spekuliert hier. Kanns mir aber durchaus vorstellen, das ein beschnittener Chip mit einem kleineren Interface kommt, um die Kosten für den Consumerbereich nicht explodieren zu lassen. Könnte mir sogar vorstellen, dass die GeForce als 384er und die Tesla als 512er daher kommen. Da müsste man die DP-Leistung wohl auch nicht so stark beschneiden.

Völlig unlogisch hört sich das für mich nicht an, zumal das eben auch zur von mir spekulierten stärken HPC Fokusierung beim TopDog passen würde.


Echt? Nach diesen war GK110 bzw. GK112 je nach Bumsquelle eine 2*GK104 wobei meine Frage immer noch unbeantwortet bleibt wieso zum Henker eine mGPU einen dedizierten chip Codenamen haben wuerde. Ergo haben wir erstmal das Eingestaendnis dass GK11x anscheinend doch ein single high end chip ist und nicht irgend ein Bumsfallera multi-chip SKU.

Ich glaub denen allen nicht wirklich mehr irgend was. Die haben doch alle absolut keinen Plan und schappen entweder nur 1-2 kleine Fitzelchen an Infos auf, woraus sie die mords story machen ;D oder aber Sie werden direkt mit falschen Infos gefüttert.


104 war anfangs fuer Februar und 110 fuer April geplant. Die roadmap hat sich lediglich um zumindest einen Monat nach vorne verschoben. Nach Q3 ist tatsaechlich eine mGPU geplant mit Kepler chips.

Demnach sollte GK104 ja dann im März kommen und nicht erst im April, was dann für nVidia doch wieder rosiger wäre. Zumal wenn der GK110 wirklich im Mai dann kommt. So richtig dran glauben mag ich aber nicht. Ist mir aber auch total wurscht im Moment, ich kauf eh dieses Jahr keine Karte, egal wie schnell die Dinger werden. Auf ein paar Wochen mehr oder weniger kommt es da eh nicht an, zumal ich sehr stark daran zweifel, vor dem Launch wirklich noch irgendwas wirklich handfestes zu hören, was nicht direkt von nVidia kommt.

Das ist doch alles nur ein großer Mist, der im Umlauf ist, und wenn doch was wahres dran ist, kannste das einfach nicht mehr erkennen. Zu viel Bullshit bis jetzt einfach



Hat Dir hier jemand versichert dass GK104 eine TahitiXT "nicht knacken" wird? Im besten Fall lag die nuechterne Schaetzung hier stets irgendwo zwischen PRO und XT und man sollte auch nicht mehr mit einem $299 MSRP erwarten. Selbst "nur" PRO Nivaeu ergibt ein ziemlich gut platziertes Produkt.

Ich glaub du hast da ein nicht vergessen ;) Dann macht die Aussage im Bezug auf meine Aussage auch einen Sinn.

Ne, das hat keiner, und ich glaub auch, das GK104 zumindest an den aktuellen Tahiti XT ran kommen wird, aber ich denke nicht, das nVidia klar dran vorbei zieht, eher noch, das AMD notfalls nochmals mit der Taktschraube nachlegt. Ich erwarte zwar einiges von Kepler, aber nicht famose Mehrleistung bei etwa gleicher DIE-Space und weniger Verbrauch. Bei nVidia arbeiten auch nur Menschen :rolleyes:


Welcher GK110 jetzt genau? Denn anscheinend willst Du jeglichem Scheiss der im Netz kursiert glauben schenken. Sonst ist Charlie's Aussage ziemlich wage ueber den tape out und schmeisst auch den idiotischen stornierten GK100 Brei in den Topf, einfach weil er nicht einsehen kann dass der top dog schon sehr frueh als letzter chip geplant war. Nebenbei GK110 tape out kam etwas mehr als nur vor ein paar Wochen. Afaik nicht mal in diesem Jahr falls es helfen sollte.

Ehrliche Antwort?

Ja im Moment schon, wobei ich davon nichts wirklich glaube. Ich mach mir halt einen kleinen Spaß daraus, und überleg mir:"Was wäre wenn"

Aber wie gesagt, ich glaub nicht dran, dass da auch nur irgendwo ein relativ richtiges Bild bis jetzt genannt wurde. Da ist vielleicht hier mal was richtig und dort mal was, aber nichts wo >80% der Daten stimmen, womit man dann schon irgendwas über den Chip sagen könnte, zumal das eh alles fürn ARSCH ist mit Takt etc. so lange man nicht weiß, wie der chip aufgebaut wird, wie der Interconnect ist, und vor allem, wie die Caches aussehen in Verbindung mit der Energieffizienz.


Wo hat Charlie und co. den GK104 tape out genau mitbekommen und wann kam davon A1 aus dem Ofen?

Charlie hängt doch schon ne ganze Weile ziemlich in der Luft und bringt nur altes abgestandenes Zeug mit nem gewaltigen Bart dran, oder aber die reinsten Phantasierereien. Der Junge sollte man bischen an seinen Quellen arbeiten. Die haben nämlich verdammt nachgelassen. Nicht mal zum sich ammüsieren taugen die News mehr was. Da war pre Fermi deutlich lustiger und spannender. Da hab ich jeden Tag in die News rein geschaut, jetzt vielleicht noch einmal die Woche eher sogar nur alle 2-3.


Ich erzaehlt Dir nach dem Kepler launch was NV genau anfangs fuer 32nm geplant hatte und diesen sobald sie ueber Cayman im klaren waren mit GF110 ersetzt haben.

Tu das, ich finde solche Sachen eh viel interessanter, als der ganze Quark davor. Nur schein ich damit recht allein zu sein. Was wo wie wann dran war, scheint keine Sau zu interessieren.


Sicher ist es spannend wenn man jeglichen aufgetischtem Mist glauben schenken will. Nochmal zum mitlesen: angeblich hat NV einen "GK100" bis zum tape out getrieben und dieser wurde dank verpfutschtem interconnect (welcher komischerweise auf GF110 keine Probleme vorgewiesen hat) storniert weil eben IHVs heutzutage so viel Resourcen verplempern koennen um ein so teures Projekt im Klo runterzuspuelen weil sie alle Intel sind. Noch schlimmer NV schaffte es in Null komma nichts Zeitraum einen "GK110" aufzulegen der aber auch soooo "problematisch" ist (ja ich weiss der interconnect Eureka!) dass er fast ganze 10 Monate vom tape out zum launch braucht *kopfschuettel*
Was eben irgendwie auch nicht so ganz glaubwürdig klingt, bzw. in meinen Augen auch kein all zu gutes Licht auf nVidia Ingenieure werfen würde, was ich eher nicht glaube.

Im Prinzip ist es auch egal, weil wir bekommen eh nur das zu hören, was die wollen. Die echten Gründe werden wir doch nie im Leben erfahren....

Aber lass mir doch auch bischen meinen Spaß, jeden Mist auf zu blähen, vielleicht findet sich dann ja mal wieder ein mitleser, der das dann als die ultimative Wahrheit verbreitet ;D

Also nochmal kurz: Nur weil ich so euforisch bin, heißt das nicht, das ich da auch nur ein sterbens wörtchen von glaube ;)

Adam D.
2012-02-07, 17:21:21
Ich weiß, die Frage ist etwas merkwürdig, aber lässt sich schon in etwa abschätzen, wie lange das Board des GK104 werden könnte? Meine HD5850 soll nämlich in Rente geschickt werden, diese reizt die Breite meines Gehäuses aber bereits vollständig aus und ich hab die Befürchtung, dass ich mit Kepler neben einem neuen Netzteil auch noch ein neues Gehäuse brauch :usad:

Zergra
2012-02-07, 17:24:51
Ich weiß, die Frage ist etwas merkwürdig, aber lässt sich schon in etwa abschätzen, wie lange das Board des GK104 werden könnte? Meine HD5850 soll nämlich in Rente geschickt werden, diese reizt die Breite meines Gehäuses aber bereits vollständig aus und ich hab die Befürchtung, dass ich mit Kepler neben einem neuen Netzteil auch noch ein neues Gehäuse brauch :usad:
sollte eigentlich passen :D sonst einfach mit dem Hammer einmal ausbeulen oder Sägen :D:D:D

Ailuros
2012-02-07, 17:33:21
Ich hab nur spekuliert hier. Kanns mir aber durchaus vorstellen, das ein beschnittener Chip mit einem kleineren Interface kommt, um die Kosten für den Consumerbereich nicht explodieren zu lassen. Könnte mir sogar vorstellen, dass die GeForce als 384er und die Tesla als 512er daher kommen. Da müsste man die DP-Leistung wohl auch nicht so stark beschneiden.

Völlig unlogisch hört sich das für mich nicht an, zumal das eben auch zur von mir spekulierten stärken HPC Fokusierung beim TopDog passen würde.

Wenn GK110 einen 512bit bus haben sollte, dann wird es Varianten davon sowohl fuer HPC als auch fuer desktop geben.

Demnach sollte GK104 ja dann im März kommen und nicht erst im April, was dann für nVidia doch wieder rosiger wäre.

Ich sagte zumindest einen Monat weil sich selbst NV immer noch nicht sicher ist wie es den Kapazitaeten in den folgenden Monaten genau aussehen wird. Launch deadline fuer 104 ist April zum IB launch.

Zumal wenn der GK110 wirklich im Mai dann kommt. So richtig dran glauben mag ich aber nicht. Ist mir aber auch total wurscht im Moment, ich kauf eh dieses Jahr keine Karte, egal wie schnell die Dinger werden. Auf ein paar Wochen mehr oder weniger kommt es da eh nicht an, zumal ich sehr stark daran zweifel, vor dem Launch wirklich noch irgendwas wirklich handfestes zu hören, was nicht direkt von nVidia kommt.

Was soll direkt von NV kommen? Charlie behauptet es soll August/September in angeblichen vendor roadmaps stehen, genauso wie in vorigen vendor roadmaps und nach MSI Angestellten es NIE eine GK104 gab oder geben wird und die in diesen angegebene GTX680/2GB eine GK110 war. Auf vendor roadmaps stehen keine chip Codenamen noch weitere Details. Nur projezierte Zeitspanne und SKU Name; danach kann sich jeder vorstellen was er will.


Ich glaub du hast da ein nicht vergessen ;) Dann macht die Aussage im Bezug auf meine Aussage auch einen Sinn.

Ne, das hat keiner, und ich glaub auch, das GK104 zumindest an den aktuellen Tahiti XT ran kommen wird, aber ich denke nicht, das nVidia klar dran vorbei zieht, eher noch, das AMD notfalls nochmals mit der Taktschraube nachlegt. Ich erwarte zwar einiges von Kepler, aber nicht famose Mehrleistung bei etwa gleicher DIE-Space und weniger Verbrauch. Bei nVidia arbeiten auch nur Menschen :rolleyes:

Es war schon richtig formuliert. Egal was NV durch marketing zu verdrehen versuchen wird, GK104 wird eine XT nicht im Durschnitt schlagen koennen. Und genau so wurde es hier von Anfang an illustriert.



Charlie hängt doch schon ne ganze Weile ziemlich in der Luft und bringt nur altes abgestandenes Zeug mit nem gewaltigen Bart dran, oder aber die reinsten Phantasierereien. Der Junge sollte man bischen an seinen Quellen arbeiten. Die haben nämlich verdammt nachgelassen. Nicht mal zum sich ammüsieren taugen die News mehr was. Da war pre Fermi deutlich lustiger und spannender. Da hab ich jeden Tag in die News rein geschaut, jetzt vielleicht noch einmal die Woche eher sogar nur alle 2-3.

Was war genau daran spannend? Dass Fermi angeblich einen sw tessellator hat?

Tu das, ich finde solche Sachen eh viel interessanter, als der ganze Quark davor. Nur schein ich damit recht allein zu sein. Was wo wie wann dran war, scheint keine Sau zu interessieren.

Natuerlich interessiert es und ist alles andere als total irrelevant zur Debatte. Was bekommt man wenn man hypothetisch zwei Generationen mischt? Und gleich danach auf welchem der beiden Generationen ist dann der interconnect weniger "kaputt" damit man so etwas ueberhaupt auf die Beine stellen kann? Der Punkt hier ist dass ich keinen einzigen Beweiss gelesen oder gesehen habe dass seit GF110 der interconnect nicht wie erwartet funktionierte.

Was eben irgendwie auch nicht so ganz glaubwürdig klingt, bzw. in meinen Augen auch kein all zu gutes Licht auf nVidia Ingenieure werfen würde, was ich eher nicht glaube.

Im Prinzip ist es auch egal, weil wir bekommen eh nur das zu hören, was die wollen. Die echten Gründe werden wir doch nie im Leben erfahren....

Aber lass mir doch auch bischen meinen Spaß, jeden Mist auf zu blähen, vielleicht findet sich dann ja mal wieder ein mitleser, der das dann als die ultimative Wahrheit verbreitet ;D

Also nochmal kurz: Nur weil ich so euforisch bin, heißt das nicht, das ich da auch nur ein sterbens wörtchen von glaube ;)

GK110 hat keine brutal hoehere Frequenz im Vergleich zur GF110 core-Frequenz falls es helfen sollte. Natuerlich bei N mehr Chip-komplexitaet kann sich so einiges aendern, aber es ist eben auch so dass der Abstand 40 zu 28nm um einiges hoehere Komplexitaet erlaubt.

Ich weiß, die Frage ist etwas merkwürdig, aber lässt sich schon in etwa abschätzen, wie lange das Board des GK104 werden könnte? Meine HD5850 soll nämlich in Rente geschickt werden, diese reizt die Breite meines Gehäuses aber bereits vollständig aus und ich hab die Befürchtung, dass ich mit Kepler neben einem neuen Netzteil auch noch ein neues Gehäuse brauch :usad:

Kann man nicht schon jetzt einschaetzen; gross sind die Dinger auf jeden Fall nicht fuer ihre Kategorie. Sonst sind wir zwar kein Kaufsberatungs-forum hier aber ein relativ grosses Gehaeuse dass auch aeusserst gut gelueftet ist, ist keine schlechte Investition. Eher das Gegenteil.

Adam D.
2012-02-07, 17:37:17
Kann man nicht schon jetzt einschaetzen; gross sind die Dinger auf jeden Fall nicht fuer ihre Kategorie. Sonst sind wir zwar kein Kaufsberatungs-forum hier aber ein relativ grosses Gehaeuse dass auch aeusserst gut gelueftet ist, ist keine schlechte Investition. Eher das Gegenteil.
Klar, darum soll es ja auch gar nicht gehen, aber selbst eine HD7950 ist bereits über 2cm länger als eine HD5850 und ich kann halt schwer einschätzen, ob der Trend da immer weiter nach oben geht (hab's nur kurz mit den vergangenen zwei Generationen gecheckt). Bin mir sicher, dass ich nicht der einzige bin, der keinen Big Tower hat, wo man 'ne halbe Autobahn reinkriegt ;)

OgrEGT
2012-02-07, 17:46:47
Klar, darum soll es ja auch gar nicht gehen, aber selbst eine HD7950 ist bereits über 2cm länger als eine HD5850 und ich kann halt schwer einschätzen, ob der Trend da immer weiter nach oben geht (hab's nur kurz mit den vergangenen zwei Generationen gecheckt). Bin mir sicher, dass ich nicht der einzige bin, der keinen Big Tower hat, wo man 'ne halbe Autobahn reinkriegt ;)
Sorry for OT:

Schau Dir mal mein Case an... mATX und Du kriegst sogar SLI/CF rein... Die Karten können bis 36cm lang sein, nur wegen des Netzteils, das über den Karten sitzt, dürfen sie nur normal hoch sein :biggrin:

Hugo78
2012-02-07, 17:56:14
@Adam D

1. Wieso neues Netzteil, hast du noch ein < 450W?
2. Die Karte wird sicherlich wieder ein Design a la GTX 460 (21,5cm) - GTX 560Ti (23cm) bekommen.
Da bleibt nur die Frage, wo die Anschlüße liegen.
Zur Seitenwand hin oder wieder nach vorn in Richtung Gehäusefront.

Da wirds dann aber auch wieder Partnerdesigns geben für.

Adam D.
2012-02-07, 18:11:25
Sorry for OT:

Schau Dir mal mein Case an... mATX und Du kriegst sogar SLI/CF rein... Die Karten können bis 36cm lang sein, nur wegen des Netzteils, das über den Karten sitzt, dürfen sie nur normal hoch sein :biggrin:
Ich hab halt noch einen Festplatten-Käfig auf Höhe des PCI-E-Slots...

@Adam D

1. Wieso neues Netzteil, hast du noch ein < 450W?
2. Die Karte wird sicherlich wieder ein Design a la GTX 460 (21,5cm) - GTX 560Ti (23cm) bekommen.
Da bleibt nur die Frage, wo die Anschlüße liegen.
Zur Seitenwand hin oder wieder nach vorn in Richtung Gehäusefront.

Da wirds dann aber auch wieder Partnerdesigns geben für.
1. Jo, Seasonic 380W, das wird so langsam zu knapp.
2. Die Länge wäre optimal, wenn die Stromanschlüsse dann nicht auch noch gegen die Gehäusefront zeigen würden, wäre es perfekt.

Danke für die Hilfe, aber jetzt BTT :D

OgrEGT
2012-02-07, 18:15:31
Ich hab halt noch einen Festplatten-Käfig auf Höhe des PCI-E-Slots...

Ich hätte 2, aber zugunsten der GraKa nur einen mit 3 3.5 Einschüben.

OgrEGT
2012-02-07, 18:20:31
http://www.obr-hardware.com/2012/02/semiaccurace-is-absolutely-wrong-about.html

Schnell meine popcorn Tuete :biggrin: Ich sollte wohl eine Umfrage aufmachen, wie viele genau auf den PissX Quark reingefallen sind *grunz* Ok jetzt muss ich mir meinen eigenen weiteren Streich ausdenken denn Dennis hat wohl zu gute Arbeit diesmal geleistet ;)

Zitat von OBR:
PS. This is last Kepler info here till some chinese real leaks, with spec ... but i can tell you, REAL specs are floating web ... but you have to find them ... :) Closest to truth is this table: http://www.chiphell.com/thread-338350-1-1.html but not 100 percents! But very close!

Irgendeine Ahnung auf welche angeblichen "real specs" OBR anspielt, die man nur finden muss, sofern es die wirklich gibt...?

http://forum.beyond3d.com/showpost.php?p=1618396&postcount=1491
Since it's the infamous chiphell chart don't bet anything yet, because for some cases it could be closer to reality than many could imagine. As for the 3dmark scores as you can see in a former post above at least one has been circulating in the rumor mill for quite some time now, with the other two being most likely false assumptions since the chart has the GK110 so wrong (starting from the codename) that it's as silly as it can get. Someone from chiphell was merely reading german 3dcenter forum speculations and wrote a chart based on those; absense of any top dog details, it's no wonder that the happy go merry guesswork went as wrong as it did.

Na vielleicht sind das ja die Specs, von denen OBR gesprochen hatte...

Edit: Ach ist die gleiche Tabelle... :D
Na immerhin halten sie OBR als auch Ail beide für zumindest nahe an der Realität.
Müssen wir nur noch herausfinden was genau nicht stimmt :D

AwesomeSauce
2012-02-07, 18:35:21
Kleine Auflockerung:D: CharlieD <-> English
"double confirmed" = Le wild guess
"our sources" = random post on chiphell
"XXX will lose to YYY" = there's this one benchmark where YYY performs better
"internal performance estimate" = it's the best we could come up with
"our sources at XXX" = this guy got fired months ago
"We've seen the board" = someone described it in not too much detail
"it will be XX% faster" = In this one benchmark it is almost XX-1 faster
"leaked chart"= check out my guesstimates in excel
http://forum.beyond3d.com/showpost.php?p=1618263&postcount=1478

Skysnake
2012-02-07, 18:50:01
Der ist gut ;D

Zergra
2012-02-07, 18:53:15
:D made my day :P

Ailuros
2012-02-07, 19:33:51
Ok es wird so langsam Zeit dass wir uns auf die GK110 specs konzentrieren:

4*32SPs/SM
8 TMUs/SM
4 SMs/GPC
8 GPCs
64 ROPs
850MHz

Mal sehen wie viele fans wir wirklich haben.

mapel110
2012-02-07, 19:35:44
256 TMUs wären wohl ein bisschen viel?!

Ailuros
2012-02-07, 19:37:52
256 TMUs wären wohl ein bisschen viel?!

Wieso?

AwesomeSauce
2012-02-07, 19:39:10
256 TMUs wären wohl ein bisschen viel?!
Als wenn nur die TMUs bisschen viel wären:freak:

boxleitnerb
2012-02-07, 19:39:16
4096SP...Hilfe.
Das wären ja knapp 7 TFlops. Forget it.

Ich glaube, das stimmt schon so...aber geteilt durch zwei. 128 TMUs, 2048SP.

Knuddelbearli
2012-02-07, 19:42:08
oder GK110 ist die dualkarte dann passts doch ^^

Ailuros
2012-02-07, 19:42:18
4:1

mapel110
2012-02-07, 19:43:57
Als wenn nur die TMUs bisschen viel wären:freak:
GK104 hat ja nur 3B Transistoren. Da kann man theoretisch jedenfalls einiges verdoppeln oder je nach Gewichtung gar vervierfachen.

boxleitnerb
2012-02-07, 19:44:07
Und du meinst nicht, die Lücke zu GK104 ist "etwas" groß? Der versteckt sich doch in der Ecke und heult, wenn er den großen Bruder sieht. Das wäre ja wie GTX550 vs. GTX580 in der Richtung...

mapel110
2012-02-07, 19:47:03
Und du meinst nicht, die Lücke zu GK104 ist "etwas" groß? Der versteckt sich doch in der Ecke und heult, wenn er den großen Bruder sieht. Das wäre ja wie GTX550 vs. GTX580 in der Richtung...
Das würde nur passieren, wenn man alles mitskaliert, Aber weil GK110 ja für den Profimarkt gedacht ist, wird er wohl gerade in Sachen TMUs beschnitten sein. Die sind in dem Bereich doch afaik weit weniger wichtig
.

Hauwech
2012-02-07, 19:47:18
http://www.tomshardware.de/Nvidia-Kepler-GK110-GK104-GK106,news-247000.html

Laut THG 1000 Dollarse fürs Topmodell...

Ailuros
2012-02-07, 19:49:07
http://www.tomshardware.de/Nvidia-Kepler-GK110-GK104-GK106,news-247000.html

Laut THG 1000 Dollarse fürs Topmodell...

Lenzfire Mist ahoi.

boxleitnerb
2012-02-07, 19:49:55
Das würde nur passieren, wenn man alles mitskaliert, Aber weil GK110 ja für den Profimarkt gedacht ist, wird er wohl gerade in Sachen TMUs beschnitten sein. Die sind in dem Bereich doch afaik weit weniger wichtig
.

Warum dann Quantität statt Qualität? Sollte das nicht etwas Platz sparen? Wozu 256 im Vergleich ineffiziente TMUs verbauen z.B.?

AwesomeSauce
2012-02-07, 19:51:45
http://www.tomshardware.de/Nvidia-Kepler-GK110-GK104-GK106,news-247000.html

Laut THG 1000 Dollarse fürs Topmodell...
Ja ist denn gerade fröhliche Ratestunde mit Jen-Hsun Huang?;D

Iruwen
2012-02-07, 19:55:33
Wäre natürlich schon sehr beschämend/schlecht für nVidia, da ja spekuliert wird, dass der GK104 Tahiti XT eben NICHT knackt. [...] S-GPU Leistungskrone bei sich, und mit der Dual-GPU dann wohl auch nochmals einige Monate Länger die absolute Leistungskrone. [...] Da könnte ein Refresh dann wohl in 3-6 Monaten nach einem August/September launch von GK110 kommen, und dann würde das unter Umständen echt bitter werden für nVidia.

Und während AMD sich über die Leistungskrone freut verdient sich Nvidia dumm und dämlich weil sie's diesmal richtig machen und die Chips mit denen man die größten Gewinne macht zuerst bringen. Was soll daran beschämend, schlecht oder bitter sein.


Na immerhin halten sie OBR als auch Ail beide für zumindest nahe an der Realität.

Vielleicht hat OBR auch nur hier aufgeschnappt dass Ail die Tabelle größtenteils für richtig hält und käut das wieder ;)

fondness
2012-02-07, 19:59:12
4096SP...Hilfe.
Das wären ja knapp 7 TFlops. Forget it.

Ich glaube, das stimmt schon so...aber geteilt durch zwei. 128 TMUs, 2048SP.

Warum nicht? Wenn man ein AMD-ähnliche Architektur wählt wären 4096SPs bei >500mm² allemal möglich, noch dazu wenn man nur eine 384-bit Bus verbaut.

foenfrisur
2012-02-07, 20:00:35
weil amd ja auch keine kleineren ableger von tahiti bringen wird :rolleyes:

prestige/performance zählt nunmal mehr um gute werbung für ein neues produkt zu machen.

ich finde es in ordnung.

mfg

boxleitnerb
2012-02-07, 20:03:00
Warum nicht? Wenn man ein AMD-ähnliche Architektur wählt wären 4096SPs bei >500mm² allemal möglich, noch dazu wenn man nur eine 384-bit Bus verbaut.

Und wo ist das nötig? Was hat Nvidia dann für den Refresh übrig? Kein IHV bringt ein Produkt, dass die Konkurrenz dermaßen vernichtet, wenn es nicht nötig ist. Ein komfortabler Vorsprung von 20-30% ist zu erwarten, mehr aber nicht.

Ailuros
2012-02-07, 20:05:35
Und wo ist das nötig?

Billigeres DP als je zuvor.

Was hat Nvidia dann für den Refresh übrig? Kein IHV bringt ein Produkt, dass die Konkurrenz dermaßen vernichtet, wenn es nicht nötig ist. Ein komfortabler Vorsprung von 20-30% ist zu erwarten, mehr aber nicht.

Ich will heute offensichtlich nicht besonders bescheiden sein.

boxleitnerb
2012-02-07, 20:15:24
Schon klar ;)

Hugo
2012-02-07, 20:29:21
Ok es wird so langsam Zeit dass wir uns auf die GK110 specs konzentrieren:

4*32SPs/SM
8 TMUs/SM
4 SMs/GPC
8 GPCs
64 ROPs
850MHz

Mal sehen wie viele fans wir wirklich haben.
4096SP...Hilfe.



könnt doch gut hinkommen. Ich denk GK104 hat auch mehr als 1500 SPs?

4096SP...Hilfe.
Das wären ja knapp 7 TFlops. Forget it.

Ich glaube, das stimmt schon so...aber geteilt durch zwei. 128 TMUs, 2048SP.

die frage is ja auch was von den angenommen 7TFlops auf die Straße kommt


Und wo ist das nötig? Was hat Nvidia dann für den Refresh übrig? Kein IHV bringt ein Produkt, dass die Konkurrenz dermaßen vernichtet, wenn es nicht nötig ist. Ein komfortabler Vorsprung von 20-30% ist zu erwarten, mehr aber nicht.

Refresh wird es vielleicht keinen geben?

Godmode
2012-02-07, 20:34:56
prestige/performance zählt nunmal mehr um gute werbung für ein neues produkt zu machen.

mfg

Ich frage mich schon seit längerem ob das noch so stimmt? Nvidia hat jetzt seit der GTX 8800 immer das schnellere Modell, aber hat ihnen das jetzt soviel mehr gebracht Umsatz/Gewinn gebracht?

Skysnake
2012-02-07, 20:37:54
Ok es wird so langsam Zeit dass wir uns auf die GK110 specs konzentrieren:

4*32SPs/SM
8 TMUs/SM
4 SMs/GPC
8 GPCs
64 ROPs
850MHz

Mal sehen wie viele fans wir wirklich haben.

Ich wusste doch, das dir was unter den Fingern brennt :biggrin: Man merkt dir absolut an, wenn du was los werden willst. Dann zerpflückste nämlich immer meine Beiträge brutalst und interpretierst auch noch Sachen rein, die nicht stimmen :P

Die 4*32 SPs/SM klingen schon mal vernünftig. 4 ist ne schöne Zahl in nem Binärsystem. Die 3er vom GF1x4 sind totaler Rotz. Das erwartet man auch, wenn der Hotclock weg fällt. Damit würden nämlich in der gleichen Taktanzahl die Warps verarbeitet.

4SMs/GPC passt auch. Das sich AMD und nVidia aufgrund von OpenCL annähern war ja schon lange abzusehen. Wahrscheinlich ändert sich das Sheduling auch in die Richtung wie bei GCN, womit man die Datenabhängigkeiten dann eliminieren kann.
Eventuell sieht man darin auch die Aufspaltung des Registerfiles. nVidia hat ja ganz klar durchblicken lassen, das man da was machen muss wegen der Energie, die man braucht um die Daten über den Chip zu jagen aus einem zentralen Registerfile.
Mit den 4SMs/GPC hätte man ja schon effektiv einen halben Fermi dastehen. Da würde es also auch wirklich sinn machen, distributed Registerfiles zu haben, ohne sich komplett von der bisherigen Architektur zu verabschieden.

Naja und 8 GPCs passen dann auch. Man muss ja auf genug Einheiten kommen. Das passt schon so. Man hat halt praktisch 8 halbe GF1x0 auf einem Chip. Das sollte der Software auch gut schmecken und gleichzeitig einiges an Optimierungspotenzial für die benötigte Effizienzsteigerung (Perf/W) bringen.

Wir hätten damit dann eine SP Rechenleistung von 3481,6 GFLop/s. Das passt ja auch recht gut zu den Werten, die AMD hat mit ihrem Chip, wobei man für nVidia eine höhere Effizienz bzgl. reale_GFLops/theretosche_GFLops erwarten darf.

Der Größenunterschied passt dann ja auch recht gut, mit den ~500mm² für GK1x0. Die Einheiten müssen halt wo unter gebracht werden, wobei man eben viel einspart je Einheit, da man kein Hotclock mehr hat.

1:2 DP wird dann wohl auch bleiben. Man muss ja MIC konkurrenz machen, der über 1 TFLop/s DP bringt in DGEMM. Das sollte dann mit GK110 auch drin sein mit den Werten. Sind ja 1740,8 GFLop/s. Wenn man da die aktuelle Effizienz berücksichtigt, also bei 665 GFLop/s dann real ~360 GFLop/s, kommen wir auf ~942,4 GFLop/s bei DGEMM. Das wäre echt konkurrenzfähig im Gegensatz zu AMD, wenn die nicht doch noch 1:2 auspacken für ihre Fire-Pro Karten.

Danke Ailuros jetzt wissen wir endlich mal bescheid :biggrin:

Ailuros
2012-02-07, 20:45:19
Es sind 6963 und nicht 3481,6 GFLOPs. Durch 4 = 1741 GFLOPs DP (theoretisch).

Skysnake
2012-02-07, 20:45:27
die frage is ja auch was von den angenommen 7TFlops auf die Straße kommt
Du vergisst den Wegfall des HotClocks.

Der fällt doch weg oder hab ich da grad was überlesen?

Ich bin so aufgeregt. :biggrin: Endlich INFOS ;D

Godmode
2012-02-07, 20:53:42
Du vergisst den Wegfall des HotClocks.

Der fällt doch weg oder hab ich da grad was überlesen?

Ich bin so aufgeregt. :biggrin: Endlich INFOS ;D

Jeder SP bringt 2 FLOPS.

2*4*32*4*8*0.85 = 6.963 GFLOPS

Skysnake
2012-02-07, 20:59:13
Äh ja -.- MATMUL vergessen... Oh man......

Ich hab eindeutig zu viel OpenCL für meine Klausur im Kopf -.-

Dann sinds wirklich 7 TFLop/s beim Wegfall von HotClocks, wovon wir ja ausgehen. Da sind die 1:4 auch realistisch. Damit würde man ja immer noch auf die 1,7TFlops kommen in DP.

Hm... Deswegen sind so viele Einheiten wahrscheinlich erst möglich. HotClock fällt weg, damit schon mal deutlich mehr EInheiten möglich, und dann noch 1:4 statt 1:2, was die SPs ja auch wieder deutlich einfacher macht, und damit kleiner.

Das sollte echt eine sehr sehr gute Effizienz (Perf/W) erwarten lassen, was ja nVidia auch die ganze Zeit gesagt hat.

Wie seht ihr das mit den TMUs etc? Bin was das Graphiks Zeug angeht nicht so bewandert.

Godmode
2012-02-07, 21:02:57
Das sollte echt eine sehr sehr gute Effizienz (Perf/W) erwarten lassen, was ja nVidia auch die ganze Zeit gesagt hat.

Wie seht ihr das mit den TMUs etc? Bin was das Graphiks Zeug angeht nicht so bewandert.

Hätte nicht erwartet das Kepler so dermaßen anders wird.

Also wenn sie die TMUs etwas einfacher machen, kann ich mir die 256 auch durchaus vorstellen. 256 Fermi TMUs glaube ich allerdings nicht. Insgesamt dürfte die Karten ordentlich Leistung bringen, auch auf der Grafikseite.

Edit:
Interessant dürfte auch sein, wie GK104 im Vergleich zu GK110 steht. Hat der vielleicht einen anderen Aufbau, also nicht einfach weniger GPCs?

Nightspider
2012-02-07, 21:04:34
Ich seh schon, hier werden sich viele erst eine GK104 Karte kaufen um diese wenige Monate später schon wieder gegen eine GK110 Karte eintauschen zu können. :D

Zergra
2012-02-07, 21:09:51
Ich seh schon, hier werden sich viele erst eine GK104 Karte kaufen um diese wenige Monate später schon wieder gegen eine GK110 Karte eintauschen zu können. :D
wenn man zuviel Geld hat :D vorallem der Wertverlust wird enorm sein :O

Skysnake
2012-02-07, 21:14:05
Hätte nicht erwartet das Kepler so dermaßen anders wird.

Also wenn sie die TMUs etwas einfacher machen, kann ich mir die 256 auch durchaus vorstellen. 256 Fermi TMUs glaube ich allerdings nicht. Insgesamt dürfte die Karten ordentlich Leistung bringen, auch auf der Grafikseite.

Edit:
Interessant dürfte auch sein, wie GK104 im Vergleich zu GK110 steht. Hat der vielleicht einen anderen Aufbau, also nicht einfach weniger GPCs?
Ich spekulier mal:

Du hast ja schon 4x32 SPs in einem SM. Da nochmal mehr drauf hauen.. Keine Ahnung. Könnte auch auf die 6x32 SPs äquivalent zu GF104 mit mehr Einheiten statt HotClock raus laufen, muss aber nicht. Klingt durchaus stimmig, da so wie es scheint, an einem GPC jeweils ein doppel RAM-Controller dran hängt, womit man dann bei 8 GPCs auf das 512 Bit Interface des GK110 kommt, und mit 4 auf das 256er vom GK104.

Da würde es eventuell echt sinn machen, wie beim GF1x4 die Shader Anzahl zu erhöhen. Sollte wohl ähnlich wie beim GF1x4 kein Problem sein, und da das Speicherinterface schlecht skaliert, sollte selbst mit 6x32 SPs immer noch unter Tahiti XT bleiben, was die Größe anbetrifft.

Klingt echt gut alles :biggrin:

Aber ich muss jetzt weg -.- Olle Klausur morgen... -.-

Endlich gibts Infos und ich hab keine Zeit ;(

crux2005
2012-02-08, 03:49:12
http://i.imgur.com/E2s3u.gif

Buhahah :D

foenfrisur
2012-02-08, 07:40:17
donnerwetter. diese fülle an neuigkeiten.

aber wären 2gb nicht schon fast wieder zu wenig und ein rückschritt?

mfg

Henroldus
2012-02-08, 08:10:23
donnerwetter. diese fülle an neuigkeiten.

aber wären 2gb nicht schon fast wieder zu wenig und ein rückschritt?

mfg
Nur weil AMD 3GB hat?
die GTX 580 hat normalerweise 1,5 insofern ist es sicher kein Rückschritt und wird bis auf Sonderfälle fast immer ausreichen.

Godmode
2012-02-08, 08:26:56
donnerwetter. diese fülle an neuigkeiten.

aber wären 2gb nicht schon fast wieder zu wenig und ein rückschritt?

mfg

Naja ist ja "nur" der GK104.

Adam D.
2012-02-08, 08:34:01
Naja ist ja "nur" der GK104.
Wieso sollte eine "GTX 680" auf einem GK104 basieren?

gedi
2012-02-08, 08:38:52
Wegen dem SI

Godmode
2012-02-08, 08:42:13
Wieso sollte eine "GTX 680" auf einem GK104 basieren?

Ail meinte mal dass sie GK104 in den Benchmarks schon so hinstellen werden, dass er besser ist als Tahiti XT. Von daher gehe ich davon aus, dass sie diesen wirklich als Nachfolger der GTX 580 verkaufen wollen.

Godmode
2012-02-08, 08:49:08
Ich spekulier mal:

Du hast ja schon 4x32 SPs in einem SM. Da nochmal mehr drauf hauen.. Keine Ahnung. Könnte auch auf die 6x32 SPs äquivalent zu GF104 mit mehr Einheiten statt HotClock raus laufen, muss aber nicht. Klingt durchaus stimmig, da so wie es scheint, an einem GPC jeweils ein doppel RAM-Controller dran hängt, womit man dann bei 8 GPCs auf das 512 Bit Interface des GK110 kommt, und mit 4 auf das 256er vom GK104.

Da würde es eventuell echt sinn machen, wie beim GF1x4 die Shader Anzahl zu erhöhen. Sollte wohl ähnlich wie beim GF1x4 kein Problem sein, und da das Speicherinterface schlecht skaliert, sollte selbst mit 6x32 SPs immer noch unter Tahiti XT bleiben, was die Größe anbetrifft.

Klingt echt gut alles :biggrin:

Aber ich muss jetzt weg -.- Olle Klausur morgen... -.-

Endlich gibts Infos und ich hab keine Zeit ;(

Hmm noch mehr Rechenleistung, ich weiß nicht?

Eigentlich ist GK104 ein halber GK110 aber mit höheren Clocks. Wenn wir wirklich die 1.1 GHz sehen haben wir: 4.505 TFlops SP. Irgendwo standen aber mal mehr als 3 zur Debatte, wo dann 4.5 wieder zuviel sind?

Wenn wir nur 96 SPs in GK104 stopfen statt 128 käme man auf 3.379 GFlops, was dann aber wieder einen recht großen Abstand zum GK110 ergibt?

Also es bleibt weiter spannend!
gl hf für die Klausur :biggrin:

mboeller
2012-02-08, 09:04:07
Es sind 6963 und nicht 3481,6 GFLOPs. Durch 4 = 1741 GFLOPs DP (theoretisch).


Ahh, eine Single-core Highend-Karte mit >350W. Jedenfalls wenn die Infos von Nvidia zum Kepler-Verbrauch stimmen.

1741/5Flops-pro-W = ~350W

Nett. Da wird ja glatt die HD7990 sparsamer sein.

Hugo78
2012-02-08, 09:17:07
Nvidia hat auf ihrer Folie Fermi bei unter 2DP/ Watt, aber schon die M2090 hat 2,95 DP/Watt.
Kepler liegt auf der Folie bei knapp unter 6DP/ Watt.
Mit der selben Analogie wie beim schnellsten Fermi, kannst du bei Kepler auch bei 250W landen.

edit: Und auch wenns nur 6 werden, dann kommt man bei 290W raus.

Adam D.
2012-02-08, 09:55:54
Ail meinte mal dass sie GK104 in den Benchmarks schon so hinstellen werden, dass er besser ist als Tahiti XT. Von daher gehe ich davon aus, dass sie diesen wirklich als Nachfolger der GTX 580 verkaufen wollen.
Wenn der GK104 im Vollausbau schon die 680 wird, was erwartest du dann vom Gk110 in seinen 2 Ausbaustufen und einem späteren Refresh?

MorPheuZ
2012-02-08, 11:02:23
GTX 770 / 780

Godmode
2012-02-08, 11:04:56
Wenn der GK104 im Vollausbau schon die 680 wird, was erwartest du dann vom Gk110 in seinen 2 Ausbaustufen und einem späteren Refresh?

Ka, auf jeden Fall kann ich mir vorstellen, dass sie das Namensspielchen spielen, wie schon so oft auf beiden Seiten.

Spasstiger
2012-02-08, 11:06:52
Nvidia hat auf ihrer Folie Fermi bei unter 2DP/ Watt, aber schon die M2090 hat 2,95 DP/Watt..
Es gibt verschiedene Fermi-Teslas, die M2090 ist davon die energieeffizienteste. In solchen Vergleichsbildchen macht es sich aber natürlich gut, wenn man die ineffizienteste Variante (Tesla C2070, 2,1 GFlops/Watt) darstellt, um den Fortschritt deutlicher aufzuzeigen.
Außerdem war bei der Grafik nicht deutlich, wo jetzt genau die Marker sitzen. Augenscheinlich sind es nicht die Mittelpunkte der Chipbildchen.

edit: Und auch wenns nur 6 werden, dann kommt man bei 290W raus.
Die 6 DP-GFlops pro Watt gelten aber für Tesla und nicht unbedingt für taktmäßig hochgezüchtete Desktop-Varianten.

Adam D.
2012-02-08, 11:14:04
Ka, auf jeden Fall kann ich mir vorstellen, dass sie das Namensspielchen spielen, wie schon so oft auf beiden Seiten.
Kann schon sein, aber IMO lässt das einfach nicht genug Spielraum. Ob sie für den GK110 einen 100er-Sprung wagen, kann ich mir irgendwie nicht vorstellen, so viel schneller wird er wohl nicht werden. Auf der anderen Seite sind die Namen auch nur Schall und Rauch.

dargo
2012-02-08, 11:14:54
donnerwetter. diese fülle an neuigkeiten.

aber wären 2gb nicht schon fast wieder zu wenig und ein rückschritt?

mfg
2GB Vram reichen für einen GK104 vollkommen aus. Und wenn die 256Bit SI stimmen kann es sich nur um den GK104 handeln.

Ailuros
2012-02-08, 11:43:12
Wie oft muss man noch sagen dass die GTX680 auf einem GK104 basiert? Ja ich weiss dass der Name bloed klingt, aber haette jemand nicht mit Absicht den Rest der Daten auf der Folie ausgewischt wuerdet Ihr sofort sehen um was es sich handelt.

Schaffe89
2012-02-08, 11:49:32
Und wie sieht es mit der TDP aus?
Wenn der Hotclock wegfällt und man GK104 mit AMD ähnlichen Shadern vollpumpt um an der HD7970 kratzen zu können, dies aber mit einem 256bit SI anstellen will, wird man die GDDR5 Taktraten relativ hoch ansetzen müssen und aufgrund des etwas kleineren Chips wohl auch die Chiptakraten.
>200 Watt TDP @ Ailuros? :D

AnarchX
2012-02-08, 11:51:08
Wie oft muss man noch sagen dass die GTX680 auf einem GK104 basiert? Ja ich weiss dass der Name bloed klingt, aber haette jemand nicht mit Absicht den Rest der Daten auf der Folie ausgewischt wuerdet Ihr sofort sehen um was es sich handelt.
Fragt sich nur als was es verkauf wird (Preis)? ;)

@ DP-GFLOPs /Watt:

Die letzte Roadmap (http://img5.pcpop.com/ArticleImages/500x375/2/2241/002241127.jpg) sprach ja von "sustained GFLOPs /Watt", was wohl nicht viel mit den theoretischen ~1,7 TFLOPs zu tun haben muss.

Demnach liegt wohl GF100 doch etwas unter 2 und Kepler könnte fast bei 6 liegen. Wenn man da vernünftig ist, wohl ~1,2 TFLOPs DP (sustained) bei ~225W. Aber vielleicht auch nur ~1 TFLOPs, wenn die Karte im DP Mode <200W benötigt.

Hugo78
2012-02-08, 11:58:22
Es gibt verschiedene Fermi-Teslas, die M2090 ist davon die energieeffizienteste.

Fermi war der Worstcase und Nvidia wird abseits von prozessbedingten Verlusten, nicht wieder so lange brauchen, bis sie ihr möglichstes Optimum erreichen.

Die 6 DP-GFlops pro Watt gelten aber für Tesla und nicht unbedingt für taktmäßig hochgezüchtete Desktop-Varianten.

Doch weil wir hier schon von 250-300W sprechen und die 850Mhz, die Ailuros in den Raum geworfen hat, nicht grad wenig sind.

Intel meint, die Kepler Teslas werden bei 1,3 GFLOPs DP landen.

Jetzt haben wir einen Spitzenwert von 1,741 GFLOP für sagen wir mal die 290W Version und um auf 225W zugelangen wo die max. TDP im HPC Bereich liegt,
müsste man also davon 77,5% nehmen, damit kommt man dann auf genau die 1,349 GFLOP.

Ronny145
2012-02-08, 11:59:52
Kein Displayport auf der Folie?

AnarchX
2012-02-08, 12:01:21
Kein Displayport auf der Folie?
Sieht in der Tat danach aus, als ob es immernoch keinen Eyefinity Clone gibt.

btw.
Ein paar schlüssige Daten zu GK107-SKUs:
The next generation of Kepler in the low-end products by GK107 flagship, which is used for the retail market is the GeForce GTX 650 core GK107-450 is similar to the GTS 550 this position.

The following three main is used as the OEM market, namely the GeForce GT 640 (GK107-400), the GT 630 (GK107-200), GT 640 (GK107-320) named, that is to replace the GT 440/430 of these products the.
http://bbs.expreview.com/thread-49239-1-1.html

Die GTX 650 auf GK107-Basis, als wohl eher geringfügiges Upgrade gegenüber der 550Ti, passt auch zur GK104-GTX 680.

Hugo78
2012-02-08, 12:05:22
@Ronny145

Diese Folie?
http://i.imgur.com/E2s3u.gif

Ich glaub nicht das Nvidia 1:1 das Design der kleinen GTX 460 für die GTX680 übernimmt. :ulol:

Die Kühlung wird sicher ähnlich, aber schon allein für den Wiedererkennungswert, wäre es fatal hier das gleiche Design zunehmen.

Hübie
2012-02-08, 12:06:34
Wieso muss es unbedingt Displayport für Eyefinity sein? :confused:

Edit: 2*DVI? :|

yamo
2012-02-08, 13:04:52
Die hier kolportierten 2GB für den GK104 lassen mir keine Ruhe.
Lässt das indirekt auf die Performance schliessen, insbesondere bei hohen Auflösungen/DS? Oder skaliert der Vram weiterhin schlechter, als bei AMD (was ich befürchte).
Eine GTX 580 3 GB rennt dort, wo sich der zusätzliche Speicher positiv auswirken könnte, ins GPU-Limit.
2 GB könnte der goldene Schnitt zwischen GPU Performance und Speicherskalierung bilden.
Fatal wäre es umgekehrt zu 580 3GB: Leistung satt ist da, aber der Vram läuft über...

guest_29132
2012-02-08, 13:14:49
Wie soll so ein Sweet Spot den aussehen? Das die Zahl der Spiele die in Einstellung x von mehr als 2 GB profitieren würden, < n ist?
GPU-Last und Speicherlast sind variabel.

Adam D.
2012-02-08, 13:15:50
Der GK104 landet im Performance-Segment (was auch immer das heißen mag), die Karten sind normalerweise nicht für die ganz exzessiven Auflösungen mit SS gedacht. Daher sollten die 2GB eigentlich kein Problem darstellen.