PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

foenfrisur
2012-01-17, 17:54:03
und wegen eines nicht verfügbaren produktes, wirr jeder noch so "geilen" news hinterherschnüffeln und etwas hinzuzuspekulieren ist wie playboy lesen ohne heft und dann auch noch im dunkeln.

dann lese ich lieber den playboy und hab nix zum anfassen ;)

mfg

Skysnake
2012-01-17, 18:21:32
Paperlaunch is wie Playboy lesen, erst heißmachen und dann gibts nix zum Anfassen.
Der verkauft sich aber bekanntlich verdammt gut ;)

Die Leute scheinen also durchaus gefallen daran zu haben ;D

Zergra
2012-01-17, 18:57:03
Der verkauft sich aber bekanntlich verdammt gut ;)

Die Leute scheinen also durchaus gefallen daran zu haben ;D
stimmt ich frage mich was NV davon hat das zu verheimlichen.. vllt. bleiben die ja hinter den Erwartungen zurück (sonst würden sie ja AMD lieber etwas ärgern und das schon vorher machen) -.- naja lassen wir uns überraschen

Ailuros
2012-01-17, 19:05:49
Idiotische Raetselraterei sequel2: eine der drei Ueberraschungen fuer Kepler da sie bei CES nichts gezeigt haben ist schon mal weg.

Soul
2012-01-17, 19:16:19
Wenn man meldet, dass die neuen Keplerkarten schon viel früher kommen in welcher Form auch immer, dann versucht man AMD Käufer aufzuhalten so nach dem Motto, "wartet noch ein wenig mit eurer Kohle bis unser Teil da ist".

Ist doch alles Marketing ;)

Ailuros
2012-01-17, 19:26:25
Wenn man meldet, dass die neuen Keplerkarten schon viel früher kommen in welcher Form auch immer, dann versucht man AMD Käufer aufzuhalten so nach dem Motto, "wartet noch ein wenig mit eurer Kohle bis unser Teil da ist".

Ist doch alles Marketing ;)

Wo ist dann mein check bitte? Und nein es ist kein Scherz. Es gab keine gezielten leaks seitens NV und schon gar nicht wichtige Einzelheiten die nur wir hier hauptsaechlich im Spekulationsforum ans Tageslicht brachten. Deshalb ist lediglich nur eine einzige Kolumne auf dem chiphell Bildchen fast zu 100% korrekt, der Rest zum heulen falsch und sonst schwirrt nur Bloedsinn rum. Es hat auch noch keiner bis jetzt den richtigen (finalen) launch-Monat fuer GK104 bis jetzt getroffen.

Raff
2012-01-17, 19:35:18
Dann triff doch mal. Du kannst dir auch gern einen Zweitaccount anlegen. :tongue:

MfG,
Raff

Ronny145
2012-01-17, 19:41:03
Februar bis April waren die meist genannten Launch Monate. Das wäre ja dann kein gutes (Vor)Zeichen wenn keiner von den Monaten trifft. Was mir im GPU Bereich fehlt sind Roadmaps. Bei den CPUs kann man sich das schön im Voraus planen. Kauft man sich jetzt eine GTX 580 und GK104 kommt mit ähnlicher Leistung aber weniger Verbrauch einen Monat später, wäre das ärgerlich.

Skysnake
2012-01-17, 19:50:00
Du denkst zu geradlinig ;)

Es kann auch bedeuten, die Karte wird im Januar noch gelaunched, weil AMD ja bekanntlich 7970 vorgezogen hat, und wohl auch die 7950 auf Ende Januar vorzieht vom 9 Feb, soweit ich das richtig in Erinnerung habe.

Ronny145
2012-01-17, 20:05:14
Januar geht nur noch 2 Wochen, den habe ich mal ausgeschlossen. Dann müsste es mindestens Indizien dafür geben. Ein vorgelegter 7950 launch ist kein Indiz für mich. 7970 launch wurde doch auch vorgelegt, von Kepler trotzdem noch keine Spur.

Ailuros
2012-01-17, 20:18:35
Februar bis April waren die meist genannten Launch Monate.

Ja aber welcher Monat fuer welches Produkt genau.

Das wäre ja dann kein gutes (Vor)Zeichen wenn keiner von den Monaten trifft.

Vor dem Osterhasen wird es schon sein. Nur was genau ist dann eben die Frage.

Was mir im GPU Bereich fehlt sind Roadmaps. Bei den CPUs kann man sich das schön im Voraus planen.

Und was passiert wenn jemand basierend auf einer roadmap auf Bulldozer gewartet hat? :biggrin:

Kauft man sich jetzt eine GTX 580 und GK104 kommt mit ähnlicher Leistung aber weniger Verbrauch einen Monat später, wäre das ärgerlich.

Bei etlichen Monaten waere es nicht so stark aergerlich. Bei wenigen schon.

Skysnake,

Nein.

Dann triff doch mal. Du kannst dir auch gern einen Zweitaccount anlegen. :tongue:

MfG,
Raff

Offensichtlicher Scherz, aber ich wuerde es selbst als einfacher User nicht machen.

Ronny145
2012-01-17, 21:16:38
Ja aber welcher Monat fuer welches Produkt genau.


Mai für GK104 und April GK110. Mai wurde noch nicht genannt im Bezug zu GK104.

Zergra
2012-01-17, 21:22:55
Juni GK 100 ? dann kommt das ja hin

Ronny145
2012-01-17, 21:25:18
Juni GK 100 ? dann kommt das ja hin


GK110 ist das Highend. Gibt es GK100?

Ailuros
2012-01-17, 21:27:26
Juni GK 100 ? dann kommt das ja hin

Es kommt was hin? Ronny hat offensichtlich nur spekuliert.

Zergra
2012-01-17, 21:35:04
Es kommt was hin? Ronny hat offensichtlich nur spekuliert.
ähmm ja :D das war mir schon klar... war gerade eben auf dem Falschen Dampfer weil GK 104 ja nicht nach Gk110 rauskommen soll :D aber er
Zitat:
Mai für GK104 und April GK110. Mai wurde noch nicht genannt im Bezug zu GK104.
das hier so geschrieben hat :D

Schaffe89
2012-01-17, 21:38:58
Also GK110 vor GK104? Ne das kann ich nicht glauben.
Ailuros scheint ja bescheid zu wissen und will scheinbar verwirren.
Denn wenn kein Monat für einen Release bisher in Frage kommt wäre das ja dann erst Mai für den GK104 und vieleicht April für GK110, aber den großen Chip vor dem kleinen zu bringen würde ich eher bezweifeln.
Wie groß soll GK110 werden? 550mm²?
Ein Hinweis mit vorgehaltener Hand könnte ja nicht schaden.^^
Aber vor dem Osterhasen? Also ende März, oder der 1.4 wäre ein schöner Termin.

Zergra
2012-01-17, 21:44:23
Also GK110 vor GK104? Ne das kann ich nicht glauben.
Ailuros scheint ja bescheid zu wissen und will scheinbar verwirren.
Denn wenn kein Monat für einen Release bisher in Frage kommt wäre das ja dann erst Mai für den GK104 und vieleicht April für GK110, aber den großen Chip vor dem kleinen zu bringen würde ich eher bezweifeln.
Wie groß soll GK110 werden? 550mm²?
Ein Hinweis mit vorgehaltener Hand könnte ja nicht schaden.^^
Aber vor dem Osterhasen? Also ende März, oder der 1.4 wäre ein schöner Termin.
ja 550mm², stimmt wenn die anders rum kommen würden wäre das ja eine Reaktion auf AMD da sie das ja auch so getan haben... und ihnen die Kunden zu klauen aber woher kommt gerde der Sinneswandel :D

Ailuros
2012-01-17, 21:51:35
Also GK110 vor GK104? Ne das kann ich nicht glauben.
Ailuros scheint ja bescheid zu wissen und will scheinbar verwirren.

Ich will lediglich nichts weiteres oeffentlich sagen weil ich keinen Bock auf weitere bunte leaks von chiphell und co. Natuerlich kommt der 104 zuerst.


Ein Hinweis mit vorgehaltener Hand könnte ja nicht schaden.^^

Siehe oben.

Aber vor dem Osterhasen? Also ende März, oder der 1.4 wäre ein schöner Termin.

:wink:

Ronny145
2012-01-18, 00:30:24
Wenn wir jetzt von Ende März reden, hat sich das mittlerweile nach hinten geschoben oder täuscht das? Der Eindruck war hier hauptsächlich der, Kepler komme früher als spekuliert. Das hätte ich mit Januar oder spätestens Februar assoziiert, mit März auf keinen Fall. Ich glaube nach der CES Nullnummer nicht mehr dran. Ich hoffe auf März, befürchte leider es wird erst ab April losgehen.


Und was passiert wenn jemand basierend auf einer roadmap auf Bulldozer gewartet hat? :biggrin:


Die Produktionsroadmap ende Mai hat Bulldozers launch für den September vorhergesagt als jeder vom Juni ausging. Hat sich später nur um einen Monat verschoben.

Skysnake
2012-01-18, 02:40:21
Also wenn GK104 nicht binnen 5 Tagen nach der HD7950 erscheint, dann kommt er zur CeBIT +/- paar Tage.

So habe fertig. Ich glaub CeBIT. gn8

horn 12
2012-01-18, 06:40:44
Die HD7950 soll ja als direkter Hardlaunch inkl. 1-2 Customkühlern am kommenden Donnerstag daherkommen.
Rechne die Lieferungen am 23.01. mit HD7970-er Karten beinhalten auch etliche HD7950-er Kärtchen...

Hübie
2012-01-18, 07:29:32
Also wenn GK104 nicht binnen 5 Tagen nach der HD7950 erscheint, dann kommt er zur CeBIT +/- paar Tage.

So habe fertig. Ich glaub CeBIT. gn8

Nein :tongue:

V2.0
2012-01-18, 07:44:20
Messen sind heute nicht mehr relavante Events - weder für AMD noch für NV.

Iruwen
2012-01-18, 10:24:46
Vor allem die Cebit nicht.

Ailuros
2012-01-18, 13:22:05
Also wenn GK104 nicht binnen 5 Tagen nach der HD7950 erscheint, dann kommt er zur CeBIT +/- paar Tage.

So habe fertig. Ich glaub CeBIT. gn8

Es hat sich nur der anfangs projezierte launch geaendert sondern womoeglich auch das Leistungsziel.

V2.0
2012-01-18, 13:35:02
Dann würde ich vermuten man kommt eher und hat das eigene Leistungszeil etwas reduziert. (Günstig Hinblick auf die TDP)

Bucklew
2012-01-18, 13:36:14
Es hat sich nur der anfangs projezierte launch geaendert sondern womoeglich auch das Leistungsziel.
;D

Hugo
2012-01-18, 14:13:48
Dann würde ich vermuten man kommt eher und hat das eigene Leistungszeil etwas reduziert. (Günstig Hinblick auf die TDP)

ich denk eher nach oben um mit TahitiXT zu konkurieren

V2.0
2012-01-18, 14:27:59
In dem Fall muss man aber sehr viel Vertrauen in den eigenen GK110 haben, wenn man glaubt, dass man oberhalb dieses Leistungslevels auch noch eine X80 und X70 Version dieser GPU platzieren kann.
Ich hätte vermutet, dass man in der Projektion ein Ziel hatte, dass zwischen 7970 und 7950 lag (Prokjektion sagen wir 580+20-30% je nach Reife der Treiber) und man nun in Richtung 7950 reduziert hat. Damit wäre man immer noch besser aufgestellt als man es mit GF114 je war.

Sunrise
2012-01-18, 14:31:51
In dem Fall muss man aber sehr viel Vertrauen in den eigenen GK110 haben, wenn man glaubt, dass man oberhalb dieses Leistungslevels auch noch eine X80 und X70 Version dieser GPU platzieren kann.
Ich hätte vermutet, dass man in der Projektion ein Ziel hatte, dass zwischen 7970 und 7950 lag (Prokjektion sagen wir 580+20-30% je nach Reife der Treiber) und man nun in Richtung 7950 reduziert hat. Damit wäre man immer noch besser aufgestellt als man es mit GF114 je war.
Vertrauen und du musst bedenken, dass alles nach GK104 wohl deutlich später kommen wird. Da GF110 EOL ist und wenn GK104 alle potentiellen HD7970-Käufer absorbieren kann, bei einer deutlich niedrigeren BOM, dann wäre das für NV in jeder Hinsicht ein Gewinn.

AnarchX
2012-01-18, 14:40:59
GK110 könnte wohl bis zu 100W mehr TDP, 200mm² mehr Die-Size und eine doppelte Speicherbandbreite ausspielen gegenüber GK104.

MorPheuZ
2012-01-18, 14:49:29
Das währe mehr als dieser +1/3 GK104... ich weiss ja nicht.

mapel110
2012-01-18, 14:51:15
Das währe mehr als dieser +1/3 GK104... ich weiss ja nicht.
GK110 muss sich ja stark absetzen von GK104. nvidia will ja sicher wieder 2 abgespeckte Varianten von dem Chip verkaufen.

MorPheuZ
2012-01-18, 14:54:37
Wenn die GK104 die GTX 760 sein soll, sag ich nix mehr :eek:

dildo4u
2012-01-18, 15:03:28
Wenn die GK104 die GTX 760 sein soll, sag ich nix mehr :eek:
Der wird die 760Ti da drauf kannste noch mal 35% für die K110 raufschlagen.(Imo 768 Shadereinheiten gegen 576)Da ist nix :eek: Ist der selbe Abstand von 560Ti zur GTX 580.(384 zu 512)

MorPheuZ
2012-01-18, 15:17:34
Ja schon, aber die GTX 760 Ti würde demfall (bis vor kurzem) mit der 7970 ringen. Oder aber wie letztlich erwähnt doch ein bisschen weniger (7950)... wir werden's bald wissen, spannend ists allemal.

boxleitnerb
2012-01-18, 15:22:09
Dann könnte die 680/780 gesunde 20-30% vor der 7970 sein. Das wär doch mal was. Für den Kunden ist es zwar immer gut, wenn die Dinger ähnlich schnell sind. Aber auf Dauer ist es irgendwie auch langweilig, wenn keine Überraschungen kommen.

V2.0
2012-01-18, 15:31:08
GK110 könnte wohl bis zu 100W mehr TDP, 200mm² mehr Die-Size und eine doppelte Speicherbandbreite ausspielen gegenüber GK104.

Wenn man annimmt, dass NV sich 100W mehr TDP einräumt für den GK110 Topdog und annimmt, dass GK104 wirklich der Tahiti XT gefährlich werden kann (und nicht nur in ausgewählten Benchmarks), dann bedeutet dies aber, dass GK104 eine TDP deutlich unterhalb der 7970 haben muss. Das wäre eine ziemliche Bombe imho.

Schon die Vorstellung, dass GK104 die 7950 angreifen kann und auf gleichem TDP Niveau läge, wäre eine starke Leistung von NV. Das erste Szenario wäre imho eine Bombe von G80 Ausmaß.

M4xw0lf
2012-01-18, 15:43:36
Wenn man annimmt, dass NV sich 100W mehr TDP einräumt für den GK110 Topdog und annimmt, dass GK104 wirklich der Tahiti XT gefährlich werden kann (und nicht nur in ausgewählten Benchmarks), dann bedeutet dies aber, dass GK104 eine TDP deutlich unterhalb der 7970 haben muss. Das wäre eine ziemliche Bombe imho.

Schon die Vorstellung, dass GK104 die 7950 angreifen kann und auf gleichem TDP Niveau läge, wäre eine starke Leistung von NV. Das erste Szenario wäre imho eine Bombe von G80 Ausmaß.

Oder aber GK104 liegt bei ähnlichem Verbrauch etwas hinter Tahiti (XT) und Nvidia packt mal wieder die Brechstange aus um mit 100W mehr wieder die Leistungskrone an sich zu reißen - das wäre eine "Bombe" von Fermi-Ausmaß.

dildo4u
2012-01-18, 15:48:01
Schon die Vorstellung, dass GK104 die 7950 angreifen kann und auf gleichem TDP Niveau läge, wäre eine starke Leistung von NV.
GTX 570 und 6970 haben auch das selbe Performance pro Watt Verhältniss wäre nix Besonderes.Alles was nicht am Limit arbeitet wie die 580 oder 780 wird sich nicht großartig unterscheiden was Performance pro Watt angeht.

M4xw0lf
2012-01-18, 15:51:31
OBR glaubt übrigens auch mal wieder was zum Thema zu sagen zu müssen:
GeForce GT 680 will be launched in April. In February, will be launched only GeForce GTX 550. The first cards based on Kepler architecture are GeForce 600 not 700! Who's talking about launching in February, is wrong, this info is based on the old roadmap (from July). According to the last one is launch in April. According the old one, launch was supposed for january/february, now is planned for april.

GT 680 - based on GK104 - April
GT 660 - based on GK104 - May
GTX 680 (780?) - later ....

Zergra
2012-01-18, 15:52:17
GTX 570 und 6970 haben auch das selbe Performance pro Watt Verhältniss wäre nix Besonderes.Alles was nicht am Limit arbeitet wie die 580 oder 780 wird sich nicht großartig unterscheiden was Performance pro Watt angeht.
solange es keine 470GTX wird ist ja auch alles okey... aber wenn sie das auch gleich so hinbekommen wäre das auch Top :D

Iruwen
2012-01-18, 15:52:50
Schon die Vorstellung, dass GK104 die 7950 angreifen kann und auf gleichem TDP Niveau läge, wäre eine starke Leistung von NV.

Wieso, die GTX 560 Ti liegt doch auch bei beiden Werten ziemlich genau auf 6950 Niveau.

Ailuros
2012-01-18, 17:49:04
OBR glaubt übrigens auch mal wieder was zum Thema zu sagen zu müssen:

Es wird waermer, aber ein leicht frueherer launch als April ist noch nicht auszuschliessen. Selbst NV ist sich noch nicht sicher; deadline fuer 104 ist natuerlich der ivy bridge launch.

Wenn man annimmt, dass NV sich 100W mehr TDP einräumt für den GK110 Topdog und annimmt, dass GK104 wirklich der Tahiti XT gefährlich werden kann (und nicht nur in ausgewählten Benchmarks), dann bedeutet dies aber, dass GK104 eine TDP deutlich unterhalb der 7970 haben muss. Das wäre eine ziemliche Bombe imho.

Es wird immer Faelle geben wo die XT ihren Bandbreiten-Vorteil ausspielen koennte. Es duerfte reichen wenn man auf 1080p/8xMSAA als Beispiel geht hat die XT erstmal den Bandbreiten-Vorteil und zur gleichen Zeit auch 50% mehr Speicher, als einfaches Beispiel. Der TDP ist niedrig; ob er jetzt so niedrig ist wie manche andeuten wollen keine Ahnung. So lange dieser in tolerablen Groessen fuer eine performance SKU liegt ist der eigentliche Punkt das Preis-/Leistungsverhaeltnis.

Schon die Vorstellung, dass GK104 die 7950 angreifen kann und auf gleichem TDP Niveau läge, wäre eine starke Leistung von NV. Das erste Szenario wäre imho eine Bombe von G80 Ausmaß.

7950 ist beim launch eher auf 580 Leistungs-ebene. Die 590 ist uebrigens EOL. Ich bezweifle sogar dass irgendwelche GF110 chips noch hergestellt werden. AMD gewinnt etwas mehr pro verkaufter Tahiti GPU und NV kann beruhigt irgendwelchen vorhandenen GF110 stock bei sehr gesunden Preisen ausverkaufen und danach gibts Bier fuer alle ausser natuerlich dem Verbraucher ;)

Orbmu2k
2012-01-18, 18:50:39
Ich kann dem Hype um Kepler mit den aktuell spekulierten Timelines nicht mehr folgen.

Ein GK104 mit mit fast 7970 Niveau im Februar wäre ein Knaller gewesen. Dann im April den GK1x0 hinterher...

Aber 4-5 Monate nach dem Konkurenten und dann auch nur gleichauf zu starten ist aus meiner Sicht nichts worauf man stolz sein kann.

Wenn man wenigstens as usual mit dem TopDog starten und die Messlatte deutlich nach oben legt, aber so bleiben die Enthusiasten wohl noch bis Sommer auf der Durststrecke.

Schnitzl
2012-01-18, 19:23:39
Wieso, die GTX 560 Ti liegt doch auch bei beiden Werten ziemlich genau auf 6950 Niveau.
laut hier (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=3) liegt die 560TI gute 20W über der 6950
ein Spieleverbrauch von unter 200W würde mir schon reichen, nur dieses "kommt sie heute nicht kommt sie morgen" geht mir auf den Sack.
Eigentlich wollte ich ja nen GK104, aber wenn das so weitergeht wirds wohl doch die Urlaubsinsel...

Ailuros
2012-01-18, 19:28:25
Wenn man wenigstens as usual mit dem TopDog starten und die Messlatte deutlich nach oben legt, aber so bleiben die Enthusiasten wohl noch bis Sommer auf der Durststrecke.

Der top dog war der letzte chip der Familie der seinen tape out hatte und nicht der erste. Sommer? :rolleyes:

l
......... nur dieses "kommt sie heute nicht kommt sie morgen" geht mir auf den Sack.
Eigentlich wollte ich ja nen GK104, aber wenn das so weitergeht wirds wohl doch die Urlaubsinsel...

Wuerden wir komplett dicht halten wuerde es gar nichts zum spekulieren geben und dann haetten wieder so manche gemeckert warum es so still um Kepler ist. Sonst liegt die weitere Verschiebung an NV's Geschaefts-Entscheidungen und nicht falschen Informationen.

Orbmu2k
2012-01-18, 19:33:37
Der top dog war der letzte chip der Familie der seinen tape out hatte und nicht der erste. Sommer? :rolleyes:

Das war die optimistische Schätzung. :D

Wenn dann noch n paar Spins drauf kommen sollten, wovon ich aktuell aber erstmal nicht ausgehe, oje.

Dann wirds sogar mit dem HPC Launch in Q3 eng.

V2.0
2012-01-18, 19:34:40
Ich kann dem Hype um Kepler mit den aktuell spekulierten Timelines nicht mehr folgen.

Ein GK104 mit mit fast 7970 Niveau im Februar wäre ein Knaller gewesen. Dann im April den GK1x0 hinterher...

Aber 4-5 Monate nach dem Konkurenten und dann auch nur gleichauf zu starten ist aus meiner Sicht nichts worauf man stolz sein kann.

Wenn man wenigstens as usual mit dem TopDog starten und die Messlatte deutlich nach oben legt, aber so bleiben die Enthusiasten wohl noch bis Sommer auf der Durststrecke.

Keine 4-5 Monate. Nicht einmal für den Topdog. Und ob GK104 einschlägt wird auch wenn der Verfügbarkeit abhängen. Starten Sie wie bei GF104/114 mit sofort guter Verfügbarkeit und Own Designs, dann wären 2 Monate Verspätung ok.

Orbmu2k
2012-01-18, 19:38:20
Keine 4-5 Monate. Nicht einmal für den Topdog. Und ob GK104 einschlägt wird auch wenn der Verfügbarkeit abhängen. Starten Sie wie bei GF104/114 mit sofort guter Verfügbarkeit und Own Designs, dann wären 2 Monate Verspätung ok.

2 Monate? (09.01.12 - 02.04.12)

Die Verfügbarkeit von Tahiti ist besser als die vom GF100.

Schnitzl
2012-01-18, 19:47:32
Wuerden wir komplett dicht halten wuerde es gar nichts zum spekulieren geben und dann haetten wieder so manche gemeckert warum es so still um Kepler ist. Sonst liegt die weitere Verschiebung an NV's Geschaefts-Entscheidungen und nicht falschen Informationen.
Sollte keine Kritik an dir sein, meinte eher so Aussprüche wie "be patient" von nVidia-Seite
Evtl. ist es wieder wie bei 5870/480? Zum Launch 5850 gekauft und froh darüber...
Hoffe immer noch diesmal ist es anders.

Skysnake
2012-01-18, 19:53:33
Der top dog war der letzte chip der Familie der seinen tape out hatte und nicht der erste. Sommer? :rolleyes:


Fragt sich nur, ob du damit den GK110 meinst, oder ob es eventuell doch noch was drüber gibt, was ich aber nicht glaube.

Wäre dann aber schon sehr bitter, wenn Gk104 nicht im Februar kommt, und GK110 erst im April oder sogar noch später...

Dann können wir uns sinkende Preise bei AMD abschminken :(

Ailuros
2012-01-18, 19:57:23
Sollte keine Kritik an dir sein, meinte eher so Aussprüche wie "be patient" von nVidia-Seite
Evtl. ist es wieder wie bei 5870/480? Zum Launch 5850 gekauft und froh darüber...
Hoffe immer noch diesmal ist es anders.

Es ist mir schon klar dass es nicht an mich gerichtet war von Deiner Seite, nur ist es eben das dumme dass ich als erster zu blubbern angefangen habe ;)

Nein es hat diesmal gar nichts mit dem GF100 zu tun. Sonst ist eben das Problem dass die 7950 eben viel zu teuer ist fuer das was sie momentan bieten kann.

Orbmu2k
2012-01-18, 20:03:47
Ich frag mich ja immernoch was eigentllich aus dem GK100 geworden ist...?

Irgendwas muss ja dazu geführt haben dass man den überspringt, wegwirft whatever.

Ailuros
2012-01-18, 20:11:01
Ich frag mich ja immernoch was eigentllich aus dem GK100 geworden ist...?

Irgendwas muss ja dazu geführt haben dass man den überspringt, wegwirft whatever.

Es gab nie einen. Wuerde der chip GK999 heissen, wuerde man denken dass NV 899 revisions brauchte es auf die Beine zu stellen?

GF104/114 hatten in ihren GPU-Familien einen wesentlichen Unterschied. Was passiert jetzt wenn alle GK10x cores den gleichen Unterschied haben und nur GK11x die Aussnahmen sind?

Orbmu2k
2012-01-18, 20:21:51
Es gab nie einen. Wuerde der chip GK999 heissen, wuerde man denken dass NV 899 revisions brauchte es auf die Beine zu stellen?

GF104/114 hatten in ihren GPU-Familien einen wesentlichen Unterschied. Was passiert jetzt wenn alle GK10x cores den gleichen Unterschied haben und nur GK11x die Aussnahmen sind?

Das hat NV bei Fermi ja eben auch nicht tangiert, GF100 und GF104 sind sehr verschieden und gehören dennoch der gleiche Serie an. Wiederholungstat dann beim Refresh. Aber selbst wenn sie jetzt ein so elementares Alleinstellungsmerkmal für den Topdog eingebaut haben sollten dass eine neue Serie rechtfertigt muss es einen Grund geben warum sie keinen Big Chip ohne gebaut haben. Die einzig valide Erklärung wäre das GK104 nur ein GF110 Shrink ist.

Zergra
2012-01-18, 20:27:27
aber es ist noch unbekannt ob Kepler GT(X) 600 oder 700 wird ? oder wird die 600serie nur für Mobile zwecke genutz?

und die Logik von : (Korrigiert mich wenn ich falschliege) GK104 auf etwas auf 580GTX, GK106, GK107 (Mainstream,Performance) wieder darunter und der GK110 soll High-End sein ? bin etwas verwiert wäre mal schön wenn mich da mal jmd. aufklären könnte denn irgentwie steht überall was anderes :D

Schaffe89
2012-01-18, 20:30:39
Sonst ist eben das Problem dass die 7950 eben viel zu teuer ist fuer das was sie momentan bieten kann.



Bei den Specs dürfte die Karte 15% hinter der HD 7970 und immernoch im Schnitt nen Minivorsprung zur GTX 580 haben und das wohl bei 60Watt weniger Verbrauch unter Vollast.
Die Karte dürfte preislich gar unter der GTX 580 liegen.

Captain Future
2012-01-18, 20:34:40
GF104/114 hatten in ihren GPU-Familien einen wesentlichen Unterschied.
Als da wäre? Unterschieden haben sich eigentlich nur GF100/110 vom Rest vom Schützenfest.

Ailuros
2012-01-18, 20:45:54
Bei den Specs dürfte die Karte 15% hinter der HD 7970 und immernoch im Schnitt nen Minivorsprung zur GTX 580 haben und das wohl bei 60Watt weniger Verbrauch unter Vollast.
Die Karte dürfte preislich gar unter der GTX 580 liegen.

Warte einfach die ersten reviews ab. Sonst weigere ich mich nach wie vor fuer eine Performance GPU high end Preise zu bezahlen. Ob Kepler oder nicht AMD hat sowieso vor im April die Preise zu reduzieren eben weil die Kapazitaeten steigen werden.

M4xw0lf
2012-01-18, 21:54:22
Bei den Specs dürfte die Karte 15% hinter der HD 7970 und immernoch im Schnitt nen Minivorsprung zur GTX 580 haben und das wohl bei 60Watt weniger Verbrauch unter Vollast.
Die Karte dürfte preislich gar unter der GTX 580 liegen.

Wo nimmst du denn den Stromverbrauch her? Stromverbrauch der GTX580 geteilt durch einen Apfel und multipliziert mit der Mondphase? :tongue:

Zergra
2012-01-18, 22:18:04
Wo nimmst du denn den Stromverbrauch her? Stromverbrauch der GTX580 geteilt durch einen Apfel und multipliziert mit der Mondphase? :tongue:
-> naja Vollmond ist vorbei -> ergo er nimmt die 5te (9)nachkommerstelle von Pi Bildet den Kehrwert und Multiplitziert den mit der Anzahl der Shadern der HD7970 ca 2000 und kommt auf 222Watt :D :cool:

Hübie
2012-01-18, 23:56:10
Bei den Specs dürfte die Karte 15% hinter der HD 7970 und immernoch im Schnitt nen Minivorsprung zur GTX 580 haben und das wohl bei 60Watt weniger Verbrauch unter Vollast.
Die Karte dürfte preislich gar unter der GTX 580 liegen.

Welche Specs? Hab ich was verpasst während ich arbeiten war? ;D

Hugo78
2012-01-19, 09:38:13
Mit diesen Specs:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9129481&postcount=80

... dürfte die 7950 unterhalb eines GK104 landen der ja GTX 580 +10% bis + 20% erreichen soll.

Dural
2012-01-19, 10:27:39
also eins muss man sagen, NV verhält sich extrem ruhig, schon verdächtig ruhig.

interessant finde ich auch das AMD ihre neuen karten offenbar an die alten Fermi karten ausrichtet

boxleitnerb
2012-01-19, 10:37:47
Was meinst du mit "ausrichten"? Und an was sollen sie es sonst ausrichten? Ist ja nix da.

Iruwen
2012-01-19, 10:40:01
laut hier (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=3) liegt die 560TI gute 20W über der 6950

Serienstreuung und Spieleauswahl, im HT4U Gesamtranking liegen die Karten sowohl bei Leistung als auch Leistungsaufnahme gleichauf.
http://ht4u.net/reviews/2011/nvidia_geforce_gtx_560_ti_msi_n560ti_twin_frozr_2/index15.php
http://ht4u.net/reviews/2011/nvidia_geforce_gtx_560_ti_msi_n560ti_twin_frozr_2/index30.php

dargo
2012-01-19, 10:50:09
Serienstreuung und Spieleauswahl, im HT4U Gesamtranking liegen die Karten sowohl bei Leistung als auch Leistungsaufnahme gleichauf.
http://ht4u.net/reviews/2011/nvidia_geforce_gtx_560_ti_msi_n560ti_twin_frozr_2/index15.php
http://ht4u.net/reviews/2011/nvidia_geforce_gtx_560_ti_msi_n560ti_twin_frozr_2/index30.php
Es ist eh ein Witz sich über lächerliche 20W Unterschied bei Last zu unterhalten. Wie du schon sagst Serienstreuung bzw. leicht abweichende GPU-Spannungen und die Kühlung hat auch einen kleinen Einfluss auf die Verlustleistung.

boxleitnerb
2012-01-19, 11:03:44
Die Leistungsaufnahme wurde ja nur in einem Spiel gemessen. Mich würde mal echt ein Vergleich in mehreren Spielen interessieren. CPU so stark wie möglich, 100% GPU-Limit und dann 3-5 GPU-Benchmark laufen lassen und nebenher kontinuierlich die Leistungsaufnahme messen. Dann keine Mittelwertbildung sondern die aufgenommene elektr. Energie in Wh angeben und mit den fps ins Verhältnis setzen.

Edit:
Grafikbenchmarks dauern idR immer gleich lange, dann kann man doch den Mittelwert bilden. Dauer und Gesamtenergiemenge ist dann irrelevant.

Screemer
2012-01-19, 12:01:47
Nein es hat diesmal gar nichts mit dem GF100 zu tun. Sonst ist eben das Problem dass die 7950 eben viel zu teuer ist fuer das was sie momentan bieten kann.
eine leistungsmäßig sehr ähnlich aufgestellte 580 mit 3gb kostet doch mehr, wenn ich das recht in erinnerung habe. wo ist das problem? spielraum für preissenkungen sollte auch gegeben sein. im vergleich zu den letzten generationen haben wir natürlich einen preisanstieg. das dürfte aber den herstellern ganz recht sein. als konsument wünscht man sich natürlich niedrigere preise und wurde da über die letzten jahre auch verwöhnt.

boxleitnerb
2012-01-19, 12:04:21
Eigentlich erwartet man eben von einer neuen Generation deutlich mehr Leistung beim selben Preis oder gleiche Leistung bei deutlich geringerem Preis. P/L-Verbesserung ggü. den bisherigen Karten im jeweiligen Segment sollte imo bei einem Shrink anfangs bei mind. 30%, später wenn die Deppensteuer weg ist bei 50% liegen.

Zergra
2012-01-19, 12:10:43
Eigentlich erwartet man eben von einer neuen Generation deutlich mehr Leistung beim selben Preis oder gleiche Leistung bei deutlich geringerem Preis. P/L-Verbesserung ggü. den bisherigen Karten im jeweiligen Segment sollte imo bei einem Shrink anfangs bei mind. 30%, später wenn die Deppensteuer weg ist bei 50% liegen.
klar aber das dauert noch ein bisschen in 3 Monaten werden die günstiger sein und solange sollte man auch so auskommen, dann bekommst du die auch für unter 300€,

Screemer
2012-01-19, 12:18:57
Eigentlich erwartet man eben von einer neuen Generation deutlich mehr Leistung beim selben Preis oder gleiche Leistung bei deutlich geringerem Preis. P/L-Verbesserung ggü. den bisherigen Karten im jeweiligen Segment sollte imo bei einem Shrink anfangs bei mind. 30%, später wenn die Deppensteuer weg ist bei 50% liegen.
das kann ich durchaus nachvollziehen. mir wäre eine 7950 zum preis der 6950 auch lieber, dann würde ich auch mal darüber nachdenken meine 6950 gegen ein solches baby zu tauschen. für diese preise aber nicht. jedoch gibt es noch genügend, die mit ein oder zwei generationen älternen karten im rechner. viele lassen sich einfach nicht durch den preis schrecken. das kosumverhalten hat sich wohl auch ein wenig gewandelt. wenn ich mir überlege, wie viele heute 500 - 700€ geräte (tablets, smartphones) einfach mal so kaufen, weil sie gerade hip sind, dann sind solche preise für ne grafikkarte wohl auch nicht außerhalb des möglichen.

ich für meinen teil kann mir nicht vorstellen, dass nv kepler-karten in anderen preisregionen anbieten wird. da wird halt wieder in die alten preisgefilde vorgestoßen. sobald die alte generation komplett eol ist und die neue palette komplett im markt ist, dann kräht kein hahn mehr nach den "alten" preisen. naja vielleicht wir hier schon ;)

Iruwen
2012-01-19, 12:41:27
Eigentlich erwartet man eben von einer neuen Generation deutlich mehr Leistung beim selben Preis oder gleiche Leistung bei deutlich geringerem Preis. P/L-Verbesserung ggü. den bisherigen Karten im jeweiligen Segment sollte imo bei einem Shrink anfangs bei mind. 30%, später wenn die Deppensteuer weg ist bei 50% liegen.
Eine Grafikkarte besteht aber nicht nur aus der GPU.

boxleitnerb
2012-01-19, 12:53:16
Eine Grafikkarte besteht aber nicht nur aus der GPU.

Das interessiert den Kunden aber nicht. Außerdem hängen an der "Dicke" der GPU noch so Sachen wie Stromversorgung, PCB-Komplexität (Speicherinterface), Speichermenge und Kühlung. Nur die GPU beim Preis zu betrachten, geht nicht weit genug.

Wenn man z.B. GTX580 Leistung mit deutlich weniger TDP, nur 2GB, 256bit und evtl. einem kleineren billigeren Kühler erreicht, sollte der Preis von einer Karte mit GK104 deutlich niedriger liegen und nicht nur durch die Differenz bei der GPU abgesenkt sein.

Duplex
2012-01-19, 13:44:07
Das interessanteste ist aktuell hat GK104 wie Fermi weiterhin Hotclock oder nicht?

Ich hoffe auf einen 28nm Chip mit 576-1D Shader, 900MHz GPU & 1900MHz Shader Takt
Dann hätten wir erstmal einen neuen Tahiti Gegner

Der G92 konnte damals im vergleich zum G80 mit einem 50% kleineren Speicherinterface auskommen und dank höhere GPU & Shader Taktraten die selbe Rechenleistung wie G80 erreichen.

Ailuros
2012-01-19, 14:12:43
eine leistungsmäßig sehr ähnlich aufgestellte 580 mit 3gb kostet doch mehr, wenn ich das recht in erinnerung habe. wo ist das problem?

Das Problem ist dass ich mich weigere >500 Euro fuer eine eigentliche Performance GPU auf den Ladentisch zu legen. Und ja eben alte Suppen vom letzten Jahr die schon gar nicht mehr produziert werden sind wieso genau relevant?

Nochmal AMD macht ein wenig mehr Gewinn als in der Vergangenheit und es passt NVIDIA im Grund auch schoen weil sie eben die GTX580 Preise nicht reduzieren mussten und den vorhandenen GF110 Stock beruhigt bei hohen Preisen loswerden koennen bis GK104 antanzt. Finanziell zieht hier NV nicht unbedingt den kuerzeren, denn so viele TahitiXTs hat AMD nun auch wieder nicht verkauft. GF110 ist EOL seit letzten Dezember, GTX590 ist ausverkauft und es gibt noch GTX580 Ueberreste.

spielraum für preissenkungen sollte auch gegeben sein. im vergleich zu den letzten generationen haben wir natürlich einen preisanstieg. das dürfte aber den herstellern ganz recht sein. als konsument wünscht man sich natürlich niedrigere preise und wurde da über die letzten jahre auch verwöhnt.

Falls die GTX680 jetzt vielleicht $400 MSRP haben sollte (und ja mein bisheriger Standpunkt fuer 104 ist immer noch auf dem dreihunterter Pegel), dann heisst es natuerlich auch dass die Herstellungskosten fuer 28nm feist gestiegen sind wie AMD behauptet. Ich will es NOCH nicht glauben weil es keine ernsthafte AMD-freundliche Quelle im Hintergrund bestaetigen will. Alle deuten auf marketing-technischen Quark.

Das interessanteste ist aktuell hat GK104 wie Fermi weiterhin Hotclock oder nicht?

Ich hoffe auf einen 28nm Chip mit 576-1D Shader, 900MHz GPU & 1900MHz Shader Takt
Dann hätten wir erstmal einen neuen Tahiti Gegner

Der chiphell chart mit den GK104 war fast auf den Kopf des Nagels getroffen und jemand hat hier einfach nett mitgelesen und es richtig zusammengeschustert. "GK100" ist natuerlich alles falsch in der Tabelle da ich mit Absicht nichts mehr oeffentlich darueber sagen werde.

GK104 hat um ~36% hoehere Geometrie-Leistung und ueber 2x Mal so viel Fuellrate im Vergleich zu GF110. Bei den GFLOPs auf Papier wird der Vergleich sogar peinlich.

Der G92 konnte damals im vergleich zum G80 mit einem 50% kleineren Speicherinterface auskommen und dank höhere GPU & Shader Taktraten die selbe Rechenleistung wie G80 erreichen.

Siehe oben.

Screemer
2012-01-19, 14:13:44
das ist mir alles bewusst. gefallen tut es mir, wie ich ja schon schrieb, genau so wenig. sollten sich die preise in diesen regionen einpendeln, dann kaufst du nie wieder ne gk? ich für meinen teil werd wohl irgendwann gezwungen sein eine neue zu kaufen, du etwa nicht? eben darauf können die ihvs alle durch die bank setzen. wir werden sehen, wie sich die preise mit dem kepler release entwickeln. derzeit ist es eine müßige diskussion. "allen" sind die si-karten zu teuer, ändern wird sich dadurch aber bis zum konkurenz-release nichts.

ich bin schon sehr gespannt auf gk104. so wie du ihn darstellst, kann das teil richtig bombe werden. p/l-mäßig einfach top und das würde auch amd wieder in diese preisregion zwingen. alles in allem würde mich das sehr freuen.

mapel110
2012-01-19, 14:18:45
Die Preise müssen runter, wenn AMD mehr produzieren kann (höhere Kapazitäten für 28nm bei TSMC). Sie wollen schließlich auch Umsatz und Marktanteile machen und nicht nur Gewinn.
Wenn es theoretisch nur noch GPUs über 500 € gäbe, würden schlicht auch viel weniger Leute kaufen und nvidia und AMD würden auf ihren Massen an Chips sitzen bleiben.

Ailuros
2012-01-19, 14:22:36
das ist mir alles bewusst. gefallen tut es mir, wie ich ja schon schrieb, genau so wenig. sollten sich die preise in diesen regionen einpendeln, dann kaufst du nie wieder ne gk? ich für meinen teil werd wohl irgendwann gezwungen sein eine neue zu kaufen, du etwa nicht?

Wuerde ich sterben ohne eine neue GPU? Bestimmt nicht. Im Notfall warte ich etwas bis eine gebrauchte finden oder sich die Preise senken. Ich hab vollen Gewissens und auch dank Hintergrund-wissen Ende 2006 ueber 650 Euros fuer die 8800GTX damals auf den Ladentisch gelegt und dabei war fuer viele damals die Investition fraglich. In solch einem Fall wo es sich um so radikale Steigerungen im Preis-/Leistungs-/Bildqualitaet-Bereich handelt bin ich auch heute bereit so viel hinzulegen. >500 Euros fuer nicht mal momentan durchschnittlich 30% Mehrleistung ist fuer mich persoenlich Bloedsinn.


eben darauf können die ihvs alle durch die bank setzen. wir werden sehen, wie sich die preise mit dem kepler release entwickeln. derzeit ist es eine müßige diskussion. "allen" sind die si-karten zu teuer, ändern wird sich dadurch aber bis zum konkurenz-release nichts.

ich bin schon sehr gespannt auf gk104. so wie du ihn darstellst, kann das teil richtig bombe werden. p/l-mäßig einfach top und das würde auch amd wieder in diese preisregion zwingen. alles in allem würde mich das sehr freuen.

104 ist nicht die wahre Bombe wenn alles stimmt.

Die Preise müssen runter, wenn AMD mehr produzieren kann (höhere Kapazitäten für 28nm bei TSMC). Sie wollen schließlich auch Umsatz und Marktanteile machen und nicht nur Gewinn.
Wenn es theoretisch nur noch GPUs über 500 € gäbe, würden schlicht auch viel weniger Leute kaufen und nvidia und AMD würden auf ihren Massen an Chips sitzen bleiben.

Genau.

V2.0
2012-01-19, 14:42:17
Sagen wir Gk104 ist die kleine Bombe

Gipsel
2012-01-19, 14:52:09
GK104 hat um ~36% hoehere Geometrie-Leistung und ueber 2x Mal so viel Fuellrate im Vergleich zu GF110. Bei den GFLOPs auf Papier wird der Vergleich sogar peinlich.
Okay, dann mal ein paar Zahlenspielereien:

36% mehr Geometrieleistung heißt wahrscheinlich 4 GPCs/Rasterizer mit 36% höherem Chiptakt:
775*1,36 = 1054 MHz Chiptakt (6 GPCs mit 700MHz Takt oder krumme Zahlen kann ich nicht glauben, für 2 GPCs müßte der Takt zu hoch sein)

Über 2 mal so viel Füllrate, hmm, schwierig. Aber man kann ja mal ein paar Vermutungen anstellen:
GF110 war auf 2 Pixel pro SM pro Chiptakt limitiert, also 32 Pixel/Chiptakt trotz 48 ROPs. Jetzt mit 36% mehr Chiptakt benötigte man bei angenommen gleicher Limitierung also mindestens 50% mehr SMs (1,36*1,5=2,04) als GF110 und es sind mindestens 48 ROPs nötig (oder gibt es gar 64 an einem 256Bit Interface?). Oder haben sie die Limitierung des Export-Bus auf 4 Pixel/Takt pro SM angehoben?, dann käme man mit 12 SMs aus.

Das ergäbe dann also 24 SMs (6 SMs pro GPC, bzw. 12 SMs mit 3 SMs pro GPC). Jetzt kann man spekulieren, hotclock ja oder nein, wie groß sind die SMs?
Minimum wären wohl 24 SMs * 32 ALUs = 768 ALUs (oder 12 SMs * 64 ALUs).
Ohne Hotclock wären das dann 768 * 2 * 1,05 = ~1,6 TFlop/s
Das wäre für GF110 noch nicht "peinlich" im Vergleich und auch nicht über 2 TFlop/s. Mit Hotclock (Annahme 2x Chiptakt) ergäbe sich für 12*32=384 ALUs die gleiche Rechenleistung, aber das wäre von der Konfiguratiuon her nur ein abgespeckter GF110 mit höheren Takten.
=> Unwahrscheinlich

Also 48 ALUs (wie GF104/114) pro SM ohne Hotclock?
24 * 48 * = 1152 ALUs, 1152 * 2 * 1,05 = 2,42 TFlop/s
Das kommt schon besser mit den Erwartungen hin. Das gleiche ergäbe sich auch für 12 SMs mit je 96 ALUs (also sechs statt drei vec16-Blöcken, dann könnte man auch gleich einen vec16 SFU-Block dazupacken, macht das Scheduling etwas einfacher als mit den bisher 4 bzw. 8 SFUs pro SM, man benötigt dann aber wohl 4 Scheduler pro SM, aber das hat GCN ja auch).
Mit Hotclock hätte man praktisch einen 50% hochskalierten GF114 (12*48=576 ALUs, also nah dran an der Chiphell-Tabelle) mit der doppelten GPC-Zahl.
=> Wahrscheinlicher?

Maximum wären wohl 24SMs und 64 ALUs pro SM (1536 ALUs, 3,23 TFlop/s), dann wäre man auf einen Sprung praktisch in AMD-Regionen mit der Rechenleistung. Das Gleiche erreicht man mit 32 ALUs/SM und hotclock auf doppeltem Chiptakt. Beides dürfte aber schwierig in deutlich unter 400mm² hineinzuquetschen sein (zumindest wenn nV nicht anderweitig Abstriche macht) und die Gerüchte gehen ja eher von ~350mm² aus.

V2.0
2012-01-19, 14:53:59
Hört sich sehr gut an - finde ich.

AnarchX
2012-01-19, 16:06:26
Hoffentlich packt der IMC von GK104 6Gbps+, sonst kommt man da in die gleiche Situation wie mit G92.

Wenn sich 1536SPs/96TMUs >=1,1GHz für GK104 bewahrheiten sollte, stellt sich die Frage wie dann erst GK110 aussieht? :D Da könnte wohl Nvidia seit langem endlich wieder ein höheren SP MADD Peak bieten als AMD.

Nightspider
2012-01-19, 16:24:17
104 ist nicht die wahre Bombe wenn alles stimmt.

Wenn alles stimmt: könnten wir einen 2.G80 erleben?

Knuddelbearli
2012-01-19, 16:50:04
2ten G80 ? also 40% mehr fps je Watt?

boxleitnerb
2012-01-19, 16:52:06
Mit dem kleinen aber feinen Unterschied, dass wir diesmal noch zusätzlich einen Shrink bekommen. 40% besseres fps/W wäre für eine auf Effizienz getrimmte Architektur, die zusätzlich noch in 28nm kommt, nicht berauschend, das schafft ja schon AMD locker, übertrifft es öfters sogar.

Nightspider
2012-01-19, 16:52:26
Ne ich rede von der Entwicklung des GPU Kühlers. -> Doppelt so groß -> Triple Slot. ;)

:rolleyes:

Ailuros
2012-01-19, 16:55:09
Ne ich rede von der Entwicklung des GPU Kühlers. -> Doppelt so groß -> Triple Slot. ;)

:rolleyes:

Gegenfrage: wird New Zealand triple slot sein?

Nightspider
2012-01-19, 16:58:37
Das mit dem Kühler meinte ich nicht ernst. Ich wollte wissen ob GK110 ein ebenso großer Sprung, von der Leistung als auch von der Architektur und anderen Vorteilen, zum GF110 wird, wie der vom G71 zum G80.

Hugo78
2012-01-19, 17:02:50
Ne ich rede von der Entwicklung des GPU Kühlers. -> Doppelt so groß -> Triple Slot. ;)

Passiv ja. ;)

Ailuros
2012-01-19, 17:19:57
Das mit dem Kühler meinte ich nicht ernst. Ich wollte wissen ob GK110 ein ebenso großer Sprung, von der Leistung als auch von der Architektur und anderen Vorteilen, zum GF110 wird, wie der vom G71 zum G80.

Dafuer muesste IMHO irgend ein Aspekt wie high quality AF auf G7x zu viel Leistung fressen, Aenderungen wie von non unified-->USC und es so brutale API spezifische Aenderungen wie zwischen DX10 und DX9 geben.

AnarchX
2012-01-19, 17:28:16
GK110 muss hier (unteres Diagramm) (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=13) einfach ~50FPS liefern. :D

Zergra
2012-01-19, 17:31:07
GK110 muss hier (unteres Diagramm) (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=13) einfach ~50FPS liefern. :D
Klar :D das glaubste doch selber net :D und bei 50 sollte schon die CPU Limitieren ? naja spielt ja auch keine Rolle, 580GTX *3 :D

AnarchX
2012-01-19, 17:34:49
Wäre wohl aber ein Szenario, wo eine hohe Shaderleistung ankommen könnte. Ob es nun ein Faktor 3 ist natürlich fraglich. Für den G80-Vergleich (http://www.computerbase.de/artikel/grafikkarten/2006/test-nvidia-geforce-8800-gtx/20/#abschnitt_oblivion) wäre dies aber angebracht.

Ailuros
2012-01-19, 17:37:15
Klar :D das glaubste doch selber net :D und bei 50 sollte schon die CPU Limitieren ? naja spielt ja auch keine Rolle, 580GTX *3 :D

War wohl ein offensichtlicher Witz. Was die moegliche CPU Limitierung betrifft die 7970 hat 19fps und die 6970 12 fps minimum framerate.

Hugo78
2012-01-19, 17:43:58
Ich weiß garnicht was bei SS3 soviel zieht, das Spiel schaut sch.. unspektakulär aus. :freak:

Aber für ne hohe Shaderlast gäbe es ja auch noch Lolman's Crysis Map Widet2.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=476713

Zergra
2012-01-19, 17:50:19
War wohl ein offensichtlicher Witz. Was die moegliche CPU Limitierung betrifft die 7970 hat 19fps und die 6970 12 fps minimum framerate.
das würde sich auf das erste Diagram beziehen :D da wäre es wohl eine CPU limitierung beim zweiten eher nicht

Ailuros
2012-01-19, 18:27:52
das würde sich auf das erste Diagram beziehen :D da wäre es wohl eine CPU limitierung beim zweiten eher nicht

Anarch meinte auch das zweite Diagram. Ist aber auch wurscht. Lass uns zurueck aufs Thema kommen.

Schaffe89
2012-01-19, 18:40:33
naja Vollmond ist vorbei -> ergo er nimmt die 5te (9)nachkommerstelle von Pi Bildet den Kehrwert und Multiplitziert den mit der Anzahl der Shadern der HD7970 c

Jaja witzig, witzig. :usad:

Eigentlich stehen doch die Specs doch schon mehr oder weniger fest, bis vielleicht auf Feinheiten beim Takt.
http://www.techspot.com/news/46797-amd-radeon-hd-7950-specs-leaked-price-still-unknown.html

Der Takt pendelt sich wohl bei 850mhz, oder ähnlichem ein.
Also rund 15% hinter der HD7970, so wies halt mit HD 5850/6950 auch ungefähr war.

Orbmu2k
2012-01-19, 19:41:00
Maximum wären wohl 24SMs und 64 ALUs pro SM (1536 ALUs, 3,23 TFlop/s), dann wäre man auf einen Sprung praktisch in AMD-Regionen mit der Rechenleistung. Das Gleiche erreicht man mit 32 ALUs/SM und hotclock auf doppeltem Chiptakt. Beides dürfte aber schwierig in deutlich unter 400mm² hineinzuquetschen sein (zumindest wenn nV nicht anderweitig Abstriche macht) und die Gerüchte gehen ja eher von ~350mm² aus.

Das ist glaub die Folie Tabelle die Ail meinte. :D

Edit:
http://tof.canardpc.com/view/685d64f9-f316-4fa8-87c2-c9d96cc9dc9b.jpg

Ailuros
2012-01-19, 20:06:17
Nun ja es liegen mehr als nur ein Fehler drin, aber ganz grob haben wir eben hier den 104 zu genau beschrieben.

Hübie
2012-01-19, 20:07:35
Jaja witzig, witzig. :usad:

Eigentlich stehen doch die Specs doch schon mehr oder weniger fest, bis vielleicht auf Feinheiten beim Takt.
http://www.techspot.com/news/46797-amd-radeon-hd-7950-specs-leaked-price-still-unknown.html

Der Takt pendelt sich wohl bei 850mhz, oder ähnlichem ein.
Also rund 15% hinter der HD7970, so wies halt mit HD 5850/6950 auch ungefähr war.

Sag mal: Kann es sein das du die Threads verwechselst? Als ich fragte welche Specs meinte ich natürlich die des GK104. Und jetzt schreibst du schon wieder nur von den AMD Krimskrams... Die Specs sind schon lang inoffiziell bekannt. GCN is released und somit eh nicht spannend - abgesehen vom falschen topic.

@Gipsel: Deine Rechnung ist nicht übel. Ich müsste jedes mal vorher recherchieren, da ich mir die Daten (TFlops, TMU, TAU, ROP, SM/Cudacores etc...) der alten Gens nie so richtig merke. Woher hast du eigtl. 775 MHz?? GF110 hat doch 782 MHz.

mapel110
2012-01-19, 20:09:39
Hm, 96 TMUs und die TDP ist viel geringer. 128 TMUs bei GK110 wären dann auch sehr nice bei hohem Takt. =)

boxleitnerb
2012-01-19, 20:11:29
Das könnte ein Biest werden in hohen Auflösungen. In 1600p und höher vielleicht doppelt so schnell oder gar noch mehr (z.B. durch VRAM-Limitierung).

Hübie
2012-01-19, 20:18:55
Es könnte aber auch ne üble Graupe werden weil der Treiber verbuggt ist. Wenn ich da gerade mal wieder AMDs Debakel bzgl. zero power core und/oder CFX lese...
AMDs Software war einer der Gründe dort abzuwandern. Hoffe das die grünen es sich nicht abgucken.

GK104 wird jedenfalls seine Käuferschaft finden, soviel ist sicher. Wer einen (Technologie-)Sprung wie beim G80 erwartet hat aber falsche Vorstellungen. Die Leistung wird aber Überzeugen. Nach Valentinstag wissen wir mehr.

boxleitnerb
2012-01-19, 20:21:39
Der Sprung kam ja schon mit Fermi (Tessellation und HPC). Ich denke/hoffe, wir werden diesmal eher Evolution als Revolution sehen, mit maximalem Fokus auf Leistung.

Gipsel
2012-01-19, 20:31:09
Das ist glaub die Folie Tabelle die Ail meinte. :D

Edit:
http://tof.canardpc.com/view/685d64f9-f316-4fa8-87c2-c9d96cc9dc9b.jpg
Ach, ich hatte mit der Chiphell-Tabelle was anderes im Kopf. Aber gut, daß das jetzt geklärt ist.

Also wenn die 1536 ALUs und 64 TMUs stimmen würden, wären das wohl 16 SMs mit jeweils 96 ALUs und 4 TMUs. Das ALU:TEX Verhältnis wäre also 50% höher als bei AMD (64 ALUs pro 4 TMUs) und gegenüber GF104 praktisch verdoppelt (bzw. die TMU-Power pro Rechenleistung halbiert). Wo bei 32 ROPs die >2x Füllrate herkommen soll, ist mir dann auch schleierhaft, dazu benötigt man mindestens 48 ROPs. Also entweder verbreitet hier Ail etwas FUD (:|), oder da sind noch ein paar Ecken an den Daten auszubügeln.

Ailuros
2012-01-19, 20:34:52
Der Sprung kam ja schon mit Fermi (Tessellation und HPC). Ich denke/hoffe, wir werden diesmal eher Evolution als Revolution sehen, mit maximalem Fokus auf Leistung.

Es ist wohl schon eher in Richtung perf/Watt wie NV behauptet (marketing-Uebertreibungen mal weg vom Fenster); sonst haetten sie auch nicht so viele ivy bridge design wins gelandet. Eine Revolution wuerde unter den heutigen Umstaenden und Tahiti als Gegner schon ziemlich stark den Stromverbrauch und finalen Preis beinflussen.

boxleitnerb
2012-01-19, 20:45:10
Perf/W ist schön und gut, aber man hat dann natürlich gut Potential, wenn man die 250W wieder ausfährt. In gewissen Szenarien hoffe ich mal auf 80-100% zur 580, also SGSSAA/Downsampling bzw. generell sehr hohe Auflösungen. Bei der massiv gesteigerten Füllrate und Shaderleistung sollte das hier und da machbar sein?

Zergra
2012-01-19, 20:47:43
Perf/W ist schön und gut, aber man hat dann natürlich gut Potential, wenn man die 250W wieder ausfährt. In gewissen Szenarien hoffe ich mal auf 80-100% zur 580, also SGSSAA/Downsampling bzw. generell sehr hohe Auflösungen. Bei der massiv gesteigerten Füllrate und Shaderleistung sollte das hier und da machbar sein?
naja mhh also es werden warscheinlich eher 20% die der GK110 zur HD 7970 haben, das sollte der alte abstand sein, die Übertaktbarkeit Spiel ja für 90% der user keine rolle

boxleitnerb
2012-01-19, 20:51:41
Wenn schon Charlie was Gutes über Kepler sagt, muss das Ding einschlagen :D

The short story is that Nvidia (NASDAQ:NVDA) will win this round on just about every metric, some more than others. Look for late March or early April availability, with volumes being the major concern at first. GK104 cards seen by SemiAccurate all look very polished and complete, far from rough prototypes or “Puppies“. A2 silicon is now back from TSMC, and that will likely be the production stepping barring any last second hitches. Currently, there aren’t any.

For the doubters, both of the current cards we saw have two DVI plugs on the bottom, one HDMI, and one DP with a half slot cooling grate on one of the two slot end plates. The chip is quite small, and has 8 GDDR5 chips meaning a 256-bit bus/2GB standard, and several other features we can’t talk about yet due to differences between the cards seen. These items won’t change the outcome though, Nvidia wins, handily.

http://semiaccurate.com/2012/01/19/nvidia-kepler-vs-amd-gcn-has-a-clear-winner/

y33H@
2012-01-19, 20:53:51
Wait, seriously? Or is this a joke? Did hell just freeze over?;D

Nightspider
2012-01-19, 20:59:28
Kann mir mal jemand sagen, was mit den Ivy Design Wins gemeint ist?

Hat sich geklärt - ich hab gegoogelt.

Raff
2012-01-19, 21:00:20
Wurde der auf der CES von Jensen vermöbelt oder was geht ab? :ulol:

MfG,
Raff

boxleitnerb
2012-01-19, 21:00:47
Dass sich viele Notebookhersteller entschieden haben, in ihre Geräte Nvidia GPUs zu bauen (statt AMDs).

Wurde der auf der CES von Jensen vermöbelt oder was geht ab? :ulol:

MfG,
Raff

a) Charlie ist mit einem Köfferchen von der CES gegangen
b) Männerabend... (da darf sich jetzt jeder was ausmalen)
c) Es ist die Wahrheit

Orbmu2k
2012-01-19, 21:04:09
The short story is that Nvidia (NASDAQ:NVDA) will win this round on just about every metric

Das war ja schon klar als NV die Ivy Design Wins bekannt gegeben hat. Da geht richtig Umsatz durch.

A2 silicon is now back from TSMC

Das ist intressant, hätte mit A1 gerechnet, das würde auf jeden Fall die Verspätung erklären.

Nightspider
2012-01-19, 21:28:00
Hoffentlich schaffen es ein paar Mini-Kepler in Ultrabooks. Dank Optimus dürfte dadurch kein Nachteil entstehen.

Sunrise
2012-01-19, 21:33:03
Wie bereits geschrieben, scheint es also doch so zu sein, dass TSMC aktuell nicht mit dem Produzieren nachkommt. Zugleich hat TSMC wohl noch Anpassungen am u.a. von NV genutzten Target vorgenommen, da A1 ja laut diversen Gerüchten bereits produktionsreif war. Aus genau dieser Ecke kam auch meine Info, dass GK104 zuerst produziert wird/wurde.

Die Produktion wird hochgefahren, indem die weiteren Produktionslinien in Fab15 bis April dann auch komplett für 28nm zur Verfügung stehen, NV und AMD haben hier laut TSMC ja signifikante Kapazitäten bis März gebucht. Mit dem Aufbau der weiteren Linien wird genügend Kapazität geschaffen (100.000 Wafer vs. 20.000 aktuell) um eine ausreichende Menge an Wafern durchlaufen zu lassen. Damit hat NV dann genügend ASICs um mit sehr guten Preisen und trotzdem guten Margen (BOM) bei breiter Verfügbarkeit die Karten in den Markt zu drücken.

AMD scheint sich bereits letztes Jahr begrenzte Kapazität gesichert zu haben und muss dafür wohl einen höheren Aufpreis zahlen, aufgrund dessen und aufgrund der momentan noch sehr variablen Ausbeute beim aktuellen AMD Stepping man nun die Preise aber hochhalten muss (bis ca. März/April). Die Verfügbarkeit wird trotz dessen aber ausreichend sein, eben aufgrund der aktuell noch gesalzenen Preise.

Richtig interessant wird es dann bei der Vorstellung von NV. Ich bin gespannt.

Bucklew
2012-01-19, 21:34:44
http://semiaccurate.com/2012/01/19/nvidia-kepler-vs-amd-gcn-has-a-clear-winner/
Interessant, wie Charlie seine Bashnews genüsslich über 2-3 Seiten auswalzt, während er so etwas in 2 Absätze quetscht ;D

Naja, immerhin hat er soviel Anstand das selbst zu schreiben und nicht seine Schreiberlinge machen zu lassen, wie es bisher der Fall war.

Steffko
2012-01-19, 21:38:10
Wenn schon Charlie was Gutes über Kepler sagt, muss das Ding einschlagen :D



http://semiaccurate.com/2012/01/19/nvidia-kepler-vs-amd-gcn-has-a-clear-winner/


Wie genau soll GK104 die HD7970 "handily" "on just about every metric" schlagen, wenn er - laut semiaccurate - mit einem 256bit breiten Speicherinterface daherkommt und damit zwangsläufig deutlich weniger Speicherbandbreite bieten wird? Nicht, dass das zwangsläufig die Gesamtperformance von GK104 gegenüber HD7970 runterziehen muss (zumindest wenn man sich die richtigen Einstellungen raussucht), aber von "on just about every metric" zu sprechen, wenn eines davon mehr als deutlich an AMD geht ist irgendwie... merkwürdig :confused:

boxleitnerb
2012-01-19, 21:39:56
Metric ist z.B. perf/W, perf/mm2, perf/$
Vergiss nicht, Nvidia achtet groß auf Datenlokalität im Zuge ihrer Entwicklung zu Denver. Vielleicht brauchen sie da nicht soviel Bandbreite?

Bucklew
2012-01-19, 21:40:01
Wie genau soll GK104 die HD7970 "handily" "on just about every metric" schlagen, wenn er - laut semiaccurate - mit einem 256bit breiten Speicherinterface daherkommt und damit zwangsläufig deutlich weniger Speicherbandbreite bieten wird? Nicht, dass das zwangsläufig die Gesamtperformance von GK104 gegenüber HD7970 runterziehen muss (zumindest wenn man sich die richtigen Einstellungen raussucht), aber von "on just about every metric" zu sprechen, wenn eines davon mehr als deutlich an AMD geht ist irgendwie... merkwürdig :confused:
Die Speicherbandbreite kann ja auch kleiner sein, wenn man sie weniger nutzt (ergo: Ordentliche Cache on-die).

Ich denke mal mit metric mein Charlie sein übliches Perf/mm², Perf/W, Perf/$.

Sunrise
2012-01-19, 21:42:51
Naja, immerhin hat er soviel Anstand das selbst zu schreiben und nicht seine Schreiberlinge machen zu lassen, wie es bisher der Fall war.
Das ist jetzt ehrlich gesagt auch mal eine News, mit der man arbeiten kann und er nicht in jedem 2. Satz seine persönlichen Probleme mit NV verarbeitet.

Bucklew
2012-01-19, 21:46:31
Das ist jetzt ehrlich gesagt auch mal eine News, mit der man arbeiten kann und er nicht in jedem 2. Satz seine persönlichen Probleme mit NV verarbeitet.
Ist ja auch nicht mehr als ein Satz ;D

boxleitnerb
2012-01-19, 21:47:06
Er ist ja schon recht deutlich in seinen Aussagen. Wie wahrscheinlich ist es, das er lügt (mit welchen Sinn dahinter auch immer)?

Sunrise
2012-01-19, 21:47:29
Ist ja auch nicht mehr als ein Satz ;D
:D

DarknessFalls
2012-01-19, 21:57:57
Es muss ja nicht sein, daß GK104 Tahiti XT schlägt - Charlie kann sich genauso gut auf GK100 (110) beziehen. Gut möglich, daß das ein neuer G80 wird. Wobei ich zugeben muss, ein neues Duell wie G80 vs. R600 muss ich jetzt nicht haben. ^^

boxleitnerb
2012-01-19, 22:06:28
Na so schlimm wirds nicht werden glaub ich. Tahiti ist nicht schlecht, nur ggü. dem letzten Highend nicht so stark wie man es von Nextgen erwarten würde. Ich glaub das ist das Hauptproblem, wo NV gut kontern kann.

Hugo78
2012-01-19, 23:15:55
Zugleich hat TSMC wohl noch Anpassungen am u.a. von NV genutzten Target vorgenommen, da A1 ja laut diversen Gerüchten bereits produktionsreif war. Aus genau dieser Ecke kam auch meine Info, dass GK104 zuerst produziert wird/wurde.

Und das Target war jetzt nochmal höher Takt oder was anderes?
Also "produktionsreif" ist in meiner Welt = "bugfrei".

Von daher geh ich jetzt von mehr Takt aus.

Blediator16
2012-01-19, 23:42:15
Da bin ich mal gespannt welche Karten er da genau verglichen hat :freak:

aylano
2012-01-19, 23:46:30
Wie bereits geschrieben, scheint es also doch so zu sein, dass TSMC aktuell nicht mit dem Produzieren nachkommt.

Natürlich,
oder dachtest du TSMC kann eine Fabrik in 1 (oder 2) Quartalen komplett rampen?

Die Produktion wird hochgefahren, indem die weiteren Produktionslinien in Fab15 bis April dann auch komplett für 28nm zur Verfügung stehen, ...
Auch komplett für 28nm?
Fab15-Phase 1 ist als eine 28nm-Fabrik gebaut worden.

Mit dem Aufbau der weiteren Linien wird genügend Kapazität geschaffen (100.000 Wafer vs. 20.000 aktuell) um eine ausreichende Menge an Wafern durchlaufen zu lassen.
Wafer pro Was? Monat oder Quartal

AMD scheint sich bereits letztes Jahr begrenzte Kapazität gesichert zu haben und muss dafür wohl einen höheren Aufpreis zahlen, aufgrund dessen und aufgrund der momentan noch sehr variablen Ausbeute beim aktuellen AMD Stepping man nun die Preise aber hochhalten muss (bis ca. März/April).
Von wo scheint es bzw. von wo hast du es abgeleitet?

Sunrise
2012-01-20, 00:21:48
Und das Target war jetzt nochmal höher Takt oder was anderes?
Also "produktionsreif" ist in meiner Welt = "bugfrei".

Von daher geh ich jetzt von mehr Takt aus.
Sehe es als Optimierung des ASICs an den gewählten Prozess (dem Target, z.B. 28HP) an, den NV gewählt hat. Das muss nichts direkt mit den Leistungsdaten zu tun haben. A2 benötigt man normalerweise aber nur dann, wenn Veränderungen nötig waren, wenn auch nur, um die Ausbeute noch etwas zu verbessern. Da A1 angeblich bereits produktionsfertig war, nun aber A2 nachgeschoben wird ist jedenfalls neu für mich. Die logische Schlussfolgerung wäre natürlich, dass A1 eben nicht produktionsfertig war. Nichts Genaues weiß man nicht. Ich wollte da eigentlich nicht so stark ins Detail gehen, die News von Charlie klingt aber authentisch und auch etwas "überraschend".

Wafer pro Was? Monat oder Quartal
Natürlich pro Monat. Seit wann wird bei TSMC denn in Quartalen gerechnet?

Von wo scheint es bzw. von wo hast du es abgeleitet.
Es gab im Netz mehrere öffentlich zugängliche Quellen, die besagen, dass die IHVs aktuell aufgrund des Andrangs auf Produktionskapazitäten für die 28nm-Produktion höhere Preise in Kauf nehmen müssen, weil nicht genügend vorhanden sind.

Ich bin mal so nett und habe für dich gesucht:
http://www.xbitlabs.com/news/other/display/20110912192619_TSMC_Reportedly_Hikes_Pricing_on_28nm_Wafers_Due_to_Increased_Dem and.html

Die "variable Ausbeute" bei AMD ist wie vieles hier Spekulation meinerseits. Ich wüsste sonst nicht, warum man bei dem aktuellen Stepping sonst diesen enorm hohen core Vcc (relativ zu TSMC´s Vorgaben) per Default gewählt haben sollte. Würde mich also nicht wundern, wenn AMD entweder nochmal ein neues Stepping nachschiebt und/oder einfach später die Vcc etwas zurücknimmt. Bei den Treibern sind laut Dave ja noch ein paar Flaschenhälse zu lösen. Bevor GK104 an den Start geht, scheint ja jetzt noch Zeit zu sein.

Screemer
2012-01-20, 01:56:52
Ich glaub ich kauf noch ein paar nv Aktien :)

Hübie
2012-01-20, 02:05:12
Ich meine im Presseraum von TSMC gelesen zu haben das man auch erst im Oktober die volle Kapazität (lt. Plan) erreicht. Nicht zu vergessen, das ja noch jede Menge anderer 28nm Chips in Auftrag gegeben wurden/werden.
Der (ultra)mobile-market boomed ja momentan wie blöd.

G 80
2012-01-20, 02:12:43
Wobei ich zugeben muss, ein neues Duell wie G80 vs. R600 muss ich jetzt nicht haben. ^^


Umöglich, das aktuelle GCN Flaggschiff ist dafür weit nicht Schwachbrüstig genug und verbraucht auch nicht genug Strom. Last but not least: So grausig ist in jedem Fall das AF auch nicht. ;D Nene R 600 hat AMD schon mit Bulldozer übererfüllt...



Ich bin aber Gespannt wenn Kepler wirklich zum 2ten G 80 wird, es noch immer alle fair finden wenn NV sich die Führerschaft wieder teuerst bezahlen läßt; oder obs dann plötzlich doch wieder böse ist. :freak:

mboeller
2012-01-20, 07:57:33
mein Gefühl:

HD4870 <-> GTX280 repeated with reversed positions ;)

V2.0
2012-01-20, 08:18:26
Tahiti ist aber alleine schon von die Die-Größe her eigentlich kein Flagship, sondern einfach eine Performance GPU. Flagship Status hat gegenwärtig nur der Preis.

Warum sollte NV mit einem leicht kleineren Chip nicht fast an Tahiti rankommen und mit einem deutlich größteren Chip ebend auch vorbei? Die Frage ist nur welche Preise NV ansetzt. Geht GK104 mit 299$ an den Start, dann wäre das ein Wort. (Also in etwas das Niveau einer 560 2GB zum Launch)

Skysnake
2012-01-20, 08:38:54
Es wäre wirklich sehr verwunderlich, wenn nVidia nicht an AMD vorbei kommen würde. Es sei denn Sie sind extrem auf Energiesparen gegangen, dann könnte man sich das eventuell knapp vorstellen, dann würde nVidia aber AMD einfach zerfetzen was die Effizienz anbelangt, was dann auch nicht groß anders ist, und für den Home-User gibts ja noch OC.

Die ~300€ sind auch nicht unwahrscheinlich für den GK104. Ich glaube nicht, das sich groß was am Preisgefüge tut. Eventuell 50€ nach oben, aber nicht mehr.

AMD nutzt halt die Gunst der Stunde gerade allein am Markt zu sein mit 28nm, und so die schnellste GPU haben zu können.

Schlcht für uns Kunden, da die Preise so unverhältnismäßig hoch sind. Aber was solls, das normalisiert sich wieder, wenn nVidia auch am Markt ist. Wer jetzt kaufen will muss halt nen saftigen Aufschlag dafür zahlen zu den ersten 28nm Kunden zu zählen...

MuLuNGuS
2012-01-20, 10:01:12
die frage ist:
würde charlie derartiges loslassen wenn GK104 nicht vorbeiziehen würde?

Iruwen
2012-01-20, 10:58:34
Wie schon gesagt wurde muss er nicht vorbeiziehen, kann auch sein dass z.B. die Perf/mm² oder Watt deutlich besser ist oder NV die Dinger günstig in den Markt drückt.

M4xw0lf
2012-01-20, 11:01:05
Die reine Die-Fläche hat Nvidia seit Jahren keinen gewaltigen Vorsprung gebracht. Siehe GF110 vs. Cayman: 520mm² vs. 390mm² = 33% mehr Fläche für die Geforce, allerdings durchschnittlich etwa 15% mehr Performance (für die Topmodelle, GTX580 vs. HD6970).
Nvidia müsste schon in der Zwischenzeit Zaubern gelernt haben oder einen Pakt mit dem Teufel schließen um das plötzlich völlig auf den Kopf zu stellen. Ich glaube deswegen immer noch nicht, dass GK104 an Tahiti wirklich vorbeikommt, bestenfalls Gleichstand.

PCGH_Carsten
2012-01-20, 11:19:10
Die reine Die-Fläche hat Nvidia seit Jahren keinen gewaltigen Vorsprung gebracht. Siehe GF110 vs. Cayman: 520mm² vs. 390mm² = 33% mehr Fläche für die Geforce, allerdings durchschnittlich etwa 15% mehr Performance (für die Topmodelle, GTX580 vs. HD6970).
Nvidia müsste schon in der Zwischenzeit Zaubern gelernt haben oder einen Pakt mit dem Teufel schließen um das plötzlich völlig auf den Kopf zu stellen. Ich glaube deswegen immer noch nicht, dass GK104 an Tahiti wirklich vorbeikommt, bestenfalls Gleichstand.

Unabhängig vom endgültigen Kräfteverhältnis: Nvidia hat in den letzten Jahren den Preis in Sachen Die-Size für ihre Gehversuche im HPC-Bereich gezahlt. Jetzt wird der Markt für AMD interessant und sie investieren ebenfalls Die-Space in Dinge, die sich nicht direkt in Spieleleistung niederschlagen. Dass sich beide annähern, ist nur logisch.

M4xw0lf
2012-01-20, 11:25:44
Unabhängig vom endgültigen Kräfteverhältnis: Nvidia hat in den letzten Jahren den Preis in Sachen Die-Size für ihre Gehversuche im HPC-Bereich gezahlt. Jetzt wird der Markt für AMD interessant und sie investieren ebenfalls Die-Space in Dinge, die sich nicht direkt in Spieleleistung niederschlagen. Dass sich beide annähern, ist nur logisch.

"Annähern", genau das meine ich. Wenn GK104 Tahiti in den Boden rammen können soll, müsste Nvidia aber gewaltig vorbeiziehen statt sich nur anzunähern.

Dural
2012-01-20, 12:01:46
GK104 ist aber ein "reiner" Grafikchip, schon der GF104/GF114 hatte ein extrem gutes Verhältnis was Trans/Leistung betrifft.

Tahiti ist da einfach nur extrem schlecht mit seinen 4,3M. Transistoren.

Und das NV mit der "G80 Architektur" einfach mehr Platz für die Transistoren benötigt ist auch logisch, Stichwort Hot Clock.

Die Richtung hat GF104 schon ganz klar vorgezeigt und es verwundert mich kein Stück das ein GK104 mit deutlich weniger Transistoren als Tahiti die selbe Leistung erreicht.

Gaestle
2012-01-20, 12:05:14
"Annähern", genau das meine ich. Wenn GK104 Tahiti in den Boden rammen können soll, müsste Nvidia aber gewaltig vorbeiziehen statt sich nur anzunähern.


Soweit ich das mitbekommen habe, denkt doch niemand seriös an "vorbeiziehen" oder gar "in den Boden rammen" bei Taiti vs. GK104.

Eher wird doch erwartet, dass es am Ende so aussieht:
GK104 (beschnitten) < TahitiPro (7950) < GK104 (unbeschnitten) < TahitiXT (7970) < GK110 (beschnitten) < GK110 (unbeschnitten)

Bucklew
2012-01-20, 12:07:40
Die reine Die-Fläche hat Nvidia seit Jahren keinen gewaltigen Vorsprung gebracht. Siehe GF110 vs. Cayman: 520mm² vs. 390mm² = 33% mehr Fläche für die Geforce, allerdings durchschnittlich etwa 15% mehr Performance (für die Topmodelle, GTX580 vs. HD6970).
Nvidia müsste schon in der Zwischenzeit Zaubern gelernt haben oder einen Pakt mit dem Teufel schließen um das plötzlich völlig auf den Kopf zu stellen. Ich glaube deswegen immer noch nicht, dass GK104 an Tahiti wirklich vorbeikommt, bestenfalls Gleichstand.
Warum sollte das nach G80 nicht das zweite Mal passieren?

Iruwen
2012-01-20, 12:21:27
Weil Tahiti kein R600 ist?

Dimon
2012-01-20, 12:32:15
Weil Tahiti kein R600 ist?

Wer sagt das? schließlich macht man das ganze an dem konkurenzprodukt aus ....

Ailuros
2012-01-20, 12:40:36
Interessant, wie Charlie seine Bashnews genüsslich über 2-3 Seiten auswalzt, während er so etwas in 2 Absätze quetscht ;D

Naja, immerhin hat er soviel Anstand das selbst zu schreiben und nicht seine Schreiberlinge machen zu lassen, wie es bisher der Fall war.

Ich erklaer Dir gerne privat warum.

Bucklew
2012-01-20, 12:53:36
Weil Tahiti kein R600 ist?
Und warum sollte GK110 dann kein zweiter G80 sein?

Ailuros
2012-01-20, 12:56:49
Tahiti ist aber alleine schon von die Die-Größe her eigentlich kein Flagship, sondern einfach eine Performance GPU. Flagship Status hat gegenwärtig nur der Preis.

Warum sollte NV mit einem leicht kleineren Chip nicht fast an Tahiti rankommen und mit einem deutlich größteren Chip ebend auch vorbei? Die Frage ist nur welche Preise NV ansetzt. Geht GK104 mit 299$ an den Start, dann wäre das ein Wort. (Also in etwas das Niveau einer 560 2GB zum Launch)

Nochmal weil es viele leider nicht schnallen wollen:

NV braucht keinen dedizierten HPC Quark in einem performance chip wie GK104 weil sie eben den GK110/groessten chip dafuer haben. Egal ob es einige noch nicht glauben wollen es gab SEHR guten Grund wieso NV diesmal den top dog als letzten aufs Laufband brachte. Es ist eine quasi "zweischienige" Entwicklung ohne dass GK110 vom desktop ausgeschlossen wird und man von den kleineren chips in dem man von 104 und abwaerts viel mehr Transistoren gespart hat wie zuvor. Zweischienig weil es eine reine desktop Variante von Kepler fuer GK10x gibt und eine Variante fuer desktop und HPC fuer GK11x, ohne dass es natuerlich heissen sollte dass die beiden nicht zur gleichen Familie gehoeren. Eine solche Loesung ist billiger und effizienter.

AMD hatte bisher einen gewaltigen VORTEIL mit ihren performance chips so lange kein zu grosse HPC Konzentrierung in diesen lag. Mit GCN aenderte sich aber etwas das Blatt und alleine schon der zusaetzliche Aufwand fuer einen 384bit Bus um dem chip so viel wie moeglich Bandbreiten zu goennen macht schon einen sehenswerten Unterschied. Die area ist weniger ein Unterschied zu GK104 da die beiden nicht allzu weit entfernt sind, aber Transistoren dann schon. Hier duerfte der Unterschied bis zu 30% gross sein. AMD hat hier keine andere Wahl als HPC auf Tahiti zu schleussen da es ihr groesster chip ist und sie nicht mehr nahezu am maximalen Rand jeglichen Herstellungsprozesses entwickeln. Tahiti ist als chip klein, effizient und stromsparend genug dass es momentan kein ernsthaftes Problem sein sollte. Sollte aber in absehbarer Zukunft die Not fuer eine prozentuelle Steigerung von HPC dedizierten Transistoren kommen, muessten sie sich vielleicht langfristig ihre Strategie nochmal ueberdenken. Bis zu 14nm glaube ich nicht persoenlich dass es so weit kommt, aber danach koennte es vielleicht heikler werden als heute.

redfirediablo
2012-01-20, 13:04:13
Ich erklaer Dir gerne privat warum.

Würde mich auch interessieren.

Ich kann mir nur vorstellen, das es ein Joke ist und er morgen mitteilt, das er auf der CES von Nvidia mit Alc, Koks und Nutten betäubt und dann sein Passwort geklaut wurde.

Mal ganz ehrlich, selbst wenn Charlie solches Infos hätte, würde er die doch nicht (selber) schreiben, in welcher Form auch immer. Es sei denn er will den Artikel als credit für einen späteren rant haben, so nach dem Motto, ich bin nicht biased.

N0Thing
2012-01-20, 13:17:01
Das ist intressant, hätte mit A1 gerechnet, das würde auf jeden Fall die Verspätung erklären.

Ich würde es eher umgekehrt deuten. Aufgrund der geringen Produktionsmenge seitens TSMC kann man die Zeit für eine Überarbeitung des Chips nutzen und hat später für das größere Produktionsvolumen ein besseres Produkt zur Hand. Sprich, hätte TSMC schon zu beginn des Jahres wie geplant voll produzieren können, hätte NV den GK104 eben als A1 auf den Markt gebracht.

Iruwen
2012-01-20, 13:19:08
Und warum sollte GK110 dann kein zweiter G80 sein?
Es ging um GK104. Und dass mit GK110 ein bezüglich Die Size, Leistungsaufnahme, Leistung und Preis auch nur ansatzweise ähnliches Verhältnis zustande kommt wie bei G80 vs R600 ist wohl reines Wunschdenken wenn man sich die Taktreserven bzw. Undervoltingmöglichkeiten der 7970 ansieht und evtl. eine Preisreduktion einplant.

Bucklew
2012-01-20, 13:23:27
Es ging um GK104. Und dass mit GK110 ein bezüglich Die Size, Leistungsaufnahme, Leistung und Preis auch nur ansatzweise ähnliches Verhältnis zustande kommt wie bei G80 vs R600 ist wohl reines Wunschdenken wenn man sich die Taktreserven bzw. Undervoltingmöglichkeiten der 7970 ansieht und evtl. eine Preisreduktion einplant.
Oder auch GK104. Aber ich sehe wo wir aneinander vorbeigeredet sind: Du redest über den relativen Unterschied zwischen R600 und G80, ich rede nur über die absolute Leistung von Gk104 verglichen mit G80 ;)

AnarchX
2012-01-20, 13:35:38
http://www.abload.de/img/gtx680plxk8.jpg

http://diybbs.zol.com.cn/56/231_558125_49.html

M4xw0lf
2012-01-20, 13:44:19
Und die Aufschrift so jämmerlich unkenntlich gemacht, dass es noch ein Blinder lesen kann?
Kommt mir spanisch, nein, chinesisch vor. :wink:

Iruwen
2012-01-20, 13:52:31
Oder auch GK104. Aber ich sehe wo wir aneinander vorbeigeredet sind: Du redest über den relativen Unterschied zwischen R600 und G80, ich rede nur über die absolute Leistung von Gk104 verglichen mit G80 ;)
Mit irgendwas muss man ja vergleichen, wenn man die Vorgängergeneration zugrunde legt müsste GK104 auch Tahiti in den Boden stampfen um ein neuer G80 zu werden. Solche Sprünge kann man heute wohl nicht mehr erwarten.

Godmode
2012-01-20, 14:01:23
http://www.abload.de/img/gtx680plxk8.jpg

http://diybbs.zol.com.cn/56/231_558125_49.html

Dann dürften bald mehr Informationen durchsickern, vorausgesetzt es ist kein Fake.

boxleitnerb
2012-01-20, 14:03:26
Wenn man bei perf/W und perf/mm2 gewinnt, sollte es dann nicht auch möglich sein, die 7970 zu schlagen? Mit einer Ti z.B. den Takt soweit erhöhen bis man leicht drüber ist.

Da NV anscheinend zweigleisig fährt, wie Ail andeutet, könnte man mit GK110 einiges an diesen Vorteilen einbüßen? Ich befürchte nur, dass man im Segment, in dem GK104 spielt, komplett auftrumpft, darüber aber wieder brute force macht mit 250+W TDP, eben wegen der HPC-Orientierung. Es wäre schön, wenn die gute Effizienz von GK104 zumindest halbwegs auch in GK110 stecken würde.

Ailuros
2012-01-20, 14:05:46
Ich würde es eher umgekehrt deuten. Aufgrund der geringen Produktionsmenge seitens TSMC kann man die Zeit für eine Überarbeitung des Chips nutzen und hat später für das größere Produktionsvolumen ein besseres Produkt zur Hand. Sprich, hätte TSMC schon zu beginn des Jahres wie geplant voll produzieren können, hätte NV den GK104 eben als A1 auf den Markt gebracht.

Du hast Dir einen virtuellen Keks verdient. Metal spins sind meistens auch sehr praktisch wenn man den Takt etwas erhoehen will ;)

Duplex
2012-01-20, 14:08:59
Ich hätte kein Problem damit wenn GK110 bei 300W TDP 30-50% schneller als Tahiti XT wäre.

Ailuros
2012-01-20, 14:13:14
Wenn man bei perf/W und perf/mm2 gewinnt, sollte es dann nicht auch möglich sein, die 7970 zu schlagen? Mit einer Ti z.B. den Takt soweit erhöhen bis man leicht drüber ist.

Mit A2 kommen sie IMO naeher. "Schlagen" ist dann auch Ansichtssache. IMHO reicht es wenn das finale GK104/GTX680 so nahe unterhalb der 7970 dass der Unterschied nicht besonders viel der Rede wert ist im Durchschnitt. Den Rest regelt dann der Preiskrieg.

Da NV anscheinend zweigleisig fährt, wie Ail andeutet, könnte man mit GK110 einiges an diesen Vorteilen einbüßen? Ich befürchte nur, dass man im Segment, in dem GK104 spielt, komplett auftrumpft, darüber aber wieder brute force macht mit 250+W TDP, eben wegen der HPC-Orientierung. Es wäre schön, wenn die gute Effizienz von GK104 zumindest halbwegs auch in GK110 stecken würde.

Und wieso werben sie dann so vehement mit sustainable DP FLOPs per Watt fuer Kepler Teslas im Vergleich zu Fermi Teslas? Ich weiss zwar noch nicht wo der Stromverbrauch beim vollen GK110 liegen koennte, aber ich sehe keine besonderen Grund dass sie mit irgendeinem TDP bis zu schaetzungsweise 240-250W nicht einen ziemlich hohen Leistungsunterschied zu GF110 haben koennten. Wer jetzt im Durchschnitt 100, 200, 300% mehr Leistung erwartet wird wohl enttaeuscht sein. Aber solch eine Unterschied gab es auch nie bis jetzt.

Ich hätte kein Problem damit wenn GK110 bei 300W TDP 30-50% schneller als Tahiti XT wäre.

Das waere ein Disaster.

AnarchX
2012-01-20, 14:14:11
Das waere ein Disaster.
Weil AMD noch eine 30% schnellere XTX mit ~240W TDP nachschiebt?

boxleitnerb
2012-01-20, 14:19:05
Und wieso werben sie dann so vehement mit sustainable DP FLOPs per Watt fuer Kepler Teslas im Vergleich zu Fermi Teslas? Ich weiss zwar noch nicht wo der Stromverbrauch beim vollen GK110 liegen koennte, aber ich sehe keine besonderen Grund dass sie mit irgendeinem TDP bis zu schaetzungsweise 240-250W nicht einen ziemlich hohen Leistungsunterschied zu GF110 haben koennten. Wer jetzt im Durchschnitt 100, 200, 300% mehr Leistung erwartet wird wohl enttaeuscht sein. Aber solch eine Unterschied gab es auch nie bis jetzt.

Ist DP-FLOPs/W gleichzusetzen mit Spieleperformance/W?
Der HPC-Fokus macht GK110 in 3D also nicht (deutlich) ineffizienter im Vergleich zu GK104? Dass sie GK104 in dieser Hinsicht kastriert haben, macht schon Sinn - meine Frage dazu ist allerdings, ob das aus rein wirtschaftlichen Gründen so ist oder aus "Not", weil der Chip mit HPC-Fokus (eben GK110) wieder in Richtung Fermi 2.0 gehen würde/geht, was perf/W angeht.

Gipsel
2012-01-20, 14:27:26
Das waere ein Disaster.
Wenn AMD noch eine ~20% schnellere HD7980 in ~250W bringt (das scheint möglich), würde das den hypothetischen 50% Abstand der HD7970 auf den GK110 auf nur noch 25% verringern. Das ist dann auch nicht mehr so viel mehr als es die ganzen letzten Generationen war. Das würde die hypothetische HD7980 in Schlagdistanz zum Salvage-Modell des GK110 bringen, ähnlich wie es oft war (HD5870 vs. GTX470, HD6970 vs. GTX570), vielleicht diesmal mit 10% schlechterem Abschneiden, also nichts wirklich Weltbewegendes.

Ich habe das schon mal geschrieben, aber vielleicht hat sich AMD mit seinem frühen Launch performancemäßig auch etwas in die Nesseln gesetzt. Die ersten Batches des finalen Siliziums haben wahrscheinlich durch noch nicht ganz ausgebügelte Prozeß-Variationen wild variierende Bin-Splits gehabt, weswegen AMD die Takt-/Spannungskombination offenbar sehr konservativ gewählt hat (sprich niedriger Takt bei hoher Spannung). Die eigentlich durch die Bank guten Übertaktungsergebnisse (auch die Undervolting-Fähigkeiten, einige haben wohl den Chip bei 925MHz Standardtakt mit unter 0,9V laufen, Standardspannung ist aber 1,17V :freak:) deuten etwas darauf hin. Jetzt ist es aber zu spät, da noch was dran zu drehen.
NVidia hat es aus Performance-Sicht vielleicht genau richtig gemacht lieber noch etwas zu warten und noch einen Spin einzuschieben (falls der wegen irgend einem kleinem Bug nicht sowieso nötig war) und nutzt damit die Fähigkeiten von 28nm schlicht besser aus.

boxleitnerb
2012-01-20, 14:32:44
Die eigentlich durch die Bank guten Übertaktungsergebnisse (auch die Undervolting-Fähigkeiten, einige haben wohl den Chip bei 925MHz Standardtakt mit unter 0,9V laufen, Standardspannung ist aber 1,17V :freak:) deuten etwas darauf hin.

Das war beim Bitcoin Mining aber nur, wenn man den Speichertakt massivst senkt. Oder hat das jemand auch in 3D hinbekommen stabil? Das wage ich ganz ganz stark zu bezweifeln.

Gipsel
2012-01-20, 14:45:57
Das war beim Bitcoin Mining aber nur, wenn man den Speichertakt massivst senkt. Oder hat das jemand auch in 3D hinbekommen stabil? Das wage ich ganz ganz stark zu bezweifeln.
Beim Bitcoining mit massiv abgesenktem Speichertakt war das stabile Minimum offenbar 0,84V @ 925MHz Chiptakt :eek:. Vielleicht/wahrscheinlich benötigt der Speichercontroller für die 1,375 GHz Speichertakt ein wenig mehr Saft, oder es gibt ähnlich wie bei CPUs auch sowas wie eine maximale Differenz zwischend der Speicherspannung und der Prozessorspannung (nur daß hier nicht der Prozessor durchknallt, sondern das einfach abschmiert?). Aber das hat der Typ ja gar nicht ausprobiert (sieht man ganz klar daran, daß er bei seinen Versuchen und Verbrauchsmessungen zuerst den Speichertakt reduziert hat, während der Chip noch bei Standardspannung lief und sich erst danach an niedrigere Spannungen herangetastet hat), weil es ihm darauf ankam, möglichst stromsparend unterwegs zu sein (und ein abgesenkter Speichertakt spart Strom aber beeinträchtigt bei Bitcoin nicht die Performance). Ist ja auch egal, der Chip (also der Bitcoin mit 925MHz@0,84V macht) an sich ist sicher auch spätestens bei 1,0V 3D stabil. Den damit erreichbaren Speichertakt müßte nur mal wer ausprobieren.

Wie auch immer, ist hier ziemlich OT. Die Take Home Message ist einfach nur, daß Tahiti offensichtlich noch ein paar Reserven hat. NVidia könnte dagegen ihre Chips (und die Frequenzen/Spannungen) einfach auf Anhieb besser abgestimmt haben.

Skysnake
2012-01-20, 14:49:16
Nochmal weil es viele leider nicht schnallen wollen:

NV braucht keinen dedizierten HPC Quark in einem performance chip wie GK104 weil sie eben den GK110/groessten chip dafuer haben. Egal ob es einige noch nicht glauben wollen es gab SEHR guten Grund wieso NV diesmal den top dog als letzten aufs Laufband brachte. Es ist eine quasi "zweischienige" Entwicklung ohne dass GK110 vom desktop ausgeschlossen wird und man von den kleineren chips in dem man von 104 und abwaerts viel mehr Transistoren gespart hat wie zuvor. Zweischienig weil es eine reine desktop Variante von Kepler fuer GK10x gibt und eine Variante fuer desktop und HPC fuer GK11x, ohne dass es natuerlich heissen sollte dass die beiden nicht zur gleichen Familie gehoeren. Eine solche Loesung ist billiger und effizienter.

AMD hatte bisher einen gewaltigen VORTEIL mit ihren performance chips so lange kein zu grosse HPC Konzentrierung in diesen lag. Mit GCN aenderte sich aber etwas das Blatt und alleine schon der zusaetzliche Aufwand fuer einen 384bit Bus um dem chip so viel wie moeglich Bandbreiten zu goennen macht schon einen sehenswerten Unterschied. Die area ist weniger ein Unterschied zu GK104 da die beiden nicht allzu weit entfernt sind, aber Transistoren dann schon. Hier duerfte der Unterschied bis zu 30% gross sein. AMD hat hier keine andere Wahl als HPC auf Tahiti zu schleussen da es ihr groesster chip ist und sie nicht mehr nahezu am maximalen Rand jeglichen Herstellungsprozesses entwickeln. Tahiti ist als chip klein, effizient und stromsparend genug dass es momentan kein ernsthaftes Problem sein sollte. Sollte aber in absehbarer Zukunft die Not fuer eine prozentuelle Steigerung von HPC dedizierten Transistoren kommen, muessten sie sich vielleicht langfristig ihre Strategie nochmal ueberdenken. Bis zu 14nm glaube ich nicht persoenlich dass es so weit kommt, aber danach koennte es vielleicht heikler werden als heute.

Das würde genau meiner Vermutung seit längerem entsprechen. Der Split zwischen 1x4 und 1x0 wird noch größer als bei Fermi. der 1x4er rein auf Gaming und der 1x0er dafür voll auf HPC, womit er dann unterm Strich zwar noch immer etwas schneller ist als der 1x4 im Gaming, aber absolut nicht darauf ausgelegt ist. Die ganzen Verrückten kaufen sich das Ding aber trotzdem für 500€+, weils halt die schnellste Karte ist.

Tja, hätte AMD mal lieber auch gemacht. Mit GCN noch mehr auf HPC gehen und mit VLIW weiter auf Gaming setzen.

V2.0
2012-01-20, 14:51:47
Wenn AMD noch eine ~20% schnellere HD7980 in ~250W bringt (das scheint möglich), würde das den hypothetischen 50% Abstand der HD7970 auf den GK110 auf nur noch 25% verringern. Das ist dann auch nicht mehr so viel mehr als es die ganzen letzten Generationen war. Das würde die hypothetische HD7980 in Schlagdistanz zum Salvage-Modell des GK110 bringen, ähnlich wie es oft war (HD5870 vs. GTX470, HD6970 vs. GTX570), vielleicht diesmal mit 10% schlechterem Abschneiden, also nichts wirklich Weltbewegendes.


Das setzt aber vorraus, dass NV für GK110 eine hohe TDP hat. Wenn sie 50% gegenüber der 7970 bei 240W TDP finden würden, wäre selbst eine XTX nicht mehr spannend. Man muss bedenken NV hat schon lage die GPGPU Integration am laufen und man hat sich sehr viele Gedanken über den Verbrauch gemacht. So hat man imho viel über die partielle Abschaltung von Chipteilen nachgedacht. Da kann viel Potential gefunden worden sein.

Gipsel
2012-01-20, 15:01:40
Das setzt aber vorraus, dass NV für GK110 eine hohe TDP hat. Wenn sie 50% gegenüber der 7970 bei 240W TDP finden würden, wäre selbst eine XTX nicht mehr spannend.GK110 wird schon über 225W liegen. Und die hypothetische 7980 muß noch nicht mal eine deutlich höhere TDP aufweisen als die HD7970, wenn man es richtig anfängt (Spannung am Chip gleich lassen, Speicherspannung etwas absenken, die geben da momentan 0,1V mehr drauf als spezifiziert, weswegen auch der Speicher meist sehr hoch geht). Nur die Binsplits müssen das hergeben.

MorPheuZ
2012-01-20, 15:16:35
Ich kann noch nicht ganz begreiffen warum der 104er die GTX680 sein soll laut Ail... wo liegt dann die GTX660 im Vergleich zum Vorgänger - wenn die 680 nicht min. 7970 gleichauf ist? Wenn das so sein soll muss die 104 = > sein als TahitiXT.

AnarchX
2012-01-20, 15:30:47
Auch Chiphells Napoleon hat von der GK104-GTX 680 gehört.
Wohl möglich lässt man GF114 noch einige Zeit weiterlaufen, vielleicht auch als GTX 660. Alternativ soll es ja auch noch GK106 geben, der vielleicht bei 60-70% von GK104 liegen könnte.

Für die Back to school Season steht dann vielleicht schon GeForce 700 an. ;D

Blediator16
2012-01-20, 15:36:16
Gibts den 104 überhaupt. Vll kommt direkt der gk110 und man will Maulwürfe erwischen?

Gipsel
2012-01-20, 15:48:43
Trick 17: Es werden Karten mit GK106 und Benchmarks mit GK110 gezeigt und gesagt es wäre GK104? :freak:

Tja, das glaube ich dann doch nicht so recht.

Orbmu2k
2012-01-20, 16:27:55
http://www.abload.de/img/gtx680plxk8.jpg

http://diybbs.zol.com.cn/56/231_558125_49.html

Sieht nach GK110 Fake aus ... ebenfalls A2 ?

Edit:
Wenn man genauer hinschaut sieht man dass GK, die 2 von A2 dicker und andere Schrifft ist.
Zudem ist die Nummer darüber exakt die gleiche wie bei dem GF110 Chip von dort:
http://hardware.mydrivers.com/Img/20101109/S08025580.jpg

FAKE!

Gaestle
2012-01-20, 16:29:04
Weil AMD noch eine 30% schnellere XTX mit ~240W TDP nachschiebt?

Vermutlich eher, weil dann wohl die NV-internen Zielvorstellungen deutlich verfehlt würden.

Hugo78
2012-01-20, 16:45:53
Ich kann noch nicht ganz begreiffen warum der 104er die GTX680 sein soll laut Ail... wo liegt dann die GTX660 im Vergleich zum Vorgänger - wenn die 680 nicht min. 7970 gleichauf ist? Wenn das so sein soll muss die 104 = > sein als TahitiXT.

Möglich wäre das selbe Vorgehen, wie AMD es bei den HD6k eingeführt hat.
Das man die GTX 680 nicht als Nachfolger der GTX 580 vermarktet, sondern diese den Platz der x70 einnimmt.

Grade wenn die GK104 rein auf Spiele ausgelegt ist und GK110 nicht verhältnismässig viel mehr in Spielen bringt,
wenn dieser viel stärker auf die HPC Bedürfnisse ausgelegt ist.

Die GTX 690 wäre dann der alleinige GK110 Ableger, neben einer MGPU Version (GTX 695) im Retailmarkt.
Die GTX 685 könnte dann ein GK104 MGPU sein.

Nach unten hin könnte man dann weiter streuen, wobei die x60 degradiert wird, was aber auch zuletzt schon der der 450 und 550, ggü der 250 "zugestoßen" ist.
Oder anders, die kleineren Chips GK 106 und GK107 werden namentlich aufgewertet.
Wie mans nimmt.

Hades11
2012-01-20, 18:24:34
und ich hoffe immernoch auf eine GK110 version ohne dieses HPC und co.
Ich bin es langsam Satt auf dem markt einen schwächeren finalen Gk110 zu bekommen der dafür etwas kann was ich nicht nutzen möchte.

Es wird endlich mal Zeit dass sich Nvidia (und AMD) voll auf die gaming leistung und Bildqualität (von mir aus auch gerne mit >300W TDP, wenn es denn kühl genug bleibt) konzentrieren und für das restliche Zeug eine seperate entwicklung anlegen, damit das nicht auf tausenden Gaming karten unnötig performance frisst.

Adam D.
2012-01-20, 18:54:18
und ich hoffe immernoch auf eine GK110 version ohne dieses HPC und co.
Ich bin es langsam Satt auf dem markt einen schwächeren finalen Gk110 zu bekommen der dafür etwas kann was ich nicht nutzen möchte.

Es wird endlich mal Zeit dass sich Nvidia (und AMD) voll auf die gaming leistung und Bildqualität (von mir aus auch gerne mit >300W TDP, wenn es denn kühl genug bleibt) konzentrieren und für das restliche Zeug eine seperate entwicklung anlegen, damit das nicht auf tausenden Gaming karten unnötig performance frisst.
Um die ganzen Konsolenports mit 500 statt 420 fps darzustellen? Willst du 'ne Gaming-Karte, kaufst du den GK104.

Skysnake
2012-01-20, 19:37:44
und ich hoffe immernoch auf eine GK110 version ohne dieses HPC und co.
Ich bin es langsam Satt auf dem markt einen schwächeren finalen Gk110 zu bekommen der dafür etwas kann was ich nicht nutzen möchte.

Es wird endlich mal Zeit dass sich Nvidia (und AMD) voll auf die gaming leistung und Bildqualität (von mir aus auch gerne mit >300W TDP, wenn es denn kühl genug bleibt) konzentrieren und für das restliche Zeug eine seperate entwicklung anlegen, damit das nicht auf tausenden Gaming karten unnötig performance frisst.
Dasbekommst du wohl mit den kleineren Chips. Wenn du aber High-Ens willst, wirst du wohl nie wieder eine Karte mit weniger HPC Zeugs drin sehen, und ich finde das auch gut so. Die Gamer kaufen doch eh... Da kann man die Stückzahlen wenigstens für was sinnvolles einsetzen

Ailuros
2012-01-20, 21:39:44
GK110 wird schon über 225W liegen. Und die hypothetische 7980 muß noch nicht mal eine deutlich höhere TDP aufweisen als die HD7970, wenn man es richtig anfängt (Spannung am Chip gleich lassen, Speicherspannung etwas absenken, die geben da momentan 0,1V mehr drauf als spezifiziert, weswegen auch der Speicher meist sehr hoch geht). Nur die Binsplits müssen das hergeben.

Spannung hin und her ich bezweifle dass sie fuer New Zealand hoehere Frequenzen als TahitiXT erreichen koennen und das wohl auch nur mit Spannungs-Optimierungen. Unter normalen Umstaenden benutzen beide IHVs keine chip configs die pro chip mehr als 170-180W TDP haben fuer mGPU und hier sind 6990 und 590 wohl eher Ausnahmen dank fehlendem 32nm. Dass die Spannungsaenderung theoretisch bis zu 40W sparen koennte bei 925MHz will ich ernsthaft bezweifeln.

Gipsel
2012-01-20, 21:45:53
Dass die Spannungsaenderung theoretisch bis zu 40W sparen koennte bei 925MHz will ich ernsthaft bezweifeln.
Von 1,17V runter auf 1,0V macht das sicher. Aber das wird OT.

Ailuros
2012-01-20, 21:52:40
und ich hoffe immernoch auf eine GK110 version ohne dieses HPC und co.
Ich bin es langsam Satt auf dem markt einen schwächeren finalen Gk110 zu bekommen der dafür etwas kann was ich nicht nutzen möchte.

Es wird endlich mal Zeit dass sich Nvidia (und AMD) voll auf die gaming leistung und Bildqualität (von mir aus auch gerne mit >300W TDP, wenn es denn kühl genug bleibt) konzentrieren und für das restliche Zeug eine seperate entwicklung anlegen, damit das nicht auf tausenden Gaming karten unnötig performance frisst.

Dann kannst Du lange hoffen. Teslas sind uebrigens niedriger getaktet um weniger Strom zu verbrauchen als desktop GPUs; wuerde das HPC Zeug hypothetisch wegfallen gibt es keine Garantie dass IHVs den Unterschied auch wirklich in zusaetzlichen 3D Transistoren investieren wuerden.

Quadros und Teslas bringen sehr hohe Margen pro chip; entfaellt dieses muss man sofort anders denken wie gross ein chip werden darf weil man eben hohe Herstellungskosten nicht mehr so leicht schlucken kann. Und es ist eben nicht so dass das HPC Zeug einen so grossen Anteil frisst dass es wirklich so viel an 3D Leistung gefaerdet.

Hübie
2012-01-20, 23:14:37
Was genau fällt denn nach der Definition alles unter HPC-Zeugs?

Raff
2012-01-20, 23:22:23
Von 1,17V runter auf 1,0V macht das sicher. Aber das wird OT.

Definitiv (siehe kommende PCGH ;)).

MfG,
Raff

Hübie
2012-01-20, 23:33:56
Entweder hatte AMD nicht genug Zeit zum testen oder es gibt in der Tat eine so hohe Serienstreuung. An die 0.2 Volt finde ich für GPU-Verhältnisse nicht wenig und sollte angesichts der hohen Ströme nicht unbeachtet bleiben.

btw: Raff, du solltest im Marketing arbeiten ;D Dezenter kann man Werbung ja fast gar nicht mehr platzieren! Wäre auch gern mal euer Voluntär =)

y33H@
2012-01-20, 23:47:56
Du kannst dich wie gehabt bewerben ;)

Hübie
2012-01-21, 00:42:58
Frau sagt nein! ;D

Kann mir nun mal einer sagen was ihr mit HPC-Zeug meint?

Screemer
2012-01-21, 01:12:56
Z.b. ecc und große Caches.

Hugo78
2012-01-21, 06:23:00
Z.b. ecc und große Caches.

+ Eine Anordnung die primär auf das erreichen einer optimalen Perf./W bei DP Leistung abzielt, muss scheinbar nicht automatisch auch die best mögliche SP Leistung bringen.

HPVD
2012-01-21, 09:18:19
Z.b. ecc und große Caches.

+ Eine Anordnung die primär auf das erreichen einer optimalen Perf./W bei DP Leistung abzielt, muss scheinbar nicht automatisch auch die best mögliche SP Leistung bringen.

und wieviel der Gesamtfläche bzw des Gesamtstrombedarfs eines Chips der GF/GK110 Klasse macht das ca aus?
(denn das ist ja der Teil der nicht in Grafikperformance investiert wurde/werden kann...)

Ailuros
2012-01-21, 10:35:56
Um die Frage fuer GK110 zu beantworten muesst man genaue details ueber diesen haben und 104 und co. und was in 110 an exklusiven cuda-next features genau steckt.

Ich kann's Dir nicht genau einschaetzen, dafuer muesste eher Gipsel unter die Arme greifen mit einer Schaetzung. Bei Tahiti koennte man grob einschaetzen wie viel der 384bit bus gegenueber 256bit ungefaehr kostet und der restliche HPC Schnickschnack. Soooo viel kleiner waere der chip IMHO aber nicht gewesen ohne das vorerwaehnte.

Hades11
2012-01-21, 11:25:34
Um die ganzen Konsolenports mit 500 statt 420 fps darzustellen? Willst du 'ne Gaming-Karte, kaufst du den GK104.
[übertreiben]
um endlich 8 SGSSAA mit 8 fachem Downsampling (+16 AF,...) auf einem Multimonitorsystem mit einer einzelnen Karte (ja ich weiß momentan max 2 Monitore an einer Karte) darstellen zu können.
[/übertreiben]
solange man mit einer Highend Karte ( = keine SLI/Crossfire bedingten Microruckler) noch nicht alles an Bildqualität rausholen kann was möglich wäre weil die Leistung dafür nicht ausreicht hat man imho mehr als genug Gründe für mehr Leistung.
GK104 wird mit 99,99% warscheinlichkeit schwächer als GK110 und würde an dieser stelle dann auch nicht helfen.
Dasbekommst du wohl mit den kleineren Chips. Wenn du aber High-Ens willst, wirst du wohl nie wieder eine Karte mit weniger HPC Zeugs drin sehen, und ich finde das auch gut so. Die Gamer kaufen doch eh... Da kann man die Stückzahlen wenigstens für was sinnvolles einsetzen
ich Rechne auch nicht wirklich damit in nächster zeit einen Highend chip ohne hpc zu finden, daher schrieb ich ja "ich hoffe"
und was soll daran sinnvoll sein dass man tausende Grafikkarten mit etwas ausstattet was von der stark Überwiegenden mehrheit nicht genutzt wird statt es seperat anzubieten ? (für die Nutzer, nicht für die verkaufenden/herstellenden unternehmen)
Dann kannst Du lange hoffen. Teslas sind uebrigens niedriger getaktet um weniger Strom zu verbrauchen als desktop GPUs; wuerde das HPC Zeug hypothetisch wegfallen gibt es keine Garantie dass IHVs den Unterschied auch wirklich in zusaetzlichen 3D Transistoren investieren wuerden.
auch wieder wahr
... Und es ist eben nicht so dass das HPC Zeug einen so grossen Anteil frisst dass es wirklich so viel an 3D Leistung gefaerdet.
hmm na dann werd ich wohl damit leben können.
OT: vielleicht sollte man eine spendehotline ins leben rufen damit du dir eine Tastatur mit umlauten leisten kannst ;D

Ailuros
2012-01-21, 11:39:14
Es liegt nicht an keyboards selber sondern an Faulheit weil ich sowohl von zu Hause als auch von der Arbeit hier schreibe; in beiden Faellen nicht nur von einem Geraet. Alles auf deutsch umzustellen dauert und bei der Arbeit wird es auch andere geben die dann damit nicht umkoennen koennen.

Sunrise
2012-01-21, 13:05:37
und ich hoffe immernoch auf eine GK110 version ohne dieses HPC und co.
Ich bin es langsam Satt auf dem markt einen schwächeren finalen Gk110 zu bekommen der dafür etwas kann was ich nicht nutzen möchte.
Grundsätzlich gebe ich dir da Recht, allerdings sehe ich das aktuell NOCH nicht so gravierend.

Sagen wir mal, GK110 liefert etwa 1.5x das, was GK104 liefern wird, bei etwa 10% niedrigeren Taktraten. Diese 50% mehr sind im Endeffekt aber irreführend, da dieser wohl nicht mehr den Bandbreiten-Flaschenhals von GK104 haben wird. Das kann sich also schon enorm auswirken, gerade wo du ja diese extremen Settings ansprichst. An Rohleistung sollte es GK110 nicht mangeln, evtl. wird hier zwar etwas an Texturleistung "gespart", was aber nicht kritisch sein sollte.

Ob NV jetzt 20% (aufgrund der Caches, ECC, zusätzlicher Logik) mehr ALUs für ein SP-Design verbauen könnte, ist mir persönlich auch egal, wenn das komplette Design, bzw. der Chip ausgewogen ist. Denn das ist IMHO das Wichtigste.

Natürlich will auch NV eine GPU, die High-End-Spieleleistung liefert. Da man aktuell aber praktisch nichts über die Leistungsdaten, weder von GK104 oder GK110 weiß, ist es für Panik noch zu früh.

Am Ende des Tages muss NV genug Geld verdienen, damit wir uns in Zukunft über gute Produkte freuen können.

boxleitnerb
2012-01-21, 13:09:16
50% ? Die 580 ist keine 50% schneller als die 560Ti. Ich glaube, das ist doch etwas zu optimistisch oder?

Sunrise
2012-01-21, 13:12:16
50% ? Die 580 ist keine 50% schneller als die 560Ti. Ich glaube, das ist doch etwas zu optimistisch oder?
Nein, nicht absolut. Aber in Einheiten ausgedrückt. Was da im Endeffekt ankommt, werden wir sehen müssen.

boxleitnerb
2012-01-21, 13:14:00
Achso meinst du das. Hm, das haben wir bei GF114 vs. GF110 aber auch nicht gesehen bis auf das SI und die ROPs.

Sunrise
2012-01-21, 13:24:26
Achso meinst du das. Hm, das haben wir bei GF114 vs. GF110 aber auch nicht gesehen bis auf das SI und die ROPs.
Ich denke, wenn NV vorhat GK110 im Desktop zu verkaufen, werden die Preise sicher nicht niedrig sein. Damit man das Ding aber überhaupt absetzen kann, sollte dort genug Desktop-Leistung vorhanden sein um den Aufpreis zu GK104 rechtfertigen zu können. Man muss also auch deutlich mehr als GK104 bieten, ansonsten macht es IMHO wenig Sinn.

Wenn sich diese 50% mehr Einheiten in 30% Mehrleistung auswirken, fände ich das bereits ziemlich beeindruckend. Alles darunter wäre IMHO nicht der Rede wert.

boxleitnerb
2012-01-21, 13:34:50
Gegenfrage:
Ist die 580 ggü. der 560 Ti gerechtfertigt? 35% mehr Leistung aber mehr als doppelt so teuer.

aylano
2012-01-21, 14:01:19
Natürlich pro Monat. Seit wann wird bei TSMC denn in Quartalen gerechnet?

Ich wollte mich nur vergewissern, da du einiges sehr verwirrend schreibst.
Schließlich ist Fab15-Phase1 schon die 2. 28nm-Fabrik.


Es gab im Netz mehrere öffentlich zugängliche Quellen, die besagen, dass die IHVs aktuell aufgrund des Andrangs auf Produktionskapazitäten für die 28nm-Produktion höhere Preise in Kauf nehmen müssen, weil nicht genügend vorhanden sind.

Ich bin mal so nett und habe für dich gesucht:
http://www.xbitlabs.com/news/other/display/20110912192619_TSMC_Reportedly_Hikes_Pricing_on_28nm_Wafers_Due_to_Increased_Dem and.html
Ja eh, ich wunderte mich warum nur AMD hohe Wafer-Preise zahlen soll. Die 4000-5000$-Waferpreise wird Nvidia ja auch erstmals zahlen, sodass die Preise nicht nach belieben fallen werden.


Die "variable Ausbeute" bei AMD ist wie vieles hier Spekulation meinerseits.
Achso, die Spekulation ist aber alt.
Die Variable Ausbeute kann aber auch durch TSMC gelöst werden, ohne ein neues Stepping zu brauchen.
Entscheidend für ein neues Stepping ist halt, wie schnell & wie weit sich die 28nm-Qualität gerade entwickelt bzw. noch entwickeln kann, sowie die Berücksichtigung zur Nachfolger-Generation.

Ich meine im Presseraum von TSMC gelesen zu haben das man auch erst im Oktober die volle Kapazität (lt. Plan) erreicht. Nicht zu vergessen, das ja noch jede Menge anderer 28nm Chips in Auftrag gegeben wurden/werden.
Der (ultra)mobile-market boomed ja momentan wie blöd.
Der Ramp einer Fabriks-Phase dauert laut meinen Informationen auch 1 Jahr.
So in Oktober wurde der Thati-Ramp begonnen.
Die Masse an Smartphones-SoCs würde ich eher gerade von 55nm auf 40nm sehen.
28nm-SoC werden eher High-End-SoCs bzw. vielleicht in den Massen-Markt eingeführt.
Eher sehe ich Apple als unbekannte, die alle ihrer Smartphone & Tablet-Produkte in neuerster 28nm einführen würde.


AMD nutzt halt die Gunst der Stunde gerade allein am Markt zu sein mit 28nm, und so die schnellste GPU haben zu können.

Das ist mehr ein Image-Voreil, als noch ein Finanzieller. Was am Schluss rauskommt, werden wir erst sehen.
Die Aussichten für Produkte, die in 2+ Monaten kommen, waren meist immer sehr gut.
Außerdem wissen wir noch nicht, ob die Yield der AMD-GPUs zu der Zeit überhaupt besser waren als bei Nvidia, wo AMD Thaiti starte.

Sunrise
2012-01-21, 14:09:22
Gegenfrage:
Ist die 580 ggü. der 560 Ti gerechtfertigt? 35% mehr Leistung aber mehr als doppelt so teuer.
GF114 ist relativ zu GF110 so verdammt gut optimiert und gepreist worden (das meinte ich mit Ausgewogenheit), das ich hier schon ein paar Minuten überlegen musste. GK104 könnte natürlich Ähnliches auffahren und das sofort und nicht erst Monate später als noch bei der GF110-GF114-Situation.

Aber zu deiner Frage:
Die 580 hat IMHO immernoch ihre Berechtigung. Alles deutlich unter 30% wären aber reine Geldverschwendung. Ich persönlich würde NV nicht den doppelten Preis für 20% Mehrleistung zahlen.

boxleitnerb
2012-01-21, 14:12:51
Mit 20% rechne ich auch gar nicht. Schließlich wollen sie mindestens zwei Karten bringen, die 670 und die 680. Da sollten jeweils schon so 15-20% dazwischen liegen.

Der Punkt ist auch, die wollen sich ja noch was für den Refresh aufheben. Wenn GK110 80% vor GF110 wäre, würde man die 7970 vernichten. Was bringt man dann später Ende 2012?

Orbmu2k
2012-01-21, 14:18:07
Der Punkt ist auch, die wollen sich ja noch was für den Refresh aufheben. Wenn GK110 80% vor GF110 wäre, würde man die 7970 vernichten. Was bringt man dann später Ende 2012?

Wenn GK110 erst schätzungsweise 3Monate nach GK104 kommt bezweifel ich das dieses Jahr noch ein Refresh von GK110 aufschlägt. :D

mapel110
2012-01-21, 14:22:29
Es wird auch so nichts neues in 2ß12 erscheinen. Und man hebt sich sicher nichts für später auf. Beide bringen das, was aktuell möglich ist.

boxleitnerb
2012-01-21, 14:26:27
Wenn GK110 erst schätzungsweise 3Monate nach GK104 kommt bezweifel ich das dieses Jahr noch ein Refresh von GK110 aufschlägt. :D

3 Monate? Juni-Juli? Och nö, das wäre ätzend.

Hugo78
2012-01-21, 14:29:12
Gegenfrage:
Ist die 580 ggü. der 560 Ti gerechtfertigt? 35% mehr Leistung aber mehr als doppelt so teuer.

Mit 35% setzt du jetzt aber niedrig an.
CB sagt > 40%.
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/10/#abschnitt_leistung_mit_aaaf

boxleitnerb
2012-01-21, 14:32:53
Ich hatte mir HT4U angeschaut. Da war wohl hier und da noch ein CPU-Limit. Ratings sind blöde :)

Sunrise
2012-01-21, 14:40:10
Mit 20% rechne ich auch gar nicht. Schließlich wollen sie mindestens zwei Karten bringen, die 670 und die 680. Da sollten jeweils schon so 15-20% dazwischen liegen.

Der Punkt ist auch, die wollen sich ja noch was für den Refresh aufheben. Wenn GK110 80% vor GF110 wäre, würde man die 7970 vernichten. Was bringt man dann später Ende 2012?
Dafür müsste man die 80% erstmal erreichen. Ob NV dieses Jahr noch einen Refresh bringen wird, ist schwierig zu sagen. Wenn GK110 die aktuellen 28nm-Möglichkeiten gut nutzt, dann reicht dieser für dieses Jahr als Single-GPU IMHO auch aus.

Da AMD ja New Zealand dagegen stellen muss, wird es auch interessant, ob man noch einen Dual-GK104 bringen wird. Aber das hängt ja nun auch wieder von der GK110-Leistung ab.

boxleitnerb
2012-01-21, 15:41:25
http://www.abload.de/img/charliegn4vz.png (http://www.abload.de/image.php?img=charliegn4vz.png)

AwesomeSauce
2012-01-21, 15:51:43
http://www.abload.de/img/charliegn4vz.png (http://www.abload.de/image.php?img=charliegn4vz.png)
Das ist doch das, was Ailuros bereits seit gefühlten zwei Monaten predigt.

boxleitnerb
2012-01-21, 15:54:04
Die Frage ist jetzt, meint er das so, dass die Performance nicht so hoch ist wie man meinen könnte oder dass beides - Performance und Perf/W - überragend gut sind?

Weil ein GK104 auf GTX580 Niveau mit einer TDP von 150W und für 250 Euro wäre auch top.

Iruwen
2012-01-21, 16:00:44
Davon träumt nichtmal LZ :D

mapel110
2012-01-21, 16:04:22
Warum soll das unrealistisch sein? Dafür reicht ja ein kastrierter GK104. Weniger Takt und Spannung und fertig.

(Ailuros hat ja gesagt, dass GK104 10% schneller war als GF110 mit dem ersten Beta-Treiber. Jetzt gibts A2 von GK104 und mehr Takt)

dargo
2012-01-21, 16:06:42
Davon träumt nichtmal LZ :D
Was ist jetzt daran so ungewöhnlich? Ok... eine 150W TDP wäre schon beeindruckend. Die Leistung einer GTX580 für ~250€ halte ich allerdings wie schon öfter hier gesagt nach zig Monaten für angemessen. Ein ganz normaler Lauf der Dinge im Hardwaregeschäft.

Hugo78
2012-01-21, 16:26:19
@Iruwen
GTX 285 1G = TDP 204W, Spieleverbrauch ~ 186W,
GTX 460 1G = GTX 285 + 10%, bei einer TDP von 160W und einem Spieleverbrauch ~123W.
Und die GTX 460 hatte eine neue, nicht sonderlich optimierte Architektur.
Kepler sollte hier nachlegen, besonders wenn GK104 wirklich nur auf 3D optimiert ist und man HPC komplett dem Flaggschiff überlässt.

Knuddelbearli
2012-01-21, 16:32:40
naja

GTX 286 470mm²
GTX 460 332mm²

GTX 580 520mm²
GTX 660 280mm² ?

AnarchX
2012-01-21, 16:40:29
GF114/104 war etwas >350mm². Viel kleiner als ~320mm² wird GK104 wohl auch nicht sein, wenn er einen vernünftigen Speichertakt erreichen will.

Nightspider
2012-01-21, 17:25:20
Mit der GTX460 gab es schließlich auch deutlich mehr Leistung im Gegensatz zur GTX285 für nicht einmal 200 Euro.

Der Launchpreis der GK104 Karten wird vielleicht anfangs bei ~300 Euro liegen aber schnell bei guter Verfügbarkeit auf ~200 Euro sinken, denke ich.

AnarchX
2012-01-21, 17:30:35
Vielleicht kann Pitcairn von unten her auch noch einen gewissen Druck ausüben.

Raff
2012-01-21, 17:32:03
Öhm, also eigentlich ist die GTX 460/1G üblicherweise (mit Referenztakt) nicht relevant schneller als eine GTX 285.

MfG,
Raff

Nightspider
2012-01-21, 17:35:55
Ohne OC 10%. Mit DX11 können es gut 30% oder mehr sein.

Ganz davon zu schweigen das sich GTX460 Karten mit Leichtigkeit 25% übertakten lassen und es OC Versionen mit +20% gibt.

Wobei die GTX460 schon in manchen ausgewählten Benchmarks 20-25% zulegen konnte im Gegensatz zur GTX285.

Raff
2012-01-21, 17:38:26
Okay, dann gehen wir ja doch vom gleichen aus. :) 10 Prozent, genau. Das ist nichts, was irgendeine Relevanz hat (fühlbare Leistung). Wenn GK104 nur 10 Prozent über der GTX 580 liegt, das aber bei 50 Prozent weniger Stromfresserei, wäre das schon hübsch – nur nicht aus Performancegründen.

MfG,
Raff

AwesomeSauce
2012-01-21, 17:41:07
Was im S|A-Forum so abgeht ;D
It's not the journalist's fault if sources feed him with incorrect information for a year and half.
Denial Level 99

mapel110
2012-01-21, 17:45:26
Okay, dann gehen wir ja doch vom gleichen aus. :) 10 Prozent, genau. Das ist nichts, was irgendeine Relevanz hat (fühlbare Leistung). Wenn GK104 nur 10 Prozent über der GTX 580 liegt, das aber bei 50 Prozent weniger Stromfresserei, wäre das schon hübsch – nur nicht aus Performancegründen.

MfG,
Raff
Ah ja, und 20% mehr ist das auf einmal der King und eine neue High End Karte und 500 € wert. So dicht liegt das beieinander. Interessant.
Was im S|A-Forum so abgeht ;D

Der ganze Thread dort ist für mich unfassbar. So unglaublich verstrahlte AMD-Fanboys, dagegen ist alles, was hier im 3DCenter die letzten Jahre aufgeschlagen ist, ein Witz. Aber amüsant zu lesen ist es schon.

Raff
2012-01-21, 17:46:13
Der Übergang ist tatsächlich fließend. Kannst du 20 Prozent mehr Fps fühlen? Ich schon. 10 weniger.

MfG,
Raff

Hugo78
2012-01-21, 17:50:16
@Raff
Kommt natürlich wieder auf die Auswahl der Spiele an, aber schon zum Release war die 460 1G 10% schneller bei ht4u.

Rating mit 4x und 8x MSAA
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_460_768mb_1024_mb/index33.php
http://www7.pic-upload.de/21.01.12/z1zrejgjuku.jpg (http://www.pic-upload.de/view-12703547/285-460.jpg.html)

Ich selber habs besonders bei den minimum fps in BFBC2 gemerkt, die 460er ist grade bei Explosionen + viel Rauch kaum eingebrochen,
was meiner 285 vorher doch ordenlich zuschaffen gemacht hatte.
In dem Fall war der gefühlete Gewinn sogar größer, ohne das ich das jetzt in Zahlen darstellen kann.

AnarchX
2012-01-21, 17:52:29
"Deutlich" würde ich eher bei 30%+ definieren. Was wohl auch der A2 GK104 erreichen könnte.
Und selbst wenn NV ihre Referenz-SKU auf maximale Pro-Watt-Leistung trimmt, bleben da immernoch die Partner, denen man relativ viel Freiraum lässt, wie man auch an den 1GHz 560Ti sah, die der 570 gefährlich wurde.

GF104 konnte zudem seine hohe Geometrie-Leistung selten in den auf D3D10 limitierten Vergleichen mit der GTX 285 zeigen. GK104 hingegen könnte wohl seine ~3 TFLOPs in manchem Post-Processing-lastigen Szenario deutlich ausspielen, wie es heute schon die AMD Karten tun.

Bucklew
2012-01-21, 18:08:11
Der ganze Thread dort ist für mich unfassbar. So unglaublich verstrahlte AMD-Fanboys, dagegen ist alles, was hier im 3DCenter die letzten Jahre aufgeschlagen ist, ein Witz. Aber amüsant zu lesen ist es schon.
Jupp, die glauben die News ist ein Hoax ;D

Herrlich...

Aber klar, welche Seite sollte AMD-Fanboys anziehen, wenn nicht SA?

edit: News vom 1.12.2011:
Then again, Nvidia wisely delayed Kepler a year to fix that, but as we have repeatedly stated, the architecture is fundamentally wrong, and that is not really fixable.

Gipsel
2012-01-21, 18:19:14
Leute, wir sind hier im 3DCenter in einem Thread mit dem Thema Kepler.
Wenn ihr über das SemiAccurate-Forum oder die Leute darin diskutieren wollt, macht das da!

AwesomeSauce
2012-01-22, 13:19:53
Well, the 110 is just 2x 104s, so you could say that it is the same chip, but neither of the cards I saw had two GPUs on them.
http://semiaccurate.com/forums/showpost.php?p=149402&postcount=178

Kann man ja interpretieren, wie man will. 2 Dies wie AMD, Interposer oder eben doppelt so breit.

Dennoch komplett entgegengestellt demgegenüber, was Ailuros gesagt hat.

AnarchX
2012-01-22, 13:27:09
Oder Charlie hat bisher nur eine GK104 Karte gesehen und glaubt noch an das GK110=2xGK104-Gerücht, was 4Gamer schon vor Monaten streute.

Denkbar wäre es wohl durchaus, dass NV New Zealand mit einer Dual-GK104-SKU kontert, bis GK110 auftaucht und eine wohl attraktivere Enthusiasten-Lösung mit höher maximaler Systemleistung (@Quad-SLI) darstellt.

Skysnake
2012-01-22, 13:30:04
Tja, das ist jetzt halt ne verzwickte Situation.

Entweder man glaubt an den doppelten GK104 auf einem DIE, was von der Größe her diesen auf ~250mm² beschränken würde, eher so in die Richtung von 200mm², da man ja die beiden Teile auch noch verbinden muss etc, was auch wieder Platz frisst, und man sicherlich nicht komplett bis ans ultimo gehen will,
ODER
man glaubt die Sache mit dem Interposer, was früher oder später mal kommen muss, und packt wirklich 2 GK104 nebeneinader. Dann wären auch 300mm² für den GK104 kein Problem.

Es wäre dann aber auch klar, dass der GK104 den ganzen HPC-Klumbatsch mit rum schleppt. Was dann eher für gleiche Größe bei gleicher Leistung spricht. Eher aber sogar noch größer, da man ja immer mit der Effizienz hausieren geht, und da tun niedrigere Taktraten schon gut.

Tjaja, was glaubt man nun?

Ich würde mich ja über den Interposer freuen bei nVidia.

Das würde nämlich AMD unter druck setzen, auch Interposer bei sich ein zusetzen, und DANN gäbe es keinen Grund mehr, warum AMD nicht genau große Chips baut wie nVidia. Beide sind weit weg von der maximalen Größe eines DIEs, packen aber mehrere zusammen.

DAS wäre natürlich auch die ultimative 7980 ;D

AnarchX
2012-01-22, 13:35:03
Dass GK110 vielleicht doppelt soviele ALUs und ein 512-Bit SI mitbringt wäre wohl denkbar. Aber abseits davon wird der Faktor 2 wohl eher selten auftreten können.

Auf 200/250mm² würde NV wohl kaum ein 256-Bit bzw. ein schnelles 256-Bit SI unterbringen können. Interposer wird man wohl auch eher auf kleineren Testprojekten ausprobieren, als in einer wichtigen Prestige-Karte. Und das wohl erst in 2-3 Jahren.

Bucklew
2012-01-22, 13:38:46
Wie soll GK110=2XGK104 sein, wenn GK110 die ganzen HPC-Features mitbringen soll?

Sunrise
2012-01-22, 14:33:51
Dass GK110 vielleicht doppelt soviele ALUs und ein 512-Bit SI mitbringt wäre wohl denkbar. Aber abseits davon wird der Faktor 2 wohl eher selten auftreten können.
Das wäre extrem überraschend für mich, in mehrerer Hinsicht. Vor allem aber auch im Hinblick auf Ailuros' Aussagen. Das Ding würde regelrecht alles in den Boden stampfen, wenn GK104 bereits so schnell ist, wie prognostiziert.

Käsetoast
2012-01-22, 15:17:10
Wenn man jetzt davon ausgeht, dass GK104 ein auf Gaming ausgelegter Chip ohne großartigen HPC-Kram ist, wäre es dann nicht möglich, dass man den GK110 quasi zum HPC-Only, also nur Quadro macht und sich beim High-End-Segment für den Gamer-Markt dann dem doppelten GK104 als Zweichip-Lösung bedient? Sozusagen zweigleisig fahren mit dem GK104 nur für Desktop und Gaming und dem GK110 als Arbeitsstier für Server und Workstations. Würde einem ein wenig den Spagat ersparen Chips zu entwickeln, die beides gut können - ist auf der anderen Seite natürlich auch mehr Arbeit...

boxleitnerb
2012-01-22, 15:21:20
Das wäre extrem blöd für uns Spieler. AFR...wenn es nicht anders geht ok, aber bei nur 350mm2? Nein danke!

Ronny145
2012-01-22, 15:23:51
http://semiaccurate.com/forums/showpost.php?p=149402&postcount=178

Kann man ja interpretieren, wie man will. 2 Dies wie AMD, Interposer oder eben doppelt so breit.

Dennoch komplett entgegengestellt demgegenüber, was Ailuros gesagt hat.


Dafür sprechen würde die Namensgebung der GK104 GTX680.

mapel110
2012-01-22, 15:29:51
Wenn man jetzt davon ausgeht, dass GK104 ein auf Gaming ausgelegter Chip ohne großartigen HPC-Kram ist, wäre es dann nicht möglich, dass man den GK110 quasi zum HPC-Only, also nur Quadro macht und sich beim High-End-Segment für den Gamer-Markt dann dem doppelten GK104 als Zweichip-Lösung bedient? Sozusagen zweigleisig fahren mit dem GK104 nur für Desktop und Gaming und dem GK110 als Arbeitsstier für Server und Workstations. Würde einem ein wenig den Spagat ersparen Chips zu entwickeln, die beides gut können - ist auf der anderen Seite natürlich auch mehr Arbeit...
Halte ich nicht für unwahrscheinlich in den nächsten 2-3 Generationen. Es muss nur der Desktop-High-End-Markt schrumpfen. Und afaik tut er das. Für mich werden jedenfalls die High End Features immer uninteressanter. 3 Monitore, 3D-Kram.

boxleitnerb
2012-01-22, 15:32:17
Dafür sprechen würde die Namensgebung der GK104 GTX680.

Und was, wenn GK104 knapp hinter Tahiti XT liegt? Und GK104x2 dann hinter der 7990? Das wäre untypisch für Nvidia.

aylano
2012-01-22, 16:00:38
Was soll daran untypisch sein, wenn die Konkurrenz seit RV670 (ausnahme 6000er-Serie) näher zu Nvidia rückte und am schluss noch über den höheren Stromverbrauch die Krone sichern konnte?
Untypisch für Nvidia wäre eher der Wegfall von Hot-Clock.

Und GK104 soll AFAIK jetzt ja wieder doch nicht Ende Jänner kommen. Das hörte sich vor so 2-3 Wochen noch ganz anders an.

Dafür sprechen würde die Namensgebung der GK104 GTX680.
Sowie den Kepler im Jahr 2011.

boxleitnerb
2012-01-22, 16:02:47
Es ist nahezu ausgeschlossen, dass Nvidia eine GPU bringt, die nur 30% schneller als die GTX580 ist. Und darüber dann nur MGPU. Das ist schlecht fürs Image und schlecht für den Kunden. Nvidia hat seit 2006 den Längsten bei SGPU und das wird auch so bleiben ;)

Ronny145
2012-01-22, 16:05:00
Und was, wenn GK104 knapp hinter Tahiti XT liegt? Und GK104x2 dann hinter der 7990? Das wäre untypisch für Nvidia.


Das wäre natürlich ein arg kleiner Sprung von 40nm auf 28nm wenn GTX680 hinter Tahiti XT liegt und GK110 nur eine Dual GPU Karte darstellt. Ich hoffe Charlie labert Mist. Aber vielleicht liegt GK104 besser als wir es erwarten, wer weiß.

Bucklew
2012-01-22, 16:06:39
Natürlich wirds ne GeForce mit Gk110 geben. Und nein, der ist nicht einfach nur 2xGK104 sondern ein ganz anderer Chip.

Mein Gott denkt doch mal 2 Sekunden nach :rolleyes:

Sunrise
2012-01-22, 16:12:02
Das wäre extrem blöd für uns Spieler. AFR...wenn es nicht anders geht ok, aber bei nur 350mm2? Nein danke!
Mich stört da weniger die Die size an sich, denn NVIDIA hat:

1) durch den Wegfall der Hotclocks (sollte es so kommen) ja deutlich mehr Platz
2) und kann eine deutliche Entschlackung der Fermi-Architektur vornehmen, wenn
3) das ASIC wirklich komplett auf die Spiele-Performance getrimmt wird, und
4) der Preis durch die relativ niedrige BOM SEHR schmackhaft wird.

Mich stört da eher das Interface. Und natürlich die Anmerkung von Ailuros, bzgl. diverser Haken und Charlie, der von irgendwelchen Metriken schreibt, die mich als Endkunde aber nicht interessieren, solange da nicht im Endeffekt wieder mehr Performance daraus gewonnen wird.

Schön wäre es natürlich, wenn die Top-SKU mit GK104 ASIC wirklich 580+30% erreicht, dabei aber noch recht stromsparend zu Werke geht. Das würde mir ehrlich gesagt auch gefallen, wenn der Preis stimmt. Für die meisten Anwendungsfälle würde das locker erstmal ausreichend sein.

Zudem kommt laut Ailuros GK11x ja für den Desktop. Fragt sich bloß, welcher. Evtl. gibt es da noch was anderes, was wir derzeit nicht wissen.

boxleitnerb
2012-01-22, 16:21:12
Zudem kommt laut Ailuros GK11x ja für den Desktop. Fragt sich bloß, welcher. Evtl. gibt es da noch was anderes, was wir derzeit nicht wissen.

Das hoffe ich ja. Wenn die schnellste SGPU, die sie bringen, nur auf 7970 Niveau ist, können sie die getrost behalten.