Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012
AnarchX
2011-10-17, 19:57:43
Samsung 6GBps gibt es nur als 256MiB Chips und da man für ein 384-Bit SI 12 Chips benötigt -> 3GiB. ;)
Denkbar wäre aber auch eine 384-Bit Karte mit 2GiB, ähnlich wie die GTX 550 Ti.
Fragt sich nur ob Nvidia nicht vielleicht besser mit einem 512-Bit SI fährt, was nur Taktraten um die 4,4Gbps erlaubt. Die Anforderung für 6Gbps sind wohl nicht gerade gering und die bisherigen GF1xx-GPUs lagen auch nur bei ~4Gbps.
dargo
2011-10-17, 20:03:46
Samsung 6GBps gibt es nur als 256MiB Chips und da man für ein 384-Bit SI 12 Chips benötigt -> 3GiB. ;)
Das wäre fein. =)
Denkbar wäre aber auch eine 384-Bit Karte mit 2GiB, ähnlich wie die GTX 550 Ti.
Hör bloss auf, solche verkrüppelten Karten haben im High-End Segment nichts zu suchen.
=Floi=
2011-10-18, 07:04:04
bei 200+$ karten braucht es denn speichermist nicht.
edit
falsch gerechnet...
Ailuros
2011-10-23, 10:33:55
Erste Einzelheiten deuten auf =/<2 und nicht 1+ TFLOPs im HPC Bereich. Ich bleibe dabei dass die 1:1 DP/SP These absoluter Bloedsinn ist, aber wie absurd waere anstatt ein 1:2 ein 1:3 ratio?
Und natuerlich alle meine bisherigen Thesen bekamen ein "alles bisher spekulierte ist total falsch" Siegel :mad:
AnarchX
2011-10-23, 10:41:17
2 TFLOPs DP Peak? :D
Ailuros
2011-10-23, 10:54:50
2 TFLOPs DP Peak? :D
http://blogs.nvidia.com/2011/10/titan-supercomputer-points-the-way-to-exascale/
The next-generation Kepler GPUs used in the Titan system will provide more than one teraflop of performance per chip.
Unter mehr als 1 TFLOP versteht die Mehrzahl eher 1.1-1.4TFLOPs. Alles unter 2 TFLOPs ist immer noch >1 TFLOPs aber die Realitaet duerfte verdammt nahe an echten 2 TFLOPs liegen wenn die Infos stimmen sollten.
LovesuckZ
2011-10-23, 10:55:28
Um 2 TFLOPs erreichen zu können, müssten sie mindesten 3x soviele ALUs verbauen.
Scott meinte, die Zukunft wäre es viele Transistoren zu haben, die mit geringer Taktung schalten. Imo ist das eine Abkehr vom Hot-Clocking der ALUs.
Ailuros
2011-10-23, 10:59:00
Um 2 TFLOPs erreichen zu können, müssten sie mindesten 3x soviele ALUs verbauen.
Deshalb auch meine 1:3 DP/SP Frage; eventuelle These anstatt 2*32 dann 3*32?
Scott meinte, die Zukunft wäre es viele Transistoren zu haben, die mit geringer Taktung schalten. Imo ist das eine Abkehr vom Hot-Clocking der ALUs.
Spaetestens bei Echelon mit Sicherheit.
LovesuckZ
2011-10-23, 11:02:03
1:3 bei ca. 2 TFLOPs DP macht kein Sinn, weil man damit alleine schon auf 6 TFLOPs SP käme...
Ich wüsste nicht, wie sie auf ca. 2 TFLOPs kommen sollten. Das ist alleine durch Verdopplung, höhrerer Takt und gleichem Verbrauch nicht möglich.
AnarchX
2011-10-23, 11:12:54
Vielleicht meint er 96SPs in eine SM zu stopfen? Wenn man da die Datenpfade wohl entsprechend anlegt, könnte man 48 DP-FMAs erreichen. Bei 16 SMs -> 768 DP-FMAs, die mit einer relativ konservativen Taktrate und vielleicht wieder einer deaktiverten SM die ~2 TFLOPs erreichen würden. SP wäre natürlich nur ~4 TFLOPs.
Stellt sich die Frage ob man vielleicht auch die DP-FMAs superskalar ausführen lassen kann?
edit:
Übrigens würde das doch überhaupt nicht zu NVs DP GFLOPs pro Watt Darstellung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8281445#post8281445) passen, nimmt großzügig 6 DP-GFLOPs für Kepler an, wären das bei 2 TFLOPs -> 330W.
Spaetestens bei Echelon mit Sicherheit.
Kurz, ein einzelner Chip soll ~20 TFlop/s machen und aus 128 SMs sowie 8 "latency processors" (in anderen Präsentationen auch "latency cores" genannt). Jeder SM besteht wiederum aus einer 8er-Gruppe von (vector?)-Lanes, die jeweils 4 DP-FMAs und 2 L/S-Einheiten beeinhalten.
Also summa-summarum 4096 DP-FMAs pro Takt und Chip, was heißt, daß die Einheiten mit ~2.4GHz laufen müssen, um die 20 TFlop zu schaffen. Also zumindest danach sieht es weiter nach hotclock aus, es sei den nv will die Taktfrequenz anderweitig steigern bzw. setzt auf Prozeßfortschritte (was in letzter Zeit eigentlich zumindest zu diesem Zweck nie geklappt hat :rolleyes:).
Entweder wirft man da das taktscheue Zeug von Board oder es ist weiterhin ein Hot-Clock.
LovesuckZ
2011-10-23, 11:24:27
Es wären aber keine 96SP sondern in dem Sinne mit heutigen Wissen auf Fermi 6xVec16 Einheiten. Es müsste alles 3x so groß werden, um ein 1:3 Verhältnis realisierne zu können.
Gipsel
2011-10-23, 11:25:09
Die ALUs an sich sind gar nicht so groß, das habe ich doch schon mehrfach betont (denke mal an den RV770, der die ALU/TMU-Zahl um den Faktor 2,5 zum RV670 steigerte, und das im gleichen Prozeß und bei nur moderater Größenzunahme). Wenn nv also an der Organisation kräftig sparen kann, z.B. durch (deutlich) größere und dann auch anders strukturierte SMs, könnte ihnen das durchaus etwas Spielraum in dir Richtung von mehr ALUs als nur 1024 geben.
Wobei mir aber beim Gedanke an 3*32 ALUs (eine Variante mit 1:3 DP) pro SM ein wenig schaudert angesichts der dann wohl erhöhten Anforderungen an das Scheduling und die Registerfiles im Vergleich zu der kleineren Variante mit 4*16 ALUs (und halfrate DP, beide Varianten würden auf die gleiche DP-Leistung kommen). Also wenn nv da nicht mit einer ganz cleveren Lösung um die Ecke kommt, halte ich das für nur mäßig sinnvoll.
Und wenn die Vec-ALU-Blöcke 32 Lanes bekommen statt 16 wie jetzt, ist es entweder mit dem Hotclocking vorbei oder die Scheduler arbeiten dann auch auf dem erhöhten Takt. Denn von der Warpgröße 32 wird nv wohl nicht weggehen wollen.
Skysnake
2011-10-23, 13:10:51
Die 32er Warpgröße wird definitiv bleiben. Ansonsten wäre das mit der Abwärtskompatibilität vorbei. Ganz zu schweigen davon, das man dann so manchen Algorithmus wieder anpassen müsste etc. Halte ich für sehr sehr sehr unwahrscheinlich, das sich daran etwas ändert. Zumal ja AMD wohl auch in die 32er Richtung geht, wenn ich das von GCN richtig im Kopf habe.
Ein 1:3 DP:SP-Verhältnis halte ich auch für eher unwahrscheinlich. Warum sollte man das machen? Verbrät doch nur Transistoren, die man in DP dann nicht nutzen kann. Also ich halte das für eher unwahrscheinlich.
1:2 bleibt und das ist auch gut so.
Gipsel
2011-10-23, 18:01:13
Zumal ja AMD wohl auch in die 32er Richtung geht, wenn ich das von GCN richtig im Kopf habe.Nein, GCN bleibt bei der 64er Wavefrontgröße.
Ein 1:3 DP:SP-Verhältnis halte ich auch für eher unwahrscheinlich. Warum sollte man das machen? Verbrät doch nur Transistoren, die man in DP dann nicht nutzen kann.Nun, man spart Transistoren, die man für SP nicht braucht. Also völlig abwegig ist das nicht. ;)
AnarchX
2011-10-23, 18:11:44
Wenn man DP wie bei GF104* auf allen ALUs einer SM ausführen würde, wäre es doch 1:4?
* DP wird auf einer der 3 Vec16 ALUs mit 4 Takten ausgeführt?
Gipsel
2011-10-23, 18:16:16
Schon, aber mit 1:4 wird es wahrscheinlich eng, auf ~1,4 GFlop/s in DP zu kommen.
Skysnake
2011-10-23, 18:28:21
Ähm Gipsel, was ist besser, 1/3 der Recheneinheiten brach liegen zu lassen, oder etwas mehr Hardware zu investieren?
Bei einem 1:3 Verhältnis bekommste ja die DP nicht in ein volles Vielfaches der SP Einheiten.
Zumindest seh ich jetzt dafür keine Möglichkeit. Ergo liegen irgendwelche Einheiten brach bei DP-Operationen.
Bevor 1:3 kommt, kommt 1:1. Meine Meinung.
boxleitnerb
2011-10-23, 18:31:07
Dann würde man die für Spiele wichtigere SP-Leistung aber kaum bis gar nicht steigern. Die liegt jetzt schon bei 1,7 TF.
LovesuckZ
2011-10-23, 18:33:09
Dann würde man die für Spiele wichtigere SP-Leistung aber kaum bis gar nicht steigern. Die liegt jetzt schon bei 1,7 TF.
Wer hier glaubt, dass nVidia eher auf 1:1 statt 1:3 bei seinem Nicht-Echelon-Projekt geht, hat einfach keine Ahnung.
Skysnake
2011-10-23, 18:56:15
Lovesuckz, so was kannste dir sparen....
Wenn die Karte in Games 20% schneller ist, geht doch den Gamern wieder einer ab, und Sie kaufen wie die bekloppten.
Der reine GPU-Markt brauch kaum noch Mehrleistung. Die Leute downgraden eher. Schau dir doch mal die Statistik auf Steam an. Das ist ein ganz brauchbarer Querschnitt.
Die GTX570 hat grad mal 0,99% und die GTX580 sogar mikrige 0,82%. Da gibt es allein schon mehr 5870 User. Wenn du alle High-End GPUs zusammen nimmst, also HD5870, HD6970, GTX480, GTX570 und GTX580 zusammen nimmst, dann sind das gerade einmal 5,32% aller GPUs. Sodele und jetzt nehmen wir mal als Vergleich die HD5770. Die hat allein 4,65% aller GPUs zu verbuchen.
Das wir mit jeder neuen GPU-Generation sich noch weiter von High-End in Richtung Mid-/Low-Range bewegen. Die Konsolen, bzw. die Publisher mit ihren drecks Konsolenports bremsen hier die Entwicklung ganz klar aus.
Also fang hier nicht an, die SP-Performance als das non plus ultra dar zu stellen....
boxleitnerb
2011-10-23, 18:59:01
Äh, die Midrangekarten von morgen haben in etwa die Leistung vom heutigen Highend. Was willst du da mit deinen Prozentzahlen? Das ist doch völlig normal so eine Verteilung.
Skysnake
2011-10-23, 19:01:34
Downgrading haste schon mal gehört?
boxleitnerb
2011-10-23, 19:04:55
Klar, find ich persönlich nur völlig sinnlos :)
Skysnake
2011-10-23, 19:24:22
Damit ist nicht gemeint, das du dir eine GPU kaufst, die schlechter ist als deine aktuelle, sondern, das du eine alte High-End-Karte hast, und dann nicht wie zu erwarten wieder eine High-End-Karte kaufst, sondern nur noch eine Mid-/Low-Range-Karte.
Die neue Karte hat immer noch deutlich mehr Leistung als die alte, aber ist eben deutlich günstiger als eine High-End-Karte, die aber natürlich auch schneller ist. Für was aber schneller, wenn man eh schon >60 FPS ist?
Die Leute sind immer weniger bereit für 1-2 Spiele sich neue Hardware zu kaufen, und es wird auch immer weniger nötig. Wenn dann wenn man mit AF/AA um sich schmeißt. Das ist aber definitiv nicht nötig, so lange man kein absoluter Optik-Fetischist ist.
Gipsel
2011-10-23, 19:27:05
Ähm Gipsel, was ist besser, 1/3 der Recheneinheiten brach liegen zu lassen, oder etwas mehr Hardware zu investieren?
Bei einem 1:3 Verhältnis bekommste ja die DP nicht in ein volles Vielfaches der SP Einheiten.
Zumindest seh ich jetzt dafür keine Möglichkeit. Ergo liegen irgendwelche Einheiten brach bei DP-Operationen.
Bevor 1:3 kommt, kommt 1:1. Meine Meinung.
1:1 kommt unter normalen Umständen bei SIMD-Einheiten wohl nie.
Also, bei 1:2 bleiben bei SP-Berechnungen signifikante Teile der Recheneinheiten ungenutzt. Bei 1:4 zwar nicht (zumindest nicht so viel, aber selbst mit 4 SP ALUs fehlt noch etwas Rechenleistung für ein DP, man muß also noch etwas dazubauen, fast umsonst ist erst 1:8), dafür bleiben dann aber im Falle von DP-Berechnungen die Hälfte der Datenpfade ungenutzt. Weil Letztere aber auch kosten (und relativ gesehen immer mehr, wenn man die Strukturen schrumpft), wird eine Evolution von 1:4 hin zu 1:2 immer "billiger" und somit sinnvoller, je kleiner die Strukturen werden. Zumindest wenn die DP-Performance wichtig ist.
Mir fällt jetzt spontan zwar auch nicht ein, wie man einen Multiplier (das ist das Limitierende) mit 1:3 Rate von DP:SP sinnvoll bauen würde, aber das ist ja auch nicht mein Job, da können sich andere ihre Köpfe zerbrechen. Aber 1:3 liegt rein von der Zahl schon zwischen den 1:4 und 1:2 Varianten und könnte (falls es schaltungstechnisch umzusetzen ist) schon ein geeigneter Kompromiß sein, um die Verschwendung von Transistoren sowie Datenpfaden zu optimieren (sprich zu minimieren).
Edit:
Und bitte bleibt beim Thema Kepler/Maxwell! Irgendwelche Zankereien um Downgrading helfen hier nicht weiter.
Skysnake
2011-10-23, 19:30:39
Das ist ja aber das Problem Gipsel. Das bekommste nicht vernünftig hin. Nicht wenn du auch nur halbwegs bei dem aktuellen Konzept von nVidia bleibst.
boxleitnerb
2011-10-23, 19:37:36
Damit ist nicht gemeint, das du dir eine GPU kaufst, die schlechter ist als deine aktuelle, sondern, das du eine alte High-End-Karte hast, und dann nicht wie zu erwarten wieder eine High-End-Karte kaufst, sondern nur noch eine Mid-/Low-Range-Karte.
Die neue Karte hat immer noch deutlich mehr Leistung als die alte, aber ist eben deutlich günstiger als eine High-End-Karte, die aber natürlich auch schneller ist. Für was aber schneller, wenn man eh schon >60 FPS ist?
Die Leute sind immer weniger bereit für 1-2 Spiele sich neue Hardware zu kaufen, und es wird auch immer weniger nötig. Wenn dann wenn man mit AF/AA um sich schmeißt. Das ist aber definitiv nicht nötig, so lange man kein absoluter Optik-Fetischist ist.
Schuldig :)
Vergiss aber die Konkurrenz nicht. Kann es sich Nvidia leisten, die Spieleleistung klar zu vernachlässigen und das Feld der Konkurrenz zu überlassen? Sowas passt auch gar nicht in die Unternehmenspolitik. LANs auf Flugzeugträgern, PhysX, SSAA-Tools, SLI...Spiele waren, sind und werden für Nvidia sehr wichtig bleiben. Ich erwarte ja gar keine Steigerung um den Faktor 3, um Gottes Willen. Ich gebe aber auch offen zu, ich weiß nicht, wie stark in heutigen Titeln die ALUs limitieren. Wenn man mit 2 TF trotzdem 70% drauflegen kann auf Fermi, wieso nicht.
Sorry für OT Gipsel, aber das führt mich zu einer doch relevanten Frage: Wie wichtig ist die SP-Rechenleistung in aktuellen Spielen? Also im Vergleich zu Pixel-/Texelleistung und Bandbreite.
Spasstiger
2011-10-23, 20:03:10
1:1 (DP:SP) wäre ein "fail", weil es nicht viel Aufwand bedeutet, DP-Einheiten so zu erweitern, dass diese den doppelten SP-Durchsatz gegenüber DP haben. 1:2 ist das optimale Verhältnis. /EDIT: Optimal im Sinne von DP-lastigstes sinnvolles Verhältnis, wenn auch SP genutzt wird.
Skysnake
2011-10-23, 20:11:16
Naja, du würdest dir einiges am Frontend sparen. Du musst halt keine unabhängige Adressen zulassen. Der Aufwand ist aber wirklich wohl relativ klein, um DP-Unit so SP fähig zu machen, das man ne 1:2 Ratio hat.
@boxleitnerb: Denk nur mal an die SP Leistung von AMD. Bringt ihnen das in Games etwas? Ne nicht wirklich.
Die reine Rechenleistung bringt dir nichts, wenn du die einfach nicht auf die Straße bekommst, und das ist heute schon so. Wenn du da jetzt doppelt so viele ALUs ans gleiche Speicherinterface hängst, dann wird das noch schlimmer. Im schlimmsten Fall ist deine Leistungssteigerung gleich 0, weil du I/O limitiert bist.
Jaja.... Das wird nicht eintreten, weil man wieder mehr Caches hat, und sich das damit etwas verschiebt. Es kann aber dennoch passieren, das auch schon jetzt das Speicherinterface limitiert.
Daher größere Caches>mehr ALUs bei gleich großen Caches
Ailuros
2011-10-24, 06:42:28
Vielleicht meint er 96SPs in eine SM zu stopfen?
Ich fragte mich doch ausdruecklich weiter oben ob anstatt 2*32 dann 3*32. Es war lediglich ein Gedankenspiel denn sonst wird es schwer auf fast 2 TFLOPs zu kommen, ausser wir unterschaetzen alle die Taktungs-moeglichkeiten fuer 28nm.
Wie dem auch sei die "Meldung" ist klipp und klar dass der Vergleich zwischen Kepler und Fermi HPC fuer DP nicht nur bei einem 2.5x Mal Unterschied liegt sondern mehr. Wobei man noch anhaehngen sollte dass die 2.5x "offizielle Schaetzung" mit Absicht so konservativ war auf dem bekannten slide nur um auch ein moegliches worst case scenario abzudecken um Peinlichkeiten der Vergangenheit zu vermeiden.
1:1 kommt unter normalen Umständen bei SIMD-Einheiten wohl nie.
Also, bei 1:2 bleiben bei SP-Berechnungen signifikante Teile der Recheneinheiten ungenutzt. Bei 1:4 zwar nicht (zumindest nicht so viel, aber selbst mit 4 SP ALUs fehlt noch etwas Rechenleistung für ein DP, man muß also noch etwas dazubauen, fast umsonst ist erst 1:8), dafür bleiben dann aber im Falle von DP-Berechnungen die Hälfte der Datenpfade ungenutzt. Weil Letztere aber auch kosten (und relativ gesehen immer mehr, wenn man die Strukturen schrumpft), wird eine Evolution von 1:4 hin zu 1:2 immer "billiger" und somit sinnvoller, je kleiner die Strukturen werden. Zumindest wenn die DP-Performance wichtig ist.
Mir fällt jetzt spontan zwar auch nicht ein, wie man einen Multiplier (das ist das Limitierende) mit 1:3 Rate von DP:SP sinnvoll bauen würde, aber das ist ja auch nicht mein Job, da können sich andere ihre Köpfe zerbrechen. Aber 1:3 liegt rein von der Zahl schon zwischen den 1:4 und 1:2 Varianten und könnte (falls es schaltungstechnisch umzusetzen ist) schon ein geeigneter Kompromiß sein, um die Verschwendung von Transistoren sowie Datenpfaden zu optimieren (sprich zu minimieren).
Wie ich schon sagte es war lediglich ein Gedankenspiel meinerseits, da jegliche andere These als falsch abgestempelt wurde. Bei hypothetischen 6 GPCs (die anscheinend auch nicht stimmen oder man will mich mit Absicht verwirren) braeuchte man keinen besonders extravaganten hotclock um fast 2 TFLOPs DP zu erreichen. Mit < 1.3GHz (Vorraussetzung keine deaktivierte SMs) ist das Ziel schon bei weitem erreicht.
Alles in allem koennte es durchaus sein dass Kepler doch nicht so stark "verwandt" ist mit Fermi und wir alle die ganze Zeit unter dem falschen Baum bellen (sozusagen :D )...
1:1 (DP:SP) wäre ein "fail", weil es nicht viel Aufwand bedeutet, DP-Einheiten so zu erweitern, dass diese den doppelten SP-Durchsatz gegenüber DP haben. 1:2 ist das optimale Verhältnis. /EDIT: Optimal im Sinne von DP-lastigstes sinnvolles Verhältnis, wenn auch SP genutzt wird.
Nun das mit dem Optimum ist mir zu gefaehrlich es nur auf das ratio zu begrenzen; Du kannst auch zweierlei Implementierungen von theoretischen 1:4 ratios haben und die eine Loesung koennte um zich Male mehr in hw kosten als eine alternative mit verschiedener Effizienz. Da spielen IMHO zu viele Faktoren mit um es so stark zu vereinfachen.
Das ist ja aber das Problem Gipsel. Das bekommste nicht vernünftig hin. Nicht wenn du auch nur halbwegs bei dem aktuellen Konzept von nVidia bleibst.
Es wird doch wohl keiner von uns erwarten dass NV bei Kepler auf dem "GF11x-Vorexperiment" beruht. Neben den von Euch Herren erwaehnten Punkten hab ich noch weitere Vorbehalte fuer meine 3*32=96SPs/SM These. Angenommen es wuerde Hand und Fuss haben, wie geht man damit genau in den mainstream?
Dural
2011-10-24, 13:27:02
TSMC startet Massenproduktion von 28-nm-Chips
http://www.computerbase.de/news/2011-10/tsmc-startet-massenproduktion-von-28-nm-chips/
Skysnake
2011-10-24, 14:06:43
Tja, fragt sich nur, wie die Sache mit dem Gk1x0 aussieht.
Dieses Jahr wird das bei nVidia nichts mehr. Haben Sie ja schon lange selbst gesagt. Es lässt aber Hoffen darauf, das es doch noch was im Q1 2012 wird. Drücken wir mal die Daumen, das es nicht nur irgendwelche Low-End/Mobile Chips sind, und sich GK1x0 dann auf irgendwann mal verschiebt ins Ende Q1 oder gar Q2.
Duplex
2011-10-24, 14:43:55
Rechnet ihr zum Anfang mit kleine Chips oder große Chips?
Die kleinen Chips sind eig. für das Geschäft wichtiger wegen große Verträge mit OEMs ua. Komplett PCs, Notebooks usw.
Ich bin gespannt wie sich das ganze in 28nm entwickeln wird, zuletzt konnte Nvidia insgesamt mehr Marktanteile als AMD halten.
LovesuckZ
2011-10-24, 14:46:15
Das ist abhängig davon, was nVidia rumliegen hat. Ansonsten wie immer: Von groß nach klein.
Dural
2011-10-24, 15:27:02
wie ich schon seit wochen sage, vermute ich GK100 erst im Q2, was anderes würde mich schon sehr überraschen.
Ich könnte mir wieder ein paar NB Testchips (LE und nicht zwangsläufig Kepler) vorstellen - aber Kepler wieder vom Schlachtschiff nach unten.
(Gegen irgendwelche Testchips spricht halt, dass dazu absolut nichts bekannt ist, drum denke ich nur an eine Möglichkeit, aber nicht an eine zwangsläufige)
Hugo78
2011-10-24, 21:27:01
Ist doch schon so gut wie in Sack und Tüten, dass NV als erste 28nm, ein paar "Mobile only" Fermi Shrinks bringt.
Desktop Kepler wird man wieder konservativ handhaben, wie LZ schon sagt, top to down.
Das wäre fast 1:1, wie man es auch schon bei 40nm gemacht hat.
Da gabs auch auch erst die GT200 Ableger in 40nm.
Ich frag mich eher, ob die 600er Serie jetzt exklusiv Mobile/OEM wird, wie schon bei den GT/GTX 100 und 300er.
Und für den (retail -) Desktop dann die GT/GTX 700er Bezeichnung gewählt wird.
Dann hätten wir 700er Geforces vs. 7000er Radeons...
Wäre aber schade, denn eine GTX 666 ... hmmm das wäre doch mal was. :devil:
Skysnake
2011-10-25, 17:05:41
Ich denke wohl auch nVidia hat Interesse daran, eine GTX700 zu bringen :ugly:
Ailuros
2011-10-25, 17:22:48
Tja, fragt sich nur, wie die Sache mit dem Gk1x0 aussieht.
Dieses Jahr wird das bei nVidia nichts mehr. Haben Sie ja schon lange selbst gesagt. Es lässt aber Hoffen darauf, das es doch noch was im Q1 2012 wird. Drücken wir mal die Daumen, das es nicht nur irgendwelche Low-End/Mobile Chips sind, und sich GK1x0 dann auf irgendwann mal verschiebt ins Ende Q1 oder gar Q2.
Kommt drauf an wie NV selber ihre Quartale zaehlt.
Skysnake
2011-10-25, 23:24:14
Soweit ich das im Hinterkopf habe, fängt Q1 des Geschäftsjahrs in Q2 des Kalenderjahrs an.
Kann aber auch sein, dass die dem Kalenderjahr voraus waren. Kann mich da wirklich nur daran erinnern, das Kalender- und Geschäftsjahr nicht zusammen fallen.
Das weiß aber sicherlich jemand anderes.
Spasstiger
2011-10-26, 00:24:11
Was dp:sp angeht, rechnet ich bei den großen Kepler-Chips genau wie bei den großen Fermi-Chips mit einem 1:2-Verhältnis. Damit sind 1,4 TFlops dp bei Tesla realistisch. Mit einem 1:4-Verhältnis würde man bei 1,4 TFlops dp einen Chip bekommen, der zu groß wird, um ihn herstellen zu können. Ich rechne weiterhin mit ~1,3 GHz Hotclock für Tesla, schließlich will NV die Energieeffizienz mit dem Faktor 3 verbessern. Da passen extrem gesteigerte Taktraten nicht ins Bild.
Um das mal in konkreten Zahlen auszudrücken, bei einem 1:4-Verhältnis (dp:sp) bräuchte man 2048 CUDA-Cores und 1370 MHz Hotclock, um auf 1,4 TFlops dp zu kommen. Selbst wenn man diese 2048 CUDA-Cores superskalar anlegt, bekommt man die unmöglich in unter 600 mm² @ 28 nm ausgehend von aktuell bekannten Designs.
Knuddelbearli
2011-10-26, 00:24:44
http://www.zdnet.de/news/39201162/nvidia-halbiert-umsatzprognose-fuer-viertes-geschaeftsquartal.htm
Demnach würde das Unternehmen zwischen Ende Oktober 2008 und Ende Januar 2009 nur zwischen 449 und 538 Millionen Dollar umsetzen.
4 quartal geht also bei NV von Oktober des Vorjahres bis zum Jänner des aktuellen Jahres. Ist also um 11 Monate vor verschoben.
Skysnake
2011-10-26, 00:30:06
Dann wars so rum.
Wie gesagt, war mir nicht mehr sicher, wie jetzt wo rum geschoben. Entweder knapp nach vorne oder knapp nach hinten, bzw halt gewaltig nach vorne ;D
Ich glaube aber nicht, das wir Kepler noch 2011 sehen werden. nVidia gibt keine Verschiebung nur wegen dem Geschäftsjahr bekannt :ugly: Die drehen sich das doch immer so hin, das man möglichst wenig Verschiebungen braucht...
Knuddelbearli
2011-10-26, 01:02:38
2011 kepler ? no way. tippe sogar eher auf April - May für den GTX 580 nachfolger
Januar - Februar für den 7970 also 3 Monate unterschied
john carmack
2011-10-26, 12:06:08
Für wann ist eigentlich DX 11.1 / 12 angekündigt?
Schon mit der 600er Serie von Nvidia?
2011 kepler ? no way. tippe sogar eher auf April - May für den GTX 580 nachfolger
Januar - Februar für den 7970 also 3 Monate unterschied
Da TSMC aber nun sagt dass HPL und HP zeitgleich in Massenproduktion gehen, würde ich nicht mehr unbedingt auf die 3 Monate wetten. Je nach Yields kann der Unterschied imho auch deutlich kleiner sein.
Ailuros
2011-10-26, 15:35:20
Was dp:sp angeht, rechnet ich bei den großen Kepler-Chips genau wie bei den großen Fermi-Chips mit einem 1:2-Verhältnis.
Duerfte auch so sein. Alles andere waere ein Rueckschritt und ich denke auch dass es bei 1:2 bleiben wird bis zu Echelon: http://www.brightsideofnews.com/news/2010/11/19/project-echelon-the-future-of-nvidias-silicon.aspx
Damit sind 1,4 TFlops dp bei Tesla realistisch.
Wenn ich die 2050-er mit 3x multipliziere bekomm ich 1.545 TFLOPs und die 2090-er = 1.995 TFLOPs.
Mit einem 1:4-Verhältnis würde man bei 1,4 TFlops dp einen Chip bekommen, der zu groß wird, um ihn herstellen zu können. Ich rechne weiterhin mit ~1,3 GHz Hotclock für Tesla, schließlich will NV die Energieeffizienz mit dem Faktor 3 verbessern. Da passen extrem gesteigerte Taktraten nicht ins Bild.
Kommt drauf an wieviel ein voller desktop Kepler bei seiner Frequenz verbraucht und natuerlich wo der hotclock bei diesem genau liegt. Tesla2090 ist ein GF110 bei 1.3GHz mit allen 512SPs des chips operativ und dieses unter 40G. Bis zu 28HP faellt ein ganzer Prozess full node aus; nein natuerlich wird kein IHV den Prozess-Unterschied in Frequenz investieren, aber wenn unter 40G schon 1.3GHz am Ende moeglich waren, kann man unter Umstaenden auch etwas mehr unter 28HP erwarten, ueberhaupt da ich keinen hotclock auf desktop GK100 unter 1.6GHz erwarte.
Für wann ist eigentlich DX 11.1 / 12 angekündigt?
Schon mit der 600er Serie von Nvidia?
DX11.1 wird wohl bei den meisten IHVs moeglich sein und ich bezweifle dass NV es diesmal wieder auslassen will. Fuer DX12 schnenk ich Dir eine lehre Tafel aber Kreide darfst Du nicht dafuer bekommen ;)
LovesuckZ
2011-10-26, 15:53:17
Wer keine Probleme mit nVidia hat, sollte das lesen: http://blogs.nvidia.com/2011/10/nvidia-engineering-strike-force-eliminates-bugs-28nm-process-tsm/
Wer nVidia nicht mag, dagegen das: http://semiaccurate.com/2011/10/26/did-nvidia-have-to-spin-their-28nm-gpu-shrinks/
john carmack
2011-10-26, 15:59:39
IHV?
Ailuros
2011-10-26, 16:07:40
IHV?
http://en.wikipedia.org/wiki/Independent_hardware_vendor
ISV: http://en.wikipedia.org/wiki/Independent_software_vendor
Ailuros
2011-10-26, 16:14:19
Wer keine Probleme mit nVidia hat, sollte das lesen: http://blogs.nvidia.com/2011/10/nvidia-engineering-strike-force-eliminates-bugs-28nm-process-tsm/
Wer nVidia nicht mag, dagegen das: http://semiaccurate.com/2011/10/26/did-nvidia-have-to-spin-their-28nm-gpu-shrinks/
Darf ich mich irgendwo zwischen drin platzieren? Denn ich bleibe bei meiner Meinung dass Herstellungsprozesse zunehmend problematisch werden; ausserdem bezweifle ich dass NV fuer 28nm irgend etwas ausgebuegelt hat dass nicht ihre eigenen Architekturen betrifft. Ausser sie haben irgend eine Sonder-abmachung mit TSMC erreicht fuer bessere Herstellungspreise.
LovesuckZ
2011-10-26, 16:22:47
Naja, gewisse Techniken oder Interaktionen mit dem Prozess werden wohl schon Absprachen zwischen Fertiger und Architekturdesigner verlangen. nVidia's Problem mit Fermi waren ja am Ende nicht die Yields, die waren überraschend ziemlich hoch, sondern das fehlende Verständnis für die Architektur und der Fertigung.
Spasstiger
2011-10-26, 16:33:16
Wenn ich die 2050-er mit 3x multipliziere bekomm ich 1.545 TFLOPs und die 2090-er = 1.995 TFLOPs.
Der Faktor 3 ist aber bezogen auf Perf/Watt, nicht auf die absolute Performance. Die 1,4 TFlops dp sind wohl schon realistisch, damit hat auch die dp:sp-Diskussion überhaupt erst angefangen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8983414#post8983414.
Ist es eigentlich denkbar, dass NV irgendwann für Tesla und GeForce getrennte GPU-Schienen fährt? Nach GF104-Bauart könnte NV in einen High-End-Chip bis zu 1536 CUDA-Cores integrieren, wodurch die sp-Rechenleistung gegenüber Fermi um mindestens den Faktor 3 ansteigt. Nur wäre dabei die dp-Performance (1:12) immer noch deutlich schlechter als beim GF110 und das Ziel von 1,4 TFlops oder mehr in weiter Ferne. Würde man die GF104-SMs von 16 auf 48 dp-fähige CUDA-Cores erweitern (1:4), bräuchte man immerhin rund 1,8 GHz Hotclock, um die 1,4 TFlops dp zu erreichen. Nur ist dann fraglich, ob man von solchen CUDA-Cores noch 1536 Stück in 600 mm² unterbringen kann. Die Infrastruktur drumherum muss ja auch stimmen, ich erwarte z.B. ein 512-Bit-SI und 64 ROPs.
Noch ein bischen Zahlenspielerei: Angenommen, NV nimmt das GF104-Design als Grundlage, erweitert die SMs auf volle dp-Fähigkeit (1:4) und reduziert dafür die Anzahl an SFUs und TMUs von je 8 auf 4. Dann könnten diese SMs eventuell ähnlich groß sein wie beim GF104 oder leicht größer. Rund die Hälfte der Diefläche - also ~180 mm² - des GF104 machen das Front- und Backend sowie die Infrastruktur aus. Nun würde man diesen Part für GK100 von der Transistorzahl her verdoppeln, was in 28 nm wieder eine ähnliche Diefläche bedeutet. Die Anzahl an SMs würde gegenüber GF104 von 8 auf 32 vervierfacht, so dass 1536 CUDA-Cores herausspringen. Viermal 180 mm² geteilt durch 2 (wg. 28 nm) bedeuten 360 mm² für die SMs. Insgesamt sind das dann 180 mm² + 360 mm² = 540 mm² für einen GK100 mit folgenden Specs:
1536 CUDA-Cores (dp:sp-Rechenleistung 1:4)
1,38 TFlops dp @ 1800 MHz
5,52 TFlops sp @ 1800 MHz
128 TMUs
512 Bit SI (GDDR5)
64 ROPs
Angenommen, NV erreicht 1800 MHz Hotclock mit der angestrebten Energieeffizienzverbesserung, dann halte ich diese Option sogar für realistisch. Aber ich bleibe eher pessimistisch, was das Taktpotential angeht und gehe eher von einer konservativen Erweiterung des GF110 auf 32 SMs und 512-Bit-SI aus. Dann wären die Specs bei ~500 mm² Diesize wie folgt:
1024 CUDA-Cores (dp:sp-Rechenleistung 1:2)
1,38 TFlops dp @ 1350 MHz
2,76 TFlops sp @ 1350 MHz
128 TMUs
512 Bit SI (GDDR5)
64 ROPs
Ailuros
2011-10-26, 16:44:57
Der Faktor 3 ist aber bezogen auf Perf/Watt, nicht auf die absolute Performance. Die 1,4 TFlops dp sind wohl schon realistisch, damit hat auch die dp:sp-Diskussion überhaupt erst angefangen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8983414#post8983414.
Als konservatives scenario wie auch dort erwaehnt wird schon. T2090 ist im uebrigen mit einem 6GB framebuffer bei 2.96GFLOPs/Watt (665 GFLOPs DP @ =/<225W); zumindest laut offiziellen NV Angaben.
Ist es eigentlich denkbar, dass NV irgendwann für Tesla und GeForce getrennte GPU-Schienen fährt? Nach GF104-Bauart könnte NV in einen High-End-Chip bis zu 1536 SPs integrieren, wodurch die sp-Rechenleistung gegenüber Fermi um mindestens den Faktor 3 ansteigt. Nur wäre dabei die dp-Performance (1:12) immer noch deutlich schlechter als beim GF110 und das Ziel von 1,4 TFlops oder mehr in weiter Ferne.
Wie meinst Du jetzt das? Einen getrennten HPC und einen anderen desktop chip? Ich will es ernsthaft bezweifeln, zumindest bis zu Echelon (was schon im weniger vorhersehbaren Bereich liegt). Denn Maxwell wird es auch in den Denver SoC schaffen neben desktop und all den anderen Maerkten.
Naja, gewisse Techniken oder Interaktionen mit dem Prozess werden wohl schon Absprachen zwischen Fertiger und Architekturdesigner verlangen. nVidia's Problem mit Fermi waren ja am Ende nicht die Yields, die waren überraschend ziemlich hoch, sondern das fehlende Verständnis für die Architektur und der Fertigung.
In Q3/Q4 09' waren die 40G yields alles andere als "hoch". Muss auch der Grund sein weil Tegra2 auch erst in Q1 2010 in die Produktion ging obwohl er sein tape out schon seit Ende 2008 hatte.
Darf ich mich irgendwo zwischen drin platzieren? Denn ich bleibe bei meiner Meinung dass Herstellungsprozesse zunehmend problematisch werden; ausserdem bezweifle ich dass NV fuer 28nm irgend etwas ausgebuegelt hat dass nicht ihre eigenen Architekturen betrifft. Ausser sie haben irgend eine Sonder-abmachung mit TSMC erreicht fuer bessere Herstellungspreise.
Eine gewisse Annäherung wurde aber schon öfters mal angedeutet. Was ja im Hinblick auf die Fertigunsoptionen der Chipproduzenten durchaus Sinn macht.
Ailuros
2011-10-26, 17:32:53
Eine gewisse Annäherung wurde aber schon öfters mal angedeutet. Was ja im Hinblick auf die Fertigunsoptionen der Chipproduzenten durchaus Sinn macht.
Ich weiss zwar nicht wie es bei foundries normalerweise funktioniert, aber wenn ich als NV zu stark TSMC's Buckel kratzen wuerde dann garantiert nicht umsonst.
Hugo78
2011-10-26, 18:05:39
T2090 ist im uebrigen mit einem 6GB framebuffer bei 2.96GFLOPs/Watt (665 GFLOPs DP @ =/<225W); zumindest laut offiziellen NV Angaben.
Was dann wieder für eine einfache Verdoppelung der Cores bei Kepler spricht.
Ailuros
2011-10-26, 18:16:00
Was dann wieder für eine einfache Verdoppelung der Cores bei Kepler spricht.
Wieso? Wenn der Massstab Tesla 2090 war dann sind es bei hypothetischen 225W TDP * 8.86 FLOPs = 1.994 TFLOPs DP *2 fuer SP = 3.987 TFLOPs bei geringerer Frequenz als beim desktop. Allein um die fast 4 TFLOPs von so einem Ding zu erreichen brauchst Du fast 2GHz hotclock bei nur 1024SPs.
Ich weiss zwar nicht wie es bei foundries normalerweise funktioniert, aber wenn ich als NV zu stark TSMC's Buckel kratzen wuerde dann garantiert nicht umsonst.
Sagen wir doch man hat durch eine gemeinsame Sorge, ein gemeinsames Interesse entdeckt. (mit gegenseitigen Vorteilen)
Ailuros
2011-10-26, 18:30:33
Noch ein bischen Zahlenspielerei: Angenommen, NV nimmt das GF104-Design als Grundlage, erweitert die SMs auf volle dp-Fähigkeit (1:4) und reduziert dafür die Anzahl an SFUs und TMUs von je 8 auf 4. Dann könnten diese SMs eventuell ähnlich groß sein wie beim GF104 oder leicht größer. Rund die Hälfte der Diefläche - also ~180 mm² - des GF104 machen das Front- und Backend sowie die Infrastruktur aus. Nun würde man diesen Part für GK100 von der Transistorzahl her verdoppeln, was in 28 nm wieder eine ähnliche Diefläche bedeutet. Die Anzahl an SMs würde gegenüber GF104 von 8 auf 32 vervierfacht, so dass 1536 CUDA-Cores herausspringen. Viermal 180 mm² geteilt durch 2 (wg. 28 nm) bedeuten 360 mm² für die SMs. Insgesamt sind das dann 180 mm² + 360 mm² = 540 mm² für einen GK100 mit folgenden Specs:
1536 CUDA-Cores (dp:sp-Rechenleistung 1:4)
1,38 TFlops dp @ 1800 MHz
5,52 TFlops sp @ 1800 MHz
128 TMUs
512 Bit SI (GDDR5)
64 ROPs
Nochmal wieso sollte NV wieder einen Rueckschritt zu 1:4 machen? Noch schlimmer wenn man schon an 1536SPs denkt dann wieso nicht gleich 4*16SPs/SM, 4 SMs/GPC, 6 GPCs insgesamt? Ich weiss dass wohl alle bisherigen Thesen falsch sind, aber die 6 GPCs haben erstmal den Vorteil dass sich die Geometrie-raten weiterhin steigern (fuer Quadros hauptsaechlich) und ich sah bei Fermi trotz hoeherer TMU Anzahl bei der Konkurrenz kein Problem was dessen Fuellrate betrifft. 4 TMUs/SM waeren alles andere als absurd und der Abstand zwischen 24 und 32SMs ist immer noch kleiner.
Angenommen, NV erreicht 1800 MHz Hotclock mit der angestrebten Energieeffizienzverbesserung, dann halte ich diese Option sogar für realistisch. Aber ich bleibe eher pessimistisch, was das Taktpotential angeht und gehe eher von einer konservativen Erweiterung des GF110 auf 32 SMs und 512-Bit-SI aus. Dann wären die Specs bei ~500 mm² Diesize wie folgt:
1024 CUDA-Cores (dp:sp-Rechenleistung 1:2)
1,38 TFlops dp @ 1350 MHz
2,76 TFlops sp @ 1350 MHz
128 TMUs
512 Bit SI (GDDR5)
64 ROPs
Das unnoetige 512bit SI fuer solch einen chip mal aussen weg, waere das obrige ein netter 32nm chip gewesen bei der Komplexitaet und Frequenzen.
Sagen wir doch man hat durch eine gemeinsame Sorge, ein gemeinsames Interesse entdeckt. (mit gegenseitigen Vorteilen)
Es ist nicht die eigentliche Aufgabe der IHVs den foundries ihre Herstellungsprozesse sozusagen auszubuegeln. Meine Frage bleibt warum NV es umsonst machen wuerde? Fuer so grosszuegig halte ich NV nicht und wie ich schon sagte ich wuerde selber an ihrer Stelle versuchen fuer mich etwas auszuquetschen. NV bekam bis jetzt fuer ihre hohe Volumen einen leicht besseren Rabbatt als AMD. Ein klein bisschen kann man immer erreichen, denn die zusaetzlichen Resourcen seitens NV sind ja auch nicht umsonst.
Hugo78
2011-10-26, 19:40:50
Wieso?
Weil NV für Kepler knapp unter 6DP GFLOPS/W angibt, für Fermi nur 2, aber wenn M2090 schon bei 2,95 ist dann...
http://www.computerbase.de/news/2010-09/nvidia-kepler-und-maxwell-folgen-fermi/
LovesuckZ
2011-10-26, 19:57:46
In Q3/Q4 09' waren die 40G yields alles andere als "hoch". Muss auch der Grund sein weil Tegra2 auch erst in Q1 2010 in die Produktion ging obwohl er sein tape out schon seit Ende 2008 hatte.
Das war ein Problem auf Seiten von TSMC. Verstärkt durch die generelle geringe Kapazität. nVidia hatte mit Fermi ein Architekturproblem, weil sie die Fertigung nicht richtig anwendeten bzw. vollständig verstanden. Dies hat sich aber nicht bei den 10.1 40nm Produkten, Tegra 2 oder MCP89 gezeigt.
john carmack
2011-10-26, 21:04:20
Weil NV für Kepler knapp unter 6DP GFLOPS/W angibt, für Fermi nur 2, aber wenn M2090 schon bei 2,95 ist dann...
http://www.computerbase.de/news/2010-09/nvidia-kepler-und-maxwell-folgen-fermi/
für mich sind das eher "5" oder "5,5" und keine "6"
Hugo78
2011-10-26, 21:27:23
Kommt drauf an, wo man jetzt den Schnittpunkt interpretiert.
Ändert aber nicht an den Relationen ansich.
Spasstiger
2011-10-26, 21:35:07
für mich sind das eher "5" oder "5,5" und keine "6"
Die Grafik ist nicht ganz korrekt, die Marker wurden falsch platziert, sofern die Mitten der Marker für die gewünschten Punkte stehen.
Schauen wir mal, wo die Marker und die realen Lösungen liegen:
GT200-Tesla
Marker: 0,1-1,5 GFlops/Watt
Tesla C1060: 0,41 GFlops/Watt
Die Tesla C1060 liegt innerhalb der Fläche des zugehörigen Markers, aber unterhalb der Mitte.
Fermi-Tesla
Marker: 0,6-2,0 GFlops/Watt
Tesla C2050: 2,16 GFlops/Watt
Tesla C2070: 2,09 GFlops/Watt
Tesla M2050/M2070: 2,29 GFlops/Watt
Tesla M2090: 2,96 GFlops/Watt
Alle Fermi-Varianten liegen über dem zugehörigen Marker.
Kepler-Tesla
Marker: 4,1-5,5 GFlops/Watt
Tesla C30xx: ???
Ausgehend von den Abweichungen bei GT200-Tesla und Fermi-Tesla könnte man von 4 GFlops/Watt bis 8 GFlops/Watt alles annehmen. 6 GFlops/Watt sind wohl ein realistischer Punkt ausgehend von 1,4 TFlops und 225-250 Watt.
fondness
2011-10-26, 21:39:53
Naja, die Grafik ist alt, mit Fermi war damals GF100 gemeint, der eine schlechtere Perf/Watt hatte wie die heutigen GF110.
Spasstiger
2011-10-26, 21:49:00
Naja, die Grafik ist alt, mit Fermi war damals GF100 gemeint, der eine schlechtere Perf/Watt hatte wie die heutigen GF110.
Ich hab alle Varianten aufgeführt, GF100 (2,09-2,29 GFlops/Watt) und GF110 (2,96 GFlops/Watt). Wenn Kepler 1,4 TFlops innerhalb von 225 Watt TDP schafft, wäre das ein Faktor 3 zur ineffizientesten Fermi-Lösung. Und das ist wahrscheinlich auch der Faktor 3, von dem NV spricht.
Es ist nicht die eigentliche Aufgabe der IHVs den foundries ihre Herstellungsprozesse sozusagen auszubuegeln. Meine Frage bleibt warum NV es umsonst machen wuerde? Fuer so grosszuegig halte ich NV nicht und wie ich schon sagte ich wuerde selber an ihrer Stelle versuchen fuer mich etwas auszuquetschen. NV bekam bis jetzt fuer ihre hohe Volumen einen leicht besseren Rabbatt als AMD. Ein klein bisschen kann man immer erreichen, denn die zusaetzlichen Resourcen seitens NV sind ja auch nicht umsonst.
Ich sage nicht umsonst, sondern zum gegenseitigen Vorteil.
Ailuros
2011-10-27, 14:59:51
Das war ein Problem auf Seiten von TSMC. Verstärkt durch die generelle geringe Kapazität. nVidia hatte mit Fermi ein Architekturproblem, weil sie die Fertigung nicht richtig anwendeten bzw. vollständig verstanden. Dies hat sich aber nicht bei den 10.1 40nm Produkten, Tegra 2 oder MCP89 gezeigt.
GF100 war in Q3 sozusagen ein "done deal"; sie haetten auch schon damals mit A2 in die Produktion gehen koennen denn ein metal spin haette am interconnect Problem nichts geaendert. Noch schlimmer nach NV selber tauchte das eigentliche Problem erst bei der Massen-produktion auf. In Q1' 10 kostete sie am Anfang mit >50% yields jeglicher GF100 core knapp unter $120 welches durchaus passabel war; in Q3 oder 4 haette jeglicher core knapp unter $200 gekostet und solch eine Summe ist eben nicht zu bewaeltigen ueberhaupt im Anblick dass das groesste Volumen von diversen bins von =/<14 SM chips kam. Genau aus dem gleichen Grund wurde auch T2 erst in Q1 hergestellt um die Herstellungskosten auf logischen Hoehen zu halten.
Das die Kapazitaeten auch begrenzt waren ist zwar Tatsache, aber im Gegensatz zu chip yields beinflussen die ersten die Herstellungskosten eben nicht, sondern eher die yields und direkt danach die jeweiligen bins.
Weil NV für Kepler knapp unter 6DP GFLOPS/W angibt, für Fermi nur 2, aber wenn M2090 schon bei 2,95 ist dann...
http://www.computerbase.de/news/2010-09/nvidia-kepler-und-maxwell-folgen-fermi/
Du hast am Anfang doppelt soviele "cores" erwaehnt wie Fermi was mich an 1024 SPs denken laesst. Und wie ich schon sagte selbst nur 4 TFLOPs brauchen viel zu hohe hotclocks um mit nur 1024SPs so viel zu erreichen; bei 5 bzw 6 TFLOPs braeuchten sie noch brutalere hotclocks die sowieso unrealistisch sind.
Anders wenn Kepler irgendwo =/>3.8TFLOPs haben sollte dann sind es mit aller Wahrscheinlichkeit eben nicht nur 1024SPs sondern um einiges mehr.
Ich sage nicht umsonst, sondern zum gegenseitigen Vorteil.
TSMC ist laut dem Vertrag verpflichtet problemlose Herstellungsprozesse bereit zu stellen. Bei jeglichen yield oder sonst noch Prozess-bedingten Problemen bekommt jeglicher IHV einen Rabbatt. Als AMD mit Cypress in Q3 09' in die Produktion ging gab es ein paar hundert wafer mit nur 4% yields, ergo 6 operative dies pro wafer. Es ist eben nicht so dass in dem Fall jeglicher IHV $5000/wafer / 6 ploetzlich $833 pro chip bezahlen wuerde. Es gibt Klausen in allen Vertraegen die eine Durschnitt fuer jeglichen Fall vorsehen und ein IHV bezahlt selten bis nie nur $5000 pro wafer weil es nie am Anfang 100% yields geben kann, aber der IHV bezahlt auch keine ueberverrueckte Summen pro chip.
Am Start von 40G kostete jeder wafer +/- (mit den Rabatt-Unterschieden pro IHV) um die $7000/wafer.
Steht unter normalen Umstaenden in den Vertraegen etwas drin dass der IHV jeglicher foundry unter die Arme greifen muss fuer A,B oder C? Wohl nicht. Ergo bezahlt jeglicher IHV fuer die Herstellung seitens TSMC die gegeben sein sollte. Alles was noch dazukommen kann seitens des IHVs kostet an wertvollen Resourcen vom IHV und es ist fuer mich selbstverstaendlich dass man so etwas bei vertraeglichen Verhandlungen fuer Preise nicht einfach "uebersieht". Es ist in keiner Branche anders.
Und wäre es nicht zum gegenseitigen Vorteil einen höheren Rabatt bei schlechten Yields zu vereinbaren, wenn der IHV dafür bei der Beseitigung der Probleme hilft.
Hugo78
2011-10-27, 18:29:57
Du hast am Anfang doppelt soviele "cores" erwaehnt wie Fermi was mich an 1024 SPs denken laesst. Und wie ich schon sagte selbst nur 4 TFLOPs brauchen viel zu hohe hotclocks um mit nur 1024SPs so viel zu erreichen; bei 5 bzw 6 TFLOPs braeuchten sie noch brutalere hotclocks die sowieso unrealistisch sind.
Anders wenn Kepler irgendwo =/>3.8TFLOPs haben sollte dann sind es mit aller Wahrscheinlichkeit eben nicht nur 1024SPs sondern um einiges mehr.
Ich glaub wir reden aneinander vorbei.
Ailuros mir gehts ja nur um die Perf/W Steigerung.
Andersrum, also Frage:
Ist es realistisch, dass ein Tesla M2090 aka GF110 Shrink, ungeachtet des VRAM ausbaus, allein durch die Reduzierung von 40 auf 28nm nur noch eine halb so hohe TDP haben könnte?
Also 110-120W in 28nm, statt 225W.
Dann wären wir doch schon bei 665 Gflops DP auf 110W und so dann bei 6 GFlops DP /W.
Skysnake
2011-10-27, 20:27:55
ich glaub auch das es eher in die Richtung geht, kaum performancesteigerung aber dafür deutlich weniger Leistungsaufnahme.
LovesuckZ
2011-10-27, 20:29:59
Natürlich wird es eine deutliche Steigerung geben. Speed geht immer noch vor Stromverbrauch, da Zeit wesentlich kritischer als Stromkosten ist.
Skysnake
2011-10-27, 20:55:25
wie ich solche pauschalaussagen liebe :rolleyes:
LovesuckZ
2011-10-27, 21:00:01
Soso. Du willst also behaupten, dass natürlich die Mehrheit der Firmen keine Probleme hat 1,5x bis 2x länger warten zu müssen, nur weil man ein bisschen Strom sparen will?
Hm. Klingt logisch.
Dural
2011-10-27, 21:01:19
wie ich solche pauschalaussagen liebe :rolleyes:
es ist aber so...
Hugo78
2011-10-27, 21:07:45
Aktuell könnte EA/DICE ein paar schnellere Server brauchen ... :D
Ich frag mich, warum sie nich übergangsweise für solche Stoßzeiten z.B. Serverzeit bei Amazon mieten.
Skysnake
2011-10-28, 00:56:28
Soso. Du willst also behaupten, dass natürlich die Mehrheit der Firmen keine Probleme hat 1,5x bis 2x länger warten zu müssen, nur weil man ein bisschen Strom sparen will?
Hm. Klingt logisch.
WEIL DU SCHWACHSINN DAHER REDEST!
Sorry, aber wenn ich für ne Aufgabe durch "langsamere" Prozessoren X€ an Stromkosten spare, dann kann ich oft Y Rechner mehr kaufen, um das Problem zu lösen. Wenn das unterm Strich günstiger ist, dann freu ich mich....
Was glaubst denn warum die ganzen Server-CPUs niedriger getaktet sind als die Desktop-CPUs, wenn denn die Zeit sooooooooo entscheidend ist?
Ah ja richtig, weil dann das Perf/Watt-Verhältnis kacke wird, und ich mir lieber nen zweiten Rechner hin stelle, weil das unterm Strich dann auch mal schnell günstiger werden kann....
LovesuckZ
2011-10-28, 01:13:15
Klar, wenn eine Aufgabe in der selben Zeit mit einer effizienteren Architektur gelöst werden kann, dann kauft man diese. Aber das hat überhaupt nichts mit der Aussage zu tun:
Hey, nVidia wird nur 666 DP-FLOPs für 111 Watt anbieten, weil die Leute ja nicht mehr wollen.
Du scheinst überhaupt nicht begriffen zu haben, was im Serverbereich limitiert und dadurch als wichtig erscheint. Aber hey, wenn man denkt, dass Firmen, Universitäten oder sonstige Einrichtung unendlich Platz, Mitarbeiter und Zeit haben, dann können sie sich auch die halbe Erde mit Perf/Watt-Weltmeister zu kleistern.
Und damit ist Ende für mich. Meine Zeit ist mir wirklich zu schade mit Menschen über die Realität zu reden.
Deinorius
2011-10-28, 01:49:08
Meine Zeit ist mir wirklich zu schade mit Menschen über die Realität zu reden.
... weil man nur über die Realität reden kann, wenn man sich selber nicht in dieser befindet. :freak:
Sorry, der war aufgelegt.
LovesuckZ
2011-10-28, 01:56:48
Nö. Es macht nur kein Sinn über das Offensichtliche mit Leuten zu reden, die die Realität ignorieren. Sry, aber das ist das selbe Niveau als wenn man hier darüber redet, ob die Erde eine Scheibe wäre.
Er glaubt, dass Fermi eine HPC-Karte mit seinem - was? - 10% dediziertem Transistorenaufkommen für HPC wäre und dass Cray überhaupt keine Probleme haben würde statt den ca. 19500 Knoten eben 39000 Knoten zu verbauen. Yeah, was soll man darauf noch antworten? Einfach nur nonsens.
Aber dies scheint bei bestimmten Themen über Hardware und Technologie in diesem Forum gang und gebe zu sein.
/edit: Scott von nVidia hat schon angekündigt, dass die Kepler-GPUs mit mehr als 1 TFLOP DP kommen. Du siehst, was Realität und was Nonsens ist, lässt sich also sehr einfach erkennen. Warum man also deswegen noch über die Realität, das bekannte, das normale, diskutieren sollte, erschließt sich mir nicht. Aber ich wette, manche haben bestimmt auch "schlüssige" Argumente, warum die Erde eine Scheibe wäre.
Dural
2011-10-28, 09:38:39
zudem der Verbrauch so wie so immer auch mit dem Mitbewerber zu tun hat. sollte AMD schwach sein wird man dies auch direkt in den NV Produkte spüren in dem sie die Taktraten
entsprechen (nach unten) anpassen = höherer Gewinn = weniger Verbrauch. sollte AMD stark sein wird NV ihre Chips entsprechen höher Takten müssen = mehr Leistung = mehr Verbrauch.
Die 6970 von AMD ist da doch ein schönes Beispiel, nur um mit der GTX570 mithalten zu können wurde sie so zum höheren Verbrauch getrieben, zudem der Chip bei rund 900MHz
logischerweise schon ziemlich an seine Grenzen stösst. Deswegen steht sie auch so extrem schlecht gegen über ihrem Vorgänger die 5870 da.
Die Vorlage ist aber ganz klar:
High End 200-250Watt
Mainstream 100-150Watt
Irgend wie hab ich mittlerweilen das Gefühl das die neue Southern Islands Architektur nicht so der Hammer wird, ich traues es AMD einfach auch gar nicht mehr zu...
Deinorius
2011-10-28, 11:08:36
Nö. Es macht nur kein Sinn über das Offensichtliche mit Leuten zu reden, die die Realität ignorieren.
Stehst du vor einem Spiegel?
Deine Vergleich mit der Anzahl der Knoten kannst du dir sparen. Die wurde in dem Zusammenhang nicht genannt und ist in deinem Fall sowieso mehr als übertrieben.
Zur Erinnerung: Er hat was gegen Pauschalaussagen, ich im Übrigen auch. Wenn es sich in einem subjektiven Fall innerhalb eines bestimmten Ausmaßes lohnen würde, dann bitte.
Du solltest besser akzeptieren, dass die Zuständigen im HPC-Bereich nicht per Pauschalverhalten einkaufen.
LovesuckZ
2011-10-28, 12:30:44
Deine Vergleich mit der Anzahl der Knoten kannst du dir sparen. Die wurde in dem Zusammenhang nicht genannt und ist in deinem Fall sowieso mehr als übertrieben.
ich glaub auch das es eher in die Richtung geht, kaum performancesteigerung aber dafür deutlich weniger Leistungsaufnahme.
Cray will ca. 20 PetaFlops erreichen, wovon mindesten 85% durch die Grafikkarten erbracht werden. Los, erleuchte uns "Pauschalierer" wieviele Knoten sie benötigen, wenn man dabei nur Grafikkarten verwenden würden die ca. 700 GLOPs aufweisen.
Für eine Vollbestückung haben wir ca. 960 DP GFlops ermittelt. Das sind fast 40% mehr als die 700 GFlops. Was wiederrum also ca. 40% mehr Knoten macht.
Aber du hast recht, Pauschalaussagen sind echt dumm. :freak:
Zur Erinnerung: Er hat was gegen Pauschalaussagen, ich im Übrigen auch. Wenn es sich in einem subjektiven Fall innerhalb eines bestimmten Ausmaßes lohnen würde, dann bitte.
Hätte, wäre, wenn. nVidia verkauft nur >200 Watt Fermi-Tesla-Karten. Alleine das sollte einem schon zu denken geben, wie der Markt tickt.
Du solltest besser akzeptieren, dass die Zuständigen im HPC-Bereich nicht per Pauschalverhalten einkaufen.
Der Markt kauft nach Zeitersparnis und nicht geringeren Stromkosten innerhalb einer Architektur. Man sollte sich anschauen, wie nVidia Tesla vermarket.
Gipsel
2011-10-28, 15:56:00
@all:
Übrigens, nur mal so als Erinnerung: persönliche Anfeindungen werden laut den Forumsregeln nicht so gern gesehen und im Zweifelsfall auch geahndet. Also beschränkt Euch bitte auf Sachargumente!
Skysnake
2011-10-28, 21:43:54
lovesuckz ist klar, und deswegen werden immer mehr Algorithmen nach Stromverbrauch bewerte in Verbindung mit der Laufzeit und nicht nur allein nach Laufzeit.
wenn man deiner Argumentation folgen würde, müssten wir schon längst den ersten exasklare Rechner haben. Aber Moment, haben wir ja nicht, weil die Effizienz noch nicht gegeben ist.
wir reden auch nicht unbedingt über einen Faktor zwei den der Leistung/#nodes. Das geht eher darum, wollen wir noch 10% Mehrbelastung für 30% höheren Stromverbrauch, oder nicht, und allgemein geht die Sache meist in die Richtung lieber effizienter sein.
oder warum takten denn die Gewalt niedriger als die GeForce, wenn denn absolute Leistung so wichtig ist, oder die opterons, oder die Xeons?
man schaut halt, wie die skalierung zwischen Performance und Leistungsaufnahme ist, und da wird kaum einer 20-30% schlechtere Effizienz bevorzugen.
die Systeme müssen eh schon gut skalieren, und ob es jetzt 10k Index oder 11k sind, spielt nicht mehr die Rolle, wenn man mit den 11k nodes eben 5 oder 10% Effizienter ist.
AnarchX
2011-10-28, 22:25:49
http://www.4gamer.net/games/132/G013252/20111027090/
以下,GPU名はいずれも開発コードネームとなるが,グラフィックスカードベンダー関係者によると,AMDは2012年第1四半期中に次世代GPUファミリー「South ern Islands」(サザンアイランド)のPCIe 3.0対応版を市場投入予定とのこと。対するNVIDIAは同第2四半期に,「Kepler」(ケプラー)世代の「GK104」でPCIe 3.0移行を開始する計画だと言われている。ここ数年におけるNVIDIAの製品ロードマップからすると最初は“GK100”では? と思う人もいるだろうが,これは現在 ,NVIDIAの製品ロードマップに「GK100」が存在せず,デュアルGPUソリューションと思われる「GK110」がフラグシップに位置づけられているた めのようだ。
The following names will be GPU codenamed both parties according to graphics card vendors, AMD is the next generation GPU family in the first quarter of 2012 "Southern Islands" (Southern Islands), PCIe 3.0 compatible version of They will market. NVIDIA is in the second quarter against the same, "Kepler" (Kepler) Generation "GK104" It is said that it plans to start migrating in PCIe 3.0. From the first NVIDIA's product roadmap for the past few years "GK100" then? Some people would think, which is currently in the product roadmap NVIDIA "GK100" does not exist, seems to be a dual GPU solution "GK110" seems to have been positioned on the flagship.
Below, each GPU name becomes the development code name, but, according to the graphic card vendor authorized personnel, AMD PCIe 3.0 corresponding edition of the next generation GPU family “South ern Islands” (southern island) is with market throwing schedule during 2012 1st quarter. NVIDIA which confronts same 2nd quarter, it is said that it is the plan that it starts PCIe 3.0 movement with “GK104” “, of the Kepler” (Kepler) generation. From the point of view of the product road map of NVIDIA in here several years first with “GK100”? With the person who thinks it will be, but, as for this presently, “GK100” does not exist in the product road map of NVIDIA, is thought as the dual GPU solution it seems like because “GK110” is located the flag ship.
Hugo78
2011-10-29, 08:04:56
Also was soll uns das jetzt sagen?!
GK104 wird erstmal vermeindlich 6 Monate lang die Stellung halten, als Single wie Dual GPU, weils kein GK100 geben wird und GK110 dann vermeindlich zum ende 2012 hin das Flagschiff bilden soll.
Oder wie jetzt?!
Die Story gabs doch mit anderen Namen schon mal letztes Jahr und war schlicht Blödsinn.
Skysnake
2011-10-29, 10:38:23
hört sich für mich auch zu strange an.
Ailuros
2011-10-29, 15:21:41
Ich glaub wir reden aneinander vorbei.
Ailuros mir gehts ja nur um die Perf/W Steigerung.
NV's offizieller slide der Vergangenheit behauptete eine ca. 2.5x Steigerung in DP FLOPs zwischen Fermi und Kepler. Heute behaupten sie off the record dass es eher bei 3x liegt (ich wiederhole es liediglich fuer die anderen Mitleser). Was ich leider nicht weiss ist welcher Tesla Fermi der eigentliche Massstab ist, da es zwischen 2070/515GFLOPs/6GB/238W und 2090/665GFLOPs/6GB/225W schon einigen Unterschied gibt.
Andersrum, also Frage:
Ist es realistisch, dass ein Tesla M2090 aka GF110 Shrink, ungeachtet des VRAM ausbaus, allein durch die Reduzierung von 40 auf 28nm nur noch eine halb so hohe TDP haben könnte?
Ja; eben weil ein ganzer full node 32nm ausgefallen ist. Da wo es kompliziert werden koennte ist dass wir nicht wissen was sich genau insgesamt an Kepler geaendert hat, und wir wissen ja alle dass GPUs nicht nur aus ALUs bestehen. Aber da ich Deine Logik verstehen kann, ist die Antwort zu Deiner Frage so wie sie formuliert ist, positiv.
Also 110-120W in 28nm, statt 225W.
Dann wären wir doch schon bei 665 Gflops DP auf 110W und so dann bei 6 GFlops DP /W.
Tesla 2070, 3GB, 515 GFLOPs, 238W = 2.16 FLOPs/W
Tesla 2075, 6GB, 515 GFLOPs, 225W = 2.28 FLOPs/W
Tesla 2090, 6GB, 665 GFLOPs, 225W = 2.95 FLOPs/W
2070 = 2.16 * 3 = 6.48 FLOPs/W * 225 W = 1.458 TFLOPs
2075 = 2.28 * 3 = 6.84 FLOPs/W * 225 W = 1.539 TFLOPs
2090 = 2.95 * 3 = 8.85 FLOPs/W * 225 W = 1.991 TFLOPs
Zwischen knapp 1.5 und knapp 2.0 gibt es schon einigen Unterschied, ueberhaupt wenn man auf die theoretische FLOPs/W achtet die zwischen 6.5 und fast 9 FLOPs/W je nach hypothetischem Fall rangieren.
Hugo78
2011-10-29, 16:53:31
Ok, danke. :smile:
Natürlich da wir ja (vermutlich) noch keine laufende Serienproduktion haben, würde selbst ein direktes Statement von NV ala
"ja wir rechnen mittlerweile sogar mit 3x ggü. Tesla 2070 ect.", auch nichts absolutes sein.
Denn es findet sich leider erst mit der Großserie, hin und wieder der ein oder andere Bug,
der manches Taktziel zunichte macht im letzen Moment und damit ebend die perf/W. Schauen wir mal.
Edit:
Auch wenns OT ist, ...
Ich frag mich, warum sie nich übergangsweise für solche Stoßzeiten z.B. Serverzeit bei Amazon mieten.
Anscheinend nutzt Orgin schon den Amazon Cloud. ;)
http://www7.pic-upload.de/thumb/29.10.11/9lh2ywe4nh8.jpg (http://www.pic-upload.de/view-11826623/aws1.jpg.html)
- http://aws.amazon.com/de//185-4799253-2734504/
AnarchX
2011-10-30, 14:43:14
Nvidia's new Kepler GPUs are expected to be announced in December.
http://www.digitimes.com/news/a20111026PD214.html
neliz deutet ähnliches an: http://forum.beyond3d.com/showpost.php?p=1593259&postcount=550
gibts eigentlich schon Gerüchte zur Speichergröße der Teslas?
Bleibt es bei max 6GB oder wird auch das mehr werden?
AnarchX
2011-10-30, 15:21:23
Bisher noch nichts. Im Endeffekt wird es wohl vom Speicherinterface abhängen. Bei 512-Bit wären 8GiB Teslas durchaus denkbar.
Ich frag mich, warum sie nich übergangsweise für solche Stoßzeiten z.B. Serverzeit bei Amazon mieten.
Das haben sie, jedenfalls kann man mit Procmon sehen, dass origins TCP-Sends an AmazonWS schickt.
Gibt es irgendwo eine Übersicht, die für Gamer interessant ist bzgl. Keppler und wann ist im Einzelhandel mit neuen High.End-Grafikkarten zu rechnen?
Ailuros
2011-10-31, 06:28:53
Ok, danke. :smile:
Natürlich da wir ja (vermutlich) noch keine laufende Serienproduktion haben, würde selbst ein direktes Statement von NV ala
"ja wir rechnen mittlerweile sogar mit 3x ggü. Tesla 2070 ect.", auch nichts absolutes sein.
Die ersten offizielle Dokumente mit Projektionen koennten ab Dezember erscheinen.
Denn es findet sich leider erst mit der Großserie, hin und wieder der ein oder andere Bug,
der manches Taktziel zunichte macht im letzen Moment und damit ebend die perf/W. Schauen wir mal.
Ich bezweifle dass Kepler aehnliche Probleme mit GF100 haben wird; beim letzteren war nicht nur die Frequenz das Problem die nicht erreicht werden konnte sondern auch das interconnect Problem die sie auf nur 14SMs limitierte. Tesla2090/GF110 kam mit 16SMs bei >1.3GHz an.
Unter normalen Umstaenden sollte Kepler/Tesla mit allen SMs eingeschaltet benutzt werden und mit maximal (je nach Anzahl der ALUs) 1.5GHz.
Skysnake
2011-10-31, 10:28:58
Ähm, das ist jetzt auch schönfärberei :ugly:
Der GF100 konnte nicht nur 14 SMs ansprechen, sondern gar keine laut Aussage von Huang. Deswegen mussten die ja nochmal einen kompletten Respin hinlegen, worauf hin dann weder Performance, noch Performance/Watt, noch voller Ausbau erreichten wurden, und das gut 6 Monate später als im ursprünglichen Plan.
Schlimmer kanns eigentlich gar nicht kommen. Daran, das es dann mit dem GF100(b) sogar immer noch nicht alle SMs gewesen sind, zeigt, dass die das in aller Hektik hin geknallt haben.
Wie gesagt, schlimmer kann es eigentlich nur noch kommen, wenn man die Großserien-Wafer in der Hand hält, und merkt, das man die ALUs vergessen hat, oder die Clock oder sonst irgendwas total essenzielles
Godmode
2011-10-31, 21:14:02
http://www.digitimes.com/news/a20111026PD214.html
neliz deutet ähnliches an: http://forum.beyond3d.com/showpost.php?p=1593259&postcount=550
Und soll das dann ein richtiger Launch werden oder wie so was wie bei Fermi? ;D
Würde mich freuen, zu Weihnachten brauche ich immer neues Spielzeug.
boxleitnerb
2011-10-31, 21:16:26
Kein Launch, nichtmal Paperlaunch. Vorher friert die Hölle zu.
Ailuros
2011-11-01, 06:32:55
Ähm, das ist jetzt auch schönfärberei :ugly:
Der GF100 konnte nicht nur 14 SMs ansprechen, sondern gar keine laut Aussage von Huang.
Bin mir zwar nicht sicher welche von Jensen's Aussagen Du meinst, aber ich hab eher das Gefuehl dass es sich um ein Missverstaendnis handelt. Selbstverstaendlich konnten die chips ihre SMs ansprechen, sogar 16 wenn man von den N chips eines wafers mit etwas Glueck 1 oder sogar 2 solcher chips erwischt haette. Alles ueber 14 SMs kam aber mit einem ziemlich heftigen zusaetzlichem Stromverbrauch.
Deswegen mussten die ja nochmal einen kompletten Respin hinlegen, worauf hin dann weder Performance, noch Performance/Watt, noch voller Ausbau erreichten wurden, und das gut 6 Monate später als im ursprünglichen Plan.
GF110 war kein kompletter respin. Fuer die Zeitspanne haetten sie es nie geschafft. Sie haben lediglich eine Anzahl von high performance transistors ausgetauscht.
Schlimmer kanns eigentlich gar nicht kommen. Daran, das es dann mit dem GF100(b) sogar immer noch nicht alle SMs gewesen sind, zeigt, dass die das in aller Hektik hin geknallt haben.
Wie gesagt, schlimmer kann es eigentlich nur noch kommen, wenn man die Großserien-Wafer in der Hand hält, und merkt, das man die ALUs vergessen hat, oder die Clock oder sonst irgendwas total essenzielles
Waere der interdie connect total abgeknallt wie Du andeuten wirst geht erstmal das Ganze OoO Geometrie-Tessellations-Zeug von jeglichem chip in den Eimer und es wuerde gar nichts davon funktionieren. Um dieses geht es ja eigentlich und nur dieses hatte ernsthafte hw bugs. Wohl auch auf GF104 da es nie einen 8SM chip von dem Ding am Ende gab.
Natuerlich geht es schlimmer und sogar um zich Male: NV30.
LovesuckZ
2011-11-01, 11:52:26
NV30 - kam der nicht tot von TSMC wieder und nVidia musste ein komplett neues Tape-Out fahren?
GF110 war kein kompletter respin. Fuer die Zeitspanne haetten sie es nie geschafft. Sie haben lediglich eine Anzahl von high performance transistors ausgetauscht.
Nö. Es gab ein komplettes Reengineering vom Fabric.
Und über ein halbes Jahr ist dafür genug. GF110 war ja schon in Entwicklung als GF100 noch nicht auf dem Markt war.
robbitop
2011-11-01, 13:06:41
NV30 - kam der nicht tot von TSMC wieder und nVidia musste ein komplett neues Tape-Out fahren?
Der kam IIRC tot von TSMC im lowk Prozess zurück. Neues Tapeout war dann ohne lowk. Sonst wäre die Leistungsaufnahme wohl nicht sooo hoch gewesen.
RoNsOn Xs
2011-11-01, 17:56:09
ich frag nur mal so als laie.. gibt es 2012 keine neue grakas von nv/amd?
Skysnake
2011-11-01, 18:40:42
Klar doch :ugly:
Die HD7k Serie bei AMD und bei nVidia die GTX600 Serie
Deinorius
2011-11-01, 19:47:46
ich frag nur mal so als laie.. gibt es 2012 keine neue grakas von nv/amd?
Wie kommst du darauf? Wird ja in diesem Thread nach Länge mal Breite rauf- und runterdiskutiert.
2013 stehen die Chancen für neue Grakas schlecht. :upara:
RoNsOn Xs
2011-11-01, 20:01:55
auf welcher seite gibts denn detailierte infos? im startpost ja weniger?!
weiß man in etwa wann die kommen werden?
Ailuros
2011-11-02, 06:25:53
Nö. Es gab ein komplettes Reengineering vom Fabric.
Es war nicht der komplette chip der ueberarbeitet wurde; diesem bin ich mir so sicher wie ich mir sein koennte.
NV30 - kam der nicht tot von TSMC wieder und nVidia musste ein komplett neues Tape-Out fahren?
Siehe auch robbitop's Ergaenzung zum obrigen. Noch schlimmer NV30 hatte einige falsche Desing-Entscheidungen. Wenn man die hw bugs von Fermi aussen weglaesst sehe ich persoenlich keine falsche Design-Entscheidungen bei diesem; eher das grobe Gegenteil.
Ailuros
2011-11-02, 06:29:08
auf welcher seite gibts denn detailierte infos? im startpost ja weniger?!
weiß man in etwa wann die kommen werden?
Anfang des Jahres (Januar-Februar) hoechstwahrscheinlich AMD Tahiti und Maerz-April NV Kepler (top dog). Noch nichts handfestes ueber den Kepler performance chip, aber ich wuerde mich nicht wundern falls dieser um einiges frueher antanzen sollte als viele schaetzen.
Anfang des Jahres (Januar-Februar) hoechstwahrscheinlich AMD Tahiti und Maerz-April NV Kepler (top dog). Noch nichts handfestes ueber den Kepler performance chip, aber ich wuerde mich nicht wundern falls dieser um einiges frueher antanzen sollte als viele schaetzen.
eine monatsgenaue Aussage zum Kepler gibts ja nicht, aber
Q1/12: Geforce
Q2/12: Quadro
Q3/12: Tesla
Quelle z.B.:
http://www.pcgameshardware.de/aid,843594/Geforce-600-Serie-Produktion-von-Nvidias-Kepler-laeuft-bald-an-Launch-im-ersten-Quartal-2012-News-des-Tages/Grafikkarte/News/
RoNsOn Xs
2011-11-02, 09:57:07
Amd und nv mit komplett neuen Architekturen?
AnarchX
2011-11-02, 10:10:00
Natürlich:
GeForce Kepler bei Nvidia und bei AMD Graphics Core Next (GCN).
Ob die 2012 in allen Marktsegmenten ankommen ist aber unklar, bei Nvidia sollen wohl noch ein paar GeForce Fermi GPUs unter 28nm geplant sein und bei AMD gibt es Gerüchte für eine Umbennung von einigen HD 6000-Karten in HD 7000-Karten, während GCN nicht mehr "Radeon HD" heißen könnte. Außerdem sollen ein paar kleinere 28nm GPUs mit VLIW4 (HD 6900 Architektur) erscheinen.
boxleitnerb
2011-11-02, 10:14:46
So langsam könnten mal ein paar Specs durchsickern. So ewig lang ist es ja nun nicht mehr hin.
AnarchX
2011-11-02, 10:17:01
Die nächste GTC Worldwide ist vom 14-15 Dezember in Peking. Das wäre wohl ein passender Zeitpunkt und passt auch zu neliz Andeutung.
Jedenfalls könnte man da eine Vorstellung der Tesla und GeForce Architektur erwarten, natürlich ohne konkrete SKU-Details.
Es war nicht der komplette chip der ueberarbeitet wurde; diesem bin ich mir so sicher wie ich mir sein koennte.
Das Fabric ist auch nicht der komplette Chip.
Es waren aber sicher nicht nur ein paar Transistoren, GF110 hat auch andere Textureinheiten.
LovesuckZ
2011-11-02, 10:38:25
Die nächste GTC Worldwide ist vom 14-15 Dezember in Peking. Das wäre wohl ein passender Zeitpunkt und passt auch zu neliz Andeutung.
Jedenfalls könnte man da eine Vorstellung der Tesla und GeForce Architektur erwarten, natürlich ohne konkrete SKU-Details.
Dazu brauchst du Neliz? :freak:
Die Termine stehen schon seit Wochen fest. Ich hoffe und wäre sogar enttäuscht, wenn Huang in der Eröffnungskeynote zur Supercomputer 2011 keine Details präsentiert. Das wäre der perfekte Ort, um auf der disjährigen "GTC für Amerika" Kepler in Bezug auf HPC zu zeigen.
/edit: Der Typ von nVidia, der die GTC Japan eröffnet hat, spricht am 08.11 über "Watt's Matter". :D
/edit: Der Typ von nVidia, der die GTC Japan eröffnet hat, spricht am 08.11 über "Watt's Matter". :D
=>
offiziell:
http://iccad.com/watts_next
und noch ein paar Details drumherum:
http://www10.edacafe.com/blogs/ceda/2011/10/24/catch-nvidia%E2%80%99s-chris-malachowsky-presentation-on-%E2%80%9Cwatts-next%E2%80%9D-during-iccad/
LovesuckZ
2011-11-02, 11:11:07
Danke. "Watts next" ist es.
Ailuros
2011-11-03, 07:55:53
Dazu brauchst du Neliz? :freak:
Sarkasmus zur Seite; wenn jemand bei einem so grossen vendor arbeitet duerfte er so einige vertrauliche Info in der Tasche haben. Ob sie dann stimmt oder nicht ist eher eine Angelegenheit von dem was jeglicher IHV einen vendor fuettert und wie alt oder wage dieses sein koennte.
HPDV,
FY13 endet fuer NV im April wenn ich mich nicht irre. GeForce-K ist auch nichts genaues als Beschreibung. Bevor es fuer alle IHVs klar wurde dass in 2011 nichts kompliziertes fuer 28nm moeglich ist, schwirrten Geruechte herum dass NV diesmal plante den performance Kepler vor dem top dog zu veroeffentlichen in etwa ~Q4 2011 GK104, Q1 2012 GK100.
Wenn das letzte erstmal stimmte, dann waere es nicht auszuschliessen dass sich diese roadmap einfach um ein paar Monate verschoben hat.
FY13 endet fuer NV im April wenn ich mich nicht irre.
Wenn das FinancialYear (FY) von NV im April beginnt und im Q1 des FYs Geforce-K kommen soll
- dann bedeutet dies das die Geforce-K-Karten irgend wann im April, Mai oder auch erst Juni zu erwarten sind?? :confused:
Ailuros
2011-11-04, 15:20:28
Wenn das FinancialYear (FY) von NV im April beginnt und im Q1 des FYs Geforce-K kommen soll
- dann bedeutet dies das die Geforce-K-Karten irgend wann im April, Mai oder auch erst Juni zu erwarten sind?? :confused:
Ich sagte dass Q1 FY 2013 im April endet (und nein ich hab mich nicht geirrt):
http://pressroom.nvidia.com/easyir/customrel.do?easyirid=A0D622CE9F579F09&version=live&prid=795329&releasejsp=release_157&xhtml=true
NVIDIA announced at a financial conference this afternoon that it has provided a financial outlook for fiscal year 2013, which begins Jan. 30, 2012.
Dementsprechend ist Q1 nach NV's FY 2013 vom 30.01.2012 bis zum 30.04.2012.
Hier sollte man anmerken dass Q1 den obrigen Zeitraum betreffen koennte und April ist natuerlich "spaetestens" falls Q1 eingehalten wird und natuerlich alles nach Plan gelaufen ist.
Ich sagte dass Q1 FY 2013 im April endet (und nein ich hab mich nicht geirrt):
ok, so macht es sinn.
So weit ich es gesehen habe schriebst Du nur von FY nichts von Q1...
Ailuros
2011-11-04, 15:38:03
ok, so macht es sinn.
So weit ich es gesehen habe schriebst Du nur von FY nichts von Q1...
Ich hab's mir gespart, denn ich dachte dass es ziemlich klar ist wenn man sich auf das folgende Bild bezieht:
http://www.pcgameshardware.de/screenshots/medium/2011/09/NV-Drivers-Kepler.jpeg
http://www.pcgameshardware.de/aid,843594/Geforce-600-Serie-Produktion-von-Nvidias-Kepler-laeuft-bald-an-Launch-im-ersten-Quartal-2012-News-des-Tages/Grafikkarte/News/
boxleitnerb
2011-11-04, 17:15:31
According to sources within TSMC, the 28HP HKMG process is doing very well. So well, in fact, that it supports up to a 45 percent speed improvement over the firm's own 40G process used to make the last two generations of video cards. This speed improvement is based on the same leakage per gate, but the GPU firms may choose to favor lower power consumption over a pure speed boost.
http://www.dailytech.com/Nextgeneration+28nm+GPUs+Could+Be+45+Percent+Faster/article23158.htm
Das bedeutet ja augenscheinlich, dass die Transistoren bei gleichem Verbrauch 45% schneller takten können. Allerdings steht da was von "leakage", was ja eher die statische Verlustleistung betrifft, nicht die dynamische.
45% klingt jetzt nicht gerade berauschend, aber es ist nur eine Zahl. Bleibt abzuwarten, in welchen Mix die IHVs hier Frequenzen erhöhen und Einheiten dazubasteln.
AnarchX
2011-11-04, 17:29:17
5% mehr als von 65nm zu 40nm:
The 40nm G processes provide more than twice the density at the same leakage and more than a 40 percent speed improvement compared to TSMC's 65nm process.
http://www.tsmc.com/english/dedicatedFoundry/technology/40nm.html
boxleitnerb
2011-11-04, 17:33:24
Naja bei 28nm steht "up to" und da steht "more than" :)
Heißt das, ich kann etwa doppelt so viele Transistoren auf x mm2 packen UND die auch noch 40% schneller takten? Bei insgesamt gleichbleibendem Stromverbrauch?
Ailuros
2011-11-04, 17:37:52
http://www.dailytech.com/Nextgeneration+28nm+GPUs+Could+Be+45+Percent+Faster/article23158.htm
Das bedeutet ja augenscheinlich, dass die Transistoren bei gleichem Verbrauch 45% schneller takten können. Allerdings steht da was von "leakage", was ja eher die statische Verlustleistung betrifft, nicht die dynamische.
45% klingt jetzt nicht gerade berauschend, aber es ist nur eine Zahl. Bleibt abzuwarten, in welchen Mix die IHVs hier Frequenzen erhöhen und Einheiten dazubasteln.
IHVs werden den 28nm Vorteil eben nicht hauptsaechlich durch Frequenz ausnutzen sondern nur relativ gering wenn ueberhaupt. Anders waere Dir ein 28nm Fermi mit 2.25GHz hotclock lieber als ein breiterer und um einiges niedriger getakteter Kepler? Die Antwort faellt offensichtlich auf das zweite, denn der erste wird nur um 45% schneller sein als eine GTX580.
Gipsel
2011-11-04, 18:30:06
http://www.dailytech.com/Nextgeneration+28nm+GPUs+Could+Be+45+Percent+Faster/article23158.htm
Das bedeutet ja augenscheinlich, dass die Transistoren bei gleichem Verbrauch 45% schneller takten können.Das steht ehrlich gesagt bei TSMC schon seit fast 2 Jahren auf der Homepage. ;)
Heißt das, ich kann etwa doppelt so viele Transistoren auf x mm2 packen UND die auch noch 40% schneller takten? Bei insgesamt gleichbleibendem Stromverbrauch?
Natürlich heißt es das nicht. Das heißt, wenn Du den gleichen Chip im gleichen Power-Budget von 40nm auf 28nm schrumpfst, dann und nur dann kannst Du das Ding so viel höher takten (in der Praxis weniger, weil nicht nur die Transistoren limitieren sondern seit einiger Zeit schon ziemlich entscheidend auch die Verbindungen zwischen den Transistoren, die durch den Shrink nicht schneller werden). Du darfst also weder einen größeren Chip bauen (also mit mehr Transistoren) noch versuchen, den Stromverbrauch zu reduzieren.
Um das mal auf GPUs im HighEnd-Bereich zu übertragen, gleiche Leakage/Gate heißt bei verdoppelter Gate-Zahl (die kann man ja erwarten, AMD und nVidia werden ja nicht mit einem Mal nur noch halb so große GPUs bauen, oder?) eine verdoppelte Leakage. Wenn Du Dir mal ansiehst, daß z.B. bei GF100 die statische Verlustleistung an die 100W beträgt (die senken im idle nicht umsonst die Spannungen ab, um das zu reduzieren), wärst Du dann schon in der Region von 200W. Wohlgemerkt nur für die statische Verlustleistung, da hat dann noch kein Transistor irgendwas Sinnvolles gemacht.
Sprich, sowohl AMD als auch nVidia werden doch Einiges von diesen potentiell 45% Frequenzsteigerung in die Reduzierung des Stromverbrauchs stecken müssen, damit die Transistoranzahl verdoppelt werden kann. Das Ziel ist also sehr wahrscheinlich weniger als 50% leakage/gate im Vergleich zu 40G. Weniger als 50% deshalb, weil TSMCs HKMG Prozeß angeblich nur noch kleinere Spannungsabsenkungen im Vergleich zu 40G erlaubt. Dann bleiben vielleicht noch 20% oder so Mehrperformance der Transistoren übrig (wodurch man maximal 10% Mehrtakt für den Chip erwarten sollte), wenn ich mich richtig erinnere.
Skysnake
2011-11-05, 18:00:36
Naja, nVidia wird keine größeren Produzieren, da größer nich is.
Daher glaube ich schon das nVidias Chips etwas kleiner werden. AMD wird aber denke ich größer werden. Die HD58x0 und die HD69x0 waren ja nicht sonderlich groß.
Cubitus
2011-11-07, 12:14:47
Kepler noch in diesem Jahr?
Lt Kitguru soll der Ausverkauf der 4er und 5er Genration bereits begonnen haben. Man spekuliert das Nvidia doch noch dieses Jahr den Kepler veröffentlicht.
Toll wäre das ja! :D
http://www.kitguru.net/components/graphic-cards/faith/channel-sources-confirm-nvidia-flushing-stock-ahead-of-kepler/
LovesuckZ
2011-11-07, 12:31:38
Kitguru - eine Seite ohne (Gerüchte-)Wert.
Das der Abverkauf beginnt, zeigt sich ja schon mit den GF110-GTX560-Versionen. Und laut einem aus dem Anandtech.com Forum soll Asus Probleme haben GTX570/GTX580 Karten liefern zu können.
Aber ich glaube nicht mit einem Launch in diesem Jahr und Verfügbarkeit.
dargo
2011-11-07, 12:37:19
Kepler noch in diesem Jahr?
Lt Kitguru soll der Ausverkauf der 4er und 5er Genration bereits begonnen haben. Man spekuliert das Nvidia doch noch dieses Jahr den Kepler veröffentlicht.
Toll wäre das ja! :D
http://www.kitguru.net/components/graphic-cards/faith/channel-sources-confirm-nvidia-flushing-stock-ahead-of-kepler/
Die sollen mal Gas geben. :D
Ihr glaubt definitiv auch an den Weihnachtsmann. ;)
MfG,
Raff
dargo
2011-11-07, 12:42:00
Nur bei Nvidia. ;D
HarryHirsch
2011-11-07, 12:42:27
ich will benches sehen!
LovesuckZ
2011-11-07, 12:48:07
Ihr glaubt definitiv auch an den Weihnachtsmann. ;)
MfG,
Raff
GTX580 kam auch vom Weihnachtsmann. :D
Gerüchte sind Gerüchte. Und die ersten Fermiskarten, die NV so gezeigt hatte, waren auch etwas holzig.
Dural
2011-11-07, 13:28:46
naja was heisst hier schon "Kepler" Karten?!
Ich erwarte immer noch von beiden (AMD und NV) zuerst kleine 28nm Refresh Karten und da könnte man bis Ende Jahr schon noch was sehen.
Ja, ein GF114 Refresh, der 20% höher taktet und ca. wie eine GTX460 verbraucht, den kann ich mir auch vorstellen.
Nightspider
2011-11-07, 16:32:13
Ihr glaubt definitiv auch an den Weihnachtsmann. ;)
MfG,
Raff
Ho - Ho -Ho,
dann brauch ich dir ja auch keine Kepler Karte unter den Weihnachtsbaum legen.
Gruß,
der Weihnachtsmann.
Duplex
2011-11-07, 20:31:30
Was wollt ihr mit einem Fermi Refresh?
Ein halber Kepler mit 256 Bit SI @2GB DDR5 (250-300mm²) der 30-50% schneller als eine GTX560 ist wird interessanter werden.
Ja so in der Art stell ich mir meine nächste GraKa vor.
Ca. GTX570 niveau mit dem Verbrauch einer 6870 von nv in 28nm für ca. 200 öcken
Kepler noch in diesem Jahr?
Lt Kitguru soll der Ausverkauf der 4er und 5er Genration bereits begonnen haben. Man spekuliert das Nvidia doch noch dieses Jahr den Kepler veröffentlicht.
Toll wäre das ja! :D
http://www.kitguru.net/components/graphic-cards/faith/channel-sources-confirm-nvidia-flushing-stock-ahead-of-kepler/
das merkt man aber an den Preisen überhaupt nicht das da demnächst was abverkauft werden soll
Der Typ von nVidia, der die GTC Japan eröffnet hat, spricht am 08.11 über "Watt's Matter". :D
das ganze findet ja in San Jose, California 12-13:15Uhr statt
=> da die dort -8h haben, sollten wir heute Abend ab 21:15 Uhr vielleicht etwas Neues über Kepler hören :-)
hier noch mal die Infos:
http://iccad.com/watts_next
und noch ein paar Details drumherum:
http://www10.edacafe.com/blogs/ceda/2011/10/24/catch-nvidia%E2%80%99s-chris-malachowsky-presentation-on-%E2%80%9Cwatts-next%E2%80%9D-during-iccad/
LovesuckZ
2011-11-08, 14:17:22
Ich glaube nicht über Kepler, sondern eher im allgemeinen, wie nVidia das Stromproblem beabsichtig zu verringern. Kepler gibt es frühsten am 15.11 durch Huang persönlich in der Keynote zur Supercomputing.
OgrEGT
2011-11-08, 21:08:39
Wird diese Präsentation auch online übertragen?
Edit: Wohl nicht...
His talk, to be held Tuesday, November 8, at during the International Conference on Computer-Aided Design (ICCAD) in San Jose, Calif., is open to all full ICCAD conference and Tuesday conference-only registrants.
http://www.soccentral.com/results.asp?CatID=191&EntryID=35089
hmm irgendwie scheint von der Rede von Malachowsky nichts nach draussen gelangt zu sein :(
LovesuckZ
2011-11-10, 23:27:45
Huang über Kepler:
Designt für "intensive performance/watt". Und das soll dazu führen, dass sie mehr Design Wins für Ivi Bridge haben als eh zuvor.
This cycle, our market share on the Intel platform was north of 50% overall. But we recognize that -- and the reason for that success was a technology called Optimus that invisibly and automatically makes it so that GPU can be in high-performance state or in extremely low power state without intervention from the user, that it just figures it out by itself. And as a result, you have very high performance when you need it, and you have extremely long battery life when you need it. The thing that kept us from being even more successful is that our processor could've been more energy-efficient in itself. And so one of the things that we dedicated ourselves to do with Kepler was to focus an enormous amount of our energy on creating an architecture that was energy efficient. And the result is just really, really fabulous. And so our customers see that, they understand the benefit of it. And in combination, between Kepler and Optimus, we just have a great solution. And we just have a great, great, great solution. And this is probably as competitive as we've ever been in the Notebook segment.
http://seekingalpha.com/article/307194-nvidia-s-ceo-discusses-q3-2012-results-earnings-call-transcript?part=qanda
Hi
wird es Optimus denn nun eigentlich sicher für den Desktop geben?
Oder gibt es das sogar schon?
Falls ja:
welche Chipsätze/Prozessoren/Grafikkarten unterstützen das?
Es war ja mal im Gespräch mit dem Namen "Synergy"- aber nun ist wieder ausschließlich die Rede von "Optimus"...
Ailuros
2011-11-14, 14:33:21
Ich will jetzt noch sichern dass ich etwas nicht falsch verstanden habe aber es sieht doch danach aus als ob midrange zuerst kommt. Kleiner in die area als ein direkter shrink eines GF110, aber leicht schneller momentan auf noch etwas unreifen Treibern. Hurrah und Hut ab wenn wahr.
LovesuckZ
2011-11-14, 14:35:17
Das würde dann auch bedeuten, dass sie diesmal auch alles gleichzeitig entwickelt hätten. Okay, Huang hat dies ja angekündigt, aber man weiß nie, wie es am Ende kommt.
Mit einer Dual-GPU-Karte wäre man damit sicher auch im High-End relativ gut aufgestellt.
dargo
2011-11-14, 14:52:13
Ich will jetzt noch sichern dass ich etwas nicht falsch verstanden habe aber es sieht doch danach aus als ob midrange zuerst kommt. Kleiner in die area als ein direkter shrink eines GF110, aber leicht schneller momentan auf noch etwas unreifen Treibern. Hurrah und Hut ab wenn wahr.
Habe ich das jetzt richtig verstanden? Kepler @Midrange ist jetzt schon schneller als eine GTX580? Goil... =)
Ailuros
2011-11-14, 15:13:43
Das würde dann auch bedeuten, dass sie diesmal auch alles gleichzeitig entwickelt hätten. Okay, Huang hat dies ja angekündigt, aber man weiß nie, wie es am Ende kommt.
Wie oft hab ich mir aehnliches vor und nach dem GF100 Launch "gewuenscht" und meistens als Spinner abgestempelt, da es nicht "machbar" waere?
Wenn man seine single core high end Strategie behalten will und AMD als Gegner hat der bisher immer und immer wieder mit dem performance chip frueher antanzt ist es die einzige logische Loesung.
GK104 zuerst und einen Monat GK107 spaeter.
Dural
2011-11-14, 15:13:55
Ein Die Shrink des GF110 dürfte um die ca. 280mm2 liegen
Kleiner als dieser würde ich jetzt mal auf ca. 250mm2 deuten.
Das wäre dann etwas grösser als GF116 aber deutlich kleiner als GF114 und dieser müsste ja auch den direkte Vorgänger sein.
hmm ja hört sich gut an! mal schauen was am ende dabei raus kommt ;)
Ailuros
2011-11-14, 15:16:20
Habe ich das jetzt richtig verstanden? Kepler @Midrange ist jetzt schon schneller als eine GTX580? Goil... =)
Och man wird wohl wissen was normalerweise schnell getestet wird in so fruehem Treiber-Optimierungs-Stadium. Trotzdem eine gute Indizie. Das wirklich interessante ist die die area wenn es stimmt.
Ein Die Shrink des GF110 dürfte um die ca. 280mm2 liegen
Kleiner als dieser würde ich jetzt mal auf ca. 250mm2 deuten.
Bei einem optimalem shrink ja LOL.
Wenn die Verlustleistung in Relation zur Diefläche nicht überproportional gestiegen ist, dann wäre das wirklich viel versprechend für GK1XX.
Ailuros
2011-11-14, 15:22:29
Wenn die Verlustleistung in Relation zur Diefläche nicht überproportional gestiegen ist, dann wäre das wirklich viel versprechend für GK1XX.
Wie gesagt es erwartet auch keiner dass Kepler die selben Fermi Probleme mit sich schleppt.
***edit: GF117 soll der einzige Fermi 28nm chip sein und eher ein test-chip soll aber veroeffentlicht werden. Ach und eine alte "Bekannte" macht in comeback ins Werbe-/Demo-Material ;)
AffenJack
2011-11-14, 15:33:24
GK104 zuerst und einen Monat GK107 spaeter.
GK107 wird Lowend oder?
Wieviel später könnte GK100 dann kommen? 1Q?
GK104 zuerst und einen Monat GK107 spaeter.
und wann ist mit GK104 zu rechnen?
meine GraKa ist gerade verendet :mad:
Ailuros
2011-11-14, 15:39:23
GK107 wird Lowend oder?
Wieviel später könnte GK100 dann kommen? 1Q?
Wenn alles nach Plan laeuft (yields, Kapazitaeten und co.), IMHO ca. 3 Monate spaeter.
LovesuckZ
2011-11-14, 15:43:31
Wie oft hab ich mir aehnliches vor und nach dem GF100 Launch "gewuenscht" und meistens als Spinner abgestempelt, da es nicht "machbar" waere?
Wenn man seine single core high end Strategie behalten will und AMD als Gegner hat der bisher immer und immer wieder mit dem performance chip frueher antanzt ist es die einzige logische Loesung.
GK104 zuerst und einen Monat GK107 spaeter.
Nun, mit G71 hat es auch geklappt. Aber das war auch nur ein fast reiner Shrink von G70. ;)
Wenn man den G71 bzw. G92 Weg einschlagen sollte, wäre Kepler ein leicht besserer Fermi mit Entwicklungssicht auf deutlich besseres Perf/Watt-Verhältnis.
Ailuros
2011-11-14, 16:06:50
Nun, mit G71 hat es auch geklappt. Aber das war auch nur ein fast reiner Shrink von G70. ;)
Wenn man den G71 bzw. G92 Weg einschlagen sollte, wäre Kepler ein leicht besserer Fermi mit Entwicklungssicht auf deutlich besseres Perf/Watt-Verhältnis.
Was hat G71 bzw. G92 genau damit zu tun? G71 war ein G70 high end refresh und G92 ein Performance chip nach einem high end G80. Wir reden hier ueber die Moeglichkeit dass der GK1xx performance chip vielleicht etwas frueher antantzt als der top dog; so weit ich mich erinnern kann ist es bis jetzt bei NV noch nie vorgekommen.
Falls es ueberhaupt stimmt heisst es einfach dass man diesmal nicht auf den top chip wartet seinen tape out zu haben um die kleineren chips auszurollen, sondern man hat die diversen chips von Anfang an so entwickelt dass man beliebig A, B oder C vorziehen kann. Der angebliche GK104 soll uebrigens A1 Silizium sein und produktionsreif da die Zielfrequenz erreicht wurde.
LovesuckZ
2011-11-14, 16:17:08
Was hat G71 bzw. G92 genau damit zu tun? G71 war ein G70 high end refresh und G92 ein Performance chip nach einem high end G80. Wir reden hier ueber die Moeglichkeit dass der GK1xx performance chip vielleicht etwas frueher antantzt als der top dog; so weit ich mich erinnern kann ist es bis jetzt bei NV noch nie vorgekommen.
Bei G71 haben sie G71 und G73(4) zur selben Zeit gebracht. Und bei G92 lag zwischen dem Vollausbau und G94 auch nur 2 Monate. G94 kam mit A1 und wurde also nur kurz später als G92 zum Tape-Out gebracht.
Ailuros
2011-11-14, 16:32:41
Bei G71 haben sie G71 und G73(4) zur selben Zeit gebracht. Und bei G92 lag zwischen dem Vollausbau und G94 auch nur 2 Monate. G94 kam mit A1 und wurde also nur kurz später als G92 zum Tape-Out gebracht.
Hat immer noch nichts mit dem obrigen zu tun. Nirgends kam performance VOR high end.
LovesuckZ
2011-11-14, 16:35:36
Hat immer noch nichts mit dem obrigen zu tun. Nirgends kam performance VOR high end.
Du behauptest doch, dass High-End deswegen nicht kommt, weil die Fertigung nicht so weit wäre. Also hält nVidia High-End absichtlich zurück, jedoch das Design für die Produktion fertig wäre.
Das nVidia schon in der Vergangenheit keine Evaluierungszeit zwischen High-End und Performance hatte, zeigt sich an G71/G74 und G92/G94.
Ailuros
2011-11-14, 16:38:44
Du behauptest doch, dass High-End deswegen nicht kommt, weil die Fertigung nicht so weit wäre. Also hält nVidia High-End absichtlich zurück, jedoch das Design für die Produktion fertig wäre.
Nein. Wenn bei A1 alles einwandfrei laufen sollte und sie keinen schnellen metal shrink brauchen sollten dann schaetzungweise Januar/Februar, im Gegenfall etwas spaeter. Die schaetzungsweise 3 Monate spaeter fuer GK100 gelten fuer beide Faelle und so oder so geht GK104 nach dem Zeug zuerst in die Produktion, weil es so von Anfang an geplant war.
Habe ich das jetzt richtig verstanden? Kepler @Midrange ist jetzt schon schneller als eine GTX580? Goil... =)
Was ist daran ungewöhnlich?
AnarchX
2011-11-14, 17:39:00
Ein Die Shrink des GF110 dürfte um die ca. 280mm2 liegen
Kleiner als dieser würde ich jetzt mal auf ca. 250mm2 deuten.
Das wäre dann etwas grösser als GF116 aber deutlich kleiner als GF114 und dieser müsste ja auch den direkte Vorgänger sein.
hmm ja hört sich gut an! mal schauen was am ende dabei raus kommt ;)
Für GTX 580/570 Niveau bzw. darüber braucht es wohl aber auch entsprechend Bandbreite. Mit 250mm² sind wohl nur ~4Gbps wie bei Barts möglich. Für das angezielte Leistungsniveau wäre schon >=5Gbps angebracht - 256-Bit angenommen.
Insofern wohl eher in Richtung 300mm².
GF117 wird wohl die 28nm 128-Bit 4Gbps Version des GF116 sein, bei etwas über 100mm².
Wenn man da GDDR5 verbaut und nicht solchen Speicherabfall wie DDR3-1000 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9032267#post9032267), wäre das wohl eine nette <75W Karte für 50-60€.
Ailuros
2011-11-14, 18:02:27
GF117 klingt mir nach wie vor als Reaktion (egal ob testchip oder nicht) gegen Sachen wie Ivy Bridge.
AnarchX
2011-11-14, 18:04:37
GF117 klingt mir nach wie vor als Reaktion (egal ob testchip oder nicht) gegen Sachen wie Ivy Bridge.
Mehr als zwei Display-Pipelines (Eyefinity-Clone)? Ivy unterstützt ja auch bis zu drei Displays.
GF117 geisterte ja schon einige Zeit herum: http://forum.beyond3d.com/showpost.php?p=1484516&postcount=6921
Ailuros
2011-11-14, 18:06:57
Mehr als zwei Display-Pipelines (Eyefinity-Clone)? Ivy unterstützt ja auch bis zu drei Displays.
Keine Ahnung. Ich hab gerade erst die ersten Einzelheiten von chips bekommen die kurzfristig in die Produktion gehen sollen. OT: sollten wir nicht einen getrennten Thread fuer NV's Maximus aufmachen?
LovesuckZ
2011-11-14, 18:17:52
NV's Maximum ist im Grunde nicht der Rede wert: http://www.anandtech.com/show/5094/nvidias-maximus-technology-quadro-tesla-launching-today
Ich bezweifel, dass es für dieses Forum von so großer relevanz ist. ;)
Ailuros
2011-11-14, 18:23:15
NV's Maximum ist im Grunde nicht der Rede wert: http://www.anandtech.com/show/5094/nvidias-maximus-technology-quadro-tesla-launching-today
Ich bezweifel, dass es für dieses Forum von so großer relevanz ist. ;)
Komisch wenn so etwas von Dir kommt. Es werden oefters threads fuer den bloedesten Rotz aufgemacht und so ganz ohne ist die Technologie nun auch wieder nicht.
LovesuckZ
2011-11-14, 18:29:25
Es wurde schon vor 1-2 Monaten vorgestellt. ;)
dargo
2011-11-14, 21:56:12
Was ist daran ungewöhnlich?
Hmm... war die GTX460 schneller als die GTX285? Ist schon zu lange her.
boxleitnerb
2011-11-14, 22:03:22
Hmm... war die GTX460 schneller als die GTX285? Ist schon zu lange her.
Bisschen, bis zu 10%.
Erwähnenswert ist es aber imho doch. 9600 GT zu 8800 GTX. 2600XT zu 1950XTX. 8600 GTS zu 7900 GTX (wenn ich mich recht erinnere nichtmal mit HQ AF), GTS 250 zu 8800/besonders 9800 GTX+ ( ;D ), 5770 zu 4890 etc
Im Bereich ;D noch: 6770 zu 5870 und GTX 480 zu 560.
Features, Preis, Stromverbrauch etc natürlich unberücksichtigt. :wink:
Natürlich kommt diesmal der ernorme Sprung von 40 auf 28 nm aber trotzdem.
Mehr als GTX 580 Leistung, wie oben angenommen, in der Mittelklasse finde ich schon Grund zum jubeln.
....und so ganz ohne ist die Technologie nun auch wieder nicht.
genau. Habe deshalb auch gleich mal ne Detail-Frage dazu:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=517304
neustadt
2011-11-14, 23:38:55
Habe ich das jetzt richtig verstanden? Kepler @Midrange ist jetzt schon schneller als eine GTX580? Goil... Was ist daran ungewöhnlich?
Wäre schon wenn Nvidia das mit <150W TDP hinbekommt. Gibt es da schon Erwartungen?
LovesuckZ
2011-11-14, 23:54:08
Da nVidia ja im Cray-System gelandet ist, scheint sich die Verteilung schon fast von alleine gegeben zu sein. Nach dem Oak Ridge ihr Jaguar-System verbessert, hat Cray einen $188 Millionen Vertrag für einen Supercomputer an Land gezogen, indem neben 49k Interlagos CPUs auch 3000 Kepler-Karten enthalten sein sollen:
http://online.wsj.com/article/SB10001424052970204323904577036172972050222.html
Ailuros
2011-11-15, 15:18:40
Wäre schon wenn Nvidia das mit <150W TDP hinbekommt. Gibt es da schon Erwartungen?
Ich bezweifle ernsthaft dass der Stromverbrauch so niedrig sein koennte; moeglich ist es theoretisch schon nur wuerde es auch so manche Opfer im Bereich Leistung bedeuten. Eine relativ kleine Reduzierung waere vielleicht schon moeglich, aber ueber ein paar Watt wird sich wohl auch keiner scheren so lange das Preis-/Leistungs-Verhaeltnis stimmen sollte.
Skysnake
2011-11-15, 15:58:10
Es wäre schon absolut erfreulich, wenn das neue Spitzenmodell sich an die 225W Spezifikation unter ALLEN! Lastsituationen halten würde. Von mir aus können Sie sich dann wenn Luft da ist auch per "Turbo" ähnlich den CPUs hoch takten.
Ailuros
2011-11-15, 16:06:09
Es wäre schon absolut erfreulich, wenn das neue Spitzenmodell sich an die 225W Spezifikation unter ALLEN! Lastsituationen halten würde. Von mir aus können Sie sich dann wenn Luft da ist auch per "Turbo" ähnlich den CPUs hoch takten.
Wenn sich neben der Menge an Speicher auch die Anzahl der Speicher-chips verdoppeln sollte, drueckt es noch ein Stueck auf den Stromverbrauch. Ich bin zwar verdammt schlecht informiert wie es mit dem neuesten GDDR5 Speicher genau aussieht, aber da ich mir relativ sicher bin dass Tahiti in 2 und 4GB Varianten kommen wird, wird es auf Kepler je nach Busbreite auch 3 oder 4GB Speicher auf dem top dog sein.
Fuer GK104 kann ich mir nicht mehr als 256bit vorstellen, aber auch nicht weniger als 2GB Speicher zumindest fuer die groesste Variante.
AffenJack
2011-11-15, 17:10:04
...aber da ich mir relativ sicher bin dass Tahiti in 2 und 4GB Varianten kommen wird...
Gibts da schon vermehrt Infos zu?
Ich finde das äußerst merkwürdig, wenn Tahiti mit 4gb kommt. In den letzten Jahren ist die Speichermenge immer bei mindestens 2 Generationen gleich geblieben und jetzt wo man durch Konsolenspiele sowieso nicht mehr Ram braucht soll sich das plötzlich ändern und innerhalb von 2 Generationen vervierfachen? Und dann die Dual Karte mit 8GB?
boxleitnerb
2011-11-15, 17:16:08
Also meine Phantom hat mit 3GB genausoviele Speicherchips wie die normale GTX580. Kann höchstens sein, dass die schnellsten Chips am Anfang nicht in der Größe angeboten werden und man die Anzahl dann verdoppeln muss.
Btw, es war ja irgendwie so, dass die GTX580 48 ROPs hat, aber die Shader nur 32 "füttern" können. Die restlichen 16 ROPs sind natürlich nicht nutzlos, aber meine Frage ist, ob man das bei Kepler "angleichen" wird.
Es wäre schon absolut erfreulich, wenn das neue Spitzenmodell sich an die 225W Spezifikation unter ALLEN! Lastsituationen halten würde. Von mir aus können Sie sich dann wenn Luft da ist auch per "Turbo" ähnlich den CPUs hoch takten.
Das wurde ja schon für Fermi spekuliert. Sogar mit dynamische Clock-Domains für die unterschiedlichen Chip-Teile. Es wäre ja z.B. für einen Z-Only-Pass schön, wenn die Rasterizer und ROPs mehr Takt bekommen könnten, wenn die ALUs idlen.
Kam leider ja anders. Bin mal gespannt, ob das AMD oder NVIDIA in dieser Runde in einer Form einbauen.
AnarchX
2011-11-15, 17:39:56
Wobei die Spekulation wohl auf dem Missverständnis des Whitepapers, mit seiner ALU-Taktdomain für die TMUs, basierte.
LovesuckZ
2011-11-15, 17:55:02
Man könnte annehmen, dass eine Convention, die sich um die schnellsten Computer der Welt handelt, dass sie einen vernünftigen HD Stream bereitstellen könnten...
Skysnake
2011-11-15, 20:20:54
Nein können Sie anscheinend nicht. Zumindest nicht in den USA...
Die Uni Hamburg hat das 1A!!! gemacht. Da muss man ein ganz großes Lob aussprechen.
Für die SC in den USA hab ich gar keinen stream gefunden.... Falls jemand einen Link hat, wäre ich sehr dankbar.
LovesuckZ
2011-11-17, 19:59:12
Laut nVidia wird Titan in 8 MegaWatt 18k Kepler-GPUs packen, die für ca. 90% der 20+ PetaFlops verantwortlich sein sollen.
Hugo78
2011-11-21, 11:46:05
neue 28nm und (optional) alte 40nm als GT(X)600M
http://www.computerbase.de/news/2011-11/details-zu-anstehenden-28-nm-grafikloesungen-von-nvidia/
Skysnake
2011-11-21, 12:34:57
Ah ne doch nicht. komisch... Bin falsch raus gekommen :confused:
AnarchX
2011-11-21, 13:59:15
neue 28nm und (optional) alte 40nm als GT(X)600M
http://www.computerbase.de/news/2011-11/details-zu-anstehenden-28-nm-grafikloesungen-von-nvidia/
Laut SemiAccurate kommt vor Kepler von eine ganze Armada an 28nm mobile-Chips auf Fermi-Basis:
http://img843.imageshack.us/img843/6246/nvidiamobilegpus.png
Angeblich soll es sich dabei um Shrinks schon bekannter 40nm Chips handeln.
http://semiaccurate.com/2011/08/23/nvidias-28nm-mobile-lineup-leaked/
Interessant ob nun die GTX 680M Kepler-basierend sein wird.
LovesuckZ
2011-11-21, 14:01:38
High-End und Midrange wird Kepler sein. Bei Low-End muss man abwarten.
LovesuckZ
2011-11-21, 17:38:10
Ich glaube, die Maya's haben recht gehabt, dass nächtes Jahr die Welt untergehen wird. Denn Scharlie schreibt folgendes:
Yes, your read that right, Nvidia has won the next round of Macs, likely starting with the Ivy Bridge models next spring.
http://semiaccurate.com/2011/11/21/exclusive-apple-swaps-gpu-suppliers-again/
Ein Artikel ohne (wirklichen) Spitzen, ohne Anfeindungen oder Untergangsszenarien. :lol:
Hugo78
2011-11-21, 19:29:50
Er gibt sich zum Ende des Artikels aber sichtlich Mühe,
Intels kommende Ivy GPU stark zureden und so den Bedarf für zusätzliche Nvidia GPUs, klein. ;)
GPUs in laptops have their days numbered
Ja, ja ... schon klar Char_LIE.
Nun, ganz falsch ist das ja nicht. Man will allein aus Energieeffizenz- und Platzgründen APUs in Laptops. Bis auf Highend wird das auch sicher so kommen.
Deinorius
2011-11-21, 19:57:35
Sollen die halt die GPUs aus den Laptop-Gehäuse rausholen, damit man diese extern betreiben kann. Wenigstens scheint das mit Thunderbolt eher Realität zu werden, als mit allem anderen, was schon diskutiert wurde.
Dann wären deutlich mehr Leute happy.
Hugo78
2011-11-21, 20:08:18
Nun, ganz falsch ist das ja nicht. Man will allein aus Energieeffizenz- und Platzgründen APUs in Laptops. Bis auf Highend wird das auch sicher so kommen.
Sicher aber das ist doch ne Binsenweisheit, auf die er dann doch 40% seines Artikels verschwendet. :usweet:
Mac Air und Mac Mini jetzt haben schon nur Intel HD Zeug.
Im iMac gibts eventuell auch bald nur noch Intel HD, aber MacBook Pro und Mac Pro werden solange eine extra GPU benötigen,
wie es Intel nicht mal gelingt auch nur zur jeweils aktuellen Mittelklasse von NV/AMD aufzuschließen.
Andernfalls wäre die Bezeichnung für diese Geräte verfehlt.
Deinorius
2011-11-21, 21:32:21
wie es Intel nicht mal gelingt auch nur zur jeweils aktuellen Mittelklasse von NV/AMD aufzuschließen.
Mittelklasse? Das wäre ja nur zu genial in einem Intel SoC. Die schaffen es nicht zur aktuellen Low-Entry Serie aufzuschließen.
Blediator16
2011-11-21, 21:51:16
Es ist doch immernoch ein Gerücht und noch nichts bestätigt.
Dural
2011-11-21, 22:27:36
fassen wir mal zusammen was derzeit so durch die runde geht:
NVs 28nm sind klein und sparsam (was das auch immer bedeuten mag)
AMDs 28nm GPU sollen verbrauchs probleme haben, leistung auch nicht sooo top
laut NV hat man derzeit schon so viele desgin wins im mobilen bereich wie noch nie, jetzt also auch wider apple laut charlie
noch komisch, vor der 40nm generation war es genau anders rum mit den infos bezüglich dieser :rolleyes:
selbst charlie berichtet eher gutes über NVs 28nm GPUs (für seine Verhältnise) das alles sagt mir das da was nicht stimmen kann :freak:
boxleitnerb
2011-11-25, 22:49:18
Wenn das stimmen würde, wäre es gar nicht gut:
http://translate.google.com/translate?langpair=auto|en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F120%2FG012093%2F20111124085%2F
Ein klassischer GK100 wäre/ist sehr großer Chip, kommt später (evtl. optimiert auf geringerem Verbrauch und dann 2013 als GK102/GK112)
Verbrauch von GK104 (Performance) über 250W
Nvidia konzentriert sich erst auf kleinere Dies, eben besagten GK104
GK110 soll eine Dualkarte sein
Next generation GPU NVIDIA "Kepler" (Kepler, code-named). A figure that has yet to see dimly.
NVIDIA is already leading to the notebook PC vendors, entry-level model generation Kepler "GK107" (code name. Here, GK is the same model number) has begun sample shipments. Also, early next year, corresponding to the PCI Express Gen.3 "GK106", and it has been notified that there is a major partner for the operation verification plan providing for the desktop PC.
However, NVIDIA is not communicating the details of the Kepler and even for those partners, at present, "code name and schedule, and performance targets on, began to talk" level only.
But from there, many officials had seen major changes in the product strategy at NVIDIA. Together around this time around let it.
Kepler lineup is becoming clear
GTX 580 is the successor to the end of 2012 or 2013 (gemeint ist wohl, dass der Nachfolger der 580 erst Ende 2012/2013 kommt)
Taken together the story of a leading OEM vendors, are named to the product roadmap for NVIDIA's Kepler generation, but the following four products.
GK110: Configure GK104 × 2, supports PCI Express Gen.3
GK104: Performance GPU, supports PCI Express Gen.3
GK106: Mainstream GPU, supports PCI Express Gen.3
GK107: Entry GPU (only OEM?), Supports PCI Express Gen.2
Kepler's name is "Kepler's laws" Johannes Kepler, known for such astronomers (Johannes Kepler ,1571 -1630) derived from the name of the
Multiple parties are close to NVIDIA "Initially, GPU core architecture of Kepler is only two" are aligned with the mouth. However, among the participants are getting the same information, "GK107 GK106 is the same GPU core, but aimed to differentiate itself by disabling some of the CUDA Core" and of that, "GK106 is compatible version of PCI Express Gen.3 GK107, GK107 although the meantime be provided as needed for major PC vendor to supply early, and eventually will be integrated or not, "and so on, opinions are divided It is that reality. However, support for PCI Express Gen.3 of GK106, "The outcome of the verification operation may be postponed," and noted that some participants will want to remember.
In addition, GPU for notebook PC, and power pop from that corresponding to the PCI Express Gen.3, expected to be delayed responses. PCI Express Gen.3 story becomes a story of the GPU for the desktop PC.
So, Kepler roadmap Importantly, as can be inferred from the model number, GF100 (= GeForce GTX 480) chips like big (at least for the time being), but that does not appear. 穿 (the sale) if the view was of the AMD "sweet spot strategy" Like, is not considered to have no potential to focus resources on product shipments even NVIDIA, actually, "the Kepler Architecture characteristics, which makes it difficult to introduce because of the big chip "(An official close to NVIDIA).
As mentioned earlier, NVIDIA has not revealed the details of the Kepler architecture to partners. However, the company is "in order to greatly improve the precision floating point performance in Kepler, aimed to optimize the architecture" that is described as turning, as well as strengthen itself CUDA Core, Streaming Multi- processor (SM) Graphics Processing Cluster and (GPC) but also signs revised configuration. Thus, "I heard that the operational efficiency reaches 1.5 to 2 times compared with the Fermi architecture" is the official valve OEM.
Another official close to NVIDIA's "CUDA Core of Kepler, which also heard plans to support integer arithmetic 64bit. Whether it is achieved in the first generation of Kepler is not known, fairly CUDA Core Strengthening saw would be more natural, "that he said. Kepler generation, rather than raising the number of CUDA Core, by strengthening itself CUDA Core, but it is aimed to raise the efficiency of operations per unit of power, but officials agreed view.
GPU Roadmap as of August 2011. The latest information on the 2012 Kepler, Maxwell in 2014 and has been
On the other hand, by increased efficiency through improved operations GPU CUDA Core, sister more and more power, and many officials were seen as difficult to manufacture a big chip. OEM official said, "GK104 power exceeds 250W" also points out.
In fact, NVIDIA is in a developing stage of PCI Express Gen.3, and has sought to incorporate into standard PCI SIG power 400W. Initially, the chip had been planned as a big-generation flagship Kepler, it is possible that the development has been postponed and power consumption issues.
In GTC 2010 was held in San Jose, California in September 2010, Jen's NVIDIA-Hsun Huang CEO is "at present is to slow down the cycle and a half years to two years the evolution of process technology, the GPU will need to plan for this cycle, according to the product lineup, "had said. In short, two years of the Kepler architecture portfolio is not market must continue.
The NVIDIA that point, the GeForce GTX 580, has a track record of achieving low power consumption of GeForce GTX 480 while the same process technology. 2013 from the end of 2012, big chip low power consumption technology aimed at the optimization of the process "GK102" or "GK112" (referred to by different Source ※) It is reported that there are plans to introduce , the story would say highly likely.
NVIDIA GPU Roadmap for Desktop PC
Furthermore, according to the specifications that are currently exposed to the OEM relationship, the amount of graphics memory or 3GB GK104 is 1.5GB, the memory interface (the same GF110 and GF100) 384bit. Single-precision floating point performance is expected to greatly exceed 2TFLOPS.
GK110 GK104 is equipped with two groups, but the clock kept to the problem of low power consumption, processing performance is still coming over the 4TFLOPS. And they mentioned his name GK112 GK102 Furagushippuchipputaru or earlier, is expected to be adopted by 512bit memory interface.
http://www.abload.de/img/005frdzg.jpg (http://www.abload.de/image.php?img=005frdzg.jpg)
Wie lautet denn die mutmaßliche Quintessenz dieser grausigen, maschinellen Übersetzung? Dass Nvidia "power issues" hat und daher ein 400-Watt-Budget anstrebt?
MfG,
Raff
boxleitnerb
2011-11-25, 23:04:48
Über dem Quote :)
Man konzentriert sich ähnlich wie AMD eher auf kleinere Chips und überspringt anscheinend einen zweiten "Thermi" und geht mit einem gereiften Design/Prozess Ende 2012/Anfang 2013 dann wieder in die Vollen. Wenn ein Performance-Chip schon über 250W schlucken soll (was ich mir gar nicht vorstellen kann), was würde dann ein hypothetischer GK100 schlucken?
Es wird mehrfach von "efficiency" gesprochen. Ich denke, hier ist eher Performance gemeint. Auch klingt es so, als habe man die Anzahl der CUDA-Cores nicht so wirklich erhöht, sondern bemühe sich, eher die Rechenleistung der einzelnen Cores zu verbessern, zusammen mit besserer Energieeffizienz. Warum der Verbrauch dann trotzdem durch die Decke gehen soll, erschließt sich mir nicht. Dass Nvidia bei der Standardisierung von 400W-Karten mitarbeitet bzw. es anscheinend sogar vorantreibt, ist im Hinblick auf Dualkarten sicher sinnvoll, aber es klingt auch so, als würde das dem "big chip" zuspielen - das wäre katastrophal.
LovesuckZ
2011-11-25, 23:06:10
Garnichts, weil kein Performancechip 250 Watt schluckt. :rolleyes:
Einfach nur eine Nonsensmeldung.
john carmack
2011-11-25, 23:06:13
OK, ich verstehe nichts :D
boxleitnerb
2011-11-25, 23:16:54
Ja im XS Forum ist man skeptisch. Die Roadmaps zu HD6000 waren "leicht" daneben.
Vielleicht FUD und das Ding wird ein zweiter G80... :D
Ich meine es passt auch nicht grad zu den Design Wins für die mobilen Kepler (ist das eigentlich bestätigt oder nur Gerücht?).
Ach ja, was auch nicht so ganz passt:
SP-Leistung von "well over 2TF" für GK104. 3 werden es nicht sein, sonst hätte man 3 geschrieben. Selbst bei 2.5TF wäre man nur ca. 55% flotter als ne GTX580 und ca. doppelt so flott wie eine GTX560Ti. Ich weiß, das ist alles Milchmädchen, aber so richtig schlüssig klingt das nicht, vor allem, wenn man die 250+W dazurechnet. Da hätte Nvidia bei der Energieeffizienz ziemlich versagt (bzw. der Prozess), und das kann ich mir nicht vorstellen.
Die Strategie von AMD ist wirtschaftlicher (jedenfalls theoretisch, soviel Gewinn fahren die jetzt net ein), aber hat auch einen heftigen Nachteil - AFR-Kompromisse dort, wo eigentlich eine fette SGPU sitzen sollte. Das gefällt mir ganz und gar nicht, und das sage ich, obwohl ich SLI habe und gut finde.
Den Codenamen nach haben sie GK100 komplett gecanceled und lassen sich Zeit für einen GK110. NVIDIA holt die Realität langsam auch ein.
LovesuckZ
2011-11-26, 00:04:50
Ach ja, was auch nicht so ganz passt:
SP-Leistung von "well over 2TF" für GK104. 3 werden es nicht sein, sonst hätte man 3 geschrieben. Selbst bei 2.5TF wäre man nur ca. 55% flotter als ne GTX580 und ca. doppelt so flott wie eine GTX560Ti. Ich weiß, das ist alles Milchmädchen, aber so richtig schlüssig klingt das nicht, vor allem, wenn man die 250+W dazurechnet. Da hätte Nvidia bei der Energieeffizienz ziemlich versagt (bzw. der Prozess), und das kann ich mir nicht vorstellen.
Genau, nur 1,2 TF mehr bei 250 Watt. Selbst eine GTX480 hatte noch ganze 9x% mehr MADD-Flops als die GTX285.
Oder wie wäre es damit: Das Tsubame 2.0 erreicht 958 MFLOPS/Watt bei 80% Rechenleistung durch die Fermi-Karten. Das Titan-Projekt soll 2500 MFLOPs/Watt mit Kepler erreichen (20 Petaflops, 8 MegaWatt, 18.000 Karten, 90% Rechenleistung durch die GPUs).
Mein Gott, muss man denn jeden Mist im Internet immer sofort für bare Münze nehmen? :rolleyes:
Die Strategie von AMD ist wirtschaftlicher (jedenfalls theoretisch, soviel Gewinn fahren die jetzt net ein), aber hat auch einen heftigen Nachteil - AFR-Kompromisse dort, wo eigentlich eine fette SGPU sitzen sollte. Das gefällt mir ganz und gar nicht, und das sage ich, obwohl ich SLI habe und gut finde.
Die Strategie von AMD ist nicht wirtschaftlicher. Fermi ist wesentlich besser zu fertigen.
Die Strategie von AMD ist nicht wirtschaftlicher. Fermi ist wesentlich besser zu fertigen.
Wie kommst du darauf?
NVIDIA holt die Realität langsam auch ein.
Hoffentlich nicht, wobei das logisch wäre. Darauf hätten die Ingenieure aber schon nach Thermi kommen können, aber anscheinend arbeiten bei Nvidia einige Optimisten: "Neue Fertigung, das wird schon! Oh, doch nicht ... Gestatten: Crapler aka Thermi 2.0!"
=> Alle Karten auf Ati. AFR ist keine Lösung. Wobei auch eine 250-Watt-SKU in 28 nm vermutlich gut scheppert.
MfG,
Raff
LovesuckZ
2011-11-26, 00:10:21
Wie kommst du darauf?
Schau dir die Finanzzahlen von nVidia und AMD an.
Auch die Aussagen von nVidia als sie Fermi zur Massenproduktion brachten. Fermi war vielleicht kein Perf/Watt Wunder, aber in Bezug auf die Fertigung hat man gegenüber GT200b einen riesigen Schritt nach vorne getan.
mapel110
2011-11-26, 00:10:28
Wie kommst du darauf?
Darauf deutet seiner Meinung nach die Marge bei nvidia hin. Aber das dürfte nur ein kleiner Baustein im Puzzle sein.
Hoffentlich nicht, wobei das logisch wäre. Darauf hätten die Ingenieure aber schon nach Thermi kommen können, aber anscheinend arbeiten bei Nvidia einige Optimisten: "Neue Fertigung, das wird schon! Oh, doch nicht ... Gestatten: Crapler aka Thermi 2.0!"
Crappler X-D
Die Fertigung war ja bei Thermi gar nicht so sehr das Problem offenbar. Eher das Unvermögen damit umzugehen anfangs. Und es wird nicht einfacher.
Darauf deutet seiner Meinung nach die Marge bei nvidia hin. Aber das dürfte nur ein kleiner Baustein im Puzzle sein.
Ich will auch was davon.
LovesuckZ
2011-11-26, 00:17:15
Ich will auch was davon.
Na, werden wir wieder arrogant? Na los, erkläre uns dummen Menschen doch, wie AMD's Strategie "wirtschaftlicher" wäre, wenn nVidia mit mit ihren Geforce-Produkten $560 Millionen Umsatz $80 Millionen operativen Gewinn macht und AMD's komplette Grafikabteilung bei $410 Millionen auf stolze $12 Millionen kommt.
Und jetzt kannst du nichtmal mit irgendwelchen technischen Erklärungen kommen. Entweder du kannst erklären oder du hast keine Ahnung. Und wie sagst du schön gegenüber Leuten, die nach dir keine Ahnungen hätten?
Du machst mich krank.
Hoffentlich nicht, wobei das logisch wäre. Darauf hätten die Ingenieure aber schon nach Thermi kommen können, aber anscheinend arbeiten bei Nvidia einige Optimisten: "Neue Fertigung, das wird schon! Oh, doch nicht ... Gestatten: Crapler aka Thermi 2.0!"
=> Alle Karten auf Ati. AFR ist keine Lösung. Wobei auch eine 250-Watt-SKU in 28 nm vermutlich gut scheppert.
MfG,
Raff
Aha. Keine Ahnung, aber was sagen? Jedenfalls PR-mäßig hat nVidia doch schon "einsicht" gezeigt:
http://blogs.nvidia.com/2011/10/nvidia-engineering-strike-force-eliminates-bugs-28nm-process-tsm/
Und vorallem auf Perf/Watt trommelt man schon das Pferd tot.
Hugo78
2011-11-26, 00:29:03
Ich hab bis zu dem Satz "GTX 580 is the successor to the end of 2012 or 2013" gelesen.
Bullshit^10 :uup:
Knuddelbearli
2011-11-26, 00:47:17
Na, werden wir wieder arrogant? Na los, erkläre uns dummen Menschen doch, wie AMD's Strategie "wirtschaftlicher" wäre, wenn nVidia mit mit ihren Geforce-Produkten $560 Millionen Umsatz $80 Millionen operativen Gewinn macht und AMD's komplette Grafikabteilung bei $410 Millionen auf stolze $12 Millionen kommt.
Tesla und Quadro?
LovesuckZ
2011-11-26, 00:53:41
Tesla und Quadro?
Ist rausgerechnet. Das ist alleinig nur Umsatz und operativer Gewinn aus den Verkauf von Geforce-Karten. Das trägt 53% zum Gesamtumsatz bei. Und nVidia hat nichtmal 1% mehr Marktanteile als AMD. :eek:
Und das noch explizit für die Leute, die meinen, dass nVidia mit Kepler eben nicht theoretisch auf die Probleme eingehen würde:
The new family of 28nm GPUs are designed with a focus on performance per watt.
http://blogs.nvidia.com/2011/10/nvidia-engineering-strike-force-eliminates-bugs-28nm-process-tsm/
Die Angaben von 4Gamer machen vorne und hinten 0 sinn. Das Titan-Projekt baut man nicht mit 250 Watt Kepler-Karten, die gerademal 50% mehr DP-Leistung aufweisen. Und man wird auch keine Low-End Quadro-Karten in Q2 verkaufen...
Blediator16
2011-11-26, 01:37:49
Jetzt habe ich bereits in mehreren Threads etwas von "Massenhaft Designwins für Notebooks" gehört. Wo kann man eine News dazu nachlesen?
OgrEGT
2011-11-26, 07:41:53
Ich bin auch skeptisch was die Meldung angeht.
Aus dem ganz einfachen Grund, dass wenn das stimmen würde, könnte man sich Kepler komplett sparen, da Perf/W im jeweiligen Segment gleich/schlechter bleiben/werden würde.
Performance Chip GK104 (Leistungsmäßig gleiche Höhe im Diagramm wie GTX570) bei 250W :O
Highend GK110 (2xGK104?) (Leistungsmäßig gleiche Höhe im Diagramm wie GTX580) bei 400W? :O
GK112 erst in 2013? Dann würde man AMD den Markt 2012 fast komplett überlassen.
Dagegen steht auch wie schion zitiert wurde, die großspurige Aussage von NV, dass Kepler auf Perf/W getrimmt wurde, und ettliche Design Wins im Mobilen Bereich eingefahren hat.
Auch die erst kürzlich aufgetauchte Tabelle bei S/A steht im Widerspruch, da man hier offensichtlich kein Perf/W Problem hätte (und S/A ist jetzt nicht wirklich NV freundlich...)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9044178&postcount=1195
OgrEGT
2011-11-26, 07:45:33
Jetzt habe ich bereits in mehreren Threads etwas von "Massenhaft Designwins für Notebooks" gehört. Wo kann man eine News dazu nachlesen?
Xbitlabs:
"The vast majority of the increase is coming from the very significant increase in design wins that we have in several areas. We have more notebook design wins for the Ivy Bridge cycle than we ever had in notebooks; this is likely the most successful notebook cycle we have ever experienced. And so we have got a lot of engineers dedicated to getting those notebooks into production," said Jen-Hsun Huang, chief executive officer of Nvidia.
http://www.xbitlabs.com/news/graphics/display/20111111104115_Nvidia_to_Start_Production_of_28nm_Kepler_Chips_Shortly_Chief_Exe cutive.html
boxleitnerb
2011-11-26, 07:53:01
Ich bin auch skeptisch was die Meldung angeht.
Aus dem ganz einfachen Grund, dass wenn das stimmen würde, könnte man sich Kepler komplett sparen, da Perf/W im jeweiligen Segment gleich bleiben würde.
Performance Chip GK104 (Leistungsmäßig gleiche Höhe im Diagramm wie GTX570) bei 250W
Highend GK110 (2xGK104?) (Leistungsmäßig gleiche Höhe im Diagramm wie GTX580) bei 400W?
GK112 erst in 2013? Dann würde man AMD den Markt 2012 fast komplett überlassen.
Dagegen steht auch wie schion zitiert wurde, die großspurige Aussage von NV, dass Kepler auf Perf/W getrimmt wurde, und ettliche Design Wins im Mobilen Bereich eingefahren hat.
Auch die erst kürzlich aufgetauchte Tabelle bei S/A steht im Widerspruch, da man hier offensichtlich kein Perf/W Problem hätte (und S/A ist jetzt nicht wirklich NV freundlich...)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9044178&postcount=1195
Ne, man wäre schon schneller - kein aktueller Chip von NV erreicht 2TF in SP. Die Positionierung in der Roadmap sagt gar nichts über die Performance aus. Außer halt, dass die Chips oben schneller sind als die unten, aber das ist ja selbstverständlich.
LZ, es ging mir mit der Wirtschaftlichkeitsaussag nicht um Gewinne von NV oder AMD, auch wenn ich das angeschnitten habe. Ich schrieb "in der Theorie", also losgelöst von dem ganzen Rattenschwanz. Die Ausbeute ist bei kleineren Chips einfach höher, die Verfügbarkeit besser und Time-to-Market ebenfalls wenn man nicht monatelang auf den Prozess warten muss, um den Chip auf akzeptable 250W zu quetschen. Nicht umsonst hat AMD die 5000er so schnell verkauft wie sie produziert werden konnten. Überleg mal, was gewesen wäre, wenn AMD einen eigenen "Fermi" rausgebracht hätte. Die Karten wären praktisch nicht existent gewesen, und damit kann man dann auch kein Geld verdienen.
Sei es wie es sei, es klingt zumindest logisch, eine weitere Verzögerung wie bei Fermi zu verhindern. Es ist einfach nicht gut, wenn der Konkurrent 6 Monate lang (wenn auch wenige) Produkte liefern kann und man selbst nicht.
OgrEGT
2011-11-26, 08:09:17
Ne, man wäre schon schneller - kein aktueller Chip von NV erreicht 2TF in SP. Die Positionierung in der Roadmap sagt gar nichts über die Performance aus. Außer halt, dass die Chips oben schneller sind als die unten, aber das ist ja selbstverständlich.
Dann müssten die Chips im Schaubild in der Gegenüberstellung anders positioniert werden, da für mich ein Leistungsaspekt suggeriert wurde. Zudem die theoretische Peakleistung nicht in allen Anwendungen (z.B. Spiele) auf die Straße gebracht werden kann.
Wenn hier immer von Wirtschaftlichkeit die Rede ist, habe ich das Gefühl, dass manche immer aneinander vorbeireden. Man kann Wirtschaftlichkeit ganz abstrakt im Sinne von wieviel Silizium pro Chip benötigt wird, bzw. wieviele funktionsfähige Chips pro Waver erhalten werden können definieren, oder andere Faktoren hinzurechnen (ohne sie im Einzelnen zu kennen) wie tatsächlich beim Fertiger bezahlte Kosten/Chip, Kosten/Karte, Gewinnzuschläge, etc. und die Wirtschaftlichkeit in der Summe am ausgewiesenen Umsatz in einem gewissen Zeitraum festmachen. Beides ist nachvollziehbar, führt nur leider meist zu unterschielichen, jeweils plausiblen aber manchmal unvereinbaren Standpunkten.
boxleitnerb
2011-11-26, 08:24:27
Silizium bitte :D
OgrEGT
2011-11-26, 08:52:08
Silizium bitte :D
Natürlich:redface:
Ich hab bis zu dem Satz "GTX 580 is the successor to the end of 2012 or 2013" gelesen.
Bullshit^10 :uup:
Wieso? Es kam doch jetzt schon öfters zur Sprache, dass offenbar 2xGK104 das neue High-End bilden wird erstmal.
boxleitnerb
2011-11-26, 11:46:58
Mit dem ganzen AFR-Gedöhns...super. Vielleicht hat Nvidia das Problem ja gelöst und eine völlig neue Methode der Zusammenarbeit der GPUs erfunden? :freak:
AffenJack
2011-11-26, 11:52:09
Wieso? Es kam doch jetzt schon öfters zur Sprache, dass offenbar 2xGK104 das neue High-End bilden wird erstmal.
Öfter? Wo das bitte? 4gamer.net jetzt ist der Meinung und vor paar Monaten wars glaube auch schon 4gamer die damit aufkommen.
Deren Prophozeiungen sind aber so gut, dass ich erstmal auf im Vergleich zu 4gamer seriösere quellen wie Fud warte.
Die Tabelle ist crap und der Text gleich mit.
Hugo78
2011-11-26, 12:40:12
Wieso? Es kam doch jetzt schon öfters zur Sprache, dass offenbar 2xGK104 das neue High-End bilden wird erstmal.
Meine gedankliche Checkliste:
1. Cray will 2012 ihren Titan mit HPC Kepler ausstatten.
2. Intel sagt selber das Kepler bei bis zu 1,3 TFLOP DP landet.
Und Intel will mit ihren Knight Corner in Q3 2012 zeitgleich mit HPC Keplerableger auf den Markt.
3. Entwicklungskosten für HPC GPUs haben sich nie allein über den HPC Markt harmonisiert, damit kommt diese GPU also auch in Geforces zum Einsatz.
4. Quadro/Tesla kamen bisher immer 3-6 Monate nach den Geforces auf den Markt. In den meisten werkelt immernoch ein GF100.
Also kommt der entsprechende GK Chip zwischen Q1 und Q2 2012.
5. Das beste Verhältniss SP zu DP liegt doch immernoch bei 2:1, wenn ich den Diskurs hier richtig verstanden habe, oder?!
Ergo bis zu 2,6 TFLOP SP für Single GPU Kepler.
Damit wäre die GTX 680 auf dem Level einer heutigen GTX 590, die GTX 580 hatte 1,58 TFLOPS.
Sunrise
2011-11-26, 12:47:52
Dass NVIDIA nicht gleich Vollgas bereits im ersten Anlauf gibt, sondern hier erstmal die Kepler-Architektur auf fertigbaren Dies/Dice in 28nm und dann damit die Segmente bestmöglich abbilden muss, dürfte sich doch inzwischen rumgesprochen haben.
Glaubt hier jemand ernsthaft an einen Monster-Chip bei solch' einem Technologie-(28nm) und Architektur-(Kepler-Basis, PCI GEN 3) Sprung?
Zuerst einmal muss das Teil vernünftig fertigbar sein, der Chip sollte den Thermal-Headroom nicht überstrapazieren, er muss in seinem Segment konkurrenzfähig oder besser sein, er muss für PCI Gen. 3 validiert werden. Diese und mehrere Dutzend anderer Schritte müssen passen, bevor hier überhaupt an Massenfertigung gedacht werden kann.
Ein GK104 sollte etwa 30% (konservativ getaktet) schneller als ein voll ausgebauter GF110 sein. Das ist doch nicht schlecht. Headroom nach oben natürlich vorhanden.
Dural
2011-11-26, 13:03:07
Glaubt hier jemand ernsthaft an einen Monster-Chip bei solch' einem Technologie-(28nm) und Architektur-(Kepler-Basis, PCI GEN 3) Sprung?
Ja, so ein Chip werden wir im 2012 sehen, bei PCI-E 3 wäre ich mir aber nicht so sicher...
Ich sehe da auch kein all zu grosses Problem, Kepler wird auf Fermi passieren und Fermi läuft in 40nm ja exellent, Taktpotenzial fast ohne Ende und der Verbrauch ist für die gebotene Leistung auch OK! Also bleibt nur die neue Fertigung die Probleme machen könnte.
Sunrise
2011-11-26, 13:13:17
Ja, so ein Chip werden wir im 2012 sehen, bei PCI-E 3 wäre ich mir aber nicht so sicher...
Ich sehe da auch kein all zu grosses Problem, Kepler wird auf Fermi passieren und Fermi läuft in 40nm ja exellent, also bleibt nur die neue Fertigung die Probleme machen könnte.
Ich denke schon, dass man von PCI Gen. 3 ausgehen kann, da Intel derzeit wie wild Partner zum Validieren sucht. Ob das bei GK104 schon zutrifft kann ich dir nicht mit Bestimmtheit sagen. Die Zusammenarbeit zwischen Intel und NVIDIA ist aber hinsichtlich der Ivy Bridge-Design Wins bereits in festen Händen.
Zwei verschiedene Architekturen auf einem neuen Prozess, der anfangs immer Probleme macht. Allein diese 2 Punkte entscheiden meist über den Zeitraum, wann diese vorgestellt werden können. Und auch nicht vergessen, dass die 28nm-Kapazität bei TSMC extrem begrenzt ist. GK104 braucht auch einen gewissen Inventory-Buildup, damit man hier auch etwas verkaufen kann. In dieser Zeit werden die Chips mit den geringsten Leckströmen gesammelt, damit man eine Dual-Karte bringen kann, die in den vorgesehenen Thermal-Headroom passt. Und der ist mit PCI Gen. 3 nun auch angestiegen, wenn es nach NVIDIA geht.
Hugo78
2011-11-26, 13:19:22
Wozu brauchen wir PCIe 3.0 so dringend?
Selbst 8 Lanes PCIe 2.0 reichen noch für 98% Perf.
http://www.computerbase.de/artikel/grafikkarten/2011/test-grafikkarten-mit-pcie/4/#abschnitt_leistung
Sunrise
2011-11-26, 13:27:42
Wozu brauchen wir PCIe 3.0 so dringend?
Selbst 8 Lanes PCIe 2.0 reichen noch für 98% Perf.
http://www.computerbase.de/artikel/grafikkarten/2011/test-grafikkarten-mit-pcie/4/#abschnitt_leistung
Brauchen wir aktuell sicher nicht unbedingt, das ist eher der Prestige-, Technologie-Führerschaft und Zukunftskompatibilität zuzuordnen. Die identische Diskussion gibt es aber immer wieder. Schau dir mal die Posts von damals an, als PCIe 2.0 vorgestellt wurde. Der Blick geht immer ein paar Jahre nach vorne.
boxleitnerb
2011-11-26, 13:28:50
Wozu brauchen wir PCIe 3.0 so dringend?
Selbst 8 Lanes PCIe 2.0 reichen noch für 98% Perf.
http://www.computerbase.de/artikel/grafikkarten/2011/test-grafikkarten-mit-pcie/4/#abschnitt_leistung
In Einzelfällen ist es mehr. Mit mehr Grafikleistung wird es nicht besser. Wozu Leistung verschenken? Sonst geilen soch doch auch alle an 3% durch einen Treiber auf und hier soll es egal sein?
Wozu brauchen wir PCIe 3.0 so dringend?
Brauchen wir nicht, aber bei Interconnects wartet man nicht erst bis ein Bottleneck entsteht.
Hugo78
2011-11-26, 13:34:22
Intel kann sein PCIe 3.0 auch mit Vorserien Grakas evaluieren.
AMD bringt kein PCIe 3.0 Mobo Chipsatz in naher Zukunft.
Also wenn PCIe 3.0 nicht dringend ist, dann wird NV sich dafür nicht die Markteinführung versauen, sollte man mit allem anderen fertig sein.
GK100 wird dann ohne PCIe 3.0 kommen und spätere Anleger, eventuell erst das Kepler Refresh, dann mit PCIe 3.0.
Da hat man dann wieder ein werbewirksames Extra neben den 15-20% mehr Speed für das Refresh.
PCIe 3.0 ist natürlich auch wichtig als Noob-Checklist-Feature. Sie bringen ja zuerst die kleineren Chips.
Dural
2011-11-26, 18:14:13
naja, für tesla wäre PCI-E 3.0 sicher ganz gut, wobei wann wird es die ersten server systeme mit PCI-E 3.0 geben?
im desktop bereich dürfte es leistungs technisch noch egal sein.
naja, für tesla wäre PCI-E 3.0 sicher ganz gut, wobei wann wird es die ersten server systeme mit PCI-E 3.0 geben?
=> denke doch so ca. im April 2012 mit den 2P Sandy-Bridge-E Xeons.
Sinnvoll ist PCIe 3.0 im server/workstation-Breich auch aus einem anderen Grund:
Nur dann kann ich mit der nach oben begrenzten Anzahl an PCIe Lanes genügend Bandbreite für Quadro + Tesla (neuerdings Maximus getauft)/alternativ 2 Teslas + ne schnelle PCIe-Raid Karte+ z.B. ne schnelle Netzwerkkarte (10Gb oder 40Gb Infiniband) bereitstellen....
Nightspider
2011-11-26, 23:14:03
PCI-E 3.0 ist auch sinnvoll bei Mainstream SLI Mainboards, die mit 16x und 8x angeschlossen sind.
Wie alle P67 und Z68 Boards mit vernünftigem P/L Verhältnis.
Eben, ich sehe auch nicht ein warum man bei Steckplätzen/Interconnect allg. freiwillig warten sollte bis man vor dem Flaschenhals steht.
Sieht man doch schön an 8x@2 ist (je nachdem) kaum Leistungsverlust? Schön dann sollten nach dieser Logik also vielleicht erst überhaupt PciE 2 eingeführt werden .... 16x@1 reicht doch für alles. :rolleyes: Das noch dazu bei Highend Karten ..... für Mid und darunter können wir nochmal 4 Jahre warten .....
Dafür hab ich überhaupt kein Verständnis zumal sich ja mechanisch am Slot und Leiterbahnen nicht ändert; das spielt sich größtenteils auf Protokoll und Fehlererkennung etc-Seite ab. (Tatsächlich ist es ja hauptsächlich der Verringerung des Overheads beim Encoding von was 20 auf ~1 % geschuldet? [8/10b zu 128/130b?])
Darum wird die 3er Hardware eher früher als später kommen; und sollte es doch Probleme geben wird halt offiziell nicht 3 sondern nur als Maxspeed unterstützt, sondern nur 2 - weils sowiso kompatibel ist. (Variable)Kosten hab ich auch keine da ja dieselben Materialen und Techniken Anwendung finden. Einmal Geld ausgegeben und Ruhe haben aka Fixkosten die sich aber später auf eine hohe gesamt hergestellte Stückzahl verteilen ......
Ronny145
2011-11-27, 11:17:31
PCI-E 3.0 ist auch sinnvoll bei Mainstream SLI Mainboards, die mit 16x und 8x angeschlossen sind.
Wie alle P67 und Z68 Boards mit vernünftigem P/L Verhältnis.
Genau, mit Intels Mainstream Plattform hätte man mit 2x8 PCIe 3.0 im Verbund gleiche Bandbreite zu 2x16 PCIe-2 momentan.
Hugo78
2011-11-27, 12:50:02
In Bezug auf Kepler geht es allein um die Frage, wie man die Marktreife von PCIe 3.0 bewertet und ob es realistisch ist das Nvidia mit PCIe 3.0 kommt.
Und da sag ich es ist nicht realistisch.
Es ist sicher wünschenswert, aber das wars dann auch.
Warum?
Nun AMD müsste in Punkto PCIe 3.0 der Hersteller der Stunde sein, haben sie doch CPUs, Mobos und Grakas,
alles was man braucht um hier eine abgestimmte, validierte und letzenendes geprüfte Plattform zubieten.
AMD müsste mit Blick auf Bulli v1 doch nur so mit Features um sich schmeißen um den mangelden Speed und den Verbrauch zurechtfertigen.
Und Intel ist fakisch auch keinen Schritt weiter.
Es nutz dem Kunden ja nichts, wenn der Hersteller zwar theoretisch, möglicherweise PCIe 3.0 unterstützt, faktisch aber die Schuld für sein Unvermögen bei anderen sucht.
=Floi=
2011-11-27, 15:56:42
es bringt in der praxis auch noch nichts. was nützt mir pcie 3.0, wenn die cpu lahm ist?!
Skysnake
2011-11-27, 19:00:05
PCIe 3.0 ist natürlich auch wichtig als Noob-Checklist-Feature. Sie bringen ja zuerst die kleineren Chips.
Coda, das ist aber SEHR kurzsichtig. Nur bei Games spielt es kaum eine Rolle. Bei vielen Anwendungen, schlägt das 1 zu 1 durch, und führt oft sogar dazu, das es sich gar nicht lohnt etwas auf Die GPU zu schieben, weil der Datentransfer schon länger dauert, als wenn man es einfach auf der cpu rechnet.
also 3.0 ist mehr als überfällig und selbst eine nochmalige Verdoppelung würde heute schon sehr viele Erfreuen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.