Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: sieben weitere D3D10-Produkte in Arbeit
Endorphine
2007-02-17, 11:05:51
;5259889']@ reunion
Also fang nicht mit Margen an, Nvidia schafft es im gegensatz zu deiner "lieblingsfirma" immer noch bessere... :P NV verdient mehr als AMD? Und was ist, wenn NV mittelfristig die Chipsatzentwicklung für AMD einstellt? ;)
(Sry 4 OT)
reunion
2007-02-17, 11:11:57
Mir fällt auf, dass hier die Rede vom G84 und nicht vom G86 ist. Dürfte das nicht eigentlich die 8300 sein?
Das ist natürlich auch ein wichtiger Punkt. Jetzt ist die Frage was FUAD hier verwechselt hat, den Codenamen, oder den Marketingnamen. :D
Interessant wird auch, ob auch die kleineren G80 einen NVIO mitbringen werden. Wenn dem so ist erhöht der auch die Kosten.
Richtig. Wenn man die "clock domains" in dieser Größenordnung beibehalten will, wird man darum allerdings vermutlich kaum vorbei kommen. Denn das soll ja der eigentliche Grund für NVIO sein.
Das man aus den spekulativen 160mm² abschätzen kann, dass es weniger als ein halber G80 mit zwei ROP-Partions würde ich nicht sehen.
Wie Ailuros schon angedeutet hat, kann Nvidia an den Transistoren noch etwas umgeschaufelt haben, kosten die ROP-Partions wohl recht viel im Verhältnis und zudem könnte es ja auch sein das man im Custom-Bereich der ALUs bei einer geringeren Zahl auch dichter packen kann.
Aus den 4500 Punkten des hier nicht näher bestimmten 8600er Modells können mit dem Launchtreiber auch ganz schnelle 5000 Punkte und mehr werden.
Zudem dürfte vor allen in den Next-Gen-Games wie Oblivion sich die 8600er locker gegen R X19... und GF 79... behaupten können.
@NVIO: Ich denke schon, dass dies erhalten bleibt.
Vielleicht reicht es ja bei den Mainstream-Modellen aus, dass man es mit auf das Package der GPU packen kann.
The_Invisible
2007-02-17, 11:26:42
NV verdient mehr als AMD? Und was ist, wenn NV mittelfristig die Chipsatzentwicklung für AMD einstellt? ;)
(Sry 4 OT)
einfach grafikchipsparte gegen nv nehmen und es passt.
btw
laut http://www.golem.de/0702/50528.html scheint g80 nicht so schwer aufs geschäft zu schlagen
mfg
reunion
2007-02-17, 11:26:58
Also die ROPs sollten eigentlich relativ günstig sein, zumindest wurde so in der Vergangenheit immer argumentiert, wenn man sich fragte, warum sämtliche Chips ROP-Power im Überfluss haben. Aber natürlich kann man aus den Zahlen von Fuad nur sehr begrenzt was ableiten. Deshalb sollte man auf gesicherte Infos warten.
btw
laut http://www.golem.de/0702/50528.html scheint g80 nicht so schwer aufs geschäft zu schlagen
mfg
Das ist doch immer das gleiche. Ein High-End-Core hat auf den Umsatz/Gewinn kaum Auswirkungen, da die Stückzahlen viel zu gering sind. Er beschleunigt durch die gute Publicity höchstens den Verkauf andere Produkte. Deshalb ist es dort im Gegensatz zu einem Midrage- oder Lowendchip auch fast egal, wie hoch die Margen sind.
robbitop
2007-02-17, 11:32:00
NV verdient mehr als AMD? Und was ist, wenn NV mittelfristig die Chipsatzentwicklung für AMD einstellt? ;)
(Sry 4 OT)
Einkünfte und Margen sind nicht dasgleiche ;)
@Reunion
was nützt der neuste Fertigungsprozess, wenn die Yields nicht stimmen und/oder er zu einer Verzögerung führt. Bisher zahlte sich der Konservatismus aus bei NV. Die steigen immer anscheinend genau dann um, wenn sie zufrieden mit dem neuen Prozess sind.
Die ROPs werden durch die ganzen Fähigkeiten von Generation zu Generation teurer (FP Blending z.B.). Außerdem enthällt eine ROP Partion beim G8x unzählige Z-Test Units und Blender.
Die 160mm^2 könnten vieleicht auch zum G84 passen und FUAD hat das als 8600 angesehen.
Also die ROPs sollten eigentlich relativ günstig sein, zumindest wurde so in der Vergangenheit immer argumentiert, wenn man sich fragte, warum sämtliche Chips ROP-Power im Überfluss haben.
Nur hängt bei den G8x-ROP-Clustern ja noch einiges mehr dran, als es in der Vergangheit der Fall war.
G84 ist natürlich die GPU der 8600er Serie, da man hier wieder ein ähnliches Nummernschema wie bei NV4x verwendet, je höher die zweite Ziffer umso niedriger die Leistung im Vergleich.
Deshalb bezeichnet NV nun auch den 65nm Shrink des G72 als G78, vielleicht kommt ja im H2 auch ein G98. ;)
robbitop
2007-02-17, 11:39:27
G71 ist schneller als G70. G73 ist schneller als G72.
Das NV Namensschema endete ja leider mit dem G70.
Trotzdem nähert man sich nun wieder dem alten Schema jedenfalls im Bezug auf die Ziffern an(wobei dies durch PCIe und AGP auch etwas ungeordnet war).
Um nicht wieder das Problem mit G81 und G80 zu haben, wird ersterer eben G90 genannt. ;)
G80>G84>G86
G90>G92>...
reunion
2007-02-17, 11:53:16
was nützt der neuste Fertigungsprozess, wenn die Yields nicht stimmen und/oder er zu einer Verzögerung führt. Bisher zahlte sich der Konservatismus aus bei NV. Die steigen immer anscheinend genau dann um, wenn sie zufrieden mit dem neuen Prozess sind.
Natürlich ist das immer eine Wanderung auf einem sehr schmalen Grad, welcher Fertigungsprozess wann wie und wo "optimal" ist. NV ist in der Vergangenheit mit ihrer konservativen Strategie sehr gut gefahren, da ATi zwar oft das schnellere Produkt hatte, allerdings durch ihre aggressive Strategie teils mit erheblichen Verzögerungen leben musste. Nur das kann eben auch mal in die Hosen gehen, wenn ATi mal pünktlich dran ist, da man durch einen älteren Fertigungsprozess auch erhebliche Nachteile verkraften muss.
robbitop
2007-02-17, 12:00:31
Trotzdem nähert man sich nun wieder dem alten Schema jedenfalls im Bezug auf die Ziffern an(wobei dies durch PCIe und AGP auch etwas ungeordnet war).
Um nicht wieder das Problem mit G81 und G80 zu haben, wird ersterer eben G90 genannt. ;)
G80>G84>G86
G90>G92>...
Quelle?
Ailuros
2007-02-17, 22:56:00
Schaffst du es irgendwann vielleicht auch mal sachlich zu argumentieren? Was in der Vergangenheit war, interessiert niemanden. Mit einer neuen Generation werden die Karten neu gemischt. Auch ist ja das Problem von nV weniger der Transistorcount, denn der dürfte bei R600 sogar höher sein, sondern vielmehr die sehr konservative Strategie, was neue Strukturbreiten betrifft.
Diese konservative Strategie brachte bis jetzt Produkte um Monate frueher auf den Markt und einen kleineren Stromverbrauch zur gleichen Zeit. Inwiefern werden die Karten neu gemischt?
Die gelbe Eule
2007-02-17, 22:58:55
Eingentlich stimmt es, daß die Karten neu gemischt werden, weil ATi nun einen Refresh zurückhängt. Wie sie das kompensieren möchte, muss sich erst noch zeigen. Und von Mid und Low End hört man dort noch gar nichts, bei NV stehen sie bereits vor der Tür. Was die OEM Partner dann verbauen, sollte klar sein.
Ailuros
2007-02-17, 23:00:15
Also die ROPs sollten eigentlich relativ günstig sein, zumindest wurde so in der Vergangenheit immer argumentiert, wenn man sich fragte, warum sämtliche Chips ROP-Power im Überfluss haben. Aber natürlich kann man aus den Zahlen von Fuad nur sehr begrenzt was ableiten. Deshalb sollte man auf gesicherte Infos warten.
Haben heutige ROPs die gleichen Faehigkeiten wie in der Vergangenheit?
Natürlich ist das immer eine Wanderung auf einem sehr schmalen Grad, welcher Fertigungsprozess wann wie und wo "optimal" ist. NV ist in der Vergangenheit mit ihrer konservativen Strategie sehr gut gefahren, da ATi zwar oft das schnellere Produkt hatte, allerdings durch ihre aggressive Strategie teils mit erheblichen Verzögerungen leben musste. Nur das kann eben auch mal in die Hosen gehen, wenn ATi mal pünktlich dran ist, da man durch einen älteren Fertigungsprozess auch erhebliche Nachteile verkraften muss.
Nur im high end Bereich des Marktes.
reunion
2007-02-17, 23:14:00
Inwiefern werden die Karten neu gemischt?
Es ging um die Margen. Während nV mit der G7X-Generation sehr billig produzieren konnte im Vergleich zu ATIs R5X0, werden die Karten mit diesen Generation neu gemischt.
Eingentlich stimmt es, daß die Karten neu gemischt werden, weil ATi nun einen Refresh zurückhängt. Wie sie das kompensieren möchte, muss sich erst noch zeigen.
Wie hat man es denn in der Vergangenheit kompensiert? Mit einem R420, den nV erst mit dem G70 schlagen konnte, und mit einem R520, gegen den nV nur einen Papiertiger alias 7800GTX 512 entgegensetzten konnte, ehe R580 entgültig unüberwindbar blieb bis G80. Auch verschieben sich durch Fertigungsprobleme die nachfolgenden Produkte logischerweise nicht, wodurch man hier gar nichts kompensieren muss.
Und von Mid und Low End hört man dort noch gar nichts, bei NV stehen sie bereits vor der Tür. Was die OEM Partner dann verbauen, sollte klar sein.
Offensichtlich bist du auf einem Auge blind, denn wie es momentan aussieht, dürfte hier kaum mehr als ein Monat dazwischen liegen.
Ailuros
2007-02-17, 23:37:34
Es ging um die Margen. Während nV mit der G7X-Generation sehr billig produzieren konnte im Vergleich zu ATIs R5X0, werden die Karten mit diesen Generation neu gemischt.
Margen und ATI gehoeren auch bei dieser Generation nicht in den gleichen Satz.
Wie hat man es denn in der Vergangenheit kompensiert? Mit einem R420, den nV erst mit dem G70 schlagen konnte, und mit einem R520, gegen den nV nur einen Papiertiger alias 7800GTX 512 entgegensetzten konnte, ehe R580 entgültig unüberwindbar blieb bis G80. Auch verschieben sich durch Fertigungsprobleme die nachfolgenden Produkte logischerweise nicht, wodurch man hier gar nichts kompensieren muss.
Wenn Du wirklich tiefer eindringen willst, kannst Du Dir gerne Verkaufszahlen und auch Gewinne bzw. Verluste fuer jeglichen dieser Zeitspannen zur Hand nehmen. Es ist mir schon klar dass Du Dir nur das heraussuchst was gerade schoen passt, aber wenn Du schon ueber Margen reden willst, dann nimm gefaelligst alle Marktabteilungen zur Hand.
Natuerlich muss ATI "nichts" mit R600 kompensieren pffff....nur ein "paar" OEM deals und bisher 400.000 verkaufte G80 GPUs.
Offensichtlich bist du auf einem Auge blind, denn wie es momentan aussieht, dürfte hier kaum mehr als ein Monat dazwischen liegen.
Na aber hoffentlich nicht wieder eine RV530-Wiederholung. Was hier der kleinere Herstellungsprozess ausser die Moeglichkeit die Taktrate weiter zu erhoehen genau dazugewinnen soll ist fraglich. Schon gar nicht wenn Du selber schon nur 1/4 der R600 ROPs/TMUs fuer die Dinger vorgeschlagen hast.
Das Ganze leitet sich leider von den Design-entscheidungen im high end ab; man braucht eben rund um die 800MHz um fuer die groessere Anzahl der G80 ROPs/TMUs bei nur 575MHz kompensieren zu koennen.
reunion
2007-02-18, 09:20:46
Margen und ATI gehoeren auch bei dieser Generation nicht in den gleichen Satz.
Die Dice der R6X0-Generation dürften durch die kleineren Fertigungsprozesse wesentlich kleiner sein als bei nV. Und auch bei der Transistorenanzahl ist der Unterschied mit Sicherheit nicht mehr so groß wie bei R580/G71.
Wenn Du wirklich tiefer eindringen willst, kannst Du Dir gerne Verkaufszahlen und auch Gewinne bzw. Verluste fuer jeglichen dieser Zeitspannen zur Hand nehmen. Es ist mir schon klar dass Du Dir nur das heraussuchst was gerade schoen passt, aber wenn Du schon ueber Margen reden willst, dann nimm gefaelligst alle Marktabteilungen zur Hand.
Wie willst du mit Verkaufszahlen und Umsatz/Gewinn über die Margen einer Produktes reden, dass es noch gar nicht gibt? Ich habe doch gesagt, dass nV bei der letzten Generation deutlich billiger fertigen konnte.
Natuerlich muss ATI "nichts" mit R600 kompensieren pffff....nur ein "paar" OEM deals und bisher 400.000 verkaufte G80 GPUs.
Ich bezog mich auf die Entwicklung der nachfolgenden Produkte, dass nV in der zwischenzeit schon einige Karten verkauft hat, ist klar.
Na aber hoffentlich nicht wieder eine RV530-Wiederholung. Was hier der kleinere Herstellungsprozess ausser die Moeglichkeit die Taktrate weiter zu erhoehen genau dazugewinnen soll ist fraglich. Schon gar nicht wenn Du selber schon nur 1/4 der R600 ROPs/TMUs fuer die Dinger vorgeschlagen hast.
Das war nur eine Spekulation, die das angebliche 128-bit SI erklären könnte. Möglich ist ohnehin alles. Selbst das 128-bit SI bei RV630 scheint ja alles andere als gesichert zu sein. Eine RV530-Wiederholung ist schon deshlab ausgeschlossen, weil es diesmal keinen R680 mit einer reinen Aufstockung der ALUs geben wird. Auch sollte man diesmal durch 65nm genug Platz haben, um den Chip schnell genug zu machen.
Ein kleinere Fertigungsprozess erlaubt neben der höheren Taktraten eben auch eine Kostenreduzierung, und/oder eine höhere Transistorenanzahl.
Das Ganze leitet sich leider von den Design-entscheidungen im high end ab; man braucht eben rund um die 800MHz um fuer die groessere Anzahl der G80 ROPs/TMUs bei nur 575MHz kompensieren zu koennen.
Tja, und nV braucht 1350Mhz ALU-Takt plus NVIO und den verzicht auf eine Takt-/Spannungsreduktion in 2D, um gegen die große Anzahl an R600-ALUs mit nur rund 800Mhz bestehen zu können. Solange es bei beiden der Chip hergibt, who cares?
robbitop
2007-02-18, 09:39:32
Die Dice der R6X0-Generation dürften durch die kleineren Fertigungsprozesse wesentlich kleiner sein als bei nV. Und auch bei der Transistorenanzahl ist der Unterschied mit Sicherheit nicht mehr so groß wie bei R580/G71.
Ich habe schonmal erläutert, dass DIE Größe nicht das einzig wichtige ist.
Wenn die Yields auch noch gut sind und der Prozess den Markteintritt nicht verzögert, ja dann hat das positive Auswirkungen auf die Marge. Vorher nicht.
reunion
2007-02-18, 09:55:32
Ich habe schonmal erläutert, dass DIE Größe nicht das einzig wichtige ist.
Wenn die Yields auch noch gut sind und der Prozess den Markteintritt nicht verzögert, ja dann hat das positive Auswirkungen auf die Marge. Vorher nicht.
Das ist mir schon klar. Nur das mit den Yields ist höchstens eine Frage der Zeit, und ein kleineres Die kann auch schlechtere Yields ausgleichen. Ob das einen möglichen, etwas späteren Markteintritt rechtfertigt, lässt sich natürlich pauschal nicht beantworten. Nach einem Monat natürlich nicht. Aber etwas später kann man alle Vorteile einer kleineren Strukturbreite nutzen, und erspart sich ein weiteres Tapeout.
robbitop
2007-02-18, 09:58:00
Ist nur die Frage, wann die Yields so gut werden, dass der Break-Even erreicht wird.
NVIDIA hat Anfang 2006 diesen Break Even Punkt nahezu perfekt abgepasst und ist dann in 90 nm eingestiegen. Mal sehen, wie es in 65 nm läuft.
Ich kann nur für ATI hoffen, dass sie monetär diese Generation mal so richtig punkten. Für uns Käufer muss es ausgeglichen bleiben. Alles andere wäre für alle wirklich suboptimal (P/L).
reunion
2007-02-18, 10:05:47
Ist nur die Frage, wann die Yields so gut werden, dass der Break-Even erreicht wird.
NVIDIA hat Anfang 2006 diesen Break Even Punkt nahezu perfekt abgepasst und ist dann in 90 nm eingestiegen. Mal sehen, wie es in 65 nm läuft.
nV hatte bei 90nm vorallem Glück, dass R520/RV530/RV515 und auch R580 eine Bug in externer IP hatten, der erst relativ spät gefixt werden konnte. So konnte ATi von ihrem frühen Gang zu 90nm kaum profitieren.
Ich kann nur für ATI hoffen, dass sie monetär diese Generation mal so richtig punkten. Für uns Käufer muss es ausgeglichen bleiben. Alles andere wäre für alle wirklich suboptimal (P/L).
Naja, es ist ja nicht so, dass man laufend Verluste schreibt. ATi machte während der gesamten R5X0-Generation AFAIK satte Gewinne, zumindest bis zu AMD-Kauf.
robbitop
2007-02-18, 10:09:21
Wieso hatten sie Glück? Sie sind doch erst zum R580 eingestiegen (der das Problem nicht hatte und auch keine große Verspätung hatte).
AMD wird vieleicht aufgekauft und ATI kann sich IMO mittelfristig keine schlechten Zahlen leisten, da AMD sonst möglicherweise die High End GPU Entwicklung schlicht dicht macht.
NVIDIA kassiert seit NV4x mit einer wirtschaftlich überlegenen Strategie ordentlich ab (trotz kleinerer Leistungsniederlagen im High End Bereich).
Winter[Raven]
2007-02-18, 10:15:49
Naja, es ist ja nicht so, dass man laufend Verluste schreibt. ATi machte während der gesamten R5X0-Generation AFAIK satte Gewinne, zumindest bis zu AMD-Kauf.
Du nennst soetwas "satte gewinne"?
Q3. 2005
U: 530,2
G: -0,4
Q4. 2005
U: 470,0
G: -104,0
Q1. 2006
U: 590,7
G: 7,6
Q2. 2006
U: 672,0
G: 34,1
//EDIT:
Unter "Satten Gewinnen" versteht man ehe soetwas
Q1. 2006
U:583,8
G: 64,4
Q2. 2006
U: 574,8
G: 74,8
Q3. 2006
U: 583,4
G: 65,3
Q4. 2006
U: 633,6
G: 98,1
Da geht so weiter... und im Q4. 2007 hatte man einen Umsatz von 878,9 Mio $ und einen Reingewinn von 163,5 Mio $
reunion
2007-02-18, 10:18:31
Wieso hatten sie Glück? Sie sind doch erst zum R580 eingestiegen (der das Problem nicht hatte und auch keine große Verspätung hatte).
Pünktliche 90nm Chips bei ATi hätte nV ziemlich unter Zugzwang gesetzt. Ob dann ihre Strategie auch so gut aufgegangen wäre? Denn eine Midragechip und Lowendchip brachte nV auch erst mit 90nm.
AMD wird vieleicht aufgekauft und ATI kann sich IMO mittelfristig keine schlechten Zahlen leisten, da AMD sonst möglicherweise die High End GPU Entwicklung schlicht dicht macht.
NVIDIA kassiert seit NV4x mit einer wirtschaftlich überlegenen Strategie ordentlich ab (trotz kleinerer Leistungsniederlagen im High End Bereich).
Das glaube ich nicht. AMD kauft nicht um mehrere Milliarden ATI, um dann nur noch IPGs zu produzieren. Man sagte ja auch sofort, dass man die High-End-GPU Sparte unbedingt aufrecht erhalten will. Dass es zu beginn einer solchen Übernahme zu einigen Unstimmigkeiten kommt, ist klar, allerdings sollte sich das durch die entstehenden Vorteile mittelfristig wieder ausgleichen.
;5262224']Du nennst soetwas "satte gewinne"?
Q3. 2005
U: 530,2
G: -0,4
Q4. 2005
U: 470,0
G: -104,0
Q1. 2006
U: 590,7
G: 7,6
Q2. 2006
U: 672,0
G: 34,1
//EDIT:
Unter "Satten Gewinnen" versteht man ehe soetwas
Q1. 2006
U:583,8
G: 64,4
Q2. 2006
U: 574,8
G: 74,8
Q3. 2006
U: 583,4
G: 65,3
Q4. 2006
U: 633,6
G: 98,1
Da geht so weiter... und im
Q4. 2007
U: 878,9
G: 163,5
Ja toll, nV hat den längsten, wunderbar. :rolleyes:
Wann kam R520/RV530/RV515/R580? Es dauert eben seine Zeit, bis man entsprechende OEM-Deals einsackt, etc. also bis sich das auf die Geschäftzahlen auswirkt. Die Tendenz war jedenfalls klar steigend, so unwirtschaftlich kann die R5x0-Gen. also nicht gewesen sein. Und die letzten beiden Quartalsergebnisse von nV haben maßgeblich mit dem ATi-Kauf von AMD zu tun.
robbitop
2007-02-18, 10:26:08
Pünktliche 90nm Chips bei ATi hätte nV ziemlich unter Zugzwang gesetzt. Ob dann ihre Strategie auch so gut aufgegangen wäre?
Auch ein pünktlicher R520 wäre für NV nicht soo schlimm gewesen. Zum Launch war der ja kaum schneller als ein G70. Die RV530 und RV515 kamen ja auch pünktlich.
Das glaube ich nicht. AMD kauft nicht um mehrere Milliarden ATI, um dann nur noch IPGs zu produzieren. Man sagte ja auch sofort, dass man die High-End-GPU Sparte unbedingt aufrecht erhalten will. Dass es zu beginn einer solchen Übernahme zu einigen Unstimmigkeiten kommt, ist klar, allerdings sollte sich das durch die entstehenden Vorteile mittelfristig wieder ausgleichen.
Nunja wenn eine Firmensparte mittel bis langfristig nicht läuft, muss sie eben zugemacht werden, eh sie das Gesamtunternehmen runterreist (was noch nicht der Fall ist). Aber man muss definitiv aufpassen.
AMD hat ja nicht nur IGPs vor sondern auch das Fusion Projekt und wer weiß was noch kommt.
Ich denke, ATI hat bereits aus den eigenen Fehlern gelernt, jedoch ließ weder R5xx noch R6xx ein älteren Fertigungsprozess zu. Eventuell ändern sie die Designphilosophie schon zum R700, so dass sie ökonomischer und pünktlicher kommen können.
mapel110
2007-02-18, 10:31:14
Gegen die High End Chips von ATI kann man doch nicht viel sagen. Eher die grüppeligen Mid Range chips. Entweder lahm (x1600) oder zu teuer in der Fertigung (1900er Derivate). Da kann nix bei rumkommen. Da hat nvidia die wahren Vorteile imo. Und dort muss sich zeigen, wie es in ein paar Monaten im mid range Bereich bei beiden aussieht.
robbitop
2007-02-18, 10:35:24
Man könnte meinen, dass seit einigen Jahren nicht mehr Dave Orton CEO bei ATI ist sondern Tim Taylor der Heimwerkerking. Frei nach dem Motto: "Mehr Power *grunzgrunz*".
Dabei versaut man sich aber die Margen und den Markteintritt.
NVIDIA hat diesen Größenwahn nach dem NV30 Debakel eingestellt und setzt auf ökonomische und skalierbare Architekturen.
Was interessiert mich das als Kunden, fragen sich jetzt sicher viele. Indirekt muss es mich schon interessieren, da das P/L Verhältnis im Anus ist, sobald ein IHV davonzieht oder einer pleite geht.
reunion
2007-02-18, 10:48:20
Auch ein pünktlicher R520 wäre für NV nicht soo schlimm gewesen. Zum Launch war der ja kaum schneller als ein G70.
Es hätte mit dem deutlich besseren AF und den anderen Vorzügen zumindest gereicht, um nV gehörig unter Druck zu setzten.
Die RV530 und RV515 kamen ja auch pünktlich.
AFAIK waren beide für Sommer geplant, musste allerdings mit demselben Bug wie R520 kämpfen.
robbitop
2007-02-18, 10:53:36
Es hätte mit dem deutlich besseren AF und den anderen Vorzügen zumindest gereicht, um nV gehörig unter Druck zu setzten.
AFAIK waren beide für Sommer geplant, musste allerdings mit demselben Bug wie R520 kämpfen.
Hast du es je erlbet, dass die Mainstream GPUs gleichzeitig mit der HighEnd GPU kam? Midrange kam schon immer etwas später. Das Problem für ATI war, dass RV560/570 unbedingt 80nm brauchten aufgrund ihrer Chipkomplexität. Wären die auch im Sept/okt 05 gekommen, wäre das besser gewesen.
reunion
2007-02-18, 11:22:51
Hast du es je erlbet, dass die Mainstream GPUs gleichzeitig mit der HighEnd GPU kam? Midrange kam schon immer etwas später.
R520 sollte vor G70 im Frühjahr erscheinen, und RV530/RV515 im Sommer.
Das Problem für ATI war, dass RV560/570 unbedingt 80nm brauchten aufgrund ihrer Chipkomplexität. Wären die auch im Sept/okt 05 gekommen, wäre das besser gewesen.
Das ist natürlich richtig.
robbitop
2007-02-18, 11:28:24
R520 sollte vor G70 im Frühjahr erscheinen, und RV530/RV515 im Sommer.
Ja G80 sollte auch schon Anfang 2006 kommen, aber man hat es nicht hinbekommen (laut NV CEO Interview). Anfang 2005 ein reifer 90nm Prozess für eine so große GPU ist nunmal utopisch.
reunion
2007-02-18, 11:37:59
Wann kam den Xenos? Dieser war mit ~220mio Transitoren auch nicht gerade klein. R520 hatte sein erstes Tapeout nach Aussagen von Orton jedenfalls noch 2004. Die erste Meldung, dass das Tapeout bevor steht, kam schon Ende Mai 2004 im einem Interview von Orton bei B3D.
robbitop
2007-02-18, 11:54:41
Wann kam den Xenos? Dieser war mit ~220mio Transitoren auch nicht gerade klein. R520 hatte sein erstes Tapeout nach Aussagen von Orton jedenfalls noch 2004. Die erste Meldung, dass das Tapeout bevor steht, kam schon Ende Mai 2004 im einem Interview von Orton bei B3D.
Es waren ohne ROPs gerade mal 150 Mio Transistoren. Und in Massen musste er auch erst im Herbst 2005 zum X360 Launch verfügbar sein. Das sind ganz andere Anforderungen.
reunion
2007-02-18, 12:04:02
One element that has been reported on is the number of 150M transistors in relation to the graphics processing elements of Xenon, however according to ATI this is not correct as the shader core itself is comprised from in the order of 232M transistors.
http://www.beyond3d.com/articles/xenos/index.php?p=02
Und zum Launch der Xbox mussten schon millionen Chips erhältlich sein. Immerhin lieferte man laut MS am Launchtag alleine in den USA eine Million Konsolen aus. Und MS launchte die XBox weltweit gleichzeitig.
Ja toll, nV hat den längsten, wunderbar. :rolleyes:
Wann kam R520/RV530/RV515/R580? Es dauert eben seine Zeit, bis man entsprechende OEM-Deals einsackt, etc. also bis sich das auf die Geschäftzahlen auswirkt. Die Tendenz war jedenfalls klar steigend, so unwirtschaftlich kann die R5x0-Gen. also nicht gewesen sein. Und die letzten beiden Quartalsergebnisse von nV haben maßgeblich mit dem ATi-Kauf von AMD zu tun.Das ändert aber rein gar nichts daran, dass Nvidia seit dem NV40 wirtschaftlich erfolgreicher war als ATI, genauso wie sie es vor dem NV30-Debakel auch waren. Wenn man es sogar auf die Spitze treiben will: ATI hatte wirtschaftlich nur ein einziges Mal eine Chance gegen Nvidia - mit dem R300 und dessen Derivaten...
Diese "Erfolgsbilanz" hat die Übernahme durch ATI erst ermöglicht und ganz besonders der beinharte Kalkulierer Hector Ruiz weiß um die Schwächen von ATI...
robbitop
2007-02-18, 12:27:20
http://www.beyond3d.com/articles/xenos/index.php?p=02
Und zum Launch der Xbox mussten schon millionen Chips erhältlich sein. Immerhin lieferte man laut MS am Launchtag alleine in den USA eine Million Konsolen aus. Und MS launchte die XBox weltweit gleichzeitig.
Trotzdem lag eine ganze Weile dazwischen. Der Chip war weniger komplex und geringer getaktet.
deekey777
2007-02-18, 13:01:53
R520 sollte vor G70 im Frühjahr erscheinen, und RV530/RV515 im Sommer.
Der "realistische" Termin war Ende Mai, noch vor dem G70, was nicht geklappt hat. Der nächste Termin war dann Ende Juli/Anfang August. Man hatte schon damals einen einwandfrei lauffähigen R520 A14, nur schaffte er keine vorgestellten Taktraten (daraus wurde die X1800XL, es gab so gar Gerüchte, dass diese als Kleinserie auf den Markt kommen). Erst mit dem R520 A15 war es möglich bis zu 650 MHz zu takten (auch der R580 war davon betroffen). Wäre damals alles nach Plan verlaufen, so wäre es der R580, der am 5. Oktober vorgestellt werden sollte.
Und siehe da: Es gibt wieder Parallelen zum R600. Der R600 ist spätestens mit der Revision A13 fertig (diese gibt es schon seit 6-8 Wochen?), diese kriegen ja die OEMs. Nur verbraucht diese Revision zu viel Saft: Nur OEM-Hersteller können einwandfreie Kühlungskonzepte entwickeln, genau so wie die für die Stromversorgung. Also braucht man eine weitere Version für den Retail-Markt: R600 A15 (+kurzes PCB).
Ailuros
2007-02-19, 08:25:48
Die Dice der R6X0-Generation dürften durch die kleineren Fertigungsprozesse wesentlich kleiner sein als bei nV. Und auch bei der Transistorenanzahl ist der Unterschied mit Sicherheit nicht mehr so groß wie bei R580/G71.
G73/8 ROPs/TMUs=90nm / 177M / 127mm^2
RV530/4 ROPs/TMUs=90nm / 157M / 150mm^2
...und hier hat G73 nichtmal die Transistoren-sparmassnahmen des G71; ein purer G70 Ableger (von 302M/334mm^2).
Wobei das obrige Beispiel ein gutes Beispiel ist, da beide auf gleichem Herstellungsprozess hergestellt wurden und NV hier nichts umgeschaufelt hatte beim G73.
Wie willst du mit Verkaufszahlen und Umsatz/Gewinn über die Margen einer Produktes reden, dass es noch gar nicht gibt? Ich habe doch gesagt, dass nV bei der letzten Generation deutlich billiger fertigen konnte.
Eine Produktlinie die bitteschoen wieder um ca. 5 Monate spaeter ankommt und rein zufaelligerweise wieder auf hoehere Taktrate setzt um konkurrieren zu koennen.
Ich bezog mich auf die Entwicklung der nachfolgenden Produkte, dass nV in der zwischenzeit schon einige Karten verkauft hat, ist klar.
Wann RV530/515 auf den Markt kamen im Vergleich zu R5x0, kann man sehr leicht nachschlagen.
Das war nur eine Spekulation, die das angebliche 128-bit SI erklären könnte. Möglich ist ohnehin alles. Selbst das 128-bit SI bei RV630 scheint ja alles andere als gesichert zu sein. Eine RV530-Wiederholung ist schon deshlab ausgeschlossen, weil es diesmal keinen R680 mit einer reinen Aufstockung der ALUs geben wird. Auch sollte man diesmal durch 65nm genug Platz haben, um den Chip schnell genug zu machen.
Weil 65nm gigantisch mehr Platz liefert als 80nm? Waere diese "Spekulation" wie Du sie nennst fraglich gewesen, haette ich es wohl nicht so stehen lassen.
Ein kleinere Fertigungsprozess erlaubt neben der höheren Taktraten eben auch eine Kostenreduzierung, und/oder eine höhere Transistorenanzahl.
Stets im Vergleich zu was; mit 80nm ist das Risiko um einige Male kleiner.
Tja, und nV braucht 1350Mhz ALU-Takt plus NVIO und den verzicht auf eine Takt-/Spannungsreduktion in 2D, um gegen die große Anzahl an R600-ALUs mit nur rund 800Mhz bestehen zu können. Solange es bei beiden der Chip hergibt, who cares?
4 clusters mit jeweils 16 ALUs vs. 16 clusters mit jeweils 8 ALUs, wobei die Differenzierung in der "Breite" der ALUs liegt. Die Takt-reduktion in 2D wird R600 nicht besonders viel bringen und sie hat trotz der 800MHz chip Taktrate doch am Ende weniger Fuellrate und um einiges mehr Stromverbrauch. Dass hier dann fuer kleinere Projekte 80nm nicht mehr ausreicht sollte klar sein.
Ailuros
2007-02-19, 08:40:12
Wann kam den Xenos? Dieser war mit ~220mio Transitoren auch nicht gerade klein. R520 hatte sein erstes Tapeout nach Aussagen von Orton jedenfalls noch 2004. Die erste Meldung, dass das Tapeout bevor steht, kam schon Ende Mai 2004 im einem Interview von Orton bei B3D.
Xenos war eine quasi "Neuauflage" des seligen R400. Wenn man einen schon fast fertigen Design umkrempelt und neu auflegt, minimalisiert man auch moegliche "HW bugs". Und die Anfuehrungsstriche sind hier mit Absicht; je hoeher die Frequenz desto mehr Chancen hat man dass irgend ein Feature oder Einheit hier und da mal abknallt. 500MHz ist ja auch nicht unbedingt eine hohe Frequenz fuer die Chipkomplexitaet bzw. Herstellungsprozess und hier lagen die ROPs ja auch auf dem Tochter-die.
Beim R600 sind eben erstmal die ROPs abgeknallt.
Fetza
2007-02-19, 19:13:08
G73/8 ROPs/TMUs=90nm / 177M / 127mm^2
RV530/4 ROPs/TMUs=90nm / 157M / 150mm^2
...und hier hat G73 nichtmal die Transistoren-sparmassnahmen des G71; ein purer G70 Ableger (von 302M/334mm^2).
Wobei das obrige Beispiel ein gutes Beispiel ist, da beide auf gleichem Herstellungsprozess hergestellt wurden und NV hier nichts umgeschaufelt hatte beim G73.
Eine Produktlinie die bitteschoen wieder um ca. 5 Monate spaeter ankommt und rein zufaelligerweise wieder auf hoehere Taktrate setzt um konkurrieren zu koennen.
Wann RV530/515 auf den Markt kamen im Vergleich zu R5x0, kann man sehr leicht nachschlagen.
Weil 65nm gigantisch mehr Platz liefert als 80nm? Waere diese "Spekulation" wie Du sie nennst fraglich gewesen, haette ich es wohl nicht so stehen lassen.
Stets im Vergleich zu was; mit 80nm ist das Risiko um einige Male kleiner.
4 clusters mit jeweils 16 ALUs vs. 16 clusters mit jeweils 8 ALUs, wobei die Differenzierung in der "Breite" der ALUs liegt. Die Takt-reduktion in 2D wird R600 nicht besonders viel bringen und sie hat trotz der 800MHz chip Taktrate doch am Ende weniger Fuellrate und um einiges mehr Stromverbrauch. Dass hier dann fuer kleinere Projekte 80nm nicht mehr ausreicht sollte klar sein.
Entschuldigung, aber ich frage jetzt einfach mal ganz frech: kann es sein, das du schon die genauen r600 specs kennst? Ohne näher auf selbige einzugehen, versteht sich :) Ich meine nur, weil sich das bei dir so anhört, als wenn du schon alles über den chip wüsstest.
greetz
Die gelbe Eule
2007-02-19, 23:28:53
Du würdest das ganze auch anderweitig lesen können Fetza, wenn mal die Trolle alle ausblendest. R600 gegen Refresh von NV wo noch nichtmal Specs bekannt sind, so sieht es im moment aus und diese Ungewissheit wird ATi zu schaffen machen. Nicht umsonst hat man den Respin fahren müssen.
deekey777
2007-02-19, 23:40:44
Du würdest das ganze auch anderweitig lesen können Fetza, wenn mal die Trolle alle ausblendest. R600 gegen Refresh von NV wo noch nichtmal Specs bekannt sind, so sieht es im moment aus und diese Ungewissheit wird ATi zu schaffen machen. Nicht umsonst hat man den Respin fahren müssen.
Unterlasse es, andere Diskussionsteilnehmer als Trolle zu bezeichnen.
Und zum Thema: Was für ein Refresh? Was für ein Respin?
Die gelbe Eule
2007-02-19, 23:43:20
Refresh G81 (enhanced G80), Respin auf A15 für den R600, obwohl der A13 schon gereicht hätte.
deekey777
2007-02-19, 23:52:07
Refresh G81 (enhanced G80), Respin auf A15 für den R600, obwohl der A13 schon gereicht hätte.
Und wozu braucht man den Respin des R600 auf A15?
a) Weil A13 zu viel Saft verbraucht, was den OEMs egal ist;
b) Weil damit ein kürzeres PCB möglich ist;
c) beides;
Einen "enhanced" G80 als Refresh zu bezeichnen, halte ich für sehr gewagt. Die Geschichte wiederholt sich irgendwie: 7800GTX 512 lässt sich grüssen.
Die gelbe Eule
2007-02-20, 00:15:31
7800GTX 512 war aber schon am Limit, die 8800GTX ist bis mindestens 680MHz offen, 1.4GHz RAM gibt es auch noch und das deaktievierte MUL im Treiber.
Und ob das PCB nun GX2 Länge hat oder paar cm kürzer, fakt ist doch nur, das sich die Karte verspätet und keiner weiß ob es sich diesmal lohnt. Wie Ailuros sagte, bereits 5 Monate und 400.000 Karten weiter, was sich mit der Vistaveröffentlichung bestimmt noch auf 750.000 steigern läßt.
deekey777
2007-02-20, 00:25:17
Und welchen Einfluss hat es auf die Performance des R600, wenn von der 8800er so viel verkauft wurde? Gar keinen.
Auch darf man die Kopplung an den Shadertakt nicht vergessen. Wenn ich mich nicht verrechnet habe, wäre er bei 680 MHz um die 1,6 GHz.
Die gelbe Eule
2007-02-20, 00:38:38
+25MHz GPU = +50MHz Shader, passt schon. Denke den Takt kann man mit einer besseren Yieldrate halten, nicht umsonst hat man die Hersteller gebeten nicht zu übertaken, damit das Potential offen gehalten wird.
Es hat sehr wohl einen Einfluß, weil wer jetzt schon eine schnelle Karte hat, brauch nicht eine gleich schnelle vom anderen Ufer. So bedeckt wie sich ATi hält, so revidierter muss man die Zahlen sehen. Präsentation hinter verschlossenen Türen, wenn NV direkt davor Low- bis MidEnd präsentiert, hallo? Hört sich stark nach Ibiza2 an.
Ailuros
2007-02-20, 06:03:44
Entschuldigung, aber ich frage jetzt einfach mal ganz frech: kann es sein, das du schon die genauen r600 specs kennst? Ohne näher auf selbige einzugehen, versteht sich :) Ich meine nur, weil sich das bei dir so anhört, als wenn du schon alles über den chip wüsstest.
greetz
Rohe Daten ja schon seit einiger Zeit. Um alles zu wissen muesste ich ein ATI Angestellter sein. Eben nur das was jemand vor dem Launch wissen koennte. Konkreteres kommt dann wenn die ersten Reviewers die ersten Boards in die Haende bekommen.
Ailuros
2007-02-20, 06:10:08
7800GTX 512 war aber schon am Limit, die 8800GTX ist bis mindestens 680MHz offen, 1.4GHz RAM gibt es auch noch und das deaktievierte MUL im Treiber.
Ich hab keine Ahnung ob sie solch einen Refresh ueberhaupt planen und um ehrlich zu sein ist es mir auch schnuppe. Mich interessiert persoenlich nur der Unterschied zwischen G80 und R600; dann will ich weitersehen wie es mit der wahren naechsten Runde weitergeht.
Und ob das PCB nun GX2 Länge hat oder paar cm kürzer, fakt ist doch nur, das sich die Karte verspätet und keiner weiß ob es sich diesmal lohnt. Wie Ailuros sagte, bereits 5 Monate und 400.000 Karten weiter, was sich mit der Vistaveröffentlichung bestimmt noch auf 750.000 steigern läßt.
Nun mal langsam es sind 400.000 bis heute; um fast nochmal so viel zu verkaufen brauchen sie mindestens nochmal 4-5 Monate wenn ueberhaupt. Erstens sind die Boards viel zu teuer fuer hohe Verkaufszahlen und zweitens gibt es tatsaechlich keine Spiele auf Regalen die nach einer G80 bzw. R600 schreien wuerden. Kommt dann ein Kracher wie Crysis auf die Regale, geht es dann so langsam los.
PCGH_Carsten
2007-02-20, 09:41:59
Natuerlich muss ATI "nichts" mit R600 kompensieren pffff....nur ein "paar" OEM deals und bisher 400.000 verkaufte G80 GPUs.
Ja. Wirtschaftlich gesehen ist so ein GPU-Verkauf immer eine Mischkalkulation - da wird ein Amortisationmittel über hohe Preise/niedrige Stückzahlen am Anfang und niedrigere Preise/hohe Stückzahlen zum Ende hin gemacht. Von daher lohnt sich eine frühere Verfügbarkeit doppelt und dreifach, weil man allein durch die "konkurrenzlosigkeit" einer neuen Generation die Preise über einen langen Zeitraum hoch halten kann. Gut zu beobachten besonders bei der GTX. Zudem sammelt man auch Erfahrungen in der Fertigung und kann hier und da noch Feintuning betreiben und die Yields verbessern. Zusätzlich liefert man der Konkurrenz keinen Vorteil bei deren eigener Fertigung durch TSMC, da man die gemachten Erfahrungen nur schwer auf den völlig anderen Prozess übertragen kann.
Was bleibt Ati jetzt eigentlich noch übrig, da die GTS um 300 Euro verkauft wird und die GTX knapp um 500, als ihre eigenen Preispunkte entsprechend anzupassen? Denn einen deutlichen Vorsprung - sagen wir durchschnittlich 20% und mehr - der einen hohen Aufpreis rechtfertigen würde, wird es nach aktuellem Spekulationsstand nur in Ausnahmefällen geben. Und diese wird's dann auf der anderen Seite ebenfalls geben - ganz nach Spiel.
R520 sollte vor G70 im Frühjahr erscheinen, ...
Was meinst du, warum ausgerechnet G70 im Sommer mit der ersten "Verfügbarkeit ab Launch" erschien? Weil Nvidia durch die Verspätungen bei Ati Zeit hatte, dies so vorzubereiten. Wäre bei Ati alles nach Plan gegangen, wären beide im April/Mai mit Nahe-Null-Verfügbarkeit gestartet.
Auch darf man die Kopplung an den Shadertakt nicht vergessen. Wenn ich mich nicht verrechnet habe, wäre er bei 680 MHz um die 1,6 GHz.
Dieser ist nicht zwingend - ganz besonders nicht, wenn man selbst BIOS und Treiber programmiert.
Wann kam den Xenos?
Wer hat Xenos eigentlich produziert? Und wieviele Transistoren hat NV40 noch gleich?
Und wozu braucht man den Respin des R600 auf A15?
a) Weil A13 zu viel Saft verbraucht, was den OEMs egal ist;
b) Weil damit ein kürzeres PCB möglich ist;
c) beides;
Einen "enhanced" G80 als Refresh zu bezeichnen, halte ich für sehr gewagt. Die Geschichte wiederholt sich irgendwie: 7800GTX 512 lässt sich grüssen.
d) Um konkurrenzfähige zum mittlerweile älteren G80 zu sein, sprich, eine entsprechende Taktrate ohne externes Netzteil und Flüssigkühlung zu erreichen?
Wer hat Xenos eigentlich produziert?Chartered war es afaik. Kann aber auch sein, dass MS bei mehreren Foundrys produzieren ließ.
Dieser ist nicht zwingend - ganz besonders nicht, wenn man selbst BIOS und Treiber programmiert.
Genau, so läuft bei einigen OC-GTX die Shaderdomain weiterhin auf 1350MHz und zudem ist ja auch das Shader-OCing per nTune angekündigt.
Anarchy-HWLUXX
2007-02-20, 11:12:18
Erstens sind die Boards viel zu teuer fuer hohe Verkaufszahlen und zweitens gibt es tatsaechlich keine Spiele auf Regalen die nach einer G80 bzw. R600 schreien wuerden. Kommt dann ein Kracher wie Crysis auf die Regale, geht es dann so langsam los.
Die einführung der günstigeren 320MB version sollte das Problem mit dem zu hohen Preis wenigstens leicht verbessern da sich nun mehr Käufer auch eine 8800er leisten können (Günstigeste lieferbar - Heute - XFX für 278€ incl. Versand ) und im Q2 sollen einige Games rauskommen ... immer ne gute gelegenteit zum aufrüsten.
deekey777
2007-02-20, 12:28:22
d) Um konkurrenzfähige zum mittlerweile älteren G80 zu sein, sprich, eine entsprechende Taktrate ohne externes Netzteil und Flüssigkühlung zu erreichen?
Die OEMs kriegen also langsamere "X2900XTX" mit externem Netzteil und Flüssigkühlung? :|
seahawk
2007-02-20, 12:34:48
Nein, sie kriegen die A13er, die es ohne externes Netzteil und Flüssigkühlung auf die Taktraten brachten. Wobei ich, dass erst glaube, wenn ich es sehe. (Also, dass unterschiedliche Revisonen verbaut sind).
Ich vermute eher, dass der Kühler der OEM einfach viel günstiger ist und so die Länge kompensiert.
Anarchy-HWLUXX
2007-02-20, 12:45:31
Der OEM Kühler ist viel größer, schwerer und sicherlich nicht billiger ... man kann ja auf den Pics die Heatpipes sehen und das ist sicherlich nicht wirklich billig.
seahawk
2007-02-20, 13:08:10
Aber nicht so aufwendig iwe ne Vapo Chill Micro
http://img168.imageshack.us/img168/4889/bigvcmschematicsyd8.jpg
Anarchy-HWLUXX
2007-02-20, 13:52:37
Aber nicht so aufwendig iwe ne Vapo Chill Micro
http://img168.imageshack.us/img168/4889/bigvcmschematicsyd8.jpg
Aufwendig und effektiv sind zwei verschiedene sachen ;) Nen Sonic Tower ist besser ...
robbitop
2007-02-20, 13:54:06
Ich sehe dass die mit einem normalen Kühlmedium arbeiten (R134a). Damit das Prinzip funktioniert, muss es neben dem Expansionsventil noch ein Kompressionsventil und natürlich einen Kompressor geben.
also gut, dann wollen wir mal spekulieren
8800GTS vs 8900GTS
wird die 8900GTS signifikant weniger Saft brauchen als die 8800GTS?
ich hab mir das ganze ja schonmal bei 7800GT vs 7900GS angeschaut, da ists ein etwa 15% geringerer Stromverbrauch, trotz höherer Taktraten:
400/1000MHz bei 57W vs 450/1320MHz bei 49W
seahawk
2007-02-20, 14:43:56
Welcher Chip soll die 8900 sein und wann soll der kommen ? Es gibt vermehrt Anzeichen, dass G80 bis in Q3/07 durchhalten muss.
Der oftmals spekulierte aber bisher unbestätigte 80nm Shrink könnte in etwa 10% bringen. Ein 65nm Refresh ist schwerer einzuschätzen, da die Änderungen tiefer gehen würden.
Ailuros
2007-02-20, 14:53:20
Welcher Chip soll die 8900 sein und wann soll der kommen ? Es gibt vermehrt Anzeichen, dass G80 bis in Q3/07 durchhalten muss.
Der oftmals spekulierte aber bisher unbestätigte 80nm Shrink könnte in etwa 10% bringen. Ein 65nm Refresh ist schwerer einzuschätzen, da die Änderungen tiefer gehen würden.
Ein 80nm shrink koennte auch mehr bringen, aber er wuerde den Unterschied zum wahren 65nm Refresh dann verkleinern. Ich war damals mit dem GTX512 Dingsda genauso verblufft, denn es machte als Schachzug von vorne und hinten keinen Sinn.
seahawk
2007-02-20, 14:59:50
Wobei so ein 80nm Shrink durchaus Sinn machen könnte, weil es die Notwendigkeit der Prozessstabilität für 65nm reduziert. Gleicheztig könnte man die Chips (bei gleichen Yields) günstiger fertigen. Emin gefühl sagt ja, dass NV an einem 80nm Shrink arbeitet, bzw. den fertig hat. Aber das ist echt nur Gefühl.
Ein 65nm Refresh ist schwerer einzuschätzen, da die Änderungen tiefer gehen würden.
Wenn man die Ankündigungen zu CUDA liest, so hört es sich danach an das der G90 wohl doch mehr als ein geshrinkter G80 ist, wobei man in dieser auch von Ende 2007 spricht. ;)
Ich frage mich was nV ausser dem G84 und G86 in den nächsten Monaten noch auf den Markt bringen wird?
Wenn man 80nm für HighEnd auslässt, wie es VR-Zone berichtet, sollte der G90 wohl noch im H1 sein Tape-Out haben.
Naja, vielleicht reicht ja wirklich ein "G80 auf Steroiden" aus um den R600 den Wind aus den Segeln zu nehmen.
Auch eine offene Frage ist: Wann kommen eigentlich endlich Quadro-Karten auf G80-Basis?
Wenn man die Ankündigungen zu CUDA liest, so hört es sich danach an das der G90 wohl doch mehr als ein geshrinkter G80 ist, wobei man in dieser auch von Ende 2007 spricht. ;)
Das war es:
>Q: Does CUDA support Double Precision Floating Point arithmetic?
>A: CUDA supports the C "double" data type. However on G80
> (e.g. GeForce 8800) GPUs, these types will get demoted to 32-bit
> floats. NVIDIA GPUs supporting double precision in hardware will
> become available in late 2007.
PCGH_Carsten
2007-02-20, 15:38:13
Die OEMs kriegen also langsamere "X2900XTX" mit externem Netzteil und Flüssigkühlung? :|
[ ] Ich mache mir einen Spaß daraus, möglichst abstruses Zeug in die Aussagen anderer Diskussionsteilnehmer zu interpretieren.
Henroldus
2007-02-20, 16:46:50
Wenn man 80nm für HighEnd auslässt, wie es VR-Zone berichtet, sollte der G90 wohl noch im H1 sein Tape-Out haben.
2007 werden wir sicher keine Highend-GPU in 65nm sehen.
intel und AMD bauen ihre CPUs mit nur halb sovielen Transistoren(wovon auch noch ein großteil einfacher cache ist) aktuell in 65nm.
ca 700mio logiktransen in 65nm? nicht vor 2008
vor allem weil die Auftragsfertiger in der Technolgie zumindest intel hinterherhängen
wat is?
ende des jahres wird das mit sicherheit möglich sein
wenn atis mainstream chips jetzt scho in 65nm kommen sind das noch mehr als 6monate
in der zeit schaffen die das locker
reunion
2007-02-20, 17:01:59
Wer hat Xenos eigentlich produziert? Und wieviele Transistoren hat NV40 noch gleich?
TSMC und 222M. Warum?
Wenn man 80nm für HighEnd auslässt, wie es VR-Zone berichtet, sollte der G90 wohl noch im H1 sein Tape-Out haben.
NV bringt mit Sicherheit wieder zuerst Lowend auf 65nm, und selbst das ist noch nicht mal in Sicht. Hier würde ich mir also nicht zu viel erwarten.
Henroldus
2007-02-20, 17:02:37
wat is?
ende des jahres wird das mit sicherheit möglich sein
wenn atis mainstream chips jetzt scho in 65nm kommen
wo gibts was von ATI in 65nm?
2900xtx ende märz
2900xt ende april
2600(mainstream) irgendwann danach
weißt du mehr als wir alle?
reunion
2007-02-20, 17:28:22
Ja, der Shadercore bei TSMC, und das eDRAM-Modul bei NEC.
http://www.beyond3d.com/articles/xenos/index.php?p=02
PCGH_Carsten
2007-02-20, 17:53:14
TSMC und 222M. Warum?
Darum: "Wann kam den Xenos? Dieser war mit ~220mio Transitoren auch nicht gerade klein."
Größe und Zeitpunkt sind - gerade unter Berücksichtigung, dass Ati hier IIRC nur die IP geliefert hat, eigentlich keine Anhaltspunkte für irgendetwas, das mit Prozesstechnik in Zusammenhang steht - zumindest nicht mit besonders gute Beherrschung eines bestimmten Prozesses.
Hvoralek
2007-02-20, 18:00:50
NV bringt mit Sicherheit wieder zuerst Lowend auf 65nm, und selbst das ist noch nicht mal in Sicht. Hier würde ich mir also nicht zu viel erwarten.Was ist mit G78? Iirc war mal die Rede von Produktionsbeginn im April.
wo gibts was von ATI in 65nm?
vll liest du posts auch mal!
ich sagte es kommen mainstreamprodukte von ati
und das vor juni, also hat ati gut ein jahr bis zu 65nm highend produkten
das hat in der vergangenheit auch immer gereicht
Henroldus
2007-02-20, 18:27:52
vll liest du posts auch mal!
ich sagte es kommen mainstreamprodukte von ati
und das vor juni, also hat ati gut ein jahr bis zu 65nm highend produkten
das hat in der vergangenheit auch immer gereicht
vielleicht meldest du dich erstmal an unfreundlicher gast?
juni plus ein jahr ist bei mir aber tief im jahr 2008.
mainstreamchips sind nur halb so groß und takten langsamer.
warten wir es ab, in einem monat sind alle schlauer.
anderer Gast
2007-02-20, 18:44:48
Man sollte nicht vergessen, das nV schon seit mindestens Oktober 2006 an 65nm arbeitet.
Das erste Ergebnis werden wir mit dem G78 sehr bald sehen.
Auch so soll der 65nm Prozess schon ziemlich gut laufen, wie man ja an ATi's komplexeren GPUs in 65nm sieht, die auch noch im H1 erscheinen.
Also sollte es kein Problem sein für nV im H2(vielleicht Herbst) entsprechende HighEnd-Produkte vorzustellen.
Vielleicht zielt man, wie mit dem G80, wieder auf das Weihnachtsgeschäft ab... ;)
reunion
2007-02-20, 18:57:59
Darum: "Wann kam den Xenos? Dieser war mit ~220mio Transitoren auch nicht gerade klein."
Größe und Zeitpunkt sind - gerade unter Berücksichtigung, dass Ati hier IIRC nur die IP geliefert hat, eigentlich keine Anhaltspunkte für irgendetwas, das mit Prozesstechnik in Zusammenhang steht - zumindest nicht mit besonders gute Beherrschung eines bestimmten Prozesses.
MS ist nie und nimmer in der Lage, eine Chip wie Xenos in einen nagelneuen Fertigungsprozess ohne jegliche Vorkenntnisse vom Design ausgehend über das Tapeout zur Massenfertigung zu bringen. Nicht ohne Grund gab Orton mehrmals die guten Erfahrungen von C1 mit 90nm als Grund an, auch bei R520 gleich auf 90nm zu gehen. Aber das ist eine andere Geschichte. Auch stellte sich ja später heraus, was ja nicht der Prozess selbst das Problem war.
Dass solche Vergleiche immer mit vorsicht zu genießen sind, ist mir schon klar. Nur zeigt es IMO, dass ein R520 Anfang 2005 nicht unrealistisch war.
Was ist mit G78? Iirc war mal die Rede von Produktionsbeginn im April.
G78 ist ein Fliegenschiss im Vergleich zu einen hypotetischen G90 in 65nm. Da kommt voher noch ein Midragechip in 65nm, AiL hat ja schon was von einem G92 im 2H angedeutet.
Da kommt voher noch ein Midragechip in 65nm, AiL hat ja schon was von einem G92 im 2H angedeutet.
Stellt sich die Frage was ein G92 ist?
Ich könnte mir vorstellen, dass es hier sich um einen G80 mit ein paar Veränderungen in 65nm handelt.
Der G90 wird wohl eher mit 512Bit SI daherkommen um mit ATi wieder gleich zu ziehen, was wiederrum entsprechende Einheitenzahlen bedeutet.
Wenn alles planmässig läuft, werden wir wohl in 2007 noch G9x sehen. ;)
Hvoralek
2007-02-20, 20:16:15
G78 ist ein Fliegenschiss im Vergleich zu einen hypotetischen G90 in 65nm. Da kommt voher noch ein Midragechip in 65nm, AiL hat ja schon was von einem G92 im 2H angedeutet.Natürlich. Allerdings würde ich zumindest im Low- End- Bereich schon davon sprechen, dass 65 nm "in Sicht" sei. Wenn man im April tatsächlich soweit ist, halte ich
im Herbst High- End in 65nm für nicht unrealistisch. 6-7 Monate sind in der Branche viel Zeit.
Imo wirft die aktuelle Spekulation, dass NV den G80 in 90nm belassen will und erst im H2 G9x in 65nm umsteigen will, nicht unbedingt das beste Licht auf den R600. ;)
Die 80nm Yields sollten doch gut genug sein für einen G80 Shrink?
Aber vielleicht täuscht uns NV wieder, wie mit den G80 Specs...
Die "Urgent orders" 80nm G80 sind vielleicht doch Realität und eine 8900GTX (geschätzt 650/1500/1200MHz) wird dem R600 bald gegenüberstehen.
Ailuros
2007-02-21, 07:38:36
Darum: "Wann kam den Xenos? Dieser war mit ~220mio Transitoren auch nicht gerade klein."
Größe und Zeitpunkt sind - gerade unter Berücksichtigung, dass Ati hier IIRC nur die IP geliefert hat, eigentlich keine Anhaltspunkte für irgendetwas, das mit Prozesstechnik in Zusammenhang steht - zumindest nicht mit besonders gute Beherrschung eines bestimmten Prozesses.
Sowohl RSX als auch Xenos wurden in der finalen Version um 50MHz niedriger getaktet.
Ailuros
2007-02-21, 07:42:39
Imo wirft die aktuelle Spekulation, dass NV den G80 in 90nm belassen will und erst im H2 G9x in 65nm umsteigen will, nicht unbedingt das beste Licht auf den R600. ;)
Was aber auch heissen kann dass ATI/AMD alle an der Nase herumgefuehrt haben und NV sich zu gelassen zeigt und sich auf ihren "Lorbeeren" ausstreckt.
Die "Urgent orders" 80nm G80 sind vielleicht doch Realität und eine 8900GTX (geschätzt 650/1500/1200MHz) wird dem R600 bald gegenüberstehen.
Der newsblurb sprach aber nie von spezifischen SKUs und da G86/4 auf 80nm sein werden, heisst das nicht unbedingt dass es einen "G81"@80nm geben wird. Moeglich ist es schon, garantiert ist nur bis jetzt nichts.
Was aber auch heissen kann dass ATI/AMD alle an der Nase herumgefuehrt haben und NV sich zu gelassen zeigt und sich auf ihren "Lorbeeren" ausstreckt.
In anbetracht der aktuellen Architektur mit ihren Eckdaten und Möglichkeiten und den wirtschaftlichen Erfolgen in der Vergangenheit, kann man diese Verhalten durchaus nachvollziehen.
Ein R600, der von seiner Architektur deutlich besser ist, wäre imo eher ein technisches Wunder, an welches ich momentan nicht glaube und wohl wahrscheinlich auch NV nicht.
Der jüngerer Fertigungsprozess(80nm) mit seinen Taktvorteilen und eben die hohe Bandbreite durch das 512-Bit-SI + GDDR4 sind imo die Faktoren, welche dem R600 seine benötigte Mehrleistung geben.
Aber eben alles Dinge die für NV greifbar sind, wenn sie denn den Bedarf danach haben.
btw.
Kann man eigentlich Tape-Outs geheimhalten bzw. hat schon jemand bei einer aktuellen GeForce8800 unter den HS geschaut? ;)
DirectX 10, sub-$100 graphics cards take shape
RV610, Radeon X2300xx vs G86 Geforce 8300
http://www.theinquirer.net/default.aspx?article=37744
GeForce8300-Series(G86):
-80nm
-128Bit(64Bit)
-122mm²
-Launch: Mai
Ein ganz schöner Brocken, wenn man dagegen einen G73-B1 mit 100mm² sieht, aber das wird sich wohl durch die Leistung wieder relativieren. ;)
GeForce8300-Series(G86):
-80nm
-128Bit(64Bit)
-122mm²
-Launch: Mai
Ups, das galt für den RV610...
Winter[Raven]
2007-02-21, 11:59:38
@ Lieben gast,
Glaubst du den OEM Herstellern kommt es auf die Leistung an oder ehe auf den Preis?
Grakas like 8300 kommen in die Officerechner, da will keiner Crysis spielen.
Für die Office-Rechner wo Grafik-"Leistung" irrelevant ist, gibt es ja noch IGPs bzw. den G78... ;)
Die GF8300 wird imo sicherlich, wieder bei besagen Elektronikmärkten in den Prospekten als "Next-Generation-Hochgeschwindigkeits- DX10-Grafikkarte" angeboten.
Imo wird die GF8300 je nach Modell sicherlich über 7600GS/GT liegen.
Laut B3D-Staff scheint bei den kleinen G8x-GPUs NVIO in der GPU zu sitzen:
Yes, only Gx0 and Gx2 have an external NVIO afaik. Please note that adding IO functionality adds 10-15mm2 to the die size, not 50. NVIO is, amusingly enough, IO limited; the chip has to be big enough (=> I/O pins) to be able to connect fast enough to the outside world.
http://www.beyond3d.com/forum/showpost.php?p=933002&postcount=41
Das könnte bedeuten, dass hier wohl die Shaderdomain nicht ganz so hoch getaktet ist?
Paul Brain
2007-02-21, 15:13:48
Ist eigentlich angesichts der Verzögerung von ATi's R600 mit einer ebensolchen bei der 8900 zu rechnen? Immerhin ist ja nichtmal noch sicher, daß nV überhaupt einen Konter braucht, wenn R600 dann irgendwann mal erscheint... :tongue:
Anarchy-HWLUXX
2007-02-21, 18:21:09
Ist eigentlich angesichts der Verzögerung von ATi's R600 mit einer ebensolchen bei der 8900 zu rechnen? Immerhin ist ja nichtmal noch sicher, daß nV überhaupt einen Konter braucht, wenn R600 dann irgendwann mal erscheint... :tongue:
Was für eine Verzögerung ? nV hat nichts angekündigt also kann sich auch nichts verspäten :p
Und nV arbeitet garantiert am nachfolger ... das ATi das Produkt nicht fertigbekommt kann nV nur recht sein - braucht es eben keinen Seitenhieb a la 7800GTX 512MB ...
Die gelbe Eule
2007-02-21, 19:01:05
Laut B3D-Staff scheint bei den kleinen G8x-GPUs NVIO in der GPU zu sitzen:
http://www.beyond3d.com/forum/showpost.php?p=933002&postcount=41
Das könnte bedeuten, dass hier wohl die Shaderdomain nicht ganz so hoch getaktet ist?
Weil? In 80nm hat man eh mehr Platz, da Transistoren halt kleiner. Schon wird der Die genauso groß sein mit NVIO.
Weil? In 80nm hat man eh mehr Platz, da Transistoren halt kleiner. Schon wird der Die genauso groß sein mit NVIO.
Der Grund warum man beim G80 den NVIO einsetzt ist nicht jener, dass man den Die kleiner bekommen wollte. ;)
Wie schon oft erwähnt ist das eigentlich Probleme, der hohe Takt der Shaderdomain, der den RAMDAC stören würde.
Das man bei den kleineren Modellen NVIO wieder intergriert, war abzusehen, da wohl die Packagekosten und der Aufwand für das PCB nicht unerheblich sind.
Nur ist die alles entscheidente Frage, welche Auswirkungen es haben könnte:
a) Keine, da die Störung durch die geringe Zahl an ALUs nicht so stark ist
oder
b) Damit der integrierte NVIO problemlos funktioniert, ist der Shaderclock bei G84/G86 im Verhältnis zum G80 geringer (<1GHz).
Ailuros
2007-02-22, 06:21:37
1350-400 = 950
900-400 = 500
Bei G86/84 wurde auch ein bisschen umgeschaufelt afaik dank 80nm; deshalb gibt es auch zur gleichen Zeit G86M/84M.
1350-400 = 950
900-400 = 500
Hmm...
G84: 64*3*0.95 -> 182GFLOPs
G86: 32*3*0.5 -> 48GFLOPs
Wenn man sieht, was der G80 aktuell mit seiner Shaderleistung von 345GFLOPs erreichen kann, sollte diese Leistungsdaten ja ausreichen, wenn man zudem wohl auch vielleicht noch Ende 2007 G94(256Bit) und G96 bringt.
Ailuros
2007-02-22, 09:20:38
Hmm...
G84: 64*3*0.95 -> 182GFLOPs
G86: 32*3*0.5 -> 48GFLOPs
G86 ist midrange und G84 low end. Die GFLOP Zahlen stimmen auch nicht, ist aber nebensaechlich momentan.
Wenn man sieht, was der G80 aktuell mit seiner Shaderleistung von 345GFLOPs erreichen kann, sollte diese Leistungsdaten ja ausreichen, wenn man zudem wohl auch vielleicht noch Ende 2007 G94(256Bit) und G96 bringt.
Man koennte SF auf G80 auch noch mitzaehlen dann sind es schon 3 FLOPs per ALU/Takt. Wird jetzt in zukuenftigen Treibern noch der MUL fuer general shading endlich gebraucht ist ein theoretisches Maximum von 4 FLOPs. Fuer G9x erwarte ich persoenlich eher dual-issue MADD.
AnarchX
2007-02-22, 09:45:06
G86 ist midrange und G84 low end.
Bist du dir da wirklich sicher? :|
Immerhin wurde es in letzter Zeit aber anders berichtet(z.B. hier (http://www.theinquirer.net/default.aspx?article=37744)) und auch so scheint mir NV ein Bezeichnungschema folgender Art wohl in Zukunft zu verfolgen:
Gx0(HighEnd) -> Gx2(LowerHighEnd/UpperMidrange) -> Gx4(Midrange) -> Gx6(LowEnd) -> Gx8(LowestEnd, siehe G78)
Man koennte SF auf G80 auch noch mitzaehlen dann sind es schon 3 FLOPs per ALU/Takt. Wird jetzt in zukuenftigen Treibern noch der MUL fuer general shading endlich gebraucht ist ein theoretisches Maximum von 4 FLOPs.
Das wäre ja dann schon 691GFLOP und mit einem Shaderdomain-OC auf 1.5GHz wäre man schon bei 768GFLOPs, aber diese Werte sind wohl wie du schon sagtest eher sehr theoretisch?
Was würdest du als praktisches Maximum ansehen, was man so im Durchschnitt in Realworld-Anwendungen erhalten würde?
Ailuros
2007-02-22, 09:56:52
Bist du dir da wirklich sicher? :|
Immerhin wurde es in letzter Zeit aber anders berichtet(z.B. hier (http://www.theinquirer.net/default.aspx?article=37744)) und auch so scheint mir NV ein Bezeichnungschema folgender Art wohl in Zukunft zu verfolgen:
Gx0(HighEnd) -> Gx2(LowerHighEnd/UpperMidrange) -> Gx4(Midrange) -> Gx6(LowEnd) -> Gx8(LowestEnd, siehe G78)
Hmmm ich will ja nicht darauf bestehen, aber G73= midrange, G72= low-end; es gibt keine absolute "Regeln" bei den codenamen bis jetzt.
Das wäre ja dann schon 691GFLOP und mit einem Shaderdomain-OC auf 1.5GHz wäre man schon bei 768GFLOPs, aber diese Werte sind wohl wie du schon sagtest eher sehr theoretisch?
Kann man in Echtzeit die 250 GFLOPs der PS/G71 oder die 374 GFLOPs der PS/R580 auch voll ausnutzen? Und ich mein jetzt nicht ausgekapselte synthetische Tests sondern eher volle Spiele wo Texturing und weiss der Geier was noch mitspielt.
Es gab ja in der Vergangenheit endlose Debatten wie nutzvoll bzw. nutzlos theoretische GFLOP Zahlen wirklich sind.
Was würdest du als praktisches Maximum ansehen, was man so im Durchschnitt in Realworld-Anwendungen erhalten würde?
Eine solche Antwort koennte wohl eher ein Profi bzw. Entwickler mit den entsprechenden Werkzeugen beantworten. Ich wage aber zu behaupten dass der GFLOP-Throughput um =/>2x mal hoeher ist als bei G71 und kann sich mit intensiven texture OPs vielleicht noch mehr steigern. Das Ganze natuerlich nur fuer die PS. Was die Geometrie bzw. VS Perspektive betrifft ist jegliche non-unified GPU gnadenlos unterlegen, bis eben zum Punkt wo die Triangle-Setup-Grenze des G80 erlaubt.
robbitop
2007-02-22, 10:04:29
Man koennte SF auf G80 auch noch mitzaehlen dann sind es schon 3 FLOPs per ALU/Takt.
Nanana! Damit wollen wir gar nicht erst anfangen! ;)
Jede ALU auf ihre SFs zu differenzieren wird echt ätzend, besonders da dann die Aussage der FLOPs immer sinnfreier wird.
Ailuros
2007-02-22, 10:25:22
Nanana! Damit wollen wir gar nicht erst anfangen! ;)
Jede ALU auf ihre SFs zu differenzieren wird echt ätzend, besonders da dann die Aussage der FLOPs immer sinnfreier wird.
Wenn die laecherliche GFLOP-Schlacht zwischen den Beiden IHVs erstmal loslegt werden wir dann ja sehen was realistisch und was genau laecherlich ist.
Eine durchaus realistische (laienhafte) generelle Einschaetzung des G80 kannst Du in meinem vorigen Post lesen.
robbitop
2007-02-22, 11:25:49
Ich bin sowieso dafür, dass man nur noch MADs zählt. Wenn man einzelne ADDs und MULs hinzuzählt, kann ich damit gerade noch leben. :)
Naja wir sollten die Marketing-Zahlen sowieso ignorieren und uns selbst ein Bild machen, oder wie siehst du das?
Ailuros
2007-02-22, 11:46:03
Ich bin sowieso dafür, dass man nur noch MADs zählt. Wenn man einzelne ADDs und MULs hinzuzählt, kann ich damit gerade noch leben. :)
Du kommst aber auch so nicht auf zuverlaessige Resultate. Nimm die 250GFLOPs/MADD Rate eines G71, rechne ein Prozentual fuer texture OPs ab und vegleiche mit der 346GFLOPs/MADD Rate eines G80 und sag mir ob doch nicht noch etwas fehlt.
Wie waere es mit ca. 18% Unterschied beim direkten Konkurrenten minus die Effizienz-Unterschiede der ALUs? Dass das Ganze in einem endlosen Labyrinth fuehrt sollte klar sein.
Naja wir sollten die Marketing-Zahlen sowieso ignorieren und uns selbst ein Bild machen, oder wie siehst du das?
Theorie ist und bleibt Theorie; hingegen gibt es genug Spiele das eine oder andere zu vergleichen.
Anarchy-HWLUXX
2007-02-22, 14:17:02
http://uk.theinquirer.net/?article=37790
DX10 goes AGP
-> G84 für AGP angeblich im Aprill ?
Wenn das so weitergeht überlebt AGP wohl noch PCIe... X-D
Aber wenn es gewinnversprechend ist, warum nicht. ;)
mapel110
2007-02-22, 14:18:54
http://uk.theinquirer.net/?article=37790
DX10 goes AGP
-> G84 für AGP angeblich im Aprill ?
hehe, und die Entwickler werden jetzt sagen "oh no" ^^
Hätten sie doch beim Vorfinden einer DX10-Karte PCIe vorraussetzen können. ;(
Aber sowas war auch zu erwarten. PCI wurde auch noch lange mitgeschleppt.
nVIDIA hat eigentlich angekündigt keine D3D10-Karten für AGP zu bringen. Und Inq halt...
superdash
2007-02-22, 14:53:57
Das mit AGP ist relativ einfach erklärt: Warum sollte ein Hersteller wie NV einen Markt nicht beliefern, der für sie einfach zu erreichen ist. So lange es gewinnbringend ist, wird es weiter AGP Karten zu kaufen geben. Und von der Geschwindigkeit her gibts zu PCIe bei heutigen Grakas auch kaum unterschiede. Also warum nicht?
Also warum nicht?
Nunja wie schon erwähnt, müssen die Entwickler nun auch bei D3D10 noch auf den langsamen Rückkanal von AGP Rücksicht nehmen.
Die gelbe Eule
2007-02-22, 15:07:49
Das mit AGP ist doch nur ein Seitenhieb auf ATi. ATi kann nichtmal PCI-E liefern und NV wird zu dem Zeitpunkt sämtliche Segmente abdecken können.
Anarchy-HWLUXX
2007-02-22, 15:25:02
http://uk.theinquirer.net/?article=37791
Nvidia prepares to shrink G80 to make a G90
Sthet eigentlich nix dolles drin, ist klar das der G80 geshrinked werden muss für die nächste Variante aber ob es nun 80 oder 65 nm werden ist alles andere als klar ...
Ob es einen G81 geben wird ist nun auch fraglicher als vorher - direkt nen sprung auf G90 in H2/07 ist im bereich des möglichen ...
Ein direkter sprung zum G90 wäre dann wie bei der 6800er -> 7800er Serie *hmm*
Diese Entwicklung war ja doch schon uns länger bekannt... ;)
"Ein direkter sprung zum G90 wäre dann wie bei der 6800er -> 7800er Serie *hmm*"
Wenn man in Betracht zieht, dass der G80 wohl doch etwas eher kommen sollte und der 65nm Prozess wohl gute Fortschritte macht, ist dies die logische Konsequenz.
der_roadrunner
2007-02-22, 15:38:47
Kann es sein, dass ATI bei der Entwicklung von Nvidia ein bisl ins Hintertreffen gerät?
der roadrunner
Warum schreibt Fuad eigentlich immer von "512 .Mbit"-Speichercontrollern? Das ist mir jetzt schon desöfteren aufgefallen. Steckt da wieder irgendwelcher Inquirer-Slang dahinter?
Anarchy-HWLUXX
2007-02-22, 16:00:45
Kann es sein, dass ATI bei der Entwicklung von Nvidia ein bisl ins Hintertreffen gerät?
der roadrunner
*a ganz klein bissi* ;)
Wenn ATi nun den Launch erst im Aprill macht (Q2 eben) hat nV die G80 sch seit geschlagenen 4,5 Monaten am Markt - wenn der R600 nun ~25% mehr power hat als die GTX ( ATi muss einfach schneller sein :eek: ) muss man mal schaun was nV für optionen hat. 80nm ermöglicht weder viel höhere taktraten noch bringt es so viel ein das man die zahl der Shader erhöhen könnte - ich denke mal das der nächste chip auf jeden fall in 65nm kommen wird.
Mögliche szenarien :
1. Nen direkter umstieg auf 65nm ist kaum vorstellbar im Q2, mich würd es überraschen komplexere designs (500m+ Transis) in 65nm zu sehen ...
2. Eine G80 in 80nm ohne neuen Namen sondern einfach ne neue Revisionsnummer da optischer Shrink + Höhere Taktraten + GDDR4 um ATi nicht bis zum 65nm Chip das Feld zu überlassen. Das verkleinert die Lücke zum R600, möglicherweise leigen se dann auch ca. gleichauf.
3. Wie bei 2. nur eben Selektierte GPUs statt Shrink für nen neues Topmodell das im PR-Bench Wettstreit gegen die R600 antritt.
4. Preiskampf bis zum 65nm Chip.
5. nV Zaubert mal wieder und bekommt bei gleichbleibender Transi Zahl mehr Shader drauf (G71 like) und es gibt doch eine G81 - kann man ja nicht komplett ausschließen.
Argh - zuviele möglichkeiten ... *wart*
seahawk
2007-02-22, 17:21:50
Es gäbe noch was viel fieseres von NV als eine 8900.
Richtig fies wäre eine 80nm 256bit 8700er Karte die durch höhere Takte und schnelleren Speicher die Leistung einer 8800GTS erreicht und für den Preis der 8800GTS 320MB mit 512MB über den Ladentisch geht.
PCGH_Carsten
2007-02-22, 17:31:12
nVIDIA hat eigentlich angekündigt keine D3D10-Karten für AGP zu bringen. Und Inq halt...
Genauer gesagt, hat Nvidia verkündet, der G80 sei nicht kompatibel zum HSI-Chip.
Die gelbe Eule
2007-02-22, 17:37:24
Vielleicht hat man einen anderen entworfen, der nur geringe Anpassungen erforderte. Aber es kann auch sein das morgen früh wieder alles dementiert wird.
superdash
2007-02-22, 17:46:56
Nunja wie schon erwähnt, müssen die Entwickler nun auch bei D3D10 noch auf den langsamen Rückkanal von AGP Rücksicht nehmen.
Müssen sie absolut nicht. Dann ist die Graka-anbindung eben irgendwann zu langsam. NV kann das aber egal sein, so lange die Karten gekauft werden.
maddawn
2007-02-22, 22:04:10
edit: ok hier stand nur altbekanntes
auf jeden Fall werden sich nee Menge Leute freuen die noch ein AGP-System besitzen wenn wirklich GF 8 Abkömmlinge für AGP erscheinen
Es gäbe noch was viel fieseres von NV als eine 8900.
Richtig fies wäre eine 80nm 256bit 8700er Karte die durch höhere Takte und schnelleren Speicher die Leistung einer 8800GTS erreicht und für den Preis der 8800GTS 320MB mit 512MB über den Ladentisch geht.
dann wäre der 8800gts mit 320mb dennoch attraktiver (ausgenommen DAUs)...da er in shaderlastigen spielen vorteile hätte!
der 8700 muss zwangsläufig billiger sein.
seahawk
2007-02-23, 06:59:04
dann wäre der 8800gts mit 320mb dennoch attraktiver (ausgenommen DAUs)...da er in shaderlastigen spielen vorteile hätte!
der 8700 muss zwangsläufig billiger sein.
Das wäre eine interessante Frage, aber NV hätte mit so einer Karte sicherlich preislich mehr Spielraum. (Man stelle sich Pinkompatibilität zum G71 vor)
(Man stelle sich Pinkompatibilität zum G71 vor)
Das ist mehr als unrealistisch.
seahawk
2007-02-23, 10:06:47
So unrealistisch wie die Pnkompatibilität von 8300/8600 zu ihren Vorgängern ?
Genauer gesagt, hat Nvidia verkündet, der G80 sei nicht kompatibel zum HSI-Chip.Da würde mich interessieren, wie sie das hingekriegt haben.
Winter[Raven]
2007-02-23, 10:32:46
@ Seahawk
LOL, das heißt, die Grakahersteller müssten das gesamte PCB nicht neudesignen, damit bleiben die Kosten klein...
Aber eine 8700 wäre schon eine überlegung wert, und ich mein wenn du schon auf so eine Idee kommst, warum nicht auch nicht Nvidia?
Oder soll das ne "hint" gewesen sein?
Da würde mich interessieren, wie sie das hingekriegt haben.
Das der G80 nicht kompatibel ist, muss ja nicht für G86 und G84 das gleiche bedeuten.
Es könnte ja wieder etwas mit dem störenden Einfluss der Shaderdomain zu tun haben, die bei oben genannten wohl doch nicht ganz so hoch getaktet sein wird.
;5275909']@ Seahawk
LOL, das heißt, die Grakahersteller müssten das gesamte PCB nicht neudesignen, damit bleiben die Kosten klein...
Die Grakahersteller designen die PCBs ohnehin schon lange nicht mehr selbst.
Die Grakahersteller designen die PCBs ohnehin schon lange nicht mehr selbst.
Und wer sonst?
Alles ausser dem Referenz-PCB sollte schon von den Herstellern kommen.
Und wer sonst?
Alles ausser dem Referenz-PCB sollte schon von den Herstellern kommen.
Tja, und 99.9% verwenden auch das Referenz-PCB. Ist einfach billiger. Maximal der Kühler wird noch getauscht.
seahawk
2007-02-23, 10:57:16
Da würde mich interessieren, wie sie das hingekriegt haben.
Evtl durch den NVIO ?
Da würde mich interessieren, wie sie das hingekriegt haben.
Ich würde vermuten genauso wie sie es hingekriegt haben keine PCI-Express Zertifizierung zu bekommen. Und genauso wie sie es geschafft haben inkompatibel zu manchen Boards zu sein...
Paul Brain
2007-02-23, 11:01:51
Ich würde vermuten genauso wie sie es hingekriegt haben keine PCI-Express Zertifizierung zu bekommen.Huh? Und aus welchem Grund nicht? Dann dürften sie ja nichtmal das Logo auf die Verpackung drucken...
Anarchy-HWLUXX
2007-02-23, 11:10:49
Tja, und 99.9% verwenden auch das Referenz-PCB. Ist einfach billiger. Maximal der Kühler wird noch getauscht.
Die billigsten 7900GS kommen von Palit und haben ein custom PCB ;)
Huh? Und aus welchem Grund nicht? Dann dürften sie ja nichtmal das Logo auf die Verpackung drucken...
Soweit ich das mitbekommen hab gibt es probs wenn keine 16 lanes am PEG benutzt werden :| Bin mir aba nicht ganz sicha ...
Die billigsten 7900GS kommen von Palit und haben ein custom PCB ;)
Gleiches gilt auch für die X1950GT, Custom-PCBs gibt es doch recht häufig, da man hier wohl doch noch etwas einsparen kann gegenüber der Referenz.
Anarchy-HWLUXX
2007-02-23, 11:15:00
Gleiches gilt auch für die X1950GT, Custom-PCBs gibt es doch recht häufig, da man hier wohl doch noch etwas einsparen kann gegenüber der Referenz.
ALso ist scho nen unterschied ob es nur ne andere Farbe ist oder nen komplette Redesign - die Palit haben ja keine RAMs im 45° winkel sondern eine L-Anordnung und ne etwas altbackenere Stromversorgung.
Ausser Palit/Gainward/Xpertvision (alles das gleiche) hat kein Hersteller am Referenzdesign vom PCB rumgebastelt soweit ich weiss.
Ausser Palit/Gainward/Xpertvision (alles das gleiche) hat kein Hersteller am Referenzdesign vom PCB rumgebastelt soweit ich weiss.
GeCube jedenfalls bei ihrer X1950Pro.
Wird aber wohl etwas auf die Größe des Herstellers ankommen, ob man sich halt solche Eigenentwicklungen leisten kann.
Da würde mich interessieren, wie sie das hingekriegt haben.
Gar nicht, das ist ja auch nur eine Behauptung.
Der HSI brückt zwei standardisierte Interfaces, also funktioniert er mit jedem PCIe Chip.
Thowe
2007-02-23, 11:47:29
Und wer sonst?
Alles ausser dem Referenz-PCB sollte schon von den Herstellern kommen.
Die meisten "Hersteller" kaufen die PCBs (z.B. bei http://www.topsearch.com.hk) und bestücken sie schlicht weg in ihren Fertigungsstrecken. Nicht mal jeder Hersteller hat sowas, weswegen viele Karten anderer "Hersteller" schlicht weg bei MSI oder ASUS entstehen.
Endorphine
2007-02-23, 12:25:57
Da würde mich interessieren, wie sie das hingekriegt haben. NV wird nicht wie hier behauptet gesagt haben "es funktioniert nicht mehr", sondern sie werden sagen "wird nicht unterstützt". Es lohnt sich einfach nicht mehr.
Je schneller und gründlicher AGP vom Markt verschwindet, desto besser.
Thowe
2007-02-23, 12:52:36
Je schneller und gründlicher AGP vom Markt verschwindet, desto besser.
Kann man gar nicht dick genug herausstellen. Somal ein Mainboard mit PCIe Steckplatz nicht die Welt kostet und spätestens mit ASrock gibt es das fast für jede einigermaßen brauchbare CPU und wer so alte Hardware wie einen Athlon XP o.Ä. hat, der tut eh gut daran gleich alles in die Recycling-Box zu drücken oder auf ebay zu setzen.
PCGH_Carsten
2007-02-23, 13:08:32
NV wird nicht wie hier behauptet gesagt haben "es funktioniert nicht mehr", ...
Doch, genau das haben sie gesagt.
deekey777
2007-02-23, 13:58:35
http://uk.theinquirer.net/?article=37790
DX10 goes AGP
-> G84 für AGP angeblich im Aprill ?
Ich weiß nicht, was schlimmer ist: dass der G84 für AGP erscheint oder die News und Schlussfolgerungen der CB?
nVidia plant angeblich DirectX 10 für AGP (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/februar/nvidia_directx_10_agp/)
Rein leistungstechnisch könnte sich der AGP-Chip G84 wahrscheinlich am PCI-Express-Chip G83 orientieren, der die neue Mainstream-Mitte der Generation „DirectX 10“ bilden soll. So wird dieser Chip nach aktuellen Informationen wahrscheinlich über 48 Shader-Einheiten verfügen und mit circa 350MHz getaktet werden. Als Speicher sind derzeit 128 oder 256 Megabyte im Gespräch, die über ein 256 Bit breites Interface an den Chip angebunden werden.
G83 also... Egal.
DailyTech hat schon vor einigen Wochen geschrieben, dass der G84 mit G73 und NV43 (NV40 war wohl ein Verschreiber) pinkompatibel ist. Da der G84 mit einem 128-bit-SI kommen soll und über kein NVIO verfügen wird, braucht man nur das PCB der 7600GT zu verwenden (mit einigen Tweaks).
Laut Fuad, der nun seine eigene Seite hat, erreicht der G86(GF8300) im 3DMark06 2500 Punkte:
G86, Geforce 8300 daje 2500 u 3Dmark-u 06
http://www.itx.ba/index.php?option=com_content&task=view&id=88&Itemid=1
Thowe
2007-02-23, 14:57:33
Doch, genau das haben sie gesagt.
Rein technisch, sprich in der Art wie ein Bridge Baustein funktioniert sollte die Aussage de facto unsinnig sein. Vorstellen könnte ich mir jedoch, dass sie keine Lust haben der Adressat für negative Kritik zu werden, wenn es Instabilitäten, schlechte Performance o.Ä. gibt. Das halte ich dann für wahrscheinlicher und kann mir lebhaft vorstellen, dass NV hier den möglichen Kartenherstellern mit Nachdruck nahelegen wird, die Finger von solchen Versuchen zu lassen. In dem Fall ist die Aussagen "geht nicht" die Beste die man treffen kann.
PCGH_Carsten
2007-02-23, 16:20:27
Rein technisch, sprich in der Art wie ein Bridge Baustein funktioniert sollte die Aussage de facto unsinnig sein. Vorstellen könnte ich mir jedoch, dass sie keine Lust haben der Adressat für negative Kritik zu werden, wenn es Instabilitäten, schlechte Performance o.Ä. gibt. Das halte ich dann für wahrscheinlicher und kann mir lebhaft vorstellen, dass NV hier den möglichen Kartenherstellern mit Nachdruck nahelegen wird, die Finger von solchen Versuchen zu lassen. In dem Fall ist die Aussagen "geht nicht" die Beste die man treffen kann.
Ich vermute mal, dass HSI nur einen Empfänger bedienen kann - aber woher soll das Ding wissen, ob er nun mit NVIO oder G80 kommunizieren soll?
Auch ein G8x (mit oder ohne NVIO) hat nur ein einziges PCI-Interface und an das kommt der Brückenchip.
StefanV
2007-02-23, 16:45:28
Da würde mich interessieren, wie sie das hingekriegt haben.
z.B. in dem sie dem Treiber die Unterstützung für HSI und 8800 entzogen haben...
Ist ja auch egal, hauptsache es kommt keine SM4 Karte für AGP...
Da würde mich interessieren, wie sie das hingekriegt haben.
VRAM-Virtualisierung.
Ist ja auch egal, hauptsache es kommt keine SM4 Karte für AGP...
wieso nur weils beim G80 nicht klappt(klappen soll) heisst es nciht das es für alle chips so sein muss
wieso nur weils beim G80 nicht klappt(klappen soll) heisst es nciht das es für alle chips so sein mussWäre aber von Vorteil. Wenn D3D10-Karten für AGP kommen, dürfen wir noch Ewigkeiten unter den Schwächen des AG-Port leiden.
Anarchy-HWLUXX
2007-02-23, 18:11:51
Wer sagt denn das die Entwickelr rücksicht nehmen werden auf diese karten ? Glaub ich eher weniger ...
Wäre aber von Vorteil. Wenn D3D10-Karten für AGP kommen, dürfen wir noch Ewigkeiten unter den Schwächen des AG-Port leiden.
erläutere mal etwas
ich wüsste nicht wo eine beachtung beider ports nachteile hätte(zumal agp ja nur sporadisch bedient wird)
MadManniMan
2007-02-24, 08:16:55
erläutere mal etwas
ich wüsste nicht wo eine beachtung beider ports nachteile hätte(zumal agp ja nur sporadisch bedient wird)
Gleich kommt wieder sowas, wie "Weil die Entwickler dann intensiv Gebrauch vom Rückkanal machen" :|
Gleich kommt wieder sowas, wie "Weil die Entwickler dann intensiv Gebrauch vom Rückkanal machen" :|Richtig. Mit D3D10 lassen sich da bestimmt interessante Dinge machen. Nur wenn es D3D10-Karten für AGP gibt, können die Entwickler die höhere Bandbreite und den Rückkanal nicht nutzen, weil ihr Spiel sonst auf AGP-Systemen nicht vernünftig laufen würden, was sich kaum ein Entwickler leisten kann.
MadManniMan
2007-02-24, 10:27:17
Richtig. Mit D3D10 lassen sich da bestimmt interessante Dinge machen. Nur wenn es D3D10-Karten für AGP gibt, können die Entwickler die höhere Bandbreite und den Rückkanal nicht nutzen, weil ihr Spiel sonst auf AGP-Systemen nicht vernünftig laufen würden, was sich kaum ein Entwickler leisten kann.
Ich verstehe, daß ich mit dieser Aussage selbst die Möglichkeiten einschränken würde, aber mir fällt es schwer, greifbare Anwendungsgebiete zu erkennen - worin bestünden diese?
Hallo,
wann kommt endlich eine AGp grafikkarte auf basis von G80 Gpu??
gruss
Konami
2007-02-24, 21:44:44
Hallo,
wann kommt endlich eine AGp grafikkarte auf basis von G80 Gpu??
gruss
Wahrscheinlich mit G84 im April. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5276462&postcount=893)
Super, dachte schon, dass ich gezwungen werde auf das dumme PCIe zu wechseln.
robbitop
2007-02-25, 21:37:21
Ich verstehe, daß ich mit dieser Aussage selbst die Möglichkeiten einschränken würde, aber mir fällt es schwer, greifbare Anwendungsgebiete zu erkennen - worin bestünden diese?
Fuesiek ;) (Physik)
MadManniMan
2007-02-26, 08:07:44
Fuesiek ;) (Physik)
Warum brauchts dafür nen schnellen Rückkanal?
Warum brauchts dafür nen schnellen Rückkanal?
Weil die Ergebnisse von der CPU verarbeitet werden.
Für das bisschen an Daten die da anfallen ist AGP schnell genug.
2B-Maverick
2007-02-26, 17:29:32
Super, dachte schon, dass ich gezwungen werde auf das dumme PCIe zu wechseln.
nur ob DIE Karte dann schneller ist als ne X1950XT AGP ist sehr fraglich.
robbitop
2007-02-26, 18:11:41
Für das bisschen an Daten die da anfallen ist AGP schnell genug.
Sagst du so. Vor allem die Latenz ist bei Physik sehr kritisch. Gerade hier ist der AGP Rueckkanal nicht sonderlich toll.
Macht nix, gibt sicher Leute die ihren Barton mit Vista foltern wollen, die Kaufen sich dann auch ne G84 512MB (weil viel hilft viel, hrhr) und fragen sich was da so langsam ist mit 512MB SysRam...
Hauptsache Karten an den Mann gebracht, das ist Marketing.
Gibt es zur Latenz der Rückkanäle Messungen oder Herstellerangaben?
robbitop
2007-02-27, 00:19:01
Gibt es zur Latenz der Rückkanäle Messungen oder Herstellerangaben?
Schicke Demirug mal eine PN. Der hat das glaube ich mal nachgemessen. Gibt aber auch Entwickleraussagen dazu.
AnarchX
2007-02-27, 18:43:14
[No AGP For GeForce 8 Series]
According to our sources, there will not be any AGP versions for GeForce 8 series because simply it can't support. Therefore all DX10 G80, G84 and G86 cards will be PCI Express based.
http://www.vr-zone.com/index.php?i=4704
Gut so...
Ansonsten hat VR-Zone noch ein paar weitere Infos:
-G84GTS (G84-300) und G84GT (G84-400), Launch im April
-(G86-300) -> 128Bit, sonst alle G86-Modelle -> 64Bit; Launch im Mai
Gaestle
2007-02-28, 11:05:37
... because simply it can't support ...
Naja, es gibt ja noch die Brücke (die bei ATi Rialto heißt) ....
robbitop
2007-02-28, 12:02:39
HSI heisst die bei NV.
AnarchX
2007-02-28, 12:10:37
Ich hab die Vermutung, dass die HSI wohl durchaus Probleme haben könnte mit den hohe Taktraten der Shaderdomain.
AFAIK gab es doch auch mal soetwas zu einer älteren Revision der HSI, die Probleme jenseits der 500MHz hatte.
PCGH_Carsten
2007-02-28, 12:24:07
Ich glaube eher, die HSI ist dafür gebaut, mit einem Gerät über den PCI-Express zu kommunizieren.
DrumDub
2007-02-28, 13:09:29
Ich glaube eher, die HSI ist dafür gebaut, mit einem Gerät über den PCI-Express zu kommunizieren. und? nvio kommuniziert doch direkt mit dem g8x und der wiederum ist doch nur ein gerät, welches dann auch theoretisch mit der hsi kommunizieren könnte. es hängen somit nicht zwei geräte an der hsi.
alleridngs kann ich mir vorstellen, dass nv ganz bewusst eine sperre in die g8x einbaut, die eine kommunikation mit dem hsi verhindern, um eben keinen auf die idee zu bringeneine g8x mit hsi für agp rauszubringen.
Anarchy-HWLUXX
2007-02-28, 13:47:13
Also ne sperre in hardware macht schon vom Prinzip her keinen sinn, solange nV keine Treiber rausbringt können die Board Hersteller rumfrickeln wie sie wollen und es wird nicht funzen ...
Pin-to-Pin kompatibilität mit den alten PCIe PCBs ist eine sache - denn da kommen nur die Leiterbahnen für PCIe, I/O, Strom und RAMs ... was hinterher intern passiert ist ne ganz andere sache - schliesslich sind die G8* GPUs nicht mit den G7* verwandt sondern eine eigenständige Produktlinie.
PCGH_Carsten
2007-02-28, 14:09:21
und? nvio kommuniziert doch direkt mit dem g8x und der wiederum ist doch nur ein gerät, welches dann auch theoretisch mit der hsi kommunizieren könnte. es hängen somit nicht zwei geräte an der hsi.
Was glaubst du denn, was so alles im NVIO drin ist, sprich, wofür er allein genutzt wird und wann eine direkte Kommunikation mit dem G80 sinnvoller ist?
NVIO hängt nicht am PCIe, dann hätte man ein zusätzliches PCI-Device, was nicht der Fall ist.
Meine Vermutung ist, dass AGP und damit die HSI-Brücke einfach nicht mit den erweiterten PCIe-Funktionen klar kommt die der G80 verwendet. Oder aber NV hat G80 künstlich inkompatibel gemacht aus politischen Gründen (wäre nicht das blödeste).
Was glaubst du denn, was so alles im NVIO drin ist, sprich, wofür er allein genutzt wird und wann eine direkte Kommunikation mit dem G80 sinnvoller ist?
NVIO ist bloß ein HUB für das SLI-Zeug, RAMDAC und HDMI/DVI-Transmitter. Viel Logik ist das nicht.
Anarchy-HWLUXX
2007-02-28, 14:56:15
Was glaubst du denn, was so alles im NVIO drin ist, sprich, wofür er allein genutzt wird und wann eine direkte Kommunikation mit dem G80 sinnvoller ist?
Der NV I/O hat sicherlich keine direkte connection zum PCIe interface - das kann man sogar am PCB ganz klar erkennen - alle 16 Lanes gehen direkt zur GPU, folglich wird immer die G80 GPU angesprochen und der NV I/O ist ausgelagerte funktionalität ... Virtuell sollte das kein unterschied machen ob die Teile nun in der GPU sind oder nicht ...
PCGH_Carsten
2007-02-28, 15:50:12
Na, wenn ihr meint. :)
NVIO hängt nicht am PCIe, dann hätte man ein zusätzliches PCI-Device, was nicht der Fall ist.
Meine Vermutung ist, dass AGP und damit die HSI-Brücke einfach nicht mit den erweiterten PCIe-Funktionen klar kommt die der G80 verwendet. Oder aber NV hat G80 künstlich inkompatibel gemacht aus politischen Gründen (wäre nicht das blödeste).
NVIO ist bloß ein HUB für das SLI-Zeug, RAMDAC und HDMI/DVI-Transmitter. Viel Logik ist das nicht.
Welche "erweiterten" PCIe-Funktionen meinst du?
Na, wenn ihr meint. :)
Das meinen wir nicht nur, es ist tatsächlich so. Wie gesagt lass Linux laufen und mach nen lspci. Es gibt nur ein G80-Device. Und man kann nix an PCIe klemmen ohne das es ein Device ist. Abgesehen davon kann ein PCIe-Slot eh nur ein Gerät verwalten.
Welche "erweiterten" PCIe-Funktionen meinst du?
http://download.microsoft.com/download/9/8/f/98f3fe47-dfc3-4e74-92a3-088782200fe7/TWAR05004_WinHEC05.ppt
Sorry, das hier war's glaub: http://download.microsoft.com/download/1/8/f/18f8cee2-0b64-41f2-893d-a6f2295b40c8/TW04092_WINHEC2004.ppt
alleridngs kann ich mir vorstellen, dass nv ganz bewusst eine sperre in die g8x einbaut, die eine kommunikation mit dem hsi verhindern, um eben keinen auf die idee zu bringeneine g8x mit hsi für agp rauszubringen.
Glaub ich nicht, kostet Geld, und welchen Nutzen hätte das für nvidia?
PCGH_Carsten
2007-02-28, 17:12:05
Sorry, das hier war's glaub: http://download.microsoft.com/download/1/8/f/18f8cee2-0b64-41f2-893d-a6f2295b40c8/TW04092_WINHEC2004.ppt
Vielen Dank für den Link, das beantwortet meine Frage aber nicht. Aus dem Zusammenhang inklusive Zitat habe ich gehofft, es wäre ersichtlich welche erweiterten Funktionen der G80 nutzt. Offenbar war es das nicht. :(
StefanV
2007-02-28, 17:13:09
Das man das Versprechen gegenüber den Entwicklern, keine DX10 AGP Karte zu bringen, einhält.
Welchen Sinn macht es, einen Neuanfang von Anfang an zu unterwandern?!
Nichts anderes ist DX10 eigentlich!
Hoffentlich läufts bei AMD ähnlich...
Vielen Dank für den Link, das beantwortet meine Frage aber nicht. Aus dem Zusammenhang inklusive Zitat habe ich gehofft, es wäre ersichtlich welche erweiterten Funktionen der G80 nutzt. Offenbar war es das nicht. :(
Ich würde mal auf VRAM-Virtualisierung tippen. Ich weiß es aber auch nicht so genau. Ich hätte schreiben sollen "vielleicht verwendet".
PCGH_Carsten
2007-02-28, 17:20:46
Ich würde mal auf VRAM-Virtualisierung tippen. Ich weiß es aber auch nicht so genau. Ich hätte schreiben sollen "vielleicht verwendet".
Mal angenommen, dass es das ist: Ich dachte, das wäre eine reine Software-Funktion? Was tut die Hardware hierzu?
Das man das Versprechen gegenüber den Entwicklern, keine DX10 AGP Karte zu bringen, einhält.
Welchen Sinn macht es, einen Neuanfang von Anfang an zu unterwandern?!
Nichts anderes ist DX10 eigentlich!
Hoffentlich läufts bei AMD ähnlich...
Ein Neuanfang wäre 64 Bit, nicht aber PCIe statt AGP. Wäre AGP in heutigen Spielen signifikant unterlegen, dann gäbe es gar keine Anhänger mehr ...
MfG,
Raff
Armaq
2007-02-28, 17:34:18
Ein Neuanfang wäre 64 Bit, nicht aber PCIe statt AGP. Wäre AGP in heutigen Spielen signifikant unterlegen, dann gäbe es gar keine Anhänger mehr ...
MfG,
Raff
Hm, vll. solltest du dich einmal mit dem Thema Marktdurchdringung beschäftigen. Es ist einfach von hoher Wichtigkeit überhaupt erstmal ein kleinen Bereich des Marktpotentials zu durchdringen.
Es ist sicherlich bei einer solchen Einigung einfach, aber wehe einer macht den Sprung auf AGP siehe x1950xt.
Btw. ich find PCIe schon allein aufgrund der Grakafixierung goil. :D
Ich weiß nicht was Stefan meinte, aber mir geht es um die Sinnhaftigkeit. Hätte PCIe schon zum Start deutliche Vorteile (und damit meine ich nicht SLI/Crossfire) gebracht, die neue Möglichkeiten eröffnen, würden weniger Leute heulen, dass AGP stirbt. Warum soll man etwas auswechseln, das vollkommen ausreicht?
MfG,
Raff
Mal angenommen, dass es das ist: Ich dachte, das wäre eine reine Software-Funktion? Was tut die Hardware hierzu?
Ne, ne PCIe-Grafikkarte muss dafür ne MMU haben. Ob die dann mit AGP noch funktioniert ist fraglich.
Thowe
2007-02-28, 19:31:23
Glaub ich nicht, kostet Geld, und welchen Nutzen hätte das für nvidia?
Ich glaube an eine reine wirtschaftliche Entscheidung.
AGP würde für NVIDIA bedeuten, dass sie unter Umständen auch Support dafür leisten müssten. Support ist nun aber teuer und die Anzahl der verkauften G80 als AGP Karte in Relation zu den Kosten die dieser verursachen könnten, würde aus wirtschaftlichen Gründen alleine schon Unsinn sein und könnte sich als nicht kalkulierbarer Risikofaktor herausstellen. Auf technischer Seite sehe ich ohne nähere Angaben warum es so ist, dass es nicht geht, eher kein Hindernis.
Man sollte nicht außer acht lassen, dass kein Kartenhersteller Treiber anbieten kann, die aus eigener Feder stammen und sämtliche Probleme die bei AGP auftauchen könnten, müsste NV u.U. im Treiber beheben oder aber der Hersteller seine Karten zurücknehmen. Für beide Seiten keine gute Sache, somal die 8800 Karten preislich bequem das 3-5 fache von dem kosten, was ein Board mit PEG Steckplatz kosten würde. Da ist es einfach konsequenter gleich den Schnitt zu machen und alte Hardware langsam aber sicher zu Grabe zu tragen.
AnarchX
2007-03-01, 19:18:59
Noch eine Andeutung auf das was wohl G84(GF8600) leisten wird:
[NVIDIA 7950GT, 7900GS, 7600GT, 7600GS Reach EOL] (http://www.vr-zone.com/index.php?i=4722)
NVIDIA 7950GT, 7900GS, 7600GT and 7600GS will reach EOL soon to make way for GeForce 8600 (G84) series. The last shipment is on 28th of April and we can expect to see fewer GeForce 7 series on the market from mid Q2 onwards.
AnarchX
2007-03-02, 16:40:50
[NVIDIA to Launch GeForce 8600 Series on April 17th] - Specs leaked?!
NVIDIA is set to launch mainstream 8600GTS (G84-400) and 8600GT (G84-300) as well as 8500GT (G86-300) on 17th of April. GeForce 8600GTS and 8600GT will have 256MB GDDR3 memories onboard and sports 128-bit memory interface but no HDMI yet. GeForce 8600GTS is meant to replace 7950GT and 7900GS while 8600GT to replace 7600GT and 8500GT to replace 7600GS.[...]
http://www.vr-zone.com/index.php?i=4723
8600GTS ->700/1000MHz
8600GT ->600/700MHz
8500GT ->450/400MHz
Das sieht ja mal nach richtig interessanten Karten aus... ;)
Wobei die 1GHz GDDR3 bei der GTS schon etwas seltsam sind, warum setzt man da nicht auf GDDR4? Scheint wohl da ein paar Probleme mit GDDR4 zu geben...
deekey777
2007-03-02, 18:32:12
Wofür steht 400 bzw. 300? Doch nicht etwa für die Anzahl der Shader-Blöcke (400 = 4, 300 = 3)?
AnarchX
2007-03-02, 18:35:50
Wofür steht 400 bzw. 300? Doch nicht etwa für die Anzahl der Shader-Blöcke (400 = 4, 300 = 3)?
Gute Frage, aber was ist dann ein G80-200 oder ein G80-875?
NVIDIA_G80.DEV_0190.1 = "NVIDIA G80-400"
NVIDIA_G80.DEV_0191.1 = "NVIDIA GeForce 8800 GTX"
NVIDIA_G80.DEV_0192.1 = "NVIDIA G80-200"
NVIDIA_G80.DEV_0193.1 = "NVIDIA GeForce 8800 GTS"
NVIDIA_G80.DEV_0194.1 = "NVIDIA G80-450"
NVIDIA_G80.DEV_0197.1 = "NVIDIA G80-600"
NVIDIA_G80.DEV_019D.1 = "NVIDIA G80-875
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=348780&highlight=G80-400
Ich denke eher es handelt sich um ein abstrakteres Rating.
deekey777
2007-03-02, 18:39:35
Sieht wohl so aus.:)
AnarchX
2007-03-02, 18:48:54
Wenn der G84 4 Shaderblöcke hat, so müsste er doch auch 16 TMUs haben, da hier doch eine Kopplung bestand?
Damit würde ja die 8600GTS mit ihren 700MHz schon fast die Texelleistung der 8800GTS erreichen.
Stellt sich noch die Frage nach der arithmetischen Leistung:
Ailuros hat dazu ja mal angedeutet (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5272315#post5272315), dass bei den kleinen GPUs sich der Shadertakt nicht wie beim G80 aus GPU-Takt*2+200MHz zusammen setzt,
sondern aus GPU-Takt*2-400MHz.
Das wären bei der GTS 1GHz, mit voll funktionsfähiger ALU 192GFLOPs.
Da sollte ja reichen um selbst eine 7950GT in neueren Titeln deutlich zu schlagen.
Interessant auch, dass wohl Ailuros' Quellen zum G84 und G86 sehr genau waren:
1350-400 = 950
900-400 = 500
-> 675MHz für die 8600GTS, welche wohl noch auf 700MHz erhöht wurden und 450MHz für die 8500GT, bei denen es geblieben ist.
deekey777
2007-03-02, 19:04:55
Der G84 sollte in etwa ein halber G80 sein. Der NV43 war ein halber NV40, der G73 ein halber G71. Die ROPs waren von dieser Rechnerei schon immer herausgenommen.
AnarchX
2007-03-02, 20:33:59
INQ scheint der Meinung zu sein, dass die GF8500GT nicht auf dem G86 basieren soll, sondern auf einem kastrierten G84:
Nvidia prepares to launch G84/86 around mid-April (http://www.theinquirer.net/default.aspx?article=37974)
Das macht viel Sinn: Warum auch G86 ein 128Bit SI verpassen, was wohl dank der daraus resultierenden 8 ROPs nicht gerade billig wäre, wenn man nur ein Modell damit ausstatten will und die anderen Modelle nur mit aktivem 64Bit/4 ROPs ausliefern will?
Ailuros
2007-03-03, 07:13:33
Wenn der G84 4 Shaderblöcke hat, so müsste er doch auch 16 TMUs haben, da hier doch eine Kopplung bestand?
Damit würde ja die 8600GTS mit ihren 700MHz schon fast die Texelleistung der 8800GTS erreichen.
Stellt sich noch die Frage nach der arithmetischen Leistung:
Ailuros hat dazu ja mal angedeutet (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5272315#post5272315), dass bei den kleinen GPUs sich der Shadertakt nicht wie beim G80 aus GPU-Takt*2+200MHz zusammen setzt,
sondern aus GPU-Takt*2-400MHz.
Das wären bei der GTS 1GHz, mit voll funktionsfähiger ALU 192GFLOPs.
Da sollte ja reichen um selbst eine 7950GT in neueren Titeln deutlich zu schlagen.
Interessant auch, dass wohl Ailuros' Quellen zum G84 und G86 sehr genau waren:
-> 675MHz für die 8600GTS, welche wohl noch auf 700MHz erhöht wurden und 450MHz für die 8500GT, bei denen es geblieben ist.
Ich hab nicht die blasseste Ahnung wie Du meine Zahlen hier parallelisierst. Es war lediglich eine Mathe-Uebung um zu zeigen dass bei midrange G8x der Unterschied zwischen RAMDAC und shader-domain nicht so radikal ist wie bei G80.
Keine Ahnung ob die TMUs entkoppelt sind oder nicht, aber ich sehe nicht ein warum selbst 12 nicht ausreichen wuerden; es sind ja auch wohl nur 8 ROPs. Es ist ja nicht so als ob der direkte Konkurrent mehr als 8 TMUs haben koennte (und selbst das ist fraglich).
AnarchX
2007-03-03, 09:43:29
Ich hab nicht die blasseste Ahnung wie Du meine Zahlen hier parallelisierst. Es war lediglich eine Mathe-Uebung um zu zeigen dass bei midrange G8x der Unterschied zwischen RAMDAC und shader-domain nicht so radikal ist wie bei G80.
OK, da hatte ich wohl etwas viel in dein Posting interpretiert, wobei die Zahlen so gut gepasst hatten^^
Also sagen deine Quelle bei den kleinen G8x-GPUs etwas von einer Shaderdomain unter 1GHz und das wohl auch ein gutes Stück?
Keine Ahnung ob die TMUs entkoppelt sind oder nicht, aber ich sehe nicht ein warum selbst 12 nicht ausreichen wuerden; es sind ja auch wohl nur 8 ROPs. Es ist ja nicht so als ob der direkte Konkurrent mehr als 8 TMUs haben koennte (und selbst das ist fraglich).
Wenn ich diesen Abschnitt aus aths' Artikel zum G80 verstanden habe:
Die TMUs sind in gewissen Grenzen entkoppelt. Jede Vec16-ALU verfügt über ihre "vier" TMUs und kann nur diese für ihre Berechnungen nutzen. Diese vier TMUs sind natürlich tatsächlich eine TMU mit vierfach ausgelegten Einheiten, wobei jede der vierfach ausgelegten Filter-Einheiten wiederum doppelt ausgelegt ist. Beim Vergleich der Texel-Leistung mit dem ALU-Durchsatz sind natürlich die Taktunterschiede zu berücksichtigen.
Dann müssten es bei 4 Shader-Clustern doch auf jeden Fall 16 TMUs sein, wären es nur 12 TMUs so wären nur 3 Cluster sinnvoll (->8500GT).
Ich fände es seltsam weshalb nVidia nun plötzlich die Erfolgreiche Strategie ablegen sollte, dass man im Mainstream die halbe(ROPs ausgenommen) HighEnd-GPU bringt.
reunion
2007-03-03, 10:47:55
Ich fände es seltsam weshalb nVidia nun plötzlich die Erfolgreiche Strategie ablegen sollte, dass man im Mainstream die halbe(ROPs ausgenommen) HighEnd-GPU bringt.
Aus Spaß macht man das sicherlich nicht. Nur ist G80 eben die mit Abstand fetteste GPU ever, und da man im Midragesegment unbedingt auf die Margen achten muss, war fast vorauszusehen, dass hier 80nm zu wenig ist, um diese "Strategie" weiter zu verfolgen. Immerhin will man von 484mm² auf 160mm² gekommen sein. IMHO werden wir vernünftige Midragechips nach diesem Muster bei beiden erst im H2 sehen.
AnarchX
2007-03-03, 10:59:10
Naja mit der Reduktion auf 8 ROPs sollte man einiges an Transistoren gewinnen, immerhin scheinen diese bei G8x doch etwas mächtiger zu sein als bisher, auf Grund der Verbindung zu den SIs.
Dann soll man ja auch noch etwas die Transistoren umgeschaufelt haben, wie Ailuros es angedeutet hat.
So unrealistisch finde ich die 160mm² für einen halben G80 mit 8 ROPs nicht.
Zudem wird dies auch durch das EOL der der 7950GT Ende April bekräftigt, die durch die 8600GTS ersetzt werden soll. ;)
Ailuros
2007-03-03, 12:34:51
Aus Spaß macht man das sicherlich nicht. Nur ist G80 eben die mit Abstand fetteste GPU ever, und da man im Midragesegment unbedingt auf die Margen achten muss, war fast vorauszusehen, dass hier 80nm zu wenig ist, um diese "Strategie" weiter zu verfolgen. Immerhin will man von 484mm² auf 160mm² gekommen sein. IMHO werden wir vernünftige Midragechips nach diesem Muster bei beiden erst im H2 sehen.
Margen und ATI gehoeren immer noch nicht in den gleichen Satz und bevor Du erstmal siehst fuer was G8x-midrange betreffend die-Groesse und Preis-/Leistungsverhaeltnis genau bedeutet wuerde ich an Deiner Stelle noch zu keinen Schlussfolgerungen kommen. ATI hat sich leider mit 65nm eine truebere Suppe eingebrockt und es wird sich im Laufe der Zeit schon zeigen. Welcher der beiden kommt frueher auf die Regale und mit weniger Problemen bzw. Verspaetungen?
(+44)
2007-03-03, 22:50:56
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/geforce_8800_ultra/
Sieht so aus, als bringt nVidia als R600-Gegner ne übertaktete 8800GTX, evtl sogar mit 1.5GB Speicher? *g*
Erinnert mich stark an die 7800GTX512, man will mit Gewalt die stärkste Karte am Markt haben.
Lässt natürlich auch über die Leistungsfähigkeit des R600 spekulieren, ein überteuerter, überzüchteter G80 wäre sinnlos wenn er den R600 nicht schlagen kann.
Anyways, ich bin auf eure Gedanken dazu gespannt!
Winter[Raven]
2007-03-03, 22:53:26
Abwarten und Tee trinken ... bisschen Perf. durch die paar Mhz, und durch den Treiber...
(+44)
2007-03-03, 22:56:10
Sagte ich doch, sie werden nen G80 n bisschen übertakten und wohl deutlich schnelleren Speicher (sicher GDDR4 mit 2GHz oder mehr) verbauen.
Ein neuer Chip wird darin ja nich stecken ;)
Wenn sie völlig am Rad drehn dann auch 1.5GB bei 384-Bittigem SI.
Interessant wäre zu wissen, ob sie so nen signifikanten Taktsprung wie von 7800GTX auf 7800GTX512 erreichen. (430=>550)
laser114
2007-03-03, 22:58:23
Im Treiber resp. der INF-Datei steht ja auch was von G80, dann dürfte das mit dem Chip wohl schon stimmen. :)
Höhere Taktraten (durch schnelleren Speicher).
Den Sinn von 1,5 GB kann ich mir zwar nicht so ganz erklären, möglich wäre es allerdings. Und es ist ja die Prestige-Karte, würde also schon Sinn machen...
(+44)
2007-03-03, 23:01:20
Als die 7800GTX512 kam fand man 512MB auch n bisschen "Overkill" und hat es als "Prestige" abgetan, könnte also durchaus sein *g*
Sicher ist nur dass das Ding extrem teuer wird und man wohl kaum Chips finden wird, die den überzogenen Takt mitmachen. (Ich gehe von über 650MHz aus)
Super Grobi
2007-03-03, 23:01:32
Na da bin ich mal gespannt was da noch schönes kommt.
Der G80 Chip bekommt sicherlich auch ein paar Mhz mehr. Mit 1,5ghz flotten Ram, wird die Karte in UHQ Settings schon rocken.
SG
Nakai
2007-03-03, 23:05:29
Wenn sie völlig am Rad drehn dann auch 1.5GB bei 384-Bittigem SI.
Könnte man machen...bringt aber nicht viel
Ich gehe von 650 bis 700 Mhz Coretakt und erhöhten Speichertakt aus.
Der Shadertakt wohl bei 1,5 Ghz.
Wahrscheinlich GDDR4 mit 2,2 Ghz oder so in der Art.
mfg Nakai
Hvoralek
2007-03-03, 23:06:06
In einem neuen Beta- Treiber für Vista ist anscheinend die Rede von einer "Geforce 8800 Ultra" (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/geforce_8800_ultra/) (wirklich mit der Bezeichnung).
Klingt nach einer höher getakteten 8800 GTX.
James Ryan
2007-03-03, 23:08:14
Ich habe es ja gesagt, NVIDIA kommt mit einer höher getakteten Gf 8800 sobald der R600 da ist. Es war so klar! ;D
MfG :cool:
laser114
2007-03-03, 23:08:56
Übrigens, hat jemand mitgezählt?
Die Einträge in dem Treiber (8800 Ultra, 8600 GTS, 8600 GT, 8500 GT, 8400 GS und 8300 GS) sowie die bereits erschienene 8800 GTS 320 würden 7 weitere D3D10-Produkte ergeben...
Liegt das an meiner Zusammenstellung oder könnte das ein Quäntchen Wahrheit an der Aussage des Threadtitels bestätigen?
eben die muss ja nicht großartig verkauft werden, nur schön aussehen(vor allem auf dem papier)
diese aktion würde wohl andeuten das ein G81 wohl nicht geplant ist und man wirklich ein shrink auf 65nm folgen lässt
meinete damit laser 114
@nakai
lol wo soll der chiptakt herkommen
das wird wohl aller vorraussicht nach ein G80 sein
Blaire
2007-03-03, 23:21:24
Das deckt sich mit meiner Vermutung das man erstmal nen Zwischending bringt und danach den echten Refresh.
deekey777
2007-03-03, 23:24:53
Ich hab mal die Threads zusammengeführt. Das 8800-Ultra-Thema ist hier besser aufgehoben.
Könnte man machen...bringt aber nicht viel
Ich gehe von 650 bis 700 Mhz Coretakt und erhöhten Speichertakt aus.
Der Shadertakt wohl bei 1,5 Ghz.
Wahrscheinlich GDDR4 mit 2,2 Ghz oder so in der Art.
mfg Nakai
650-700? Rechne jetzt den Shader-Clock aus. ;)
Es gab Andeutungen von 1,5 GHz.
(+44)
2007-03-03, 23:31:59
Wir reden hier halt von Highend, nicht nur "weitere D3D10-Produkte" - das suggeriert Middle/Lowend.
Es geht hier ja nur um den überzüchteten G80 der dem R600 entgegengestellt wird, aber was red ich, ein Mod kann seine Entscheidung ja nichtmehr rückgängig machen :(
deekey777
2007-03-03, 23:37:47
Wir reden hier halt von Highend, nicht nur "weitere D3D10-Produkte" - das suggeriert Middle/Lowend.
Es geht hier ja nur um den überzüchteten G80 der dem R600 entgegengestellt wird, aber was red ich, ein Mod kann seine Entscheidung ja nichtmehr rückgängig machen :(
Lies mal den ganzen Thread.
laser114
2007-03-03, 23:38:34
eben die muss ja nicht großartig verkauft werden, nur schön aussehen(vor allem auf dem papier)
Stimmt schon. :)
Trotzdem finde ich 1,5 GB ganz schön verschwenderisch ... aber man hat es ja.
Armaq
2007-03-03, 23:50:03
700 Mhz Core 1600 Mhz Shader Clock 1400 Mhz GDDR 4?
Danke für den Hinweis DK. Manche hier sind echt schnell ... :D
650-700? Rechne jetzt den Shader-Clock aus. ;)
Warum ausrechnen?
Der Takt kann zwischen 1 und Abbruch - 1 liegen, da er nicht an den Coretakt gekoppelt ist.
Armaq
2007-03-03, 23:52:56
Eine Kopplung gibts trotzdem. Nämlich die der Effizienz.
Edit: 15.000 Punkte im 3D06 sollten drin sein.
Spasstiger
2007-03-03, 23:53:58
Warum ausrechnen?
Der Takt kann zwischen 1 und Abbruch - 1 liegen, da er nicht an den Coretakt gekoppelt ist.
Er hängt von einem Referenztakt und einem Multiplikator ab, welcher wiederum in Abhängigkeit vom Chiptakt eingestellt wird. Man kann jedenfalls meines Wissens nach den Shadertakt nicht manuell einstellen.
Er hängt von einem Referenztakt und einem Multiplikator ab, welcher wiederum in Abhängigkeit vom Chiptakt eingestellt wird. Man kann jedenfalls meines Wissens nach den Shadertakt nicht manuell einstellen.
Man kann den Core- und Shadertakt getrennt im Bios einstellen.
http://www.anandtech.com/video/showdoc.aspx?i=2931
Er hängt von einem Referenztakt und einem Multiplikator ab, welcher wiederum in Abhängigkeit vom Chiptakt eingestellt wird. Man kann jedenfalls meines Wissens nach den Shadertakt nicht manuell einstellen.
das ist momentan eine reine treiberbeschränkung.
Sterem
2007-03-04, 03:17:19
Braucht Nvidia wirklich ne Ultra füe das missting R600 was 6 Monate später kommt?:eek: Kann ich mir garnicht vorstellen das Nv noch ne schnellere karte braucht um die neue Ati Karte zu schlagen!?
Armaq
2007-03-04, 08:37:36
Braucht Nvidia wirklich ne Ultra füe das missting R600 was 6 Monate später kommt?:eek: Kann ich mir garnicht vorstellen das Nv noch ne schnellere karte braucht um die neue Ati Karte zu schlagen!?
Man könnte sich in diesem Jahr damit die absolute Technologie/Marktführerschaft sichern. Lasst uns nur hoffen, dass AMD weiterhin HighEnd produziert bzw. Intel aufsteigt, denn ansonsten gibts bald Mondpreise.
dargo
2007-03-04, 10:45:08
Braucht Nvidia wirklich ne Ultra füe das missting R600 was 6 Monate später kommt?:eek:
Ich finds gut. Aber nur wenn der Preis bei 599$ angesetzt und die GTX auf 499$ korrigiert wird. Das wäre doch mal was.
deekey777
2007-03-04, 12:51:01
Ob NVIDIA eine 8800Ultra braucht? Ich meine jetzt wirklich NVIDIA, nicht den Rest der Welt.
http://www.beyond3d.com/forum/showpost.php?p=940012&postcount=31
At least through CUDA and DX9/GL fragment programs, we've seen ~340GFlops for MAD on G80. We've never found the magic extra MUL, and the CUDA documentation and the CUDA forums says it isn't there, at least not for general use. R580 is ~240GFlops if just using MADs, and 360GFlops for ADD+MAD (you can do this with pain via DX/GL, but you can do it easily in CTM since you can write actual ASM). Of course, all of these shaders are contrived and your experience will vary with real code. ;-)
Und jetzt die Pressemeldung von AMD: http://www.beyond3d.com/forum/showthread.php?t=39189
AMD demonstrated a “Teraflop in a Box” system running a standard version of Microsoft® Windows® XP Professional that harnessed the power of AMD Opteron™ dual-core processor technology and two next-generation AMD R600 Stream Processors capable of performing more than 1 trillion floating-point calculations per second using a general “multiply-add” (MADD) calculation. This achievement represents a ten-fold performance increase over today’s high-performance server platforms, which deliver approximately 100 billion calculations per second.
Das ist einer der Gründe, warum man die MADD-Leistung so hervorheben musste, weil die eine einzelne 8800GTX 340 GFLOP/s schafft, ein einzelner R600 Stream Prozessor 512 GFLOP/s.
Um diese PR-trächtige Niederlage zu minimieren, braucht man einen höheren Shadertakt, aber zaubern kann niemand.
Die Welt braucht aber keine 8800Ultra.:)
Übrigens, hat jemand mitgezählt?
Die Einträge in dem Treiber (8800 Ultra, 8600 GTS, 8600 GT, 8500 GT, 8400 GS und 8300 GS) sowie die bereits erschienene 8800 GTS 320 würden 7 weitere D3D10-Produkte ergeben...
Liegt das an meiner Zusammenstellung oder könnte das ein Quäntchen Wahrheit an der Aussage des Threadtitels bestätigen?
Nicht wirklich, denn die meisten haben im Februar eine 8800GT erwartet und keine 8800GTS 320.
Das ist einer der Gründe, warum man die MADD-Leistung so hervorheben musste, weil die eine einzelne 8800GTX 340 GFLOP/s schafft, ein einzelner R600 Stream Prozessor 512 GFLOP/s.
Um diese PR-trächtige Niederlage zu minimieren, braucht man einen höheren Shadertakt, aber zaubern kann niemand.
Die Welt braucht aber keine 8800Ultra.:)
nö, man braucht nur ein freigeschaltenes MUL und schon hat man zumindest für das marketing die gleiche GFLOP-leistung.
reunion
2007-03-04, 14:30:13
Die MUL wird ja schon verwendet, nur eben nicht für general shading, sondern nur für Dinge wie attribute interpolation und perspective correction. Ob sich das je ändern wird, bleibt abzuwarten, in den CUDA-Dokumenten erwähnt man diese zumindest nicht. Und selbst wenn sie noch kommen sollte, hat man davon nur etwas, wenn der Code sehr MUL-lastig ist, da die Einheiten sonst nur dumm rum hocken, während R600 mit reinen MADD-ALUs hier wesentlich ausgeglichener wäre.
Versteh ich nicht wie bei MUL-Lastigem Code eine Dual-MADD Architektur besser sein soll als eine Dual-MUL...
Theoretisches Gerechne bringt eh 0.0, niemand wird heute noch behaupten eine R580 könne einer G80 das Wasser reichen aufgrund theoretischer Zahlen.
Zumal die Zahlen zu GFLOPs die hier immer genannt werden ja für die GTX Version gelten, aber die GTS ja bei geringerer Leistung stets vor der R580-XTX liegen, von daher ist es unrealistisch sich an sowas festzuhalten, solange keine echte Karte aufgetaucht ist.
deekey777
2007-03-04, 15:23:23
Das sind ja keine Werte aus 3D Mark, sondern per Brook (http://www.hardocp.com/image.html?image=MTE3MjgwNDc0N1FSUjhld2ZxdklfMV8xX2wuanBn) ermittelt. mhouston ist einer der Leute, die hinter Folding at Home stehen, man kann seinen Aussagen also vertrauen.
Aber man kauft die Grafikkarten nicht, um irgendwelche wissenschaftliche Aufgaben zu lösen, sondern um zu spielen. Und fällt mir Call of Juarez ein, das am weitesten technisch entwickelte Spiel ist: Da liegt eine X1950XT um 25-30 % hinter der 8800GTS 320 (ohne bildverbessernde Maßnahmen). Dabei bringt eine 8800GTS auf 230 GFLOP/s, die X1950XT auf gleiche 230 GFLOP/s (ich gehe mal frech davon aus, dass die oben ermittelten 240 GFLOP/s mit einer XTX erreicht wurden).
Dem R580 fehlt es an der Effizienz, um mit dem G80 mitzuhalten.
Da die Existenz eines G80 in 80nm, G81 oder wie immer man ihn nennen will von vielen sicheren Quellen doch mittlerweile dementiert wurde, wird wohl die 8800Ultra ganz nach der 7800GTX 512MB kommen: Ein Benchmarktiger mit verschwindend geringer Markverfügbarkeite.
Würde mich zudem auch nicht wundern, wenn man hier noch in einem Punkt der GTX 512MB nacheiffert: schnellster GDDR am Markt, was wohl 0.6ns GDDR4 sein sollte.
Mit diesen ~150GB könnte man sicherlich der R600XTX Stirn bieten, im Bezug auf die Bandbreite.
Dazu noch ein handselektierter G80 mit 650MHz+ und fertig ist der R600-Killer/Show-Stehler.
dargo
2007-03-04, 19:20:15
Würde mich zudem auch nicht wundern, wenn man hier noch in einem Punkt der GTX 512MB nacheiffert: schnellster GDDR am Markt, was wohl 0.6ns GDDR4 sein sollte.
Diesmal ist es aber nicht so einfach. GDDR3 läuft bei der GTX am Limit. Für GDDR4 ist ein neues PCB fällig.
Mit diesen ~150GB könnte man sicherlich der R600XTX Stirn bieten, im Bezug auf die Bandbreite.
Du glaubst doch nicht ersthaft, dass NV teuren 1,6Ghz GDDR4 verbauen wird oder? :|
Diesmal ist es aber nicht so einfach. GDDR3 läuft bei der GTX am Limit. Für GDDR4 ist ein neues PCB fällig.
Das war auch bei der GTX 512MB nötig, zudem könnte es auch sein das die 8800Ultra auf ein Quadro-PCB setzt, welches wiederrum auf zukunftsicheren und schnellen GDDR4 setzt.
Du glaubst doch nicht ersthaft, dass NV teuren 1,6Ghz GDDR4 verbauen wird oder? :|
Bei der GTX 512MB setzte man doch auf den teuersten verfügbaren Speicher -> 1.1ns GDDR3.
Da die Stückzahl wird wahrscheinlich eh nur sehr gering so, dass es eben relativ egal ist.
Die Aufgabe der 8800Ultra wird es sein Benches zu gewinnen und mehr eben nicht...
dargo
2007-03-04, 19:36:41
Die Aufgabe der 8800Ultra wird es sein Benches zu gewinnen und mehr eben nicht...
Naja, ich wüsste nicht wofür ein G80 @650Mhz 150GB/s brauchen würde. Mit 105,6GB/s (1,1Ghz) wäre ich aber einverstanden. :)
Naja, ich wüsste nicht wofür ein G80 @650Mhz 150GB/s brauchen würde. Mit 105,6GB/s (1,1Ghz) wäre ich aber einverstanden. :)
Und wofür braucht ein R600XTX seine ca. 150GB/s?
Ohne Frage sind diese Bandbreiten bei G80Ultra und R600XTX relativ sinnfrei, wenn man nicht gerade mit 8x TSAA in >2048x1536 spielen will.
Da nun die Existenz der 8800Ultra bekannt ist, können wir uns definitiv auf eine Marketingschlacht im obersten HighEnd gefasst machen im Mai, die in alle Bereich umfassen wird; sei es Benches oder theoretische Daten.
dargo
2007-03-04, 20:02:25
Und wofür braucht ein R600XTX seine ca. 150GB/s?
Noch wissen wir nicht was der R600 überhaupt kann. ;)
Laut Ailuros mangelt es dem G80 nicht an Bandbreite.
AnarchX
2007-03-04, 20:30:19
Noch wissen wir nicht was der R600 überhaupt kann. ;)
Aber wir wissen das vorraussichtlich alle Modelle ausser der XTX mit GDDR3 kommen werden, was wiederrum den Verdacht aufkommen lässt das GDDR4 bei der XTX mehr oder weniger nur für eine nette Zahl in den Specs sorgen soll.
Laut Ailuros mangelt es dem G80 nicht an Bandbreite.
In normalen Setting schon, aber in den angedeuteten 8x TSAA HD-Resolution Benches könnte die R600XTX auch nach seiner Aussage die 8800GTX doch ziemlich blamieren, auch wenn die FPS hier wohl eh sehr fraglich sind. Aber es geht halt ums Prinzip.
Mich würde es nicht wundern, dass NV um dies abzuwenden der 8800Ultra deutlich mehr Bandbreite verpasst -> 0.6ns GDDR4.
Zudem könnte ich mir auch vorstellen, dass man versucht die Speicherbandbreite der XTX zu überbieten, was gelingen könnte solange ATi unter 1.2GHz beim Speichertakt bleibt.
Also wird es wohl ganz darauf an kommen wer die besseren Spitzel hat... ;)
Noch ein interessanter möglicher Zusammenhang:
8800Ultra?
128*3*1.5 = 576GFLOPs
R600XTX?
64 * 10 * 0.9 = 576GFLOPs
dargo
2007-03-04, 20:47:45
Aber wir wissen das vorraussichtlich alle Modelle ausser der XTX mit GDDR3 kommen werden, was wiederrum den Verdacht aufkommen lässt das GDDR4 bei der XTX mehr oder weniger nur für eine nette Zahl in den Specs sorgen soll.
Noch wissen wir gar nichts. Es wurde noch nichts offiziell bestätigt. Aber da wir im Speku-Forum sind:
GDDR4@1,2Ghz = 153,6GB/s
GDDR3@0,9Ghz = 115,2GB/s
Was ist wenn die XT von der Rohleistung her um ~30% langsamer ist als die XTX? Dann passt das Verhältnis.
Außerdem ist das der einzige Weg die Bandbreite bei der XTX zu erhöhen. GDDR3 ist nun mal am Ende bei 900Mhz.
In normalen Setting schon, aber in den angedeuteten 8x TSAA HD-Resolution Benches könnte die R600XTX auch nach seiner Aussage die 8800GTX doch ziemlich blamieren, auch wenn die FPS hier wohl eh sehr fraglich sind. Aber es geht halt ums Prinzip.
Dann muss aber der R600 von der Rohleistung her auch deutlich überlegen sein. Denn die Bandbreite bringt dir nichts wenn er schon Aufgrund von fehlender Rohleistung in die Knie geht. Mit riesigen Auflösungen + viel Antialiasing steigt nicht nur der Bandbreitenbedarf an.
Noch ein interessanter möglicher Zusammenhang:
8800Ultra?
128*3*1.5 = 576GFLOPs
R600XTX?
64 * 10 * 0.9 = 576GFLOPs
Diese ganzen Zahlenspielereien bringen leider nichts, das solltest du wissen. :)
Edit:
Noch besser würden mir 1,1Ghz bei der XTX passen. Dann hätte die XTX "nur" noch ~22% Vorteil bei der Bandbreite (ausgehend von den 900Mhz bei der XT). Und die 20% weniger Rohleistung (um das Verhältnis zu behalten) würden schon eher zur XT passen (wilde Spekulation meinerseits).
GDDR3 ist nun mal am Ende bei 900Mhz.
Samsung liefert offiziell 1 GHz aus, der wohl bei einigen der 8800 GTX zum Einsatz kommt.
In normalen Setting schon, aber in den angedeuteten 8x TSAA HD-Resolution Benches könnte die R600XTX auch nach seiner Aussage die 8800GTX doch ziemlich blamieren, auch wenn die FPS hier wohl eh sehr fraglich sind. Aber es geht halt ums Prinzip.
TSAA lässt die Limitierung von Bandbreite zur Texturleistung schwanken.
Es kann auch sein, dass der G80 in einigen Fällen sogar schneller wäre, da viel Alphatest vorhanden wäre.
dargo
2007-03-04, 21:16:28
Samsung liefert offiziell 1 GHz aus, der wohl bei einigen der 8800 GTX zum Einsatz kommt.
Ok, dann muss es wohl eine neue Revision sein die es beim Erscheinen vom G80 noch nicht gab.
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QE/ds_k4j52324qe_rev11.pdf
crux2005
2007-03-04, 22:12:08
hmmm
wieso sind dann die 1ns 1000MHz Samsung chips auf den GeForce 8800GTX die im November getestet wurden ?
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/9/
hmmm
wieso sind dann die 1ns Samsung chips auf den G80 die im November getestet wurden ?
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/9/
Zitat von der Seite:
"768 MB GDDR3, produziert von Samsung mit einer Zugriffszeit von 1,1 ns"
Der 1000MHz Speicher ist der umgelabelte GDDR4 Speicher, der zum Beispiel auf den X1950XTX Karten drauf ist. Bei Samsung gibt es nämlich keinen 1ns GDDR4 Speicher mehr.
crux2005
2007-03-04, 22:20:06
nach diesem Bild zufolge:
http://www.computerbase.de/bild/article/614/130/
sind auf der GeForce 8800GTX
diese Samsung Chips verbaut: K4J52324QE-BJ1A, die als 1000MHz spezifiert sind ;)
dargo
2007-03-04, 22:21:31
nach diesem Bild zufolge:
http://www.computerbase.de/bild/article/614/130/
sind auf der GeForce 8800GTX
diese Samsung Chips verbaut: K4J52324QE-BJ1A, die als 1000MHz spezifiert sind ;)
Da steht doch 11A. :|
Bin blind. :redface:
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.