Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: New 90nm GF7s by January, Next-Gen in H1 2006, plus RSX NREs until mid-Q1.
Ailuros
2005-12-01, 19:09:25
http://www.beyond3d.com/forum/showthread.php?t=26172
mapel110
2005-12-01, 19:42:37
http://www.beyond3d.com/forum/showthread.php?t=26172
Verdammt, jetzt weiß ich gar nicht mehr, was ich machen soll. Wenn im Januar/Februar schon neues kommt, was den Markt wieder etwas aufmischt. ;(
So ein 90nm Chip würde mich jedenfalls auch reizen.
Ailuros
2005-12-01, 21:54:35
Verdammt, jetzt weiß ich gar nicht mehr, was ich machen soll. Wenn im Januar/Februar schon neues kommt, was den Markt wieder etwas aufmischt. ;(
So ein 90nm Chip würde mich jedenfalls auch reizen.
Also mich laesst das Ding dann ziemlich kalt im Angesicht von einem DX10 chip nur wenige Monate spaeter.
mapel110
2005-12-01, 22:26:30
Also mich laesst das Ding dann ziemlich kalt im Angesicht von einem DX10 chip nur wenige Monate spaeter.
D3D10!
DX10 gibts nit!
:tongue:
bin derzeit eher auf dem Stromspartrip. Performance hab ich eigentlich genug und plane eher ein Sidegrade als ein Upgrade. Aber hast schon recht; könnte interessant werden, was da neues kommt. Besseres AF sollte man aber wohl noch nicht erwarten.
Ailuros
2005-12-01, 22:31:43
Nun gut dann eben D3D10 (mal sehen wie oft das verdammte Ding noch umbenannt wird).
Wenn es ueberhaupt etwas besseres geben wird dann von der G8x Linie; von G7x erwarte ich natuerlich keine besonderen Aenderungen.
Ich verwette sonstwas, dass "D3D10" trotzdem als "DirectX 10" genannt wird, egal ob nur D3D geupdated wurde oder nicht. Alles andere verwirrt den DAU doch viel zu sehr.
reunion
2005-12-01, 23:15:25
Also mich laesst das Ding dann ziemlich kalt im Angesicht von einem DX10 chip nur wenige Monate spaeter.
Wenige Monate später?
War nicht immer von Q4/06 bis Q1/07 die Rede?
mapel110
2005-12-01, 23:17:43
Wenige Monate später?
War nicht immer von Q4/06 bis Q1/07 die Rede?
Next-Gen in H1 2006
Also Mid Range oder low cost chips zuerst mit neuer Technik zu bringen macht imo wenig Sinn. ;)
reunion
2005-12-01, 23:26:32
Next-Gen in H1 2006
Also Mid Range oder low cost chips zuerst mit neuer Technik zu bringen macht imo wenig Sinn. ;)
Oh. ;(
Aber ich weiß nicht recht, wie sicher ist das?
mapel110
2005-12-01, 23:31:50
Oh. ;(
Aber ich weiß nicht recht, wie sicher ist das?
ATI kam auch mit einem DX9-Chip vor Directx9 selbst.
Und wenn man bedenkt, dass nvidia die letzten 3 Jahre sonst nicht viel designtechnisch gemacht hat (bisschen fummeln am NV30 Featureset), dann halte ich es für sehr wahrscheinlich. Zumindest dass sie einen zeitlichen Vorsprung haben werden vor ATI, was den D3D10 Chip angeht.
ATi hat seit R400 an nem Unfied-Shader rumgedoktort. Ich weiß zwar nicht inwiefern das ein Vorteil ist für D3D10, aber man sollte da nicht so vorschnell sein.
Nightspider
2005-12-02, 00:15:32
1. Was kann man von nem Unified Shader erwarten ? Wieviel Leistungszuwachs (grob)in % geschätzt ?
2. Gibt es ähnlich starke Verbesserungen der Grafik durch SM4.0 wie bei SM3.0 mit HDR ?
3. Könnte es sein, das Nvidia und ATI dann auch schon GDDR4 Speicher verbauen werden ? [verbraucht dieser weniger Strom als GDDR3 ?]
4. Glaubt ihr, die sind schon so "freaky" und bauen gegen Ende nächsten Jahres schon 1GB Speicher auf die Karten ?
5. Könnte es sein, das NVIDIA / ATI etwas zur Verbesserung der Physik Leistung einbauen ?
//ich liebe es Fragen zu stellen :) //
Ailuros
2005-12-02, 06:28:11
ATi hat seit R400 an nem Unfied-Shader rumgedoktort. Ich weiß zwar nicht inwiefern das ein Vorteil ist für D3D10, aber man sollte da nicht so vorschnell sein.
So sicher bin ich mir gar nicht, dass NV wohl doch nicht mit einem USC ankommen koennte. Es kann durchaus sein dass sich Kirk's Kommentare der Vergangenheit nur auf die NV4x/G7x/RSX Generation bezogen haben.
http://www.beyond3d.com/forum/showpost.php?p=626815&postcount=13
Ailuros
2005-12-02, 06:30:01
Wenige Monate später?
War nicht immer von Q4/06 bis Q1/07 die Rede?
Es sieht momentan nicht nach mehr als 4-5 Monate Unterschied aus.
seahawk
2005-12-02, 08:11:50
ATI sollte da keine gravierenden Nachteil haben. Die basteln auch lange schon an einem D3D10 Chip und werden sicher auf jeden Chip von NV reagieren können.
SKYNET
2005-12-02, 11:10:14
http://www.beyond3d.com/forum/showthread.php?t=26172
1. singleslot design + mehr takt
2. neues highend modell
3. lückenfüller zwischen GTX512 und G80 :o)
Monger
2005-12-02, 11:24:49
1. Was kann man von nem Unified Shader erwarten ? Wieviel Leistungszuwachs (grob)in % geschätzt ?
Ist überhaupt nicht vergleichbar. Eine Unified Shader Architektur kann schlicht und ergreifend Dinge, die vorige Architekturen überhaupt nicht konnten. Es ist nicht wirklich eine Performancefrage.
2. Gibt es ähnlich starke Verbesserungen der Grafik durch SM4.0 wie bei SM3.0 mit HDR ?
Es gab grafische Verbesserungen unter SM3.0 ? :|
5. Könnte es sein, das NVIDIA / ATI etwas zur Verbesserung der Physik Leistung einbauen ?
Siehe: Unified Shader. ATIs Physikbeschleunigung wurde ja afaik über den Pixelshader realisiert.
ShadowXX
2005-12-02, 11:43:16
Ist überhaupt nicht vergleichbar. Eine Unified Shader Architektur kann schlicht und ergreifend Dinge, die vorige Architekturen überhaupt nicht konnten. Es ist nicht wirklich eine Performancefrage.
Dann zähl mal die Dinge auf, die eine US-Architektur so kann, die eine "normale" PS3.0 Architektur nicht kann....
Es gab grafische Verbesserungen unter SM3.0 ? :|
Jein....es wäre durchaus möglich gewesen, was zu machen, was mit SM2.0 nicht oder nur extrem kompliziert Nachstellbar währe....auch das wäre wohl für Spiele zu Performancekostent gewesen,
Siehe: Unified Shader. ATIs Physikbeschleunigung wurde ja afaik über den Pixelshader realisiert.
Und was hat das nun mit US zu tun? Du sagst ja selber, das es über Pixelshader realisiert wird.
Monger
2005-12-02, 11:49:19
Dann zähl mal die Dinge auf, die eine US-Architektur so kann, die eine "normale" PS3.0 Architektur nicht kann....
Geometry Shader.
Und was hat das nun mit US zu tun? Du sagst ja selber, das es über Pixelshader realisiert wird.
Ich will nur darauf hinaus, dass ATIs Ansatz zur Physikbeschleunigung keine spezielle Hardware benötigt. Man braucht einfach starke Shaderpipelines (die man ja auch ansonsten braucht) und gut ist.
ShadowXX
2005-12-02, 11:54:20
Geometry Shader.
Geometry Shader haben nix mit US zu tun, sondern nur was mit den Anforderungen von D3D10 (WGF2).
Der C1 (r500, das Ding was in der Xbox 360 drinne ist) ist auch ein US, ohne Geomerty Shader zu haben.
US ist einfach nur ein anderes Konzept...nicht mehr, nicht weniger.
ATI/nV/S3 hätte auch schon SM2.0-Chips als US bauen können.
US hat vor und nachteile, ebenso wie getrennet Einheiten.
Es könnte z.B. durchaus passieren, das beim Windows-Vista-Chip von ATI die VS/PS als US realisiert sind und des GS eine Extra-Einheit ist.
Ich will nur darauf hinaus, dass ATIs Ansatz zur Physikbeschleunigung keine spezielle Hardware benötigt. Man braucht einfach starke Shaderpipelines (die man ja auch ansonsten braucht) und gut ist.
Richtig....deshalb ja auch die Frage, warum du dann auf die US verwiesen hast.
Monger
2005-12-02, 12:25:11
Richtig....deshalb ja auch die Frage, warum du dann auf die US verwiesen hast.
Kurzschluss im Gehirn. Das "Unified" hätte ich mir sparen können.
Ich hatte nur so im Hinterkopf, dass für bestimmte physikalische Berechnungen eine Unified Shader Architektur von Vorteil wäre, aber weshalb und warum kann ich gar nicht argumentieren.
Ailuros
2005-12-02, 14:04:28
Bei einem USC sind erstmal Latenzen fuer Texturen im VS und/oder GS kein Kopfschmerz mehr.
Nightspider
2005-12-02, 14:10:14
Bei einem USC sind erstmal Latenzen fuer Texturen im VS und/oder GS kein Kopfschmerz mehr.
Waren diese Latenzen bisher ein großes Problem ?
Welche weiteren Vor-und Nachteile besitzt eine US Einheit ?
Ailuros
2005-12-02, 14:18:07
Waren diese Latenzen bisher ein großes Problem ?
Welche weiteren Vor-und Nachteile besitzt eine US Einheit ?
Vertex Texturen schon; man kann die Latenz mit sehr langen Shadern schon verstecken aber die Leistung ist dann auch nicht mehr so toll.
Nachteile? Spezialisierte Einheiten koennen sich unter Umstaenden (zumindest theoretisch) als effizienter zeigen als quasi Allzweck-Einheiten.
Vorteile sind dann eben "general purpose" Funktionen oder eben dass diese GPUs noch naeher an CPUs ruecken.
Das ist zwar alles verdammt vereinfacht aber besonders viel ohne solche Architekturen in Echtzeit vergleichen zu koennen kann man wohl auch nicht sagen, zumindest wir Laien ;)
seahawk
2005-12-02, 14:58:42
Imho ist es denkbar, dass die ersten US Versionen einen nur sehr geringen theoretischen Vorteil gegen Chips mit getrennten Einheiten haben, da hier insgesamt komplexere Einheiten benötigt werden. Bei ähnlichem Transisitorcount könnte es also sein, dass ein US Chip insgesamt weniger dafür aber universelle Einheiten hat, als ein "konventioneller" Chip. Zumindest wenn der konvetionelle Chip ausgewogen ist und nur selten Fälle auftreten wo es zu Effizinezverlsuten kommt. Vertextexutring wäre so ein Fall.
Für die erste D3D10 Generation halte ich beide Lösungen für möglich. Und ich vermute wir werden auch beide Lösungen sehen.
ShadowXX
2005-12-02, 16:29:23
Vertex Texturen schon; man kann die Latenz mit sehr langen Shadern schon verstecken aber die Leistung ist dann auch nicht mehr so toll.
Man sollte dann aber fairerweise sagen, das es bisher ein eiziges Game gibt, welches Vertex Texturing benutzt...Irgend so ein Flugsimulator, dessen Name mir gerade nicht einfällt.
Die Performance ist dort aber wirklich nicht soooo besonders (wobei man nicht zu 100% weiß ob das jetzt am Vertex Texturing liegt oder an der Programmierung)
reunion
2005-12-02, 16:55:09
Man sollte dann aber fairerweise sagen, das es bisher ein eiziges Game gibt, welches Vertex Texturing benutzt...Irgend so ein Flugsimulator, dessen Name mir gerade nicht einfällt.
Was an der suboptimalen Implementierung von nV, und an der gänzlich fehlenden Implementierung von ATi liegen dürfte.
mapel110
2005-12-02, 17:16:11
Was an der suboptimalen Implementierung von nV,
Suboptimal in Bezug zu was? Gibts Vergleichsmöglichkeiten von denen ich nichts weiß?
Ailuros
2005-12-02, 19:04:55
Suboptimal in Bezug zu was? Gibts Vergleichsmöglichkeiten von denen ich nichts weiß?
Eben. Ohne eine einzige Vergleichsmoeglichkeit gibt es kein vorzeigbares Optimum.
Ailuros
2005-12-02, 19:07:51
Man sollte dann aber fairerweise sagen, das es bisher ein eiziges Game gibt, welches Vertex Texturing benutzt...Irgend so ein Flugsimulator, dessen Name mir gerade nicht einfällt.
Die Performance ist dort aber wirklich nicht soooo besonders (wobei man nicht zu 100% weiß ob das jetzt am Vertex Texturing liegt oder an der Programmierung)
Pacific Fighters.
http://www.xbitlabs.com/articles/video/display/geforce7800gtx512_23.html
Ich hab mir das Spiel bis jetzt noch nicht angesehen aber es liegt auf meiner Liste (eben weil ich eine Schwaeche fuer flight sims habe). Wenn ich mich nicht irre wird es fuer das Meer benutzt.
reunion
2005-12-02, 20:19:58
Suboptimal in Bezug zu was? Gibts Vergleichsmöglichkeiten von denen ich nichts weiß?
Nein, es gibt kein Vergleichsmöglichkeit (außer vielleicht Xenos), aber wenn dieser Beitrag (http://www.beyond3d.com/forum/showthread.php?p=590773#post590773) von zeckensack der Realität entspricht, wovon ich ausgehe, dann darf man IMHO durchaus von einer suboptimalen Implementierung sprechen.
Demirug
2005-12-02, 20:47:41
Pacific Fighters.
http://www.xbitlabs.com/articles/video/display/geforce7800gtx512_23.html
Ich hab mir das Spiel bis jetzt noch nicht angesehen aber es liegt auf meiner Liste (eben weil ich eine Schwaeche fuer flight sims habe). Wenn ich mich nicht irre wird es fuer das Meer benutzt.
Ja es ist für das Wasser und da soll auch noch ein aufwendiger Pixelshader benutzt werden.
BTW: das A/T Verhältniss liegt bei FEAR im Durchschnitt fast bei 7 zu 1. Kann man ja ganz leicht automatisch ausrechnen lassen wenn man die Shader hat.
Demirug
2005-12-02, 20:54:56
Nein, es gibt kein Vergleichsmöglichkeit (außer vielleicht Xenos), aber wenn dieser Beitrag (http://www.beyond3d.com/forum/showthread.php?p=590773#post590773) von zeckensack der Realität entspricht, wovon ich ausgehe, dann darf man IMHO durchaus von einer suboptimalen Implementierung sprechen.
Seine Kritikpunkte sind durchaus berechtigt aber ohne Tesselationseinheit ist VT bei einem SM3 Chip primär sowieso nur für Effektphysik nützlich und dafür ist das Featureset des NV40 passend. Nur die Performances dürfte besser sein.
Godmode
2005-12-02, 21:06:24
BTW: das A/T Verhältniss liegt bei FEAR im Durchschnitt fast bei 7 zu 1. Kann man ja ganz leicht automatisch ausrechnen lassen wenn man die Shader hat.
Wow, 7 zu 1 hört sich ganz schön heftig an, du hast nicht zufällig von anderen Games auch diese Werte? Ob es bei den Nextgen Spielen dann nochmal mehr in Richtung Arithmetik geht? Das wird ziemlich interessant, vor allem bin ich auf die Performance des R580 gespannt(bezüglich Arithmetik) und ob der 90nm Refresh von Nvidia auch zusätzliche Shaderunits bekommt?
ShadowXX
2005-12-02, 21:12:54
Wow, 7 zu 1 hört sich ganz schön heftig an, du hast nicht zufällig von anderen Games auch diese Werte? Ob es bei den Nextgen Spielen dann nochmal mehr in Richtung Arithmetik geht? Das wird ziemlich interessant, vor allem bin ich auf die Performance des R580 gespannt(bezüglich Arithmetik) und ob der 90nm Refresh von Nvidia auch zusätzliche Shaderunits bekommt?
Ich würde eher davon ausgehen, das der Refresh-Chip von nV nochmal mehr Pipelines bekommt zur Steigerung der ALU-Power....ist wohl design und kostentechnisch einfacher/billiger.
Ausserdem hört es sich "bombastischer" an, wenn man in der Werbung 32Pipeline-Chip schreiben kann.
(Speziell wenn ATI wirklich bei 16Pipes bleibt)
Godmode
2005-12-02, 21:18:30
Ja jetzt fragt man sich halt was bringt mehr? Ich weis leider nicht ob in Fear die Arithmetikkraft limitiert oder was anderes. Aber wenns wirklich nur an der Arthmeikleistung hängt, wird der R580 ziemlich gut abschneiden(IMO).
mapel110
2005-12-02, 21:22:17
7 zu 1, ist das bei bilinear?
Demirug
2005-12-02, 21:38:13
Wow, 7 zu 1 hört sich ganz schön heftig an, du hast nicht zufällig von anderen Games auch diese Werte? Ob es bei den Nextgen Spielen dann nochmal mehr in Richtung Arithmetik geht? Das wird ziemlich interessant, vor allem bin ich auf die Performance des R580 gespannt(bezüglich Arithmetik) und ob der 90nm Refresh von Nvidia auch zusätzliche Shaderunits bekommt?
Nicht hier. FarCry war im SM3 Pfad IIRC etwa 5:1.
Allerdings muss man das ganze ja etwas relativieren weil ja schon die aktuellen Chips zwar nur eine T-Anweisung pro Takt ausführen können aber mehrer A-Anweisungen. Wie schon von Carsten gesagt bingt es bei den Radeons im Durchschnitt etwa Faktor zwei wenn man zwei zusätzliche ALUs einbaut. Das ganze jetzt natürlich ohne die Texturefilterung zu berücksichtigen welche die Sachlage ja nochmal verändert.
Demirug
2005-12-02, 21:40:27
7 zu 1, ist das bei bilinear?
Das ist das Verhältniss der Anweisungen im Shadercode. Im Shadercode stehen keine Angaben zur Filterung die wird anderweitig festgelegt.
mapel110
2005-12-02, 21:44:51
Das ist das Verhältniss der Anweisungen im Shadercode. Im Shadercode stehen keine Angaben zur Filterung die wird anderweitig festgelegt.
Achso, ich dachte, 7:1 wäre das verhältnis von Shader vs Texturlast. So machts aber mehr Sinn. :)
Demirug
2005-12-02, 21:56:34
Achso, ich dachte, 7:1 wäre das verhältnis von Shader vs Texturlast. So machts aber mehr Sinn. :)
Das ist ja bei jedem Chip anders. nVidia hat Tools um es ausrechnen zu lassen. ATI aber leider nicht. Von S3 gibt es IIRC auch etwas aber das habe ich selbst noch nicht ausprobiert.
Gibts da keinen Druck von Entwicklerseite? Ich finde das ist ziemlich lächerlich.
Ailuros
2005-12-03, 06:43:27
Ja es ist für das Wasser und da soll auch noch ein aufwendiger Pixelshader benutzt werden.
Haette ich mir auch gedacht; versteckt eben gut moegliche Latenzen oder?
BTW: das A/T Verhältniss liegt bei FEAR im Durchschnitt fast bei 7 zu 1. Kann man ja ganz leicht automatisch ausrechnen lassen wenn man die Shader hat.
Also ich von meiner Laien-Ecke haette eher 5:1 geschaetzt, aber das ist tatsaechlich schon verdammt an der Grenze der Uebertreibung. Danke.
***edit: womoeglich dumme Frage...angenommen es waere moeglich auf zukuenftigen G7x TMUs mit quads nicht unbedingt mitzuskalieren, wuerde es nicht mehr Sinn machen bei sagen wir mal 24 TMUs zu bleiben und nur den Rest nach oben zu skalieren? Rein theoretische Frage ich kann mir eben nicht vorstellen zu was die enorme theoretische Texelfuellrate heutzutage noch gut sein soll.
mapel110
2005-12-03, 07:02:29
***edit: womoeglich dumme Frage...angenommen es waere moeglich auf zukuenftigen G7x TMUs mit quads nicht unbedingt mitzuskalieren, wuerde es nicht mehr Sinn machen bei sagen wir mal 24 TMUs zu bleiben und nur den Rest nach oben zu skalieren? Rein theoretische Frage ich kann mir eben nicht vorstellen zu was die enorme theoretische Texelfuellrate heutzutage noch gut sein soll.
Ja, 24 oder 32(bei UA-Design?!) sind wohl okay. Der Rest den man jetzt noch braucht für Single GPU @2048x1536 kann man wohl über den Takt reinholen. Noch höhere Auflösungen sind ja selbst im High End derzeit unüblich und das bleibt auch noch eine ganze Weile so.
reunion
2005-12-03, 11:19:01
Ich würde eher davon ausgehen, das der Refresh-Chip von nV nochmal mehr Pipelines bekommt zur Steigerung der ALU-Power....ist wohl design und kostentechnisch einfacher/billiger.
Jap, der nV-Refresh-Chip wird mir ziemlicher Sicherheit 8 größtenteils unveränderte G70-Quads bekommen IMO.
Ausserdem hört es sich "bombastischer" an, wenn man in der Werbung 32Pipeline-Chip schreiben kann.
(Speziell wenn ATI wirklich bei 16Pipes bleibt)
Nur wird ATi R580 als 48 Pipeline-Chip verkaufen. ;)
***edit: womoeglich dumme Frage...angenommen es waere moeglich auf zukuenftigen G7x TMUs mit quads nicht unbedingt mitzuskalieren, wuerde es nicht mehr Sinn machen bei sagen wir mal 24 TMUs zu bleiben und nur den Rest nach oben zu skalieren? Rein theoretische Frage ich kann mir eben nicht vorstellen zu was die enorme theoretische Texelfuellrate heutzutage noch gut sein soll.
ACK, 32 TMUs erscheinen als totaler overkill, aber es ist für nV vermutlich billiger, einfach zwei Quads hinzuzufügen, als die Quads selber aufzubohren.
Winter[Raven]
2005-12-03, 11:32:03
Wer sagt das NV nur die Quad Anzahl erhöht? *teuflisches grinsen*
Demirug
2005-12-03, 11:33:25
ACK, 32 TMUs erscheinen als totaler overkill, aber es ist für nV vermutlich billiger, einfach zwei Quads hinzuzufügen, als die Quads selber aufzubohren.
Das dürfte davon abhängen ob es schon ein D3D10 oder noch ein D3D9 Chip wird.
robbitop
2005-12-03, 11:45:19
Das dürfte davon abhängen ob es schon ein D3D10 oder noch ein D3D9 Chip wird.
Meinst du, man hat rechtzeitig zum R580 schon einen D3D10 Chip fertig? Und selbst wenn, wäre es ohne D3D10 und Vista ziemlich verschwenderisch oder?
reunion
2005-12-03, 11:56:05
Das dürfte davon abhängen ob es schon ein D3D10 oder noch ein D3D9 Chip wird.
Wurde nicht gegen Mitte dieses Jahres noch behauptet, dass die D3D10(damals WGF2.0)-Specs noch gar nicht feststehen, und jetzt soll nV im Januar zu R580 schon einen fertigen D3D10-Chip haben? IMHO kommt jetzt erstmal ein 8-Quad-G70 Anfang 2006, und wenn allles gut geht frühestens gegen Mitte des Jahres ein D3D10-Core.
Demirug
2005-12-03, 12:15:25
Die 300 Seiten Spec ist fertig und mit etwas Glück bekomme ich zumindestens einen Teil davon noch diesen Monat. Die IHVs haben sie schon länger.
Der Refrast für D3D10 ist ebenfalls fertig und auf die Frage wie es mit Hardware aussieht haben die beiden Microsoft Mitarbeiter einen optimistischen Eindruck gemacht aber sich auf ein "Wir dürfen nichts sagen" zurück gezogen.
Hauwech
2005-12-03, 13:00:56
Von dem was man so gehört hat scheint es in der letzten Zeit eher um "Feinheiten" von D3D10 gegangen zu sein, oder?
Demirug
2005-12-03, 13:07:52
Von dem was man so gehört hat scheint es in der letzten Zeit eher um "Feinheiten" von D3D10 gegangen zu sein, oder?
In letzer Zeit scheint es nur noch darum zu gehen "Was erzählen wir der Öffentlichkeit".
"Without disclosing the details just yet" ist eine typische Wortfolge die im Moment im Zusammenhang mit D3D10 gerne genutzt wird.
Leonidas
2005-12-04, 18:48:11
Ich verwette sonstwas, dass "D3D10" trotzdem als "DirectX 10" genannt wird, egal ob nur D3D geupdated wurde oder nicht. Alles andere verwirrt den DAU doch viel zu sehr.
Erstens ja, zweitens ist D3D doch nur ein Teil von DX.
Leonidas
2005-12-04, 18:52:03
ATI sollte da keine gravierenden Nachteil haben. Die basteln auch lange schon an einem D3D10 Chip und werden sicher auf jeden Chip von NV reagieren können.
Beide Hersteller haben ihre Vista-Chips schon für Ende 2005 geplant, da Vista ja eigentlich schon dieses Jahr kommen sollte. Nun haben beide Hersteller ein Jaht mehr Zeit, womit ich denke, das beide mehr als rechtzeitig fertig sein werden und der Releasezeitpunkt eher keine Frage der fertigen HW sein wird, sondern es danach gehen dürfte, wann es den Herstellern in den Kram passt.
Schließlich bedeutet eine neue Generation auch immer, daß die Verkäufe der alten Generation sofort nachlassen. Außerdem kann man die neue Generation auch nur mit Vista verkaufen. Insofern glaube ich nicht, daß beide Hersteller deulich vor Vista ihre neue Generation vorstellen werden.
Ailuros
2005-12-04, 22:09:53
Nur wird ATi R580 als 48 Pipeline-Chip verkaufen.
In dem Sinn hat dann G7x aber dann auch 64 "pipelines" :P
Wieso 64? Das versteh ich jetzt nicht. 48 ok, aber wieso 64?
Oder spielst du schon auf einen 32-Pipeline G7x an?
Godmode
2005-12-04, 22:46:20
Außerdem kann man die neue Generation auch nur mit Vista verkaufen. Insofern glaube ich nicht, daß beide Hersteller deulich vor Vista ihre neue Generation vorstellen werden.
Also die neuen werden sicherlich mehr Performance haben als die alten, ergo könnte man diese sicherlich gut verkaufen. Ich kann halt dann nur die DX9 Features nützen, DX10 ruht dann bis Vista erhältlich ist.
Aber: Nvidia zb könnte noch einen 90nm Highendchip vor ihrem Vistachip bringen, aber ob es das bringt noch einen Highendchip der alten Garde herzustellen?
Was ich noch nicht durchschaut habe ist folgendes: Wenn die Nexgenchips für Ende 2005 geplant waren, dann aber erst Mitte bis Ende 2006 kommen, stimmt doch die Performance nicht mehr? Ich kann ja die Chips nicht einfach mal um einen ganzen Zyklus verschieben, weil ich die Performance die für 2005 geplant war, dann erst 2006 bekomme, aber jetzt schon besseres möglich wäre. Es könnte auch sein, dass diese Teile extrem leicht nach oben skalierbar sind, wo ATI und Nvidia dann einfach ein paar Recheneinheiten dazuhängen können. Hier das praktische Beispiel dazu:
2003: Planung eines DX10 Chip mit der Leistung 100 der für Mitte 2005 zum Verkauf bereit sein soll.
2004: Hinweise dass der Mitte 2005 Termin nach Mitte bis Ende 2006 verrutscht. Dadurch wird der Chip redesignd, um die für Mitte bis Ende 2006 entsprechende Performance von 250 zu liefern. Nebenbei wird eine Überbrückungsline mit dem Namen G7x entworfen, welche die für das Jahr 2005 entsprechende Performance von 170 hat. Die Frage ist jetzt, ob noch was stärkers nach 7800GTX512Mb kommt mit G7x Technik.
Jetzt war es doch immer so, das jedes Jahr eine neue Serie raus kommt und für Nvidia wäre es dann im April/Mai wieder soweit und da könnte man sicher schon den DX10 Chip launchen, weil es ja ab dort nicht mehr so lange dauert bis Vista gelauncht wird. Den R300 gabs doch auch bevor DX9 auf dem Markt war IIRC? Man könnte dann halt ein paar Demos auf BetaVista zeigen oder sowas in der Art.
Demirug
2005-12-04, 23:36:27
bansi3i, als der R300 rauskamm gab es schon eine DX9 Beta und ATI ist es gelungen MS dazu zu bringen eine öffentliche DX9 Beta heraus zu bringen.
Derzeit ist mit einer D3D10 Beta täglich zu rechnen...
Godmode
2005-12-05, 00:25:58
Also steht einer DX10 GPU vor der Vista Veröffentlichung nichts im Wege, oder?
Grobblin
2005-12-05, 00:29:02
natuerlich nicht, da es auch noch ein zusaetzliches kaufargument ist: zukunftssicher
Zukunftssicherheit gibt es bei Hardware nicht. Irgendwann wirds auch unspielbar obwohl es läuft und solang die Karte schnell genug ist gibts auch entsprechende Spiele dafür.
deekey777
2005-12-05, 00:38:47
In dem Sinn hat dann G7x aber dann auch 64 "pipelines" :P
Gilt bei nVidia nicht 1+1=1?
(Es sind zB bei der G70 48 ALUs, doch diese dann als 48 "Pipelines" zu bezeichnen, wäre doch etwas zu gewagt.)
http://www.ati.com/products/RadeonX1600/specs.html
Features
157 million transistors on 90nm fabrication process
Dual-link DVI
Twelve pixel shader processors
Five vertex shader processors
[...]
Speku: Auch beim R580 wird von pixel shader processors gesprochen, denn 48 PS Prozessoren klingen cooler als 16 Pipelines.
mapel110
2005-12-05, 01:57:17
http://www.nvnews.net/vbulletin/showthread.php?t=60956
750/1000 für die Geforce 7900 aka G71. O_o
SKYNET
2005-12-05, 02:13:47
http://www.nvnews.net/vbulletin/showthread.php?t=60956
750/1000 für die Geforce 7900 aka G71. O_o
du meinst 750/1900 b.z.w. 750/950 ;)
und frag mal tombi, was ich ihm schon vor nen paar wochen erzählte... ;D
mapel110
2005-12-05, 02:18:18
du meinst 750/1900 b.z.w. 750/950 ;)
Ja, okay, sicherer OC schon eingerechnet. :D
Ailuros
2005-12-05, 06:45:47
Gilt bei nVidia nicht 1+1=1?
(Es sind zB bei der G70 48 ALUs, doch diese dann als 48 "Pipelines" zu bezeichnen, wäre doch etwas zu gewagt.)
Kommt ganz drauf an wie Du die Realitaet gerade verdrehen willst; es sind am Ende 24 gegen 16 "pipes" zwischen G70 und R520 und dazu kommt noch die Taktrate dann dazu.
Ja es sind 48 ALUs auf G70 die aber u.U. auch texture OPs mitberechnen muessen.
Warst es nicht Du der behauptet hat dass Texel-fuellrate immer noch Vorrang haben soll? R520<->G70 = 16:24 und R580<->G7x = 16:32 (?). Wie genau willst Du jetzt "pipelines" zaehlen?
http://www.ati.com/products/RadeonX1600/specs.html
Features
157 million transistors on 90nm fabrication process
Dual-link DVI
Twelve pixel shader processors
Five vertex shader processors
[...]
Speku: Auch beim R580 wird von pixel shader processors gesprochen, denn 48 PS Prozessoren klingen cooler als 16 Pipelines.
Die ALUs auf G70 sind auch PS Prozessoren.
The net result is that G70 features 48 fragment shaders of the same capabilities, with one of them having to handle the texture processing instructions. The pipelines are arranged as a single SIMD array and they will all be operating on data of the same state.
http://www.beyond3d.com/previews/nvidia/g70/index.php?p=02
ShadowXX
2005-12-05, 09:24:34
Gilt bei nVidia nicht 1+1=1?
(Es sind zB bei der G70 48 ALUs, doch diese dann als 48 "Pipelines" zu bezeichnen, wäre doch etwas zu gewagt.)
http://www.ati.com/products/RadeonX1600/specs.html
Features
157 million transistors on 90nm fabrication process
Dual-link DVI
Twelve pixel shader processors
Five vertex shader processors
[...]
Speku: Auch beim R580 wird von pixel shader processors gesprochen, denn 48 PS Prozessoren klingen cooler als 16 Pipelines.
Genauso wie 95% aller Reviews beim x1600 von 12Pipes sprechen, werden wieder 95% aller Reviews beim r580 von 48 Pipes sprechen.
Sowas wie "Pixelprocessors" ist zu abstrakt für einen Dau....an "Pipeline" haben Sie sich dagegen gewöhnt.
Das nächstesmal (r580 vs. G"irgendetwas") bestimmt lustig bei den Reviews....
Godmode
2005-12-05, 10:06:55
http://www.nvnews.net/vbulletin/showthread.php?t=60956
750/1000 für die Geforce 7900 aka G71. O_o
Das sind 200Mhz mehr als bei der 512GTX, also das dürfte ordentlich Leistung bringen. Ob da auch noch an den Pixelprozessoren was gemacht wurde? Hoffen wir das es dann wirklich 750Mhz sind.
robbitop
2005-12-05, 13:31:15
Ja es sind 48 ALUs auf G70 die aber u.U. auch texture OPs mitberechnen muessen.
Die müssen keine T-Ops mit berechnen. Diese werden lediglich über die Crossbars der ALUs gefetchet.
Dies ist allerdings nicht so schlimm, da auf jeden zu filternden Texel sehr sehr viele aritmetische Takte folgen.
Was viel schlimmer ist, ist die nichtvorhandene Nebenläufigkeit der CineFX Pipe. Allerdings kostet sie dafür weniger Transistoren und kann mehr ALUs aufnehmen bei gleicher Transistoranzahl und das gleicht bisher alles wieder ein wenig aus.
Genauso wie 95% aller Reviews beim x1600 von 12Pipes sprechen, werden wieder 95% aller Reviews beim r580 von 48 Pipes sprechen.
Sowas wie "Pixelprocessors" ist zu abstrakt für einen Dau....an "Pipeline" haben Sie sich dagegen gewöhnt.
Das nächstesmal (r580 vs. G"irgendetwas") bestimmt lustig bei den Reviews....Dann wird es sie aber sicher wundern warum doppelt so viele Pipelines so wenig mehr Leistung bringen :rolleyes:
robbitop
2005-12-05, 14:30:03
Das schöne ist ja, dass mit aktuellen Spielen endlich über die aritmetische Leistung mitskaliert wird. Die läßt sich schön steigern, ohne dass man groß auf die Bandbreite achten muss.
Nightspider
2005-12-05, 14:56:37
@ mapel 110 - du bist schneller als die Polizei erlaubt...5 mal refresht, von 5 auf 13 hits in 30 sek und schon war er geclosed :D
-sorry, für das zitieren der PCGH news
Auf tomshardware, steht das hynix bereits jetzt test samples von GDDR 4 Speichern ausliefert und diese schneller als die von samsung angekündigten sind zitat:
Der Hynix 16Mx32 512Mbit GDDR4 erreicht eine Geschwindigkeit von 2.9Gbps sowie einen Datendurchsatz von 11.6 GB pro Sekunde. Damit eigne sich der Chip hervorragend für den Einsatz in Game-Konsolen und für PC auf 64-Bit-Basis.
Und Hynix wird diese ab anfang 2006 produzieren...
G80 kommt garantiert mit GDDR 4 ;D ;D ;D
Audigy
2005-12-05, 14:58:53
wann soll sie denn gelauncht werden?
der andere thread ist ja dicht und hier habe ich keinen bock extra auf seite 1 zu springen
mapel110
2005-12-05, 15:04:01
wann soll sie denn gelauncht werden?
der andere thread ist ja dicht und hier habe ich keinen bock extra auf seite 1 zu springen
Ich würde mal stark von März ausgehen. Aber sicher ist noch nichts.
Die gelbe Eule
2005-12-05, 15:13:36
Yay, die 7800gtx wird dann Mainstream im Januar ^^
1. Was kann man von nem Unified Shader erwarten ? Wieviel Leistungszuwachs (grob)in % geschätzt ?
2. Gibt es ähnlich starke Verbesserungen der Grafik durch SM4.0 wie bei SM3.0 mit HDR ?
3. Könnte es sein, das Nvidia und ATI dann auch schon GDDR4 Speicher verbauen werden ? [verbraucht dieser weniger Strom als GDDR3 ?]
4. Glaubt ihr, die sind schon so "freaky" und bauen gegen Ende nächsten Jahres schon 1GB Speicher auf die Karten ?
5. Könnte es sein, das NVIDIA / ATI etwas zur Verbesserung der Physik Leistung einbauen ?
//ich liebe es Fragen zu stellen :) //Hallo,
vor Fragezeichen bitte kein Leerzeichen lassen.
1. Das kann man nicht sagen. Unified Shader sind komplexer als spezialisierte Shader, aber erlauben ein Load-Balancing zwischen Vertex- und Pixellast. Das ist auch der Hauptgrund warum man sie mal einführen wird.
2. HDR-Lighting hat eigentlich nichts mit SM3 zu tun.
3. Das könnte sein. Aber wozu GDDR4, wenn es auch andere Möglichkeiten gibt, die nutzbare Speicherbandbreite zu steigern? Diese andere Methoden müssen ohnehin kommen – da mit GDDR4 die Burstzeiten sicher nicht kleiner werden.
4. Ich hätte zumindest nichts dagegen.
5. Nicht speziell. Aber beide Hersteller versuchen ihre GPUs so flexibel zu machen, dass man dereinst C auf ihnen laufen lassen kann – damit wäre prinzipiell auch Physik machbar. Allerdings muss man ohnehin zwischen Spielphysik und Effektphysik unterscheiden. Letzteres ist schon auf SM3-Chips ganz gut zu berechnen.
SKYNET
2005-12-05, 15:36:45
Ich würde mal stark von März ausgehen. Aber sicher ist noch nichts.
februar!
Mr. Lolman
2005-12-05, 16:07:01
Jertzt reichts schön langsam schon wieder mit dem Releasewahn von neuer HW.
Wer kauft jetzt schon eine GTX512 wenns 2 Monate später ne 40% schnellere Version gibt. Mit R520 vs. R580 siehts ähnlich aus.
Blaze
2005-12-05, 16:09:24
februar!
Dann weiß ich ja was ich mir zum Geburtstag schenke :D
Wer jetzt noch High-End kauft, dem ist IMHO nicht zu helfen. :tongue: Man muss bei derart schnellen Releases neuer Flaggschiffe wirklich verdammt viel Geld haben, um den Verlust zu verschmerzen. Lieber eine "lahme" 7800 GT kaufen, alles zocken können und der Dinge harren, die da kommen mögen. Dann in einem Jahr eine 8800 GT holen und weiter geht's. Ist billiger als alle 3 Monate 200€ Verlust. ;)
MfG,
Raff
ShadowXX
2005-12-05, 17:15:24
Jertzt reichts schön langsam schon wieder mit dem Releasewahn von neuer HW.
Wer kauft jetzt schon eine GTX512 wenns 2 Monate später ne 40% schnellere Version gibt. Mit R520 vs. R580 siehts ähnlich aus.
Naja...die GTX512 würde ich mehr als Prestigeobjekt, denn als ernstgemeinte Karte für den High-End-Markt sehen.
Ein Benchmarkgewinn-Karte halt.....
deekey777
2005-12-05, 17:20:44
Kommt ganz drauf an wie Du die Realitaet gerade verdrehen willst; es sind am Ende 24 gegen 16 "pipes" zwischen G70 und R520 und dazu kommt noch die Taktrate dann dazu.
Warum bringst du jetzt den R520 in die Diskussion? Ich finde ein Posting von Demirug nicht, wo er meinte, daß der R520 ein 32-Piper ist, es war wohl sehr weit ausgelegt.
Ja es sind 48 ALUs auf G70 die aber u.U. auch texture OPs mitberechnen muessen.
Doch wieviele Pixel können diese 48 ALUs aufeinmal berechnen?
(Diese Diskussion hatten wir schon einmal.)
Warst es nicht Du der behauptet hat dass Texel-fuellrate immer noch Vorrang haben soll? R520<->G70 = 16:24 und R580<->G7x = 16:32 (?). Wie genau willst Du jetzt "pipelines" zaehlen?
Laß doch den R520 aus dem Spiel. ;) :D
Und nein, Coda war's. :biggrin:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3247833&postcount=5283 (wurde aber vor Äonen verfasst.)
Bzw. und zutreffender:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3540480&postcount=10313
Wie ich die Pipelines zählen will? "Umdenken" lautet die Devise. Aber du kannst Gift drauf nehmen, daß in den Spezifikationen des R580 die Zahl 16 nur bei AF und PCIe auftauchen wird. ;)
Die ALUs auf G70 sind auch PS Prozessoren.
http://www.beyond3d.com/previews/nvidia/g70/index.php?p=02
Das ist schön für die G70, doch es ging mir nicht darum, sondern wie ATi beim RV530 zählt: Ich sehe nicht, daß dort 12 "Pipelines" steht.
ShadowXX
2005-12-05, 17:28:28
Das ist schön für die G70, doch es ging mir nicht darum, sondern wie ATi beim RV530 zählt: Ich sehe nicht, daß dort 12 "Pipelines" steht.
Dort nicht unbedingt....aber guck dir doch mal die Reviews des RV530 im Netz an, da steht an allen Enden und Ecken "12 Pipelines".
Und die Leute gucken was die Reviewer so schreiben....
Ich weiß nicht ob es hier schon posted wurde.
Aber der Refresh wird wahrscheinlich:
7900 Ultra, 750MHz Core, 1900 effektive MHz Speicher, 90nm.
SKYNET
2005-12-05, 17:55:02
Jertzt reichts schön langsam schon wieder mit dem Releasewahn von neuer HW.
Wer kauft jetzt schon eine GTX512 wenns 2 Monate später ne 40% schnellere Version gibt. Mit R520 vs. R580 siehts ähnlich aus.
mit nem nachteil das der R580 grade mal an der leistung einer GTX512 kratzen wird...
Godmode
2005-12-05, 18:16:09
mit nem nachteil das der R580 grade mal an der leistung einer GTX512 kratzen wird...
Kennst du die Leistungsdaten beider Chips schon, oder schließt du von den Aktuellen auf die Neuen?
reunion
2005-12-05, 19:04:31
mit nem nachteil das der R580 grade mal an der leistung einer GTX512 kratzen wird...
Träum weiter.
Aber der Refresh wird wahrscheinlich:
7900 Ultra, 750MHz Core, 1900 effektive MHz Speicher, 90nm.
Die Chiptaktrate ist IMHO viel zu hoch, immerhin wird das Ding höchstwarscheindlich über 32 TMUs verfügen. Das würde einer Texelfüllrate von 24000MTexel/s entsprechen, viel zu viel für 950Mhz GDDR3 an einem 256-bit Bus.
sklave_gottes
2005-12-05, 19:12:53
mit nem nachteil das der R580 grade mal an der leistung einer GTX512 kratzen wird...
Das glaube ich nie und nimmer.Aleine durch den vergleich zwischen r515 und r530 kann man schon erahnen wie schnell der r580 sein wird.(wenn die specs stimmen)
Die Chiptaktraten sind IMHO viel zu hoch, immerhin wird das Ding höchstwarscheindlich über 32 TMUs verfügen. Das würde einer Texelfüllrate von 24000MTexel/s entsprechen, viel zu viel für 950Mhz GDDR3 an einem 256-bit Bus.Würde ich nicht so sehen. Solange die Shaderprogramme immer mehr Befehle enthalten kann das durchaus reichen.
robbitop
2005-12-05, 19:31:42
mit nem nachteil das der R580 grade mal an der leistung einer GTX512 kratzen wird...
Forget about. Die aritmetische Leistung ist heutzutage so wichtig, dass eine Erhöhung der ALUs in aktuellen und neuen Games gut mitskaliert. Mit 48 ALUs @~700MHz sollte R580 sehr gut gewappnet sein.
Demirug
2005-12-05, 19:32:52
Forget about. Die aritmetische Leistung ist heutzutage so wichtig, dass eine Erhöhung der ALUs in aktuellen und neuen Games gut mitskaliert. Mit 48 ALUs @~700MHz sollte R580 sehr gut gewappnet sein.
Sorry aber das ist BS.
robbitop
2005-12-05, 19:36:51
Sorry aber das ist BS.
Statt so agressiv und unpassend zu reagieren, könntest du die Negierung meiner Aussage freundlicherweise etwas ausführen?
BTW: die Ergebnisse der X1600PRO ggü NV Pendants mit deutlich mehr Füllrate sprechen IMO für sich (siehe da FEAR oder COD2).
sklave_gottes
2005-12-05, 19:43:33
Ihr müsst euch doch einfach den unterschied zwischen r515 und r530 ansehen.Da ist z.b. nur durch verdreifachung der alu und pixel shader bis zu 100% mehr leistung drin.
Also denke ich das der r580 mit 700mhz chip minimum 50% schneller ist als der r520
reunion
2005-12-05, 19:45:06
Ihr müsst euch doch einfach den unterschied zwischen r515 und r530 ansehen.Da ist z.b. nur durch verdreifachung der alu und pixel shader bis zu 100% mehr leistung drin.
Also denke ich das der r580 mit 700mhz chip minimum 50% schneller ist als der r520
Am RV515 wurde weitaus mehr abgespeckt, als nur die ALUs, das sieht man schon alleine am Vergleich der Transistorenanzahlen. RV530 bringt gut 50% mehr mit. Ihm fehlt u.a. der verbesserte Speichercontroller der X1K-Serie, sowie die doppelte Z/Stencil-Füllrate der ROPs.
Hinzu kommt noch der wesentlich höhere Speichertakt.
robbitop
2005-12-05, 19:54:44
Am RV515 wurde weitaus mehr abgespeckt, als nur die ALUs, das sieht man schon alleine am Vergleich der Transistorenanzahlen. RV530 bringt gut 50% mehr mit. Ihm fehlt u.a. der verbesserte Speichercontroller der X1K-Serie, sowie die doppelte Z/Stencil-Füllrate der ROPs.
Hinzu kommt noch der wesentlich höhere Speichertakt.
Der Ringbuscontroller vor Allem.
Dennoch schlägt sich die X1600XT für einen 1 Quad Chip ggü anderen Chips sehr gut. Vergleich ggü: X700 Serie ggü. 6600 Serie und ggü der 9600XT.
Die ALUs tun ihren Großteil dazu bei IMO. Man sieht, dass ALU Leistung immer wichtiger wird. Gerade bei FEAR kommt das sehr gut hin und es geht immer mehr in diese Richtung.
sklave_gottes
2005-12-05, 19:57:26
also ich habe nichts von weiterer kürzungen gelesen,lasse mich natürlich sehr gerne beleren.Kann mir aber nicht vorstellen was die noch gekürzt haben. (vertex shader ausgenommen)Der neue speicherkontroller ist doch auch beim r515 oder ?
Hinzu kommt noch der wesentlich höhere Speichertakt.
der aber kaum leistung zusätzlich bringt,für die 4 tmus würden auch 500mhz(1000mhz) reichen.Und selbst wenn, der r580 wird auch einen höheren speichertakt als der r520 haben.
SKYNET
2005-12-05, 20:51:57
Forget about. Die aritmetische Leistung ist heutzutage so wichtig, dass eine Erhöhung der ALUs in aktuellen und neuen Games gut mitskaliert. Mit 48 ALUs @~700MHz sollte R580 sehr gut gewappnet sein.
ich könnte ja mal aussm nähkästchen plaudern... aber selbst tombi sage ich net alles! :redface:
robbitop
2005-12-05, 20:55:35
ich könnte ja mal aussm nähkästchen plaudern... aber selbst tombi sage ich net alles! :redface:
Du hast sogar behauptet, NV bringt winkelunabhängiges AF wieder.
Godmode
2005-12-05, 20:59:32
ich könnte ja mal aussm nähkästchen plaudern... aber selbst tombi sage ich net alles! :redface:
Zuerst die Leute scharf machen und dann nichts sagen. :mad: Aber ich glaub dir einfach mal, da du bei der 512erGTX auch vorher schon alles wusstest.
SKYNET
2005-12-05, 21:02:47
Du hast sogar behauptet, NV bringt winkelunabhängiges AF wieder.
so wars geplant...
aber meine treiber infos sind anscheinend net so genau wie die für die hardware, weil die haben gestimmt, darfst gerne bei tombi nachfragen... der bekommt ja immer fast nen orgasmus wenn ich wieder neue news habe... X-D
reunion
2005-12-05, 21:03:15
Dennoch schlägt sich die X1600XT für einen 1 Quad Chip ggü anderen Chips sehr gut. Vergleich ggü: X700 Serie ggü. 6600 Serie und ggü der 9600XT.
Prinzipiell richtig, allerdings benötigt das eine Quad auch locker das Transistorenbudget der oben genannten zwei-Quad-Chips.
mapel110
2005-12-05, 21:08:10
Prinzipiell richtig, allerdings benötigt das eine Quad auch locker das Transistorenbudget der oben genannten zwei-Quad-Chips.
Sehe ich auch so, auch wenn das "Dranklatschen" von SM3 bei ATI wohl recht teuer war.
reunion
2005-12-05, 21:09:27
also ich habe nichts von weiterer kürzungen gelesen,lasse mich natürlich sehr gerne beleren.Kann mir aber nicht vorstellen was die noch gekürzt haben. (vertex shader ausgenommen)Der neue speicherkontroller ist doch auch beim r515 oder ?
RV515 ist ein absoluter Low-Cost-Chip, da wird gerne an allen Ecken und Enden gespart. Wer weiß, was ATi da alles gekürzt hat, um auf die anvisierte Transistorenanzahl zu kommen. Den Vergleich mit RV530 halte ich für äußerst problemantisch.
Und nein, der neue Speichercontroller ist bei RV515 nicht vorhanden.
der aber kaum leistung zusätzlich bringt,für die 4 tmus würden auch 500mhz(1000mhz) reichen.Und selbst wenn, der r580 wird auch einen höheren speichertakt als der r520 haben.
Wenn es nichts bringen würde, hätte ATi wohl kaum auf einen derart hochgetakteten Speicher gesetzt.
Sehe ich auch so, auch wenn das "Dranklatschen" von SM3 bei ATI wohl recht teuer war.
Ich denke eher, dass die nebenläufigen TMUs, sowie der neue Speichercontroller (etc.) sehr teuer sind. Dieser "Dranklatsch"-Theorie kann ich nichts abgewinnen, jeder Chip baut auf dem Vorgängermodell mehr oder weniger stark auf.
Eines der wichtigsten Features von SM3, nämlich das dynamische Branching (im PS), bearbeitet ein R520 sogar wesentlich schneller als ein G70 - man sollte sich mal fragen, ob da nicht bei G70 mehr "drangeklatscht" wurde.
Zuerst die Leute scharf machen und dann nichts sagen. :mad: Aber ich glaub dir einfach mal, da du bei der 512erGTX auch vorher schon alles wusstest.
Die Zahlen schwirrten schon lange vorher in verschiedenen Foren herum.
Leonidas
2005-12-05, 21:36:49
Was ich noch nicht durchschaut habe ist folgendes: Wenn die Nexgenchips für Ende 2005 geplant waren, dann aber erst Mitte bis Ende 2006 kommen, stimmt doch die Performance nicht mehr?
Jein. Die Performance wird nicht nur über das Grunddesign bestimmt, welches man sehr früh festlegt, sondern auch über die Anzahl der Pipelines, die man auch noch recht spät anpassen kann und über den Takt, welcher faktisch von alleine mitwächst.
Paul Brain
2005-12-05, 21:37:41
"Winkelunabhängiges AF"
so wars geplant...
aber meine treiber infos sind anscheinend net so genau wie die für die hardware, weil die haben gestimmt, darfst gerne bei tombi nachfragen... der bekommt ja immer fast nen orgasmus wenn ich wieder neue news habe... X-D
Weiß man dazu schon mehr? Wird der G70-Refresh verbessertes AF haben, oder ist damit (falls überhaupt) erst beim G80 zu rechnen?
Weiters würd mich mal interessieren, wies jetzt mit der großmäulig zugesicherten H.264-Beschleunigung aussieht: Kann G70 das jetzt wenigstens teilweise, oder sind die X1k die einzigen Karten, die das zusammenbringen? Oder wirds sogar eine Treibernachrüstung für ältere Karten á la X800XT geben?
Greets,
robbitop
2005-12-05, 21:45:20
so wars geplant...
aber meine treiber infos sind anscheinend net so genau wie die für die hardware, weil die haben gestimmt, darfst gerne bei tombi nachfragen... der bekommt ja immer fast nen orgasmus wenn ich wieder neue news habe... X-D
Die NV4x/G7x HW ist IMO gar nicht dazu imstande.
robbitop
2005-12-05, 21:47:20
Prinzipiell richtig, allerdings benötigt das eine Quad auch locker das Transistorenbudget der oben genannten zwei-Quad-Chips.
Das spielt bei meinem Konflikt/Aussage aber keine Rolle.
Aber ja u're right. Liegt am Ringbus, an der Cacheassoziativität, am threading konzept und am ineffizienten Aufbohren des R300 PP für FP32. Branching wird auch gekostet haben. R520 ist tw ein Flickwerk und das kostet.
Godmode
2005-12-05, 21:53:02
...sondern auch über die Anzahl der Pipelines, die man auch noch recht spät anpassen kann...
Ok danke für die Info, genau das wusste ich nicht, ich dachte es muss von Anfang an bekannkt sein wieviel Pipes verbaut werden.
Die Zahlen schwirrten schon lange vorher in verschiedenen Foren herum.
Der wusste das schon vorher, da gab es diese News noch nirgendwo, weder bei Beyond, noch bei irgendwelchen Chinesen.
HiddenGhost
2005-12-05, 22:20:22
Bei allen Fortschritten bei der Performance, glaubt ihr, dass es endlcih mal wieder leise Grafikkarten geben wird, die mit einem Slot auskommen. 65nm Produktion, SOI und all die anderen Leckerlie aus der CPU Produktion könnten doch auch endlich mal von den Grafikkarten herstellern adaptiert werden.
Wenn ich da Wahl hab, zwischen einem lauten aber schnellen PC und einem etwas langsameren und dafür leisen weil kühlen Gerät würde ich zu diesem greifen, e.g. Barebones mit stromsparenden Notebookchipsätzen und Stromspar CPUs sollte man doch endlich mal mit angemessener Grafik belgücken dürfen, oder?
mfg
Godmode
2005-12-05, 22:26:26
Die 256er GTX ist schnell, leise und Singleslot, also was willst du mehr?
Die 512er GTX ist noch viel schneller, leiser aber dafür Dualslot.
HiddenGhost
2005-12-05, 23:04:37
Geld, AGP Version und ausgereiftere Stromsparmechanismen, die man von den Mobiles in die Desktops adaptiert.
HiddenGhost
2005-12-05, 23:22:13
Hmm...die is mir zu langsam ;). Ich möchte von meiner jetzigen 9800Pro noch aufrüsten, leider gibts kaum noch AGP Karten zu vertretbaren Preisen :'(
don_salieri
2005-12-05, 23:50:38
Hmm...die is mir zu langsam ;). Ich möchte von meiner jetzigen 9800Pro noch aufrüsten, leider gibts kaum noch AGP Karten zu vertretbaren Preisen :'(Ich weiss nicht was Du unter "vertretbar" verstehst, aber bei Alternate gibt es eine X800XT für 259 EUR:
http://www.alternate.de/html/shop/productDetails.html?artno=JAGB30&
Stromsparend und leise ist die Karte dank low-k auch.
Godmode
2005-12-05, 23:51:10
Geld
wer will das nicht :wink:
AGP Version
darüber kann man diskutieren
Stromsparmechanismen, die man von den Mobiles in die Desktops adaptiert.
Ob das soviel bringt? im Idle bringts sicher was, aber unter Last bleibt sich das gleich IMO. Faktisch sind die Mobiles gleich den Desktopchips, bis auf die Stromsparmachanismen, wobei ich mir vorstellen könnte, dass dies auch nur über den Treiber realisiert wird (siehe 7800GTX Go).
SKYNET
2005-12-06, 00:00:19
Die Zahlen schwirrten schon lange vorher in verschiedenen Foren herum.
wohl kaum, wo ich es mit der "ultra" wusste, gabs noch net mal genaue infos zum GTX512.... :P
[edit] bans3i war schneller. ;(
reunion
2005-12-06, 00:06:28
Würde ich nicht so sehen. Solange die Shaderprogramme immer mehr Befehle enthalten kann das durchaus reichen.
Ich weiß nicht, 38.4 GB/s Bandbreite für die GTX 256 bei 10.3 GTexels/s Füllrate, 48 GB/s Bandbreite für die GTX 512 mit 13.3 GTexels/s Füllrate, und dann soll ein fiktiver G71 mit 24 GTexels/s nur mit knapp über 50GB/s auskommen?
Sollte der Chip tatsächlich >700Mhz takten, dann bleibt man IMHO bei 6 Quads. Wesentlich warscheindlicher halte ich allerdings momentan 8 Quads bei ~600Mhz.
SKYNET
2005-12-06, 00:10:42
Ich weiß nicht, 38.4 GB/s Bandbreite für die GTX 256 bei 10.3 GTexels/s Füllrate, 48 GB/s Bandbreite für die GTX 512 mit 13.3 GTexels/s Füllrate, und dann soll ein fiktiver G71 mit 24 GTexels/s nur mit knapp über 50GB/s auskommen?
Sollte der Chip tatsächlich >700Mhz takten, dann bleibt man IMHO bei 6 Quads. Wesentlich warscheindlicher halte ich allerdings momentan 8 Quads bei ~600Mhz.
nö
robbitop
2005-12-06, 00:14:15
LOL, die Chromes sind doch ziemlicher shit, mit anderen, aktuellen Entwicklungen verglichen...
Du hast sowas von keine Ahnung...sry
reunion
2005-12-06, 00:14:23
nö
Wir werden sehen.
HiddenGhost
2005-12-06, 00:40:26
Ich weiss nicht was Du unter "vertretbar" verstehst, aber bei Alternate gibt es eine X800XT für 259 EUR:
http://www.alternate.de/html/shop/productDetails.html?artno=JAGB30&
Stromsparend und leise ist die Karte dank low-k auch.
naja, ATI und Linux sind immer noch so eine Sache. Da hab ich einfach keine Lust mehr drauf :(. Außerdem werd ich nie wieder mehr als 150 bis 200€ für ne Grafikkarte ausgeben. Lohnt einfach nich.
Bei den Chromes sind die Treiber AFAIK auch nicht das gelbe vom Ei, weshalb das für mich ausscheidet. Nur weil man sich auf dem 3dcenter rumtreibt werd ich sicher kein "Freak"-Experimente in dieser Hinsicht machen, dazu fehlt mir die Knete.
SKYNET
2005-12-06, 00:49:25
Wir werden sehen.
falsch formulierte aussage!
richtig wäre:
"ich werde sehn, du weißt ja schon"
BlackArchon
2005-12-06, 08:15:30
Ich weiss nicht was Du unter "vertretbar" verstehst, aber bei Alternate gibt es eine X800XT für 259 EUR:
http://www.alternate.de/html/shop/productDetails.html?artno=JAGB30&
Stromsparend und leise ist die Karte dank low-k auch.
Den Artikel gibts nicht. ;(
don_salieri
2005-12-06, 08:29:33
Den Artikel gibts nicht. ;(Das ging ja schnell...habe mir gestern die Connect3D X800XT bestellt. Vielleicht war es ja die einzige ;)
Du hast sogar behauptet, NV bringt winkelunabhängiges AF wieder.NV hatt ein winkelunabhängiges AF – abgesehen vom 2x-Modus bei NV40 und G70.
seahawk
2005-12-06, 09:43:43
Und die HArdware gibt es auch nicht her.
mapel110
2005-12-06, 18:11:00
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=264732
Bezüglich Shaderpower des Gammachrom gehts da weiter!
Paul Brain
2005-12-07, 01:33:28
"Winkelunabhängiges AF"
Weiß man dazu schon mehr? Wird der G70-Refresh verbessertes AF haben, oder ist damit (falls überhaupt) erst beim G80 zu rechnen?
Weiters würd mich mal interessieren, wies jetzt mit der großmäulig zugesicherten H.264-Beschleunigung aussieht: Kann G70 das jetzt wenigstens teilweise, oder sind die X1k die einzigen Karten, die das zusammenbringen? Oder wirds sogar eine Treibernachrüstung für ältere Karten á la X800XT geben?
Greets,
Weiß da von den Gurus niemand was dazu? :wink:
Die, die schreiben, wissen nichts, die, die wissen, schreiben nichts.
BTW, ein G70-(Takt-)Refresh kann gar kein besseres AF haben.
Chris Lux
2005-12-07, 09:24:29
Die, die schreiben, wissen nichts, die, die wissen, schreiben nichts.wow, wie wahr. so wahr, dass es sigverdächtig ist.BTW, ein G70-(Takt-)Refresh kann gar kein besseres AF haben.glaube da ist eher der G80 gemeint.
Godmode
2005-12-07, 10:16:19
BTW, ein G70-(Takt-)Refresh kann gar kein besseres AF haben.
wenn es ein "nur" ein Takt Refresh wäre, es ist ja auch ein kleinerer Prozoss, somit könnten sie auch neue TMUs verwenden, wobei ich aber auch nicht glaube das sie WUAF bieten.
mapel110
2005-12-07, 10:29:50
wenn es ein "nur" ein Takt Refresh wäre, es ist ja auch ein kleinerer Prozoss, somit könnten sie auch neue TMUs verwenden, wobei ich aber auch nicht glaube das sie WUAF bieten.
Mal theoretisch gesponnen... R520 war doch schon im Februar letzten Jahres bei einigen Entwicklern lauffähig. Man könnte annehmen, dass nvidia seitdem ziemlich genau weiß, was ATI an AF bietet. Und diese Zeit denke ich, würde da durchaus ausreichen, um 1 Jahr später einen Chip mit besserem AF (ohne sonstige größere Änderungen) anzubieten.
Irgendjemand meinte ja mal, dass der Umstieg von 130nm auf 110nm sehr leicht ist, weil das Design darauf ausgelegt ist und/oder die beiden Fertigungsprozesse "ähnlich" sind.
Wenn jetzt für 90nm ohnehin stärker neu designed werden müsste, könnte man da auch Neues reinpacken, wobei Neu da ja relativ ist. Es gab ja schon mal gutes AF von nvidia.
seahawk
2005-12-07, 10:56:52
Sagen wir so man könnte den minmalen Filterungsgrad erhöhen.
Hauwech
2005-12-07, 11:08:28
Es kommt wahrscheinlich eher darauf an, wie stark nVidia den Chip sowieso für 90nm neu designen und zusätzlich noch für 'richtige(re)s AF' in dem Sinne umbauen müsste. WUAF dürfte von den Transistorkosten her nicht billig sein.
Daneben muss man dann auch noch schauen welche grundsätzliche Strategie nVidia im Hinblick auf den R580 verfolgt:
Noch mehr Quads (8?) und 'mäßige' Taktraten oder bei 6 bleiben und 'nur' kräftig an der Taktschraube zu drehen?
So stelle ich es mir zumindest als Laie vor.
Godmode
2005-12-07, 11:11:02
Andererseits wäre es irgendwie komisch wenn ein Geforce7 Chip jetzt plötzlich WUAF unterstützt, aber man kann ja hoffen.
robbitop
2005-12-07, 13:52:36
Ich persönlich glaube nicht, dass ein WU AF im NV4x nocheinmal vorkommen wird (das inkludiert natürlich auch Geforce7 Derivate)
reunion
2005-12-07, 14:00:30
Wenn jetzt für 90nm ohnehin stärker neu designed werden müsste, könnte man da auch Neues reinpacken, wobei Neu da ja relativ ist. Es gab ja schon mal gutes AF von nvidia.
Naja, die Library ändert sich natürlich, den Chip muss man aber deshalb nicht neu designen IMO.
Gerade weil NV40 isotrope und 2x anisotrope Filterung (im Gegensatz zum R520) tatsächlich beinahe winkelunabhängig bietet, wäre es für NV schon seit dem NV40 die Chance gewesen, mal richtig gutes 16x AF zu bieten. Auch ohne Unterfilterung und so.
Sunrise
2005-12-07, 14:58:18
Naja, die Library ändert sich natürlich, den Chip muss man aber deshalb nicht neu designen IMO.Das hängt davon ab, was genau man mit "neu designen" eigentlich meint. Einen Chip an einen Prozess mit Low-K anzupassen erfordert schon etwas Aufwand, mit einem "simplen" optischen Shrink hat das dann auch nichts mehr zu tun, da sich hier grundsätzliche Charakteristika ändern, siehe NV30.
Ailuros
2005-12-07, 18:17:05
Das hängt davon ab, was genau man mit "neu designen" eigentlich meint. Einen Chip an einen Prozess mit Low-K anzupassen erfordert schon etwas Aufwand, mit einem "simplen" optischen Shrink hat das dann auch nichts mehr zu tun, da sich hier grundsätzliche Charakteristika ändern, siehe NV30.
Die Frage ist - wie Du auf B3D schon sagtest - eher ob NVIDIA wirklich noch einen NV4x/G7x basierenden high end refresh brauchen wird. Mainstream und budget wird ja noch in low-k 90nm kommen, ergo ist wohl der Aufwand hier fuer high end zumindest theoretisch nicht mehr so hoch.
***edit: arrgggh entschuldige das war Degustator *kopfklatsch*
Godmode
2005-12-07, 19:01:37
Die Frage ist - wie Du auf B3D schon sagtest - eher ob NVIDIA wirklich noch einen NV4x/G7x basierenden high end refresh brauchen wird. Mainstream und budget wird ja noch in low-k 90nm kommen, ergo ist wohl der Aufwand hier fuer high end zumindest theoretisch nicht mehr so hoch.
***edit: arrgggh entschuldige das war Degustator *kopfklatsch*
Ich denke das kommt ganz drauf an, wann der G80 kommt. Sollte er wirklich erst gegen Ende 2006 kommen, braucht man sicher noch was, aber wenn er schon Mitte 2006 kommt frag ich mich schon wozu? Vielleicht fühlt sich ja Nvidia vom R580 bedroht, oder aber was ich eher glaube, dass der G71 billiger zum produzieren ist.
90nm bringt ggü. 110nm ungefähr 50% mehr Transistoren/Fläche. Grob abgeschätzt belegen 2 Quads so 10-15% DIE-Fläche von G70.
Also könnte das Ding wirklich billiger herzustellen sein.
Nightspider
2005-12-08, 00:33:03
Wenn es die 7800 GTX 512 im Januar vllt schon nichtmehr gibt und die 7900 Ultra "relativ" "günstig" herzustellen ist, könnten die ja die 7900 Ultra für 550-650 Euronen herausbringen oder ?
Dann wäre Nvidia bis mind. Jan-Feb. unschlagbar...
mapel110
2005-12-08, 01:19:28
Wenn es die 7800 GTX 512 im Januar vllt schon nichtmehr gibt und die 7900 Ultra "relativ" "günstig" herzustellen ist, könnten die ja die 7900 Ultra für 550-650 Euronen herausbringen oder ?
Dann wäre Nvidia bis mind. Jan-Feb. unschlagbar...
Ich kann mir gut vorstellen, dass nivida eben bei 24 Pipes bleibt und somit den G71 auch als 512GTX(G70 mit 550 Mhz Coretakt) verkaufen kann.
Wenn der Speicher bis dahin gut verfügbar ist, spricht dann nichts mehr dagegen, die bisherige 512GTX für 400-450 € anzubieten und das neue Topmodell für 500-550 €.
Ailuros
2005-12-08, 05:42:08
Ich denke das kommt ganz drauf an, wann der G80 kommt. Sollte er wirklich erst gegen Ende 2006 kommen, braucht man sicher noch was, aber wenn er schon Mitte 2006 kommt frag ich mich schon wozu? Vielleicht fühlt sich ja Nvidia vom R580 bedroht, oder aber was ich eher glaube, dass der G71 billiger zum produzieren ist.
Erstens einmal ist der Codenamen afaik falsch und zweitens spekulieren diverse Webseiten wieder aus ihrem Hintern (eben wie HPK- oder wie die Seite auch heisst auf angebliche 6 quads auf R520 bestand). Wenn es eine weitere high end G7x geben wird dann sind es IMHO eher 8 quads/10VS und eine moderatere Taktrate im =/>550MHz Bereich.
Zweitens wird G80 frueher fertig sein als sich viele vorstellen. Wann sie den dann vorstellen ist eine andere Geschichte.
Godmode
2005-12-08, 14:57:01
Erstens einmal ist der Codenamen afaik falsch und zweitens spekulieren diverse Webseiten wieder aus ihrem Hintern (eben wie HPK- oder wie die Seite auch heisst auf angebliche 6 quads auf R520 bestand). Wenn es eine weitere high end G7x geben wird dann sind es IMHO eher 8 quads/10VS und eine moderatere Taktrate im =/>550MHz Bereich.
Zweitens wird G80 frueher fertig sein als sich viele vorstellen. Wann sie den dann vorstellen ist eine andere Geschichte.
ja ich nen den immer G80 keine Ahnung wie sich dieser Chip wirklich schimpft, ich meine damit einfach den DX10 Chip. Da geb ich dir Recht, 8 Quads @ moderarte Taktrate wäre eigentlich schlüssiger, da sie auch von NV40 auf G70 diese Variante gewählt haben. Das würde dann so ca 360-380 Millionen Transistoren ausmachen, IMO.
Auf was ich am meisten gespannt bin, ist wie gut die 90nm Chips überhaupt werden, dh vom Prozess her, ob sie es auch schaffen diese weiterhin so "kühl" zu halten wie die 110nm Teile.
edit: denkt ihr dass sie für einen 8Quader auch die Anzahl der ROPs erhöhen?
mapel110
2005-12-08, 15:19:02
edit: denkt ihr dass sie für einen 8Quader auch die Anzahl der ROPs erhöhen?
Nö, 16 Rops sind wohl ausreichend. Gern genanntes Beispiel ist die 6600 GT mit 4 ROPs.
Hakim
2005-12-08, 15:23:55
Auf was ich am meisten gespannt bin, ist wie gut die 90nm Chips überhaupt werden, dh vom Prozess her, ob sie es auch schaffen diese weiterhin so "kühl" zu halten wie die 110nm Teile.
Bestimmt! TSMC hat mit der R520 nach anfänglichen probs bestimmt inzwischen genug erfahrung sammeln können um die 0,9er fertigung zu verbessern. Etwas unfair irgendwie.
seahawk
2005-12-08, 15:34:43
Es ist nicht alles eine Frage der Fertigung, ebenso wichtig ist das Design.
Hakim
2005-12-08, 16:05:44
wenn es eine 7900 U geben soll müsste es doch auch modelle wie nonU, GTX, GT usw bei den 7900er geben oder?
Ailuros
2005-12-08, 16:09:32
wenn es eine 7900 U geben soll müsste es doch auch modelle wie nonU, GTX, GT usw bei den 7900er geben oder?
Wie sie genannt werden ist weniger wichtig. Was man aber erwarten kann ist dass NVIDIA nach wie vor die Anzahl der quads vom high end bis zum budget von oben nach unten skalieren wird.
Chris Lux
2005-12-08, 16:15:01
Bestimmt! TSMC hat mit der R520 nach anfänglichen probs bestimmt inzwischen genug erfahrung sammeln können um die 0,9er fertigung zu verbessern. Etwas unfair irgendwie.
oh mann! wo warst du zu zeiten der nv30?
Hakim
2005-12-08, 16:46:02
oh mann! wo warst du zu zeiten der nv30?
Damals in Bad Neuenahr!
reunion
2005-12-08, 22:42:04
G71 is Nvidia's next generation high end chip: 32 pipes at 90 nanometres (http://www.theinq.com/?article=28227)
IT HAPPENS every four months. Nvidia set the new trend of releasing its new top end card every four months and it's not going to stop now. It just released its ghost Geforce 7800 GTX 512 product and the demand for it is incredible. A lot of people want it as it’s the fastest card around for Yule but you just can not get any.
G71 will end up with a new Geforce name, new number and probably GTX suffix but it's still too early to talk about the final name. It will have a very fast core, we still don’t know the number but it should be around 700MHz and it's obviously paired with super fast memory. The memory is not the problem and even Samsung memory running at 1700 MHz+ is not in tight supply.
The chip will have 32 pipelines and it's obviously faster than just arrived and not so available Geforce 7800 GTX 512 cards. It's expected in early February and Nvidia is already playing with these cards.
Nvidia is working hard on its 90 nanometre process and its investors are really concerned about it. We figure out that mobile part based around G72 chip is 90 nanometre or at least should be based on that, and Nvidia is in volume production with its C51 chipsets, also 90 nanometre based.
This card is meant to fight R580 ATI's new high end chip that is scheduled for a similar time.
Ailuros
2005-12-09, 05:52:19
Ok zweimal Fuad am gleichen Tag ist mir zu viel; wer zum Henker nimmt denn dessen Quark immer noch ernst? :rolleyes:
seahawk
2005-12-09, 07:32:17
Zumindest mit der Ghost-512MB-GTX hat er weitgehend Recht. :D
Ailuros
2005-12-09, 09:35:11
Zumindest mit der Ghost-512MB-GTX hat er weitgehend Recht. :D
Bei dem Prozentual von nutzlosem und falschem Mist dass er zusammenkritzelt retten die wenigen Treffer die mal eine Ausnahme bilden den Tag gerade auch nicht.
Von dem abgesehen die Verfuegbarkeit einer so hoch getakteten und mit so schnellen Speicher GPU war zu erwarten und dessen eigentlicher Zweck ist genauso bekannt. Wer von den beiden jetzt aber wirklich ueber die letzten =/>18 Monate verpatzte Margen, Verspaetungen, Lieferungsprobleme und Produkt-Stornierungen unterm Aermel hat ist natuerlich eine andere Geschichte.
seahawk
2005-12-09, 10:05:24
Du hast den :D übersehen - oder ?
erwingage
2005-12-09, 15:52:40
Verdammt, jetzt weiß ich gar nicht mehr, was ich machen soll. Wenn im Januar/Februar schon neues kommt, was den Markt wieder etwas aufmischt. ;(
So ein 90nm Chip würde mich jedenfalls auch reizen.
ich weiß auch nicht so richtig was ich machen soll :wink:
entweder jetzt noch ne 7800gtx mit 512mb oder next year ne 7900 ultra! :biggrin:
mapel110
2005-12-09, 17:55:39
ich weiß auch nicht so richtig was ich machen soll :wink:
entweder jetzt noch ne 7800gtx mit 512mb oder next year ne 7900 ultra! :biggrin:
Oder nochmal 4-5 Monate warten und einen G80 holen. :)
Aber ich steig jetzt erstmal auf 7800 GT um ohne Aufpreis! :D
(324 € für 6800 GT AGP bekommen und für 315 € eine 7800 GT von XFX bestellt)
Warum sollte man 32 Pipes reinpappen, wenn der Fertigungsprozess erstmal sehr gut für hohe Taktraten geeignet ist und vorallem beim Vorgänger, der kaum verfügbar ist, auch nur über den Takt gegangen ist?!
Anarchy-HWLUXX
2005-12-09, 22:01:04
Warum sollte man 32 Pipes reinpappen, wenn der Fertigungsprozess erstmal sehr gut für hohe Taktraten geeignet ist und vorallem beim Vorgänger, der kaum verfügbar ist, auch nur über den Takt gegangen ist?!
Jup, ich würde nicht mehr als einen shrink erwarten ... nochmal 150-250MHz mehr als die 512er GTX langt dicke.
Wenn se jetzt noch mehe Pipes mit draufpacken geht die kostenersparniss aufgrund der kleineren Fläche flöten und der abstand zur G80 wird auch immer kleiner ...
Wenn man sich anschaut was ne 700-750MHz G71 mit 24pipes an power haben "würde" (benches mit Kompressorkühlung) muss die nächste GPU ja nochmals deutlich schneller sein um diese überhaupt zu rechtfertigen ...
Nö, 16 Rops sind wohl ausreichend. Gern genanntes Beispiel ist die 6600 GT mit 4 ROPs.Aus der Sicht reiner Z-Füllrate allerdings 8 ROPs, aus Sicht des reinen Alphablendings nur 2 ROPs.
Ailuros
2005-12-10, 07:20:52
Warum sollte man 32 Pipes reinpappen, wenn der Fertigungsprozess erstmal sehr gut für hohe Taktraten geeignet ist und vorallem beim Vorgänger, der kaum verfügbar ist, auch nur über den Takt gegangen ist?!
Der Vorgaenger war aber auf 110nm. 256 GTX@430MHz und 512 GTX@550MHz.
Hab ich jetzt ein hypothetisches Dilemma zwischen 6q@750MHz und 8q@560MHz, dann kommt es eher darauf an was von den beiden die besseren Margen bedeuten wuerde.
Ich moechte aber daran erinnern dass die "Quelle" fuer den angeblichen "G71@90nm/24p@750MHz" diese HKEP (wie heisst die Seite nochmal?) ist und diese bis fast vor der Vorstellung von R520 darauf bestand dass dieser mehr als 4 quads hatte und wegen schlechten Margen nur auf 4 begrenzt wurde.
Meine Infos sprachen von mehr quads bei =/>550MHz und 10VS; jetzt hab ich aber leichte Zweifel wenn ich bestimmte Mitglieder bei B3D sehe die irgendwie die Idee unterstuetzen dass NV gar nichts zur R580 entgegen setzen will und sich eher auf G80 konzentrieren. Mir macht "mein" Zeug dann eher Sinn, aber meine Hand ins Feuer lege ich noch nicht.
Worueber ich mir aber fast sicher bin ist dass es fuer alles G7x nicht genug Zeit gab fuer fundamentale Aenderungen. Wer jetzt nach Sachen wie schnelleres dynamisches branching oder weiss der Geier was noch suchen will, waere wohl eher mit dem G80 besser am Platz.
Alles IMHLO wie immer ;)
Ailuros
2005-12-10, 07:24:28
Aus der Sicht reiner Z-Füllrate allerdings 8 ROPs, aus Sicht des reinen Alphablendings nur 2 ROPs.
Mir waere aber die Bezeichnung "4 double pumped" ROPs lieber.
Mir waere aber die Bezeichnung "4 double pumped" ROPs lieber.Mir nicht. Mir wäre die Bezeichnung am liebsten, in der es heißt: "Der NV43 kann in den ROPs pro Takt bis zu 8 Z-Werte testen und 4 Pixelfarben schreiben, jedoch nur 2 bei Verwendung von Alphablending."
Was "double pumped" heißen soll, ist mir zu schwammig.
Godmode
2005-12-10, 11:25:28
Worueber ich mir aber fast sicher bin ist dass es fuer alles G7x nicht genug Zeit gab fuer fundamentale Aenderungen. Wer jetzt nach Sachen wie schnelleres dynamisches branching oder weiss der Geier was noch suchen will, waere wohl eher mit dem G80 besser am Platz.
Hm, ja das klingt eigentlich recht logisch, daraus könnte man schließen, dass der R580 etwas später kommt, also etwa März, April und der DX10 Chip von Nvidia schon früher. Oder weiß man vom R520 sowiso schon, dass er nicht gefährlich wird. Es könnte natürlich auch sein, dass sie sagen zwei drei Monate nicht Leader zu sein ist akzeptabel.
Was ich mich noch frage: wann soll eigentlich der DX10 Chip von ATI kommen, auch etwa im gleichen Zeitfenster wie der von Nvidia? Kann irgendwie nicht sein, weil dann wäre der R580 auch wieder recht unwirtschaftlich.
Wenn wir jetzt aber doch noch einen besseren G7x bekommen, dann würde das heißen, der DX10 Chip kommt doch später. (alles IMHO)
Nightspider
2005-12-10, 17:33:26
Dann würde Ati wie beim Shader Model 3.0 wieder hinterher hängen und ein besonderer Kaufgrund würde wieder an Nvidia mit dem G80 gehen...
Wann denkt ihr, hat das aller erste Spiel irgenteine Shader Model 4.0 Unterstützung ? So wie damals FaRCry mit HDR...
...vlllt kommt dann Crysis[FarCry Nachfolger] schon mit Shader Model 4.0 Power ;D
reunion
2005-12-10, 21:27:37
IMHO kommen jetzt erstmal noch Refreshs in Form des R580/G7x, und erst in H2/06 die D3D10-Chips.
SKYNET
2005-12-10, 21:46:51
und erst in H2/06 die D3D10-Chips.
Zweitens wird G80 frueher fertig sein als sich viele vorstellen. Wann sie den dann vorstellen ist eine andere Geschichte.
ich könnte ja petzen... :biggrin:
sklave_gottes
2005-12-10, 23:25:57
ich auch....... LOL
Paul Brain
2005-12-11, 03:26:44
ich könnte ja petzen... :biggrin:
Tja, so wie sich der Vista-Zeitplan verschoben hat, könnte ich mir gut vorstellen, daß es bereits lauffähiges Silikon gibt... Genug Zeit, um noch ein paar Tape-outs zu machen, sollte da jetzt noch sein... :wink:
Ailuros
2005-12-11, 10:34:29
Mir nicht. Mir wäre die Bezeichnung am liebsten, in der es heißt: "Der NV43 kann in den ROPs pro Takt bis zu 8 Z-Werte testen und 4 Pixelfarben schreiben, jedoch nur 2 bei Verwendung von Alphablending."
Fuer den Alltags-Verbrauch brauch ich als Laie eben meine Vereinfachungen; soll ich jedesmal wenn ich mich auf die NV43 ROPs beziehe eine ausfuehrliche Erklaerung deren Faehigkeiten oder sogar Diagramme posten?
Was "double pumped" heißen soll, ist mir zu schwammig.
C + Z-ROP.
Ailuros
2005-12-11, 10:51:47
Dann würde Ati wie beim Shader Model 3.0 wieder hinterher hängen und ein besonderer Kaufgrund würde wieder an Nvidia mit dem G80 gehen...
Wann denkt ihr, hat das aller erste Spiel irgenteine Shader Model 4.0 Unterstützung ? So wie damals FaRCry mit HDR...
...vlllt kommt dann Crysis[FarCry Nachfolger] schon mit Shader Model 4.0 Power ;D
Jetzt mal abgesehen von ATI/NVIDIA und dem ganzen Wirrwarr, stelle ich mir eine zukuenftigen D3D10 chip in etwa so vor (oder nenne es einfach Wunschliste):
Unified shader core, wobei die Einheiten PS/VS/GS behandeln koennen.
ALU-Leistung von =/>400GFLOPs/s
Hoechst effizientes dynamisches branching.
Winkel-unabhaenigeres AF und dabei voll trilineares AF auf allen texturing stages.
Voll programmierbares AA und "orthogonale" ROPs damit auch FP16 HDR + MSAA moeglich sind.
usw. usw.
Will man jetzt unter die Lupe nehmen was jeglicher IHV bis jetzt gezeigt hat, fehlt bei beiden hier oder da einiges was eine ideale SM3.0 GPU bedeuten koennte. D3D10 GPUs werden von beiden Seiten IMHO erstmal diesem theoretischen SM3.0 "Optimum" naeher kommen und dann bleibt eben noch der extra Schnickschnack fuer D3D10 Komplianz uebrig.
Beide IHVs hatten aber durch die Vista-Verspaetungen genug Zeit um bessere Loesungen zu entwickeln. R3xx/4xx/5xx und NV3x/4x/G7x gehoeren als Generationen zu einer ganz anderen Aera und ich will hoffen dass auf weder/noch D3D10 GPUs so wenig wie moeglich Nachteile der vorerwaehnten GPUs mitgeschleppt werden.
Nur mal ein bisschen generelles blah blah und meine 2 cents ;)
Fuer den Alltags-Verbrauch brauch ich als Laie eben meine Vereinfachungen; soll ich jedesmal wenn ich mich auf die NV43 ROPs beziehe eine ausfuehrliche Erklaerung deren Faehigkeiten oder sogar Diagramme posten?
C + Z-ROP.Jede ROP kann Color schreiben und Z testen :)
Man könnte die NV43-ROPs einmal genau erklären, und sich bei jeder Erwähnung darauf beziehen.
Ailuros
2005-12-11, 10:59:08
ich könnte ja petzen... :biggrin:
Und ich haette genug Grund zum meckern obwohl ich kein Profi bin; intern ist man der Meinung (und diese konnte man teilweise auch oeffentlich in Praesentationen lesen) dass man mit D3D10 GPUs zwar einen Schritt in die richtige Richtung machen wird, aber es fehlt trotzdem immer noch was.
Das soll nur heissen dass man hoehere Ziele hatte als man begann DX-Next zu definieren; was in der Zwischenzeit herausgehakt wurde bis zum (fast) finalen D3D10 ist eben das Zeug dass sie lieber gehabt haetten und das nicht weil man eben dazu Lust hat, aber eben genau weil es die Entwickler gerne haben wuerden.
Sunrise
2005-12-11, 15:21:14
Hm, ja das klingt eigentlich recht logisch, daraus könnte man schließen, dass der R580 etwas später kommt, also etwa März, April...ATis R580 liegt absolut im Plan und wird - eine 100%-ige Sicherheit gibt es nicht - auch pünktlich vorgestellt werden. Anzeichen, dass sich dieser irgendwie verspäten wird, sind keine auszumachen. ATi sprach auch schon recht zuversichtlich von OEM-Design-Wins, die im zurückliegenden Quartal praktisch alle an NV gegangen sind. Man wird jetzt den Teufel tun und R580 weiter nach hinten verlegen, dies gäbe NV noch mehr Spielraum, als sie aktuell ohnehin schon haben.
...und der DX10 Chip von Nvidia schon früher. Oder weiß man vom R520 sowiso schon, dass er nicht gefährlich wird. Es könnte natürlich auch sein, dass sie sagen zwei drei Monate nicht Leader zu sein ist akzeptabel.Ich glaube kaum, dass es für irgendeinen IHV - ganz gleich welcher das sein mag - akzeptabel sein kann, nichtmehr "zu führen". Dies ergibt sich allenfalls durch Probleme im Zeitplan (Fertigung, unvorhersehbare Probleme im Design) oder einer wirklich gottenschlechten Planung / fehlenden Ressourcen im Sinne von Arbeitskräften durch mehrere parallel laufende Projekte oder etwaigen monetären Gesichtspunkten.
NV setzt hier genau wie ATi auf Roadmaps, die nur unter ganz gewissen (den genannten) Bedingungen oder äußerlichen Einflussen überhaupt geändert werden.
Jen-Hsun Huang beißt sich lieber einen eigenen Finger ab, als ATi jetzt freie Bahn zu lassen (nach NV30 hat er wahrscheinlich ohnehin nur noch 9), ganz besonders aufgrund der Tatsache, dass man sich momentan in einer sehr guten Ausgangslage (nicht unbedingt selbst erarbeitet) befindet, es jedoch verstanden hat, die "Schwächen" von ATi jederzeit rigoros auszunutzen, die Margen enorm zu steigern und vor allem auch liefern zu können. Diesen Weg wird NV mit aller Macht auch weiter verfolgen, man wird auf keinen Fall den Ball flach halten und in den Dornröschenschlaf verfallen, davon sollte man ausgehen können.
Was ich mich noch frage: wann soll eigentlich der DX10 Chip von ATI kommen, auch etwa im gleichen Zeitfenster wie der von Nvidia? Kann irgendwie nicht sein, weil dann wäre der R580 auch wieder recht unwirtschaftlich.Relativ zu R520 wird R580 (in dieser Revision) ohnehin unwirtschaftlich(er), das sollte man auch nachvollziehen können, gleich was das Management hier nach außen gibt.
Wenn wir jetzt aber doch noch einen besseren G7x bekommen, dann würde das heißen, der DX10 Chip kommt doch später. (alles IMHO)Ich sehe hier eigentlich keine direkten Abhängigkeiten, deshalb suche ich auch nicht danach, siehe Geforce 2 Ultra / Geforce 3. Was fertig ist, wird auch veröffentlicht, und wenn es auch nur bedeute, einen Konkurrenten enorm unter Druck zu setzen, ohne gravierende eigene Nachteile in Kauf nehmen zu müssen, dann dürfte der Weg sowieso klar sein.
nicht unbedingt selbst erarbeitetDem kann man auch widersprechen. NV4x ist enorm skalierbar, das ist jetzt ein Vorteil.
Wenn nVIDIA mehr Transistoren zur Verfügung hat können sie noch paar Quads dranpappen und fertig.
Sunrise
2005-12-11, 15:28:32
Dem kann man auch widersprechen. NV4x ist enorm skalierbar, das ist jetzt ein Vorteil.
Wenn nVIDIA mehr Transistoren zur Verfügung hat können sie noch paar Quads dranpappen und fertig.Deshalb steht dort auch "nicht unbedingt", weil ich mir dieser Tatsachen natürlich bewusst bin. Einerseits ist es die hervorragende Skalierbarkeit (sehr richtig), welche NV überhaupt erst diesen Vorteil verschafft hat, andererseits hatte ATi aber gravierende eigene Probleme zu verzeichnen, auf die NV natürlich auch keinen Einfluss hatte.
Ailuros
2005-12-11, 16:47:59
Deshalb steht dort auch "nicht unbedingt", weil ich mir dieser Tatsachen natürlich bewusst bin. Einerseits ist es die hervorragende Skalierbarkeit (sehr richtig), welche NV überhaupt erst diesen Vorteil verschafft hat, andererseits hatte ATi aber gravierende eigene Probleme zu verzeichnen, auf die NV natürlich auch keinen Einfluss hatte.
....konnte aber teilweise diese Probleme hervorsehen. Es ist eben so dass ATI's Probleme nicht nur auf einen einzigen Faktor verkapselt sind.
Ich sehe es so (und natuerlich spricht sich solches Zeug rum bevor etwas zur Oeffentlichkeit kommt...):
ATI hat zu viele und zu komplizierte Projekte aufgenommen, wobei (lass es mich mal so nennen) die "Basis-Architekturen" nicht unbedingt etwas direkter miteinander verwandt waren.
R5xx/PC: SM3.0, getrennte PS/VS
M$/Console: SM3.0, unified shader core, eDRAM
Nintendo/Console: SM3.0, getrennte PS/VS
Jeder Consolen-Design braucht seine eigenen Anpassungen und das klappt auch nicht mit einer einfachen Handdrehung. NVIDIA hatte eben nur in letzter Zeit G7x und RSX und obwohl der letztere auch seine eigene Anpassungen als Consolen-chip braucht, fehlt hier das dritte Projekt im Vergleich zu ATI.
ATI kaufte und benutzte IP von dritten Quellen. Das schreit bei mir im Hinterkopf (verstaendliche) reduzierte Resources aber auch vorhersehbare Gefahren dass doch nicht alles nach Plan laufen koennte.
ATI verlies sich auf den guten Verlauf bei Xenos (nach Orton's eigenen Angaben) mit 90nm und ging das Risiko auch fuer R5xx/RV5xx mit 90nm ein.
Kann sein dass ich mal wieder einiges vereinfache, aber wenn man einmal auf die Nase gefallen ist (NV3x/low-k 130nm) vermeidet man Risikos so stark wie moeglich und ich will auch nicht ausschliessen dass man hier auch teilweise einige Problemchen vorhersehen konnte.
Sunrise
2005-12-11, 18:45:36
....konnte aber teilweise diese Probleme hervorsehen. Es ist eben so dass ATI's Probleme nicht nur auf einen einzigen Faktor verkapselt sind.Man könnte das alles dahingehend zusammenfassen, dass man sich teilweise diese Probleme selbst geschaffen hat, diese also hausgemacht und auch vollkommen unnötig waren. Es war also in gewissem Rahmen auch vorhersehbar, jedoch ist man scheinbar auch bewusst diese Risiken eingegangen.
Wir hatten ja bereits letztes Jahr darüber gemutmaßt, warum ATi es unbedingt für nötig erachtet, jedes Marktsegment indem sie agieren, mit vollkommen anderen Lösungen zu bedienen, dies sogar so stark zu forcieren, dass man jetzt schon innerhalb jedes Segments differierende Architekturen anbieten muss/wird müssen (füge hier deine detailierte Zusammenfassung aller Architekturen ein) und somit im Endeffekt natürlich enormen Aufwand, R&D und allgemein Ressourcen zur Verfügung haben muss, um jeweils alle Märkte erfolgreich zu bedienen. Diversifizieren ist gut, dies jedoch in Maßen durchzuführen und vorab zu überprüfen, ob aktuelle Ressourcen es überhaupt zulassen, diese vielen gleichzeitigen Projekte zu fahren, sollte oberstes Gebot sein.
Wenn man rückblickend R520/RV530 betrachtet, wovon R520 bereits am Anfang des Jahres lauffähig war, entsprechende ISVs etwa im März Zugriff darauf hatten, und man dann mit der Wahrheit konfrontiert wird, dass dieser erst im November verfügbar wurde (das sind ca. 8 Monate), dann ist das eigentlich schon ziemlich desaströs. Zudem hat man sich anscheinend extrem "verschätzt" (original Wortlaut vom Conference Call), was die Ausbeute an GPUs auf 130nm Low-K betraf, die so enorm zugelegt hat, dass ATi schon seit Monaten auf Beständen sitzt und diese gleichzeitig auch noch unters Volk bringen muss. Eine Sache, die im Nachhinein auch völlig unverständlich für mich ist, denn man bestellt nicht einfach dutzende (hunderte) Wafer, wenn man nicht ungefähr weiß, welche Ausbeute man in etwa erwarten kann, das sind interne Fehlplanungen "on the rocks". Zusammen mit den Punkten die du genannt hast sollte ATi "hoffentlich" auch erkennen, wo sie in Zukunft unbedingt ansetzen müssen.
R580 wird zwar eine sehr performante Schadensbegrenzung sein, schaue ich mir jedoch NVs aktuelle Position an, dann braucht man zusätzlich noch ein paar Beruhigungspillen, denn NV hat hier noch enormes Potential mit G7X auf 90nm, das sicherlich auch genutzt werden wird - jedenfalls bevor G80 dann auch noch antritt. Sie sollten sich also keine Schnitzer mehr leisten, was ich allerdings auch nicht erwarte.
ATi täte gut daran, ihre neuen SKUs basierend auf 80nm schnellsmöglich fertigzustellen, ihre "alten" SKUs sofort im Preis zu reduzieren (mit RV530 hat man bereits begonnen) und die R5XX-Line im PC-Bereich dann in Frieden ruhen zu lassen. Man sollte sich zukünftig ebenso wie NV hinter die Ohren schreiben, Synergie-Effekte in ihren Segmenten zu nutzen, weniger Risiken einzugehen und insgesamt Ressourcen einzusparen, wo diese kritisch sind.
M2-Master
2005-12-11, 19:34:03
Wann soll denn der G80 möglicherweise zum Verkauf freigegeben werden ?
Und kann man die D3D10 Karten am Anfang überhaupt benutzen ?,weil man muss den Chips doch das neue DirectX bereitstellen.
Paul Brain
2005-12-12, 02:48:16
Wann soll denn der G80 möglicherweise zum Verkauf freigegeben werden ?Das würden wir alle gerne wissen... :biggrin:
So wie's momentan aussieht, kann man von H2/2006 ausgehen, wobei einiges auf ein Erscheinen recht früh im dritten Quartal hindeutet. Sicher ist hier aber nichts...
Und kann man die D3D10 Karten am Anfang überhaupt benutzen ?,weil man muss den Chips doch das neue DirectX bereitstellen.Nö, muß man nicht. Das braucht man erst dann, wenn man die neuen Features nutzen will, dazu braucht man aber auch Software, die auf D3D10 aufsetzt. Die Chips kann man wohl auch gut als hochperformante DX9-GPUs einsetzen.
Nur mal so eine kleine Zwischenneuigkeit, Offtopic:
Nvidia übernimmt Chipsatz-Hersteller ULi.
Für die Übernahme zahlt Nvidia 19 neue taiwanesische Dollar pro ULi-Aktie, insgesamt ergibt sich so ein Kaufpreis von 52 Millionen US-Dollar. Alex Kuo, derzeit Präsident und CEO von ULi, soll künftig bei Nvidia als Senior Executive für Vertrieb, Marketing und Support im Bereich MCP tätig sein.
http://www.golem.de/showhigh2.php?file=/0512/42179.html&wort[]=nvidia
Wie wird wohl Ati reagieren? Mit dem Kauf von TSCM :devil: ?!
mapel110
2005-12-15, 01:13:16
Nur mal so eine kleine Zwischenneuigkeit, Offtopic:
Nvidia übernimmt Chipsatz-Hersteller ULi.
Für die Übernahme zahlt Nvidia 19 neue taiwanesische Dollar pro ULi-Aktie, insgesamt ergibt sich so ein Kaufpreis von 52 Millionen US-Dollar. Alex Kuo, derzeit Präsident und CEO von ULi, soll künftig bei Nvidia als Senior Executive für Vertrieb, Marketing und Support im Bereich MCP tätig sein.
http://www.golem.de/showhigh2.php?file=/0512/42179.html&wort[]=nvidia
Wie wird wohl Ati reagieren? Mit dem Kauf von TSCM :devil: ?!
Dazu gibts bereits einen eigenen Thread.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=266184
Gandharva
2005-12-22, 15:21:38
ATI and Nvidia gearing up to face Intel’s new Broadwater chipsets (http://www.digitimes.com/mobos/a20051219A2007.html)
Nvidia is currently in volume production of its 90nm GPU series, the G71, G72 and G73, with the G71 to target the high-end market, the G72 the mid-range segment, and the G73 aimed at the entry-level, the sources said. Nvidia also plans to introduce its next flagship chip, the NV50, in the middle of next year, according to the sources.
Godmode
2005-12-26, 16:29:57
http://www.beyond3d.com/forum/showpost.php?p=658228&postcount=334
"Same source also stated that G71 will come after R580 launch, probably in March at CeBit. He mentions some numbers and letters that are a bit unclear to me. Here's what he said: G71 is 90nm and will have a 24-48-24-48 CATZ like the G70. It will have support for Pure Video 2 which will also be in G72 and G73. But he doesn't know if it's a drivertrick or a real hardware change. I have no clue what the numbers stand for."
CATZ= Color, Arithmetic, Texture, Z ?
reunion
2005-12-26, 17:36:46
http://www.beyond3d.com/forum/showpost.php?p=658228&postcount=334
"Same source also stated that G71 will come after R580 launch, probably in March at CeBit. He mentions some numbers and letters that are a bit unclear to me. Here's what he said: G71 is 90nm and will have a 24-48-24-48 CATZ like the G70. It will have support for Pure Video 2 which will also be in G72 and G73. But he doesn't know if it's a drivertrick or a real hardware change. I have no clue what the numbers stand for."
CATZ= Color, Arithmetic, Texture, Z ?
Möglich - das Entscheidende an der Aussage ist ohnehin "like the G70".
Sieht also hauptsächlich nach höheren Taktraten aus.
Kolos
2005-12-26, 18:02:31
Möglich - das Entscheidende an der Aussage ist ohnehin "like the G70".
Sieht also hauptsächlich nach höheren Taktraten aus.
Also so wie der R580
robbitop
2005-12-26, 18:21:33
G70 kann allerdings nur 32 Z Werte lesen/schreiben ...nicht 48 ...dürfte allerdings kaum relevant sein. Ich tippe hier auf einen banalen Shrink mit mehr Takt.
Winter[Raven]
2005-12-26, 20:09:00
Da wäre ich mir nicht so sicher Robbitop ... ^^ Nicht das sich da was an AF oder neue AA Modies ändert, aber Nvidia kann über mehrere wege die Chips skalieren.
Nebenbei gefragt ... wo liegt nochmal die Transitorgrenze in 0.9µ?
seahawk
2005-12-26, 21:48:19
G70 kann allerdings nur 32 Z Werte lesen/schreiben ...nicht 48 ...dürfte allerdings kaum relevant sein. Ich tippe hier auf einen banalen Shrink mit mehr Takt.
Wer sagt, dass der G71 der neue High-End-Chip wird. :biggrin:
Nvidia is currently in volume production of its 90nm GPU series, the G71, G72 and G73, with the G71 to target the high-end market
reunion
2005-12-29, 19:44:19
Nvidia's G71 has 32 pipes and 16 ROPs
(http://www.theinq.com/?article=28609)
ATI BELIEVES that you need many more pixel operations per clock than the pixel itself. Nvidia disagrees. It believes in a totally different ratio. With the birth of the R580, ATI believes that you should have three to one ratio as R580 has 48 Shaders and 16 pixel pipelines. You don’t need much mathematics to figure out that ATI preaches a three to one ratio.
As the G71 will be able to process 32 pixels per clock, it will physically have 32 pipelines but will have just 16 ROPs. This is no surprise to us as Nvidia's G70, Geforce 7800 GTX actually has 24 pipelines and 16 ROPs.
This means that Nvidia and ATI will take completely new approaches, where Nvidia will try to convince everyone that you need more raw pixels than pixel operations.
The G70, Geforce 7800 GTX has 24 texture memory units and 16 ROPs and can theoretically draw eight pixels with each, having three textures per clock. G71 will be able to do even more pixels per clock - it's as simple as that.
ATI's R580, on the other hand, will still be able to push sixteen raw pixels per clock but will be able to render 48 pixel operations per clock. So ATI will insist on more per pixels operations before you actually draw the pixel. This kind of makes sense when you need more maps and calculations per pixels.
I would fear the very successful and expensive "The way it's meant to be played" program which Nvidia spent some $160+ million dollars on last year. With that kind of budget it's much easier to convince developers and publishers that Nvidia's marchitecture is the best. We can surely say that 2006 will be just as full of marchitecture wars as 2005 was. µ
-error-
2005-12-29, 22:00:24
Werden wir eigendlich 2006 schon echte DX10 Karten sehen (Unified Shader)?
Winter[Raven]
2005-12-29, 22:12:40
Tjö, auf irgendeiner Spieleentwicklermesse im Frühlung will Ritual Entertainment eine echte DX10 Engine vorstellen, und präsentiert werden. Also muss es dann HW geben, mein Tipp geht an den G80 *gg*
p.s. aths, ja DX10 gibts nicht, brauchst mich nicht drauf hinweisen, aber es schreibt sich schneller.
Ailuros
2005-12-30, 00:53:22
Nvidia's G71 has 32 pipes and 16 ROPs
(http://www.theinq.com/?article=28609)
Noch ein INQ newsblurb fuer die Tonne.
This means that Nvidia and ATI will take completely new approaches, where Nvidia will try to convince everyone that you need more raw pixels than pixel operations.
The G70, Geforce 7800 GTX has 24 texture memory units and 16 ROPs and can theoretically draw eight pixels with each, having three textures per clock. G71 will be able to do even more pixels per clock - it's as simple as that.
ATI's R580, on the other hand, will still be able to push sixteen raw pixels per clock but will be able to render 48 pixel operations per clock. So ATI will insist on more per pixels operations before you actually draw the pixel. This kind of makes sense when you need more maps and calculations per pixels.
*seufz* ....ob er seinen eigenen Mist selber verstehen kann? Ein theoretischer 8 quad G7x haette 64 ALUs :|
reunion
2005-12-30, 14:42:59
Noch ein INQ newsblurb fuer die Tonne.
Naja, er hat auch desöfteren intressante und richtige Informationen, man muss halt das sinnlose rausfiltern.
Ailuros
2005-12-30, 23:54:46
Das sinnvolle ist dann entweder abgeschrieben von woanders (wenn ohne jeglichen eigenen zusaetzlichen Unfug) oder so verdammt nahe an der Ankuendigung dass fast jedes Schwein dessen schon bewusst ist.
Dass R580 48 ALUs haben wird ist schon seit einer Ewigkeit bekannt.
Kolos
2006-01-01, 14:39:43
Wie viele ALUs hätte denn der G71, wenn er 32 Pipelines hätte, welche so aufgebaut sind wie die vom G70?
Inq weiß doch gar nicht was für Auswirkungen die ROPs haben. Das ist doch blanker Unsinn was da drinsteht.
where Nvidia will try to convince everyone that you need more raw pixels than pixel operations.Da braucht nVIDIA eigentlich keinen der Ahnung hat davon zu überzeugen. Mehr als 16 ROPs kann man kaum sättigen. ATi hat halt anscheinend keine Entkopplung und verwendet deshalb nicht weniger als Pixel-Pipelines.
Wie viele ALUs hätte denn der G71, wenn er 32 Pipelines hätte, welche so aufgebaut sind wie die vom G70?64, aber jeweils 2 in Reihe, nicht nebeneinander.
Kolos
2006-01-01, 15:31:22
64, aber jeweils 2 in Reihe, nicht nebeneinander.
hat es irgendeinen negativen Einfluss, dass sie in Reihe sind? Wären die 48 ALUs des R580 leistungsfähiger als die 48 ALUs die der G70 heute hat?
Ailuros
2006-01-02, 01:08:50
Wenn es nach MADDs pro Takt geht hoechstwahrscheinlich nein. Hier spielt natuerlich dann auch die Taktrate mit, aber nach allen Indizien werden die Unterschiede auch hier nicht besonders gross sein zwischen den beiden zukuenftigen ultra high end GPUs.
Godmode
2006-01-02, 19:04:35
http://www.pcgameshardware.de/?article_id=439360
"16 Pixel-Shader-Einheiten und 48 ROPs"
Da hat sich Raff aber ganz schon verschrieben :biggrin:
Gandharva
2006-01-07, 18:01:03
Nvidia's high end G71 to sample next week
Consumer Electronics Show 2006 Hard launch till February
NVIDIA'S latest graphic offering should start sampling as soon as next week. It's all in the promises now but we have a reason to believe that Nvidia is on the schedule with this one. We also heard that the chip should work around 700 MHz frequency and as we reported before it should feature 32 pixel pipelines.
Nvidia scheduled its launch and world wide availability in stores for February 2006 but if all goes well it might actually launch at the same time as ATI, in the last week of January.
Nvidia sounded happy about 90 nanometre marchitecture and it thinks that its yields are good but we still have to see to believe. ATI is shipping thousands or R520 based cards and they are all available while Nvidia still struggles to ship any of its ghost Geforce 7800 GTX 512 cards. They are still on hold and it sounds quite dead to us as in three weeks Nvidia plans to release even faster card that should come in the same price range and it should cost roughly the same, at least we hope it should cost the same.
The biggest mystery now is what is faster 32 real pipelines brute force or 48 pixel Shaders, we guess both Nvidia and ATI's approaches will have its positive and negative things. We expect that Nvidia will win some of the benchmarks with its G71 while ATI will win some with R580, Radeon X1900XTX. µhttp://www.theinquirer.net/?article=28717"16 Pixel-Shader-Einheiten und 48 ROPs"
Da hat sich Raff aber ganz schon verschrieben :biggrin:immerhin stimmt das kleine "s" ;)
reunion
2006-01-07, 21:49:57
INQ: G71 to arrive later than expected (http://www.theinq.com/?article=28828)
seahawk
2006-01-07, 21:57:27
blurb.
Der G71 sollte nie vor oder gar zeitgleich mit dem R580 erscheinen.
Nightspider
2006-01-08, 23:49:10
Wenn Nvidia bereits Mitte 06 den G80 bringen will, müssen sie sich aber mit dem G71 beeilen, damit nicht zuviele Highend-Chips aufeinander folgen...
Sonst würde ja kaum einer den G71 kaufen, wenn dann schonwieder haufen Details über den G80 draußen sind und die alle nur auf den G80 warten würden.
Ich wette Asus hat schon 'nen G80 Prototyp, damit die dann schneller 2 Chips auf einer Platine vereinen können :D
Ailuros
2006-01-09, 02:23:00
Wenn Nvidia bereits Mitte 06 den G80 bringen will, müssen sie sich aber mit dem G71 beeilen, damit nicht zuviele Highend-Chips aufeinander folgen...
Sonst würde ja kaum einer den G71 kaufen, wenn dann schonwieder haufen Details über den G80 draußen sind und die alle nur auf den G80 warten würden.
Ich wette Asus hat schon 'nen G80 Prototyp, damit die dann schneller 2 Chips auf einer Platine vereinen können :D
Ob G80 wirklich Mitte 2006 verfuegbar sein wird will ich ernsthaft bezweifeln.
Zum letzten Paragraphen wuerde ich an Deiner Stelle die Wette zuruecknehmen.
seahawk
2006-01-09, 13:31:59
Für den G80 ist weniger die Verfügbarkeit des Chips relevant, als die Verfügbarkeit der notwendigen Systemumgebung unter der er seine Vorzüge auch darstellen kann. Was im übrigen für die Next-Gen-Chips beider Hersteller gilt.
Nightspider
2006-01-09, 14:00:59
Naja, es wurde ja gesagt, das der G80 Mitte des Jahres rauskommen soll und Nvidia, wie gesagt, im Zeitplan liegt, müssten die es doch schaffen *hoff*.
Ich will mit dann mal G80 holen und will nicht solange warten...
Habe atm. nur eine 6600GT...
Was glaubt ihr, wie groß der Leistungsunterschied zur 7900 Ultra wird ?
Bestimmt nicht all zu groß oder ? Vllt nochmal 20-30 %...
Ailuros
2006-01-09, 14:15:54
Naja, es wurde ja gesagt, das der G80 Mitte des Jahres rauskommen soll und Nvidia, wie gesagt, im Zeitplan liegt, müssten die es doch schaffen *hoff*.
Ich will mit dann mal G80 holen und will nicht solange warten...
Habe atm. nur eine 6600GT...
Was glaubt ihr, wie groß der Leistungsunterschied zur 7900 Ultra wird ?
Bestimmt nicht all zu groß oder ? Vllt nochmal 20-30 %...
Ich hab lediglich was von der Moeglichkeit einer Technologie-Vorstellung gehoert um den Zeitpunkt und nicht mehr (was aber auch nicht besonders viel Sinn macht).
seahawk
2006-01-09, 16:01:00
Afaik wird es keine offizielle Vorstellung geben und schon gar keien Verfügbarkeit zur Mitte das Jahres.
Gandharva
2006-01-09, 20:28:53
Fanny's pillow talk reveals next gen NVIDIA product details (http://www.hexus.net/content/item.php?item=4343)
...
One young gal confirmed to me that, as of the time of writing, key NVIDIA customers believe that NVIDIA's next generation, and first 90nm part, codenamed G71 is to be launched as GeForce 7900.
It would seem that a few key NVIDIA partners have already been sampled with GeForce 7900, and they're currently working towards a hard launch planned for CeBIT 2006 in Hannover, Germany (9th through to 15th March), and if so, our money's would be on watching for announcements from NVIDIA, ASUSTeK, eVGA, XFX and possibly MSI, between the 9th and 11th March.
Unlike the launch of its GeForce 7800 GTX, the current plan seems that NVIDIA will launch both the faster GTX and GT variants at the same time.
The flagship single-card product GeForce 7900 GTX is claimed to be a 32 pixel processor part with a core GPU frequency of 700/750 MHz, and should ship with 1.1ns graphics RAM clocked at 800/900MHz.
Pr0n starlets aren't normally noted for their mathematical prowess, so I was surprised to hear gentile chatter in the powder room to the effect that "with some simple math, the new part (GeForce 7900) would only have to run at circa 430MHz to roughly match the performance of the existing top line GeForce 7800 GTX 512". So even with NVIDIA's target core frequency of 700MHz, GeForce 7900 GTX seems set to be handing out some whipping.
The validity of this idle gossip was later confirmed after I pumped a humble partner for a little a bit of meat to go with my beans - the money-shot is that a 700MHz NVIDIA GeForce 7900 is currently coming in at circa 13,000 3DM2K5's.
...Bis März noch den ein oder anderen Schwung GTX 512 Karten raushaun (http://www.theinquirer.net/?article=28826) (evtl. auch wieder etwas günstiger), dann die 7900 GTX und zuvor/zusätzlich noch ein bissl Gewinnmaximierung betreiben (http://www.theinquirer.net/?article=28850). Mal gucks0rn...
Ich hoffe, dass ich stark bleibe und vom Kauf einer 7900GTX oder eines R580 absehe und auf die D3D10-Chips warte. G70GTX/256 muss bis dahin irgendwie reichen. ;)
Expandable
2006-01-09, 22:09:02
Ich hoffe, dass ich stark bleibe und vom Kauf einer 7900GTX oder eines R580 absehe und auf die D3D10-Chips warte. G70GTX/256 muss bis dahin irgendwie reichen. ;)
Wobei ich persönlich nicht (mehr) viel davon halte, mir eine First-Generation-Next-Generation-Grafikkarte ;) zu kaufen. Grund: Obwohl sie die nötige Hardware bieten, sind sie einfach zu lahm dafür. Zumindest mir erscheint, als dass es bei den Mindestanforderungen immer auf die Second Generation ankommt - man hat z.B. öfters GeForce2 statt GeForce gelesen, öfters GeForce4 als GeForce3, etc. Mag mich aber auch täuschen...
mapel110
2006-01-09, 22:16:39
Mag mich aber auch täuschen...
Joah, weil SM3 hauptsächlich zum beschleunigen von SM2-Effekten gebraucht wird.
http://www.beyond3d.com/interviews/oblivion/index.php?p=02
Could you tell us what Shader Model range you're aiming for? In a recent interview you mentioned that you make use of SM 3.0; is this shader model used for a performance increase only or do you make use of SM 3.0-specific features like texture fetches in the vertex shader?
Shader model 2.0 to 3.0 is the targeted range. For shader model 3.0 effects, we do take advantage of some looping and branching, but mostly we use it for performance increases. In 3.0 we are able to do all lighting in a single pass, as well as full lighting on blended objects.
Nightspider
2006-01-09, 22:21:21
Was ? :eek: 13.000 3Dmark05 Punkte ?
Dann is die wohl auf nem Niveau von 2(SLI) 7800 GTX anzuordnen ? :eek:
Kraaank ! Und dann der G80 vllt nochmal 20-30% :D schneller *extrem schwärm*
ICH WETTE DIESES JAHR KNACKEN WIR MIT DEM G80 IM SLI NOCH DIE 25.000 PKT GRENZE !!!!!!! :D ;D :D ;D :D ;D :|
phil99
2006-01-09, 23:17:49
Ich verstehe nicht, wie das möglich ist alleine durch die neue Fertigung sowohl die Pipelines als auch den Takt massiv zu erhöhen.
Beim R520 war es ja auch nur möglich den Takt zu erhöhen und daraus resultierte schon eine enorme Verlustleistungssteigerung.
Nun will NVidia die Leistung um das 700*32 / 580 * 24 = 1,6 Fache erhöhen,
wobei ich hier schon von der 512 MB Version ausgehe.
Bei der 256 mb Version wäre es annähernd 2.
Und das nur durch die Änderung von 110 nm auf 90.
Abwarten, ob sich das bewahrheitet.
Ich glaub, ich fang schonmal an zu sparen ;D
Godmode
2006-01-09, 23:21:37
ICH WETTE DIESES JAHR KNACKEN WIR MIT DEM G80 IM SLI NOCH DIE 25.000 PKT GRENZE !!!!!!! :D ;D :D ;D :D ;D :|
Ja, aber nur wenn AMD oder Intel die passende CPU dazu released:wink:
Kladderadatsch
2006-01-09, 23:26:56
Ich verstehe nicht, wie das möglich ist alleine durch die neue Fertigung sowohl die Pipelines als auch den Takt massiv zu erhöhen.
kleinere struktur benötigt weniger energie verursacht geringere abwärme ermöglicht höheren takt:confused:
Expandable
2006-01-09, 23:32:34
Joah, weil SM3 hauptsächlich zum beschleunigen von SM2-Effekten gebraucht wird.
http://www.beyond3d.com/interviews/oblivion/index.php?p=02
Could you tell us what Shader Model range you're aiming for? In a recent interview you mentioned that you make use of SM 3.0; is this shader model used for a performance increase only or do you make use of SM 3.0-specific features like texture fetches in the vertex shader?
Shader model 2.0 to 3.0 is the targeted range. For shader model 3.0 effects, we do take advantage of some looping and branching, but mostly we use it for performance increases. In 3.0 we are able to do all lighting in a single pass, as well as full lighting on blended objects.
Ja. Aber es wird ja auch immer wieder bemängelt, dass das (war's das überhaupt?) Dynamic Branching in der aktuellen Generation von GeForce-Karten (oder zumindest Version 6, aber AFAIK hat sich da bei Version 7 nicht viel getan) noch nicht ausreichend schnell ist. Shader Model 4.0-Karten werden das sicherlich besser beherrschen.
Was ich meinte war, dass die erste Generation an Shader Model 4.0-Karten wahrscheinlich nicht ausreichend Leistung haben wird, um die ersten echten DirectX10/OpenGL mit DX10-analogen Shadern-Spiele noch ausreichend darzustellen. Insofern wäre es u.U. sinnvoller, auf die zweite Shader-Model 4.0-Generation zu warten... wobei man dann das Problem hat, dass wenig später eine neue Generation an Karten rauskommt, die dann schon wieder ein Feature-Level höher anzusiedeln ist. Also am besten alle 6 Monate upgraden ;o)
Ailuros
2006-01-10, 02:30:04
Ja. Aber es wird ja auch immer wieder bemängelt, dass das (war's das überhaupt?) Dynamic Branching in der aktuellen Generation von GeForce-Karten (oder zumindest Version 6, aber AFAIK hat sich da bei Version 7 nicht viel getan) noch nicht ausreichend schnell ist. Shader Model 4.0-Karten werden das sicherlich besser beherrschen.
Was ich meinte war, dass die erste Generation an Shader Model 4.0-Karten wahrscheinlich nicht ausreichend Leistung haben wird, um die ersten echten DirectX10/OpenGL mit DX10-analogen Shadern-Spiele noch ausreichend darzustellen. Insofern wäre es u.U. sinnvoller, auf die zweite Shader-Model 4.0-Generation zu warten... wobei man dann das Problem hat, dass wenig später eine neue Generation an Karten rauskommt, die dann schon wieder ein Feature-Level höher anzusiedeln ist. Also am besten alle 6 Monate upgraden ;o)
PS dynamisches branching ist mittelmaessig auf GF's, ganz im gegenteil zu Radeons wo PS-db sehr schnell ist und VS-db eher auch mittelmaessig.
Geht es bei D3D10 GPUs um vereinigte shader cores, wird es diese Unterschiede nicht mehr geben und ohne leistungsfaehiges dynamisches branching waere ein jeglicher solcher chip eher ein Flop.
Neue Features sind generell langsam bei der ersten Realisierung, nach dem Motto "Hauptsache es laeuft". Da die Entwickler sowieso ein paar Jahre jedesmal fuer die Spielentwicklung brauchen ist Leistung in diesen Faellen meistens nicht so wichtig. Neue Features sind ja hauptsaechlich fuer Entwickler dann da und eben damit der Verbraucher ueber irgendwelche bunte Techdemos sich selbstbefriedigen kann *hust* ;)
seahawk
2006-01-10, 07:35:36
Ich verstehe nicht, wie das möglich ist alleine durch die neue Fertigung sowohl die Pipelines als auch den Takt massiv zu erhöhen.
Beim R520 war es ja auch nur möglich den Takt zu erhöhen und daraus resultierte schon eine enorme Verlustleistungssteigerung.
Nun will NVidia die Leistung um das 700*32 / 580 * 24 = 1,6 Fache erhöhen,
wobei ich hier schon von der 512 MB Version ausgehe.
Bei der 256 mb Version wäre es annähernd 2.
Und das nur durch die Änderung von 110 nm auf 90.
Abwarten, ob sich das bewahrheitet.
Ich glaub, ich fang schonmal an zu sparen ;D
Naja, bisher nutzt NV den 110nm Prozess. Sie wechseln zu 90nm mit low-k. Also von einen Mainstreamprozess, zu einerm High-End-Prozess. Wobei 700Mhz mich auch überraschen würden, wenn es um einer 2 Pipe Version geht.
Kladderadatsch
2006-01-10, 08:00:39
Ja. Aber es wird ja auch immer wieder bemängelt, dass das (war's das überhaupt?) Dynamic Branching in der aktuellen Generation von GeForce-Karten (oder zumindest Version 6, aber AFAIK hat sich da bei Version 7 nicht viel getan) noch nicht ausreichend schnell ist. Shader Model 4.0-Karten werden das sicherlich besser beherrschen.
Was ich meinte war, dass die erste Generation an Shader Model 4.0-Karten wahrscheinlich nicht ausreichend Leistung haben wird, um die ersten echten DirectX10/OpenGL mit DX10-analogen Shadern-Spiele noch ausreichend darzustellen. Insofern wäre es u.U. sinnvoller, auf die zweite Shader-Model 4.0-Generation zu warten... wobei man dann das Problem hat, dass wenig später eine neue Generation an Karten rauskommt, die dann schon wieder ein Feature-Level höher anzusiedeln ist. Also am besten alle 6 Monate upgraden ;o)
wann erscheinen denn die ersten sm4-games?...da dürfte sich das 'problem' schon gelöst haben;)
Ailuros
2006-01-10, 12:14:49
Naja, bisher nutzt NV den 110nm Prozess. Sie wechseln zu 90nm mit low-k. Also von einen Mainstreamprozess, zu einerm High-End-Prozess. Wobei 700Mhz mich auch überraschen würden, wenn es um einer 2 Pipe Version geht.
Eigentlich wechseln sie von non-low k 130nm bzw. 110nm auf low-k 90nm. Die Bezeichnungen eines Prozesses als high end oder mainstream sind ueberfluessig; wenn ich mich nicht irre bezeichnet TSMC Prozesse wie low-k 90nm als "high performance". Damit es nicht zu Missverstaendnissen kommt, ATI (mit 150nm) und NV (mit 110nm) haben bewiesen dass man "hohe Leistung" unter Bedingungen in so manchen Prozess quetschen kann.
Sunrise
2006-01-10, 13:44:26
seahawk hatte schon das Richtige gemeint.
Die verschiedenen "Bezeichnungen" eines Prozesses sind absolut nicht überflüssig. Sie sind vielleicht nicht für Jedermann direkt verwertbar, was aber ebenso auch auf Transistoren- und Taktraten-Schätzungen zutrifft. Das sind Ratespiele, die unter begrenztem Wissen stattfinden, auch wenn sie gelegentlich ganz unterhaltend sein können.
Nur der (Haupt)-Prozess bzw. die Prozess-Node selbst gliedert sich in Strukturgröße mit/ohne Low-K. Das sagt uns aber noch lange nichts über die gesamten Charakteristika und die jeweiligen "Parameter", die auch je nach FAB und/oder Node unterschiedlich sein können, und welche sich der IHV wiederum zunutze macht, um einen Chip speziell darauf auszulegen.
All diese "Eigenschaften" haben beträchtlichen Einfluss auf den Yield und die Leistung des Chips. Es ist daher auch nicht möglich (außer man hat etwas Ähnliches wie AMDs APM 3.0), ein für eine spezielle FAB ausgelegten Chip bzw. das Design einfach 1:1 in eine andere FAB zu "tragen" und dort zu produzieren.
Zudem muss man bei jedem Design selbst immer ein "Trade-Off" eingehen, im Sinne diverser Faktoren wie Leistungsaufnahme/Geschwindigkeit und Leckströmen. Um diesen Herr zu werden gibt es bei TSMC diverse Prozess-"Targets", die bei 90nm da lauten:
1. general-purpose (G)
2. low-power (LP)
3. high-speed (HS)
Was im Übrigen auch für die 80nm "Half-Node" gilt.
TSMCs 110nm-Prozess gliedert sich ähnlich ein, auch wenn er (es ist ein optischer Shrink, ausgehend von 130nm, mit diversen Verbesserungen) anfangs eher für Mainstream-Designs ausgelegt war.
ATis R300/R350/R360 auf 150nm war auch nie wirklich der "gleiche" Prozess. Die Suchfunktion gibt für die Interessenten darüber Aufschluss.
Bei B3D hatten wir das Thema auch schon häufiger.
seahawk
2006-01-10, 14:35:36
Eigentlich wechseln sie von non-low k 130nm bzw. 110nm auf low-k 90nm. Die Bezeichnungen eines Prozesses als high end oder mainstream sind ueberfluessig; wenn ich mich nicht irre bezeichnet TSMC Prozesse wie low-k 90nm als "high performance". Damit es nicht zu Missverstaendnissen kommt, ATI (mit 150nm) und NV (mit 110nm) haben bewiesen dass man "hohe Leistung" unter Bedingungen in so manchen Prozess quetschen kann.
Nátürlich, trotzdem sind aber 130nm und 110nm weniger fortschrittlich als 90nm low-k. Das Ergebnis hängt natürlich auch von der Reife eines Prozesses, den vorhandenen Designtools und eben auch dem Design selber ab, so dass das Resultat oftmals überraschend ist. 90nm low-k sollte NV trotzdem etwas mehr Luft lassen. Immerhin hatten sie ja auch vergleichsweise viel Zeit für ihre Chips.
Ailuros
2006-01-10, 15:48:19
Zwar ist mir das obrige bewusst, aber ich meinte eigentlich nur dass die jeweilige Bezeichnung jedes Prozesses einer FAB weniger wichtig ist, als das wozu jeglicher IHV diesen Prozess am Ende benutzt.
Nátürlich, trotzdem sind aber 130nm und 110nm weniger fortschrittlich als 90nm low-k. Das Ergebnis hängt natürlich auch von der Reife eines Prozesses, den vorhandenen Designtools und eben auch dem Design selber ab, so dass das Resultat oftmals überraschend ist. 90nm low-k sollte NV trotzdem etwas mehr Luft lassen. Immerhin hatten sie ja auch vergleichsweise viel Zeit für ihre Chips.
Es ging bei NVIDIA mehr um Resourcen und Zeit einzusparen und natuerlich auch das Risiko zu minimalisieren bei 110nm als alles andere. Natuerlich half auch hier die generelle Skalierbarkeit der NV4x/G7x Architektur, was wohl heissen sollte dass das Ganze als quasi Buendel von Anfang an geplant wurde. Zuerst die Anzahl der Einheiten ohne besonders hoehere Taktraten und dann erst spaeter mit dem zweiten Schub dann low-k 90nm fuer die gesamte Linie.
Nebenbei bin ich neugierig auf welche Prozesse beide IHVs ihre D3D10 GPUs ausgelegt haben und wer mehr Risiko diesmal wieder eingehen wird.
seahawk
2006-01-10, 18:01:36
Ich denke wir haben nur aneinander vorbeigeredet, aber beide dasselber gemeint.
Mich würde es wundern, wenn NV seinen etwas konservativeren Kurs verläst. Warum auch, der hat ja gut geklappt.
Paul Brain
2006-01-10, 18:02:42
wann erscheinen denn die ersten sm4-games?...da dürfte sich das 'problem' schon gelöst haben;)
Gerüchten zufolge soll der Flight Simulator X von MS Ende des Jahres erscheinen, und bereits auf D3D10 aufbauen. Nachdems schon Screenshots gibt, bedeutet das entweder bereits lauffähige Testmuster von G80/R600, Software-Emulation oder einen DirectX9-Kompatibilitätsmodus.
Kladderadatsch
2006-01-11, 17:51:56
Gerüchten zufolge soll der Flight Simulator X von MS Ende des Jahres erscheinen, und bereits auf D3D10 aufbauen. Nachdems schon Screenshots gibt, bedeutet das entweder bereits lauffähige Testmuster von G80/R600, Software-Emulation oder einen DirectX9-Kompatibilitätsmodus.
oder es wurde (siehe stalker) schlicht der fallback-, sprich dx9-modus gezeigt;)
Paul Brain
2006-01-11, 18:54:57
oder es wurde (siehe stalker) schlicht der fallback-, sprich dx9-modus gezeigt;)
Diesen meinte ich mit "DX9-Kompatibilitätsmodus"... :wink:
oder es wurde (siehe stalker) schlicht der fallback-, sprich dx9-modus gezeigt;)Stalker hat nen DX10 Modus? Dafür ist die Engine aber eigentlich schon etwas zu weit...
PS dynamisches branching ist mittelmaessig auf GF'sNein. Es ist abnormal unbrauchbar...
Must mal paar Demos aus dem ATI-SDK auf nem G70 laufen lassen. 10FPS ist da gut.
Nein. Es ist abnormal unbrauchbar...
Must mal paar Demos aus dem ATI-SDK auf nem G70 laufen lassen. 10FPS ist da gut.Vielleicht, weil das ATI-SDK die Radeons besonders gut dastehen lassen soll? Angesichts der Architekturunterschiede kann die Radeon beim Branching im PS um fast beliebig große Faktoren schneller sein – was nicht heißt, dass es nicht sinnvolle Anwendungsgebiete auch für die GF gibt.
deekey777
2006-01-11, 20:22:11
Vielleicht, weil das ATI-SDK die Radeons besonders gut dastehen lassen soll? Angesichts der Architekturunterschiede kann die Radeon beim Branching im PS um fast beliebig große Faktoren schneller sein – was nicht heißt, dass es nicht sinnvolle Anwendungsgebiete auch für die GF gibt.
Nicht vielleicht, sondern das ist so.
http://forum.ixbt.com/topic.cgi?id=10:50896-33#925
Wenn ich den Beitrag richtig verstanden habe, dann hat Andrew Worobyew (er schreibt die Artikel für iXBT/Digit-Life) ATis PM Demo mit dynamischem Branching auszuprobieren.
Ygrik:
P4-2.8/6800GT
D3D: 231 - 4.6 - 1.1
GL: 320 - 11 - 2.7
1800XL, C5.11, default:
D3D: 470 - 46 - 9.7
OGL: 381 - 45 - 9.9
7800GTX, FW81.95, default:
D3D: 609 - 10 - 2.5
OGL: 583 - 23 - 5.2
X1800XT @ 756 / 1656, А64 3000+ @ 2750.
D3D: 980 - 71 - 16
GL: 625 - 68 - 15
Sein Fazit:
1) Sieht so aus, ob D3D nVidia ausbremst
2) Sieht so aus, daß ATi es besser kann
3) Und jetzt was Interessantes:
Im D3D Shader wird die eine Zeile mit der anderen ausgetauscht*:
step = tex3D(DistanceMap, coord, 0,0).x * scaleBias.x + scaleBias.y;
step = tex3Dlod(DistanceMap, float4(coord, 0)).x * scaleBias.x + scaleBias.y;
und die FPS steigen bei nVidia ums Doppelte.
Im GL-Shader wird die eine Zeile mit der anderen ausgetauscht*:
float step = texture3D(DistanceMap, coord).x * scaleBias.x + scaleBias.y;
float step = texture3DLod(DistanceMap, coord, 0).x * scaleBias.x + scaleBias.y;
Und die FPS bleiben konstant.
*Vielleicht heißt es "die eine Zeile mit der zweiten"???
Naja, das Ganze ist von ATi für ATi, muß nicht überbewertet werden.
Expandable
2006-01-11, 22:11:41
Kurze Zwischenfrage (eigentlich OT): Bedeutet Dynamic Branching, dass man if/else if/else-Anweisungen im Vertex/Fragment-Shader hat? Das geht erst ab NV40 und R520? Also würde ein Shader mit if/else if/else-Verzweigungen auf allen anderen Karten nicht compilieren?
Vielleicht, weil das ATI-SDK die Radeons besonders gut dastehen lassen soll?Nö. Der Pixelshader ist in HLSL geschrieben und sieht ganz normal aus. Source-Code der App ist auch vorhanden, da ist nichts besonderes enthalten.
Die Anwendung ist auch sehr sinnvoll.
Kurze Zwischenfrage (eigentlich OT): Bedeutet Dynamic Branching, dass man if/else if/else-Anweisungen im Vertex/Fragment-Shader hat? Das geht erst ab NV40 und R520? Also würde ein Shader mit if/else if/else-Verzweigungen auf allen anderen Karten nicht compilieren?Ja, bei dynamischen Konditionen, also nicht abhängig von statischen Konstanten. Vertex-Shader ab NV30, Pixel-Shader ab NV40. Bei ATi beides ab R520.
http://img295.imageshack.us/img295/8722/2e879ff5a93b47bea8162682a7d0f7.th.jpg (http://img295.imageshack.us/my.php?image=2e879ff5a93b47bea8162682a7d0f7.jpg)
zur info :wink:
Kladderadatsch
2006-01-12, 07:57:09
Stalker hat nen DX10 Modus? Dafür ist die Engine aber eigentlich schon etwas zu weit...
so habe ich das nicht gemeint. die ersten screenshots (es waren hunderte) zeigten ausschließlich die dx8-version. erst später wurden groß die dx9-screens vorgestellt. (das war imo kurz nachdem fc rauskam)
so hatte ich mir das jetzt bei elder scrolls vorgestellt. sry für ot:redface:
Ailuros
2006-01-12, 09:27:15
Nein. Es ist abnormal unbrauchbar...
Must mal paar Demos aus dem ATI-SDK auf nem G70 laufen lassen. 10FPS ist da gut.
Muss ich Dir gerade erklaeren, dass Hauseigenene techdemos mit Absicht so gecodet werden, dass die Konkurrenz so schlecht wie moeglich damit aussieht?
Nichts dagegen dass es unbrauchbar ist, aber dafuer ist ATI's VS db auch nicht gerade "brauchbar".
Elendiger sehen die GF's in PowerVR's Voxel demo aus; aber dafuer laeuft aus verstaendlichen Gruenden auf R520 das cloth demo von denen ueberhaupt nicht. Und ich erwaehne es nur weil diese techdemos von weder/noch kommen.
Nö. Der Pixelshader ist in HLSL geschrieben und sieht ganz normal aus. Die Granularität vom Branching hängt vom Content ab.
Das ist doch bums. Branching sollte auch schnell sein wenn es auch mit kleiner Granularität verwendet wird, sonst sind die wichtigsten Performanceoptimierungen völlig ausgeklammert.
Tut mir leid, aber nVIDIA hat da einfach Müll abgeliefert. Selbst für die simpelsten Dinge ist die Granularität einfach viel zu groß. Checkliste lässt grüßen.
Übrigens soll das nicht heißen, dass sich jetzt alle auf Branching stürzen werden und ATI nVIDIA deshalb Staub schlucken lässt.
deekey777
2006-01-12, 19:18:11
Daß dynamisches Branching bei den Grünen ein Stolperstein ist, interessiert die Kalifornier nicht, so lange sie in (Spiele-)Benchmarks vorne liegen, was alles andere als falsch ist.
Auf iXBT wurde jetzt ein Interview mit nVidia Mitarbeitern (in Russisch) (http://www.ixbt.com/video2/nv-iview05.shtml) veröffentlicht. Hoffentlich kommt es bald auch auf Englisch auf Digit-Life, denn einige Aussagen sind schon nicht nett.
Ailuros
2006-01-12, 20:17:31
Das ist doch bums. Branching sollte auch schnell sein wenn es auch mit kleiner Granularität verwendet wird, sonst sind die wichtigsten Performanceoptimierungen völlig ausgeklammert.
Tut mir leid, aber nVIDIA hat da einfach Müll abgeliefert. Selbst für die simpelsten Dinge ist die Granularität einfach viel zu groß. Checkliste lässt grüßen.
Übrigens soll das nicht heißen, dass sich jetzt alle auf Branching stürzen werden und ATI nVIDIA deshalb Staub schlucken lässt.
Ich bezweifle dass jemand das Gegenteil behauptet hat. Wenn man wie ATI 1.5 Jahre spaeter mit SM3.0 im desktop ankommt, wuerde ich auch zumindest einen grossen Vorteil erwarten.
Und dabei tut es mir genauso leid aber checkliste gilt hier fuer VS3.0 ATI's von vorne bis hinten.
Bei D3D10 GPUs haben wir dann endlich wirklich rundum performante "quasi SM3.0" GPUs mit D3D10 Checklisten; war es nicht schon immer so?
Ailuros
2006-01-12, 20:54:10
Auf iXBT wurde jetzt ein Interview mit nVidia Mitarbeitern (in Russisch) (http://www.ixbt.com/video2/nv-iview05.shtml) veröffentlicht. Hoffentlich kommt es bald auch auf Englisch auf Digit-Life, denn einige Aussagen sind schon nicht nett.
Blah Marketing-Gewaesch Antworten wie ueblich. Schlimmer haette es gar nicht sein koennen.
Und dabei tut es mir genauso leid aber checkliste gilt hier fuer VS3.0 ATI's von vorne bis hinten.Das ist lange nicht so wichtig. Die Vertex-TMUs von nVIDIA sind auch praktisch unbrauchbar und dyn. branching im Vertexshader ist schnell genug auf ATI, da Vertexleistung eh nicht kritisch ist.
Das ATI-Konzept finde ich durchdachter bis auf das fehlende FP16-Filtering in den Pixelshader-TMUs.
Bei D3D10 GPUs haben wir dann endlich wirklich rundum performante "quasi SM3.0" GPUs mit D3D10 Checklisten; war es nicht schon immer so?Mir geht es eigentlich nicht um die mühselige Checklisten-Diskussion sondern darum dass das dyn. branching von G70 einfach unbrauchbar ist. Fertig aus.
ShadowXX
2006-01-12, 21:23:42
Blah Marketing-Gewaesch Antworten wie ueblich. Schlimmer haette es gar nicht sein koennen.
Ich hab Trotzdem mal ein paar der Keypoints halbwegs zusammengefasst (und hab hofftlich dabei wenige Fehler hineinproduziert...also bitte nicht jede Aussage auf die 100%ige Goldwaage legen):
- Sie kritisieren ATI wegen des Ausnutzen des "Fehlers" in der DX9c-Beschreibung rum...sprich das ATI kein Texturing im VS bietet.
- Ein paar Beispiele von Games die schon VTF benutzen: Chronicles of Narnia, Pacific Fighter, Pitfall: Lost Expedition, Powerdrome, etc.
- Es wird indirekt angedeutet, das eine der nächsten Karten von nV auch HDR + MSAA bieten wird (wohl aber erst die DX10-Karten)
- Zum Branching: nV sagt das Ihre Branching-Performance im VS sehr gut sei (und dies sei auch durch unabhängige Tests bestätigt). Die Branching Performance im PS sei zwar nicht soooo gut, aber dies sei ein Balancing Tradeoff (Transistorcount) das gemacht wurde um mehr Pipes (bzw. wohl TMUs und/oder PS) auf den Chip zu bekommen und dies aus sicht von nV die bessere Lösung wäre als nur 16 Pipes auf den Chip zu bekommen....und das im Endeffekt Ihre Lösung die schnellere sei, wenn man das Gesamtpaket betrachtet.
(Gleichzeitig gibts noch den Seithieb gegen ATI, das Sie in 90nm nicht so viel Reinbekommen haben wie nV in 110).
- Eine der Aussagen lässt vermuten, das die nV-DX10-Karte keine Unified-Shader-Architektur haben wird....
- Zum AF: nV sagt dazu, dass als der nv3x sehr gutes AF hatte, es keinen interessierte.....jetzt regen Sie sich etwas darüber auf, dass nur weil ATI etwas besseres AF bietet ("etwas" aus sicht von nV), dieses an die große Glocke gehängt wird. Aus Sicht von nV bieten Sie die besser Kontrolle über das AF (also was der User einstellen kann) und Sie wohl in kommenden Generationen noch mehr Möglichkeiten bieten werden (auch für Qualitätsverbesserung), aber nicht wirklich vom gewählten Pfad weggehen werden.
- Irgendwann werden auf Filter für Vertex-Texturing mit eingebaut werden.
- Völlständiges HW-Dekoding von H.264 soll auch in einer der nächsten GPUs kommen.
- lt. nV empfinden die Devs 3Dc nicht als besonders tolle verbesserung
ShadowXX
2006-01-12, 21:25:11
Das ist lange nicht so wichtig. Die Vertex-TMUs von nVIDIA sind auch praktisch unbrauchbar und dyn. branching im Vertexshader ist schnell genug auf ATI, da Vertexleistung eh nicht kritisch ist.
Das ATI-Konzept finde ich durchdachter bis auf das fehlende FP16-Filtering in den Pixelshader-TMUs.
Mir geht es eigentlich nicht um die mühselige Checklisten-Diskussion sondern darum dass das dyn. branching von G70 einfach unbrauchbar ist. Fertig aus.
Das sieht nV in dem Interview etwas anders.....es ist aber natürlich wie AiL schon erwähnte auch größtenteils Marketinggewäsch.
- Eine der Aussagen lässt vermuten, das die nV-DX10-Karte keine Unified-Shader-Architektur haben wird....Das wäre sehr seltsam, da dann 3 Stages implementiert werden müssten. Ich denke sie fassen mindestens Vertex- und Geometry-Shader zusammen. Außerdem müssten eigentlich die TMUs unified sein, weil Vertex-TMUs in Zukunft das gleiche können müssen.
Das sieht nV in dem Interview etwas anders.....es ist aber natürlich wie AiL schon erwähnte auch größtenteils Marketinggewäsch.Als nVIDIA würde ich das natürlich auch anders sehen...
- lt. nV empfinden die Devs 3Dc nicht als besonders tolle verbesserungDas Problem dabei ist, dass das Decoding teilweise im PS stattfinden muss.
ShadowXX
2006-01-12, 21:41:29
Das wäre sehr seltsam, da dann 3 Stages implementiert werden müssten. Ich denke sie fassen mindestens Vertex- und Geometry-Shader zusammen. Außerdem müssten eigentlich die TMUs unified sein, weil Vertex-TMUs in Zukunft das gleiche können müssen.
Naja....Sie rede da sehr viel um den heissen Brei herum (die Frage war im Prinzip/Sinngemäß: Was haltet Ihr von der Xenos/C1 Architektur) um im Endeffekt darauf zu kommen, das nur das Zählt was hinten herauskommt und dem Dev es im Prinzip egal ist, wie das ganze auf dem Chip gelöst wurde.
Ein Schlüsselsatz war Sinngemäß: Spezialisierte Einheiten sind schneller als "GP"-Einheiten....darum müsste man genaustens abwegen und beobachten was die Zunkunft verlangt (und das hört sich IMHO nicht so an, als wenn der erste DX10 Chip schon US hätte).
Sie breiten dies als eine der wenigen Antworten über einen halben Roman aus....IMHO würden Sie nicht so extrem ausholen bei der ganzen Betrachtung, wenn Sie eine US-Architektur hätten.
Kann aber natürlich nur Taktik sein.....
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.