Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: New 90nm GF7s by January, Next-Gen in H1 2006, plus RSX NREs until mid-Q1.
Pinpin^^
2006-01-12, 21:41:45
Wird Dynamic Bracnching schon bei Spielen eingestezt ?
Wann wird man massiv auf Dynamic Branching zurückgreifen?
mall ne Frage weil die Nvidia Karten so dolle bei DB ab++++++!Ich mein wenn Dynamic Branching erst 1 Jahr richtig eingesetzt wird ist es ja nicht weiter schlimm.;)
Danke für die Zusammenfassung, shadow. :)
deekey777
2006-01-12, 21:44:02
Dynamisches Branching wird in SC3 eingesetzt, aber auch statisches Branching, wo G6&7 nicht langsam sind.
robbitop
2006-01-12, 21:52:03
Das ist lange nicht so wichtig. Die Vertex-TMUs von nVIDIA sind auch praktisch unbrauchbar und dyn. branching im Vertexshader ist schnell genug auf ATI, da Vertexleistung eh nicht kritisch ist.
Das ATI-Konzept finde ich durchdachter bis auf das fehlende FP16-Filtering in den Pixelshader-TMUs.
Mir geht es eigentlich nicht um die mühselige Checklisten-Diskussion sondern darum dass das dyn. branching von G70 einfach unbrauchbar ist. Fertig aus.
Naja die aktuelle DX Version wurde bei NV schon immer @checklist realisiert. Und man sollte bedenken, dass man mit CineFX deutlich eher da war und dass CineFX ein paar Jahre auf dem Buckel hat. R520 ist praktisch neu.
Sein Plus an Effizienz pro Ausführungseinheit und seine guten SM3 abilities darf er teuer mit Transistoren bezahlen.
ShadowXX
2006-01-12, 21:54:33
Danke für die Zusammenfassung, shadow. :)
Danke....im Interview steht noch viel mehr, aber hauptsächlich noch allgemeines und Ausblicke auf die Zukunft im Grafikbereich aus Sicht von nV.
Dazu noch ein paar Betrachtungen Konsolengrafik/PC-Grafik (interesanterweise ohne Seitenhiebe).
Und dann noch eine Aufzählung, was nV als Wichtigstes bei den jetzigen/kommenden Gens an Features empfindet.
FP16 Blending und VTF stehen da bei nV sehr hoch im Kurs. HDR+MSAA (wen wunderts) und (interesanterweise auch) FP16 Filtering eher im "unteren" Bereich.
Für Sie ist FP16 Filtering hauptsächlich eine Erleichterung für die Devs.
Sie reiten sowieso relativ wenig auf den fehlenden FP16 Filtering Support von ATI rum und verteilen die Seitenhiebe hauptsächlich im Bereich VTF.
Ailuros
2006-01-12, 23:19:20
Mir geht es eigentlich nicht um die mühselige Checklisten-Diskussion sondern darum dass das dyn. branching von G70 einfach unbrauchbar ist. Fertig aus.
Der Kritik entging NVIDIA auch nie, wenn es zu db kommt; genauso eben ATI wenn man spaeter mit etwas besserem ankommt. Ob und wieviel das Resultat im guten Ganzen besser ist, wurde schon bis zum geht nicht mehr diskuttiert.
Ailuros
2006-01-12, 23:21:16
Ich hab Trotzdem mal ein paar der Keypoints halbwegs zusammengefasst (und hab hofftlich dabei wenige Fehler hineinproduziert...also bitte nicht jede Aussage auf die 100%ige Goldwaage legen):
- Sie kritisieren ATI wegen des Ausnutzen des "Fehlers" in der DX9c-Beschreibung rum...sprich das ATI kein Texturing im VS bietet.
- Ein paar Beispiele von Games die schon VTF benutzen: Chronicles of Narnia, Pacific Fighter, Pitfall: Lost Expedition, Powerdrome, etc.
- Es wird indirekt angedeutet, das eine der nächsten Karten von nV auch HDR + MSAA bieten wird (wohl aber erst die DX10-Karten)
- Zum Branching: nV sagt das Ihre Branching-Performance im VS sehr gut sei (und dies sei auch durch unabhängige Tests bestätigt). Die Branching Performance im PS sei zwar nicht soooo gut, aber dies sei ein Balancing Tradeoff (Transistorcount) das gemacht wurde um mehr Pipes (bzw. wohl TMUs und/oder PS) auf den Chip zu bekommen und dies aus sicht von nV die bessere Lösung wäre als nur 16 Pipes auf den Chip zu bekommen....und das im Endeffekt Ihre Lösung die schnellere sei, wenn man das Gesamtpaket betrachtet.
(Gleichzeitig gibts noch den Seithieb gegen ATI, das Sie in 90nm nicht so viel Reinbekommen haben wie nV in 110).
- Eine der Aussagen lässt vermuten, das die nV-DX10-Karte keine Unified-Shader-Architektur haben wird....
- Zum AF: nV sagt dazu, dass als der nv3x sehr gutes AF hatte, es keinen interessierte.....jetzt regen Sie sich etwas darüber auf, dass nur weil ATI etwas besseres AF bietet ("etwas" aus sicht von nV), dieses an die große Glocke gehängt wird. Aus Sicht von nV bieten Sie die besser Kontrolle über das AF (also was der User einstellen kann) und Sie wohl in kommenden Generationen noch mehr Möglichkeiten bieten werden (auch für Qualitätsverbesserung), aber nicht wirklich vom gewählten Pfad weggehen werden.
- Irgendwann werden auf Filter für Vertex-Texturing mit eingebaut werden.
- Völlständiges HW-Dekoding von H.264 soll auch in einer der nächsten GPUs kommen.
- lt. nV empfinden die Devs 3Dc nicht als besonders tolle verbesserung
Zwei Antworten koennten auf keine USC bei der ersten D3D10 deuten, aber das sagt mir trotzdem noch nichts.
mall ne Frage weil die Nvidia Karten so dolle bei DB ab++++++!Ich mein wenn Dynamic Branching erst 1 Jahr richtig eingesetzt wird ist es ja nicht weiter schlimm.Frühestens in nem Jahr. Da brauchst du keine Sorge haben.
Dynamisches Branching wird in SC3 eingesetzt, aber auch statisches Branching, wo G6&7 nicht langsam sind.Dyn. branching nur im Vertexshader. Da kratzt es ATI nicht und nVIDIA erst recht nicht.
Naja die aktuelle DX Version wurde bei NV schon immer @checklist realisiert. Und man sollte bedenken, dass man mit CineFX deutlich eher da war und dass CineFX ein paar Jahre auf dem Buckel hat. R520 ist praktisch neu.
Sein Plus an Effizienz pro Ausführungseinheit und seine guten SM3 abilities darf er teuer mit Transistoren bezahlen.Da stimme ich größtenteils damit überein. Das ändert aber nix an meiner Aussage ;)
Zwei Antworten koennten auf keine USC bei der ersten D3D10 deuten, aber das sagt mir trotzdem noch nichts.Sagt mal Leute, wieso könnte ihr das alle lesen :|
Ich bin leider nur des Deutschen und Englischen mächtig.
Demirug
2006-01-12, 23:30:30
Dynamisches Branching wird in SC3 eingesetzt, aber auch statisches Branching, wo G6&7 nicht langsam sind.
In SC3? Ich habe dort nur statisches gesehen.
Du hast mal gesagt im Vertexshader gibts auch dynamisches.
Demirug
2006-01-12, 23:33:33
Zwei Antworten koennten auf keine USC bei der ersten D3D10 deuten, aber das sagt mir trotzdem noch nichts.
Dazu passt ja auch die letzte Aussage eines Microsoft Mitarbeiters.
"USC sind ein Hardwaredetail das wir nicht vorschreiben." sinngemäß zittiert.
Demirug
2006-01-12, 23:34:31
Du hast mal gesagt im Vertexshader gibts auch dynamisches.
Ich dachte hier geht es um die Pixelshader. Im Vertexshader ist dynamisches Branching aj sehr schnell bei nVidia. Im Gegensatz zu ATI.
Ailuros
2006-01-12, 23:35:25
Genaue Details ueber G80 bzw. deren erste D3D10 GPU sind noch nicht bekannt und wenn dann nur NV Angestellten selber.
Von den paar Kleinigkeiten die ich bis jetzt abschlagen konnte, roch es nach sehr effizientem dynamischen branching (across the board) und keinen Textur-Latenzen. Behaupten kann man natuerlich vieles, aber diese Ziele wuerde ich an der Stelle von NVIDIA auch setzen aus meiner Laien-Ecke.
NV4x/G7x ist eine einzige Generation (gibt es denn ueberhaupt jemand der das nicht sehen kann?) und in diesem Fall sind nur kleine Verbesserungen moeglich, die es teilweise wo immer moeglich sogar gab und auch weiterhin in G71 geben wird, aber eben nichts wirklich anstaendiges dass eine "Hoppla" Reaktion hervorrufen koennte.
Ailuros
2006-01-12, 23:37:29
Sagt mal Leute, wieso könnte ihr das alle lesen :|
Ich bin leider nur des Deutschen und Englischen mächtig.
Tstststs....online translator LOL :biggrin:
Ailuros
2006-01-12, 23:38:58
Dazu passt ja auch die letzte Aussage eines Microsoft Mitarbeiters.
"USC sind ein Hardwaredetail das wir nicht vorschreiben." sinngemäß zittiert.
Ich waer persoenlich aber etwas erleichtert wenn ich mir sicher waere dass es doch ein USC ist. Hauptsaechlich weil die albernen Debatten ueber USC und "non-USC" dann erstmal entfallen *seufz* ;)
Tstststs....online translator LOL :biggrin:Iiih. Benütz ich aus Prinzip nicht. Das Resultat ist oft falsch zu interpretieren.
Ich waer persoenlich aber etwas erleichtert wenn ich mir sicher waere dass es doch ein USC ist. Hauptsaechlich weil die albernen Debatten ueber USC und "non-USC" dann erstmal entfallen *seufz* ;)Die Diskussionen haben eh kein Niveau, also was solls :D
deekey777
2006-01-12, 23:48:12
In SC3? Ich habe dort nur statisches gesehen.
Ich dachte hier geht es um die Pixelshader. Im Vertexshader ist dynamisches Branching aj sehr schnell bei nVidia. Im Gegensatz zu ATI.
Ich hab dein früheres Posting wohl missverstanden. ;(
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2745564&postcount=32
Ailuros
2006-01-12, 23:53:49
Iiih. Benütz ich aus Prinzip nicht. Das Resultat ist oft falsch zu interpretieren.
Och probier doch einfach mal nur eine Antwort; was gibt es denn falsches zu interpretieren bei Marketing-Gewaesch? :confused: :| :biggrin:
Demirug
2006-01-12, 23:56:48
Ich hab dein früheres Posting wohl missverstanden. ;(
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2745564&postcount=32
Es könnte auch sein das ich etwas falsch in Erinnerung habe. Wenn es da wirklich dynamisches Branching gibt war es so "unwichtig" das ich es wieder vergessen haben.
Du hast zuviel im Kopf glaube ich ;)
Armaq
2006-01-13, 00:35:41
Du hast zuviel im Kopf glaube ich ;)
Besser als zu wenig, und kann es jemals zu wenig sein?
Ich meinte eher im Zusammenhang mit zuviel Arbeit.
Russisch, etwas mehr info
http://www.comexgroup.com/news/index.php?category=all&id=2324
seahawk
2006-01-13, 09:59:50
Ich frage mich ernsthaft ob db für die jetzige Generation real von hoher Wichtigkeit ist. Die sb Performacne stimmt bei NV.
deekey777
2006-01-13, 10:49:27
Russisch, etwas mehr info
http://www.comexgroup.com/news/index.php?category=all&id=2324
Nix Russisch. ;) :D
Keine Ahnung, was es für eine Sprache ist.
Merlin31
2006-01-13, 11:21:26
http://www.hexus.net/content/item.php?item=4343
The flagship single-card product GeForce 7900 GTX is claimed to be a 32 pixel processor part with a core GPU frequency of 700/750 MHz, and should ship with 1.1ns graphics RAM clocked at 800/900MHz.
Naja, so gross ist der Fortschritt aber nicht.
seahawk
2006-01-13, 11:32:36
Ach nur 1/3 mehr Pipes und fast 50% mehr Clockspeed als ne 512MB GTX ist kein großer Fortschritt, wenn es denn so kommen sollte ??
Merlin31
2006-01-13, 11:36:36
Ach nur 1/3 mehr Pipes und fast 50% mehr Clockspeed als ne 512MB GTX ist kein großer Fortschritt, wenn es denn so kommen sollte ??
Die Frage ist, ob man nur mehr Speed als Fortschritt zählt.
Für mit ist Adaptives AA von Ati ein fortschritt gewesen.
Ich hoffe damit wird endlich mal ein Zeichen gesetzt, das man sich wieder auf Qualität zurück besinnt.
PS. Um gleich vorweg zu sagen: Nein, ich bin kein Fanboy. :biggrin:
Ailuros
2006-01-13, 11:47:11
Die Frage ist, ob man nur mehr Speed als Fortschritt zählt.
Dafuer muessten wir aber wissen ob und was sich genau in der Pipeline genau geaendert hat. Bis dahin sind jegliche Schlussvolgerungen vorzeitig.
Für mit ist Adaptives AA von Ati ein fortschritt gewesen.
Der aber auf beiden IHVs kam und dazu auf GeForces zuerst.
Ich hoffe damit wird endlich mal ein Zeichen gesetzt, das man sich wieder auf Qualität zurück besinnt.
Tja auf das hoffen wir wohl alle; aber fuer fundamentale Aenderungen gibt es meistens nicht genug Zeit bei "Refreshes" und das gilt fuer beide IHVs. Es wird was von der Moeglichkeit gemurmelt dass G71 endlich FP16 HDR mit MSAA kombinieren koennte, aber sicher bin ich mir darueber noch nicht.
Ich frage mich ernsthaft ob db für die jetzige Generation real von hoher Wichtigkeit ist. Die sb Performacne stimmt bei NV.
nur was bringen dir unbedingte sprünge, ausser die faulheit (oder sagen wir besser Aufwandsminimierung) der shaderprogrammier zu unterstützen (wenn ich jetzt nicht falsch liege ;) )
dynamische sprünge machen die sache doch erst interessant
du hast sowas hier
anweisungen;
for(i=0;i<y;i++){
anweisungen;
mache was in abhängigkeit von i;
anweisungen;
}
abweisungen;
Ailuros
2006-01-13, 12:06:15
Ich bezweifle dass dynamisches branching in allen Faellen von Vorteil sein sollte, schon gar nicht bei SIMD Architekturen. In dem Fall uebernimmt die kritische Entscheidung ob db oder sb sowieso der jeweilige Treiber.
Das heisst jetzt aber nicht dass effizientes db nicht unbedingt erwuenscht waere auf SM3.0 GPUs.
seahawk
2006-01-13, 12:35:42
Ich Zweifel nicht am Prinzip, sondern an der Wichtigkeit über den Verkaufszeitraum der Karten. Solange man db noch realtiv performant durch sb ersetzen kann ist das schon ok. Imho werden schon lange die Nachfolgerkarten in den Regalen stehen, bis wir eine intesive Nutzung von db in realen Anwendungen (und nicht in einzelnen Demos) sehen.
also der refresh vom G70 sollte eigentlich schon noch in 1-2Jahren in Benutzung sein
wenn du das so siehst könnte man sich das statische branching ja auch gleich schenken ^^
seahawk
2006-01-13, 16:19:29
In Benutzung ja, aber er muss in 1-2 Jahren keine Höchstleistungen mehr brigen.
Kladderadatsch
2006-01-13, 16:35:23
kann man damit rechnen, dass die 7900gtx den preis der 7800gtx 512mb übernimmt, oder kehren die endlich wieder zu ihren normalen high-end-preisen, nämlich +-500euro zurück?
ich denke mal die preise gestalten sich je nachdem was die konkurenz zu bieten hat. Für das TOP Model (ob nun ATI oder NV) muss man imo über 500€ berappen und das vergleichstopmodell des unterlegenen konkurenten wird dann imo um die 500€ liegen
ich glaube nicht das die sich die butter vom brot nehmen lassen und nicht absahnen wollen.
Mir geht es eigentlich nicht um die mühselige Checklisten-Diskussion sondern darum dass das dyn. branching von G70 einfach unbrauchbar ist. Fertig aus.Ist es doch gar nicht. Es gibt im Vergleich mit dem R520 deutlich weniger Sitationen, bei denen man davon profitiert. Das dynamische Branching im PS ist beim R520 deutlich effizienter gelöst und kann fast immer zur Performancesteigerung genutzt werden. Damit ist das Feature beim G70 noch nicht "einfach unbrauchbar".
Beim R580 ist zu erwarten, dass die Granularität wieder 12 Quads à la X1600 ist. Beim G70 ist sie 256 Quads.
Es ist unbrauchbar. So eine kleine Granularität wirst du niemals haben und wenn ein Fragment anders geht ist alles für die Katz und beide Pfade werden genommen.
Ich habe noch kein Demo (und das waren schon ein paar) gesehen die dynamisches Branching benützen und bei mir einigermaßen liefen. Die Framerate bricht in manchen Kamerawinkeln pervers ein.
Da diskuttier ich auch nicht weiter drüber, jeder der das Feature praktisch benützen wollte wird dir das gleiche sagen.
Es sind btw. 256 und 48 Pixel, nicht Quads.
Es ist unbrauchbar. So eine kleine Granularität wirst du niemals habenDu meinst, so eine grobe Granularität? Wieso wird man die "niemals" haben? Bei der Granularität zählt nicht nur Quad-Zahl, auch die Form. Ein Quadbatch beim G70 sind 64x16 Pixel. Wie die Quads beim R520, RV530 bzw. R580 verschränkt sind, weiß ich nicht.
und wenn ein Fragment anders geht ist alles für die Katz und beide Pfade werden genommen.
Ich habe noch kein Demo (und das waren schon ein paar) gesehen die dynamisches Branching benützen und bei mir einigermaßen liefen. Die Framerate bricht in manchen Kamerawinkeln pervers ein.Afaik nutzt schon Nalu dynamic branching im Pixelshader. Wenn auch nicht zum Performance-Gewinn.
Da diskuttier ich auch nicht weiter drüber, jeder der das Feature praktisch benützen wollte wird dir das gleiche sagen.Man müsste nur einen Fall finden – der sich zur Not konstruieren ließe – um zu widerlegen dass das Feature im G70 generell unbrauchbar sei. Ein Vorteil ist auf jeden Fall die einheitliche Programmierung, die Performance muss zur Not über die Rohleistung kommen. Ich kann mir aber auch Szenen vorstellen, in denen man tatsächlich ein wenig Performance gewinnt – wenn auch lange nicht so viel wie ATI es mit der neuen Radeon kann.
Es sind btw. 256 und 48 Pixel, nicht Quads.Es sind 256 bzw. 12 Quads, entsprechen 1024 oder 48 Pixel.
ok also könnte man es so ausdrücken, dynamic branching ist theoretisch beim G70 nutzbar auch bei konstruierten Beispielen, aber praxisrelevant ist es zu langsam um einen wirklichen Nutzen daraus zu ziehen?
Da der G71 nur ein Refresh ist, wird sich das dynamische branching wenn dann erst ab dem G80 verbessern oder?
Ailuros
2006-01-14, 00:26:29
Ich habe noch kein Demo (und das waren schon ein paar) gesehen die dynamisches Branching benützen und bei mir einigermaßen liefen. Die Framerate bricht in manchen Kamerawinkeln pervers ein.
PowerVR cloth demo:
430MHz
http://users.otenet.gr/~ailuros/430.jpg
490MHz
http://users.otenet.gr/~ailuros/490.jpg
Eigentlich hab ich diese von 1280*960*32 reduziert. In beiden Faellen mit 4xAA/16xAF.
DB + Vertex/Geometrie Texturen u.a.
***edit: und das Thema immer wieder aufkommt hier nochmal ein bisschen Text dazu:
The cloth shader code contains a loop, while a loop makes the code easy to understand and read it might not be optimal for hardware execution. If the hardware supports enough instructions it might be better to unroll this loop, by unrolling the loop no cycles are wasted on actually executing the loop instructions (compare and jump operations). But generally a developer should not have to worry about this since the driver compiler should automatically handle this according to the device capabilities.
The shader above also contains dynamic branching. When using branching it is essential to realize that there are 2 distinct types: constant branching and dynamic branching. Constant branching, as the name suggest, executes code based on a constant (Boolean). This constant is known before the shader execution starts and remains constant for a large number of vertices (vertex shader) or pixels (pixel shader).
Most graphics hardware uses a SIMD Structure (Single Instruction Multiple Data) meaning that ideally the same instruction is executed on a lot of different data elements. When using branching situations are introduced where for different vertices/pixels different code paths are executed and this conflicts with the SIMD principle that aims to apply the same instructions.
With constant branching the branch taken is the same for a large number of vertices/pixels and hence the conflict with the SIMD structure is quite low, with dynamic branching this is different.
Dynamic branching decides which bits of the code to execute based on a value calculated during the execution of the shader, the outcome of this calculation can be different for every pixel/vertex and hence this can completely conflict with the SIMD structure of graphics hardware resulting in possibly lost hardware pipeline efficiency and hence performance.
Based on this information it is essential to select the correct type of branching, only use dynamic branching if your decision can change per pixel. If the decision is the same for a lot of pixels/vertices it is better to use constant branching, where possible, or avoid the branching (e.g. do a zero operation or overwrite previous results).
When considering to add branching as a performance improvement it is essential to check that it actually improves the performance, each branching instruction comes with a cost and hence introducing a lot of branching instructions might in the end cost more than executing some non-essential instructions – remember that the branching instruction will be executed for every pixel and instructions are only saved in those cases that the correct branch is selected.
reunion
2006-01-14, 11:37:23
Im PowerVR Voxel-Demo gehen die Teile dafür total unter:
http://img58.imageshack.us/img58/3489/gpun15407zj.png (http://imageshack.us)
http://www.gpumania.com/varticulo.php?indicea=21&pag=5
Im PowerVR Voxel-Demo gehen die Teile dafür total unter:
http://img58.imageshack.us/img58/3489/gpun15407zj.png (http://imageshack.us)
http://www.gpumania.com/varticulo.php?indicea=21&pag=5
Beide haben zu wenig FPS (die Radeon auch),waere das ein Spiel (und keine Demo),wurden alle 3 mit 0,5 FPS durch die Gegend rumkrebsen.
reunion
2006-01-14, 22:58:19
Beide haben zu wenig FPS (die Radeon auch),waere das ein Spiel (und keine Demo),wurden alle 3 mit 0,5 FPS durch die Gegend rumkrebsen.
Darum gehts doch gar nicht.
Wenn eine X1800XL eine 7800GT beim Einsatz von dynamischen Branching in manchen Szenarien fast um den Faktor 10 schlägt, sollte das jedenfalls zu denken geben. R580 wird hier im übrigen noch eine ganze Schippe drauflegen.
Darum gehts doch gar nicht.
Wenn eine X1800XL eine 7800GT beim Einsatz von dynamischen Branching in manchen Szenarien fast um den Faktor 10 schlägt, sollte das jedenfalls zu denken geben. R580 wird hier im übrigen noch eine ganze Schippe drauflegen.
Wieso sollte DB beim r580 schneller sein?Die Moeglichkeit ist hoecher das die GPU beide Branches nehmen muss.
p.s.Wieso sind alle von Shader-Effekten so besesen,bessere Textueren sollten (meiner Meinung nach) Vorrang haben.
PowerVR cloth demo:
430MHz
http://users.otenet.gr/~ailuros/430.jpg
490MHz
http://users.otenet.gr/~ailuros/490.jpg
Eigentlich hab ich diese von 1280*960*32 reduziert. In beiden Faellen mit 4xAA/16xAF.
DB + Vertex/Geometrie Texturen u.a.
***edit: und das Thema immer wieder aufkommt hier nochmal ein bisschen Text dazu:Das ist ein statischer branch.
Wieso sollte DB beim r580 schneller sein?Die Moeglichkeit ist hoecher das die GPU beide Branches nehmen muss.Jo, ich glaubs auch irgendwie nicht. Ich rechne da höchstens mit Gleichstand.
reunion
2006-01-14, 23:19:45
Wieso sollte DB beim r580 schneller sein?Die Moeglichkeit ist hoecher das die GPU beide Branches nehmen muss.
Hm, kann sein.
Du meinst, so eine grobe Granularität? Wieso wird man die "niemals" haben? Bei der Granularität zählt nicht nur Quad-Zahl, auch die Form. Ein Quadbatch beim G70 sind 64x16 Pixel. Wie die Quads beim R520, RV530 bzw. R580 verschränkt sind, weiß ich nicht.Eben. Und da die Dreiecke normalerweise perspektivisch verzerrt sind ist es verdammt unwahrscheinlich genau die 1024 Pixel zu treffen.
Afaik nutzt schon Nalu dynamic branching im Pixelshader. Wenn auch nicht zum Performance-Gewinn.Weiß ich nicht, müsste ich nachschauen.
Man müsste nur einen Fall finden – der sich zur Not konstruieren ließe – um zu widerlegen dass das Feature im G70 generell unbrauchbar sei.Es ist praktisch unbrauchbar. Da bleibe ich dabei, egal was du sagst.
Es sind 256 bzw. 12 Quads, entsprechen 1024 oder 48 Pixel.Ok, hast recht.
oh-oh-oh :|
da hat einer aber wieder in die alte mottenkiste gegriffen und 64-bit rausgeholt ...
http://img2.pcpop.com/ArticleImages/0x0/0/224/000224754.jpg
sonst wär die 7300GS wirklich viel zu schnell geraten :tongue:
Ailuros
2006-01-15, 06:46:34
Das ist ein statischer branch.
Dann liess mal den Text oben nochmal genauer durch. Ich kann mir nicht vorstellen wie das demo nur mit statischem branching laufen koennte, da sich das branching pro pixel konstant aendert (border pixels behave differently from non-border pixels).
Ailuros
2006-01-15, 06:47:48
Beide haben zu wenig FPS (die Radeon auch),waere das ein Spiel (und keine Demo),wurden alle 3 mit 0,5 FPS durch die Gegend rumkrebsen.
ROFL sag Ihm bloss nicht fuer welche Architektur das Ding zugeschnitten wurde ;)
Eben. Und da die Dreiecke normalerweise perspektivisch verzerrt sind ist es verdammt unwahrscheinlich genau die 1024 Pixel zu treffen.Das muss man ja auch nicht. Hauptsache, man durchläuft in der Regel nur einen der Branches. Da man im Branch keine Texturen sampeln kann (auch bei ATI nicht) können allerdings nur arithmetische Befehle gespart werden – der kleinere relative Gewinn beim Branching liegt also auch an der arithmetischen Rechenstärke des G70.
Es ist praktisch unbrauchbar. Da bleibe ich dabei, egal was du sagst.
Ok, hast recht.Natürlich hab ich recht :D
Ob du dabei bleibst was du sagst oder was du sagst ändert nichts an Tatsachen. Natürlich sind die Overhead-Takte beim G70 genauso ein Hindernis wie die grobe Granularität, weshalb man in den meisten Spielen aus dem Feature beim G70 nur selten eine Performance-Steigerung erzielen können wird – das Feature wird man mit Rücksicht auf den G70 wahrscheinlich gar nicht oder im "NV-Path" nicht einsetzen – während im Gegensatz der R520 davon dermaßen profitieren kann, dass der "ATI-Path" sicherlich lohnt. Angesichts der Quadbatch-Architektur konnte NV nicht einfach mal die Branching-Granularität verbessern. Nur bringt das Branching-Feature neben möglicher Zusatzperformance auch den Vorteil einheitlicher Programmierung. Bei SM3 gibts keine Caps mehr (von den VS-Texturfiltern abgesehen) insofern sollte es nach Möglichkeit auch nur einen SM3-Pfad geben. Wenn der G70 seine Branching-Ineffizienz durch pure ALU-Leistung ausgleichen muss – Pech. Immerhin hast du "einfach unbrauchbar" zu "praktisch unbrauchbar" abgeschwächt – wobei du offensichtlich nur deine Praxis anzulegen scheinst.
Für mich heißt "unbrauchbar", dass man das nicht gebrauchen kann, es demnach keinen Unterschied machen würde wenn das Feature fehlte.
Dann liess mal den Text oben nochmal genauer durch. Ich kann mir nicht vorstellen wie das demo nur mit statischem branching laufen koennte, da sich das branching pro pixel konstant aendert (border pixels behave differently from non-border pixels).Naja. Die branches werden jeden Frame genommen, weil immer das ganze Gitter gerendert wird und die Gittertextur hat auch nur 256x256 Pixel. Das schafft auch ein G70 wenn er einfach immer beide branches nimmt (was er wohl tut).
Das ist trotzdem kein gutes Beispiel, in dem Fall wäre Predication schneller, wahrscheinlich macht das der Treiber auch daraus.
Das muss man ja auch nicht. Hauptsache, man durchläuft in der Regel nur einen der Branches.aths. Das ganze wäre ja nicht so schlimm wenn die Performance dann "nur so schlecht" wäre wie wenn man beide Pfade einfach per Predication durchläuft. Sie ist aber definitiv noch deutlich schlechter, warum auch immer.
Da man im Branch keine Texturen sampeln kann (auch bei ATI nicht)Das ist falsch. Man muss nur ddx und ddy davor berechnen.
Das ist falsch. Man muss nur ddx und ddy davor berechnen.Wie viel Sinn das ergibt, wenn man verzweigt?
Demirug
2006-01-15, 12:07:11
Da man im Branch keine Texturen sampeln kann (auch bei ATI nicht) können allerdings nur arithmetische Befehle gespart werden – der kleinere relative Gewinn beim Branching liegt also auch an der arithmetischen Rechenstärke des G70.
Natürlich kann man das. Die Softschatten demo von nVidia nutzt ja gerade das aus um durch Branching einen Performancesvorteil zu bekommen.
Es gibt da allerdings eine Reihe von Regeln was man mit Texturen in einem Branchzweig machen darf und was nicht. Im Wesentlichen geht es dabei um Problematiken bei der LOD Berechnung.
Wie viel Sinn das ergibt, wenn man verzweigt?Samples nicht nehmen wo man sie nicht braucht natürlich. Was ist das für eine Frage?
Samples nicht nehmen wo man sie nicht braucht natürlich. Was ist das für eine Frage?Wie viel Sinn ergibt die Gradientenberechnung, wenn einige Pixel im Quad verzweigen?
Wie viel Sinn ergibt die Gradientenberechnung, wenn einige Pixel im Quad verzweigen?Genauso viel wie sonst auch. Du must den Gradient ja berechnen bevor irgendwas verzweigt.
Ailuros
2006-01-15, 14:35:11
Naja. Die branches werden jeden Frame genommen, weil immer das ganze Gitter gerendert wird und die Gittertextur hat auch nur 256x256 Pixel. Das schafft auch ein G70 wenn er einfach immer beide branches nimmt (was er wohl tut).
Erstens ist der rendertarget afaik 64*64 und zweitens hab ich mit Absicht auf wireframe umgestellt im demo weil es mehr Leistung kostet.
Der Rendertarget wurde mit Absicht so klein gehalten, weil die Anzahl an Instruktionen nicht gerade klein ist. Eine R520 laueft mit dem demo leider nicht weil keine Vertex Texturen so wie sie das demo erwartet vorhanden sind..
Das ist trotzdem kein gutes Beispiel, in dem Fall wäre Predication schneller, wahrscheinlich macht das der Treiber auch daraus.
Ob predication schneller waere will ich bezweifeln; was der Treiber jetzt hier genau anstellt ist mir aber auch nicht besonders wichtig denn es koennte genauso gut in anderen Situationen auch vorkommen.
Es ist ein techdemo dass dynamisches branching benutzt und ich sehe keine unterirdische Leistung durch die Simulationsphase des Tuchs.
Naja. Die branches werden jeden Frame genommen, weil immer das ganze Gitter gerendert wird und die Gittertextur hat auch nur 256x256 Pixel. Das schafft auch ein G70 wenn er einfach immer beide branches nimmt (was er wohl tut).
Das ist trotzdem kein gutes Beispiel, in dem Fall wäre Predication schneller, wahrscheinlich macht das der Treiber auch daraus.
aths. Das ganze wäre ja nicht so schlimm wenn die Performance dann "nur so schlecht" wäre wie wenn man beide Pfade einfach per Predication durchläuft. Sie ist aber definitiv noch deutlich schlechter, warum auch immer.
Das ist falsch. Man muss nur ddx und ddy davor berechnen.
Weil die GPU jetzt (zusaetzlich zu den Berechnungen) die if/else/end if Tests machen muss,die jeweils 2 Takte dauern?
ROFL sag Ihm bloss nicht fuer welche Architektur das Ding zugeschnitten wurde ;)
Ja,ich weiss.Fuer die Dx9.0c Kyro.
Gandharva
2006-01-15, 18:16:51
Nvidia to launch GeForce 7900 GTX 'at CeBIT' (http://www.channelregister.co.uk/2006/01/12/nvidia_g71_march_launch/)G71 not coming until March, moles claim
Nvidia's 90nm G71 graphics chip, possibly planned to ship as the GeForce 7900 GTX, will not launch until March.
So claims website Hexus.net, at any rate, citing whispers heard during the Consumer Electronics Show in Las Vegas last week. According to the report, the chip will contain 32 pixel-processing pipelines in a core clocked at 700-750MHz. The GDDR 3 memory will run at 800-900MHz (1.6-1.8GHz, effective).
The site's moles point out that the new part will deliver significantly better graphics performance than the GeForce 7800 GTX 512 - to match the older part's performance, the G71 would only need to be clocked to 430MHz, apparently.
Nvidia is said to have begun sampling the G71, but it appears the part won't ship in boards until the launch, currently pegged for CeBIT, which runs from 9-15 March. That's the best part of two months after ATI is expected to announce its next-generation part, the R580 - aka the Radeon X1900 - in late January.
Whether the chip ships then remains to be seen, however. Either way, it's expected to feature 48 pixel-processing pipelines and be clocked at around 650-700MHz. Like all X1000-series chips, the X1900 will support DirectX 9 Shader Model 3.0 and ATI's 40-bit video processing system, Avivo. ®
PingpiN
2006-01-15, 19:48:44
Nvidia to launch GeForce 7900 GTX 'at CeBIT' (http://www.channelregister.co.uk/2006/01/12/nvidia_g71_march_launch/)
Wie geil jetzt kopiert Nvdia Atis Avivo. :smile: Ob das zum Launch wirklich Avivo heisst. :biggrin: Schon gesehen. :rolleyes:
Die Hühner von Nvidia sollten lieber >HDR-AA-HQ-AF-bessere Bildquali<bringen.Wenn Nvidia das nicht macht kann die Karte noch so schnell sein intressieren würde mich die Karte dann nicht. :mad:
Wie geil jetzt kopiert Nvdia Atis Avivo. :smile: Ob das zum Launch wirklich Avivo heisst. :biggrin: Schon gesehen. :rolleyes:
Die Hühner von Nvidia sollten lieber >HDR-AA-HQ-AF-bessere Bildquali<bringen.Wenn Nvidia das nicht macht kann die Karte noch so schnell sein intressieren würde mich die Karte dann nicht. :mad:
Was wu-AF angeht bin ich deiner Meinung,aber HDRR+aa ist zu slow.(sogar auf den ultra-high-end Karten von ATI)
p.s. Fuer einen User ist 1024 auf so einer Karte IMHO unzumutbar.
ShadowXX
2006-01-15, 20:08:42
Wie geil jetzt kopiert Nvdia Atis Avivo. :smile: Ob das zum Launch wirklich Avivo heisst. :biggrin: Schon gesehen. :rolleyes:
Die Hühner von Nvidia sollten lieber >HDR-AA-HQ-AF-bessere Bildquali<bringen.Wenn Nvidia das nicht macht kann die Karte noch so schnell sein intressieren würde mich die Karte dann nicht. :mad:
Hmmmm...
Wo steht da, das nV Avivo kopiert??
M2-Master
2006-01-15, 23:43:49
HDR+AA muss auch bei Nvidia kommen IMHO, denn ich erachte das als eine deutliche Bildverbesserung.
Wenn es dann einmal nicht performant genug sein sollte, kann man es ja auch ausschalten oder ?
Wichtig ist,dass es erstmal eingeführt wird bei Nvidia.
Als Gegenzug muss dan ATI seine Fehler ausmerzen und perfekt ist die Ausgangssituation für den Kunden :) .
ShadowXX
2006-01-15, 23:53:40
HDR+AA muss auch bei Nvidia kommen IMHO, denn ich erachte das als eine deutliche Bildverbesserung.
Wenn es dann einmal nicht performant genug sein sollte, kann man es ja auch ausschalten oder ?
Wichtig ist,dass es erstmal eingeführt wird bei Nvidia.
Als Gegenzug muss dan ATI seine Fehler ausmerzen und perfekt ist die Ausgangssituation für den Kunden :) .
Nicht mehr in dieser Generation......weder bei nV noch bei ATI.
Gandharva
2006-01-16, 00:38:52
Hmmmm...
Wo steht da, das nV Avivo kopiert??Nirgends. Er kann nicht lesen. Der letzte Absatz bezieht sich auf ATI respektive X1900 und nicht auf NV.HDR+AA muss auch bei Nvidia kommen IMHO, denn ich erachte das als eine deutliche Bildverbesserung.Es wird kommen. Aber erst mit G80.
Ailuros
2006-01-16, 08:22:44
AVivo und PureVideo sind beide programmierbare Video-Prozessoren. Wer den "programmierbaren" Teil hier nicht versteht sollte erstmal die Finger weglassen von angeblicher "Kopierung". Dank der Programmierbarkeit werden hier beide IHVs diese Prozessoren anpassen um das zu bieten was der Markt verlangt.
Shadow,
Wie meinen? Float HDR + MSAA kann man auf =/>R520 kombinieren und ueber G71 bin ich mir was dieses betrifft immer noch nicht sicher. Es ist im Bereich des moeglichen aber noch keine Garantie.
ShadowXX
2006-01-16, 09:35:38
Shadow,
Wie meinen? Float HDR + MSAA kann man auf =/>R520 kombinieren und ueber G71 bin ich mir was dieses betrifft immer noch nicht sicher. Es ist im Bereich des moeglichen aber noch keine Garantie.
Das ganze war so gemeint, das nV IMO beim G71 noch kein HDR+AA anbieten wird und ATI IMO noch nicht ihre "Fehler" (kein VTF, kein FP16 Filtering) beim r580 beseitigt haben wird.
Die Aussage sollte also nicht auf HDR+AA begrenzt sein...ich gebe aber zu, das das ganze ungenau von mir Formuliert war.
HDR+AA muss auch bei Nvidia kommen IMHO, denn ich erachte das als eine deutliche Bildverbesserung.
Wenn es dann einmal nicht performant genug sein sollte, kann man es ja auch ausschalten oder ?
Wichtig ist,dass es erstmal eingeführt wird bei Nvidia.
Als Gegenzug muss dan ATI seine Fehler ausmerzen und perfekt ist die Ausgangssituation für den Kunden
Genauso viel wie sonst auch. Du must den Gradient ja berechnen bevor irgendwas verzweigt.Ja das müsste gehen. Zumindest solange man im Branch keine dependent reads hat.
deekey777
2006-01-16, 11:57:43
AVivo und PureVideo sind beide programmierbare Video-Prozessoren. Wer den "programmierbaren" Teil hier nicht versteht sollte erstmal die Finger weglassen von angeblicher "Kopierung". Dank der Programmierbarkeit werden hier beide IHVs diese Prozessoren anpassen um das zu bieten was der Markt verlangt.
Nein, AVIVO ist ein Sammelbegriff für verschiedene Technologien. Auch Theater 550/550Pro bzw. ihre Eigenschaften sind ein Teil davon. Perfektes Marketing. :)
Was du meinst, ist ein Teil von AVIVO.
Gandharva
2006-01-25, 13:37:13
New high-end GPU series from Nvidia to come in early March
Nvidia is scheduled to introduce a new GPU series to target the high-end segment in early March, according to Paul Sun, general manager of Nvidia Taiwan Sales. By February 1, a complete lineup of its GeForce 7-series GPU line will all be available worldwide, said Sun.http://www.digitimes.com/mobos/a20060124PB205.html
/edit
February 1 sollte wohl March 1 sein. Tippfehler?
Ailuros
2006-01-25, 13:46:15
Das sollte eher heissen dass mainstream/budget G7x GPUs Anfang Februar und high end G7x Anfang Maerz kommen soll.
Godmode
2006-01-25, 13:54:27
Ich bin echt gespannt, wie der 90nm Part von Nvidia bezüglich Temperatur und Leistungsaufnahme aussehen wird.
mapel110
2006-01-25, 20:35:49
http://www.xbitlabs.com/news/video/display/20060124235047.html
Hier wirds Wesentliche nochmal wiedergekaut.
deekey777
2006-01-27, 18:01:31
GeForce 7600 Series Slated For March Launch (http://www.vr-zone.com/?i=3168)
"We heard that GeForce 7600 GT is 12 pipes and is now at A2 revision. There is another version called the GeForce 7600 GS which is probably 8 pipes similar to the mobile offering. GeForce Go 7600 runs at 450MHz core and 1GHz for memory so we can expect higher clocks for the desktop series. GeForce 7600 GT and GS will be launched a few days after CeBIT so we can expect Mid March timeframe."
Irgendwie glaube ich nicht, was hier steht. Okay, 12 Pipelines* sind nicht undenkbar, aber aus welchem Grund soll eine 7600 mit 8 Pipes kommen?
Bei der 90 nm Fertigung ist die Ausschußrate doch sehr niedrig, eher ist das Erreichen von hohen Taktraten problematischer.
*Entweder ist die Info ganz falsch, oder es kommt noch eine 7700 mit 16 Pipelines.
seahawk
2006-01-27, 18:32:23
12 Pipes und 700+ Mhz für die 7600GT. 50+ mehr Pipes und kanpp 50% mehr Takt gegenüber der 6600GT.
horn 12
2006-01-27, 18:55:20
da wird ATI wohl kontern müssen !
könnten die kollegen von DIGIT. nichts von ATI´s Plänen erwischen, ergattern ? ;( ;(
da immer nur von NV berichtet wird und von ATI es nie was zu hören/lesen gibt ?
da wird ATI wohl kontern müssen !
könnten die kollegen von DIGIT. nichts von ATI´s Plänen erwischen, ergattern ? ;( ;(
da immer nur von NV berichtet wird und von ATI es nie was zu hören/lesen gibt ?
Wenn ich das in dem anderen Spekulationsthread richtig mitbekommen habe, dann soll eine X1700 in Form einer doppelten X1600 kommen (also mit 2 Quads statt nur einem).
Gandharva
2006-01-27, 21:33:05
G71, Geforce 7900 GTX taped out
WE HAVE confirmation that Nvidia has now taped out its G71 chip. It is up and running and according to our sources Nvidia is on schedule.
The only problem is that we're unsure what the real schedule is. I can tell you that it is probably not realistic to expect this chip and cards based on G71 sooner than end of February. Early March could be the best bet, but this is the perfect case scenario. It is a long time from tape out till final chip and we know that Nvidia taped out the chip in the first half of January.
It's possible that the G71 may get its old GTX suffix. Nvidia hopes the G71, Geforce 7900 GTX may end up even faster than R580, Radeon X1900 XTX solution but we cannot confirm that. For Nvidia's sake, we hope it will and the chip should have 32 real pipes inside.
So Nvidia finally has its big 90 nanometre chip out from the blueprint specs. The fun chase begins again. µhttp://www.theinquirer.net/?article=29314
Klingt nach CeBIT Paperlaunch + 1 Monat später verfügbar falls das Tapeout wirklich erst im Januar war.
deekey777
2006-01-27, 21:44:37
Zwei Monate nach dem Tape-Out soll die G71 kommen? Wie soll denn das gehen? Auch wenn TMSC genügend Erfahrung mit der 90nm Fertigung hat, stimmt da was nicht.
(Der R580 hatte sein Tape-Out mindestens Anfang September.)
mapel110
2006-01-27, 21:49:40
Wo steht denn was von Januar? Es könnte auch sein, dass das Tapeout schon im Dezember war und sie eben jetzt erst die Bestätigung fürs Tapeout haben.
Aber ansonsten könnte es April werden.
(Der R580 hatte sein Tape-Out mindestens Anfang September.)
Welches?! :ugly:
(nee passt schon, war dann wohl drittes ...)
It is a long time from tape out till final chip and we know that Nvidia taped out the chip in the first half of January.Ob das jetzt stimmt, sei mal dahingestellt.
deekey777
2006-01-27, 22:04:15
Wo steht denn was von Januar? Es könnte auch sein, dass das Tapeout schon im Dezember war und sie eben jetzt erst die Bestätigung fürs Tapeout haben.
Aber ansonsten könnte es April werden.
Welches?! :ugly:
(nee passt schon, war dann wohl drittes ...)
It is a long time from tape out till final chip and we know that Nvidia taped out the chip in the first half of January
Der R580 hatte, glaube ich, nur ein Tapeout, aber 2 Dingsda (wie hieß es noch?). Und gerade dieses Dingsda hat Fuad beim R520 zigmal mit dem Tapeout verwechselt.
Ach, noch besser:
"We can see that the production chip here is marked as "A22", indicating that this is the second layer change as well as a silicon revision. As far as we are aware, R580 had actually taped out by June '05, however when it came back, it was afflicted with the same issues that caused the delay to R520, which we believe to be a 3rd party library issue somewhere in the memory subsystem. Given the timescales with which they were working ATI had the option of stopping work on R520 and attempting to move to R580 ASAP, however seeing as it still had the same issues as R520 (and potentially other issues that are common when first silicon comes back) they persevered with R520 as they had already spent considerable effort chasing down its issues. Once the issue was resolved with R520 they could then proceed with resolving them on subsequent parts, first RV530 (which also features the same memory technology) and then R580. This is why there is a relatively short time between R520's release and availability of R580 based products."
http://www.beyond3d.com/reviews/ati/r580/index.php?p=05
Gandharva
2006-01-27, 22:14:00
Zwei Monate nach dem Tape-Out soll die G71 kommen? Wie soll denn das gehen? Auch wenn TMSC genügend Erfahrung mit der 90nm Fertigung hat, stimmt da was nicht.
(Der R580 hatte sein Tape-Out mindestens Anfang September.)Wo ist da das Problem? NV hat in der Vergangenheit immer 90-100 Tage gebraucht vom Tapeout bis zum Launch. Anfang Januar -> Anfang April. Und auf der CeBIT wird er zum ersten mal gezeigt. Würde doch optimal passen.
StefanV
2006-01-27, 22:16:02
Der R580 hatte, glaube ich, nur ein Tapeout, aber 2 Dingsda (wie hieß es noch?). Und gerade dieses Dingsda hat Fuad beim R520 zigmal mit dem Tapeout verwechselt.
Meinst du Revisionen?
mapel110
2006-01-27, 22:16:25
Meinst du Revisionen?
Eher Respins imo.
deekey777
2006-01-28, 00:05:59
Eher Respins imo.
Genau die. Und Fuad schrieb bei jedem weiteren Respin des R520, es wäre ein Tapeout.
Wo ist da das Problem? NV hat in der Vergangenheit immer 90-100 Tage gebraucht vom Tapeout bis zum Launch. Anfang Januar -> Anfang April. Und auf der CeBIT wird er zum ersten mal gezeigt. Würde doch optimal passen.
Ich lass mich gern besseres belehren, doch das glaube ich aber nicht.
Ailuros
2006-01-28, 00:59:57
http://www.theinquirer.net/?article=29314
Klingt nach CeBIT Paperlaunch + 1 Monat später verfügbar falls das Tapeout wirklich erst im Januar war.
Klingt nach Fuad BS. Haette das Ding jetzt erst seinen tape-out gaebe es nicht viel Chancen fuer eine Maerz Veroeffentlichung.
Ailuros
2006-01-28, 01:02:14
R520 hatte 2 respins und 3 "tape-outs". Der Verwirrung zu liebe es ist eine sehr lange Liste von tape-outs fuer jeden chip, normalerweise bezieht man sich im Normalgebrauch bei "tape-out" ueber den letzten dieser, direkt vor der Massenproduktion.
horn 12
2006-01-28, 02:20:01
Wenn ich das in dem anderen Spekulationsthread richtig mitbekommen habe, dann soll eine X1700 in Form einer doppelten X1600 kommen (also mit 2 Quads statt nur einem).
dann sollte wohl auch die Leistung der NEUEN X1700 mindestens
die DOPPLETE !! Performance einer X1600 XT sein,
ODER wird dem trotzdem nicht soo sein .
horn12, logisch denken wäre angesagt. Die Funktionseinheiten werden verdoppelt, die Speicherbandbreite bleibt fast gleich. Wie bitte soll die x1700 nun mindestens die doppelte Performance einer x1600 erreichen? Richtig, das geht nicht.
Jeden Tag das Gleiche mit dir. ;D
Diese Frage habe ich dir jetzt schon mindestens drei mal beantwortet, warum stellst du sie immer wieder? Liest du überhaupt was andere schreiben?
Sunrise
2006-01-28, 02:33:42
...normalerweise bezieht man sich im Normalgebrauch bei "tape-out" ueber den letzten dieser, direkt vor der Massenproduktion.
Der Begriff "Tape-Out" bezieht sich eigentlich nur rein auf die Tatsache (dem Ereignis), dass man anhand der Komplettierung des Designs, die zur Produktion benötigten Daten der Fab überreicht. Dies fand damals anhand eines Bands (Tape) statt, das der Fab übergeben (Out) wurde, und war der Zeitpunkt, an dem sich alle Chip-Designer und die restliche Mannschaft mit Sekt begossen. Es hat also wenig bis nichts mit dem Stadium des finalen Chips zu tun, oder der Anzahl, sondern ist einfach nur ein Ausdruck für die Übergabe, welche zeitlich gesehen auch die erste ist.
Und genau hier fing dann auch die Leidensgeschichte von R520/R580 an, und deren subsequenten "Tape-Outs", bzw. "Respins" und "Metal Layer changes".
"It is a long time from tape out till final chip and we know that Nvidia taped out the chip in the first half of January."
So falsch liegt er damit nicht. Hier gibt es eigentlich nichts einzuwenden.
Ailuros
2006-01-28, 02:40:01
horn12, logisch denken wäre angesagt. Die Funktionseinheiten werden verdoppelt, die Speicherbandbreite bleibt fast gleich. Wie bitte soll die x1700 nun mindestens die doppelte Performance einer x1600 erreichen? Richtig, das geht nicht.
Jeden Tag das Gleiche mit dir. ;D
Diese Frage habe ich dir jetzt schon mindestens drei mal beantwortet, warum stellst du sie immer wieder? Liest du überhaupt was andere schreiben?
X1600XT = 4*600MHz = 2.4 GTexels/s
12 ALUs * 12 FLOPs * 0.6 GHz = 86.4 GFLOPs
Gehe ich jetzt von gleicher Taktrate aus bei der RV560:
8*600MHz = 4.8 GTexels/s
24 ALUs * 12 FLOPs * 0.6 GHz = 173 GFLOPs
Also ich sehe keine theoretische/spekulative Raten bei denen selbst bei einem 128bit Bus die Bandbreite ausgehen soll. Ueberhaupt fuer die Zeitspanne wofuer RV560 projeziert ist und die enstrechende Verfuegbarkeit von etwas schnellerem als heute Speicher.
***edit: doppelte Leistung wohl tatsaechlich nicht aber dann auch nicht wegen der Bandbreite.
Die cebit, also anfang märz, wäre dann doch nach plan.
Hoffentlich gibt es genügend geeignetes ram :biggrin:
Nunja, erstmal den 2.2. abwarten ... :smile:
Ailuros
2006-01-28, 02:47:38
So falsch liegt er damit nicht. Hier gibt es eigentlich nichts einzuwenden.
Ein klein bisschen zu spaet und das meiste Personal bei NV faehrt ja schon seit 2 Jahren ueber Weihnachten in Ferien ;)
Sunrise
2006-01-28, 02:53:41
Ein klein bisschen zu spaet und das meiste Personal bei NV faehrt ja schon seit 2 Jahren ueber Weihnachten in Ferien ;)
Du hast mich falsch verstanden. Nicht in Bezug auf das Datum, sondern in Bezug auf seine Aussage, dass oft viel Zeit vergehen könne, zwischen dem ersten Tape-Out bis zur finalen Revision, die für die Massenproduktion verwendet wird.
Bezüglich des Zeitpunktes des ersten "Tape-Outs": Das ist natürlich Blödsinn, wenn er gleichzeitig von einer VÖ Anfang März ausgeht. Denn das ist nicht nur knapp, sondern schlichtweg (um ein geeignetes Wort zu finden) absolut unrealistisch.
PS: Ferien, war das die Zeit, bei der man machen darf, was man will ? Muss schön sein. :wink:
Ailuros
2006-01-28, 02:55:36
Zu Zeiten NV25 z.B. waren Sachen wie Weihnachtsferien ein Fremdwort bei NVIDIA ;)
Please check your PM ;)
horn 12
2006-01-28, 09:48:35
X1600XT = 4*600MHz = 2.4 GTexels/s
12 ALUs * 12 FLOPs * 0.6 GHz = 86.4 GFLOPs
Gehe ich jetzt von gleicher Taktrate aus bei der RV560:
8*600MHz = 4.8 GTexels/s
24 ALUs * 12 FLOPs * 0.6 GHz = 173 GFLOPs
Also ich sehe keine theoretische/spekulative Raten bei denen selbst bei einem 128bit Bus die Bandbreite ausgehen soll. Ueberhaupt fuer die Zeitspanne wofuer RV560 projeziert ist und die enstrechende Verfuegbarkeit von etwas schnellerem als heute Speicher.
***edit: doppelte Leistung wohl tatsaechlich nicht aber dann auch nicht wegen der Bandbreite.
Hi.
con welcher Mehrleistung kann man dann ausgehen gegenüber einer X1600 XT ?
ca. 60 - 80 % müssten doch drinnen sein, vor allem bei neueren Games .
Gandharva
2006-01-28, 12:34:25
[NVIDIA G71 Comes In 2 Variants]
There is no doubt NVIDIA will be launching the 90nm G71 in March and the official name will be GeForce 7900. We came to know that there will be 2 versions; the GeForce 7900 GTX 512MB and the GeForce 7900 256MB. The GeForce 7900 GTX will be launched at CeBIT on 9th of March while the GeForce 7900 GT will be launched later on 20th March most likely together with the GeForce 7600 series. There are little information about the pipelines and clock speeds yet. The current rumours implied a 32 pipes G71 so if that is true, 7900 GT could be 24 pipes. We overheard a yield issue that leads to the delay so it could probably meant a high core clock or too many pipelines causing the problem.http://www.vr-zone.com/?i=3170
7900 GT -> 24PP ~700 MHz / 800 MHz
7900 GTX -> 32PP ~700 MHz / 900 MHz
Sollte das wirklich so kommen, würde ja bereits die "GT" reichen um die X1900 einzuholen.
Franzmann-Jan
2006-01-28, 13:29:34
Ahhhhh VR-Zone :rolleyes:
Sind das nicht die, die bis zum Schluss behauptet haben, dass der R520 24 Pipelines hätte wovon 8 deaktiviert seien? Denen schenke ich nicht viel glauben....
Gandharva
2006-01-28, 13:33:40
Ahhhhh VR-Zone :rolleyes:
Sind das nicht die, die bis zum Schluss behauptet haben, dass der R520 24 Pipelines hätte wovon 8 deaktiviert seien? Denen schenke ich nicht viel glauben....Nein, das war HKEPC. VR-Zone ist eigendlich immer sehr seriös.
deekey777
2006-01-28, 13:38:42
Nein, das war HKEPC. VR-Zone ist eigendlich immer sehr seriös.
Und sie haben alles von HKEPC blind übernommen.
Trotzdem verstehe ich nicht, warum bei der G71 Quads deaktiviert werden müssen: Hieß es nicht, daß bei der 90 nm Fertigung eher der hohe Takt Probleme macht, die Auschußrate aber niedrig sei?
http://www.vr-zone.com/index.php?i=2653&s=0 :biggrin:
ShadowXX
2006-01-28, 14:08:27
Und sie haben alles von HKEPC blind übernommen.
Trotzdem verstehe ich nicht, warum bei der G71 Quads deaktiviert werden müssen: Hieß es nicht, daß bei der 90 nm Fertigung eher der hohe Takt Probleme macht, die Auschußrate aber niedrig sei?
http://www.vr-zone.com/index.php?i=2653&s=0 :biggrin:
???
Bei der G71GTX werden doch gar keine Pipes deaktiviert...nur bei der GT-Version.
deekey777
2006-01-28, 14:09:41
???
Bei der G71GTX werden doch gar keine Pipes deaktiviert...nur bei der GT-Version.
Ich meinte auch nichts anderes. :)
Bei der 90 nm Fertigung ist die Ausschußrate doch sehr niedrig, eher ist das Erreichen von hohen Taktraten problematischer.
Ausschuss sind ja nur die Chips die gar nicht funktionieren. Durch redundante Einheiten im Chip kann man die Fehlertoleranz entsprechend erhöhen und mehr funktionsfähige Chips erhalten. Und selbst wenn die Fehlerrate "niedrig" ist, so ist bei dieser Chipgröße doch die Anzahl der fehlerfreien Chips deutlich kleiner 50%.
WE HAVE confirmation that Nvidia has now taped out its G71 chip. It is up and running and according to our sources Nvidia is on schedule.
The only problem is that we're unsure what the real schedule is. I can tell you that it is probably not realistic to expect this chip and cards based on G71 sooner than end of February. Early March could be the best bet, but this is the perfect case scenario. It is a long time from tape out till final chip and we know that Nvidia taped out the chip in the first half of January.
Fuad beweist nur mal wieder dass er absolut keine Ahnung hat was ein Tapeout ist.
Der R580 hatte, glaube ich, nur ein Tapeout, aber 2 Dingsda (wie hieß es noch?).Stepping meinst du wohl.
core:700-750MHz mit memory:1700-1800MHz :wink:
Wenn das stmmt:
geht aber nicht mehr mit 1.1er GDDR3, oder :rolleyes:
Gandharva
2006-01-28, 16:09:12
Wenn das stmmt:
geht aber nicht mehr mit 1.1er GDDR3, oder :rolleyes:
K4J52324QC-BJ11
900MHz
1.8Gbps/pin
2.0V± 0.1V
136 Ball FBGA
Production Status: Mass Production
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm
Black-Scorpion
2006-01-28, 16:24:17
K4J52324QC-BJ11
900MHz
1.8Gbps/pin
2.0V± 0.1V
136 Ball FBGA
Production Status: Mass Production
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm
Das ändert aber nichts an seiner Aussage. ;)
Der reicht nicht für 1700MHz-1800MHz.
Gandharva
2006-01-28, 17:28:38
Das ändert aber nichts an seiner Aussage. ;)
Der reicht nicht für 1700MHz-1800MHz.WTF? 2 x 900 = 1800 Mhz. Was soll da nicht für 1700 Mhz bis 1800 MHz reichen?
Black-Scorpion
2006-01-28, 17:38:56
Deppenverdopplung
Der Speichertakt ist und bleibt 900MHz.
Es gibt keinen GDDR3 Speicher der 1700MHz-1800MHz schafft.
Gandharva
2006-01-28, 17:44:30
Deppenverdopplung
Der Speichertakt ist und bleibt 900MHz.
Es gibt keinen GDDR3 Speicher der 1700MHz-1800MHz schafft. :confused: Mit 1800 Mhz war doch 900Mhz effektiv gemeint.
up¦² hat wohl mal wieder mit seinen komischen zusammenhanglosen Einwürfen verwirrt.
Black-Scorpion
2006-01-28, 17:50:13
DDR heißt immernoch Double Data Rate.
Es vedoppelt sich die Datenrate und nicht der Takt.
900MHz = DDR1800
DDR1800 != 1800MHz
Gandharva
2006-01-28, 17:55:02
DDR heißt immernoch Double Data Rate.
Es vedoppelt sich die Datenrate und nicht der Takt.
900MHz = DDR1800
DDR1800 != 1800MHzOh Mann... das ist mir auch klar. Deswegen auch: "gemeint". So ein Aufstand für so nen Fliegenschiss... Und trotzdem wird man weiterhin fast überall 1800 MHz stehen sehen.
Black-Scorpion
2006-01-28, 18:05:03
Bis sich mal jemand findet der die Beschreibung auch einfordert.
Und das Notfalls vor Gericht.
Es gibt genug Leute die den Unterschied nicht kennen und sich auf den Blödsinn verlassen.
Ja es ist Unsinn, weil sich zwar die Datenrate verdoppelt, die Latenzen aber die gleichen bleiben.
Ailuros
2006-01-29, 00:24:38
Hi.
con welcher Mehrleistung kann man dann ausgehen gegenüber einer X1600 XT ?
ca. 60 - 80 % müssten doch drinnen sein, vor allem bei neueren Games .
Um wieviel ist die R580 schneller als die R520?
Um wieviel ist die R580 schneller als die R520?Was hat das mit dem Unterschied zwischen RV530 und RV560 zu tun?
OBrian
2006-01-29, 00:37:24
http://www.cloetens.be/indeling/2006-01_MSIproductroadmap.pdf
Seite 10
Für mich bedeutet eine Roadmap-Angabe wie "Q2" normalerweise eher "Ende Q2" als "Anfang Q2" - d.h. G71 wird eher nicht schon ab 1.April verkauft.
Also wirklich interessant wäre wohl, ob Ati den RV530 zum RV560 aufbohrt, z.b. mit 256bit memory interface und natürlich 256bit PCB, am liebsten mit schnellstem GDDR3 :rolleyes:
mapel110
2006-01-29, 00:42:30
http://www.cloetens.be/indeling/2006-01_MSIproductroadmap.pdf
Seite 10
Für mich bedeutet eine Roadmap-Angabe wie "Q2" normalerweise eher "Ende Q2" als "Anfang Q2" - d.h. G71 wird eher nicht schon ab 1.April verkauft.
Bei G72 steht auch 1Q und der wurde im Januar releast und nicht im März, aber prinzipiell wäre ich auch eher pessimistisch, was solche Daten angeht.
Also wirklich interessant wäre wohl, ob Ati den RV530 zum RV560 aufbohrt, z.b. mit 256bit memory interface und natürlich 256bit PCB, am liebsten mit schnellstem GDDR3 :rolleyes:
wirds nicht geben in dem Marktsegment, einfach zu teuer. Und die Leistung wäre dann wohl auch zu gut.
Also wirklich interessant wäre wohl, ob Ati den RV530 zum RV560 aufbohrt, z.b. mit 256bit memory interface und natürlich 256bit PCB, am liebsten mit schnellstem GDDR3 :rolleyes:Nope, x1700 kommt mit 128bit-SI.
http://www.cloetens.be/indeling/2006-01_MSIproductroadmap.pdf
Seite 10
Man beachte die Einordnung in der Vertikalen.
:wink:
MSI pruduct roadmap Q1 06 (http://www.cloetens.be/indeling/2006-01_MSIproductroadmap.pdf)
Ailuros
2006-01-29, 01:38:10
Was hat das mit dem Unterschied zwischen RV530 und RV560 zu tun?
R520=16, R580=48 ALUs
RV530=12, RV560=24 ALUs
Er fragte doch ueber die neueren Spiele oder?
Ailuros
2006-01-29, 01:39:02
Also wirklich interessant wäre wohl, ob Ati den RV530 zum RV560 aufbohrt, z.b. mit 256bit memory interface und natürlich 256bit PCB, am liebsten mit schnellstem GDDR3 :rolleyes:
Nein. Beider IHVs mainstream GPUs bleiben nach wie vor bei 128bits.
Ailuros
2006-01-29, 01:44:50
Man beachte die Einordnung in der Vertikalen.
Falls Du auf Leistung anspielen solltest, sehe ich keine Anzeichen dafuer, schon gar nicht im mainstream Segment. Selbst wenn eine G73 genauso viel Einheiten haben sollte wie eine NV43/42 sind es nicht nur aufgebohrte ALUs sondern auch um einiges hoehere Taktraten.
Falls Du auf Leistung anspielen solltest, sehe ich keine Anzeichen dafuer, schon gar nicht im mainstream Segment. Selbst wenn eine G73 genauso viel Einheiten haben sollte wie eine NV43/42 sind es nicht nur aufgebohrte ALUs sondern auch um einiges hoehere Taktraten.
Ich meine nicht die Einordnung in Bezug auf die Vorgänger, denn dass mit der Zeit die ganze Produktpalette schneller wird ist klar. Sondern die Einordnung in Marktsegmente, insbesondere bei der G71-Karte.
Find ich auch ein wenig eigenartig...
Ailuros
2006-01-29, 09:24:25
Ich meine nicht die Einordnung in Bezug auf die Vorgänger, denn dass mit der Zeit die ganze Produktpalette schneller wird ist klar. Sondern die Einordnung in Marktsegmente, insbesondere bei der G71-Karte.
Irgendwie muss mir etwas entgehen hier; (slide #10) links gibt es von oben nach unten Enthusiast, Performance, Mainstream, Value. Ich kann mir schwer vorstellen dass Du was anderes meinst als dass G71 nach dem slide Enthusiast und Performance bedienen soll (was ja indirekt auch auf Leistung deutet).
reunion
2006-01-29, 09:56:09
Ich meine nicht die Einordnung in Bezug auf die Vorgänger, denn dass mit der Zeit die ganze Produktpalette schneller wird ist klar. Sondern die Einordnung in Marktsegmente, insbesondere bei der G71-Karte.
Ja, sehr seltsam. G71 ist eher im Performance-Segment, nicht aber wie G70 im Enthusiast-Segment eingeordnet. Ist G71 womöglich nur ein abgespeckter G70?
Noch dazu geht MSI, welche diese Information mit Sicherheit aus erste Hand erhalten, nur von einer Q2-Veröffentlichung aus. Könnte also noch einige Zeit dauern, bis man G71 kaufen wird können.
seahawk
2006-01-29, 14:51:10
Naja, es gab ja, bevor G71 als Codename für den G70 High-End-Nachfolger benutzt wurde, andere Spekulationen.
G75 : 90nm @ 32 Pipes @ 256Bit
G71 : 90nm @ 20 Pipes @ 256Bit
G73 : 90nm @ 12 Pipes @ 128Bit
Noch ein puzzlestückchen:
We continue to hear new details about G72 and G73 here in Taiwan, and the latest batch of info from our vendors is that G72 and G73 will be pin compatible with NV40 and NV43. In other words, your next NVIDIA video card might have the same PCB from the 6600GT, but with a different GPU.
http://www.anandtech.com/video/showdoc.aspx?i=2570
Wäre dann ja genial einfach für Nvidia, den markt zu bedienen!
Value nur noch mit 64bit PCB siehe G72/7300, erledigt
Mainstream mit 128bit PCB NV43 raus G73 rein
Performance mit 128bit oder 256bit
Enthusiast mit 256bit PCB G71 Q2! - also erst frühestens April!
OBrian
2006-01-29, 17:03:11
Bzgl. der Einordnung in Marktsegmente: Es gäbe auch die Möglichkeit, daß man sich bei der Folienerstellung bei MSI nicht so wahnsinnig viel gedacht hat, sondern einfach das G71-Kästchen relativ mittig in die freien Flächen oberhalb der anderen gesetzt hat. Ist ja auch soweit richtig, daß "Performance"- und "Enthusiast"-Bereich abgedeckt sind, aber in den Höhenunterschied zu den Kästchen links würde ich nicht mehr reingeheimnissen als nötig ;) Immerhin wird es wohl mehr als eine einzige Kartenversion geben, und deren Listenpreisempfehlungen sind bestimmt auch noch nicht festgelegt.
Kladderadatsch
2006-01-29, 17:08:08
Bzgl. der Einordnung in Marktsegmente: Es gäbe auch die Möglichkeit, daß man sich bei der Folienerstellung bei MSI nicht so wahnsinnig viel gedacht hat, sondern einfach das G71-Kästchen relativ mittig in die freien Flächen oberhalb der anderen gesetzt hat. Ist ja auch soweit richtig, daß "Performance"- und "Enthusiast"-Bereich abgedeckt sind, aber in den Höhenunterschied zu den Kästchen links würde ich nicht mehr reingeheimnissen als nötig ;) Immerhin wird es wohl mehr als eine einzige Kartenversion geben, und deren Listenpreisempfehlungen sind bestimmt auch noch nicht festgelegt.
so sehe ich das auch.
es kommt doch lediglich eine '7900gtx', die deckt somit eben high end und enthusiast. stünde sie nur auf enthusiast, würde man hier jetzt wohl um die specs und den launchtermin des high-end-produkts orakeln;)
Ailuros
2006-01-30, 08:34:29
Ja, sehr seltsam. G71 ist eher im Performance-Segment, nicht aber wie G70 im Enthusiast-Segment eingeordnet. Ist G71 womöglich nur ein abgespeckter G70?
Noch dazu geht MSI, welche diese Information mit Sicherheit aus erste Hand erhalten, nur von einer Q2-Veröffentlichung aus. Könnte also noch einige Zeit dauern, bis man G71 kaufen wird können.
Oder "Enthusiast" wird von etwas anderem etwas spaeter eingenommen.
Enthusiast: G80
Performance: G71
Mainstream: G73
Value: G72
Man koennte mit vielen merkwuerdigen Thesen ankommen, aber das G71 Kaestchen liegt auf der Linie die Enthusiast und Performance auseinanderhaelt. Weder darueber noch darunter ;)
Xptweaker
2006-01-30, 08:59:04
Geforce 7900er in zwei Varianten?
So soll neben dem oben erwähnten Flagschiff auch eine kleinere Schwester das Licht der Welt erblicken: die Geforce 7900 GT mit 256 MB Speicher. Über den Termin der Karte wird noch spekuliert. Das Magazin VR-Zone nennt den 20. März, also rund zwei Wochen nach dem Launch der 7900 GTX; wahrscheinlich zusammen mit der Geforce 7600-Serie. Über genauere technische Details ist bislang nichts bekannt. Da derzeitige Gerüche davon sprechen, dass die 7900 GTX mit 32 Pixelshader-Einheiten ausgeliefert wird, könnte die kleinere Schwester 24 dergleichen besitzen.
http://www.gamestar.de/news/hardware/31086/
PingpiN
2006-01-30, 10:08:11
Geforce 7900er in zwei Varianten?
So soll neben dem oben erwähnten Flagschiff auch eine kleinere Schwester das Licht der Welt erblicken: die Geforce 7900 GT mit 256 MB Speicher. Über den Termin der Karte wird noch spekuliert. Das Magazin VR-Zone nennt den 20. März, also rund zwei Wochen nach dem Launch der 7900 GTX; wahrscheinlich zusammen mit der Geforce 7600-Serie. Über genauere technische Details ist bislang nichts bekannt. Da derzeitige Gerüche davon sprechen, dass die 7900 GTX mit 32 Pixelshader-Einheiten ausgeliefert wird, könnte die kleinere Schwester 24 dergleichen besitzen.
http://www.gamestar.de/news/hardware/31086/
Finde ich ziemlich schwach.Nvidia kann woll einpacken...
Ailuros
2006-01-30, 10:17:59
Finde ich ziemlich schwach.Nvidia kann woll einpacken...
Eine halbwegs logische Begruendung? Low-k 90nm liefert ein gesundes Prozentual an die-Flaeche im Vergleich zu 110nm. Egal wie sie dieses investiert haben wird es zu einer gesunden Leistungssteigerung im Vergleich zur GTX 512 fuehren.
seahawk
2006-01-30, 13:46:44
Finde ich ziemlich schwach.Nvidia kann woll einpacken...
:confused:
Die 7900GT könnte schneller sein als die GTX 512MB, so schwach ist das wohl nicht - oder ?
OBrian
2006-01-30, 15:37:44
Sie müßte ja gar nicht schneller sein, wenn sie auf Höhe der normalen 7800GTX läge, wärs doch schon ausreichend. Wäre ein Ersatz, der nVidia weniger kostet (kleineres Die wg. 90nm, Verwertung von G71 mit weniger als 32 funktionierenden Pipes usw.). Die Ausstattung mit "nur" 256MB deutet doch eher darauf hin, daß es nicht unbedingt die Uber-Karte werden soll. Für das Gewinnen der Benchmarks haben sie ja noch die Karte darüber.
reunion
2006-01-30, 21:03:43
Hier ein ausführlicher Die-Size-Vergleich, intressanterweise mit G71.
http://pc.watch.impress.co.jp/docs/2006/0127/kaigai01l.gif
http://pc.watch.impress.co.jp/docs/2006/0127/kaigai01l.gif
mapel110
2006-01-30, 21:24:17
Warum fehlt die Transistorenanzahl bei G71? ;(
Du kannst sie ja gerne nachtragen, sollte sie dir bekannt sein. ;)
robbitop
2006-01-31, 00:03:09
Die kann man anhand des Diagrammes linear interpolieren (gewisse Ungenauigkeiten mal rausgenommen). Sollte so bei ~340Mio Transistoren sein.
mapel110
2006-01-31, 00:05:31
Die kann man anhand des Diagrammes linear interpolieren (gewisse Ungenauigkeiten mal rausgenommen). Sollte so bei ~340Mio Transistoren sein.
Vielleicht hat ja R580 bzw R520 besonders viele "Fülltransistoren" bzw redundante Teile?!
Mir kommts jedenfalls zu wenig vor für G71.
robbitop
2006-01-31, 00:08:17
Vielleicht hat ja R580 bzw R520 besonders viele "Fülltransistoren" bzw redundante Teile?!
Mir kommts jedenfalls zu wenig vor für G71.
Die werden aber mitgezählt. Ein NV40 Quad kostet rund 20 Mio Transistoren (wenn man die Differenz NV42-NV40 betrachtet), ein G70 Quad etwas mehr.
Fügt man zwei Quads hinzu sollte man in etwa auf diesen Betrag kommen. Anscheinend hat NV keine Verbesserungen großartig hinzugefügt. Naja ein echter Refresh reicht ja auch.
deekey777
2006-01-31, 00:16:19
Wenn man den NV40 (http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=62&orderby=release_date&order=Order&cname=) vs. NV41 (http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=86&orderby=release_date&order=Order&cname=) vergleicht, sind es ~30 Mio Transistoren für ein Quad incl. einen VS. Den G70 trennen vom NV40 schon 80 Mio Transistoren (2 Quads mehr, 2 VS mehr und diverse Verbesserungen zB der Pixelshader). Der G71, sollte er tatsächlich ein Acht-Quader sein, dürfte schon so schwer wie der R580 sein.
Um diese Uhrzeit darf man eh alles schreiben. :biggrin:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3506735#post3506735 ;) :D
Sunrise
2006-01-31, 00:25:00
Vielleicht hat ja R580 bzw R520 besonders viele "Fülltransistoren" bzw redundante Teile?!
Ersetze mal den Gedanken der Fülltransistoren mit diversen "Dingen", die G70 nicht hat und die logischerweise einiges an Transistoren gekostet haben.
Wobei man dann auch wieder sagen muss, dass diese Vergleiche relativ eigentümlich sind, denn unterschiedliche Designs von verschiedenen IHVs (in dieser Hinsicht) zu vergleichen, ist keine gute Ausgangsbasis. Also fangen wir besser garnicht erst damit an. Das würde auch nicht wirklich zu etwas führen.
G7X bleibt natürlich weiterhin traumhaft skalierbar und wenn man die Pläne von NV, die Margen noch weiter verbessern zu wollen, mal im Hinterkopf behält, dann ergeben diverse Dinge doch wieder deutlich mehr Sinn.
Naja, gibt auch genug Sachen, die G70 hat und R520/R580 nicht und die kosten auch sehr viele Transistoren. Dennoch denke ich nicht, dass da großartig Fülltransistoren mitspielen. Eher ist ATIs Design ein wenig suboptimal und verbraucht unverhältnismäßig viele Transistoren. Ist ja auch nicht das, was ATI sich ursprünglich mal für 2005/2006 vorgestellt hatte, ergo eine Notlösung aus ATIs Sicht.
Naja, uns kann das eigentlich egal sein, sofern Features und Geschwindigkeit stimmen. Schade nur, dass FP-Filterung und VTF nicht mehr reingepasst haben.
Ailuros
2006-01-31, 02:23:06
Wenn man den NV40 (http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=62&orderby=release_date&order=Order&cname=) vs. NV41 (http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=86&orderby=release_date&order=Order&cname=) vergleicht, sind es ~30 Mio Transistoren für ein Quad incl. einen VS. Den G70 trennen vom NV40 schon 80 Mio Transistoren (2 Quads mehr, 2 VS mehr und diverse Verbesserungen zB der Pixelshader). Der G71, sollte er tatsächlich ein Acht-Quader sein, dürfte schon so schwer wie der R580 sein.
Es waere sinnlos die ALUs von G70 aufwaerts weiter aufzublaehen.
wuzetti
2006-01-31, 15:55:21
G7X bleibt natürlich weiterhin traumhaft skalierbar und wenn man die Pläne von NV, die Margen noch weiter verbessern zu wollen, mal im Hinterkopf behält, dann ergeben diverse Dinge doch wieder deutlich mehr Sinn.
möchtest du damit vielleicht andeuten, dass NV eventuell gleich auf 80nm geht und dass G71 (oder wie immer das ding heissen mag) deshalb mit relativ viel verspätung im vergleich zu R580 daherkommt?
Godmode
2006-01-31, 16:02:40
möchtest du damit vielleicht andeuten, dass NV eventuell gleich auf 80nm geht und dass G71 (oder wie immer das ding heissen mag) deshalb mit relativ viel verspätung im vergleich zu R580 daherkommt?
Kann mir nicht vorstellen, dass sie dieses Riskiko nochmal eingehen, siehe NV30.
wuzetti
2006-01-31, 16:23:07
Kann mir nicht vorstellen, dass sie dieses Riskiko nochmal eingehen, siehe NV30.
wenn ich mir dieses (http://www.beyond3d.com/forum/showpost.php?p=686487&postcount=317) posting von Sunrise bei B3D anschaue, so sind die Unterschiede zwischen 90nm und 80nm nicht so gross, aber ich kann natürlich nicht ausschliessen, dass das eine schnapsidee von mir ist. :D
Ailuros
2006-01-31, 16:55:54
*hick* :D
Godmode
2006-01-31, 16:58:29
Was ich nicht ganz verstehe, warum überhaupt noch einen G7x, wenn ja der D3D10 Part schon vor der Türe steht?
wuzetti
2006-01-31, 17:02:56
*hick* :D
ok, alles klar, danke! ;D
wuzetti
2006-01-31, 17:05:16
Was ich nicht ganz verstehe, warum überhaupt noch einen G7x, wenn ja der D3D10 Part schon vor der Türe steht?
da bis zum G80 anscheinend schon ein paar monate fehlen, würde ich vermuten, dass man ATI das feld nicht kampflos überlassen will, zumal die GTX 512 ja mehr schlecht als recht verfügbar ist.
mapel110
2006-01-31, 17:09:40
da bis zum G80 anscheinend schon ein paar monate fehlen, würde ich vermuten, dass man ATI das feld nicht kampflos überlassen will, zumal die GTX 512 ja mehr schlecht als recht verfügbar ist.
Genau, Verfügbarkeit zum einen und die Margen von den bisherigen G70-Chips sollten auch nicht so dolle sein, jedenfalls schlechter als bei einem 90nm Chip mit dem Transistorcount logischerweise.
OBrian
2006-01-31, 17:34:33
Warum meinen denn eigentlich so viele, daß möglicherweise der 80nm-Prozeß dafür genommen werden könnte? Ich dachte immer, diese Zwischenschritte, wie 110nm z.B. auch, sind eher für die unteren Marktbereiche gedacht, da man damit keine so hohe Taktfrequenzen hinbekommt.
Wie bei Ati, die den R430 in 110nm mit 400Mhz gebaut haben, als sie mit dem 130nm low-k schon deutlich über 500Mhz waren - Wäre mehr drin gewesen, hätte die X800XL vielleicht eher wie die X800pro ausgesehen (16 Pipes à 400Mhz und 12 Pipes à 533Mhz kommt ja etwa auf dasselbe raus), aber man sah ja auch an OC-Versuchen, daß da nicht viel ging.
Wenn jetzt nVidia den neuesten High-End-Chip in so einem Prozeß baute, dann müßten sie ja alle Performance aus den vielen Pipes holen, der Takt würde aber wahrscheinlich unterhalb der GTX512 liegen. Und da es bei solchen Chips wichtiger ist, die Performancekrone zu holen, als tatsächlich viel Geld damit zu verdienen, wäre es doch Unsinn, sich Taktreserven nach oben selbst zu verbauen.
Oder hab ich hier nen Denkfehler drin?
Sunrise
2006-01-31, 20:35:09
Ich dachte immer, diese Zwischenschritte, wie 110nm z.B. auch, sind eher für die unteren Marktbereiche gedacht, da man damit keine so hohe Taktfrequenzen hinbekommt.
Das ist von Prozess-Node zu Node unterschiedlich. 110nm ist genauso wie 80nm eine Half-Node, d.h. es ist ein optischer Shrink, ausgehend von 130nm bzw. 90nm. 110nm wurde damals als nächster Schritt zur günstigen und hochvolumigen Produktion bereits bestehender 130nm-Designs beworben, hatte jedoch gleichzeitig auch den Nachteil, dass dafür (im Gegensatz zu 130nm) kein Low-K verfügbar war, weshalb dieser Prozess anfangs auch (das ist Design- und Reife-abhängig) ausdrücklich nicht für allzu hohe Taktraten ausgelegt war. 80nm ist die erste Half-Node, bei der gleich mehrere "Targets", also "Design-Ziele" verfügbar sind, zudem ist diese Node inkl. Low-K, was sich von allen vorherigen Half-Nodes also gravierend unterscheidet.
ATi hatte wohl nie wirklich viel in 110nm investiert, weil dieser Prozess bei den bestehenden Designs im Grunde nur Nachteile für sie hatte, zumindest im Sinne der Taktbarkeit. R430 war ab einem Punkt nötig, bei dem ATi zudem noch starke Probleme hatte, die Nachfrage an R480-Chips befriedigen zu können, zudem waren die Margen nicht besonders rosig.
Wie bei Ati, die den R430 in 110nm mit 400Mhz gebaut haben, als sie mit dem 130nm low-k schon deutlich über 500Mhz waren...
ATi hatte, im Gegensatz zu NV, einen völlig anderen Weg genommen. Man beließ den High-End R480 auf 130nm Low-K, weil ihnen natürlich bewusst war, dass sie mit einem simplen Shrink auf 110nm nicht nur mit (gravierenden) Taktverlusten rechnen mussten, eben weil hier kein Low-K verfügbar, das Design aber wiederum stark davon abhängig war, da es besonders hoch taktbar ausgelegt wurde, um die Leistung zu entfalten zu können, die ATi sich vorgestellt hatte.
Im Gegensatz dazu, hatte NV das ursprüngliche NV40-Design vollkommen modifiziert, nachdem sie sich von IBM (130nm) abgewandt hatten, und bei TSMC dann direkt 110nm als "Target" genommen haben. Der Unterschied, der stark Design-spezifisch ist, liegt jetzt darin, dass NV bereits von Anfang an, also direkt ab dem ersten Shrink des NV40, für Jahre im Voraus auch damit geplant hatte, weil das NV40-Design keine hohen Takte benötigt (relativ zu ATi), und man stattdessen einfach über die Einheiten skaliert.
Man minimiert damit potentielle Yield-Probleme, maximiert den Output und die Margen, das alles bei beachtlicher Leistung.
Ailuros
2006-02-01, 08:24:07
Was ich nicht ganz verstehe, warum überhaupt noch einen G7x, wenn ja der D3D10 Part schon vor der Türe steht?
Weil eben der letztere hauptsaechlich dafuer dienen soll eine komplett neue Generation vorzustellen. Es wird seine Zeit brauchen bis man eine komplette D3D10 Produktlinie vorstellen kann und brauchen wird man diese zu dem Zeitpunkt sowieso nicht.
Ich erwarte von so einem Ding sowieso keine ueberragende Leistung fuer den Anfang.
Ailuros
2006-02-01, 08:26:37
Sunrise,
Ich wuerde die "Verwandschaften" verschiedener libraries auch noch mitrechnen (low-k vs. non-low-k).
Als ich hinter den Kulissen ueber die Entscheidung fuer 110nm fragte, bekam ich eine ziemlich deutliche Antwort die in diese Richtung zeigte.
Sunrise
2006-02-01, 18:01:19
Sunrise,
Ich wuerde die "Verwandschaften" verschiedener libraries auch noch mitrechnen (low-k vs. non-low-k).
Als ich hinter den Kulissen ueber die Entscheidung fuer 110nm fragte, bekam ich eine ziemlich deutliche Antwort die in diese Richtung zeigte.
Ja, das kommt natürlich auch noch dazu. In diese Richtung ging auch mein Post auf B3D, der an Chalnoth gerichtet war.
Armaq
2006-02-01, 18:14:18
Der Unterschied, der stark Design-spezifisch ist, liegt jetzt darin, dass NV bereits von Anfang an, also direkt ab dem ersten Shrink des NV40, für Jahre im Voraus auch damit geplant hatte, weil das NV40-Design keine hohen Takte benötigt (relativ zu ATi), und man stattdessen einfach über die Einheiten skaliert.
Man minimiert damit potentielle Yield-Probleme, maximiert den Output und die Margen, das alles bei beachtlicher Leistung.
Folglich hat Nvidia die bessere Sturktur gewählt, wenn man die Margen betrachtet?
Langfristig müsste Ati doch erkannt haben, dass nV ihnen ein gutes Stück vorrauseilen könnte. Wenn das was du sagst stimmt, müsste nV einen ziemlichen Vorsprung rausarbeiten können, da ihnen einfach mehr Cash zur Verfügung steht?
Sunrise
2006-02-01, 18:36:25
Folglich hat Nvidia die bessere Sturktur gewählt, wenn man die Margen betrachtet?
Langfristig müsste Ati doch erkannt haben, dass nV ihnen ein gutes Stück vorrauseilen könnte. Wenn das was du sagst stimmt, müsste nV einen ziemlichen Vorsprung rausarbeiten können, da ihnen einfach mehr Cash zur Verfügung steht?
Das haben sie in der Tat. Die Margen sind bei NV derzeit so hoch, wie schon seit Jahren nichtmehr, und das fast durchweg über die gesamte Palette an SKUs. Bei allen G7X-Nachfolgern (davon sind bereits einige fertiggestellt, der Rest folgt) auf 90nm, haben sie potentiell auch alle Möglichkeiten, diese sogar noch weiter zu verbessern.
Ailuros
2006-02-02, 01:59:33
Nur mal ganz so nebenbei, ich sollte mich nicht von den Zweifeln mancher Leute beinflussen lassen, denn die originalen Infos sind meistens doch die richtigen.
mapel110
2006-02-02, 04:34:29
Nur mal ganz so nebenbei, ich sollte mich nicht von den Zweifeln mancher Leute beinflussen lassen, denn die originalen Infos sind meistens doch die richtigen.
Dabei geht mir auch gerade so durch den Kopf, dass nvidia ja erstmal mit den 32 Pipes Perfomance rausholen kann und später dann eben einen verbesserten Speicherkontroller beim D3D10-Chip bringen könnte.
Jedenfalls kann man wohl nicht von Änderungen am Speicherkontroller ausgehen, obwohl die ja dringend nötig wären.
Wenn ich mir das so überlege, zieht das Argument, dass sich nvidia Spielraum nach oben offen halten muss für den nächsten Chip, nicht.
Dabei geht mir auch gerade so durch den Kopf, dass nvidia ja erstmal mit den 32 Pipes Perfomance rausholen kann und später dann eben einen verbesserten Speicherkontroller beim D3D10-Chip bringen könnte.
Jedenfalls kann man wohl nicht von Änderungen am Speicherkontroller ausgehen, obwohl die ja dringend nötig wären.
Wenn ich mir das so überlege, zieht das Argument, dass sich nvidia Spielraum nach oben offen halten muss für den nächsten Chip, nicht.Bei D3D10-Chips sind eh neue Funktionen im Memory Controller erforderlich. Da hat man auch andere Möglichkeiten, die Effizienz zu steigern. Ich fürchte allerdings, dass der Treiber dann einen noch größeren Einfluss auf die Leistung bekommt. Vielleicht kann Demi dazu ja noch was sagen.
Ailuros
2006-02-02, 12:39:13
Dabei geht mir auch gerade so durch den Kopf, dass nvidia ja erstmal mit den 32 Pipes Perfomance rausholen kann und später dann eben einen verbesserten Speicherkontroller beim D3D10-Chip bringen könnte.
Jedenfalls kann man wohl nicht von Änderungen am Speicherkontroller ausgehen, obwohl die ja dringend nötig wären.
Wenn ich mir das so überlege, zieht das Argument, dass sich nvidia Spielraum nach oben offen halten muss für den nächsten Chip, nicht.
Ich wuerde mich kranklachen wenn G80 doch ein USC sein sollte und NV dann eine Generation spaeter einen DR auftischt :biggrin:
Armaq
2006-02-02, 14:10:32
Bei D3D10-Chips sind eh neue Funktionen im Memory Controller erforderlich. Da hat man auch andere Möglichkeiten, die Effizienz zu steigern. Ich fürchte allerdings, dass der Treiber dann einen noch größeren Einfluss auf die Leistung bekommt. Vielleicht kann Demi dazu ja noch was sagen.
Warum ist das so? Wenn ich eine Unified Architecture habe, muss doch der Entwickler die Parts ansteuern und ist in seinen Möglichkeiten freier/flexibler.
Ob Unified Shader oder nicht ändert an der API überhaupt nichts. Das ist ein gängiger Trugschluss.
GloomY
2006-02-02, 18:41:56
Bei D3D10-Chips sind eh neue Funktionen im Memory Controller erforderlich. Da hat man auch andere Möglichkeiten, die Effizienz zu steigern. Ich fürchte allerdings, dass der Treiber dann einen noch größeren Einfluss auf die Leistung bekommt. Vielleicht kann Demi dazu ja noch was sagen.Ist doch klar (zumindest mir ;)). D3D10 muss (so weit ich das richtig vernommen habe) Speichervirtualisierung bieten. Wie bei der CPU und dem Hauptspeicher werden jetzt einzelne Teile (wahrscheinlich Page-weise) in den lokalen Graka-RAM ein- und ausgelagert, d.h. der Treiber muss sich darum kümmern, welche Teile des Addressraums im Graka-RAM abgelegt werden und welche in den Hintergrundspeicher (Hauptspeicher) ausgelagert werden. Je nach Anwendung, verwendeter Policy zur Speicherräumen, Auslagerungsalgorithmus (FIFO, LFU, Clocking-Algorithmus uvm.) kann es da große Unterschiede in der Performance geben. Der Treiber hat einfach sehr viel mehr Verantwortung und kann somit mehr falsch bzw. richtig machen.
Ailuros
2006-02-02, 20:17:48
Ob Unified Shader oder nicht ändert an der API überhaupt nichts. Das ist ein gängiger Trugschluss.
Meine Antwort war auch nicht bis zu 100% ernst zu nehmen. Lies nochmal mapel's quote durch ;)
Demirug
2006-02-02, 20:58:47
Bei D3D10-Chips sind eh neue Funktionen im Memory Controller erforderlich. Da hat man auch andere Möglichkeiten, die Effizienz zu steigern. Ich fürchte allerdings, dass der Treiber dann einen noch größeren Einfluss auf die Leistung bekommt. Vielleicht kann Demi dazu ja noch was sagen.
Der Speichercontroller eines DX9 Chips reicht dafür und der Treiber hat da nicht so viel mitzureden weil das Grafiksubsystem den Speicher verwalteted. Der Treiber darf allerdings Wünsche äussern.
Ansonsten hat der Treiber genau so viel einfluß wie bisher auch. Es wird aber einfacher gute Multicore Treiber zu schreiben.
Demirug
2006-02-02, 21:01:46
Ist doch klar (zumindest mir ;)). D3D10 muss (so weit ich das richtig vernommen habe) Speichervirtualisierung bieten. Wie bei der CPU und dem Hauptspeicher werden jetzt einzelne Teile (wahrscheinlich Page-weise) in den lokalen Graka-RAM ein- und ausgelagert, d.h. der Treiber muss sich darum kümmern, welche Teile des Addressraums im Graka-RAM abgelegt werden und welche in den Hintergrundspeicher (Hauptspeicher) ausgelagert werden. Je nach Anwendung, verwendeter Policy zur Speicherräumen, Auslagerungsalgorithmus (FIFO, LFU, Clocking-Algorithmus uvm.) kann es da große Unterschiede in der Performance geben. Der Treiber hat einfach sehr viel mehr Verantwortung und kann somit mehr falsch bzw. richtig machen.
Nicht D3D10 sondern jeder Vista Treiber muss das unterstützen. Bei Fullscreenanwendungen hat das allerdings nur dann wirklich große Auswirkungen wenn ein Spiel mehr Texturen benutzt als Speicher vorhanden ist.
Ailuros
2006-02-02, 21:05:46
....und da die Effizient-Debatten in letzter Zeit wieder heiss geworden sind, wuerde eDRAM in kleinen Portionen (eher fuer cache-Funktionen) hier nicht umso mehr Sinn machen?
Demirug
2006-02-02, 21:14:10
....und da die Effizient-Debatten in letzter Zeit wieder heiss geworden sind, wuerde eDRAM in kleinen Portionen (eher fuer cache-Funktionen) hier nicht umso mehr Sinn machen?
Nicht wirklich. Wir sehen ja am C1 das man es immer noch nicht geschaft hat auf einen hochkomplexen Logikchip eDRAM zu verbauen. Für Cache wäre es aber suboptimal einen zweiten DIE zu verwenden.
Z-RAM könnte interesant sein.
Ailuros
2006-02-02, 21:20:18
Nicht wirklich. Wir sehen ja am C1 das man es immer noch nicht geschaft hat auf einen hochkomplexen Logikchip eDRAM zu verbauen. Für Cache wäre es aber suboptimal einen zweiten DIE zu verwenden.
Z-RAM könnte interesant sein.
Ich meinte keinen zweiten Tochter-die.
Z-ram? Links oder Erklaerung fuer den weiterlernenden Laien vielleicht? :)
Demirug
2006-02-02, 21:30:58
Ich meinte keinen zweiten Tochter-die.
Z-ram? Links oder Erklaerung fuer den weiterlernenden Laien vielleicht? :)
Z-RAM steht für "zero capacitor DRAM". Man braucht also keine Kapzität mehr. Genau diese ist es aber die beim eDRAM die Probleme verursacht. Als Nebeneffekt braucht man für einen Z-RAM Zelle auch noch weniger Platz. AMD will in Zukunft Z-RAM für Caches verwenden.
Godmode
2006-02-04, 14:45:40
http://www.computerbase.de/news/treiber/grafikkarten/nvidia/2006/februar/forceware_geforce_go_7900_gs_gtx/
Da bin ich ja mal gespannt.
Nvidia plant laut Inquirer (http://www.theinquirer.net/?article=29469) Ende April eine Quadro G71 mit - man höre und staune - 1 Gig Ram! Der Preis ist auch heftig: 8000$ (wenns stimmt)
Chris Lux
2006-02-05, 08:23:11
Nvidia plant laut Inquirer (http://www.theinquirer.net/?article=29469) Ende April eine Quadro G71 mit - man höre und staune - 1 Gig Ram! Der Preis ist auch heftig: 8000$ (wenns stimmt)
da liegt der inq zu 100% richtig!
im profi bereich fordert man aber schon mehr als dieses 1GB.... ;)
reunion
2006-02-06, 19:53:47
INQ: G71, Geforce 7900 GTX needs to hit 700 MHz+ to beat the Radeon X1900XTX (http://www.the-inquirer.net/?article=29516)
Dann müsste es ein 6 Quad Chip sein - ist ja möglich.
Dann müsste es ein 6 Quad Chip sein - ist ja möglich.
Ähm, man geht aber von 8 Quads aus.
Was ist aber mit dem Speicher?
Das Problem von NV sind hohe Auflösungen mit AA.
Extremes Besipiel:
http://images.anandtech.com/graphs/ati%20radeon%20x1900%20launch_012406100152/10664.png
Hier spielt sicherlich noch eine leichte Shaderschwäche mit rein, wobei ich dem G71 bei FEAR kein Chance gegen den R580 gebe.
Ähm, man geht aber von 8 Quads aus.
Was ist aber mit dem Speicher?
Das Problem von NV sind hohe Auflösungen mit AA.
Extremes Besipiel:
http://images.anandtech.com/graphs/ati%20radeon%20x1900%20launch_012406100152/10664.png
Hier spielt sicherlich noch eine leichte Shaderschwäche mit rein, wobei ich dem G71 bei FEAR kein Chance gegen den R580 gebe.
Das ist wirklich krass.
Aber an der ALU-Leistung kann das eigentlich kaum liegen, denn sonst würde ja der R520 nicht so gut abschneiden. Der Speichercontroller arbeitet bei ATI wohl einfach sehr viel effizienter bei aktiviertem AA, anders kann ich mir das nicht erklären.
Gandharva
2006-02-15, 19:33:12
[GeForce 7900 GT Card Info]
We have seen the GeForce 7900 GT card already and we can say that the PCB layout is different from the current 7800GT card. The PWM area is slightly different too. The GeForce 7900 GT card comes with 256MB of K4J55323QG-BC14 GDDR3 memories from Samsung which has an effective data rate of 700MHz so a good guess will be 1.2GHz memory clock for the 7900 GT. We will eagerly wait for the launch in March during CeBIT.
http://www.vr-zone.com/index.php?i=3231
Naja, 7900GT ist wohl eher uninteressant. Richtig spannend ist nur die GTX/Ultra.
M2-Master
2006-02-15, 21:21:54
Naja, 7900GT ist wohl eher uninteressant. Richtig spannend ist nur die GTX/Ultra.
Für Leute mit weniger Budget als die Highend-Gamer ist die die 7900GT durchaus interessant.
Für Leute mit weniger Budget als die Highend-Gamer ist die die 7900GT durchaus interessant.
oder welche, die einfach nicht so viel ausgeben wollen
Just fyi, confirmation just came in from nVidia that their next gen will indeed support HDR+AA, but not the GeForce7 architecture.
http://www.beyond3d.com/forum/showpost.php?p=698079&postcount=24
Soso ... :biggrin:
Nichts neues im Prinzip...
mapel110
2006-02-16, 01:05:22
Wenn sie den Speichercontroller nicht überarbeitet haben, wäre HDR+AA wohl ohnehin unbrauchbar lahm, noch deutlich lahmer als auf R5xx.
Ailuros
2006-02-16, 01:39:56
http://www.beyond3d.com/forum/showpost.php?p=698079&postcount=24
Soso ... :biggrin:
War ja soooo unheimlich schwer vorzustellen :|
Palpatin
2006-02-17, 16:17:49
http://www.hartware.de/news_39455.html
Wenn das so stimmt, wäre die 7900GT im Vergleich zur GTX ja ganz schön schwach. Naja, wie ich sagte, interessant ist nur das Topmodell. :D
Godmode
2006-02-17, 16:21:14
http://www.hartware.de/news_39455.html
Diese Lücke zwischen 7900 GT und GTX verwundert micht schon, wollen sie diese mit der 7800 GTX 512 schließen?
Palpatin
2006-02-17, 16:29:02
Ist extrem ja und zummindest ne gut chance für ati zummindest das preis leistungs duell im high end bereich zu gewinnen ... btw die topmodelle intressieren mich eigentlich überaupt nicht da diese meist schlechter zu ocen sind (% based) und auch meist ein schlechteres pl bieten.
Winter[Raven]
2006-02-17, 21:02:01
Diese Lücke zwischen 7900 GT und GTX verwundert micht schon, wollen sie diese mit der 7800 GTX 512 schließen?
Ja, derzeit wird fleißig 512 GTX Produziert, galubt man den Gerüchten lag es mal wieder am fehlendem Speicher für die magere Menge an Karten.
reunion
2006-02-17, 22:03:20
']Ja, derzeit wird fleißig 512 GTX Produziert, galubt man den Gerüchten lag es mal wieder am fehlendem Speicher für die magere Menge an Karten.
Und wenn man dazu dann auch noch den Verstand einschält, und sich die Verfügbarkeit der X1900XTX mit ebenfalls 1.1ns-Speicher ansieht, so wird dieses "Gerücht" ganz schnell zum Mythos.
Winter[Raven]
2006-02-17, 22:35:24
Ahhh ... schön, wir vergleichen also die 850 mhz der 512 GTX mit den 750 einer 1800 XT ... ok ...
Krustovsky
2006-02-17, 22:35:56
Ohne meckern zu wollen, bei Alter**** ist im Moment keine XTX direkt verfügbar! Am Launchtag gabs auch die GTX 512...
Kladderadatsch
2006-02-17, 22:40:45
Ohne meckern zu wollen, bei Alter**** ist im Moment keine XTX direkt verfügbar!
:confused:
wen interessiert alternate?
http://www.geizhals.at/deutschland/a184942.html
reunion
2006-02-17, 22:43:27
']Ahhh ... schön, wir vergleichen also die 850 mhz der 512 GTX mit den 750 einer 1800 XT ... ok ...
Der Takt ist irrelevant, außerdem sprach ich von der X1900XTX.
Winter[Raven]
2006-02-17, 22:48:15
775 MHz ... so What? ... und was heißt hier irrelevant...? Sind wir hier bei den Borg oder was?
Krustovsky
2006-02-17, 22:49:32
:confused:
wen interessiert alternate?
http://www.geizhals.at/deutschland/a184942.html
War nur eine Stichprobe (ist eben ein großer Versender)...
reunion
2006-02-18, 10:32:05
']775 MHz ... so What? ... und was heißt hier irrelevant...? Sind wir hier bei den Borg oder was?
Sag' mal, stellst du dich absichtlich so begriffsstutzig an?
Der verbaute Speicher ist identisch. Ob ihn nV höher taktet als ATi ist scheißegal.
Winter[Raven]
2006-02-18, 11:38:48
Ahhh ... unlogisch oder? Warum sollte ATI den Speicher "niedriger" takten wenn der Speicher mit 850 laufen könnte? Schwanzlänge zählt halt....
mapel110
2006-02-18, 11:45:33
']Ahhh ... unlogisch oder? Warum sollte ATI den Speicher "niedriger" takten wenn der Speicher mit 850 laufen könnte? Schwanzlänge zählt halt....
Könnte an der Gesamt-Leistungsaufnahme (Chip+Ram) liegen. :| Die X1900 läuft schließlich am Limit. Und da spart man eben bei der Spannung und damit beim Takt für die Speicherchips.
Gandharva
2006-02-18, 11:48:49
']Ahhh ... unlogisch oder? Warum sollte ATI den Speicher "niedriger" takten wenn der Speicher mit 850 laufen könnte? Schwanzlänge zählt halt....Du willst es nicht kapieren, oder? Das:']Ja, derzeit wird fleißig 512 GTX Produziert, galubt man den Gerüchten lag es mal wieder am fehlendem Speicher für die magere Menge an Karten. ist einfach nur Blödsinn, da 1,1ns RAM in ausreichenden Mengen verfügbar ist. Der einzige Grund warum NV immer noch keine GTX 512 nachschiebt ist die wohl extrem niedrige Ausbeute an 110nm Chips die einen so hohen Takt vertragen. Zudem stell NV momentan die komplette Produktlinie auf 90nm um.
Warum ATI die 1,1ns Bausteine nicht ausreizt weiss wohl nur ATI.
Winter[Raven]
2006-02-18, 11:53:43
Darüber kann man sich streiten, schließlich will ATI ja noch gegen die 7900 bestehen und da kann ich mir echt nicht vorstellen.
Möglicherweise lässt sich der Samsung nicht immer auf 850 Takten also verhaut ATI den mit 775 Mhz.
']Darüber kann man sich streiten, schließlich will ATI ja noch gegen die 7900 bestehen und da kann ich mir echt nicht vorstellen.
Möglicherweise lässt sich der Samsung nicht immer auf 850 Takten also verhaut ATI den mit 775 Mhz.
Höhere Taktraten bei dem Speicher bedeuten auch ein aufwendigeres Platinenlayout.
Gandharva
2006-02-18, 12:06:59
']Darüber kann man sich streiten, schließlich will ATI ja noch gegen die 7900 bestehen und da kann ich mir echt nicht vorstellen.Worüber soll man da noch streiten? 1,1ns Bausteine sind in Stückzahlen verfügbar. Da gibts nichts zu diskutieren.
Die 7900 muss erstmal zeigen was in ihr steckt. Wenn NV den Speichercontroller nicht sehr verbessern konnte wird die Karte IMO an zu wenig Bandbreite verhungern. Beim AA & AF muss NV auch nachbessern. Der G70 hat da mit hohen Settings nicht wirklich gut ausgesehen.
']Möglicherweise lässt sich der Samsung nicht immer auf 850 Takten also verhaut ATI den mit 775 Mhz.Auf meiner X1900 rennt der 1,1ns RAM auch mit 900MHz. Wofür gaubst du gibt es Spezifikationen? Samsung wird sich hüten RAM zu verkaufen der den eigenen Angaben nicht enspricht.
Es gibt genug Leute deren Speicher nicht die Spezifikation erfüllen. Mein Speicher geht zum Beispiel nur bis 750Mhz. Schon die dritte Sapphire die sich schlecht übertakten lässt. Wohl meine letzte....
reunion
2006-02-18, 12:11:50
']Möglicherweise lässt sich der Samsung nicht immer auf 850 Takten also verhaut ATI den mit 775 Mhz.
1.1ns-Speicher muss mindestens 900Mhz verkraften, wie hoch die Herstellen den Speicher dann tatasächlich takten, ist sowas von egal, auch nV reizt den Speicher nicht voll aus.
Gandharva
2006-02-18, 12:13:20
Es gibt genug Leute deren Speicher nicht die Spezifikation erfüllen. Mein Speicher geht zum Beispiel nur bis 750Mhz. Schon die dritte Sapphire die sich schlecht übertakten lässt. Wohl meine letzte....Ich denke das dies eher am Drumherum liegt. Platinenqualität/-layout, Spannungswandler etc...
deekey777
2006-02-20, 11:58:15
7900 GTX works at 650 MHz (http://www.theinquirer.net/?article=29795)
:cop: Fuad :cop:
"However, according to our sources, the G71 will be nothing more than a 90 nanometre G70 die shrink. It won't have more than 24 pipelines but you never know what Nvidia has exactly up its sleeves."
Das ist die Info um 10:19.
Dagegen um 10:24...
Nvidia to showcase 7900 GTX SLI at CeBIT (http://www.theinquirer.net/Default.aspx?article=29796)
"If Nvidia does have 32 pipelines in its G71 chip you will have a hell of the performer but somehow we still think Nvidia has 24 pipes only."
Na was denn nun? Oh Mann...
Ailuros
2006-02-20, 12:09:34
1.1ns-Speicher muss mindestens 900Mhz verkraften, wie hoch die Herstellen den Speicher dann tatasächlich takten, ist sowas von egal, auch nV reizt den Speicher nicht voll aus.
Mehr als oefter kann man sogar die 900MHz ueberschreiten auf einer GTX512. Ich weiss zwar nicht was genau ATI angestellt hat aber ich lese in letzter Zeit immer mehr dass es nicht besonders leicht ist ohne extravagante Massnahmen die 800MHz Grenze auf einer X1900XT/X zu ueberschreiten. Auch ein Freund von mir mit einer Gecube X1900XT schafft maximal 775MHz sonst gibt's artifacts und die GPU wird uebermaessig heiss (und ja er hat garantiert 1.1ns Speicher onboard).
Eigentlich ist sowas kaum der Rede Wert um ehrlich zu sein, es ist ja nicht so dass man wirklich mehr Puste auf einer R580 braucht. Nur mal so nebenbei weil es um angebliche Ausreizung ging.
Ailuros
2006-02-20, 12:10:35
7900 GTX works at 650 MHz (http://www.theinquirer.net/?article=29795)
:cop: Fuad :cop:
"However, according to our sources, the G71 will be nothing more than a 90 nanometre G70 die shrink. It won't have more than 24 pipelines but you never know what Nvidia has exactly up its sleeves."
Das ist die Info um 10:19.
Dagegen um 10:24...
Nvidia to showcase 7900 GTX SLI at CeBIT (http://www.theinquirer.net/Default.aspx?article=29796)
"If Nvidia does have 32 pipelines in its G71 chip you will have a hell of the performer but somehow we still think Nvidia has 24 pipes only."
Na was denn nun? Oh Mann...
Ich hab ehrlich gesagt keine Ahnung mehr. Es koennte tatsaechlich der Fall sein.
Mehr als oefter kann man sogar die 900MHz ueberschreiten auf einer GTX512. Ich weiss zwar nicht was genau ATI angestellt hat aber ich lese in letzter Zeit immer mehr dass es nicht besonders leicht ist ohne extravagante Massnahmen die 800MHz Grenze auf einer X1900XT/X zu ueberschreiten. Auch ein Freund von mir mit einer Gecube X1900XT schafft maximal 775MHz sonst gibt's artifacts und die GPU wird uebermaessig heiss (und ja er hat garantiert 1.1ns Speicher onboard).Andere Speicherspannung?
Krustovsky
2006-02-20, 13:59:31
Ich hab ehrlich gesagt keine Ahnung mehr. Es koennte tatsaechlich der Fall sein.
:eek: Ein 24 Piper :eek: Das wäre wohl kaum ein angemessener X1900 Konter :confused: Sowas kann man nur über den Preis verkaufen, da die Performance wohl nur knapp über der aktuellen 512 GTX liegen würde (oder bin ich da einem Irrtum aufgsessen?).
Armaq
2006-02-20, 14:04:22
In der lange Zeit wird man wohl an dem Chip gearbeitet haben?! Kann mir nicht vorstellen, dass man 24@650 bringt ohne auch nur irgendwas überarbeitet zu haben.
In der lange Zeit wird man wohl an dem Chip gearbeitet haben?! Kann mir nicht vorstellen, dass man 24@650 bringt ohne auch nur irgendwas überarbeitet zu haben.
Die Karten sind eh nur für die "schwachen" Sommermonate gedacht und man wird sich wohl nicht Konkurrenz für die nächste Generation schaffen wollen.
Die wird imo leichte Probleme kriegen ihre Leistung mit alten Spielen und unter D3D9 zu zeigen.
Ailuros
2006-02-21, 03:16:08
:eek: Ein 24 Piper :eek: Das wäre wohl kaum ein angemessener X1900 Konter :confused: Sowas kann man nur über den Preis verkaufen, da die Performance wohl nur knapp über der aktuellen 512 GTX liegen würde (oder bin ich da einem Irrtum aufgsessen?).
Es koennte auch quasi Gleichstand heissen und ein starker Druck auf niedrigere Preise. ATI wird gezwungen sein dadurch ihre eigenen Preise zu reduzieren und alle werden froh sein ueber die positiven Aspekte der Konkurrenz :P
Trotz allem sag ich nochmal dass es das erste Mal ist wo ich keine blasse Ahnung habe.
reunion
2006-02-21, 10:11:18
7900GT:
http://images.dailytech.com/nimage/546_large_7900_front.jpg
Das Die sieht verdammt klein aus für einen High-End-Chip IMO.
http://www.dailytech.com/article.aspx?newsid=907
Scheint auch keine 7900 zu sein, sondern eine 7600. Das Die wäre wirklich sehr klein. Trotz der 90nm.
Ja, das ist definitiv kein G71, dafür sind die Spannungswandler viel zu klein ausgelegt.
Ich würde sagen da hat jemand was verwechselt und das ist eine 7600GT.
Sunrise
2006-02-21, 12:27:53
7900GT:
Der Die sieht verdammt klein aus für einen High-End-Chip IMO.
Ich habe ja nichts gegen Die-Schnappschüsse, aber wenn er sich seine Sache mal genauer angesehen hätte, dann hätte er auch sofort festgestellt, dass die im Netz derzeit kursierenden 7600-Schnappschüsse des Kerns, mit denen der 7900GT absolut identisch sind. Sprich: Passt man beide Bilder soweit wie möglich einander an, dann wird man unweigerlich feststellen, dass dies sicher kein G71 ist, oder die 7600-Schnappschüsse "aus dem Ärmel geschüttelt" wurden.
Kristopher, du hattest auch schon bessere Tage.
Ailuros
2006-02-21, 13:10:00
Ich habe ja nichts gegen Die-Schnappschüsse, aber wenn er sich seine Sache mal genauer angesehen hätte, dann hätte er auch sofort festgestellt, dass die im Netz derzeit kursierenden 7600-Schnappschüsse des Kerns, mit denen der 7900GT absolut identisch sind. Sprich: Passt man beide Bilder soweit wie möglich einander an, dann wird man unweigerlich feststellen, dass dies sicher kein G71 ist, oder die 7600-Schnappschüsse "aus dem Ärmel geschüttelt" wurden.
Kristopher, du hattest auch schon bessere Tage.
Irgendwie hab ich das Gefuehl in letzter Zeit dass die insgesamte "Irrefuehrung" nicht unbedingt ein Zufall ist.
SKYNET
2006-02-21, 13:49:12
Ja, das ist definitiv kein G71, dafür sind die Spannungswandler viel zu klein ausgelegt.
Ich würde sagen da hat jemand was verwechselt und das ist eine 7600GT.
dir ist schon bewusst, das die G71 deutlich weniger saft ziehn werden, als die G70? :|
mapel110
2006-02-21, 13:54:49
dir ist schon bewusst, das die G71 deutlich weniger saft ziehn werden, als die G70? :|
Glaube ich nicht dran. nvidia wird sicherlich die Spannung ausreizen um den Takt auch so hoch wie möglich zu halten.
dir ist schon bewusst, das die G71 deutlich weniger saft ziehn werden, als die G70? :|Aber nicht so wenig. Die Karte ist ganz eindeutig ein Mainstream-Design.
Ailuros
2006-02-21, 14:09:24
Aber nicht so wenig. Die Karte ist ganz eindeutig ein Mainstream-Design.
http://www.beyond3d.com/forum/showpost.php?p=702548&postcount=1333
Mit Fragezeichen aber.
Blödsinn. Niemand klebt nen 128 bit Mainstream-Chip auf ein 256 bit PCB. Da ist ja allein schon der Pinout vom Package inkompatibel. Zudem sind die Spannungswandler viel zu schwach für einen Highend-Chip, das ist eigentlich völlig offensichtlich.
Aber dass das Package nicht ganz "passt" ist wirklich seltsam, das seh ich auch grad erst...
MSABK
2006-02-21, 14:34:37
Des kann aber kein 7600er sein, des PCB ist dafür zu groß.
SKYNET
2006-02-21, 14:35:34
Glaube ich nicht dran. nvidia wird sicherlich die Spannung ausreizen um den Takt auch so hoch wie möglich zu halten.
aber nicht bei der GT... :wink:
SKYNET
2006-02-21, 14:37:04
Des kann aber kein 7600er sein, des PCB ist dafür zu groß.
zumal der stromstecker bei der 7600er anders sitzt, der ist weiter oben.
MSABK
2006-02-21, 14:41:21
Vielleicht handelt es sich bei der Karte um eine 7900GS mit 16 Pipes.
Ich würde gerne mal G70 neben dem Chip da sehen in gleichem Größenverhältnis. Dann könnte man sehr genau sagen ob es sein kann...
Aber dass das da eine Highend-Karte wird halte ich eigentlich für ausgeschlossen.
Gandharva
2006-02-21, 15:00:04
http://home.arcor.de/herbertschindler/pics/funny1_small.jpg http://home.arcor.de/herbertschindler/pics/g70.jpg http://home.arcor.de/herbertschindler/pics/g70_73.jpg
deekey777
2006-02-21, 17:21:10
Ich würde gerne mal G70 neben dem Chip da sehen in gleichem Größenverhältnis. Dann könnte man sehr genau sagen ob es sein kann...
Aber dass das da eine Highend-Karte wird halte ich eigentlich für ausgeschlossen.
Vielleicht der Konkurrent der RV560 mit 16 TMUs usw?
seahawk
2006-02-21, 18:45:50
Mal ne Frage. Wir wissen, dass der Chip der 7600 mit 8 und 12 Pipes verfügbar ist. Glaubt einer hier wirklich, dass der nächste NV Chip dann 32 Pipes hat ?
Die X1800 GTO wird doch die 7600 GT locker schlagen
jedoch kann man mir ner X1800 GTO
die Games:
FEAR in 1280 x 1024 mit 4xAA zocken
Riddick in 1280 x 1024 mit 4xAA;
Farcry in 1024 x 768 4xAA + HDRR + AF ?
Quake 4 in 1280 x 1024 4xAA
ansonsten werde ich mir die Karte NICHT holen.
Die Karte soll ja ca. 10 % langsamer sein als ne X1800 XL 500/500 Standardtakt !
LovesuckZ
2006-02-21, 19:50:06
Die X1800 GTO wird doch die 7600 GT locker schlagen
Schonmal die theoretischen Daten verglichen?
Quick specifications for GeForce 7600GT from NVIDIA documents:
* PCIe native
* 560MHz core frequency
* 128-bit memory interface
* 20.2GB/sec. memory bandwidth
* 7B pixels/sec. fill rate
* 730M vertices/sec.
* 12 pixels per cycle
* Built in dual-link DVI support for 2560x1600 resolution
Daily Tech (http://www.dailytech.com/article.aspx?newsid=908)
ATI has a card to fight Nvidia's up and coming G73 based Geforce 7600 card. The card will be clocked at the same speeds as X1800 XL cards. The only difference will be the pipeline count. Radeon X1800 GTO will have twelve pipelines and core clocked at 500MHz and memory clocked to 1000MHz.
TheInq (http://www.theinquirer.net/?article=29800)
Gleichstand.
Eventuell leichte Vorteile der 7600GT, wie bei der 7800GT zur X1800XL.
seahawk
2006-02-21, 19:53:37
X1800GTO hat ne 256Bit speicheranbindung und dürfte gerade unter AA im Vorteil sein.
Eventuell leichte Vorteile der 7600GT, wie bei der 7800GT zur X1800XL.
Wo siehst du denn die 7800GT im Vorteil? :confused:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/26/#abschnitt_performancerating_qualitaet
Wenn man noch bedenkt, dass die X1800XL HDRR mit AA rendern kann und dabei die bessere BQ aufgrund von wu-AF hat, dann spricht eigentlich alles gegen die 7800GT.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.