Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia GeForce 7800 Ultra (G72) coming...
Hi,
G72 für Frühjahr 2006 angesetzt
Während am heutigen Tag ATI endlich offiziell die eigene neue Chipreihe vorstellen soll, haben taiwanesische Grafikkartenbauer schon erste, vage Informationen zu Nvidias Neuauflage der aktuellen Chips verstreut. Wie das Magazin Digitimes berichtet, soll die G72-GPU im modernen 90nm-Prozess hergestellt werden und dem 0.11 Micron-Verfahren der Rücken gekehrt werden. ATI bedient sich mit dem R520 und Konsorten von Anfang an der neuen Methode. Ob sich jedoch beim G72 weitere Spezifikationen ändern und es gar eine Erhöhung der Pixelpipelineanzahl geben wird, ist unklar. In einer Betaversion einer neuen Nvidia-Treibergeneration Forceware 80.xx ist jene GPU aber schon aufgenommen. Ab dem ersten Quartal im nächsten Jahr soll der neue Grafikchip verbaut werden. Es ist also damit zu rechnen, dass es bald neue Informationen dazu geben dürfte.
Quelle: GameStar.de
Also die GTX wurde ja schon früher gebaut als sie kam, dass heißt nVidia hatte viel Zeit. Glaube da kommt ein 32Pipe UltraMonster auf uns zu :D
wäre ja sonst n bisl unsinnig die GTX mit versteckten 8 pipes zu baun!
was nicht heissen solld das die GTX jemals die vollen 32 nutzen wird, ich glaubs nicht,
meine GW GS-GTX wurde in der woche 05 diesen jahres gebaut, von daher hamse mehr als genug zeit gehabt,
gute nacht ATI sag ich da nur :biggrin:
gruss
mika
Wenn der R580 kommt mit 32Pipes und auch so einem 1.5/1.8GHz Memtakt haben ATi vielleicht noch eine Chance, aber nVidia hat es einfach drauf.
Arschhulio
2005-10-05, 12:57:57
Wurde bei ATI nicht auf 16 Pipelines gebaut :confused:
Habe bisher nichtmals gehört das Sie 24 machen wollen :|
Wurde bei ATI nicht auf 16 Pipelines gebaut :confused:
Habe bisher nichtmals gehört das Sie 24 machen wollen :|
da hast du recht!
http://img282.imageshack.us/img282/8426/x1x00tabelle5tc.th.jpg (http://img282.imageshack.us/my.php?image=x1x00tabelle5tc.jpg)
James Ryan
2005-10-05, 13:35:45
Wenn der R580 kommt mit 32Pipes und auch so einem 1.5/1.8GHz Memtakt haben ATi vielleicht noch eine Chance, aber nVidia hat es einfach drauf.
Der R580 hat auch nur 16 Pipes! ;)
MfG :cool:
Die gelbe Eule
2005-10-05, 14:01:48
Für die 512MB brauchen sie ja schon ein neues PCB. Das wird das kleinste Problem sein.
Die lachen sich bestimmt gerade über den PaperLaunch von ATI kaputt. Die Quartalszahlen gehen wohl mal wieder an NV.
deLuxX`
2005-10-05, 14:19:09
Für die 512MB brauchen sie ja schon ein neues PCB. Das wird das kleinste Problem sein.
Guck dir mal das PCB einer GTX an. Da sind schon Stellen vorgesehen, an denen man zusätzliche 8 Ramchips löten kann.
Man bräuchte also kein neues PCB.
-deLuxX`
Thanatos
2005-10-05, 15:50:37
Oh oh, das sieht aber diesmal nicht gut für ATI aus ;(
Wenn dann auch noch der R580 immernoch 16 Pipes haben soll..........:ugly2:
Quatsch. Die sollen den Preis halbieren, für 250 Euro wird die X1800XT ein Renner :D
Quatsch. Die sollen den Preis halbieren, für 250 Euro wird die X1800XT ein Renner :DDen Preis halbieren, wenn sie nicht genügend Chips haben bringt auch wenig :(
Thanatos
2005-10-05, 15:58:02
Jo, dann kosten die vielleicht 250€, aber das bringt ja auch nichts wenn es die dann erst flächendeckend zu kaufen gibt wenn Nvidia schon fleisig dabei ist seinen G80 zu verkaufen :ugly:
Was? Der R580 hat auch nur 16Pipes? Wieso habe ich davon nichts mitbekommen. Was ist an dem denn dann überhaupt anders? Ihr verwechselt ihn doch jetzt nicht mit dem R520? Wenn ihr Recht habt, gibt es ATi ja bald wohl nicht mehr.
[dzp]Viper
2005-10-05, 17:12:33
Alles höchste Spelulation und Hörensagen - darum - Spekuforum *verschieb*
deLuxX`
2005-10-05, 17:15:12
Was? Der R580 hat auch nur 16Pipes? Wieso habe ich davon nichts mitbekommen. Was ist an dem denn dann überhaupt anders? Ihr verwechselt ihn doch jetzt nicht mit dem R520? Wenn ihr Recht habt, gibt es ATi ja bald wohl nicht mehr.
Klar.....ATI ist bald Geschichte. :|
SCNR.
-deLuxX`
Hauwech
2005-10-05, 18:12:36
Was? Der R580 hat auch nur 16Pipes? Wieso habe ich davon nichts mitbekommen. Was ist an dem denn dann überhaupt anders? Ihr verwechselt ihn doch jetzt nicht mit dem R520? Wenn ihr Recht habt, gibt es ATi ja bald wohl nicht mehr.
Unsinn, Grabreden hat man ueber nVidia beim NV30 Launch auch schon gehalten und was ist passiert? Nix.
Nebenbei sind Grafikchips ja nicht das einzige was ATI produziert und mit dem R500 und dem Nintendo Chip wird ja schliesslich auch Geld verdient. Allerdings scheint ATI mit der Verzoegerung der Rx5xx Linie schon ein paar OEM Deals verloren zu haben. Sowas haut natuerlich schon ein wenig mehr ins Kontor rein.
Wenn der R580 kommt mit 32Pipes und auch so einem 1.5/1.8GHz Memtakt haben ATi vielleicht noch eine Chance, aber nVidia hat es einfach drauf.
ja und? les doch..nvidid will auch im 90nm bereich produzieren..d.h auch meistens höhere taktraten..der G72 dürfte dann auch ca 1.5ghz ramtakt haen denk ich^^ locker!
was einen aber viel geiler macht währen z.b. die 32 pipelines ;) ^^ muhaa schauder schauder! ati sollte sich ranhalten
Blaze
2005-10-05, 18:21:17
ja und? les doch..nvidid will auch im 90nm bereich produzieren..d.h auch meistens höhere taktraten..der G72 dürfte dann auch ca 1.5ghz ramtakt haen denk ich^^ locker!
was einen aber viel geiler macht währen z.b. die 32 pipelines ;) ^^ muhaa schauder schauder! ati sollte sich ranhalten
90nm hat aber nix mit den 1,5GHz Speichertakt zu tun...der einzige takt den man dadurch erhöhen könnte ist der des Cores, der Speicher taktet völlig unabhängig davon.
reunion
2005-10-05, 18:38:08
Hi,
G72 für Frühjahr 2006 angesetzt
Während am heutigen Tag ATI endlich offiziell die eigene neue Chipreihe vorstellen soll, haben taiwanesische Grafikkartenbauer schon erste, vage Informationen zu Nvidias Neuauflage der aktuellen Chips verstreut. Wie das Magazin Digitimes berichtet, soll die G72-GPU im modernen 90nm-Prozess hergestellt werden und dem 0.11 Micron-Verfahren der Rücken gekehrt werden. ATI bedient sich mit dem R520 und Konsorten von Anfang an der neuen Methode. Ob sich jedoch beim G72 weitere Spezifikationen ändern und es gar eine Erhöhung der Pixelpipelineanzahl geben wird, ist unklar. In einer Betaversion einer neuen Nvidia-Treibergeneration Forceware 80.xx ist jene GPU aber schon aufgenommen. Ab dem ersten Quartal im nächsten Jahr soll der neue Grafikchip verbaut werden. Es ist also damit zu rechnen, dass es bald neue Informationen dazu geben dürfte.
Quelle: GameStar.de
Also die GTX wurde ja schon früher gebaut als sie kam, dass heißt nVidia hatte viel Zeit. Glaube da kommt ein 32Pipe UltraMonster auf uns zu :D
G72 wird kein High-End-Chip.
Fruli-Tier
2005-10-05, 19:05:44
Jetzt noch ne Tüte mit Begründungen drin und schon wären wir Glücklich :rolleyes:
Horimoto
2005-10-05, 19:28:53
G72 ist der LowEnd Chip, der gegen die RV515/RV530 antreten wird.
Und ich denke, dass ATi sher wohl die Kunden auf seiner Seite haben wird:
OEM
sag ich nur, das noch immer ~80% des Einkommens entscheidet.
Und da siehts für nVidia für das nächste halbe jahr düster aus.
Und auch HigHend mässig ist es doch nicht schlecht:
Wenn die Treiber fertig sind, dann liegt die ATi karte in so gut wie jedem Spiel vorne, tiels heftig (FEAR, CoD2) teils nicht (HL²).
Trotzdem ist es die schnellere karte, und bis zum release wird es sicherlich Karten von HIS oder Sapphire geben, die leiser sind, und womöglich noh höher getaktet, weil der RAm geht bis 800MHz locker.......... Chip angeblich bis ~700Mhz
Und da siehts für nVidia für das nächste halbe jahr düster aus.Jetzt frage ich mal dumm: Weshalb?
Wenn die Treiber fertig sind, dann liegt die ATi karte in so gut wie jedem Spiel vorne, tiels heftig (FEAR, CoD2) teils nicht (HL²)Man sollte beachten, dass ATi jetzt schon über 6 Monate Zeit hatte für die Treiber.
Außerdem würde nVIDIA mit gleich schnellem Speicher wohl immer noch besser dastehen.
Fruli-Tier
2005-10-05, 19:38:34
G72 ist der LowEnd Chip, der gegen die RV515/RV530 antreten wird.
Und ich denke, dass ATi sher wohl die Kunden auf seiner Seite haben wird:
OEM
sag ich nur, das noch immer ~80% des Einkommens entscheidet.
Und da siehts für nVidia für das nächste halbe jahr düster aus.
Und auch HigHend mässig ist es doch nicht schlecht:
Wenn die Treiber fertig sind, dann liegt die ATi karte in so gut wie jedem Spiel vorne, tiels heftig (FEAR, CoD2) teils nicht (HL²).
Trotzdem ist es die schnellere karte, und bis zum release wird es sicherlich Karten von HIS oder Sapphire geben, die leiser sind, und womöglich noh höher getaktet, weil der RAm geht bis 800MHz locker.......... Chip angeblich bis ~700Mhz
1) Das ist nur eine umkehr von Reunions aussage :rolleyes:
2) Hört sich irgendwie wirr und nicht ganz logisch an
Und da siehts für nVidia für das nächste halbe jahr düster aus.
[...]
Und auch HigHend mässig ist es doch nicht schlecht:
Sinn? Auf wen bezogen?
[...]Trotzdem ist es die schnellere karte,[...]
Wer jetzt?
Klär mal auf :)
seahawk
2005-10-05, 19:56:03
G72 ist der LowEnd Chip, der gegen die RV515/RV530 antreten wird.
Und ich denke, dass ATi sher wohl die Kunden auf seiner Seite haben wird:
OEM
sag ich nur, das noch immer ~80% des Einkommens entscheidet.
Und da siehts für nVidia für das nächste halbe jahr düster aus.
Und auch HigHend mässig ist es doch nicht schlecht:
Wenn die Treiber fertig sind, dann liegt die ATi karte in so gut wie jedem Spiel vorne, tiels heftig (FEAR, CoD2) teils nicht (HL²).
Trotzdem ist es die schnellere karte, und bis zum release wird es sicherlich Karten von HIS oder Sapphire geben, die leiser sind, und womöglich noh höher getaktet, weil der RAm geht bis 800MHz locker.......... Chip angeblich bis ~700Mhz
Echt warum ?
NV kann im Highend-Bereich 7800er in Mengen liefern. In Kürze auch mit 512 MB. (was auch die Benches bei FEAR und COD2 beeinflussen dürfte)
NV kann im Midrangebereich Mengen an 6800ern liefern. Die alle über, oder innerhalb der LEistung der XI600 liegen.
NV kann im Low-End-Bereich Mengen an 6600ern liefern. Nach unten rundet die 6500 und 6200 TC ab.
Alle Karten haben SM3.0 und HDR.
Dazu kommen die Midrange- und Lowendkarten der G7X Generation erst noch.
Black-Scorpion
2005-10-05, 20:49:15
Man sollte beachten, dass ATi jetzt schon über 6 Monate Zeit hatte für die Treiber.
ATI hat auf einmal genug Zeit für den Treiber?
Bei NV hat man die anscheinend nie gehabt, denn da wurde immer auf den nächsten verwiesen.
Aber jeder dreht sich alles so wie er es braucht.
ATI hat auf einmal genug Zeit für den Treiber?Also von den finalen HW-Specs (sicher schon über ein Jahr her) bis jetzt müsste eigentlich ja gereicht haben. Meinst du nicht?
Bei NV hat man die anscheinend nie gehabt, denn da wurde immer auf den nächsten verwiesen.Meinst du bei der FX? Da wurde anscheinend mit der Shadercompiler-Entwicklung recht spät angefangen. Zu retten war trotzdem nix bei FP-Shadern.
Aber jeder dreht sich alles so wie er es braucht.Klar. Ich bin total unobjektiv. Immer.
Und auch HigHend mässig ist es doch nicht schlecht:
Wenn die Treiber fertig sind, dann liegt die ATi karte in so gut wie jedem Spiel vorne, tiels heftig (FEAR, CoD2) teils nicht (HL²).
Trotzdem ist es die schnellere karte, und bis zum release wird es sicherlich Karten von HIS oder Sapphire geben, die leiser sind, und womöglich noh höher getaktet, weil der RAm geht bis 800MHz locker.......... Chip angeblich bis ~700Mhz
Du vergißt dabei eines: Crossfire kann man immer noch mit der Lupe suchen. Bis hier die ersten stabilen Boards in vernünftigen Mengen erhältlich sind, werden IMO wohl zuvor die ersten SLI-Systeme mit 512MB-G70 Karten erhältlich bzw. schon am werkeln sein. Bezüglich dem "heftigen Vornliegen bei den meisten Spielen" wäre ich mit Deiner Aussage auch vorsichtig, bislang zeichnet sich das nicht ab.
Black-Scorpion
2005-10-05, 22:30:53
Also von den finalen HW-Specs (sicher schon über ein Jahr her) bis jetzt müsste eigentlich ja gereicht haben. Meinst du nicht?
Meinst du bei der FX? Da wurde anscheinend mit der Shadercompiler-Entwicklung recht spät angefangen. Zu retten war trotzdem nix bei FP-Shadern.
Klar. Ich bin total unobjektiv. Immer.
Was hat das jetzt mit der FX zu tun?
Schau mal in den anderen Thread.
Da geht es schon wieder die fragerei los warum wurde nicht der 81.xx Treiber genommen der ist doch schneller bla bla bla.
Treiber werden immer weiterentwickelt und du kommst jetzt damit das sie 6 Monate Zeit hatten.
Entweder billigt man jedem Hersteller zu die Treiber weiter zu optimieren oder keinem.
robbitop
2005-10-05, 23:48:35
Im Gegensatz zu einem "normalen" Launch einer neuen Architektur verfügt man bei ATI schon ~ >9 Monate lang über lauffähige Hardware. Das sollte eine gewisse Mindestreife der Releasetreiber vorraussetzen. Klar wird's noch Verbesserungspotential geben. Aber ich denke, der Treiber ist schon relativ reif.
Ailuros
2005-10-06, 01:35:30
Nicht schon wieder dieser Ultra-Mist........zuerst geht NVIDIA auf low-k 90nm mit der mainstream/budget G7x Reihe und dann erst im neuen Jahr kommt eine weitere noch schnellere "NV4x-basierende" Variante.
Ailuros
2005-10-06, 01:36:16
G72 ist der LowEnd Chip, der gegen die RV515/RV530 antreten wird.
Und ich denke, dass ATi sher wohl die Kunden auf seiner Seite haben wird:
OEM
sag ich nur, das noch immer ~80% des Einkommens entscheidet.
Und da siehts für nVidia für das nächste halbe jahr düster aus.
Und auch HigHend mässig ist es doch nicht schlecht:
Wenn die Treiber fertig sind, dann liegt die ATi karte in so gut wie jedem Spiel vorne, tiels heftig (FEAR, CoD2) teils nicht (HL²).
Trotzdem ist es die schnellere karte, und bis zum release wird es sicherlich Karten von HIS oder Sapphire geben, die leiser sind, und womöglich noh höher getaktet, weil der RAm geht bis 800MHz locker.......... Chip angeblich bis ~700Mhz
*kopfschuettel*
Was hat das jetzt mit der FX zu tun?
Schau mal in den anderen Thread.
Da geht es schon wieder die fragerei los warum wurde nicht der 81.xx Treiber genommen der ist doch schneller bla bla bla.
Treiber werden immer weiterentwickelt und du kommst jetzt damit das sie 6 Monate Zeit hatten.
Entweder billigt man jedem Hersteller zu die Treiber weiter zu optimieren oder keinem.Es ist nur so, dass auch da das Gesetz des abnehmenden Ertrags gilt. Irgendwann stößt man eben an eine Grenze.
Und von ATI sollte wenn sie so lange schon HW gehabt haben jetzt einfach keine Wundertreiber mehr erwarten.
Ailuros
2005-10-06, 01:38:35
Nochmal:
http://www.beyond3d.com/forum/showpost.php?p=580881&postcount=91
Das es in der Tabelle Fehler gibt sollte klar sein; wie und welche ist noch zu frueh sie zu erwaehnen.
Ailuros
2005-10-06, 01:40:16
Es ist nur so, dass auch da das Gesetz des abnehmenden Ertrags gilt. Irgendwann stößt man eben an eine Grenze.
Und von ATI sollte wenn sie so lange schon HW gehabt haben jetzt einfach keine Wundertreiber mehr erwarten.
Sie hatten lauffaehige Prototypen seit Anfang 2005.
robbitop
2005-10-06, 07:45:47
Sie hatten lauffaehige Prototypen seit Anfang 2005.
Das ist schon recht lange relativ zu anderen launches. Wäre das Ding wie geplant gekommen, wäre deutlich mehr headroom zum Optimieren der Treiber, weil sie damals einfach noch nicht so weit sein konnten wie heute.
Aber ich denke, Potential ist noch vorhanden.
Horimoto
2005-10-06, 11:36:52
Ich denke, dass wenn der OEm Markt die Netscheidung fällen muss, bezüglich X1300 und 6200, wird wohl die Wahl zu 99% auf X1300 fallen, oder?
Die X1300 bietet bessere IQ, und eine viel höhere Perf. zu nahezu dem selben Preis.
Also warum kopfschüttel?
Der OEm markt ist der wichtigste..........
Und natürlich zieht nVidia mit dem 512MB G70 nach. Nur kann der G70 mit 750MHz RAm arbeiten? Eher nicht, also wird man wohl auf ~700MHz 512MB setzten müssen, und auch dann bezweifle ich, dass sich der G70/512 vor die R520 kommt, eher gleichauf.
Und dann entscheidet auch der Endkunde für Ati, weil bessere IQ (bei nVidia noch nicht sicher) und mehr features.
Das ist meine meinung
Godmode
2005-10-06, 11:49:05
Ich würde eher sagen im OEM kommt es fast ausschließlich auf den Preis an und gute Marketing Zahlen. 256 MB, .... ihr kennt ja eh die Aldi, MM, Saturn Werbungen.
Horimoto
2005-10-06, 11:58:28
Also:
256MB of xtreme fast RAM
AVIVO Funktion für ÜberlegeneVideofunktionen
PS3 für schnellste Spiele
3300 Punkte im Murks.........
Das wirkt mehr als die nVidia features
Ich glaube da geben sie sich beide nichts. Es spielt auch der Kartenpreis eine Rolle, und der dürfte bei der 6200 z.Z. noch geringer sein, weil man auch noch viel billigeren TSOP-Speicher verbaut. Das Die dürfte auch nicht viel größer sein.
Aber weder ich noch du kann überhaupt beurteilen wie Entscheidungen auf diesem Gebiet getroffen werden, vermutlich fließt auch ne Menge Schmiergeld.
Und auch nicht zu vergessen: Die GeForce 7 Lowend- und Mainstreamkarten kommen auch bald.
Meine Meinung: G72=G70@90nm für höheren Takt (500-600MHz). Der RAM wird bei beiden auf 750MHz laufen, bei NV vielleicht sogar etwas niedriger aufgrund des RAM Interfaces (Vermutung).
ATI kontert wiederum mit dem R580, welcher im Rendering quasi aus 4 X1600 besteht und nicht wie der R520 aus 4 X1300.
Ich erwarte ein sehr spannendes Duell der beiden.
Es werden wahrscheinlich sogar 32 Pipelines @ 90nm.
SKYNET
2005-10-06, 13:45:42
Ich denke, dass wenn der OEm Markt die Netscheidung fällen muss, bezüglich X1300 und 6200, wird wohl die Wahl zu 99% auf X1300 fallen, oder?
Die X1300 bietet bessere IQ, und eine viel höhere Perf. zu nahezu dem selben Preis.
Also warum kopfschüttel?
Der OEm markt ist der wichtigste..........
Und natürlich zieht nVidia mit dem 512MB G70 nach. Nur kann der G70 mit 750MHz RAm arbeiten? Eher nicht, also wird man wohl auf ~700MHz 512MB setzten müssen, und auch dann bezweifle ich, dass sich der G70/512 vor die R520 kommt, eher gleichauf.
Und dann entscheidet auch der Endkunde für Ati, weil bessere IQ (bei nVidia noch nicht sicher) und mehr features.
Das ist meine meinung
warum soll der G70 nicht mit 750MHz ram arbeiten können? er kann auch mit 1000MHz ram arbeiten, wenns den geben würde.
und mehr futures? z.b. das sie immernoch kein SM3.0 haben? :rolleyes: :biggrin:
Imho hat ATi SM 3.0 zielstrebiger implementiert als nVIDIA. Schnelles dynamisches branching halte ich für wichtiger als Vertex-Texturing.
G70 ist bietet immer noch eine Übermenge der Features von R520, aber das nützt dem Kunden recht wenig.
warum soll der G70 nicht mit 750MHz ram arbeiten können? er kann auch mit 1000MHz ram arbeiten, wenns den geben würde.
und mehr futures? z.b. das sie immernoch kein SM3.0 haben? :rolleyes: :biggrin:
ATI hat den Ringbus sicherlich nicht umsonst entwickelt und diese typische Rviewerausrede, dass die Latenzen besser sein sollen, daran glaube ich nicht eine Sekunde. Man muss sich die Frage stellen, warum man eine Ringtopologie designt und dann auchnoch in beide Richtungen.
Die Antwort ist meiner Meinung nach, dass man mit einer Ringtopologie den Vorteil hat, Latenzen variabler handhaben zu können und so mehr Takt bei der Speicheranbindung zu ermöglichen und genau das passiert auch hier denke ich.
Wenn ein klassisches Speicherinterface (8x32Bit) gereicht hätte, hätte ATI ganz sicher eines gebaut ohne soviele Transistoren für den blöden doppelten Ring zu verballern. Das sind immerhin 512*X Schaltungen im Chip, das war ganz sicher nicht "billig".
Es mag zwar sein, dass sich NV Karten so hoch takten lassen, doch muss man sich die Frage stellen, ob wirklich der Speicher irgendwann dicht macht, oder ob es das unzureichende PCB bei dem Takt oder gar der Speichercontroller nicht mehr mitmacht.
Es werden wahrscheinlich sogar 32 Pipelines @ 90nm.
Ist sicherlich denkbar, aber das geht wie beim R580 nur mit wahnwitzigem Stromverbrauch. Das würde ja auch knapp 400Mio Transen bedeuten - na ja, wahrscheinlich eingie weniger, so 360Mio.
Wie schon gesagt, das Duell bleibt spannend :D
Der RV530 hält auch mit 8 oder gar 12Pipelinekarten mit :D
Ist sicherlich denkbar, aber das geht wie beim R580 nur mit wahnwitzigem Stromverbrauch. Das würde ja auch knapp 400Mio Transen bedeuten - na ja, wahrscheinlich eingie weniger, so 360Mio.
Wie schon gesagt, das Duell bleibt spannend :D
Der RV530 hält auch mit 8 oder gar 12Pipelinekarten mit :DIch meinte auch nVIDIA. R580 hat definitiv nur 16 Pipelines.
micki
2005-10-06, 14:14:27
Imho hat ATi SM 3.0 zielstrebiger implementiert als nVIDIA. Schnelles dynamisches branching halte ich für wichtiger als Vertex-Texturing.
an sich sieht das so aus, als ob die "pixelprozessoren" genau die selbe arbeit machen können wie die "vertexshader", wäre also sehr entwicklungseffizient von ATI, wenn sie nur eine "prozessoreinheit" entwickelt hätten und als vs/ps nutzen, dann wäre Texturefetch im VS eventuell so fix und flexibel wie im PS und hätte nicht diesen "das kostet die welt und ist ungefiltert" geschmack wie bei nv.
wobei ich mir dynamisches branching ohne penalty am meisten gewünscht habe (neben einem stack :D) , aber ich frage mich, wie schnell die ati dabei nun wirklich ist, 2takte statt 3takten wäre nicht DER erhoffte gewinn, falls sie aber im optimalfall aber 0takte draus machen könnten durch ihr "threading", fänd ich das sehr gut!
Ich meinte auch nVIDIA. R580 hat definitiv nur 16 Pipelines.
Sorry, wenns unverständlich war. Den meinte ich auch.
Der R580 besteht quasi aus 4 RV530, da können ja keine 32 Pipelines sein ;)
seahawk
2005-10-06, 14:21:47
ATI hat den Ringbus sicherlich nicht umsonst entwickelt und diese typische Rviewerausrede, dass die Latenzen besser sein sollen, daran glaube ich nicht eine Sekunde. Man muss sich die Frage stellen, warum man eine Ringtopologie designt und dann auchnoch in beide Richtungen.
Die Antwort ist meiner Meinung nach, dass man mit einer Ringtopologie den Vorteil hat, Latenzen variabler handhaben zu können und so mehr Takt bei der Speicheranbindung zu ermöglichen und genau das passiert auch hier denke ich.
Der Ringbus ist chipintern. Extern, zui den Speicherchips, kommuniziert er vollkommen konventionell. Ist das so schwer :confused:
Der Ringbus ist chipintern. Extern, zui den Speicherchips, kommuniziert er vollkommen konventionell. Ist das so schwer :confused:
Ist das so schwer zu verstehen, dass ich von Chipintern schreibe??? :|
Es ist wohl leichter unregelmässigkeiten, die vom PCB verursacht werden, durch einen Ring zu kompensieren, immerhin gehen hier 750MHz über das PCB. Ist es jetzt endlich klarer? Liess bitte mein Posting richtig.
Was für Unregelmäßigkeiten? :|
Der Speicher hat keine Fehlerkorrektur, entweder es funktioniert immer oder gar nicht.
Was für Unregelmäßigkeiten? :|
Der Speicher hat keine Fehlerkorrektur, entweder es funktioniert immer oder gar nicht.
Der Ringbus sorgt halt dafür, dass er immer funktioniert.
Denn sonst geht man das Risiko ein, dass er garnicht funktioniert und man die Karte heruntertakten muss.
Wie kommst du auf Fehlerkorrektur :|
Der Ringbus sorgt halt dafür, dass er immer funktioniert.Der Ringbus wurde eingeführt, weil ein klassisches Crossbar-Design bei R520 zu komplex geworden wäre. Mit dem externen Speicher hat das nicht die Bohne zu tun. RV515 hat die Crossbar wieder weil dort der Ringbus nichts gebracht hätte.
Wie kommst du auf Fehlerkorrektur :|Wie kommst du drauf, dass der Ringbus was mit dem Speicher zu tun hätte? Das Ding ist einfach der chipinterne Interconnect von Speichercontroller und Pixelpipelines/Vertexshader etc.
Das Ding kommt nach dem Speicherinterface.
Winter[Raven]
2005-10-06, 15:12:53
Es werden wahrscheinlich sogar 32 Pipelines @ 90nm.
Wäre meiner Meinung für NV zu banal, wenn die 32 pipes@ >= 500 Mhz bringen würden... Vielleicht gibts paar Verbesserungen bzw. Steigerung im inneren.. :)
']Wäre meiner Meinung für NV zu banal, wenn die 32 pipes@ >= 500 Mhz bringen würden... Vielleicht gibts paar Verbesserungen bzw. Steigerung im inneren.. :)Beides.
Hakim
2005-10-06, 15:42:26
ich glaub Nv könnte eigentlich direkt G70 chips die 500 Mhz core vertragen 512 Mb @750 Mhz Speicher spendieren und auf den Markt werfen. Wäre an sich kein prob.
-error-
2005-10-06, 15:46:13
Also kommt der 512BIT-BUS wohl doch nicht mit der R580?
Der Ringbus wurde eingeführt, weil ein klassisches Crossbar-Design bei R520 zu komplex geworden wäre. Mit dem externen Speicher hat das nicht die Bohne zu tun. RV515 hat die Crossbar wieder weil dort der Ringbus nichts gebracht hätte.
Wie kommst du drauf, dass der Ringbus was mit dem Speicher zu tun hätte? Das Ding ist einfach der chipinterne Interconnect von Speichercontroller und Pixelpipelines/Vertexshader etc.
Das Ding kommt nach dem Speicherinterface.
Da du über den Ring chipintern 2 Wege hast, hast du mehr Spielraum, was sehr wohl weniger Anfällig für Ungenauigkeiten ist. Sicherlich wäre der Crossbar zu komplex geworden. Dennoch hätte man sich das bei geringerem Takt überlegen können, was weniger Transen braucht und weniger Latenzen. Der RV515 hat auch weniger Takt und wird wohl nie in solche Taktregionen vorstossen.
Also kommt der 512BIT-BUS wohl doch nicht mit der R580?
Der Ring ist quasi 512 Bit. Aber eben auch nicht wirklich ;)
Ailuros
2005-10-06, 15:58:23
Das ist schon recht lange relativ zu anderen launches. Wäre das Ding wie geplant gekommen, wäre deutlich mehr headroom zum Optimieren der Treiber, weil sie damals einfach noch nicht so weit sein konnten wie heute.
Aber ich denke, Potential ist noch vorhanden.
Die Prototypen waren voll operationsfaehig, nur eben auf XL Takt-Niveau.
Ailuros
2005-10-06, 16:00:26
Ich denke, dass wenn der OEm Markt die Netscheidung fällen muss, bezüglich X1300 und 6200, wird wohl die Wahl zu 99% auf X1300 fallen, oder?
Die X1300 bietet bessere IQ, und eine viel höhere Perf. zu nahezu dem selben Preis.
Also warum kopfschüttel?
Der OEm markt ist der wichtigste..........
Und natürlich zieht nVidia mit dem 512MB G70 nach. Nur kann der G70 mit 750MHz RAm arbeiten? Eher nicht, also wird man wohl auf ~700MHz 512MB setzten müssen, und auch dann bezweifle ich, dass sich der G70/512 vor die R520 kommt, eher gleichauf.
Und dann entscheidet auch der Endkunde für Ati, weil bessere IQ (bei nVidia noch nicht sicher) und mehr features.
Das ist meine meinung
Dem Enkunden bleibt ja unmaessig viel Zeit sich zu entscheiden, weil alle Produkte breit verfuegbar sind und einen niedrigeren Preis haben.... :rolleyes:
Von welchem OEM Markt genau redest Du? Von diesem den ATI fuer 2005 offiziell abgeschrieben hat?
robbitop
2005-10-06, 16:02:52
Die Prototypen waren voll operationsfaehig, nur eben auf XL Takt-Niveau.
Das ist für die Treiberentwicklung nicht maßgeblich und darauf wollte ich hinaus.
Horimoto
2005-10-06, 16:12:20
@ailuros:
Mit dem OEM markt meine ich den MArkt, der bald mit den 'NEXT GENERATION GAMING HDTV' vollgepumpt wird. Und zwar Dell, saturn, MM usw. usw.
In den nächsten paar Wochen dürften Die Karten sich dahin verlieren, und adnn wirste keine 6200 mehr sehn, sondern X1300, darauf wette ich. Weil das (achtung ironie) super dolle HDTV mit AVIVO für die BESTE bildquali mehr hergibt als die 6200. VOm Preis her nehmen sie sich cniht viel, die 1300 wird ja unter 100€ kosten...
Ailuros
2005-10-06, 16:12:35
Imho hat ATi SM 3.0 zielstrebiger implementiert als nVIDIA. Schnelles dynamisches branching halte ich für wichtiger als Vertex-Texturing.
G70 ist bietet immer noch eine Übermenge der Features von R520, aber das nützt dem Kunden recht wenig.
Zwar kein Zweifel dass dynamisches branching ein aeusserst wichtiger Anteil von SM3.0 darstellt, aber da Dein Wissensbereich um einiges hoeher ist frage ich nun folgendes:
Nehme ich einen extrem langen Shader mit sagen wir mal 500 Instruktionen (was fuer die Lebzeiten von R520/G70 sowieso unrealistisch empfinde; ich sehe nach Sweeney 50-200 PS Instruktionen im Durchschnitt), wird es nicht in der Mehrzahl dem Treiber ueberlassen ob er "verzweigen" wird oder den Shader einfach ausrollt?
Falls eine GPU schneller ist ohne "Verzweigung" dann sollte es auch Sinn machen dass man den "overhead" der durch die Verzweigung kommt auch vermeidet.
Es sind uebrigens jetzt bestaetigt 512 PS30 und 1024 VS30 instruction slots, wobei (wie bekannt) es 4096 PS30 und 544 VS30 Instruktionen bei NV40/G70 sind.
Natuerlich nuetzt der Quark dem Endkunden wenig, aber der Entwickler und der Treiber werden schon die richtige Entscheidung treffen was das obrige betrifft.
Ailuros
2005-10-06, 16:13:58
Das ist für die Treiberentwicklung nicht maßgeblich und darauf wollte ich hinaus.
Ach deshalb gab es bei grossen ISV seit Maerz drafts in ihren patches die ueber ATI's SM3.0 GPUs sprachen ja?
Ailuros
2005-10-06, 16:19:02
@ailuros:
Mit dem OEM markt meine ich den MArkt, der bald mit den 'NEXT GENERATION GAMING HDTV' vollgepumpt wird. Und zwar Dell, saturn, MM usw. usw.
In den nächsten paar Wochen dürften Die Karten sich dahin verlieren, und adnn wirste keine 6200 mehr sehn, sondern X1300, darauf wette ich. Weil das (achtung ironie) super dolle HDTV mit AVIVO für die BESTE bildquali mehr hergibt als die 6200. VOm Preis her nehmen sie sich cniht viel, die 1300 wird ja unter 100€ kosten...
Und fuer wann? 2006? Seit wann genau gibt es schon die 6200-er und wieviel genau hat NV schon mit diesen eingeschaufelt?
Und dann rollt NV ihre gesamte G7x low-end/mainstream Reihe aus und dann schiebt ATI die Nachfolger der RV515/RV530 nach usw usw. Man nennt es Konkurrenz und ATI ist von vorne bis hinten high end, mainstream, low-end, CrossFire usw. verdammt zu spaet dran; viele aber gibt es da nicht.
robbitop
2005-10-06, 16:20:25
Ach deshalb gab es bei grossen ISV seit Maerz drafts in ihren patches die ueber ATI's SM3.0 GPUs sprachen ja?
Warum scheitert es bei uns beiden immer an der Sprache und dem expliziten Inhalt? ;)
Nochmal: ich meine, dass es 9 Monate R520 operative Karten gibt. Daraus resultiert eine gute Treiberentwicklung und Entwicklung bei ISVs. Viel besser als ohne operative Samples.
Der Takt ändert daran nichts.
Mehr wollte ich nicht sagen *gg*
Zwar kein Zweifel dass dynamisches branching ein aeusserst wichtiger Anteil von SM3.0 darstellt, aber da Dein Wissensbereich um einiges hoeher ist frage ich nun folgendes:
Nehme ich einen extrem langen Shader mit sagen wir mal 500 Instruktionen (was fuer die Lebzeiten von R520/G70 sowieso unrealistisch empfinde; ich sehe nach Sweeney 50-200 PS Instruktionen im Durchschnitt), wird es nicht in der Mehrzahl dem Treiber ueberlassen ob er "verzweigen" wird oder den Shader einfach ausrollt?Es gibt Dinge die lassen sich nicht ausrollen. Z.B. mache ab der und er Distanz nur noch Normal- statt Parallax-Mapping. Bzw man könnte auch immer beides berechnen, was auch nicht gerade sinnvoll ist, weil man dann gleich für die ganze Distance-Range Parallax benützen kann.
Es sind uebrigens jetzt bestaetigt 512 PS30 und 1024 VS30 instruction slots, wobei (wie bekannt) es 4096 PS30 und 544 VS30 Instruktionen bei NV40/G70 sind.512 sollte auch ausreichen eigentlich. Wobei es bei nVIDIA dieses Limit soweit ich weiß nur Treiberseitig gibt (bei den VS bin ich mir nicht sicher).
Natuerlich nuetzt der Quark dem Endkunden wenig, aber der Entwickler und der Treiber werden schon die richtige Entscheidung treffen was das obrige betrifft.Klar, aber es gibt wie gesagt einige Fälle wo dynamisches branching einfach benötigt wird.
Ailuros
2005-10-06, 17:03:17
Wobei es bei nVIDIA dieses Limit soweit ich weiß nur Treiberseitig gibt (bei den VS bin ich mir nicht sicher).
Wie meinen?
Klar, aber es gibt wie gesagt einige Fälle wo dynamisches branching einfach benötigt wird.
Das hier ist so ein Fall:
http://www.pvrdev.com/pub/PC/eg/h/Cloth.htm
....nur werden hier auch vertex und Geometrie Texturen benutzt.
The cloth shader code contains a loop, while a loop makes the code easy to understand and read it might not be optimal for hardware execution. If the hardware supports enough instructions it might be better to unroll this loop, by unrolling the loop no cycles are wasted on actually executing the loop instructions (compare and jump operations). But generally a developer should not have to worry about this since the driver compiler should automatically handle this according to the device capabilities.
The shader above also contains dynamic branching. When using branching it is essential to realize that there are 2 distinct types: constant branching and dynamic branching. Constant branching, as the name suggest, executes code based on a constant (Boolean). This constant is known before the shader execution starts and remains constant for a large number of vertices (vertex shader) or pixels (pixel shader). Most graphics hardware uses a SIMD Structure (Single Instruction Multiple Data) meaning that ideally the same instruction is executed on a lot of different data elements.
When using branching situations are introduced where for different vertices/pixels different code paths are executed and this conflicts with the SIMD principle that aims to apply the same instructions. With constant branching the branch taken is the same for a large number of vertices/pixels and hence the conflict with the SIMD structure is quite low, with dynamic branching this is different. Dynamic branching decides which bits of the code to execute based on a value calculated during the execution of the shader, the outcome of this calculation can be different for every pixel/vertex and hence this can completely conflict with the SIMD structure of graphics hardware resulting in possibly lost hardware pipeline efficiency and hence performance. Based on this information it is essential to select the correct type of branching, only use dynamic branching if your decision can change per pixel. If the decision is the same for a lot of pixels/vertices it is better to use constant branching, where possible, or avoid the branching (e.g. do a zero operation or overwrite previous results). When considering to add branching as a performance improvement it is essential to check that it actually improves the performance, each branching instruction comes with a cost and hence introducing a lot of branching instructions might in the end cost more than executing some non-essential instructions – remember that the branching instruction will be executed for every pixel and instructions are only saved in those cases that the correct branch is selected.
In the case above the branching is definitely different per pixel, border pixels will behave differently from non-border pixels – even more corner pixels will even show different behavior from the other border pixels. The next question to ask is if the conditional branch gives us any advantage or if is it just simply adding complexity due to the overhead of the actual branching. Assume the conditional can branch over 10 instructions for border pixels, and branch over 30 instructions for corner pixels then the total potential saving when using branching for a 64 by 64 node-grid is 4 x 62 x 10 + 4 x 30 = 2800 instructions. The overhead is 3 instructions (one branch and two setup instructions for the branch compare) and is executed 8 times for every pixel; this means the total cost is 64 x 64 x 8 x 3 = 98304.
The shocking reality is that a conditional looks good on paper but can add a frightening amount of overhead during the actual execution, in this case an overhead of almost 96000 instructions, obviously something you want to avoid if possible. In the algorithm above however it is not possible to lose the conditional, since for border pixel cases some forces would become extremely large and destroy the effect - so skipping over the force calculation for some of the border cases is essential for the correct behavior of the model. The main lesson to be learned here is that a dynamic conditional branch can be a necessary evil (in terms of instruction cost) but always check that a dynamic conditional is really required, with other words don’t add them because they look good or save a handful of instructions in rare exceptional cases - and definitely don’t use them when you can use constant branching.
At first this shader might look very complex and one might expect poor non-real-time performance, however it is important to understand that this shader is only executed on a very small set of pixels, a 64 by 64 grid is equivalent to rendering a 64 by 64 pixel texture and results in a network with 4096 vertices. I think everybody will agree that a render target of 64 by 64 pixels (even 128 by 128 which results in a network with 16384 vertices) is peanuts compared to the default 1024x768 screen resolution. So even though the shader is complex, it is only being applied to a very small number of pixels and hence performance should still be quite high.
The above vertex shader should be easy to understand, the only new exciting feature used is vertex texturing and even this is not really new since the working of vertex texturing is virtually identical to texture accesses done in the pixel shader. It is however essential to understand the impact of vertex texturing on performance. All texture access comes with high latencies meaning that the period between fetching a value from a texture and being able to use the result can be quite long. This is easy to understand, just imagine a texture request, which is not in the on-chip cache (cache miss), then there will be a whole lot of clock cycles spent moving the data from external memory into the chip, through the cache, through texture filtering and into the vertex shader. Hence throughput when using vertex texturing can be quite low, however it also means that a lot of instructions, which do not rely on the result of the texture fetch, can be virtually for free since they can be executed while waiting for the texture data to arrive. If on the other hand, there are no non-dependent instructions then the hardware will stall, while waiting for the texture data, and as such valuable processing power will be lost. Given this high per vertex cost it is also essential to maximize vertex cache usage, so it makes sense to use the D3DX Mesh Optimize functionality to optimize the vertex render order.
I also want to stress that vertex texturing should never be referred to as displacement mapping, displacement mapping is only a very small subset of the millions of possibilities that can be brought to life by the ability to read texture data from within the vertex shader. The algorithm presented here is a case of geometry textures, geometry is stored as a position (and normal) within a texture and the massive parallel processing power of the Pixel Shader can be used to modify the geometry stored or complex physics or simulation models can be executed. In this case a simple physics based model is implemented, but other interesting possibilities are fluid dynamics, metaballs, chemical simulations, etc.
Wie meinen?Schon NV3x konnte soweit ich weiß unlimitiert lange Pixelshader ausführen.
Das hier ist so ein Fall:
http://www.pvrdev.com/pub/PC/eg/h/Cloth.htm
....nur werden hier auch vertex und Geometrie Texturen benutzt.Auch die neue ATi-DX9 Demo ("Toyshop") benützt dynamic branching in einem sehr sinnvollen Fall, der sich auch auf zukünftige Engines übertragen lässt.
Ich bin schon sehr überrascht, dass es überhaupt geht einen Streamprozessor mit solch guter Branch-Performance auszustatten.
Ailuros
2005-10-06, 17:10:54
Ich bin schon sehr überrascht, dass es überhaupt geht einen Streamprozessor mit solch guter Branch-Performance auszustatten.
Leider ist es der einzige der es bis jetzt auf die Regale schaffte.
Sunrise
2005-10-06, 17:34:33
Ich bin schon sehr überrascht, dass es überhaupt geht einen Streamprozessor mit solch guter Branch-Performance auszustatten.
Ich bin mir sogar ziemlich sicher, dass jemand, vor dem auch ich sehr große Hochachtung habe, mindestens ebenso überrascht ist, ganz besonders, weil er ggü. dieser "Idee" jedesmal überaus unaufgeschlossen war. Was nicht heißt, dass ich schon damals derartige Anzeichen hätte erkennen können.
seahawk
2005-10-06, 17:58:19
Ist das so schwer zu verstehen, dass ich von Chipintern schreibe??? :|
Es ist wohl leichter unregelmässigkeiten, die vom PCB verursacht werden, durch einen Ring zu kompensieren, immerhin gehen hier 750MHz über das PCB. Ist es jetzt endlich klarer? Liess bitte mein Posting richtig.
Ich kann Dir da nicht folgen. Entweder der Speicher liefert an den Memorycontroller die richtigen Informationen oder bene unbrauchbare Informationen. Der interne Bus dürfte beim G70 locker soviel schneller sein, als die Speicheranbindung, dass er 750MHZ abkann. Der Vorteil des Ringbuses ist ein kleinerer Verschnitt bei internen Zugriffen.
crane
2005-10-07, 12:04:01
Offizielle Bestätigung von Nvidia, dass 512MB G70 kommt :biggrin:
http://www.driverheaven.net/dhinterviews/adamfoat2/
(Vorletzte Frage)
Grüße
P.S.:
NVNews sieht das jeweilige Nvidia Gegenstück übrigens so (aus preislicher Sicht ?)...
Enthusiast Segment
Radeon X1800 XT vs. TBA (see note below)
Radeon X1800 XL vs. GeForce 7800 GTX
Radeon X1800 Pro vs. GeForce 7800 GTX
Radeon X1800 LE vs. GeForce 7800 GT
Performance Segment
Radeon X1600 XT vs. GeForce 6800 GT and GeForce 6800
Radeon X1600 Pro vs. GeForce 6600 GT
Mainstream Segment
Radeon X1300 Pro vs. GeForce 6600 DDR2
Note: Expect a GeForce 7800 series board with 512MB in the near future.
del_4901
2005-10-07, 12:31:15
Oh oh, das sieht aber diesmal nicht gut für ATI aus ;(
Wenn dann auch noch der R580 immernoch 16 Pipes haben soll..........:ugly2:
Dafür durchstößt Ati die magische 1Ghz Marke. Und jeder der eine solche Karte kauft kiegt als dankeschön ein AKW dazu geschenkt.
micki
2005-10-07, 13:17:25
Nehme ich einen extrem langen Shader mit sagen wir mal 500 Instruktionen (was fuer die Lebzeiten von R520/G70 sowieso unrealistisch empfinde; ich sehe nach Sweeney 50-200 PS Instruktionen im Durchschnitt), wird es nicht in der Mehrzahl dem Treiber ueberlassen ob er "verzweigen" wird oder den Shader einfach ausrollt?
das ausrollen ist nicht das problem, das kann auch gleich der compiler machen. aber das bedeutet viele shaderswitches, afaik ist das auch recht teuer, bisher war das der einzige praktische ansatz, weil branchen im ps pro pixel im endeffekt teurer als der shaderswitch waren (jedenfalls war das die begründung von crytech dass sie beim sm3 nur ps2 nutzen), aber falls das beim r520 "fast gratis" ist, lohnen sich vielleicht sogar statische branches pro pixel.
was mir fehlt wäre die möglichkeit eine jumptable anzulegen (von mir aus auch mittels switch-case), dann könnte man endlich den uber-shader haben :D
MfG
micki
was mir fehlt wäre die möglichkeit eine jumptable anzulegen (von mir aus auch mittels switch-case), dann könnte man endlich den uber-shader habenKann man doch mit statischem branching. Splinter Cell 3 macht das ausgiebig. Statische Branches sind übrigens auch auf Nv4x/G70 sehr billig.
Anarchy-HWLUXX
2005-10-07, 15:19:12
P.S.:
NVNews sieht das jeweilige Nvidia Gegenstück übrigens so (aus preislicher Sicht ?)...
Preislich würd das hinkommen, leistungstechnisch nie und nimmer ...
micki
2005-10-07, 15:28:24
Kann man doch mit statischem branching. Splinter Cell 3 macht das ausgiebig. Statische Branches sind übrigens auch auf Nv4x/G70 sehr billig.
resultiert das nicht im shaderswitch?
MfG
micki
Demirug
2005-10-07, 15:37:29
resultiert das nicht im shaderswitch?
MfG
micki
Nein, der Shader bleibt der gleiche man ändert nur die binär Konstanten.
micki
2005-10-07, 15:48:28
Nein, der Shader bleibt der gleiche man ändert nur die binär Konstanten.
hmm... vielleicht ist mein dx sdk outdated(summer2004), aber ich finde keine solche (asm)instruction.
MfG
micki
sowas wie jmp array[a0.x]
Neomi
2005-10-07, 16:15:25
hmm... vielleicht ist mein dx sdk outdated(summer2004), aber ich finde keine solche (asm)instruction.
Vom Shader aus geht das auch nicht.
DrawCall -> neue Konstanten setzen -> DrawCall
Wird auch Zeit dass es Konstanten-Instancing gibt...
micki
2005-10-07, 22:41:01
Vom Shader aus geht das auch nicht.
DrawCall -> neue Konstanten setzen -> DrawCall
aber in bezug auf jumptables gibt es doch keine möglichkeit das mittels einer konstante zu machen, da wird dann am shader modifiziert, dazu muss doch der treiber den shader umbauen und neu reinsetzen ->shader switch. aber ich wüste nicht wie das in asm aussehen sollte und afaik übergibt directX keinen hlsl shader
hmmm... strange.. Demirug/coda, wäre einer von euch so nett sein wissen diesbezüglich zu teilen ;)
MfG
micki
Hauwech
2005-10-09, 02:38:33
@ailuros:
Mit dem OEM markt meine ich den MArkt, der bald mit den 'NEXT GENERATION GAMING HDTV' vollgepumpt wird. Und zwar Dell, saturn, MM usw. usw.
In den nächsten paar Wochen dürften Die Karten sich dahin verlieren, und adnn wirste keine 6200 mehr sehn, sondern X1300, darauf wette ich. Weil das (achtung ironie) super dolle HDTV mit AVIVO für die BESTE bildquali mehr hergibt als die 6200. VOm Preis her nehmen sie sich cniht viel, die 1300 wird ja unter 100€ kosten...
So einfach geht das nicht. OEM Vertraege sind laengerfristig angelegt und wenn du nicht liefern kannst, kann dein Produkt noch so toll und billig sein: Ohne Ware kein Geschaeft. Nur mit Versprechungen kannst du keinen PC zusammenbauen und damit Geld verdienen.
SKYNET
2005-10-09, 12:34:24
Preislich würd das hinkommen, leistungstechnisch nie und nimmer ...
stimmt, leistungstechnisch ist der vergleich für ATI vernichtend.
MiamiNice
2005-10-09, 13:06:14
Meine Spekulation:
Der neue NV wird 32 Pixelpipes haben und ca. 600-700Mhz Chiptakt haben. Der Ram wird ca. 750Mhz takten. Quasi ein Refresh der 7800GTX sein.
Der R580 wird 16 Pipes haben und unwahrscheinlich hoch takten um mithalten zu können.
Erst mit den neuen Next-Gen Chips wird ATI wieder was reissen.
MfG
Der neue NV wird 32 Pixelpipes haben und ca. 600-700Mhz Chiptakt haben.Mit den 32 Pipelines könntest du recht haben, aber dann allerhöchstens 500Mhz.
Der R580 wird 16 Pipes haben und unwahrscheinlich hoch takten um mithalten zu können.Dann würde er wohl mindestens 900Mhz reißen müssen.
Demirug
2005-10-09, 18:23:47
aber in bezug auf jumptables gibt es doch keine möglichkeit das mittels einer konstante zu machen, da wird dann am shader modifiziert, dazu muss doch der treiber den shader umbauen und neu reinsetzen ->shader switch. aber ich wüste nicht wie das in asm aussehen sollte und afaik übergibt directX keinen hlsl shader
hmmm... strange.. Demirug/coda, wäre einer von euch so nett sein wissen diesbezüglich zu teilen ;)
MfG
micki
Dafür gibt es statische Branches und entsprechenden Befehle im ASM Code.
http://msdn.microsoft.com/library/en-us/directx9_c/if_bool___ps.asp?frame=true
MSABK
2005-10-09, 18:24:15
Wenn ATI den 90nm prozess unter kontrolle kriegt halte ich die 900hmz für realistisch.
Ailuros
2005-10-09, 23:05:57
Wenn ATI den 90nm prozess unter kontrolle kriegt halte ich die 900hmz für realistisch.
Genauso realistisch wie die 24 oder sogar 32 pipes bei 600-700MHz die man fuer R520 hoerte. R580 wird zwar hoechstwahrscheinlich hoeher getaktet sein aber nur marginal im Vergleich zu R520.
Crushinator
2005-10-09, 23:42:43
Wenn ATI den 90nm prozess unter kontrolle kriegt halte ich die 900hmz für realistisch.
Sicher sind 900 MHz realistisch. Ich hab' sogar gehört, daß den Retail-versionen solcher Karten Duke Nukem for Ever beigelegt werden soll. (y)
Jetzt mal im ernst: 30% mehr Takt aus einem neuen Prozeß rauszuholen wird zwar möglich sein, aber nicht von heute auf morgen. R360 wurde ein ganzes Jahr später als R300 vorgestellt und hatte tatsächlich in etwa 30% mehr Standardtakt als eine 9700 Pro. Das war aber ein Herstellungsprozeß der schon paar Jährchen auf dem Buckel hatte.
Ailuros
2005-10-10, 08:00:33
Crushinator,
Ich erwarte dass R580 auf keinen Fall kleiner ist als 370-380M.....
micki
2005-10-10, 09:12:43
Dafür gibt es statische Branches und entsprechenden Befehle im ASM Code.
http://msdn.microsoft.com/library/en-us/directx9_c/if_bool___ps.asp?frame=true
das ist nicht gerade das, was man jumptable nennt. *wunder*
MfG
micki
Demirug
2005-10-10, 09:17:17
das ist nicht gerade das, was man jumptable nennt. *wunder*
MfG
micki
Echte Jumptables gibts keine. Dafür nimmt man kaskadierte Ifs.
seahawk
2005-10-10, 10:19:10
Sicher sind 900 MHz realistisch. Ich hab' sogar gehört, daß den Retail-versionen solcher Karten Duke Nukem for Ever beigelegt werden soll. (y)
Jetzt mal im ernst: 30% mehr Takt aus einem neuen Prozeß rauszuholen wird zwar möglich sein, aber nicht von heute auf morgen. R360 wurde ein ganzes Jahr später als R300 vorgestellt und hatte tatsächlich in etwa 30% mehr Standardtakt als eine 9700 Pro. Das war aber ein Herstellungsprozeß der schon paar Jährchen auf dem Buckel hatte.
Aber nur bei praktisch unverändertem Transistorcount. Gehen wir mal davon aus, dass R580 mindestens 20% mehr Transistoren haben wird als R520, dann ist so ein Taktsprung nicht zu erwarten.
Bei NV würde cih auch nur eine erneute Strukturverbreiterung oder eine nennenswerte Hochtaktung erwarten. Imho wäre ein 90nm 24Pipe G70 mit höheren Takten und verbesserter Cachestruktur und besserer Texturleistung imho sinnvoller als ein 32Pipe G70.
SKYNET
2005-10-10, 10:49:22
Aber nur bei praktisch unverändertem Transistorcount. Gehen wir mal davon aus, dass R580 mindestens 20% mehr Transistoren haben wird als R520, dann ist so ein Taktsprung nicht zu erwarten.
Bei NV würde cih auch nur eine erneute Strukturverbreiterung oder eine nennenswerte Hochtaktung erwarten. Imho wäre ein 90nm 24Pipe G70 mit höheren Takten und verbesserter Cachestruktur und besserer Texturleistung imho sinnvoller als ein 32Pipe G70.
oder er bekommt beides.... :-X
micki
2005-10-10, 11:16:25
Echte Jumptables gibts keine. Dafür nimmt man kaskadierte Ifs.
so hatte ich es auch im kopf, deswegen meinte ich ja, dass mir dieses feature fehlt ;)
MfG
micki
Crushinator
2005-10-10, 11:59:07
Ich erwarte dass R580 auf keinen Fall kleiner ist als 370-380M.....
Dem möchte ich ja auch nicht widersprechen. Ich wollte mit dem beispiel eigentlich nur darauf hinaus, daß man nicht erwarten sollte, daß die Taktschraube einfach mal eben so nach oben gedreht werden kann, selbst dann nicht wenn sich die Transistorenzahl und der Herstellungsprozeß nicht wesentlich geändert haben. :)
Aber nur bei praktisch unverändertem Transistorcount. Gehen wir mal davon aus, dass R580 mindestens 20% mehr Transistoren haben wird als R520, dann ist so ein Taktsprung nicht zu erwarten. (...)
Ack, siehe oben. :)
Blaire
2005-10-14, 17:34:20
Neues Futter
http://www.bit-tech.net/news/2005/10/14/nvidia_prices/
so hatte ich es auch im kopf, deswegen meinte ich ja, dass mir dieses feature fehlt ;)
MfG
mickiNimmt sich performancetechnisch normal aber auch nicht viel.
Ich hoffe bei WGF 2.0 gibt's dann auch echte dynamische Loops und Sprünge.
stav0815
2005-10-14, 17:51:01
Bei NV würde cih auch nur eine erneute Strukturverbreiterung oder eine nennenswerte Hochtaktung erwarten. Imho wäre ein 90nm 24Pipe G70 mit höheren Takten und verbesserter Cachestruktur und besserer Texturleistung imho sinnvoller als ein 32Pipe G70.
glaube ich nicht, der G70 ist eine auf Breite ausgelegte Arhitektur, da wird man wohl eher bei gleichen Taktraten in die Breite gehn (32Pipes) oder mit etwas mehr Pipes ein wenig mehr Takt (28Pipes ~550-600Mhz)
Sunrise
2005-10-15, 01:08:15
Aber nur bei praktisch unverändertem Transistorcount. Gehen wir mal davon aus, dass R580 mindestens 20% mehr Transistoren haben wird als R520, dann ist so ein Taktsprung nicht zu erwarten.
Der Takt wird hauptsächlich durch das Design, der Reife und Qualität des Fertigungsprozesses selbst und dessen Charakteristika (Low-K) bestimmt. Die Komplexität zu erhöhen und gleichzeitig den Takt zu steigern ist an sich vollkommen problemlos möglich, jedoch in Maßen und nicht in diesen Sprüngen, wie ich es jetzt schon wieder lese. Das eigentliche Problem ist hier eher die Kühlung selbst, da man die Abwärme der Chips bei entsprechenden Spannungen nicht vergessen sollte.
Zudem wissen wir seit einiger Zeit, dass R520 als XT-Variante relativ konservativ getaktet ist, ebenso wie der verbaute Speicher noch deutlich Spielraum nach oben hat. Die Kühlung der XT ist allerdings nicht zu unterschätzen, wenn man sich entsprechende Ergebnisse auf diversen Webseiten ansieht. Hier hat ATi sehr gute Arbeit geleistet.
Bei NV würde cih auch nur eine erneute Strukturverbreiterung oder eine nennenswerte Hochtaktung erwarten. Imho wäre ein 90nm 24Pipe G70 mit höheren Takten und verbesserter Cachestruktur und besserer Texturleistung imho sinnvoller als ein 32Pipe G70.
Beides gleichzeitig ist möglich. Erhöhte Komplexität bei höherem Takt sind hier absolut machbar.
Ailuros
2005-10-15, 11:04:54
Die Kühlung der XT ist allerdings nicht zu unterschätzen, wenn man sich entsprechende Ergebnisse auf diversen Webseiten ansieht. Hier hat ATi sehr gute Arbeit geleistet.
Mich stoert eigentlich die Lautstaerke bei weitem nicht wie andere, aber das Ding ist ehrlich gesagt auch nicht gerade leise.
Beides gleichzeitig ist möglich. Erhöhte Komplexität bei höherem Takt sind hier absolut machbar.
;)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.