Archiv verlassen und diese Seite im Standarddesign anzeigen : R580 schon Anfang 2006?
Dass die X1900er in keinem praktischen Benchmark die dreifache Leistung einer X1800Xt erreichen werden, ist mir klar. Aber hier geht es, obwohl FEAR als extrem shadinglastig gilt, nicht um 25-40% der erreichbaren Steigerung, sondern um noch deutlich weniger. Wobei in nur geringfügig CPU- limitierten Settings sicherlich auch ein deutlich größerer Anteil einer GPU- Leistungssteigerung "durchschlagen" kann als von dir genannt.
so wahnsinnig shaderlastig kann fear auch nicht sein, sonst hätte der R520 gegen den G70 kaum eine chance.
die texturleistung ist auch bei fear wichtig, und da hat der R580 eben keinen vorteil gegenüber dem R520
Mr. Lolman
2006-01-22, 14:17:16
Nochmal: Negatives LOD verursacht schlechtere Performance.
Es macht überhaupt keinen Sinn für nVIDIA den Schalter nur für manche Spiele zu berücksichtigen.
Wir reden aneinander vorbei
1. Der Schalter funzt nur unter D3D.
2. Und dafür aber immer (AFAIK)
3. Es wird nicht bloß das Texturelod auf 0.0 gesetzt, sondern anscheinend der Filterkernel geändert. Wäre dem nicht so, dürften keine Unterschiede zw. LOD 0.0 und LOD Clamp auftreten.
4. Es gibt aber diese Unterschiede.
Mr. Lolman
2006-01-22, 14:20:53
könnte ich mir ehrlich gesagt gut vorstellen, dass viele rennspiele zumindest auf der texturstage der die markierungslinien liegen ein negatives LOD nehmen, um das ausfransen etwas zu verringern.
Dafür gibts AF. Aber ich hab mal den Gegencheck gemacht und im Treiber positives LOD forciert: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3766267&postcount=187
Ok hast mich überzeugt. NVIDIA nützt ihre programmierbare Filterhardware echt unschön aus...
so wahnsinnig shaderlastig kann fear auch nicht sein, sonst hätte der R520 gegen den G70 kaum eine chance.Der G70 hat zwar eine immense Shadingrohleistung, die Effizienz ist aber viel geringer als beim R520. Ist der G70 nicht stark optimierungsbedürftig? Soweit ich mich erinnere, kann, wenn nicht Arithmetik- und Textur- Anweisungen irgendwie in einem bestimmten Verhältnis oder/und einer bestimmen Reihenfolge kommen, leicht die Pipeline verstopfen. Das Problem haben die R500er mangels Pipelines natürlich nicht. Die Frage ist nun, wieweit Monolith auf das Ding optimiert hat, um die Probleme zu verringern. Wenn ich mich richtig an die Performance der Demo erinnere, lief die deutlich langsamer als die Vollversion, insbesondere auf G70ern. In der *Demo* lag die X1800XT imho Sogar deutlich vor der GTX (256), ATI hatte da (nicht einmal zu Unrecht) 80 oder 90% Vorsprung proklamiert
.
Wenn Monolith erst in einem späten Entwicklungsstadium mit der Performanceoptimierung angefangen hat, sind die Ergebnisse natürlich nicht mehr besonders gut; FEAR *hat* ja auch sehr hohe Anforderungen. Dir R500er haben da den großen Vorteil einer geringen Optimierungsabhängigkeit.
Dürften mit deiner Argumentation nicht die X1800er gegen die 7800er (gleiche Füllrate, viel höhere theoretische Shadingleistung, geringere - und außerhalb des 3DMark unwichtige - Geometrieleistung) auch in Far Cry, HL2... eigentlich fast überal...l "kaum eine Chance" haben?
die texturleistung ist auch bei fear wichtig, und da hat der R580 eben keinen vorteil gegenüber dem R520Warum gibt es dann praktisch keine Leistungsverluste durch AF?
Der G70 hat zwar eine immense Shadingrohleistung, die Effizienz ist aber viel geringer als beim R520. Ist der G70 nicht stark optimierungsbedürftig? Soweit ich mich erinnere, kann, wenn nicht Arithmetik- und Textur- Anweisungen irgendwie in einem bestimmten Verhältnis oder/und einer bestimmen Reihenfolge kommen, leicht die Pipeline verstopfen.Nein eigentlich nicht. Der Shadercompiler sortiert das automatisch fast perfekt.
Das Problem haben die R500er mangels Pipelines natürlich nicht. R5xx hat natürlich auch eine Pipeline. Nur getrennt für Fragment- und Texturprozessoren, wodurch weniger Stalls auftreten.
Die Frage ist nun, wieweit Monolith auf das Ding optimiert hat, um die Probleme zu verringern. Wenn ich mich richtig an die Performance der Demo erinnere, lief die deutlich langsamer als die Vollversion, insbesondere auf G70ern. In der *Demo* lag die X1800XT imho Sogar deutlich vor der GTX (256), ATI hatte da (nicht einmal zu Unrecht) 80 oder 90% Vorsprung proklamiertDie Shader sind ganz normales HLSL, da kann man auf so einem Level gar nicht mehr optimieren.
Beziehst du dich jetzt auf den ersten Absatz oder auf den zweiten?
eigentlich auf dein gesamtes Posting.
Dass die X1900er in keinem praktischen Benchmark die dreifache Leistung einer X1800Xt erreichen werden, ist mir klar. Aber hier geht es, obwohl FEAR als extrem shadinglastig gilt, nicht um 25-40% der erreichbaren Steigerung, sondern um noch deutlich weniger. Wobei in nur geringfügig CPU- limitierten Settings sicherlich auch ein deutlich größerer Anteil einer GPU- Leistungssteigerung "durchschlagen" kann als von dir genannt.
25-40% Steigerung sind aber drin, wenn man nicht gerade anderen Faktoren, wie hohen AA- und AF-Settings (wie bei den ganzen FEAR-Benchmarks hier) den Vorzug gibt. Bei ~gleicher Bandbreite und ~gleicher Texturfüllrate limitieren diese Faktoren natürlich die "freie Entfaltung" der Shaderleistung.
Im zweiten Absatz ging es mir darum, dass wahrscheinlich keine nennenswerte Bandbreitenlimitierung vorliegt. Dabei ist der entscheidene Punkt, dass der Abstand der beiden Karten in XGA und UXGA fast gleich ist - und in XGA wird wohl trotz 4xAA die Bandbreite kein großartig begrenzender Faktor sein. Warum sollte denn im Falle einer durch AA bedingten starken Bandbreitenlimitierung ein höherer Speichertakt nicht zu einem ähnlich hohen Leistungszuwachs führen?
Vielleicht genügt UXGA noch nicht, um alle anderen Faktoren außer der Shaderleistung aus dem Spiel zu nehmen? Wie gesagt, rund 40% Mehrleistung in FEAR habe ich schon 'irgendwo' gesehen. Frage mich bitte nicht vor dem 24.1. nach einem Link. ;)
Habe ich irgendetwas davon gesagt, dass "nVidia ATI in den Boden stampfen wird"? Ich denke schon, dass der G71, was reine Geschwindigkeit anbelangt, den R580 übertreffen wird, falls du das meinst, ja. Aber ich würde das auch an anderen Faktoren festmachen als ausgerechnet an 3DMark- Pünktchen. Zumal reine Geschwindigkeit allein nicht eine gute Karte ausmacht.
Nein, hast du nicht. Aber das Posting von tombman, auf das ich antwortete, worauf du mich gequotet hast, erwähnte sowas. Ich habe das absichtlich in meinem Quote weggelassen, um die Stimmung nicht unnötig anzuheizen.
Q
R5xx hat natürlich auch eine Pipeline. Nur getrennt für Fragment- und Texturprozessoren, wodurch weniger Stalls auftreten.Kann es sein, dass du dir da gerade selbst widersprichst? Eine Pipeline, deren Elemente "getrennt" sind? :|
Das ist allerdings genau der Punkt, den ich meinte. Bei getrennt herumfliegenden TMUs, Shading- Units und ROPs würde ich nicht mehr von einer "Pipeline" sprechen. Es sei denn, man betrachtet jedes einzelne der Elemente als kleine "Pipeline". Dann lägen aber Piepelines völlig verschiedener Typen vor (zzgl. Vertex- Pipelines natürlich).
Nein eigentlich nicht. Der Shadercompiler sortiert das automatisch fast perfekt.
[...]
Die Shader sind ganz normales HLSL, da kann man auf so einem Level gar nicht mehr optimieren.Natürlich spielt auch der Treiber eine Rolle, natürlich ist auch die Möglichkeit des Programmierers zur Optimierung nicht unbegrenzt. Aber sie ist da und offenbar beträchtlich.
Wenn das alles so gar kein Problem ist, wie du meinst, kannst du mir doch bestimmt sagen, warum 7800er nicht in den meisten Benchmarks meilenweit vorne liegen. Klar, die X1800er liegen bei der Geometrieleistung vorne, was aber nur in wenigen Fällen relevant wird. Und ATIs bessere Branchingimplementierung ist zwar ein Vorteil, könnte aber mit Sicherheit nicht auch nur ansatzweise die Differenz zur theoretischen Shadingrohleistung des G70 ausgleichen.
25-40% Steigerung sind aber drin, wenn man nicht gerade anderen Faktoren, wie hohen AA- und AF-Settings (wie bei den ganzen FEAR-Benchmarks hier) den Vorzug gibt. Bei ~gleicher Bandbreite und ~gleicher Texturfüllrate limitieren diese Faktoren natürlich die "freie Entfaltung" der Shaderleistung.Zu FEAR und Füllrate habe ich mich ja oben schon geäußert (AF praktisch kostenlos --> Füllrate dürfte nachrangige Bedeutung haben). Und wie oben beschrieben glaube ich auch nicht, dass die Bandbreite in dem Fall eine große Rolle spielt. Trotzdem bin ich neugierig auf Benchmarks ohne AA, ich würde aber vermuten, dass der Abstand dort nicht so viel größer sein wird. Deine 25-40% würden auf einen Zuwachs von 50-80% hinauslaufen, was ich nach den veröffentlichten Zahlen für ziemlich hoch halte, gemessen an einer verdreifachten Shadingrohleistung (und FEAR als ohne AA auf jeden Fall stark shadinglastig) aber für eher ernüchternd.
Vielleicht genügt UXGA noch nicht, um alle anderen Faktoren außer der Shaderleistung aus dem Spiel zu nehmen? Mit AA dürfte mit steigender Auflösung eher die Bandbreite immer stärker limitieren. Was sonst sollte denn groß begrenzen? CPU? Wie oben gesagt anscheinend nicht nennenswert unter 60-70 fps. Füllrate? s.o. Geometrieleistung? Bestimmt auch nicht.
Wie gesagt, rund 40% Mehrleistung in FEAR habe ich schon 'irgendwo' gesehen. Frage mich bitte nicht vor dem 24.1. nach einem Link. ;)Nanana, du willst dich doch bestimmt nicht für die GS- Redaktion empfehlen, oder.? ;D
Meinst du jetzt diese 25-40% als Leistungssteigerung ggü. R520 oder als Anteil der verdreifachten Shadingleistung, der in Benchmarks auftaucht (was dann, wie gesagt, 50-80% Gesamtzuwachs wären)?
Aber nochmal: 40% Mehrleistung kommt mir sehr wenig vor.
Nein, hast du nicht. Aber das Posting von tombman, auf das ich antwortete, worauf du mich gequotet hast, erwähnte sowas. Ich habe das absichtlich in meinem Quote weggelassen, um die Stimmung nicht unnötig anzuheizen.Ah, sorry, mein Fehler.
Kann es sein, dass du dir da gerade selbst widersprichst? Eine Pipeline, deren Elemente "getrennt" sind? :|
Das ist allerdings genau der Punkt, den ich meinte. Bei getrennt herumfliegenden TMUs, Shading- Units und ROPs würde ich nicht mehr von einer "Pipeline" sprechen. Es sei denn, man betrachtet jedes einzelne der Elemente als kleine "Pipeline". Dann lägen aber Piepelines völlig verschiedener Typen vor (zzgl. Vertex- Pipelines natürlich).Es gibt auch bei CPUs eine Floatingpoint- und eine Integer-Pipeline die nebenläufig sind und trotzdem hat eine CPU eine. Ob diese sich an einem Punkt trennt ist dabei doch völlig unerheblich.
Keine Pipeline würde bedeuten dass jeder Befehl in einem Takt komplett abgearbeitet werden müsste was völlig absurd ist.
Natürlich spielt auch der Treiber eine Rolle, natürlich ist auch die Möglichkeit des Programmierers zur Optimierung nicht unbegrenzt. Aber sie ist da und offenbar beträchtlich.NV40 & G70 fressen ziemlich alle Shader ganz gut. Was du im Kopf hast ist offenbar noch aus NV30-Zeiten. Da war es wirklich etwas schwieriger.
Wenn das alles so gar kein Problem ist, wie du meinst, kannst du mir doch bestimmt sagen, warum 7800er nicht in den meisten Benchmarks meilenweit vorne liegen. Klar, die X1800er liegen bei der Geometrieleistung vorne, was aber nur in wenigen Fällen relevant wird. Und ATIs bessere Branchingimplementierung ist zwar ein Vorteil, könnte aber mit Sicherheit nicht auch nur ansatzweise die Differenz zur theoretischen Shadingrohleistung des G70 ausgleichen.Die Architektur von G70 und R5xx sind unterschiedlich und G70 hat potentiell mehr Pipelinestalls. Daran kann auch gute Optimierung nichts ändern. Theoretischen Durchsatz zu vergleichen halte ich nicht für sinnvoll, da die G70-Pipelines die ALUs zusätzlich auch noch in Reihe hat, was die Auslastung erschwert.
Außerdem gibt es außer FEAR kein Spiel das auch nur ansatzweise nur durch Pixelshader limitiert wäre. Und selbst dort ist das nicht 100%ig der Fall.
Ich vermute einfach mal, dass Fear nur relativ wenige Texturschichten nutzt, oder aber bei in-Game-AF einfach nur die primäre Texture-Stage anisotrop filtert, daher der geringe Einbruch mit AF. Das ist aber, wie gesagt, nur eine Vermutung.
Was die 25-40% angeht, die sind bereits ohne AA/AF, soweit ich das von dem, was ich las (in irgendeinem OC-Forum...) richtig in Erinnerung habe.
So wenig finde ich das nicht. Wenn ich mir mal die Ergebnisse der beiden XBit-Tests zur X1300 Pro und X1600 XT anschaue, so komme ich auf 26 vs 41 Fps (in 1024 ohne AA/AF). Das sind zwar 60 Prozent Zuwachs, allerdings besitzt die X1600 zusätzlich noch die Vorteile des Ringbus-Controllers (den ich persönlich für maßlos über-hyped halte) und der doppelten Z-/Stencilleistung, die bei den Schatten in FEAR sicherlich einiges reissen können.
Beide Vorteile fehlen der R580 ggü. der R520, da diese auch schon darüber verfügt. Daher sind 40% IMO innerhalb der Erwartungen.
Und nein, zur Gamestar zieht's mich nicht.
Q
ShadowXX
2006-01-22, 15:45:37
Kann es sein, dass du dir da gerade selbst widersprichst? Eine Pipeline, deren Elemente "getrennt" sind? :|
Das ist allerdings genau der Punkt, den ich meinte. Bei getrennt herumfliegenden TMUs, Shading- Units und ROPs würde ich nicht mehr von einer "Pipeline" sprechen. Es sei denn, man betrachtet jedes einzelne der Elemente als kleine "Pipeline". Dann lägen aber Piepelines völlig verschiedener Typen vor (zzgl. Vertex- Pipelines natürlich).
Ich würde die Marketing-Diagramme von ATI nicht allzu ernst nehmen....
Natürlich spielt auch der Treiber eine Rolle, natürlich ist auch die Möglichkeit des Programmierers zur Optimierung nicht unbegrenzt. Aber sie ist da und offenbar beträchtlich.
Wenn das alles so gar kein Problem ist, wie du meinst, kannst du mir doch bestimmt sagen, warum 7800er nicht in den meisten Benchmarks meilenweit vorne liegen. Klar, die X1800er liegen bei der Geometrieleistung vorne, was aber nur in wenigen Fällen relevant wird. Und ATIs bessere Branchingimplementierung ist zwar ein Vorteil, könnte aber mit Sicherheit nicht auch nur ansatzweise die Differenz zur theoretischen Shadingrohleistung des G70 ausgleichen.
Ohne AA/AF liegt der G70 auch in 99% aller Fälle vor dem r520.
Aber prinzipel gebe ich dir Recht...nV scheint Probleme zu haben Ihre Shaderleistung auf den Boden zu bekommen und wie man mit dem r580 sieht, hat nV scheinbar nicht alleine dieses Problem.
Vielleicht liegt es an den Designs, die eben doch noch sehr stark an das klassische angelehnt sind....vielleicht liegts auch an was ganz anderem.
Auch sollte man bei r580 bedenken, das durch die stärkere Shaderleistung jetzt sehr wahrscheinlich die Flaschenhälse stärker zum vorschein treten als beim r520....daran krankt wohl auch der G70 (durch die starke Shaderleistung bemerkt man die anderen Flaschenhälse/Designkompromisse viel stärker.)
Es wurde schon von mehreren vermutet, das man beim r580 wesentlich stärker Performanedrops mit AA/AF bemerken wird, als beim r520 (der das einfach besser versteken konnte).
tRpii
2006-01-22, 15:55:47
Viper']irgendwo könnte dann auch der CPU Limitieren...
selbst wenn die x1900xt die 3fache Shadingleistung hat, ist das ganze nur theorie - wieviel davon am ende umgesetzt wird steht immer auf einem anderen Platt. Spiele bestehen ja nicht nur aus Shadern ;)
Könnte man bei sowas nicht z.B. den Shadermark einsetzen? Also um "nur" die Shaderleistung mit anderen Karten vergleichen zu können.
Keine Pipeline ist Unsinn. Es gibt auch bei CPUs eine Floatingpoint- und eine Integer-Pipeline die nebenläufig sind und trotzdem hat eine CPU eine. Ob diese sich an einem Punkt trennt ist dabei doch völlig unerheblich.
Keine Pipeline würde bedeuten dass jeder Befehl in einem Takt komplett abgearbeitet werden müsste was völlig absurd ist.Das stimmt, die Bezeichnung "keine Pipeline" ist Unsinn. Aber wenn einfach nur von "Pipelines" gesprochen wird, haben die meisten ein Gebilde aus Shading-ALU - TMU - ROP im Kopf, weshalb man imho besser von TMUs und Shading- Einheiten sprechen sollte. Das vermeidet Missverständnisse und Durcheinander, wenn ATI noch auf die Idee kommen sollte, bei anderen Chips noch ein anderes Verhältnis zu wählen als 1:1 oder 3:1.
NV40 & G70 fressen ziemlich alle Shader ganz gut. Was du im Kopf hast ist offenbar noch aus NV30-Zeiten. Da war es wirklich etwas schwieriger.Beim NV30 war das anscheinend wirklich übel, aber auch NV40/ G70 haben sicherlich mehr Probleme als R5xx.
Theoretischen Durchsatz zu vergleichen halte ich nicht für sinnvoll, da die G70-Pipelines die ALUs zusätzlich auch noch in Reihe hat, was die Auslastung erschwert.... die m.E. eben durch entsprechende Programmierung verbessert werden kann, zu einem gewissen Teil natürlich auch durch gute Treiber.
Außerdem gibt es außer FEAR kein Spiel das auch nur ansatzweise nur durch Pixelshader limitiert wäre. Und selbst dort ist das nicht 100%ig der Fall.Was limitiert denn in FEAR sonst noch großartig?
Jedenfalls dürften Leistungsunterschiede zwischen X1800XT und 7800GTX ohne AA hauptsächlich auf der Shadingleistung beruhen. Die Füllrate ist fast gleich, die höhere Geometrieleistung der Radeon in den allermeisten Fällen nicht von Belang, ohne AA die Bandbreite ebenfalls. Wie erklärst du dir dann die z.T. doch beträchtlichen Unterschiede, wenn der Programmierer die Nachteile der G70- Architektur nicht ein Stück weit begrenzen kann?
Könnte man bei sowas nicht z.B. den Shadermark einsetzen? Also um "nur" die Shaderleistung mit anderen Karten vergleichen zu können.
Mal angenommen, der zeigt dann die ~2,5 fache Leistung ggü. einer R520. Was hast du damit gewonnen? Dass Spiele diese Leistung nicht 1:1 in Mehrperformance umsetzen können, scheinen ja die FEAR-Werte, die hier genannt werden, zu belegen.
Ansonsten: Ja, könnte man.
Q
Beim NV30 war das anscheinend wirklich übel, aber auch NV40/ G70 haben sicherlich mehr Probleme als R5xx.Man kann natürlich mehr Arithmetik als Texture-Fetches verwenden, was G70 hilft, aber das gleiche gilt auch für R580. In HLSL sind wie gesagt solche Optimierungen wie Umsortieren nicht mehr möglich. Das muss der Treiber-Compiler erledigen. Und FEAR verwendet ausschließlich HLSL.
Mir ist auch noch kein Shader untergekommen der auf G70 auf einmal abartig langsam geworden wäre.
Was limitiert denn in FEAR sonst noch großartig?
Jedenfalls dürften Leistungsunterschiede zwischen X1800XT und 7800GTX ohne AA hauptsächlich auf der Shadingleistung beruhen. Die Füllrate ist fast gleich, die höhere Geometrieleistung der Radeon in den allermeisten Fällen nicht von Belang, ohne AA die Bandbreite ebenfalls. Wie erklärst du dir dann die z.T. doch beträchtlichen Unterschiede, wenn der Programmierer die Nachteile der G70- Architektur nicht ein Stück weit begrenzen kann?
~30% höhere Texturleistung? Doppelte Z-/Stencilfüllrate? FEAR nutzt, wie's ausschaut, jedenfalls Stencilschatten.
Q
Ich vermute einfach mal, dass Fear nur relativ wenige Texturschichten nutzt,Wären dann nicht die Anforderungen an die Füllrate ohnehin sehr gering?
oder aber bei in-Game-AF einfach nur die primäre Texture-Stage anisotrop filtert, daher der geringe Einbruch mit AF. Das ist aber, wie gesagt, nur eine Vermutung.Ist das technisch überhaupt möglich? Und wenn, müsste man das doch eigentlich sehen.
Was die 25-40% angeht, die sind bereits ohne AA/AF, soweit ich das von dem, was ich las (in irgendeinem OC-Forum...) richtig in Erinnerung habe.
So wenig finde ich das nicht. Wenn ich mir mal die Ergebnisse der beiden XBit-Tests zur X1300 Pro und X1600 XT anschaue, so komme ich auf 26 vs 41 Fps (in 1024 ohne AA/AF). Das sind zwar 60 Prozent Zuwachs, allerdings besitzt die X1600 zusätzlich noch die Vorteile des Ringbus-Controllers (den ich persönlich für maßlos über-hyped halte) und der doppelten Z-/Stencilleistung, die bei den Schatten in FEAR sicherlich einiges reissen können.
Beide Vorteile fehlen der R580 ggü. der R520, da diese auch schon darüber verfügt. Daher sind 40% IMO innerhalb der Erwartungen.Ich habe mich auch schon im Oktober gewundert, dass die X1600er auch in shadinglastigen Benches (wie FEAR) so dürftig abschneiden.
~30% höhere Texturleistung?Wo hast du bei 16 TMUs@625MHz vs. 24 TMUs@430 eine nennenswerte Differenz in der Füllrate her?
Doppelte Z-/Stencilfüllrate?Wieso doppelte?
Man kann natürlich mehr Arithmetik als Texture-Fetches verwenden, was G70 hilft, aber das gleiche gilt auch für R580. In HLSL sind wie gesagt solche Optimierungen wie Umsortieren nicht mehr möglich. Das muss der Treiber-Compiler erledigen. Und FEAR verwendet ausschließlich HLSL.
Mir ist auch noch kein Shader untergekommen der auf G70 auf einmal abartig langsam geworden wäre.Dann bleibt die Frage, wie es überhaupt zu nennenswerten Unterschieden zwischen den beiden kommt.
Also ich kann die ganze ganze Diskussion um AA/AF nicht verstehen. Für mich sind die Unterschiede der versch AF-Stufen und Optimierungen nur marginal. Im Spielgeschehen nehme ich sie überhaupt nicht wahr.
Für mich zählen nur Shadereffekte, hochwertige Texturen und eine hohe Auflösung. Ich bin mir sicher, dass die Mehrheit meine Meinung teilt. Wenns nach mir ginge, sollten die IHVs das AA auf 2x und die AF auf max 8x beschränken.
Vielleicht könnte ein Mod mal eine Umfrage zu diesem Thema starten.
Also ich kann die ganze ganze Diskussion um AA/AF nicht verstehen. Für mich sind die Unterschiede der versch AF-Stufen und Optimierungen nur marginal. Im Spielgeschehen nehme ich sie überhaupt nicht wahr.
Für mich zählen nur Shadereffekte, hochwertige Texturen und eine hohe Auflösung.
Was nutzen dir Shadereffekte und hochwertige Texturen, wenn in 2m Entfernung nur noch Matsch zu erkennen ist? :|
Wenns nach mir ginge, sollten die IHVs das AA auf 2x und die AF auf max 8x beschränken.
Welchen Sinn sollte es haben die Möglichkeit zu beschränken?
Wieso doppelte?
double-pumped-ROPs
Also ich kann die ganze ganze Diskussion um AA/AF nicht verstehen. Für mich sind die Unterschiede der versch AF-Stufen und Optimierungen nur marginal. Im Spielgeschehen nehme ich sie überhaupt nicht wahr.Ungewöhnlich. Naja, eine Umfrage zu dem Thema wäre vlt. eine Idee.
Wenns nach mir ginge, sollten die IHVs das AA auf 2x und die AF auf max 8x beschränken.Es zwingt dich doch keiner, z.B. NVidias 8xS (oder über atuner sogar 4x4x SS - was für ein Unsinn :eek: ) zu nutzen. Wer das aber möchte (und die Hardware dafür hat), soll doch ruhig mit 6x/16x oder so spielen. Ich selbst habe mich erst vor ein paar Monaten von meiner guten alten Ti4200 getrennt und finde es schon toll, wieder mit AA und damit ohne fürchterlich flackernde Kanten spielen zu können. Schau dir mal X3 (bzw. die Rolling Demo) mit und ohne AA an und sag dann nochmal, das siehst du nicht.
Was nutzen dir Shadereffekte und hochwertige Texturen, wenn in 2m Entfernung nur noch Matsch zu erkennen ist? :|
2 Meter? Den "Matsch" nimmt man doch -selbst unter ungünstigen Verhältnissen- erst ab ca 3/4 der Raumtiefe wahr. Und selbst dann stört es mich nicht sonderlich.
Welchen Sinn sollte es haben die Möglichkeit zu beschränken?
Damit man die freigewordenen Resourcen in wichtigere Dinge investiert.
double-pumped-ROPsEben, ROPs und nicht TMUs oder ALUs. D.h. 2x16x430 vs 1x16x625. Das ist ein gutes Drittel Mehrleistung. Kann aber durchaus eine Rolle spielen, da hast du recht. Aber nur in einem begrenzten Rahmen.
2 Meter? Den "Matsch" nimmt man doch -selbst unter ungünstigen Verhältnissen- erst ab ca 3/4 der Raumtiefe wahr. Und selbst dann stört es mich nicht sonderlich.Wie wichtig AF ist, hängt auch stark vom jeweiligen Spiel ab.
Damit man die freigewordenen Resourcen in wichtigere Dinge investiert.Wie gesagt, niemand zwingt dich, es zu nutzen. Wenn du lieber ohne AA/AF in QXGA spielst, kannst du das doch tun.
Wie gesagt, niemand zwingt dich, es zu nutzen. Wenn du lieber ohne AA/AF in QXGA spielst, kannst du das doch tun.
Ich meine die Ressourcen der Hersteller. Ich möchte nicht wissen wieviele Transitoren und Entwicklunskosten für solch unnütze Dinge draufgehen.
double-pumped-ROPs
das spielt aber nur ohne FSAA, in sehr wenigen fällen eine rolle.
deekey777
2006-01-22, 17:01:40
Der R580 ist für GDDR4 schon wie geschaffen!
http://www.xbitlabs.com/news/video/display/20051226173157.html
Interview with Guennadi Riguer (ATI Technologies) (http://www.digit-life.com/articles2/video/r520-part6.html)
iXBT.com: Why did ATI mention GDDR4 in the list of supported memory formats for R520? Is it a mistake, or is this support planned in a future standard, which is not ready yet?
ATI has been closely cooperating with memory manufacturers over developing new standards for many years. So there is nothing surprising about some chips supporting standards, which are still in development. This fact means that these chips are used to verify and fine-tune new technologies. As soon as this technology is available, we shall be able to introduce it into real products painlessly and fast. Flexibly programmable architecture of a memory controller allows us to support any existing GDDR standard, as well as new standards still in development.
Black-Scorpion
2006-01-22, 17:23:00
Ich meine die Ressourcen der Hersteller. Ich möchte nicht wissen wieviele Transitoren und Entwicklunskosten für solch unnütze Dinge draufgehen.
Es soll sogar wirklich Leute geben die eine gute Bildqualität wollen. ;)
Nur weil du das nicht brauchst (fast Blind?) ist das noch lange nicht unnütz.
Und gerade in einem Forum wie 3DCenter wirst du damit nicht viel erreichen.
Kladderadatsch
2006-01-22, 17:27:02
2 Meter? Den "Matsch" nimmt man doch -selbst unter ungünstigen Verhältnissen- erst ab ca 3/4 der Raumtiefe wahr. Und selbst dann stört es mich nicht sonderlich.
und wo siehst du dann den sinn im high-end?
wenn man dafür argumentiert, klammert man sich unweigerlich irgendwann an den vorteil in der bq- existiert der für dich nicht, bist du mit mainstream bestens bedient:)
Ailuros
2006-01-22, 17:29:40
mpV,
Ist zwar verdammt OT, aber ich bin eigentlich froh dass ich 4*4 OGSS zur Verfuegung habe (wenn auch nur bis 1024) einfach nur zum testen stellenweise.
und wo siehst du dann den sinn im high-end?
wenn man dafür argumentiert, klammert man sich unweigerlich irgendwann an den vorteil in der bq- existiert der für dich nicht, bist du mit mainstream bestens bedient:)
Highend hat schon seinen Sinn, nur finde ich den nicht in AA oder AF. HDR (und ähnl. Effekte), höchstauflösende Texture und Raytracing wären für mich Highend. Ich möchte nicht mein Bildschirm mit einer Lupe absuchen um meine "HighEnd"-Investition zu rechtfertigen.
HD-Plasma gegenüber einem PAL-Fernseher ist für mich High-End aber nicht AA/AF ON gegenüber AA/AF OFF.
das spielt aber nur ohne FSAA, in sehr wenigen fällen eine rolle.Die hier als "double pumped" bezeichneten ROPs zahlen sich besonders dann aus, wenn Multisampling-FSAA genutzt wird.
Ailuros
2006-01-22, 17:58:39
Highend hat schon seinen Sinn, nur finde ich den nicht in AA oder AF. HDR (und ähnl. Effekte), höchstauflösende Texture und Raytracing wären für mich Highend. Ich möchte nicht mein Bildschirm mit einer Lupe absuchen um meine "HighEnd"-Investition zu rechtfertigen.
HD-Plasma gegenüber einem PAL-Fernseher ist für mich High-End aber nicht AA/AF ON gegenüber AA/AF OFF.
Selbst hochaufgeloeste Texturen sollten um einiges schaerfer sein nach einer gewissen Distanz als stinknormales bi-/trilinear.
Das ganze ist natuerlich Geschmacksache, aber die Wiedergabe auf jeglichem Fernseher waere miserabel wenn ueberhaupt kein AA/AF/motion blur usw. als Faktoren mitspielen wuerden.
Die hier als "double pumped" bezeichneten ROPs zahlen sich besonders dann aus, wenn Multisampling-FSAA genutzt wird.Wir reden hier aber schon über die ROPs des NV40/G70, oder?
Die hier als "double pumped" bezeichneten ROPs zahlen sich besonders dann aus, wenn Multisampling-FSAA genutzt wird.
mit FSAA sind doch alle ROPs seit ewigkeiten "double-pumped" (ich glaub nicht das die bezeichnung stimmt ;) ), die ROPs von MV30+ und auch R580 bzw. RV560 haben dagegen den vorteil auch ohne FSAA 2 Z/Stencil-only-instruktionen ausführen zu können.
mit FSAA haben sie ja keinen vorteil mehr.
deekey777
2006-01-22, 18:29:30
Nicht der R520, nur der RV530 und vielleicht auch der RV560, ist aber noch nicht ganz sicher.
RV530 4-1-3-2 vs. R580 16-1-1-1.
Selbst hochaufgeloeste Texturen sollten um einiges schaerfer sein nach einer gewissen Distanz als stinknormales bi-/trilinear.
Das ganze ist natuerlich Geschmacksache, aber die Wiedergabe auf jeglichem Fernseher waere miserabel wenn ueberhaupt kein AA/AF/motion blur usw. als Faktoren mitspielen wuerden.
Du hast natürlich Recht, ein Mindestmaß an AA/AF und vor allem(!) motion blur sollte schon vorhanden sein.
Wenn man aber bis zu 50% an Leistung für die nächsthöhere AF/AA-Stufe opfern muss, halte ich die ganze Entwicklung für falsch.
Ich erwarte ein wenig mehr Fotorealismus. Mal im ernst, wer kann die unterschiedlichen AF/AA-Stufen im Spielgeschehen überhaupt wahrnehmen. Es sind die Texturen, Licht-, Schatten- und Spiegeleffekte die ein Spiel gut oder schlecht aussehen lassen.
Meinetwegen kann man die AA/AF-Entwicklung auf den jetzigen Stand einfrieren und sich auf wichtigere BQ-Funktionen konzentrieren.
die ROPs von MV30+ und auch R580 bzw. RV560 haben dagegen den vorteil auch ohne FSAA 2 Z/Stencil-only-instruktionen ausführen zu können.Haben sie? Kann ja sein, aber gibts dafür auch ne Quelle?
Haben sie? Kann ja sein, aber gibts dafür auch ne Quelle?
woher soll denn sonst die doppelte z-füllrate beim NV40 kommen?
Das war auf RV560 und R580 bezogen.
Dunkeltier
2006-01-22, 20:58:58
Entschuldigt meine dumme Frage, aber wo liegen derzeit die Unterschiede zwischen der Radeon X1800 XT und der X1900 XT? Beide haben den gleichen Takt und dieselbe Pipelineanzahl, insoweit ich das richtig sehe.
ShadowXX
2006-01-22, 21:05:12
Entschuldigt meine dumme Frage, aber wo liegen derzeit die Unterschiede zwischen der Radeon X1800 XT und der X1900 XT? Beide haben den gleichen Takt und dieselbe Pipelineanzahl, insoweit ich das richtig sehe.
Die X1800XT hat 16PS und die X1900XT hat 48PS.....ums mal aufs wichtigste/auffälligste zusammenzukürzen.
Das war auf RV560 und R580 bezogen.
achso, beim RV560 habe ich schon reviews gesehen die ihm die doppelte z-füllrate bescheinigen, da der R580 ja die gleiche technologie haben soll gehe ich mal davon aus dass es dort auch der fall sein wird.
Entschuldigt meine dumme Frage, aber wo liegen derzeit die Unterschiede zwischen der Radeon X1800 XT und der X1900 XT? Beide haben den gleichen Takt und dieselbe Pipelineanzahl, insoweit ich das richtig sehe.
die x1800 hat 16 TMUs und 16 ALUs, die x1900 16 TMUs und 48 ALUs.
ansonsten höchstwahrscheinlich noch die doppelte füllrate bei z-only-writes, evtl. noch ein paar kleinere noch nicht näher bekannte veränderungen.
Dunkeltier
2006-01-22, 21:08:31
Die X1800XT hat 16PS und die X1900XT hat 48PS.....ums mal aufs wichtigste/auffälligste zusammenzukürzen.
Noch kürzer gefaßt, die Shaderleistung dürfte nun explodieren? :confused:
Noch kürzer gefaßt, die Shaderleistung dürfte nun explodieren? :confused:Müsste sie eigentlich. Ich bin wie gesagt gespannt auf Shadermarkergebnisse
Weiß eigentlich jemand, wie es nun mit Vertex- Pipelines aussieht? Sind das immer noch 8 oder jetzt 10?
Wo hast du bei 16 TMUs@625MHz vs. 24 TMUs@430 eine nennenswerte Differenz in der Füllrate her?
16*625 vs. 24*550.
Wieso doppelte?
Die Fähigkeit der nV30+ und RV530 statt C+Z auch Z+Z zu bearbeiten, wurde ja bereits erwähnt.
Zu dem anderen Posting, welches auf die geringe Texturlast einging:
Das ist ja das Problem, welches Nvidia mit sich rumschleppt: Ihr synchrones Design.
Während ATi bei einem Frame mit einer Texturlast von X und einer Shaderlast von Y nur die Zeit X oder Y braucht, je nachdem was größer ist, benötigt Nvidias Design die Zeit X+(0,5*Y), weil unter gewissen Umständen (die deutlich häufiger als bei Ati auftreten) die ALUs nicht mehr weiterrechnen können, bis die TMU fertig ist, nämlich spätestens dann, wenn der FiFo voll ist. [Sehr grob angenähert und vereinfacht].
Q
reunion
2006-01-22, 22:03:23
mit FSAA sind doch alle ROPs seit ewigkeiten "double-pumped" (ich glaub nicht das die bezeichnung stimmt ;) ), die ROPs von MV30+ und auch R580 bzw. RV560 haben dagegen den vorteil auch ohne FSAA 2 Z/Stencil-only-instruktionen ausführen zu können.
mit FSAA haben sie ja keinen vorteil mehr.
Entweder bin ich zu blöd, um diese Daten richtig auszulesen, oder die ROPs von G70 sind mit AA nicht "double-pumped".
RV530:
(M Pixel/s) Colour Z Fill Colour + Z
No AA 2237.2 4716.1 2239.8
2x 2073.7 4142.3 1995.7
4x 2025.8 2219.6 1754.1
6x 1998.2 1517.5 1489.9
G70:
(M Pixel/s) Colour Z Fill
No AA 6555.7 12094.7
2x 6555.7 6555.7
4x 3410.0 3412.5
http://www.beyond3d.com/forum/showthread.php?t=27037
Wie man sieht, halbiert sich bei G70 sobald 2xMSAA an ist die Z-Füllrate, bei RV530 bleibt sie fast identisch.
Dave Baumann drückt sich eigentlich auch ziemlich unmissverständlich aus:
First off, it appears to be the case that X1600 maintains is double pumped Z even with AA enabled (unlike G70, but like Xenos).
16*625 vs. 24*550.Ich rede die ganze Zeit von der "GTX 256" (worauf ich auch ausdrücklich hingewiesen habe (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3902529#post3902529), um genau dieses Missverständnis zu vermeiden). Dass die 512 ggü. der X1800XT klare Vorteile hat, liegt auf der Hand. Ich habe ja gerade diese beiden Modelle gewählt, weil sie nahezu dieselbe Füllrate erreichen.
Die Fähigkeit der nV30+ und RV530 statt C+Z auch Z+Z zu bearbeiten, wurde ja bereits erwähnt.Das stimmt, hatte ich anfangs nicht bedacht. Damit hat der Chip mit der höheren Shadingrohleistung auch noch den Vorteil der Möglichkeit eines z- only- passes :smile:
Zu dem anderen Posting, welches auf die geringe Texturlast einging:
Das ist ja das Problem, welches Nvidia mit sich rumschleppt: Ihr synchrones Design.
Während ATi bei einem Frame mit einer Texturlast von X und einer Shaderlast von Y nur die Zeit X oder Y braucht, je nachdem was größer ist, benötigt Nvidias Design die Zeit X+(0,5*Y), weil unter gewissen Umständen (die deutlich häufiger als bei Ati auftreten) die ALUs nicht mehr weiterrechnen können, bis die TMU fertig ist, nämlich spätestens dann, wenn der FiFo voll ist. [Sehr grob angenähert und vereinfacht].Wo siehst du bei einer G70- Pipeline eine FiFo? Und stammt die Formel, die du oben bringst, nicht aus NV30- Zeiten?
Das Problem bei NV40/ G70 ist doch vielmehr, dass, wenn viele Tex- Operationen auf einmal kommen, die TMU die ganze Pipeline blockiert und somit die Shading- Units bald nicht mehr weiterarbeiten können. Oder meintest du das und ich habe dich nur missverstanden?
Wie man sieht, halbiert sich bei G70 sobald 2xMSAA an ist die Z-Füllrate, bei RV530 bleibt sie fast identisch.
das sollte eigentlich "normal" sein, die doppelte z-füllrate nur ohne FSAA.
dass die radeon sogar mit 2xFSAA ebenfalls noch die doppelte z-power hat ist eher irgendwie "seltsam"
das sollte eigentlich "normal" sein, die doppelte z-füllrate nur ohne FSAA.
dass die radeon sogar mit 2xFSAA ebenfalls noch die doppelte z-power hat ist eher irgendwie "seltsam"
Wieso? 590*8 sind 4.720. Da bleibt die Karte dauerhaft (knapp) drunter. Im Gegenteil: Double-Pumped (also mit 2Z statt C+Z) scheint die in keinem Fall zu laufen. :)
Q
Wieso? 590*8 sind 4.720. Da bleibt die Karte dauerhaft (knapp) drunter. Im Gegenteil: Double-Pumped (also mit 2Z statt C+Z) scheint die in keinem Fall zu laufen. :)Wieso *8? RV530 hat 4 ROPs. 8*590 = 2*4*590 stimmt doch genau mit double pumped.
Wieso? 590*8 sind 4.720. Da bleibt die Karte dauerhaft (knapp) drunter. Im Gegenteil: Double-Pumped (also mit 2Z statt C+Z) scheint die in keinem Fall zu laufen. :)
Q
Der Teil ab "im Gegenteil" ist natürlich BS.
Q
Ich rede die ganze Zeit von der "GTX 256" (worauf ich auch ausdrücklich hingewiesen habe (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3902529#post3902529), um genau dieses Missverständnis zu vermeiden). Dass die 512 ggü. der X1800XT klare Vorteile hat, liegt auf der Hand. Ich habe ja gerade diese beiden Modelle gewählt, weil sie nahezu dieselbe Füllrate erreichen.
Sorry, das habe ich nicht mitbekommen.
Das stimmt, hatte ich anfangs nicht bedacht. Damit hat der Chip mit der höheren Shadingrohleistung auch noch den Vorteil der Möglichkeit eines z- only- passes :smile:
Ja, sicher. Meinst du jetzt wieder/immer noch den 430-MHz-G70?
Wo siehst du bei einer G70- Pipeline eine FiFo? Und stammt die Formel, die du oben bringst, nicht aus NV30- Zeiten?
Das Problem bei NV40/ G70 ist doch vielmehr, dass, wenn viele Tex- Operationen auf einmal kommen, die TMU die ganze Pipeline blockiert und somit die Shading- Units bald nicht mehr weiterarbeiten können. Oder meintest du das und ich habe dich nur missverstanden?
Das meinte ich, du hast mich mißverstanden. Die Formel ist natürlich keine genaue Formel (habe ich ja auch geschrieben), sondern eine Veranschaulichung.
Q
Ja, sicher. Meinst du jetzt wieder/immer noch den 430-MHz-G70?Seit es um die Flaschenhals- Problematik geht, meine ich immer den, sofern nicht ausdrücklich anders gekennzeichnet (hoffentlich vergesse ich das ggf. nicht :eek: ).
Das meinte ich, du hast mich mißverstanden. Die Formel ist natürlich keine genaue Formel (habe ich ja auch geschrieben), sondern eine Veranschaulichung.Der Unterschied ist aber, dass diese "2- oder- 1- Problematik" beim NV30 zwingend ist. Dahingeggen dürfte sich der Flaschenhals des G70 durch gute Treiber und geschickte Programmierung in vielen Fällen umgehen lassen, indem man die Befehle soweit möglich angemessen sortiert (Im Idealfall bekommt man dort pro Takt und Pipeline 1 tex und 2 arithm, nichtoder).
Genau das ist beim R5xx nicht erforderlich, woraus (neben dem besseren Branching) hauptsächlich der geringe Rückstand in der Shadingleistung resultieren dürfte.
Beim RV530 hängen allerdings, glaube ich, jeweils 3 Shadingquads an einer FiFo, sodass es da u.U. zu Verzögerungen kommen könnte (Moment, das wäre dann beim R580 genau so). Ich denke aber nicht, dass das eine größere Gefahr ist.
Die G70-Pipeline ist immer noch anfällig für Stalls, da die TMU-Latenz nicht immer versteckt werden kann. Das Problem hat sich nur in der Hinsicht gemildert, dass nun beide Shader-ALUs (fast) alle Operationen ausführen können. Wenn die TMU nicht fertig ist, gibt es immer noch eine Blockierung.
Q
Gandharva
2006-01-22, 23:59:04
http://img294.imageshack.us/img294/4207/x1900power6ir.jpg
30A für Single; 38A für XF! :eek:
Ronny145
2006-01-23, 00:10:29
http://img294.imageshack.us/img294/4207/x1900power6ir.jpg
30A für Single; 38A für XF! :eek:
Für die 2. Karte 8 A zusätzlich. Damit wäre eine Karte bei max ~100 Watt theoretisch. Die 30 A müssen auch für Noname NTs gelten. Das wundert mich da gar nicht.
Die G70-Pipeline ist immer noch anfällig für Stalls, da die TMU-Latenz nicht immer versteckt werden kann.Habe ich nicht genau das gesagt? :conf2:
Das Problem hat sich nur in der Hinsicht gemildert, dass nun beide Shader-ALUs (fast) alle Operationen ausführen können. Wenn die TMU nicht fertig ist, gibt es immer noch eine Blockierung.Das Problem besteht beim NV40 bereits genau so, ja. Der Umbau an den Inneren der Shading- Units ändert daran natürlich nichts.
tombman
2006-01-23, 10:38:26
38A NT für CF--- L.O.L. Da werden 99% aller NTs aussteigen ;) (gut, daß ich 42A habe :D)
p.s: weiß irgendwer wann das NDA für die Tests fällt? (Tag+Uhrzeit)
chemistry
2006-01-23, 10:56:51
soweit ich weiss Dienstag, 24.01.06 9 Uhr Pacific Time.....
svenw
2006-01-23, 12:31:38
550Watt Klingt vernünftig. Denn wenn man 2*100 Watt Graka+ 120 Watt CPU + 60 Watt Festplatten etc rechnet ist man schon bei 380 Watt. Und bei einem Leistungsfaktor von ca 80% bleiben von einem 550 wAtt Netzteil auch nur 440 Watt Abgabeleistung übrig. Da ist nicht mehr soviel Luft nach oben.
BiG OnE
2006-01-23, 13:06:48
Moin, moin
550Watt Klingt vernünftig. Denn wenn man 2*100 Watt Graka+ 120 Watt CPU + 60 Watt Festplatten etc rechnet ist man schon bei 380 Watt. Und bei einem Leistungsfaktor von ca 80% bleiben von einem 550 wAtt Netzteil auch nur 440 Watt Abgabeleistung übrig. Da ist nicht mehr soviel Luft nach oben.
die 80% beziehen sich eher auf den Wirkungsgrad eines Netzteils und nicht auf die Maximalbelastbarkeit.
Bis denne ...
550Watt Klingt vernünftig. Denn wenn man 2*100 Watt Graka+ 120 Watt CPU + 60 Watt Festplatten etc rechnet ist man schon bei 380 Watt. Und bei einem Leistungsfaktor von ca 80% bleiben von einem 550 wAtt Netzteil auch nur 440 Watt Abgabeleistung übrig. Da ist nicht mehr soviel Luft nach oben.
wow, du musst aber viele festplatten haben ;)
die angegebene leistung auf dem leistungsblatt ist immer die maximale leistung die dauerhaft abgegeben werden kann, die aufgenommene leistung kann natürlich aufgrund des wirkungsgrades noch höher sein, wobei auch netzteile sicher einiges an sicherheit eingerechnet haben.
Habe ich nicht genau das gesagt? :conf2:
Ja hast du. Ich davor aber auch. :???:
Das Problem besteht beim NV40 bereits genau so, ja. Der Umbau an den Inneren der Shading- Units ändert daran natürlich nichts.
Nein, nicht genau so. Dadurch, dass jetzt beide ALUs fast alle Operationen beherrschen, kann mehr/anders weitergerechnet werden, bis der Fifo voll ist. Vorher konnte eben nur die Teilmenge der Ops weitergerechnet werden, die die nicht blockierte SU beherrschte.
Q
tombman
2006-01-23, 14:11:58
soweit ich weiss Dienstag, 24.01.06 9 Uhr Pacific Time.....
Hmm, das wären dann 18 Uhr Dienstag hier ... *wart* :)
phil99
2006-01-23, 14:50:51
Hat jemand Informationen bezüglich Verfügbarkeit und Preis in Deutschland ?
chrisihamm
2006-01-23, 16:08:47
Bei Alternate ab Morgen lieferbar!
mfg
Blaire
2006-01-23, 16:18:13
Bei Alternate ab Morgen lieferbar!
mfg
Zu Mondpreisen :D
Black-Scorpion
2006-01-23, 16:27:13
Die 7900er wird bestimmt verschenkt wenn sie rauskommt.
Manchmal frag ich mich wirklich was diese Kommentare sollen.
Blaire
2006-01-23, 16:30:00
Die 7900er wird bestimmt verschenkt wenn sie rauskommt.
Manchmal frag ich mich wirklich was diese Kommentare sollen.
Das war doch nicht soo ernst gemeint, sondern sollte nur lauten das Alternate recht "kräftige" Preise hat. ;)
Black-Scorpion
2006-01-23, 16:36:44
Langsam dürfte auch der letzte mitbekommen haben das Alternate für jeden Buchstaben seines Namens 5,- Euro Aufschlag verlangt. ;)
phil99
2006-01-23, 17:05:46
Ich habe kein Ergebiss in der Suchmaschine von Alternate mit x1900.
Hat mal jemand einen Link ?
Ronny145
2006-01-23, 17:16:45
Hmm, das wären dann 18 Uhr Dienstag hier ... *wart* :)
Der R520 kam um 15:00 Uhr unserer Zeit. Ich denke es wird genauso sein.
Blaire
2006-01-23, 17:19:05
Ich habe kein Ergebiss in der Suchmaschine von Alternate mit x1900.
Hat mal jemand einen Link ?
Morgen erst :)
phil99
2006-01-23, 17:51:29
Wenn der so 550 Euro kostet, hol ich mir den vielleicht.
Ist ja ein ganzes Stück schneller als meine jetzige Graka.
Und besseres Branching und bessere Bildquali.
Naja, musst du wissen. Ich werd wohl erstmal bei meiner GTX bleiben. Wär zwar schon was feines son R580, aber auch wenns schwer wird, versuche ich meine GTX bis zu den D3D10-Chips zu behalten.
Sternenkind
2006-01-23, 18:54:19
Phil99 nicht dein ernst oder? Würde mich zwar nicht als Nvidia-Fan bezeichnen aber deine 7800GTX dürfte wohl mehr als ausreichend für jetzt und die nahe/mittlere Zukunft sein. Oder spielst du Benchmarks? ;)
Ich glaube nicht, dass er das wegen irgendwelchen Benchmarks macht. Viel eher ist es wohl so eine Art Sucht immer das neueste haben zu müssen.
Das manual der X1900:
http://images.dailytech.com/nimage/236_large_1.png
http://images.dailytech.com/nimage/237_large_2.png
http://images.dailytech.com/nimage/238_large_3.png
http://www.dailytech.com/article.aspx?newsid=344
Ja hast du. Ich davor aber auch. :???:Gut, dann sind wir uns da ja anscheinend einig. :crazy:
Nein, nicht genau so. Dadurch, dass jetzt beide ALUs fast alle Operationen beherrschen, kann mehr/anders weitergerechnet werden, bis der Fifo voll ist. Vorher konnte eben nur die Teilmenge der Ops weitergerechnet werden, die die nicht blockierte SU beherrschte.Wo befindet sich in einer G70- Pipeline ein FiFo?
Banshee18
2006-01-23, 20:13:52
Weiß jemand, ob es hier auf 3DC ein Review geben wird?
Weiß jemand, ob es hier auf 3DC ein Review geben wird?Bei R520 gab es kein NDA. Würde mich überraschen, wenn ATI das diesmal anders halten würde.
phil99
2006-01-23, 20:17:22
Phil99 nicht dein ernst oder? Würde mich zwar nicht als Nvidia-Fan bezeichnen aber deine 7800GTX dürfte wohl mehr als ausreichend für jetzt und die nahe/mittlere Zukunft sein. Oder spielst du Benchmarks? ;)
Meine jetzige Karte ist ja nicht schlecht, aber die X1900 ist halt ein ganzes Stück schneller. Ich denk da vorallem an hohe Auflösungen und FSAA und AF
Und die 512 MB reizen mich auch.
Ausserdem kann ich dann, wenn die 7900 rauskommt, wieder mit relativ wenig Geld aufrüsten. :biggrin:
Meine Hardware ist sozusagen meine Notreserve für Hungersnöte etc :biggrin:
Wertverlust O.K. aber eine Anlage mit riesen Spaßfaktor
sklave_gottes
2006-01-23, 20:19:29
Weiß jemand, ob es hier auf 3DC ein Review geben wird?
würde ich auch mal brennend interresieren!
@mods
?
Wo befindet sich in einer G70- Pipeline ein FiFo?
An vielen Stellen, würde ich mal sagen. Zum Beispiel "vor" der TMU. Sonst würde ja jedes TMU-Kommando die gesamte Pipeline zum Stallen bringen.
Q
würde ich auch mal brennend interresieren!
@mods
?ATI ist doch der Meinung, dass sie bei 3dCenter keine guten Rezensionen bekämen. Deshalb gabs auch keine x1800. Ich stimme da allerdings nicht mit Ati überein. Klar würde es ein paar Seitenhiebe aufgrund von fehlendem VTF und FP-Filterung geben, aber ich denke keine andere Website in den tiefen Weiten des Webs würde ATI mehr für ihr wu-AF loben als 3dc.
Q
Q steht doch fü Quasar oder.?:D ;)
andererGast
2006-01-23, 20:40:31
Halte ich für durchaus möglich. ;)
An vielen Stellen, würde ich mal sagen. Zum Beispiel "vor" der TMU. Sonst würde ja jedes TMU-Kommando die gesamte Pipeline zum Stallen bringen.Das hat was. Dann ist auch logisch, dass der G70 damit etwas besser fertig werden dürfte. Das Problem an sich bleibt aber bestehen.
ATI ist doch der Meinung, dass sie bei 3dCenter keine guten Rezensionen bekämen. Deshalb gabs auch keine x1800. Ich stimme da allerdings nicht mit Ati überein. Klar würde es ein paar Seitenhiebe aufgrund von fehlendem VTF und FP-Filterung geben, aber ich denke keine andere Website in den tiefen Weiten des Webs würde ATI mehr für ihr wu-AF loben als 3dc.ATI hätte ja für das NDA darauf bestehen können, dass Aths das Review macht. :wink:
Aber im Ernst: Ich habe nicht den Eindruck, dass einer der großen Hersteller hier ungerechtfertigt gut oder schlecht wegkommt. Der R520 ist ein technologisch sehr interessanter Chip. Ich denke, 3dCenter hätte sich weniger als die meisten anderen Seiten darüber ausgelassen, dass er von der Leistung (ohne AA zumindest) eher eine Enttäuschung war.
http://www.pchc.ch/shop.php?mode=deep_link&article_number=32989
X1800 XT 256Mb für unter 400.- €
Blaire
2006-01-23, 20:54:37
http://www.csv-direct.de/artinfo.php?artnr=A0602421
Knapp 648€uro fast so teuer wie damals die GTX 512MB!
Q steht doch fü Quasar oder.?:D ;)
Es kommt nicht auf den Verfasser, sondern auf den Inhalt des Beitrages an. ;)
Q
Ronny145
2006-01-23, 20:58:54
http://www.csv-direct.de/artinfo.php?artnr=A0602421
Knapp 648€uro fast so teuer wie damals die GTX 512MB!
Das ist ja auch die XTX. Also wenn, dann XT nehmen. Die 2 fps rechtfertigen den Preisunterschied nicht.
Blaire
2006-01-23, 21:03:29
Das ist ja auch die XTX. Also wenn, dann XT nehmen. Die 2 fps rechtfertigen den Preisunterschied nicht.
Hehe , aber wenn man schon soviel Geld zahlt dann sollte es doch auch das Topprodukt sein und nix abgespecktes runtergetaktetes oder nicht?
r3ptil3
2006-01-23, 21:08:53
http://www.pchc.ch/shop.php?mode=deep_link&article_number=32989
X1800 XT 256Mb für unter 400.- €
X1900 XT nicht X1800
Ronny145
2006-01-23, 21:19:50
Hehe , aber wenn man schon soviel Geld zahlt dann sollte es doch auch das Topprodukt sein und nix abgespecktes runtergetaktetes oder nicht?
25 Mhz nennst du abgespeckt und runtergetaktet?
Mumins
2006-01-23, 21:20:12
http://www.csv-direct.de/artinfo.php?artnr=A0602421
Knapp 648€uro fast so teuer wie damals die GTX 512MB!
Damals? Bei Alternate kostet die 512MB GTX immer noch 700€.
PingpiN1
2006-01-23, 21:21:56
http://www.csv-direct.de/artinfo.php?artnr=A0602421
Knapp 648€uro fast so teuer wie damals die GTX 512MB!
Und blair wirst du dir 2 X1900 XTX karten kaufen?
Ich weiss jetzt ist der abstant zur 7800 512mb gtx noch nicht gross das könnte sich aber bald ändern.
Blaire
2006-01-23, 21:27:37
Damals? Bei Alternate kostet die 512MB GTX immer noch 700€.
Jo hab damals 649€uro bei Alternate bezahlt
Und blair wirst du dir 2 X1900 XTX karten kaufen?
Ich weiss jetzt ist der abstant zur 7800 512mb gtx noch nicht gross das könnte sich aber bald ändern.
Das entscheidet der Preis. Über 600 €uro zahl ich nicht. Aber das ist jetzt genug offtopic sonst meckern die Mods. :wink:
Hehe , aber wenn man schon soviel Geld zahlt dann sollte es doch auch das Topprodukt sein und nix abgespecktes runtergetaktetes oder nicht?So ein Blödsinn. Als ob irgend ne XT die 25Mhz mehr nicht schaffen würde. :rolleyes:
Blaire
2006-01-23, 21:36:21
So ein Blödsinn. Als ob irgend ne XT die 25Mhz mehr nicht schaffen würde. :rolleyes:
Natürlich würde sie das, aber es geht ja ums Prinzip.
[dzp]Viper
2006-01-23, 21:37:54
X1900 XT nicht X1800
256MB? Oo
Ronny145
2006-01-23, 21:39:33
Natürlich würde sie das, aber es geht ja ums Prinzip.
Du würdest dir anscheinend noch eine 1 Mhz schnellere Karte kaufen für 100€ mehr. Ach du meine Güte.
Mr. Lolman
2006-01-23, 21:45:17
Jo hab damals 649€uro bei Alternate bezahlt
Das entscheidet der Preis. Über 600 €uro zahl ich nicht. Aber das ist jetzt genug offtopic sonst meckern die Mods. :wink::confused:
svenska
2006-01-23, 21:46:24
Das manual der X1900:
http://images.dailytech.com/nimage/236_large_1.png
http://images.dailytech.com/nimage/237_large_2.png
http://images.dailytech.com/nimage/238_large_3.png
http://www.dailytech.com/article.aspx?newsid=344
hä? wo is der DDR4 speicher?
#edit:
sry, hab ich verpeilt. aber war doch mal die rede von, oder?
hä? wo is der DDR4 speicher?
#edit:
sry, hab ich verpeilt. aber war doch mal die rede von, oder?
Ja, aber der kommt erst frühjahr/sommer
Natürlich würde sie das, aber es geht ja ums Prinzip.Aha. Das Prinzip ist mir fremd.
25 Mhz nennst du abgespeckt und runtergetaktet?Ist der Speicher denn derselbe und kriegt er auch die gleiche Spannung wie auf der XTX? Wenn nein, würde ich es schon als abgespeckt bezeichnen.
Aquaschaf
2006-01-23, 23:40:57
Man kann es auch anders betrachten und sagen die XTX ist übertaktet...
Ich finds irgendwie schwach, dass die x1900xt einen niedrigeren Speichertakt als die x1800xt hat. Wahrscheinlich um die Leistung künstlich unten zu halten, damit man dann irgendwann nochmal was nachschieben kann oder so.
Ich vermute vielmehr dass ATi bei der X1800XT jede Leistung gebraucht hat um nVIDIA zu schlagen und es jetzt nicht mehr nötig ist ;)
ShadowXX
2006-01-24, 07:38:38
Ist der Speicher denn derselbe und kriegt er auch die gleiche Spannung wie auf der XTX? Wenn nein, würde ich es schon als abgespeckt bezeichnen.
Bei beiden (XT und XTX) völlig identisch.
With XT retail boards using the same BJ11 DRAMs and R580 GPU, at the same core voltage no less, XTX is a slightly curious SKU.
Quelle (Hexus): http://www.hexus.net/content/item.php?item=4477&page=8
Ailuros
2006-01-24, 09:04:25
Ich vermute vielmehr dass ATi bei der X1800XT jede Leistung gebraucht hat um nVIDIA zu schlagen und es jetzt nicht mehr nötig ist ;)
Man haette auch auf hoehere Taktraten zielen koennen, nur haette es eben den Launch dann wieder verzoegert. Ein hard-launch war hier wichtiger IMO.
mapel110
2006-01-24, 09:07:10
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3907846#post3907846
*closed*
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.