PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ineffizientes SSAO und fragwürdiges Displacement Mapping in Dragon Age II?


LovesuckZ
2011-03-17, 03:19:10
sgd

Langenscheiss
2011-03-17, 04:10:01
Ich kann sehen, dass Dragon Age 2 kein Tesselation für das Displacementmapping nutzt, sondern nur eine Form von Virtual Displacement Mapping (darüber hinaus sehen die Screenshots nicht gerade schön aus). Auch ist es kein Geheimnis, dass AMD nicht so hohe Tesselation-Leistung bringt und das deren BQ und BQ-Feature support nicht unbedingt eines Enthusiasten würdig sind. Nur worauf genau willst du damit hinaus? Ist wohlgemerkt eine ernst gemeinte Frage, also nicht wieder gleich kritisiert fühlen.

dildo4u
2011-03-17, 04:13:09
Ehrlich ich denke nich das AMD da viel mit zu tun hat,klar sie haben vermutlich Hardware zu Verfügung gestellt,damit es gut läuft wenns raus kommt.Die DX11 Implementierung hat aber Bioware selber verbockt,auch kein Wunder die sind nicht dafür bekannt Technologie zu pushen.Wenn man sieht wie viel Hersteller DX11 Support wenn überhaupt erst per Patch liefern scheint die Implementierung noch immer ein großes Problem zu sein das.(Neuste Beispiele Crysis 2,Shogun 2 etc)

boxleitnerb
2011-03-17, 07:27:26
@LZ: Die beiden Videos zum Shaderflimmern sind recht kurz und man kann kaum etwas erkennen, dafür bewegt sie die Figur recht schnell und lenkt den Blick ab. Ist es im Spiel ausgeprägter sichtbar?

LovesuckZ
2011-03-17, 07:43:57
@LZ: Die beiden Videos zum Shaderflimmern sind recht kurz und man kann kaum etwas erkennen, dafür bewegt sie die Figur recht schnell und lenkt den Blick ab. Ist es im Spiel ausgeprägter sichtbar?

In diesem Fall für mich ja. Du hast ja immer Aliasing, weil keine Kantenglättung stattfindet. Dazu kommt das erwähnte Problem, dass durch den nahen Wechsel du eine riesige Fläche hast (hinten), die nur ganz minimal flimmert (eigentlich kaum wahrnehmbar) und dann eine Fläche um dem Spieler herum, die immer flimmert. Vorallem der Wechsel führt dazu, dass man von einem Flimmerband begrüßt wird...

Abhängig ist es auch von der Kameraposition. Je weiter und steiler weg, umso geringer wird das Problem. Je näher und tiefer, umso deutlicher.

Das, was Bioware hier veranstalt, ist im Grunde das genaue Gegenteil von dem, was man durch Tessellation + Displacement Mapping erreichen will. Das dann Tessellation zu nennen, ist reinster Hohn.

Hier zwei Videos mit einer Kameraposition, die niedriger ist und einer langsameren Bewegung:
Dragon age 2 mittel (http://www.multiupload.com/ZZP4S8YME0)
Dragon Age 2 sehr hoch (http://www.multiupload.com/PVMQTZQCR0)

boxleitnerb
2011-03-17, 08:14:56
Boah, das lange Video zum Morphing ist mal ein übler Rotz! Gerade wenn man sich wieder wegdreht, wird die Fläche ganz glatt und matschig. :eek:

Thx für die neuen Videos, da sieht man es besser. Ich schätze zwar, dass der Rest des Bildes in den meisten Szenen so oder so nicht flimmerfrei ist (andere Shader, Vegetation...), aber man muss ja nicht noch zusätzliche Flimmerquellen gutheißen.

Nakai
2011-03-17, 11:48:15
Zum Problem an sich:
Es ist existent und wirklich grauenhaft. Eigentlich habe ich Bioware immer als eine gute Spieleschmiede angesehn.
DA2 ist eben in jeder Facette ein Fail...im Vergleich zu Vorgänger.
Da hat Bioware wohl ins Klo gegriffen.

mfg

Undertaker
2011-03-17, 12:17:36
Ich bitte darum, beim Thema zu bleiben. Argumentative Unterstützung oder Widerlegung der Thesen des Erstellers ist in jedem Fall gerne gesehen, aber bitte macht nicht wieder den hundertdrölfzigsten Flamethread daraus.

Weiteres OT wird gelöscht und/oder geahndet. Wer meint, von anderen attackiert oder beleidigt zu werden, nutzt bitte die Meldefunktion! Danke!

samm
2011-03-17, 12:23:12
Also, was Bioware da produziert hat, sieht echt eher grauslich aus...

Fakten sind:
- Das in DA2 implementierte HDAO kostet auf Nvidia-Karten offenbar deutlich mehr Performance als auf AMD-Karten.
- Was hier als Tesselation verkauft wird sieht in Bewegung sehr störend aus, führt zu Artefakten, Aliasing, unruhigem Bild

Vermutungen sind:
- HDAO ist nicht via CS 5.0 implementiert, was es wesentlich beschleunigen könnte besonders auf Nvidia-, aber auch AMD-Karten
- "Tesselation" beinhaltet (ist?) POM o.ä. und ist NICHT (nur) Tesselation

deekey777
2011-03-17, 12:27:23
Zunächst muss ich bekräftigen, dass über CS 5 sich viele Postprocessingeffekte usw. beschleunigen lassen. Der Hauptvorteil von CS ist: Es ist kein PS.

Hier geht es nur um HDAO (Warum eigentlich? Nur weil das ins eigene Schema passt?).

AMDs HDAO ist (wie Nvidias Lösung HBAO) nicht neu, sondern uralter Hut. Schon STALKER CS nutzte HDAO und HBAO und das im Herbst 2008.
Der geneigte Leser fragt sich aber: Was ist daran jetzt so besonders? SSAO bietet schon Crysis an (Herbst 2007).
AMDs HDAO bietet höhere visuelle Qualität. Der Hintergedanke ist aber, dass sich HDAO gerade über eine Fähigkeit der Radeons beschleunigen lässt: das gute alte fetch4 (http://www.beyond3d.com/content/reviews/2/4). Mit gather4 (neuer Name für fetch4) und D3D10.1 lässt sich HDAO beschleunigen, während über D3D10 Umwege nötig sind, die langsamer sind.

Kurz und knapp: Wird HDAO über Pixelshader gelöst, so wird über D3D10.1 und D3D11 (gather0) beschleunigt. Mit DirectCompute bzw. CS 5 kann man noch bessere Leistung bekommen (oder noch bessere Bildqualität).

Hier werden ua zwei Beispiele genannt, die HDAO nutzen und mit Zahlen belegt.
STALKER CoP nutzt AFAIK DirectCompute nur für Contact Hardening Shadows. Eine Quelle, dass CS auch für HDAO benutzt wird, kenne ich nicht und wird hier nicht genannt.
Zusammen mit DX11 kam für Battleforge verbessertes SSAO, das über CS beschleunigt wird.

Fest steht, dass in DA2 HDAO zum Einsatz kommt und dieses als "DX11 Engine Feature" genannt wird. Der TS versucht mit seinen Zahlen zu überzeugen, dass das eingesetzte HDAO über DirectCompute nicht beschleunigt wird, ohne dabei eine haltbare Quelle zu nennen.

Wenn man die PCGH-Artikel liest, so steht dort, dass erst mit DX10 SSAO verfügbar ist. Da ich das Spiel nicht habe, weiß ich nicht, wie HDAO überhaupt zum Einsatz kommt: Ist das eine Standardlösung? Kann man es zusätzlich aktivieren? Kann man es erst ab DX11 nutzen? Der TS schweigt hier.
Auch wenn HDAO als DX11-Feature aufgezählt wird, so heißt es nicht, dass es über die Fähigkeiten von DX10.1 oder gar DX10 hinausgeht.

Darum geht es ja nicht. Für TE gilt: Wenn das Spiel HDAO tatsächlich nicht über DirectCompute beschleunigen will, so ist das eine absichtliche Benachteiligung seines Lieblings-IHV durch AMD. Spätestens hier wird man sagen: "HÄ?" Denn das ergibt keinen Sinn.

Denn das bedeutet zwangsläufig, dass AMD seine eigenen Produkte benachteiligt, um dann besser oder trotzdem als die Konkurrenz zu sein?
-> :facepalm:

BigKid
2011-03-17, 12:30:01
Hm... Passt da meine Beobachtung irgendwie zu dass meine Karte (GTX570) unter DA2 wesentlich wärmer wird als in allen anderen Games die ich zuletzt gespielt habe (WOW, Dead Space 2, CoD BlackOps) ?

deekey777
2011-03-17, 12:50:39
Also, was Bioware da produziert hat, sieht echt eher grauslich aus...

Fakten sind:
- Das in DA2 implementierte HDAO kostet auf Nvidia-Karten offenbar deutlich mehr Performance als auf AMD-Karten.
- Was hier als Tesselation verkauft wird sieht in Bewegung sehr störend aus, führt zu Artefakten, Aliasing, unruhigem Bild

Vermutungen sind:
- HDAO ist nicht via CS 5.0 implementiert, was es wesentlich beschleunigen könnte besonders auf Nvidia-, aber auch AMD-Karten
- "Tesselation" beinhaltet (ist?) POM o.ä. und ist NICHT (nur) Tesselation
Es ist also ein Fakt?
Fakt ist, dass tagsüber die Sonne scheint.
Alles andere sind Vermutungen, so lange keine Belege dazu gibt.

Gipsel
2011-03-17, 12:53:28
Hm... Passt da meine Beobachtung irgendwie zu dass meine Karte (GTX570) unter DA2 wesentlich wärmer wird als in allen anderen Games die ich zuletzt gespielt habe (WOW, Dead Space 2, CoD BlackOps) ?
Offenbar gibt es bei DA2 viel zu tun und man erreicht eine recht hohe Auslastung der GPU :rolleyes:

Im Übrigen würde ich vorschlagen, daß sich hier ALLE mal zurückhalten, bis LS auf die validen (und sachlich vorgebrachten) Punkte von deekey antwortet. Dann sieht man vielleicht klarer, ob es überhaupt etwas (im Sinne des Threadtitels) zu diskutieren gibt.

BigKid
2011-03-17, 13:21:41
Offenbar gibt es bei DA2 viel zu tun und man erreicht eine recht hohe Auslastung der GPU :rolleyes:

Ja aber das ist nicht normal ! Ich habe meine Karte schon auf 685@0.9V runter und die Lüfter drehen hoch wie sie es WIRKLICH nur in OCCT oder ähnlichen Tools tun.
Und das perverse daran ist: Wenn ich mich in DA2 BEWEGE und die Kamera drehe, dann geht die Temp sogar RUNTER !

Ich habe eine GTX570 Phantom von der ich normalerweise nix höre und schon garnicht wenn ich sie so runter geregelt habe und noch ein manuelles Lüfterprofil nutze...

LovesuckZ
2011-03-17, 14:02:49
Hier geht es nur um HDAO (Warum eigentlich? Nur weil das ins eigene Schema passt?).

Eingangsposting lesen. Wenn das nicht getan wird, unterlasse es, in diesem Thread zu schreiben.

Hier werden ua zwei Beispiele genannt, die HDAO nutzen und mit Zahlen belegt.
STALKER CoP nutzt AFAIK DirectCompute nur für Contact Hardening Shadows. Eine Quelle, dass CS auch für HDAO benutzt wird, kenne ich nicht und wird hier nicht genannt.

Nur weil du es nicht kennst, heißt es nicht, dass es nicht existiert. Du solltest also erstmal deinen Wissenstand auf das Niveau von 2011 bringen.
Oder lade dir einfach den entsprechenden, selbstständigen Benchmark.


Zusammen mit DX11 kam für Battleforge verbessertes SSAO, das über CS beschleunigt wird.

Das sich auch im DX10.x Modus aktivieren lässt. Auch hierfür bitte ich darum, dass du deinen Wissenstand auf den neusten Stand bringst. Die Werte oben sind nämlich direkt aus Battleforge ermittelt.


Fest steht, dass in DA2 HDAO zum Einsatz kommt und dieses als "DX11 Engine Feature" genannt wird. Der TS versucht mit seinen Zahlen zu überzeugen, dass das eingesetzte HDAO über DirectCompute nicht beschleunigt wird, ohne dabei eine haltbare Quelle zu nennen.

Die Quellen werden genannt. Das du eine explizite Nichterwähnung als nicht ausschlagend bezeichnest, ist dann nicht meine Schuld. Bioware spricht nämlich nur von der Blur-Realisierung von "DirectCompute". Das ist ein eindeutiges Zeichen, dass es a) nicht über CS realisiert wird und b) auch kein DX11 Feature darstellt, weil es von 10.x Hardware ebenfalls aktiviert werden kann.


Wenn man die PCGH-Artikel liest, so steht dort, dass erst mit DX10 SSAO verfügbar ist. Da ich das Spiel nicht habe, weiß ich nicht, wie HDAO überhaupt zum Einsatz kommt: Ist das eine Standardlösung? Kann man es zusätzlich aktivieren? Kann man es erst ab DX11 nutzen? Der TS schweigt hier.
Auch wenn HDAO als DX11-Feature aufgezählt wird, so heißt es nicht, dass es über die Fähigkeiten von DX10.1 oder gar DX10 hinausgeht.

Es ist ein 10.x Feature und benötigt keine 11.0 Hardware. Bioware selbst spricht im Grunde in ihrer DX11 Präsentation von der GDC auch nicht über SSAO.


Darum geht es ja nicht. Für TE gilt: Wenn das Spiel HDAO tatsächlich nicht über DirectCompute beschleunigen will, so ist das eine absichtliche Benachteiligung seines Lieblings-IHV durch AMD. Spätestens hier wird man sagen: "HÄ?" Denn das ergibt keinen Sinn.

"Hä" sagt deswegen, weil das erste Spiel, dass DX11 verwendet hat, HDAO über CS5.0 beschleunigte. Battleforge wurde im Oktober 2009 damit gepatch - 18 Monate bevor Dragon Age 2 auf dem Markt kam. AMD hat dabei geholfen.
Das plötzlich der selbe "Effekt" nicht mehr über CS5.0 realisiert werde, ist sogar eine Premiere. Bis jetzt verwendet jedes Spiel, dass über einen DX11 Pfad verfügt auch eine entsprechende CS5.0 Implementierung von HDAO.


Denn das bedeutet zwangsläufig, dass AMD seine eigenen Produkte benachteiligt, um dann besser oder trotzdem als die Konkurrenz zu sein?
-> :facepalm:

Muss wohl so sein. Oder wieso gibt es keine CS5.0 Realisierung?

Hugo78
2011-03-17, 14:10:42
Dazu kann man sich hier noch ein 860mb (http://www.multiupload.com/Q5ODOO70UE) großes Video runterladen, dass es in Bewegung sehr deutlich illustriert.

Für das Video schonmal vielen Dank.
Das schaut wirklich hässlich aus, was Bioware da verbrochen hat.
Ob deine Vermutung in Sachen HDAO zutrifft, keine Ahnung.

Aber Tess so in ein Spiel einzubauen, ... *omg* ... da muss sich Bioware und AMD's Gaming Evolved Abteilung tatsächlich fragen lassen,
wat für Halbaffen denn da für die technische Umsetzung verantwortlich waren.

Gipsel
2011-03-17, 15:08:34
@LS:
Hast Du mal die Performance mit und ohne HDAO in DA2 im DX10.1 und DX11-Modus verglichen? Ohne das, hast Du gar nichts, null, nada Hinweis, ob das mit CS oder PS realisiert wird. Irgendwie vermisse ich das in Deinem Eingangsposting.
Einfach nur vom 42% Performanceverlust bei Aktivierung auf irgendwas zu schließen ist schlicht Blödsinn. Der von Dir selbst verlinkte Artikel zu HDAO zeigt sogar noch viel größere Einbußen bei Aktivierung des Features in einem entsprechenden Demo (188fps ohne HDAO, ~20 fps mit PS, 44fps mit CS). Das kommt immer darauf an, wieviel sonst noch gemacht wird.

LovesuckZ
2011-03-17, 15:10:41
@LS:
Hast Du mal die Performance mit und ohne HDAO in DA2 im DX10.1 und DX11-Modus verglichen? Ohne das, hast Du gar nichts, null, nada Hinweis, ob das mit CS oder PS realisiert wird. Irgendwie vermisse ich das in Deinem Eingangsposting.
Einfach nur vom 42% Performanceverlust bei Aktivierung auf irgendwas zu schließen ist schlicht Blödsinn. Der von Dir selbst verlinkte Artikel zu HDAO zeigt sogar noch viel größere Einbußen bei Aktivierung des Features in einem entsprechenden Demo (188fps ohne HDAO, ~20 fps mit PS, 44fps mit CS). Das kommt immer darauf an, wieviel sonst noch gemacht wird.

Von welchem Artikel wird hier gesprochen?

Gipsel
2011-03-17, 15:16:03
Von welchem Artikel wird hier gesprochen?
Wie gesagt, dem von Dir verlinkten zum Thema HDAO:
Dragon Age 2 benutzt, wie heutzutage viele Spiele, eine Form von SSAO - in diesem Fall AMD's Variante HDAO (http://www.legitreviews.com/article/1040/2/).
Ich dachte, Du kennst Dein Posting :rolleyes: ;)

LovesuckZ
2011-03-17, 15:18:36
Wie gesagt, den von Dir verlinkten zum Thema HDAO:

Ich dachte, Du kennst Dein Posting :rolleyes: ;)

Du sagst irgendwas. Ich habe einige Links zu HDAO gesetzt. Und das Thema hatten wir auch schon im anderen Thread. Deswegen habe ich hier auch nicht die Werte aus dem SDK genommen, sondern aus Spielen, wo die Implementierung (hoffentlicht) angepasst war. Aber ich werde nochmal Battleforge testen.

Gipsel
2011-03-17, 15:27:05
Ich habe einige Links zu HDAO gesetzt.
Nö, nur einen einzigen, der so beschriftet war. Aber egal.
Aber ich werde nochmal Battleforge testen.
Du solltest vielleicht lieber das machen, was ich vorgeschlagen habe, um ein Indiz für Deine Behauptung (daß DA2 auch unter DX11 PS für HDAO nutzt) zu bekommen. Battleforge Benchmarks helfen da eher nicht :rolleyes:

LovesuckZ
2011-03-17, 15:31:20
Du solltest vielleicht lieber das machen, was ich vorgeschlagen habe, um ein Indiz für Deine Behauptung (daß DA2 auch unter DX11 PS für HDAO nutzt) zu bekommen. Battleforge Benchmarks helfen da eher nicht :rolleyes:

Natürlich helfen Battleforge-Ergebnisse. Ersten zeigen diese, wie hoch ein angeblicher CS-Leistungsverlust im fast GPU-limitierten-Workload ist und zweitens habe ich bis jetzt keine Möglichkeit gefunden, Dragon Age 2 in DX10 zu forcieren. Aber hier könnte jemand mit einer DX10.0 nVidia-Karte helfen.

Aber zurück zu Battleforge:

dx11
ssao seh hoch: 70,4
ssao aus: 89,6
Leistungsverlust: 21,5%

dx10.1
ssao sehr hoch: 37,7
ssao aus: 90,3
Leistungsverlust; 58,3%

Würde man also annehmen, dass der Leistungsverlust in Dragon Age 2 normal wäre für eine CS-Implementierung, müsste eine PS-Implementierung auf DX10.x nVidia-Karte keine zweistelligen Werte erreichen in meinen Settings erreichen.

Gipsel
2011-03-17, 15:39:10
@LovesuckZ:
1.
GPU-Limit1 != GPU-Limit2
Wie schon gesagt, es komm immer darauf an, was noch so an anderen Sachen gemacht wird

2. "sehr hoch" in Spiel 1 != "sehr hoch" in Spiel2
Du vergleichst sehr wahrscheinlich Äpfel mit Birnen.

Und übrigens, Du verlierst mit HDAO in DA2 angeblich 42%. Das ist doch schon mal weniger als bei Battleforge mit DX10.1 über PS (58%). Verstehst Du, daß Du Deine Überzeugung alles andere als überzeugend dargelegt hast? Du benötigst wirklich den von mir angeregten Vergleich. ;)

samm
2011-03-17, 17:56:20
Es ist also ein Fakt?Ja, siehe PCGH Benches - also komm, dass Nvidia-Karten mehr Performance verlieren, lässt sich nicht abstreiten^^ PCGH (http://www.pcgameshardware.de/aid,815403/Dragon-Age-2-Grafikkarten-Benchmarks-mit-DirectX-11-und-DirectX-10-Radeons-vor-Geforce/Rollenspiel-Adventure/Test/)

Ansonsten schade, dass es momentan wieder in Hickhack zu versinken scheint - mich interessiert es einfach aus technischen Gründen, wie Bioware die Engine so verkorkst hat, dass sie Nvidia bei aktivierten Optionen dermassen Leistung kostet und wieso die vermeintliche Tesselierung dermassen hässlich ist. Wenn man das ganze nun mit Benches etc. aus dem Spiel belegen könnte und jemand mit etwas technischer Einsicht (und weniger bias als LZ) die Vermutungen kommentieren könnte...

deekey777
2011-03-17, 18:05:26
Ja, siehe PCGH Benches - also komm, dass Nvidia-Karten mehr Performance verlieren, lässt sich nicht abstreiten^^ PCGH (http://www.pcgameshardware.de/aid,815403/Dragon-Age-2-Grafikkarten-Benchmarks-mit-DirectX-11-und-DirectX-10-Radeons-vor-Geforce/Rollenspiel-Adventure/Test/)

.

Dragon Age 2: Technischer Hintergrund
Der Technik-Motor von Dragon Age 2 nennt sich "Eclipse" und arbeitet zusammen mit der PhysX-Bibliothek. Der Renderer kennt drei Stufen: DirectX 11, DirectX 10 und DirectX 9. Letzterer sieht am schlechtesten aus und ist nur für Nutzer sehr alter Karten empfehlenswert. Mit DirectX 10 (DX11-Pfad mit hohen Details) fügt das Spiel weiche Schatten und Partikel hinzu, auch Screen-Space Ambient Occlusion (SSAO) und die dynamische Beleuchtung sind aktiv. Die höchste Ausbaustufe, sehr hohe Details unter DirectX 11, protzen mit mehr Lichtquellen, Displacement Mapping, Tessellation, Contact Hardening Shadows und adaptiver Tiefenunschärfe sowie ein per Compute Shader berechneter Überstrahleffekt. Unter DX11/10 ist es zudem möglich, die anisotrope Filterung und die (optional herunterladbaren) Hi-Res-Texturen zu nutzen. Mehr Details erfahren Sie im Techniktest von Dragon Age 2.
Wie man unschwer in diesem Test erkennen kann, wurde High (ua mit SSAO) gegen Very High (höchste Stufe) getestet.

Gipsel
2011-03-17, 18:16:21
Dragon Age 2: Technischer Hintergrund

Wie man unschwer in diesem Test erkennen kann, wurde High (ua mit SSAO) gegen Very High (höchste Stufe) getestet.
Ich habe gade mal in die Tests geschaut. Eine HD6970 verliert von DX10 zu DX11 43% Leistung, eine GTX580 ebenfalls 43%. Hat sich LS' Argument gerade in Luft aufgelöst?

samm
2011-03-17, 18:16:28
Deekey: Ich glaube, wir reden aneinander vorbei^^ Eben da sieht man ja, dass Nvidia-Karten in diesem Spiel unüblich weit hinter AMD-Karten zurückfallen, welche sonst nichtmal annähernd Konkurrenten wären ;) Was mich eben interessieren würde, wäre SSAO on / off und der jeweilige Leistungsverlust, sowie eine Bestätigung der Idee, dass da nicht wirklich tesseliert sondern nur POM o.ä. verwendet wird (=> keine Glättung durch MSAA, merkwürdige Verformung je nach Blickwinkel).

Gispel: Nein, weil in DX 10 ja eben auch SSAO eingesetzt wird - das würde eher für LS's Theorie sprechen, dass SSAO unter DX11 auch auf DX10 PS basiert, eine Methode, die Nvidia schlechter vertragen als AMD. Würde unter DX 11 HDAO (wie in Battleforge) via CS berechnet, würde der Abstand zu ATI unter DX 11 kleiner werden als unter DX 10.

deekey777
2011-03-17, 18:26:32
Deekey: Ich glaube, wir reden aneinander vorbei^^ Eben da sieht man ja, dass Nvidia-Karten in diesem Spiel unüblich weit hinter AMD-Karten zurückfallen, welche sonst nichtmal annähernd Konkurrenten wären ;) Was mich eben interessieren würde, wäre SSAO on / off und der jeweilige Leistungsverlust, sowie eine Bestätigung der Idee, dass da nicht wirklich tesseliert sondern nur POM o.ä. verwendet wird (=> keine Glättung durch MSAA, merkwürdige Verformung je nach Blickwinkel).
.
Aus dem Startposting:
Es gibt keinen 100% sicheren Beweis, dass in Dragon Age 2 HDAO nicht über ComputerShader realisiert wird. Fakt ist jedoch, dass die Indizien sehr deutlich sind, dass dies nicht geschieht. Zum einen wird HDAO nicht in Verbindung mit ComputeShader gebracht, jedoch DirectCompute (Schnittstelle) in Bezug auf "bloom effects" genannt. Das zweite Beispiel ist der immense Leistungsverlust auf nVidia-Karten, wenn SSAO aktiviert wird. Es sind Verluste, die in keinem normalen Verhältnis mehr stehen. Ich habe z.B. einen Verlust von 42% dokumentiert. Der Verlust ist sehr auffällig und zeigt starke Tendenzen zu den Zahlen in Battleforge und Stalker.

Wie man unschwer erkennen kann, führt der TE den vermeintlichen Performance-Nachteil darauf zurück, weil unter DX11 das SSAO (wohl HDAO auf Very High) nicht über Compute Shader gelöst wird. Irgendwelche Zahlen, die das belegen, sehe ich nicht.

samm
2011-03-17, 18:39:04
Deekey: Gut, damit hätten wir wenigstens die Bestätigung, dass wir beide das gleiche wissen und sowohl LS's Posting als auch den PCGH-Test gleich verstanden haben, und gern Belege für LS's Theorie hätten^^

Coda
2011-03-17, 19:23:24
Ich habe gade mal in die Tests geschaut. Eine HD6970 verliert von DX10 zu DX11 43% Leistung, eine GTX580 ebenfalls 43%. Hat sich LS' Argument gerade in Luft aufgelöst?
Offensichtlich ja.

Ich würde da jetzt erstmal noch nen neuen Treiber abwarten von NVIDIA. Ich meine im Hinterkopf zu haben, dass der 270er-Branch eine bessere Performance abliefert in DA2.

fondness
2011-03-17, 19:31:12
Offensichtlich ja.

Ich würde da jetzt erstmal noch nen neuen Treiber abwarten von NVIDIA. Ich meine im Hinterkopf zu haben, dass der 270er-Branch eine bessere Performance abliefert in DA2.

PCGH konnte das offenbar nicht bestätigen:

Der geleakte Geforce 270.32 Beta soll die Leistung von Nvidia-Grafikkarten in Dragon Age 2 drastisch steigern, wir können dies nicht bestätigen. Im Rahmen der Messungenauigkeit erreichen wir die gleichen 34 Avg-Fps unter DirectX 11 wie mit dem Geforce Beta 267.24/26. Im Gegenzug produzierte die geleakte Version Bluescreens am laufenden Band. Wir haben Nvidia aufgrund der schwachen Geforce-Performance kontaktiert, bisher aber keine Rückmeldung erhalten.

http://www.pcgameshardware.de/aid,815403/Dragon-Age-2-Grafikkarten-Benchmarks-mit-DirectX-11-und-DirectX-10-Radeons-vor-Geforce/Rollenspiel-Adventure/Test/

Aber ich denke auch das NV hier noch viel Optimierungsspielraum hat.

PCGH_Carsten
2011-03-17, 19:59:10
Eine Diskussion mit dir ist mir einfach zu dumm.
HDAO ist ein DX11 Engine Feature:
http://www.pcgameshardware.de/aid,815403/Dragon-Age-2-Grafikkarten-Benchmarks-mit-DirectX-11-und-DirectX-10-Radeons-vor-Geforce/Rollenspiel-Adventure/Test/bildergalerie/?iid=1500220

Da steht übrigens auch, wofür Tessellation benutzt wird (und daraus folgt dann implizit, wofür nicht): „Smoother Terrain” - kein Displacement-Mapping an Bodenkacheln usw.

[…]und zweitens habe ich bis jetzt keine Möglichkeit gefunden, Dragon Age 2 in DX10 zu forcieren. Aber hier könnte jemand mit einer DX10.0 nVidia-Karte helfen.

Ein möglicher Workaround wäre Vista ohne Service Pack mit einer DX11-Karte, wenn keine DX10-Karte zur Hand ist, aber eine verfügbare Partition und eine (Trial)-Version von Vista.

Das ist kein Märchen.
Nur angucken, nicht füttern!

deekey777
2011-03-17, 20:21:06
...

Ein möglicher Workaround wäre Vista ohne Service Pack mit einer DX11-Karte, wenn keine DX10-Karte zur Hand ist, aber eine verfügbare Partition und eine (Trial)-Version von Vista.
!
Das Spiel setzt Vista SP 2 voraus.
Und wenn ich eure Artikel richtig verstanden habe, läuft alles über DX11 und die Qualitätseinstellungen über Hardware-Level gelöst wird: D3D11 Level 10 ist High und D3D11 Level 11 ist dann Very High.

Coda
2011-03-17, 20:23:45
Ja, es ist auch sinnlos die D3D10-Schnittstelle für D3D10 zu verwenden, wenn man eh D3D11 benutzt.

Ach verdammt, das lässt sich so schwer ausdrücken X-D

PCGH_Carsten
2011-03-17, 20:23:53
Das Spiel setzt Vista SP 2 voraus.

Das wusste ich nicht. Meine „Disc-less”-Copy quält sich seit gestern langsam durch den EA-Download-Manager (nie wieder!).

LovesuckZ
2011-03-17, 21:58:08
2. "sehr hoch" in Spiel 1 != "sehr hoch" in Spiel2
Du vergleichst sehr wahrscheinlich Äpfel mit Birnen.

Ich vergleiche den Leistungsverlust. Ich vergleiche nicht den Einsatz von unterschiedlichen Spielen nach der Optik. So sieht es z.B. in Stalker aus:
Link 10.1, rechts DX11
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39172&stc=1&d=1300395147


Und übrigens, Du verlierst mit HDAO in DA2 angeblich 42%. Das ist doch schon mal weniger als bei Battleforge mit DX10.1 über PS (58%). Verstehst Du, daß Du Deine Überzeugung alles andere als überzeugend dargelegt hast? Du benötigst wirklich den von mir angeregten Vergleich. ;)

Ich habe es schonmal gesagt: Lese die Postings richtig und reime dir nicht Dinge zusammen. Ich habe 42% anhand der Szene belegt. Der Leistungsverlust kann deutlich höher sein, z.B. auchmal 58% (Der schwarze Fleck kommt von den Wolken und hat keine Auswirkung auf die Zahlen):
http://www.abload.de/thumb/dragonage2_2011_03_17_e8c0.png (http://www.abload.de/image.php?img=dragonage2_2011_03_17_e8c0.png)

http://www.abload.de/thumb/dragonage2_2011_03_17_mjnd.png (http://www.abload.de/image.php?img=dragonage2_2011_03_17_mjnd.png)

Und schon sind wir wieder in Battleforge und Stalker-Bereich.
Vielleicht solltest du jetzt mal anfangen zu beweisen, dass ich falsch liege. Denn mehr als nichts kommt wiedermal nicht herum. Und diese langweiligen Zirkeldiskussionen mit dir, wo du nichts bringst ausser "kann nicht", "ist nicht", <habe ich mal wieder falsch verstanden>, sind mir am Ende zu ermüden. Daher landest du wieder auf der geistigen Ignore.

/edit: Und wenn dir 58% immer noch nicht als ausreichend gefallen, kann ich dir auch 61,2% anbieten:
http://www.abload.de/thumb/dragonage2_2011_03_17_xuzp.png (http://www.abload.de/image.php?img=dragonage2_2011_03_17_xuzp.png)
http://www.abload.de/thumb/dragonage2_2011_03_17_6ubu.png (http://www.abload.de/image.php?img=dragonage2_2011_03_17_6ubu.png)

Komischerweise bleibt der Verlust annährend gleich, trotzdem im zweiten Fall ein wesentlich größerer optischer Unterschied festzustellen ist. Man muss jetzt schon sehr verbohrt, um weiterhin die Meinung zu vertreten, dass SSAO in Dragon Age 2 in DX11 über CS realisiert wird.

BAGZZlash
2011-03-17, 22:17:31
Es könnten AMD User sagen: Pecht gehabt. Aber auch euch sollte gezeigt werden: Euch wird ca. 20-30% Mehrleistung vorenthalten. Anandtech.com (http://www.anandtech.com/show/2848/2) hat in Battleforge eine Steigerung von 22,5% gemessen. Wollt ihr darauf wirklich verzichten?

Bist Du nicht derjenige, der AMD-Usern immer vorwirft, sie würden nur auf lange Balken stehen und dafür auch auf Bildqualität(ssteigernde Features, wie z.B. HDAO eins ist) scheißen?


Was ich aber sagen und zeigen kann, ist, dass hier in keinster Weise Tessellation in Kombination mit Displacement Mapping angewendet wird, um diese Fläche und Objekte detailreicher werden zu lassen.
Du meinst jetzt, auf Deinem System? Verwendest Du nVidia oder ATI/AMD? :popcorn:

deekey777
2011-03-17, 22:18:25
Verstehe ich deine CoP-Benchwerte richtig: Wenn du von D3D10.1 auf D3D11 wechselst, bekommst du die bis zu dreifache Performance?

LovesuckZ
2011-03-17, 22:26:35
Verstehe ich deine CoP-Benchwerte richtig: Wenn du von D3D10.1 auf D3D11 wechselst, bekommst du die bis zu dreifache Performance?

Es ist weniger, da der DX11 Renderer selbst für eine Verbesserung sorgt. Der Zuwachs liegt also irgendwo zwischen 1,8x und 2,5x in den einzelnen Tests.


Ich würde da jetzt erstmal noch nen neuen Treiber abwarten von NVIDIA. Ich meine im Hinterkopf zu haben, dass der 270er-Branch eine bessere Performance abliefert in DA2.

Der Beta-Treiber für die GTX550 sorgt für eine Beschleunigung - jedoch nicht für SSAO sondern "sehr hoch". SSAO läuft unter "hoch" genauso schnell wie vorher, selbst "hoch" wird nicht schneller.

deekey777
2011-03-17, 23:01:35
Dann ist der Dx10-Renderer im Arsch?

LovesuckZ
2011-03-17, 23:03:47
Dann ist der Dx10-Renderer im Arsch?

Bei Stalker? Wieso? Weil es schneller wäre? Bestimmt nicht.
Und wenn es so wäre, müsste die Leistung ohne SSAO ja in der Nähe der Werte mit SSAO liegen. Aber dies ist mit nichten der Fall.

Coda
2011-03-18, 00:17:53
Kannst du dich bitte etwas genauer ausdrücken, ich kann dir nicht wirklich folgen.

deekey777
2011-03-18, 11:11:11
Bei Stalker? Wieso? Weil es schneller wäre? Bestimmt nicht.
Und wenn es so wäre, müsste die Leistung ohne SSAO ja in der Nähe der Werte mit SSAO liegen. Aber dies ist mit nichten der Fall.
Schritt zurück:
Warum haut der DX10.1-Renderer bei aktiviertem HDAO auf Ultra (PS) so rein? Wie ist die Performance mit DX10?

Wie wär's mit dieser Kombi: HDAO auf Ultra (PS) und DX11 (ggf. Tessellation aktivieren).

LovesuckZ
2011-03-18, 12:47:44
Schritt zurück:
Warum haut der DX10.1-Renderer bei aktiviertem HDAO auf Ultra (PS) so rein? Wie ist die Performance mit DX10?

Siehe Battleforge. Da gibt es keinen Unterschied zwischen 10 und 10.1. Stalker werde ich nacher nochmal testen.


Wie wär's mit dieser Kombi: HDAO auf Ultra (PS) und DX11 (ggf. Tessellation aktivieren).

Es gibt keine Pixelshaderrealisierung im DX11 Renderer - jedenfalls nicht im Benchmark.

Gipsel
2011-03-18, 20:38:27
Ich vergleiche den Leistungsverlust. Ich vergleiche nicht den Einsatz von unterschiedlichen Spielen nach der Optik.Was Du machst, ergibt überhaupt keinen Sinn. Wenn Du irgendwelche Stalker- oder Battleforge-Benches vergleichst, was sagt das genau über DA2 aus? Insbesondere wenn Du dort gleich noch von High auf Very High gehst (was zwischen verschiedenen Spielen natürlich nicht vergleichbar ist). Was Du erzählst, ergibt kein schlüssiges, in sich selbst stimmiges Argument.
Ich habe es schonmal gesagt: Lese die Postings richtig und reime dir nicht Dinge zusammen. Ich habe 42% anhand der Szene belegt. Der Leistungsverlust kann deutlich höher sein, z.B. auchmal 58% (Der schwarze Fleck kommt von den Wolken und hat keine Auswirkung auf die Zahlen):
Und? Die von Dir selbst verlinkten Zahlen von PCGH zeigen einen identischen Leistungsverlust bei DA2 für AMD- und nvidia-Karten. Wo befürwortet das Deine These einer Benachteiligung von nvidia? Weil Du glaubst, bei DX11 müßten nv-Karten automatisch schneller werden weil sie ja "designed for DX11" sind? Das ist PR-/Fanboy-Bullshit.
Wenn Du fragst, warum dort nv-Karten hinter AMD-GPUs zurückhängen, dann ist die Antwort, daß ihnen der workload wohl offensichtlich besser liegt. Genauso könnte man ja auch fragen, wieso AMD-GPUs bei HAWX/2 so hinter nv-Karten liegen. Und nein, es liegt nicht an Tess, auch ohne ist der Abstand enorm groß.
Man kann manchmal Shader nunmal so schreiben, daß sie auf AMDs mies laufen, oder man kann sie so schreiben, daß sie performant laufen. Und falls rohe Shaderpower wichtig für die Performance ist, dann sind die AMDs im letzteren Fall nunmal ziemlich schnell, egal ob mit DX10 oder DX11.
Vielleicht solltest du jetzt mal anfangen zu beweisen, dass ich falsch liege.Vielleicht solltest Du Deine These der Benachteiligung von nv mal irgendwie nachvollziehbar belegen? Ich sehe nur ein ziemlich identisches Verhalten bei Steigerung der Grafikanforderungen und dem Schritt von DX10 zu DX11.
Komischerweise bleibt der Verlust annährend gleich, trotzdem im zweiten Fall ein wesentlich größerer optischer Unterschied festzustellen ist. Man muss jetzt schon sehr verbohrt, um weiterhin die Meinung zu vertreten, dass SSAO in Dragon Age 2 in DX11 über CS realisiert wird.Was optisch als Verbesserung oder auch nicht wahrnehmbar ist, sagt ziemlich nahe Null über den damit verbundenen Aufwand aus.

Falls in DA2 die "Very high" Einstellung DX11-exklusiv ist (k.A. ob das so ist, habe das nie gesehen, aber es kommt ein wenig hier im Thread so rüber), dann sollte man ziemlich sicher davon ausgehen können, daß da DX11-Features benutzt werden.

Gipsel
2011-03-18, 20:52:36
Ja, siehe PCGH Benches - also komm, dass Nvidia-Karten mehr Performance verlieren, lässt sich nicht abstreiten^^ PCGH (http://www.pcgameshardware.de/aid,815403/Dragon-Age-2-Grafikkarten-Benchmarks-mit-DirectX-11-und-DirectX-10-Radeons-vor-Geforce/Rollenspiel-Adventure/Test/)
Nur um mal die Zahlen sprechen zu lassen:

DX10 DX11 DX11/DX10
HD6970: 87,8 49,9 56,8%
GTX580: 60,1 34,1 56,7%

Das ist auf das zehntel Prozent identisch (Meßunsicherheit). Man nehme für die GTX580 unter DX11 nur 0,1fps mehr und man wäre bei 56,9%. Das ist also so identisch, wie es bei einer Angabe mit 0,1 fps Auflösung nur irgendwie geht.

=> Da gibt es kein Argument irgendeiner Benachteiligung.

Gipsel
2011-03-18, 23:28:07
Also fassen wir mal den Thread zusammen.

Der TE stellt im Eingangsposting zwei Hauptthesen auf:

1.
Mit HDAO wird nvidia benachteiligt, da es nur über Pixel-Shader (die AMD angeblich bevorteilen) aber im DX11- Modus nicht über Compute-Shader realisiert wird.

Belege dafür: Fehlanzeige. Es wird versucht, mit relativen Leistungsverlusten/-gewinnen bei anderen Spielen zu argumentieren. Der Zusammenhang zu DA2 wird nirgendwo klar, zudem sich bei DA2 gleichzeitig auch die Qualitätsstufe der Darstellung ändert. Die Performance-Änderungen in DA2 bei nv und AMD sind allerdings absolut identisch, eine irgendwie selektiv geartete Benachteiligung unter DX11 wird somit nicht offenbar.

2.
Tessellation wird in einer Art und Weise eingesetzt, um "Hardwareschwächen zu verstecken", was zu Darstellungsproblemen führt, was mit Screenshots und Videos dokumentiert wird.

Problem dabei, die entsprechenden Dinge werden gar nicht durch Tessellation verursacht, weil sie dort offenbar gar nicht eingesetzt wird (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8629800#post8629800). Man kann Bioware vielleicht fragen, warum es nicht stärker eingesetzt wird oder warum offenbar der Content nicht so designed wurde, daß es weniger obskure Darstellungen mit dem Displacement/PO Mapping in einigen Situationen geben würde. Allerdings sollte man Eines nicht vergessen. Für den Content des Spiels ist der Entwickler verantwortlich, nicht irgendein GPU-Hersteller. Daß der TE offenbar alles nur Mögliche unternimmt, um die Verantwortung auf einen der GPU-Hersteller zu schieben, ist irgendwie nicht angemessen.

Ergo, der Thread verfehlt ziemlich klar seine eigene Intention (wenn man mal annimmt, daß es nicht nur um Bashing ging). M.M. wäre er mit einer anderen Überschrift besser im Spiele- oder meinetwegen auch im Technologieforum aufgehoben, wo man über die Schwächen der Implementation und des Contentdesigns diskutieren könnte. Der behauptete allgemeine Zusammenhang im Besonderen zu AMD ist nicht gegeben.

deekey777
2011-03-18, 23:46:20
GDC 2011: DirectX 11 in Dragon Age 2 (Andreas Papathanasis) (http://developer.amd.com/gpu_assets/DirectX%2011%20in%20Dragon%20Age%202.pps)
http://developer.amd.com/DOCUMENTATION/PRESENTATIONS/Pages/default.aspx

PCGH_Carsten
2011-03-19, 10:13:59
Ich kann natürlich nicht ganz sicher sein, und die Zahlen die mir vorliegen sind weder Beleg noch mehr als Anfangsindiz, aber es gibt (mindestens) noch eine andere Möglichkeit: Bioware hat den 10.1-Pfad für SSAO bei Nvidia absichtlich deaktiviert.

Bevor jetzt jemand „Skandal” schreit: Das HBAO10.1-Sample aus dem DX-SDK zeigt nämlich ziemlich häßliche Artefakte im 10.1-Pfad auf meiner Geforce GTX.
http://img860.imageshack.us/img860/1325/dxsdkhdao101dx100.th.png (http://img860.imageshack.us/i/dxsdkhdao101dx100.png/)

Uploaded with ImageShack.us (http://imageshack.us)
http://img29.imageshack.us/img29/2032/dxsdkhdao101dx101.th.png (http://img29.imageshack.us/i/dxsdkhdao101dx101.png/)

Uploaded with ImageShack.us (http://imageshack.us)

Zudem ist der Performancegewinn hier auch eher mäßig:
(HDAO10.1-Sample aus dem DX-SDK, 1920x1200 Fullscreen)
1704 MPix/s [100%]
523 MPix/s [30,6%] [-69,4%]
599 MPix/s [35,1%] [-64,9%] Verbesserung zu 10.0: [+14,5%]
(Wenn ich mich recht daran erinnere was ich gestern im Büro mal kurz ausprobiert hatte, legte eine aktuelle Radeon-Karte beim Einsatz des 10.1-Pfades deutlich stärker zu.)

Allerdgins

Angiesan
2011-03-19, 10:37:02
Es ist schon sehr erstaunlich, dass wenn ein AAA Titel mal nicht auf einer HW sehr gut läuft gleich solche Threads entstehen.

Es wird aber sehr wohl akzeptiert, das Spiel mit Treiberhacks AA beigebracht wird und dann selbst auf großen Seiten eben mit diesem getestet wird und dies dann auch noch in die Wertung für die HW einfießt obwohl kein deutlicher Vorteil ingame zu erkennen ist.

Ein gutes Beispiel ist SC2 dort ist ATi ohne AA sehr gut unterwegs und mit AA zieht die gesamte NV Riege vorbei.

Natürlich ist es immer ärgerlich, wenn Software XYZ oder Soiel XXX nicht auf der bevorzugten HW rund läuft aber hier gibt es eben genug Beispiele in beide Richtungen wobei ich anmerken möchte das es in der Vergangenheit ehe ATi getroffen hatte.

Das DA 2 nun auf NV nicht so läuft ist meiner Meinung nach jetzt nicht einen solchen Thread wert, zumal die Thesen die von dem Threadstarter aufgeführt werden nicht belegt sind.

Solange Spieleentwickler bewusst oder vielleicht auch unbewusst Entscheidungen treffen die einen HW Hersteller bevorzugen oder einen anderen benachteiligen sollte man sich von diesen fern halten oder eben wenn möglich auf eine Konsole ausweichen, aber selbst da findet man ja schon seit geraumer Zeit dieses Verhalten Spiel xxx sieht auf PS 3 besser aus oder Spiel XYZ rockt die XBox.

Da die heutigen Grafikkarten sehr komplex sind und DX11 eben nicht der Heilsbringer in der Angleichung der HW Vorraussetzungen ist wie man es hätte vermuten können müssen wir wohl mit solchen Erscheinungen leben spaßig ist das sicherlich nicht.

deekey777
2011-03-19, 11:54:31
Es ist schlüssig, wenn man in der Lage wäre Texte zu verstehen. Ich vergleiche den Leistungverlust von SSAO (hier HDAO). Wenn man das immer noch nicht verstanden hat, dann liegt das Problem auf der Seite des Empfängers und nicht beim Sender.
Der Thread ist groß, sind hier irgendwo Belege über Leistungsverlust durch HDAO PS <-> CS in DA2 zu finden?
Geht ja gar nicht, denn die These ist, dass in DA 2 HDAO nicht über CS läuft.
Also brauchen wir: DA2 mit HDAO und dann ohne bei gleichen Qualitätseinstellungen. Wäre doch schade, dass der Performancerückgang bei High -> Very High durch zusätzliche Features, die nur Very High bietet.



Auch hier haben wir wieder ein reines Verständnisproblem auf Seiten des Empfängers. Dies habe ich nirgendwo gesagt. Unterlasse es verdammt nochmal, Dinge hier zu schreiben, die niemand gesagt hat. Ich möchte dies noch nicht als "Lüge" bezeichnen, vielleicht hast du wirklich Probleme Texte richtig zu verstehen. Aber irgendwann werde ich auch keine Rücksicht darauf mehr nehmen.
Neuer Tag - neue Meinung?



Man muss schon sehr blind sein, um die Parallelen des Leistungsverlustet nicht zu erkennen. Das SSAO weiterhin kein aktivierbares Feature für DX11 Karten in Dragon Age 2 darstellt, solltest du langsam auch endlich mal kapiert haben. Und wenn dies so wäre, kannst du ja mal erklären, warum man es über PS und nicht CS realisieren sollte.
Es gibt keine Parallelen.
Wenn du die Vollversion des Spiels hast und dazu die entsprechende Hardware, wo bleibt die einfachste Grundlage für deine These: DA 2 mit HDAO und dann ohne bei gleichen Einstellungen.



Es geht hier nicht um "hoch" und "sehr hoch". Das habe ich nie angesprochen. Das ist wieder dein eigene Wahrnehmung, die niemand so geäußert hat.
Weil das dann deine angebliche Argumentationskette auseinanderreißt.


Die DX10-Lösung ist nicht im Arsch. Sie kostet auf nVidia-Hardware nur noch deutlich mehr Leistung als bei AMD.

Dann müssen deine Zahlen lügen. Oder glaubst du wirklich, dass du nur deswegen bis zu 2,5-fache Leistungssteigerungen bekommst, weil HDAO über CS läuft? Das glaubst ja wirklich.



Dein Problem ist, dass dein Wissenstand erstens minimal in Bezug auf Dragon Age 2 ist. Das ist aber ein Problem, dass ich hätte besser lösen können. :frown:
Was aber viel schlimmer ist, dass du Belege einfach nicht akzeptierst. Und dadurch, dass du sie einfach ablehnst ohne auch nur Gegenbeweise anzuführen, macht diese Diskussion keinen Sinn. Der größte Beweis, dass SSAO kein DX11 Feature ist, ist die Nichtbenennung von Bioware. Das in Kombination mit dem Leistungsverlust lässt ganz gar den Schluss zu, dass die Realisierung über PS geschieht. Es wäre jetzt dein Turn, mit Beweisen das Gegenteil zu zeigen. Vorallem zu zeigen, dass der Leistungsverlust in Dragon Age 2 auch so mit einer CS Umsetzung geschehen würde.

Wenn SSAO schon unter High verfügbar ist und so auf DX10-Hardware läuft, dann ist es was?
Aber das hat dir Gipsel schon hier gesagt:

Es ist kein DX11 Feature. Es kann ab 10.0 aktiviert werden.
Sollte man dann über eine Umbenennung des Threads nachdenken? In dem Fall sehe ich nämlich nicht, daß das irgendwas mit DX11 zu tun hat.
Und übrigens darf sich dann auch nv nicht beschweren, daß sie mehr Peformance als mit einer theoretischen Implementation über DX11 Compute Shader verlieren. Immerhin kommen dann auch ältere Karten in den (zweifelhaften) Genuß des Features.
Aber du raffst offenbar nicht, dass du die ganze Zeit über HDAO herziehst?
http://www.pcgameshardware.de/aid,815403/Dragon-Age-2-Grafikkarten-Benchmarks-mit-DirectX-11-und-DirectX-10-Radeons-vor-Geforce/Rollenspiel-Adventure/Test/bildergalerie/?iid=1500220
HDAO ist hier als DX11 Engine Feature aufgezählt. HDAO ist nicht einfach SSAO, es ist deutlich rechenintensiver, um so eine höhere viesuelle Qualität darzustellen. Es wird bei HDAO deutlich mehr gemacht.
Wenn in DA 2 unter High bloß SSAO eingesetzt wird, unter Very High dagegen HDAO, sollte man sich nicht wundern, dass das mehr kostet, oder?

Aber die These ist ja anders, sie lautet, dass das eingesetzte HDAO nicht über Compute Shader läuft und Besitzer einer DX11-Grafikkarte benachteiligt werden (das ist meine neutrale Version). Hier das Original:
Im Fall von Dragon Age wird jedoch kein Treiber der Welt Besserung bringen, weil vermutlich die Umsetzung von HDOA verantwortlich für den Leistungsverlust. Das selbe Problem existiert auch unter Stalker und Battleforge, wo nVidia-Karten mit 10.1 und HDOA deutlich langsamer sind.

Nur um mal aufzuzeigen, welche Auswirkung die falsche Implementierung von HDOA für nVidia-Karten haben kann, kann Battleforge herangeführt werden:

Selbe Einstellungen, SSOA auf sehr hoch:

DX10.0: 37,9(99% Auslastung)
DX10.1: 37,8(99% Auslastung) -> +0%
DX11.0: 71,0(90% Auslastung) -> +87%


Und jetzt ein Vergleich mit SSOA auf hoch:

DX10.1: 67,0(99% Auslastung)
DX11.0: 66,7(99% Auslastung)


Bioware verwendet also eine Umsetzung, die auf nVidia-Karten annährend nur mit 1/2 Geschwindigkeit läuft. Mit einer entsprechend anderen Umsetzung gäbe es bei selbiger Qualität ein deutlich besseres Ergebnis.
Man muss sich also fragen, wer bei Bioware auf die Idee kam, deren Implementierung nichtmal mit nVidia abzusprechen. Aber anscheinend kann man es sich leisten annährend 60% des Marktes zu verprellen...

...

Es ist mehr als offensichtlich, dass AMD wohl absichtlich keine HDOA Implementierung über DX11.0 und CS in Zusammenarbeit mit Bioware vorgenommen hat, weil dann nVidia deutlich besser abschneiden werde. Schon erstaunlich, dass die Presse hier so ruhig ist. Wird doch bei nVidia jeder Furz gleich seitenweise kommentiert und harsch gebasht...
Beweise für diese These gibt es weiterhin nicht.

Shadercode von HDAO in DA2? Fehlanzeige.

Performance-Unterschied zwsichen HDAO an <-> aus bei gleichen Qualitätseinstellungen? Fehlanzeige.

Was bekommen wir stattdessen?
In CoP-Bench sehen wird, dass Ultra(?)+HDAO auf Ultra (PS) unter DX10.1 überdeutlich langsamer ist als Ultra(?)+HDAO auf Ultra (CS) unter DX11.

...
...

Wie wär's mit dieser Kombi: HDAO auf Ultra (PS) und DX11 (ggf. Tessellation aktivieren).

Es gibt keine Pixelshaderrealisierung im DX11 Renderer - jedenfalls nicht im Benchmark.
Fällt was auf?
Hier wird ein DX10.1-Renderer mit DX11-Renderer verglichen. Ergibt das einen Sinn? Nein. Die Werte aus CoP-Bench sind für den Arsch.
Aber wir bekommen noch Zahlen aus Battleforge. Und dort scheint HDAO unter DX10.1 deutlich mehr zu kosten als über DX11, die Zahlen lügen ja nicht.
(Ich habe Demirug eine PM geschrieben, warum das so ist. Wer hat das noch gemacht?)
Können wir das auf DA 2 übertragen? Keinesfalls. Einmal haben wir immernoch keine Vergleichswerte mit und ohne HDAO (sondern nur High <-> Very High). Und dann: HDAO verliert nicht seinen Status als DX11-Feature, nur weil es nicht über CS läuft, schließlich bietet DX11 mit gather0 eine Neuerung, die gerade solche Effekte wie AO, Shadowmapping uvm beschleunigen kann.

Und bzgl. der Tessellation:
Bioware setzt die Tessellation so ein, wie es ihnen passt.

Gipsel
2011-03-19, 11:56:13
Ich vergleiche den Leistungverlust von SSAO (hier HDAO).Nun, die einzigen belastbaren Zahlen, die wir zum Vergleichen haben, sind DX10 "high" vs. DX11 "very high". Wie Du aus relativen fps-Verlusten im Vergleich zu anderen Spielen was Sinnvolles ableiten willst, bleibt im Moment Dein Geheimnis.
Vergleiche auch mit Deiner eigenen Aussage:
Das SSAO weiterhin kein aktivierbares Feature für DX11 Karten in Dragon Age 2 darstellt, solltest du langsam auch endlich mal kapiert haben.Was soll das denn heißen? Das würde Deine Argumntation noch mehr unterminieren. Du schreibst, man kann es gar nicht einzeln an- und abschalten (?) und damit den Leistungsverlust durch dieses Feature isoliert betrachten. Unter DX11 hast Du das dann wohl (zusammen mit anderen Sachen!) auf einer anderen Qualistufe laufen als unter DX10. Das führt Deine Argumentation völlig ad absurdum.

Ich habe doch schon längst gesagt, man benötigt mindestens einen Vergleich, der (bei gleichen Qualitätsstufen!) DX10 SSAO vs. DX11 SSAO auf nv und AMD vergleicht. Ansonsten wird das nix mit dem Argument.

Bei den verlinkten PCGH-Zahlen fällt eher auf, daß die HD6900er ein identisches Verhalten zur GTX580 zeigen, die HD5870 z.B. aber etwas mehr Leistung beim Schritt DX10->DX11 verliert.
Woran kann das jetzt liegen? Wenn Du Dir mal ein paar der von deekey verlinkten Präsentationen ansiehst (da wurde netterweise z.T. sogar HD5870 gegen GTX480 für verschiedene Implementationen des DDOF-Effekts gebencht), dann wirst Du erkennen, daß AMD für einige Effekte/Filter den Einsatz von "TGSM" (thread group shared memory, DX11 Compute Shader Bezeichnung für shared/local memory) empfiehlt. Der Zugriff darauf wurde mit den HD6900er-Karten gegenüber HD5800ern übrigens beschleunigt. Ob das was damit zu tun hat? Also irgendwas benutzt die DX11 Version von DA2, was es auf HD6900 relativ zur DX10-Version besser als auf HD5800 performen läßt.
Es geht hier nicht um "hoch" und "sehr hoch". Das habe ich nie angesprochen. Das ist wieder dein eigene Wahrnehmung, die niemand so geäußert hat.Hmm, wie gesagt, die einzigen verwertbaren Zahlen, hier im Thread betreffen aber nun mal DX10 high vs. DX11 very high. Du kannst dem ja abhelfen ;)
Der größte Beweis, dass SSAO kein DX11 Feature ist, ist die Nichtbenennung von Bioware. Das in Kombination mit dem Leistungsverlust lässt ganz gar den Schluss zu, dass die Realisierung über PS geschieht. Es wäre jetzt dein Turn, mit Beweisen das Gegenteil zu zeigen. Vorallem zu zeigen, dass der Leistungsverlust in Dragon Age 2 auch so mit einer CS Umsetzung geschehen würde.Die Shader für HDAO sind afaik schon vor einiger Zeit von AMD veröffentlicht worden, das ist kalter Kaffee. Das kann jeder benutzen, auch ohne eine Kooperation. Was mehr oder weniger in Kooperation mit AMD entstanden ist, ist z.B. das bei DA2 eingesetzte Diffusion DOF. Den Quellcode dafür bekommt man afaik inzwischen auch bei AMD.

Ach, ich sehe übrigens gerade, daß in den nv-Foren (http://forums.nvidia.com/index.php?showtopic=194951&st=100) die Leute SSAO durchaus einzeln an- und ausknipsen können. Die ersten Zahlen, die ich da gefunden habe sehen so aus (GTX470@1350/1750, 267.24, 4.25GHz DC, ohne AA/AF):
DX10, high (DDOF off, HQBlur off), AO on: 35-40 fps
DX10, high (DDOF off, HQBlur off), AO off: 90-110 fps

DX11, very high, DDOF on, HQBlur on, AO on: 18-24 fps
DX11, very high, DDOF on, HQBlur on, AO off: 28-35 fps

Weiß jemand, ob das AO unter DX10 und DX11 identisch ist, sprich, ob unter DX11 very high da irgendwas mehr gerechnet wird als unter DX10 high? Die aufgewandte Rechenzeit pro Frame scheint erstmal in einer ähnlichen Größenordnung zu liegen, sowie man das aus den doch eher ungenauen Zahlen ablesen kann. Aber da sieht man vielleicht schon, daß die Argumentation mit relativen Leistungsverlusten sowieso etwas an der Sache vorbei geht.
Kein Entwickler auf diesem Planeten hat bis heute solch eine fehlerhafte Implementierung für detailreiche Umgebung verwendet. Das soetwas im Zuge von DX11 und Tessellation als "Option" herangezogen wird, ist nicht ersichtlich und auch nirgendwo erklärbar. Das, was Bioware in ihrer DX11 Präsentation anspricht, ist außerdem ziemlich dreist. Sie benutzen kein Tessellation für die Objektflächendarstellung. Warum man also über etwas spricht, dass man wohl noch nichtmal irgendwo eingebaut hat, ist mir sehr befremdlich.
Hmm, also ich sehe da, daß sie sagen, wofür es benutzt wird und für was nicht. Ich wüßte jetzt auch nicht, daß es im Spiel anders ist als in der Präsentation behauptet.
Das soetwas in Kooperation mit AMD eingebaut wird, lässt tief blicken im Entwicklungsprozeß.Ich habe offenbar eine andere Vorstellung von so einer Kooperation. Wie schon jemand (ich glaube dildo4u ganz am Anfang des Threads) sagte, wird AMD ein paar Karten zur Verfügung gestellt haben. Und da werden ein paar Programmierer von AMD zusammen mit ein paar von Bioware (oder auch ohne die Bioware-Leute) an ein paar Algorithmen gebastelt haben (schau mal in die GDC-Präsentationen ;)), die dann Bioware nutzen konnte. Was ein Spieleentwickler dann hinterher damit anstellt, liegt aber nicht im direkten Einflußbereich eines GPU-Herstellers.
Es ist wohl ersichtlich, dass der Zusammenhang mit AMD ziemlich deutlich ist, wenn man in der Lage wäre, eine neutrale Position einzunehmen. Das wäre genauso als wenn ich sagen würde, dass Ubisoft und nVidia nicht an der Terraintessellationimplementierung in HAWX2 zusammengearbeitet hätten, weil die Spieleentwicklung ja Ubisoft's Sache wäre. Selbst nachdem darüber Präsentationen hat und DX11 mit Ubisoft bewirbt.Wie schon gesagt:
Algorithmen <=> Content

deekey777
2011-03-19, 14:00:12
...
Ach, ich sehe übrigens gerade, daß in den nv-Foren (http://forums.nvidia.com/index.php?showtopic=194951&st=100) die Leute SSAO durchaus einzeln an- und ausknipsen können.
Das ist sogar keine Hexerei.
Die ersten Zahlen, die ich da gefunden habe sehen so aus (GTX470@1350/1750, 267.24, 4.25GHz DC, ohne AA/AF):
DX10, high (DDOF off, HQBlur off), AO on: 35-40 fps
DX10, high (DDOF off, HQBlur off), AO off: 90-110 fps

DX11, very high, DDOF on, HQBlur on, AO on: 18-24 fps
DX11, very high, DDOF on, HQBlur on, AO off: 28-35 fps
Das Spiel nutzt ausschließlich DX11.

So oder so: Ändert das irgendwas an dieser Behauptung?
Bioware verwendet also eine Umsetzung, die auf nVidia-Karten annährend nur mit 1/2 Geschwindigkeit läuft. Mit einer entsprechend anderen Umsetzung gäbe es bei selbiger Qualität ein deutlich besseres Ergebnis.
Man muss sich also fragen, wer bei Bioware auf die Idee kam, deren Implementierung nichtmal mit nVidia abzusprechen. Aber anscheinend kann man es sich leisten annährend 60% des Marktes zu verprellen...
Nope! Sie ist weiterhin nicht bewiesen.

PCGH_Carsten
2011-03-19, 14:06:27
GDC 2011: DirectX 11 in Dragon Age 2 (Andreas Papathanasis) (http://developer.amd.com/gpu_assets/DirectX%2011%20in%20Dragon%20Age%202.pps)
http://developer.amd.com/DOCUMENTATION/PRESENTATIONS/Pages/default.aspx

Danke für den Link. Die GDC hatte ich dieses Jahr irgendwie überhaupt nicht mehr auf dem Radar!

Hast du die Präsentation mal durchgesehen? Auf Seite 8 werden die DX11-Engine-Features beschrieben. Tessellation, Depth of Field, Dynamic Lighting und Contact Hardening Shadows werden als DX11-Engine-Features beschrieben. Zu Ambient Occlusion habe ich da kein Wort gesehen.

Ein Indiz, welches LS These stützt, dass in DA2 Ambient Occlusion ohne Compute-Shader berechnet werden - mal völlig wertfrei.

deekey777
2011-03-19, 14:26:42
Danke für den Link. Die GDC hatte ich dieses Jahr irgendwie überhaupt nicht mehr auf dem Radar!

Hast du die Präsentation mal durchgesehen? Auf Seite 8 werden die DX11-Engine-Features beschrieben. Tessellation, Depth of Field, Dynamic Lighting und Contact Hardening Shadows werden als DX11-Engine-Features beschrieben. Zu Ambient Occlusion habe ich da kein Wort gesehen.
Das wundert mich auch. Um genauer zu sein: Da ist kein Wort über HDAO.
Aber was ist dann mit dem Slide bei euch?
Das ist doch ein Widerpruch. Einmal wird HDAO als DX11 Engine Feature gennant, dann aber in einer DX11-Präsentation unterschlagen?
Ergibt das für dich einen Sinn?


Ein Indiz, welches LS These stützt, dass in DA2 Ambient Occlusion ohne Compute-Shader berechnet werden - mal völlig wertfrei.
Moment, das stimmt nicht.
Seine These ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=504654
Im Fall von Dragon Age wird jedoch kein Treiber der Welt Besserung bringen, weil vermutlich die Umsetzung von HDOA verantwortlich für den Leistungsverlust. Das selbe Problem existiert auch unter Stalker und Battleforge, wo nVidia-Karten mit 10.1 und HDOA deutlich langsamer sind.

Nur um mal aufzuzeigen, welche Auswirkung die falsche Implementierung von HDOA für nVidia-Karten haben kann, kann Battleforge herangeführt werden:

Selbe Einstellungen, SSOA auf sehr hoch:

DX10.0: 37,9(99% Auslastung)
DX10.1: 37,8(99% Auslastung) -> +0%
DX11.0: 71,0(90% Auslastung) -> +87%


Und jetzt ein Vergleich mit SSOA auf hoch:

DX10.1: 67,0(99% Auslastung)
DX11.0: 66,7(99% Auslastung)


Bioware verwendet also eine Umsetzung, die auf nVidia-Karten annährend nur mit 1/2 Geschwindigkeit läuft. Mit einer entsprechend anderen Umsetzung gäbe es bei selbiger Qualität ein deutlich besseres Ergebnis.
Man muss sich also fragen, wer bei Bioware auf die Idee kam, deren Implementierung nichtmal mit nVidia abzusprechen. Aber anscheinend kann man es sich leisten annährend 60% des Marktes zu verprellen...

/edit: Und so sieht das ganze in Stalker: Call of Pripyat aus. Selbe Einstellungen, nur eben mit 10.x + HDOA über PS gegen 11.0 + HDOA über CS:

...

Es ist mehr als offensichtlich, dass AMD wohl absichtlich keine HDOA Implementierung über DX11.0 und CS in Zusammenarbeit mit Bioware vorgenommen hat, weil dann nVidia deutlich besser abschneiden würde. Schon erstaunlich, dass die Presse hier so ruhig ist. Wird doch bei nVidia jeder Furz gleich seitenweise kommentiert und harsch gebasht...

Mr. Lolman
2011-03-19, 14:39:05
Wo ist denn eigentlich das Problem?. Shader die den GraKas nicht passen, werden doch ohnehin vom Treiber getauscht, oder?

Außerdem wärs ja nix neues, dass SSAO bei den NV Karten nicht besonders flott ist - Siehe Burnout Paradise - ist ein TWIMTBP Spiel und bei aktivem SSAO brechen NV Karten auch deutlich stärker ein, als ATi Karten. Liegt vll an der Architektur. (Womöglich sind die VLIW Shader bei Ati durch SSAO so gut ausgelastet, dass der theoretische Vorteil, der sich sonst nur bei ein paar GPGPU Apps zeigt, auch mal in Spielen durchsickert. Oder ist das so abwegig?)


Bevor jetzt jemand „Skandal” schreit: Das HBAO10.1-Sample aus dem DX-SDK zeigt nämlich ziemlich häßliche Artefakte im 10.1-Pfad auf meiner Geforce GTX.

Seit Patch 1.5.08 schaut Stalker:CS auf NV-Karten genauso aus. (Wo wir wieder bei dem Punkt wären, dass ja ohnehin passend gemacht wird, was nicht passt - also wozu die Aufregung? Ich glaub LS ist wohl nur angepisst, weil die Tessellationsüberlegenheit der NV-Karten so garnicht in Spielen zu tragen kommt - und falls irgendwann doch, AMD schon die entsprechende Treiberantwort parat hat - und deswegen unterstellt er mal eben, dass AMD die doch eindeutig vorhandene DX11 Überlegenheit NVs irgendwie behindert)

y33H@
2011-03-19, 14:41:23
Mein du bei Stalker dieses üble Banding auf dem Boden?

deekey777
2011-03-19, 14:44:40
..



Seit Patch 1.5.08 schaut Stalker:CS auf NV-Karten genauso aus. (Wo wir wieder bei dem Punkt wären, dass ja ohnehin passend gemacht wird, was nicht passt - also wozu die Aufregung? Ich glaub LS ist wohl nur angepisst, weil die Tessellationsüberlegenheit der NV-Karten so garnicht in Spielen zu tragen kommt - und falls irgendwann doch, AMD schon die entsprechende Treiberantwort parat hat - und deswegen unterstellt er mal eben, dass AMD die doch eindeutig vorhandene DX11 Überlegenheit NVs irgendwie behindert)
Das sieht eigentlich auf allen Grafikkarten so aus.

Mr. Lolman
2011-03-19, 14:45:08
http://www.pcgameshardware.de/aid,676991/Stalker-Clear-Sky-Patch-1508-beschleunigt-Geforces/Action-Spiel/Test/

Das sieht eigentlich auf allen Grafikkarten aus so.

Stimmt.

PCGH_Carsten
2011-03-19, 14:49:15
Das wundert mich auch. Um genauer zu sein: Da ist kein Wort über HDAO.
Aber was ist dann mit dem Slide bei euch?
Das ist doch ein Widerpruch. Einmal wird HDAO als DX11 Engine Feature gennant, dann aber in einer DX11-Präsentation unterschlagen?
Ergibt das für dich einen Sinn?
Die Präsentationsslide auf pcgh.de ist aus dem Launch-Deck der HD 6990, welches AMD zu Marketingzwecken zur Verfügung stellt. Die DA2-Präsentation aus der GDC-Mappe ist von Entwicklern für Entwickler.

Es ist natürlich nicht auszuschließen, dass Bioware AO für nicht erwähnenswert hält, weil es keine besonders neue Technik ist.

Übrigens: In "Programming for AMD's Fusion" erklärt Huddy edit: ab Seite 36 auch, dass HDAO über die Pixelshader eine schlechte Idee sei. Das solle man über Direct Compute machen.
edit2: Er beschreibt dort die Pixelshader-Implementierung als Texture Fetch limitiert. Bis auf die ziemlich merkwürdig performende GTX 460 entsprechen die Fps-Ergebnisse in unserem Benchmark auch im Groben der Rangfolge der Texturleistung: http://www.pcgameshardware.de/aid,815403/Dragon-Age-2-Grafikkarten-Benchmarks-mit-DirectX-11-und-DirectX-10-Radeons-vor-Geforce/Rollenspiel-Adventure/Test/

Moment, das stimmt nicht.
Seine These ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=504654
Ich glaube nicht, dass LS da so genau zwischen AO allgemein, HBAO und HDAO unterscheidet. Seine These ist: Nvidia wird benachteiligt, weil kein für die Giftgrünen optimaler AO-Code genutzt wird.

deekey777
2011-03-19, 14:56:15
Die Präsentationsslide auf pcgh.de ist aus dem Launch-Deck der HD 6990, welches AMD zu Marketingzwecken zur Verfügung stellt. Die DA2-Präsentation aus der GDC-Mappe ist von Entwicklern für Entwickler.

Es ist natürlich nicht auszuschließen, dass Bioware AO für nicht erwähnenswert hält, weil es keine besonders neue Technik ist.

Übrigens: In "Programming for AMD's Fusion" erklärt Huddy auch, dass HDAO über die Pixelshader eine schlechte Idee sei. Das solle man über Direct Compute machen.
Das sagen sie immer. Und dafür gibt es sehr gute Gründe.
Auch haben sie schon 2009 gesagt, für HDAO oder überhaupt gather4 zu nutzen.
Egal: Offenbar gibt es nur eine AO-Lösung (ob HDAO oder "normal", steht nicht einmal fest), die überall gleich ist, egal welche Hardware drin ist.


Ich glaube nicht, dass LS da so genau zwischen AO allgemein, HBAO und HDAO unterscheidet. Seine These ist: Nvidia wird benachteiligt, weil kein für die Giftgrünen optimaler AO-Code genutzt wird.
Und diese These ist offensichtlich falsch.
http://www.pcgameshardware.de/aid,676991/Stalker-Clear-Sky-Patch-1508-beschleunigt-Geforces/Action-Spiel/Test/

Stimmt.
Und das kann man mit diesem Befehl abstellen:
r2_ssao_half_data off
Diese "interlaced"-Lösung kam erst mit Patch 1.5.08, der die Geforces beschleunigt hat.

PCGH_Carsten
2011-03-19, 15:02:34
Wo ist denn eigentlich das Problem?. Shader die den GraKas nicht passen, werden doch ohnehin vom Treiber getauscht, oder?
Ich glaube, so einfach ist das nicht mehr. Zu viele Spiele, zu viele Shader.

Außerdem wärs ja nix neues, dass SSAO bei den NV Karten nicht besonders flott ist - Siehe Burnout Paradise - ist ein TWIMTBP Spiel und bei aktivem SSAO brechen NV Karten auch deutlich stärker ein, als ATi Karten. Liegt vll an der Architektur. (Womöglich sind die VLIW Shader bei Ati durch SSAO so gut ausgelastet, dass der theoretische Vorteil, der sich sonst nur bei ein paar GPGPU Apps zeigt, auch mal in Spielen durchsickert. Oder ist das so abwegig?)

In Bezug auf Burnout Paradise ja - siehe mein Kommentar zur Huddy-Präsentation. Pixelshader-AO ist sehr texturintensiv.

PCGH_Carsten
2011-03-19, 15:03:53
Und diese These ist offensichtlich falsch.

Das ist mMn genausowenig bewiesen, wie deren Richtigkeit.

deekey777
2011-03-19, 15:17:50
Das ist mMn genausowenig bewiesen, wie deren Richtigkeit.
Moment.
Du sagst selbst, dass SSAO (unabhängig von wem) mittels CS 5 und gather0 beschleunigen lässt, zweifelst aber an der Unrichtigkeit der These, wonach AMD Inkaufnahme eigener Verluste Bioware dazu bewogen hat, AO nicht über CS 5 und gather0 laufen zu lassen, um so Nvidia schlechter stehen zu lassen?

Mr. Lolman
2011-03-19, 15:24:30
Ich glaube, so einfach ist das nicht mehr. Zu viele Spiele, zu viele Shader.

Neue Treiber beschleunigen häufig nur einzelnen Spiele. ;)

PCGH_Carsten
2011-03-19, 15:49:36
Moment.
Du sagst selbst, dass SSAO (unabhängig von wem) mittels CS 5 und gather0 beschleunigen lässt, zweifelst aber an der Unrichtigkeit der These, wonach AMD Inkaufnahme eigener Verluste Bioware dazu bewogen hat, AO nicht über CS 5 und gather0 laufen zu lassen, um so Nvidia schlechter stehen zu lassen?
Da du ja auf genaue Formulierungen wert legst: Ich sage gar nichts. Ich habe lediglich Huddys Präsentation zitiert.

Ausgangspunkt war, dass ich in der von dir verlinkten GDC-Präsentation von DA2-Entwickler Bioware keine Erwähnung von AO via CS gefunden habe. Daher deute ich das als Indiz, dass AO in DA2 nicht über ein DX11-exklusives Merkmal wie Compute-Shader realisiert wird

Neuer Zusatz: Da aber sowohl die DX-DSK-Implementation von PN Tessellation als auch Contact Hardening Shadows, die beide außerdem nicht zum ersten Mal in einem Spiel vorkommen, im Gegensatz zu Ambient Occlusion erwähnt werden, denke ich, dass die fehlende Erwähnung von AO in der Präsentation durchaus nicht zufällig passierte.

Neue Treiber beschleunigen häufig nur einzelnen Spiele. ;)
Mach doch bitte dafür einen neuen Thread auf.

LovesuckZ
2011-03-20, 02:06:07
Außerdem wärs ja nix neues, dass SSAO bei den NV Karten nicht besonders flott ist - Siehe Burnout Paradise - ist ein TWIMTBP Spiel und bei aktivem SSAO brechen NV Karten auch deutlich stärker ein, als ATi Karten. Liegt vll an der Architektur. (Womöglich sind die VLIW Shader bei Ati durch SSAO so gut ausgelastet, dass der theoretische Vorteil, der sich sonst nur bei ein paar GPGPU Apps zeigt, auch mal in Spielen durchsickert. Oder ist das so abwegig?)

Es geht hier um HDAO und die Realisierung über Pixelshader und nicht SSAO an sich. Andere Spiele bieten ebenfalls eine SSAO Implementierung an, wo nVidia-Karten deutlich besser performen. Hier sei z.B. Bad Company 2 genannt, das auf HBAO setzt.


Seit Patch 1.5.08 schaut Stalker:CS auf NV-Karten genauso aus. (Wo wir wieder bei dem Punkt wären, dass ja ohnehin passend gemacht wird, was nicht passt - also wozu die Aufregung? Ich glaub LS ist wohl nur angepisst, weil die Tessellationsüberlegenheit der NV-Karten so garnicht in Spielen zu tragen kommt - und falls irgendwann doch, AMD schon die entsprechende Treiberantwort parat hat - und deswegen unterstellt er mal eben, dass AMD die doch eindeutig vorhandene DX11 Überlegenheit NVs irgendwie behindert)

Macht sinn. Vorallem, weil die Überlegenheit auch auch dann zum Tragen kommen sollte, wenn überhaupt kein Tessellation im großen Stil angewendet wird. :lol:
Auch hier die Bitte keinen Unsinn zu schreiben.

/edit: Ich habe soeben Dirt:2 getestet. Hier wird HDAO für DX11 Karten per CS realisiert. Der Leistungsverlust beträgt auf einer GTX580 zwischen "Low" und "High" weniger als 10% bei 99% GPU-Auslastung.
Es ist wohl klar, dass HDAO in Dragon Age 2 nicht über CS für DX11 Karten realisiert wird und es auch keinen ersichtlichen Grund gibt, warum im Jahr 2011 auf solch eine Implementierung verzichtet wird.

Mr. Lolman
2011-03-20, 09:39:47
Du kannst nicht unterschiedliche Einstellungen bei unterschiedlichen Spielen (die unterschiedliche Engines nutzen) nicht miteinander vergleichen und aufgrund der fps-Unterschiede in völlig nichtssagenden Einstellungen darauf rückschliessen dass Implementierung X absichtlich schlechter ist, als Implementierung Y. Das Spielen einfach zuviele andere Faktoren mit.

Oder im Klartext: Du meinst, bei Dragon Age 2 ist die Implementierung von HDAO schlecht weils auf NV-Karten zuviel Performance kostet. Wer sagt dir, dass es nicht einfach so ist, dass der restliche GPU-Load von Dragon Age 2 viel geringer ist, als bei Dirt2 und deswegen der Performance Impact von HDAO vglw. hoch ausfällt?


EDIT: Jedenfalls hast dus geschafft, dass ein Googlen nach "HDAO Compute Shader" als erstes Ergebnis "AMD/ATI - und DX11 - Vom Vorzeige- zum Problemkind" bringt ;)

=Floi=
2011-03-20, 09:59:59
eher verursacht der rest von DA2 einen höheren gpu-load und deswegen bricht die nv mehr ein. das wäre imho logischer, weil ati einfach mehr Arithmetikleistung hat...


imho hängt das suchergebnis eher von adsense ab, weil auch sonst viele ergebnisse bei mir mit CB und dem 3dcenter zusammenhängen.

Screemer
2011-03-20, 10:53:59
eher verursacht der rest von DA2 einen höheren gpu-load und deswegen bricht die nv mehr ein. das wäre imho logischer, weil ati einfach mehr Arithmetikleistung hat...

und genau das sollte man betonen. du lz vergleichst dauernt zwei unterschiedliche qualtitätsstufen miteinander. wer zum geier sagt dir, dass da nur hdao zugeschaltet wird und sonst nix? vor allem weil sowohl amd als nv karten gleichermaßen wegkicken. deine argumentation ist echt zum brechen.

PCGH_Carsten
2011-03-20, 11:25:55
Von „high” auf „very high” wird garantiert noch mehr zugeschaltet als Ambient Occlusion. Zum Beispiel das Parallax/Displacement-Mapping für den Boden, in dem die Füße der Spielfiguren versinken.

Der Leistungseinbruch auf einer GTX 480 ist jedenfalls ziemlich heftig. Ich habe gerade mal den Spielstand geladen, wo ich gerade bin (Sundermount). Auch ohne die drei Checkboxen für „Screen Space Ambient Occlusion”, „Diffusion Depth of Field” und „High Quality Blur” gehen die Fps dabei von ~50 auf ~9 herunter (in 2560x1600); nur beim Wechsel von „high” auf „very high” wohlgemerkt. Ambient Occlusion allein sollte demnach nicht für den massiven Einbruch verantwortlich sein.

deekey777
2011-03-20, 11:58:55
Es geht hier um HDAO und die Realisierung über Pixelshader und nicht SSAO an sich. Andere Spiele bieten ebenfalls eine SSAO Implementierung an, wo nVidia-Karten deutlich besser performen. Hier sei z.B. Bad Company 2 genannt, das auf HBAO setzt.



Macht sinn. Vorallem, weil die Überlegenheit auch auch dann zum Tragen kommen sollte, wenn überhaupt kein Tessellation im großen Stil angewendet wird. :lol:
Auch hier die Bitte keinen Unsinn zu schreiben.

/edit: Ich habe soeben Dirt:2 getestet. Hier wird HDAO für DX11 Karten per CS realisiert. Der Leistungsverlust beträgt auf einer GTX580 zwischen "Low" und "High" weniger als 10% bei 99% GPU-Auslastung.
Es ist wohl klar, dass HDAO in Dragon Age 2 nicht über CS für DX11 Karten realisiert wird und es auch keinen ersichtlichen Grund gibt, warum im Jahr 2011 auf solch eine Implementierung verzichtet wird.
Es ist auch nicht klar, dass DA II überhaupt HDAO nutzt.

puntarenas
2011-03-21, 08:20:42
Damit der Thread nicht weiter in eine unschöne Flamewar-Richtung abdriftet, habe ich ein paar "Beiträge" gelöscht.

Thema hier: Dragon Age II - Ineffizientes SSAO? Fragwürdiges Displacement Mapping?

Gipsel
2011-03-21, 18:50:00
So, nach einem groben Durchkehren mal ins Technologie-Forum geschoben (zum zweiten Mal, hoffentlich diesmal mit richtig gesetzten quotelinks).

Ich bitte um eine sachliche Diskussion.

Screemer
2011-03-22, 01:22:53
nach dem sich die gemüter jetzt 2 tage erhitzt haben und schon richtig gehend explodiert sind wird hier wohl nix produktives mehr passieren. die geschichte und eine nüchterne herangehensweise hätte mich wirklich interessiert.

deekey777
2011-03-22, 12:15:28
Nüchtern:
SSAO ist ein sehr rechenintensives Feature. In DA 2 kann man es in den Stufen Hoch und Sehr Hoch aktivieren, dabei ist es schon auf DX10-Grafikkarten verfügbar, was dafür spricht, dass diese Lösung über Pixelshader läuft und dazu wohl nich von den zusätzlichen Fähigkeiten der DX10.1- und DX11-Grafikkarten Gebrauch macht, die SSAO beschleunigen können.
Da Bioware SSAO nicht über Compute Shader laufen lässt, wird viel Leistung verschenkt. Da Bioware wohl nicht einmal DX10.1-Features wie gather4 nutzt, wird Leistung verschenkt. Und das darf eigentlich nicht sein.

PCGH_Carsten
2011-03-22, 13:01:25
Texture-Fetch-intensives…

Gipsel
2011-03-22, 15:56:23
Nüchtern:
SSAO ist ein sehr rechenintensives Feature. In DA 2 kann man es in den Stufen Hoch und Sehr Hoch aktivieren, dabei ist es schon auf DX10-Grafikkarten verfügbar, was dafür spricht, dass diese Lösung über Pixelshader läuft und dazu wohl nich von den zusätzlichen Fähigkeiten der DX10.1- und DX11-Grafikkarten Gebrauch macht, die SSAO beschleunigen können.
Da Bioware SSAO nicht über Compute Shader laufen lässt, wird viel Leistung verschenkt. Da Bioware wohl nicht einmal DX10.1-Features wie gather4 nutzt, wird Leistung verschenkt. Und das darf eigentlich nicht sein.
Deshalb habe ich das ja schon mal gefragt, aber verhält sich SSAO unter "high" genau so wie unter "very high"? Man kann ja die Qualität (und den Aufwand) der SSAO-Lösung recht einfach über der Größe der betrachteten Umgebung skalieren.

Mr. Lolman
2011-03-22, 17:56:54
Ich wollt hier nur mal anmerken, dass SSAO (unabhängig von dessen Realisierung) ein absolut geiles Feature ist. U.A. deswegen hab ich wieder angefangen GTA-SA zu spielen. :biggrin:

y33H@
2011-03-30, 18:13:44
Nvidia hat es per Treiber gerade gebogen (DX11 wie DX10). Tja, dann mal munter weiter spekulieren ;D

Woran auch immer es gelegen hat, der Beta-Treiber Geforce 270.51 rückt die Verhältnisse wieder gerade - zumindest was die Fps anbelangt: So rechnet die Geforce GTX 570 mit dem Beta-Treiber Geforce 270.51 um 57 Prozent schneller als noch mit dem Geforce 267.24 WHQL.

http://www.pcgameshardware.de/aid,818227/Geforce-27051-im-Kurztest-steigert-Leistung-von-GTX-570-und-Co-um-knapp-60-Prozent/Grafikkarte/News/

Spasstiger
2011-03-30, 18:56:55
War zu erwarten, dass NV auf die schwachen Performancewerte reagiert. Habt ihr überprüft, ob sich die Optimierungen auf die Bildqualität auswirken?

y33H@
2011-03-30, 19:13:40
Habt ihr überprüft, ob sich die Optimierungen auf die Bildqualität auswirken?Siehe Text:
Im Kurztest konnten wir keine Verschlechterung oder Änderung der Bildqualität durch den Beta-Treiber Geforce 270.51 erkennen, prüfen dies aber derzeit im Detail und im Gespräch mit Nvidia.

Gipsel
2011-03-31, 02:03:44
Nvidia hat es per Treiber gerade gebogen (DX11 wie DX10). Tja, dann mal munter weiter spekulieren ;D
Nun, alles was das sagt, ist doch, dass jegliche Verschwoerungstheorie die hier vielleicht mal durch den Thread gegeistert ist, wie erwartet an den Haaren herbeigezogener Bloedsinn war. :rolleyes:

Also schoen weiter gehen, hier gibt es nichts zu sehen ...

Mr. Lolman
2011-03-31, 08:01:50
Siehe Text:

Im Gespräch mit Nv soll rauskommen, ob die BQ verschlechtert wurde?

boxleitnerb
2011-03-31, 08:36:52
Naja wann hat Nvidia das letzte Mal bei der BQ absichtlich (kein Bug!) gecheatet? Seit mind. 2006 nicht mehr afaik, eher länger. NV hat das Vertrauen imo wieder aufgebaut.

PCGH_Carsten
2011-03-31, 11:01:22
Nun, alles was das sagt, ist doch, dass jegliche Verschwoerungstheorie die hier vielleicht mal durch den Thread gegeistert ist, wie erwartet an den Haaren herbeigezogener Bloedsinn war. :rolleyes:
Wieso sagt/beweist es das?

deekey777
2011-03-31, 11:05:28
Im Gespräch mit Nv soll rauskommen, ob die BQ verschlechtert wurde?
Also wirklich: Was soll das?
Ist der Satz so missverständlich?
Nun, alles was das sagt, ist doch, dass jegliche Verschwoerungstheorie die hier vielleicht mal durch den Thread gegeistert ist, wie erwartet an den Haaren herbeigezogener Bloedsinn war. :rolleyes:

Also schoen weiter gehen, hier gibt es nichts zu sehen ...
Ach komm: Es ist ein AMD-Spiel, Nvidia hat keine Vorabversionen bekommen, so dass sie ihre Treiber nicht optimieren konnten.

Gipsel
2011-03-31, 13:04:50
Wieso sagt/beweist es das?
Hast Du zufällig Euren eigenen, von y33h@ verlinkten Artikel nicht gelesen? ;)

Die Performanceverhältnisse AMD/nvidia sind unter allen Settings im normalen Bereich von anderen Spielen. Es bleiben keine auffälligen Performanceanomalitäten übrig, die als Anhaltspunkt für irgendeine AMD-Bevorteilung/nv-Benachteiligung ausgegeben wurden (nicht, daß sie es jemals waren). Nvidias Treiber waren anfangs für DA2 schlicht mies. Das soll ja vorkommen, laut diverser Aussagen hier im Forum bei den AMD-Treibern wohl sogar etwas häufiger als bei nv. :rolleyes:

Allerdings beantwortet das die Frage des Threadtitels noch nicht. Man sollte sich deshalb vielleicht wieder dieser zuwenden (ja ich weiß, ich habe das rausgekramt, aber trotzdem).

deekey777
2011-03-31, 13:13:13
Carsten hat die These von LS längst auf die Frage, ob SSAO über CS läuft oder nicht, reduziert.

Mr. Lolman
2011-03-31, 13:14:23
Also wirklich: Was soll das?
Ist der Satz so missverständlich?

Ja wirklich - was soll das? Offensichtlich ist er so missverständlich, sonst würdest du mich nicht anfahren:


Im Kurztest konnten wir keine Verschlechterung oder Änderung der Bildqualität [...] erkennen, prüfen dies aber derzeit im Detail und im Gespräch mit Nvidia.


=> Ob sich die BQ geändert, oder verschlechtert hat, wird u.A. im Gespräch mit NV geprüft.
=> Meine Frage war: "Im Gespräch mit Nv soll rauskommen, ob die BQ verschlechtert wurde?"

Wo ist das Problem?
:freak:

deekey777
2011-03-31, 13:22:32
Ja wirklich - was soll das? Offensichtlich ist er so missverständlich, sonst würdest du mich nicht anfahren:



=> Ob sich die BQ geändert, oder verschlechtert hat, wird u.A. im Gespräch mit NV geprüft.
=> Meine Frage war: "Im Gespräch mit Nv soll rauskommen, ob die BQ verschlechtert wurde?"

Wo ist das Problem?
:freak:
Es ist doch offensichtlich, wie dieser Satz gemeinst ist: "Wir prüfen im Detail."
Deine Frage ist Klugscheißern^10.

Nvidia hat es per Treiber gerade gebogen (DX11 wie DX10). Tja, dann mal munter weiter spekulieren ;D



http://www.pcgameshardware.de/aid,818227/Geforce-27051-im-Kurztest-steigert-Leistung-von-GTX-570-und-Co-um-knapp-60-Prozent/Grafikkarte/News/
Hast du Zahlen unter High? Mit und ohne SSAO mit altem und neuem Treiber?

y33H@
2011-03-31, 15:06:31
Nur High mit SSAO.

PCGH_Carsten
2011-04-01, 09:08:32
Hast Du zufällig Euren eigenen, von y33h@ verlinkten Artikel nicht gelesen? ;)
Doch, aber unter anderem du warst einer derjenigen, die (zu Recth) auf hieb- und stichfeste Beweise gepocht haben bezüglich von LS Verschwörungstheorie. Nun frage ich dich, inwiefern die Aussage „Nvidia hat es per Treiber geradegebogen” den Blödsinnsgehalt diverser Intra-Thread-Verschwörungstheorien beweist?

Für den Fall, dass du wirklich nicht weißt, was ich meine: Zumindest ist bewiesen, dass Nvidia unbequeme Shader/Instruktionsfolgen durch Geforce-genehmere im Treiber ersetzen kann – eine bahnbrechende Entdeckung, was? Falls es denn wirklich ein böses Codefragment war, welches die Geforces nicht mochten, was natürlich ebensowenig bewiesen ist.

Möglicherweise legt die neue Performance-Verteilung auch nahe, dass die neuen Treiber das Bild nun anders darstellen und so weniger Aufwand erzeugen. Oder, oder oder - es gibt viele Möglichkeiten. Daher meine Nachfrage an dich, wieso du jetzt auf einmal so schnell eine Schlußfolgerung zu ziehen bereit bist.

Labberlippe
2011-04-01, 11:18:24
Hi

Ich glaube kaum das hier wirklich was an BQ gespart wurde, soviel Steigerung würde man dann nicht zusammen bekommen ohne das es grossartig auffällt.
Vielleicht findet man 1-2 kleine Details mehr aber auch nicht.

Shaderreplacment ist eher realistischer.

Gruss Labberlippe

deekey777
2011-04-01, 13:39:48
Doch, aber unter anderem du warst einer derjenigen, die (zu Recth) auf hieb- und stichfeste Beweise gepocht haben bezüglich von LS Verschwörungstheorie. Nun frage ich dich, inwiefern die Aussage „Nvidia hat es per Treiber geradegebogen” den Blödsinnsgehalt diverser Intra-Thread-Verschwörungstheorien beweist?
Die Verschwörungstheorie ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8623094#post8623094
Es ist mehr als offensichtlich, dass AMD wohl absichtlich keine HDOA Implementierung über DX11.0 und CS in Zusammenarbeit mit Bioware vorgenommen hat, weil dann nVidia deutlich besser abschneiden werde. Schon erstaunlich, dass die Presse hier so ruhig ist. Wird doch bei nVidia jeder Furz gleich seitenweise kommentiert und harsch gebasht...


Ergänzend:
Im Fall von Dragon Age wird jedoch kein Treiber der Welt Besserung bringen, weil vermutlich die Umsetzung von HDOA verantwortlich für den Leistungsverlust. Das selbe Problem existiert auch unter Stalker und Battleforge, wo nVidia-Karten mit 10.1 und HDOA deutlich langsamer sind.

Irgendwie beißt sich da was.

Für den Fall, dass du wirklich nicht weißt, was ich meine: Zumindest ist bewiesen, dass Nvidia unbequeme Shader/Instruktionsfolgen durch Geforce-genehmere im Treiber ersetzen kann – eine bahnbrechende Entdeckung, was? Falls es denn wirklich ein böses Codefragment war, welches die Geforces nicht mochten, was natürlich ebensowenig bewiesen ist.
Zusammenhang zur These "Nvidia wird durch die gewählte SSAO-Lösung benachteiligt"?

Möglicherweise legt die neue Performance-Verteilung auch nahe, dass die neuen Treiber das Bild nun anders darstellen und so weniger Aufwand erzeugen. Oder, oder oder - es gibt viele Möglichkeiten. Daher meine Nachfrage an dich, wieso du jetzt auf einmal so schnell eine Schlußfolgerung zu ziehen bereit bist.
Also cheatet Nvidia, um ihrer Benachteiligung entgegenzuwirken?

Ich mache es ganz einfach:
Der neue Treiber bringt Verbesserungen in DA2. Welche These kann damit gestützt werden:
a) Es gibt eine absichtliche Benachteiligung von Nvidia durch AMD&Bioware.

b) Die vorherigen Treiber waren Scheiße.

Übrigens:
http://www.pcgameshardware.de/aid,696333/AMD-gegen-Nvidia-Schwere-Vorwuerfe-wegen-angeblicher-Benachteiligung-in-Batman-Update-Batman-Gate/Grafikkarte/News/
Objektiv betrachtet klingt die Unterstellung, Entwickler würden absichtlich Spiele mit schwerwiegenden Bugs veröffentlichen, etwas absurd. Eine derartige Einstellung würde den PC als Spiele-Plattform langfristig schaden, weshalb es sich wohl kaum ein Entwickler leisten kann, bewusst fehlerbehaftete Spiele auszuliefern. Dass speziell Batman: Arkham Asylum auf Nvidia-Grafikkarten besser läuft, ist angesichts der bekannten Marketing-Unterstützung nicht weiter verwunderlich (das Spiel wird mit vielen Nvidia-Karten gebundelt). Ähnliches kann man auch bei AMD-gesponsorten Spielen wie Dirt 2 erwarten. Allerdings darf so eine Zusammenarbeit grundsätzlich nie zulasten der Mitbewerber gehen.

y33H@
2011-04-01, 13:45:59
c) = a) + b) ;D

Gipsel
2011-04-01, 15:40:08
Es ist wie gesagt OT, deswegen nur kurz.

Zuerst, siehe deekey.
Dann:
Doch, aber unter anderem du warst einer derjenigen, die (zu Recth) auf hieb- und stichfeste Beweise gepocht haben bezüglich von LS Verschwörungstheorie. Nun frage ich dich, inwiefern die Aussage „Nvidia hat es per Treiber geradegebogen” den Blödsinnsgehalt diverser Intra-Thread-Verschwörungstheorien beweist?
Die Performanceverhältnisse AMD/nvidia sind unter allen Settings im normalen Bereich von anderen Spielen. Es bleiben keine auffälligen Performanceanomalitäten übrig, die als Anhaltspunkt für irgendeine AMD-Bevorteilung/nv-Benachteiligung ausgegeben wurden (nicht, daß sie es jemals waren).
Keine Auffälligkeiten => Occam's Razor => Done.
Oder, oder oder - es gibt viele Möglichkeiten. Daher meine Nachfrage an dich, wieso du jetzt auf einmal so schnell eine Schlußfolgerung zu ziehen bereit bist.
Es gibt immer viele Möglichkeiten, die sich an den Haaren herbei ziehen lassen (edit: das ist erstmal keine Bewertung eines Faktes sondern in erster Linie eine Bewertung der Argumente). Die Frage ist: Gibt es handfeste Belege für von der einfachsten Antwort abweichende Möglichkeiten? ;)

Desweiteren bin ich immer noch der Meinung, daß das nicht wirklich Thema des Threads ist.

Coda
2011-04-01, 19:56:24
Desweiteren bin ich immer noch der Meinung, daß das nicht wirklich Thema des Threads ist.
Dito. Wird irgend ein Treiber-Problem gewesen sein, das DA2 getriggrert hat.

PCGH_Carsten
2011-04-01, 20:11:20
Gipsel,
Tut mir leid, deekey sehe ich nicht.

Aber dass du (inbesondere in Anbetracht deiner vorigen Argumentation in der „First Edition” dieses Threads) eine, ich sage es jetzt mal ganz neutral, Performance-Anomalie, die mit einem neuen Treiber behoben wurde, als Anhaltspunkt dafür sehen willst, dass eine vorige Argumentation an den Haaren herbeigezogen ist, finde ich, wiederum neutral, inkonsequent.

Die wenigen Fakten sprechen für sich:
- DA2 zeigt anfangs ein recht untypisches Performance-Verhalten im Vergleich zu anderen Titeln, auch Gaming-Evolved-Titeln
- Ein neuer Treiber erscheint, welcher auf der Geforce eine eher den Erwartungen entsprechende Performance erzeugt

Das Thema dieses Threads ist die „untypische” Performance von DA2, dazu gehört sowohl die Ursache (welche auch immer das ist: ineffizientes SSAO oder anderes?) und auch, wie genau das behoben wurde. Insofern sehe ich das durchaus nicht als OT an.

hq-hq
2011-04-01, 21:01:08
der neue 270.51 bringt gefühlt doppelt soviele FPS wie die vorangegangenen,
aber es riecht schon nach "a) Es gibt eine absichtliche Benachteiligung von Nvidia durch AMD&Bioware."
ganz einfach aus dem Grund weil ich installier das Game + Hi-Res Texturen und stell alles auf Max und starte das Spiel, was sehe ich -> Grafikfehler bei ca 5 - 10 fps
das ist schon ein schlag ins Gesicht für alle NVidia Nutzer ;(

Coda
2011-04-01, 21:18:53
Es ist extrem schwer mit D3D11 irgendwas absichtlich so auf einen Hersteller zu "optimieren", dass es auf dort sehr schnell und auf dem anderen extrem schlecht läuft. Deshalb halte ich es wie Gipsel.

Wie gesagt ist die wahrscheinlichere Erklärung, dass da ein Treiberproblem entstanden ist durch eine bestimmte Rendertechnik.

Was man Bioware ankreiden kann ist, dass sie offensichtlich keine Performancetests auf NVIDIA-Karten gemacht haben. Das ist schon ziemlich seltsam.

Knuddelbearli
2011-04-01, 21:37:39
tja willkommen im club so gehts es AMD Usern bei vielen NV play spielen

Gipsel
2011-04-01, 23:43:57
Aber dass du (inbesondere in Anbetracht deiner vorigen Argumentation in der „First Edition” dieses Threads) eine, ich sage es jetzt mal ganz neutral, Performance-Anomalie, die mit einem neuen Treiber behoben wurde, als Anhaltspunkt dafür sehen willst, dass eine vorige Argumentation an den Haaren herbeigezogen ist, finde ich, wiederum neutral, inkonsequent.Nein. Mit dem Verschwinden der Performance-Anomalien ist auch so ziemlich das letzte Argument, was man vielleicht als Unterstuetzung fuer die VT interpretieren konnte, schlicht verschwunden. Vorher passte die VT schon nicht mit den in aller Konsequenz zu Ende gedachten Argumenten. Jetzt passt es zu kaum noch was. Da gibt es nichts Inkonsequentes.
Die wenigen Fakten sprechen für sich:
- DA2 zeigt anfangs ein recht untypisches Performance-Verhalten im Vergleich zu anderen Titeln, auch Gaming-Evolved-Titeln
- Ein neuer Treiber erscheint, welcher auf der Geforce eine eher den Erwartungen entsprechende Performance erzeugt
Und wie kommst Du da auf eine andere Schlussfolgerung als die auch von Coda bereits angefuehrte, naemlich dass DA2 einfach irgendein Treiberproblem getriggert hat? Wie schon gesagt, das kennt man andersrum doch auch, dass erst mit dem Launch eines TWIMTB-Titels AMD mit den Treiberoptimierungen anfaengt. Wieso soll das im umgekehrten Fall so viel anders laufen? Das erschliesst sich mir jetzt gerade nicht.

Und nur um mich nochmal zu wiederholen. Die Frage, ob in DA2 nicht vielleicht eine suboptimale SSAO-Implementation oder auch nur mittelpraechtiges Displacement-Mapping benutzt wird, wird damit ja nicht beantwortet.

deekey777
2011-04-01, 23:59:10
Also eine allgemeine SSAO-Lösung auf DX10-Level in einem DX11-Titel ist für mein Verständnis schon suboptimal.

Gipsel
2011-04-02, 00:37:06
Also eine allgemeine SSAO-Lösung auf DX10-Level in einem DX11-Titel ist für mein Verständnis schon suboptimal.
Deswegen habe ich nicht umsonst schon vor einiger Zeit diese Frage (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8639460#post8639460) gestellt. Die Rechenzeit pro Frame scheint ja aehnlich zu sein (wobei die von mir weiter vorne verlinkten Zahlen aus dem nv-Forum ein wenig shaky sind), aber wird auch definitiv das Gleiche gerechnet? Wie erwaehnt kann man die Qualitaet (und damit den Aufwand) fuer SSAO ziemlich einfach skalieren (ist im Prinzip wohl nur ein entsprechend gesetzter Parameter fuer den Shader).

hq-hq
2011-04-02, 01:54:56
tja willkommen im club so gehts es AMD Usern bei vielen NV play spielen

am Laptop hatte ich zumindest noch keine Grafikfehler bei aktuellen Spielen...

im Grunde müsste man die Kritik an EA/Bioware viel weiter fassen, denn für meinen Geschmack ist das Game eine mehrmonatige Frühgeburt.
Sieht man unter anderem am Level-Design... wenn ich es recht überlege wird das der Grund sein für den Ärger :(

RoughNeck
2011-04-02, 10:41:16
im Grunde müsste man die Kritik an EA/Bioware viel weiter fassen, denn für meinen Geschmack ist das Game eine mehrmonatige Frühgeburt.
Sieht man unter anderem am Level-Design... wenn ich es recht überlege wird das der Grund sein für den Ärger :(


Richtig

Das Game ist nicht fertig, aber man kennt es ja. EA wartet nicht, wenn EA sagt das Game muss raus, dann geht es auch raus egal ob fertig oder nicht. Daran wird sich auch nichts ändern.

deekey777
2011-04-04, 21:56:20
http://www.hardocp.com/article/2011/04/04/dragon_age_2_performance_followup/2
NVIDIA was aware of the performance problems with Dragon Age 2, and have been working on performance. The official response from NVIDIA was that NVIDIA did not have access to early builds of DA2, however once it gained access to the game the driver team did jump on it and tuned up application performance. We have seen this happen with many games in the past, on both sides either favoring NVIDIA or favoring AMD by not having access to early builds, which means that when the game is launched the driver has not been properly tuned. It is a shame really, because from a gamers perspective we want the best experience we can get on game launch, not several weeks later. It is a state of the gaming and video card business, and it sucks mostly for us, the gamer, we always seem to get the short end of the stick due to these practices. Honestly we think teams Red and Green actually think this gives the companies some sort of competitive benefit, but truly we think it just shows how little the companies care about its customers' needs.

Reaping_Ant
2011-04-05, 09:21:49
Schneiden sich die Entwickler damit nicht ins eigene Fleisch? Der meiste Umsatz wird doch in den ersten Tagen/Wochen generiert, so lange der Titel noch neu und "in" ist. Folglich wäre es doch wünschenswert, wenn das Spiel von Anfang an auf jeglicher Hardware gut läuft. Sind die Zuwendungen seitens der IHVs das wirklich wert?

Oder liegt es daran, dass der Durchschnittskäufer von den Problemen gar nichts mitbekommt und das Spiel trotz bekannter Schwierigkeiten kauft, bzw. sich für die technischen Details gar nicht interessiert?