Archiv verlassen und diese Seite im Standarddesign anzeigen : Ist D3D10.1 tot?
Adam D.
2008-05-26, 13:33:21
Mal angenommen, der G200 liefert keinen Support für D3D10.1, wird die Industrie dann überhaupt daran arbeiten oder lassen sie es direkt fallen? Würde mich mal interessieren, was die Experten dazu meinen.
Nvidia als Technologie-Bremse ist echt etwas seltsam, aber vielleicht kann man mich auch mal darüber aufklären, wieso seitens Nvidia D3D10.1 ignoriert wird. Zu viel Aufwand, zu geringer Gewinn?
mapel110
2008-05-26, 13:37:48
D3D10.1 ist definitiv nicht tot. Jeder D3D11-Chip wird es beherrschen.
Der Standard wurde ja mit allen GPU Entwicklern gemeinsam verabschiedet. Unterstützen muss ihn keiner, kann ist hier die Aussage. Intel bringt ja jetzt grade mal DX10 fähige Treiber/IGPs auf den Markt...
Die Nachfrage nach Leistungsfähigen Karten verschiebt sich aktuell ein wenig hin zu Media PCs die HDTV decodieren müssen in Echzeit. Der Spiele Grafikkarten Mark ist glaube seit Einführung des G80 und der folgenden GPUs/Preisverfall etwas gesättigt aktuell. Nur Highend User lechzen nach mehr, die Spiele die allein von der Grafikkarte profitieren sind ja nicht gerade viel, auch wenn es Paradebeispiele wie AOC und Crysis gibt. Jedes MHz jede funktionierende Einheit bringt hier ein mehr an Leistung.
Aber beide sind eher DX9 Engines als sonst etwas... Die Software hinkt immer 3-4Jahre hinterher, genauso die Leistungsfähigkeit der GPUs. DX9 als Feature gabs schon sehr lange, aber die Engines die richtig nutzen aus der vollen DX9 Spec ziehen sind erst seit sagen wir 1nem Jahr auf dem Markt, GPUs 1,5Jahre.
D3D10.1 ist definitiv nicht tot. Jeder D3D11-Chip wird es beherrschen.
nur ist eben die frage ob entwickler noch nen DX10.1 Pfad reinfriemeln oder gleich einen DX11 pfad (wenn verfügbar)
von letzterem hätte ja jetzige DX10.1 hardware nix...was ziemlich schade ist
von daher wäre die angst und formulierung "DX10.1 ist tot" nicht unbegründet
Matrix316
2008-05-26, 13:50:10
Die Frage wäre eher: Hat DX10.1 jemals gelebt?
ShadowXX
2008-05-26, 13:54:27
nur ist eben die frage ob entwickler noch nen DX10.1 Pfad reinfriemeln oder gleich einen DX11 pfad (wenn verfügbar)
von letzterem hätte ja jetzige DX10.1 hardware nix...was ziemlich schade ist
von daher wäre die angst und formulierung "DX10.1 ist tot" nicht unbegründet
Falls er G200 tatsächlich kein 10.1 unterstützt (und danach sieht es wirklich aus), wird 10.1 IMHO das gleiche Schattendasein wie PS1.4 führen.
Zum warum (also warum G200 kein 10.1):
Soweit ich das mitbekommen habe, liegt das Hauptproblem in den ROPs, weniger im sonstigen zeug. Die ROPs müssten wohl ziemlich stark umdesigned werden um 10.1 zu erfüllen und das passte wohl nicht in nVs Zeitplan mehr hinein (vielleicht hatte Sie auch nicht erwartet das ATI 10.1 überhaupt umsetzten wird und deshalb von Anfang an keine Resourcen da hineingesteckt).
Adam D.
2008-05-26, 14:03:40
Die Frage wäre eher: Hat DX10.1 jemals gelebt?
Ganz kurz, ja (s. AC) ;)
Ich mein, bis D3D11 kommt, wird sicher noch einige Zeit verstreichen und es ist ja nicht so, als wäre D3D10.1 nutzlos und nur bedingt hilfreich. Daher ist es wirklich schade, dass man die Übergangszeit nicht mit D3D10.1 überbrücken kann. Ich denke einfach, dass es für die Studios zu viel Aufwand darstellt, allein nur für ATi-Karten einen eigenen Pfad zur Verfügung zu stellen.
D3D10.1 ist definitiv nicht tot. Jeder D3D11-Chip wird es beherrschen.
Wenn z.B. ein bestimmtes D3D10.1-Feature was NVIDIA aus einem bestimmten Grunde nicht Bestandteil von D3D11 wird dann ist das nicht gesagt.
Die explizite geforderte Abwärtskompatibilität ist auf Treiberseite nicht mehr gegeben seit Vista, weil jede API ein eigenes Interface bekommt.
deekey777
2008-05-26, 14:07:10
Falls er G200 tatsächlich kein 10.1 unterstützt (und danach sieht es wirklich aus), wird 10.1 IMHO das gleiche Schattendasein wie PS1.4 führen.
...
Naja, der Aufwand neben PS 1.3 auch PS 1.4 (in den wirren Zeiten) zu implementieren, ist/war um Einiges größer als zusätzliche D3D10.1-Unterstützung, oder?
D3D10.1 darf nicht zu einem "Checkbox-Feature" werden wie jetzt D3D10, wo man meint, dieses unbedingt unterstützen zu müssen, der User aber in den meisten Fällen keine Vorteile sieht ("naiver D3D9->D3D10-Port"). D3D10.1 sollte benutzt werden, wenn es Sinn macht, insbesondere weil die Implementierung keinen besonderen Aufwand darstellt (dafür aber steigt der Aufwand bei der Suche nach den Bugs).
Rogue
2008-05-26, 14:07:27
Ich bezweifle jedenfalls das sich die Entwickler zukünftig für D3D10.1 interessieren.
Die Leute die darüber entschieden ob es sich durchsetzt oder nicht sind doch die Engine Entwickler.
Wieviele Engines für 3D Games sind denn am Markt ?
Bzw. welche von denen ist so erfolgreich das anschliessend 1-2 Dutzend Spiele auf ihr basieren ?
Klar Crysis, super Grafikorgie, aber das war Far Cry seinerzeit auch schon. Und ? Hat die Engine später mal jemand anderes benutzt ? Kaum.
Die Platzhirsche sind hier immernoch id-Software und Epic.
id-software hat bereits bestätigt das ihre nächste Engine und wahrscheinlich darüber hinaus auch kein DX10 / D3D10.1 nutzen wird.
Bei Epic siehts vielleicht anders aus, aber so wahnsinnig gut hat sich die Unreal 3 Engine bisher auch nicht verkauft oder ?
Zumindest war keines der Games ein Pflichtkauf für D3D10.1 Hardware + Win Vista.
Bisher würde ich mich matrix anschliessend und mich ernsthaft fragen ob D3D10.1 bisher überhaupt richtig lebte. Die Nutzung in Zukunft sieht jedenfalls nicht sonderlich überzeugend aus und ich persönlich halte es auch für nicht soooo wichtig.
Schlammsau
2008-05-26, 14:09:01
DX10.1 ist ja auch erst seit 2? Monaten nutzbar! Erst seit dem SP1 für Vista ist es doch erst implementiert. Wie viele DX10 Titel gibt es den schon, die Games kann man doch an einer Hand abzählen! Und das in 1 1/2 Jahren DX10.
Es ist noch zu früh um DX10.1 abzuschreiben....wir müssen einfach warten, was die nächsten Titel alles unterstützen.
Naja, der Aufwand neben PS 1.3 auch PS 1.4 (in den wirren Zeiten) zu implementieren, ist/war um Einiges größer als zusätzliche D3D10.1-Unterstützung, oder?
Ja, vor allem weil PS1.4 ganz andere Shader erfordert hat mit seinen komischen zwei Durchgängen.
D3D10.1 darf nicht zu einem "Checkbox-Feature" werden wie jetzt D3D10, wo man meint, dieses unbedingt unterstützen zu müssen, der User aber in den meisten Fällen keine Vorteile sieht ("naiver D3D9->D3D10-Port"). D3D10.1 sollte benutzt werden, wenn es Sinn macht, insbesondere weil die Implementierung keinen besonderen Aufwand darstellt (dafür aber steigt der Aufwand bei der Suche nach den Bugs).
Da es nur um Resourcen geht bei D3D10.1 ist es sowieso ziemlich unsinnig es einfach so zu unterstützen. Das würde dann bis auf die API gar keinen Unterschied machen.
Demirug
2008-05-26, 15:30:40
Die explizite geforderte Abwärtskompatibilität ist auf Treiberseite nicht mehr gegeben seit Vista, weil jede API ein eigenes Interface bekommt.
Microsoft ist sich den Problemen welche sie durch die fehlende Abwärtskompatibilität bei Direct3D 10 verursacht durchaus bewusst. ;)
deekey777
2008-05-26, 15:40:48
Microsoft ist sich den Problemen welche sie durch die fehlende Abwärtskompatibilität bei Direct3D 10 verursacht durchaus bewusst. ;)
Du sprichst wieder in Rätseln.;(
Microsoft ist sich den Problemen welche sie durch die fehlende Abwärtskompatibilität bei Direct3D 10 verursacht durchaus bewusst. ;)
Dürfte im Falle von D3D10.1 aber nicht ins Gewicht fallen, da sowieso jede Anwendung auch 10.0 unterstützt.
GeneralHanno
2008-05-26, 16:31:29
Microsoft ist sich den Problemen welche sie durch die fehlende Abwärtskompatibilität bei Direct3D 10 verursacht durchaus bewusst. ;)
das klingt ganz nach bösem sarkasmus eines verbitterten vista hassers ;)
PS: zu denen zähle ich mich auch ...
übersetzt meint er wohl: die fehlende abwärtskompatibilität soll die verkaufszahlen bes BS erhöhen ...
deekey777
2008-05-26, 16:40:59
das klingt ganz nach bösem sarkasmus eines verbitterten vista hassers ;)
PS: zu denen zähle ich mich auch ...
übersetzt meint er wohl: die fehlende abwärtskompatibilität soll die verkaufszahlen bes BS erhöhen ...
So wie ich seine früheren Äußerungen in Erinnerung hatte, wurde bei DX10 gleich am Anfang bemängelt, dass keine Abwärtskompabilität zu älteren Grafikkarten gibt (wie bei DX9, wo man alles abdecken kann).
Demirug
2008-05-26, 18:03:01
Du sprichst wieder in Rätseln.;(
Manchmal ist das alles was man darf ohne sich selbst in Gefahr zu begeben.
Dürfte im Falle von D3D10.1 aber nicht ins Gewicht fallen, da sowieso jede Anwendung auch 10.0 unterstützt.
Natürlich fällt das auch da bereits ins Gewicht. Die Direct3D 10.1 Runtime (ist eine eigene DLL) kommt ja auch noch mit reinen D3D 10 Treibern klar. Damit ist die strickte Bindung einer Hardware Generation an eine API Version ja bereits wieder aufgehoben.
das klingt ganz nach bösem sarkasmus eines verbitterten vista hassers ;)
Ich mag Vista. BattleForge läuft mit Direct3D 10 besser.
So wie ich seine früheren Äußerungen in Erinnerung hatte, wurde bei DX10 gleich am Anfang bemängelt, dass keine Abwärtskompabilität zu älteren Grafikkarten gibt (wie bei DX9, wo man alles abdecken kann).
Ja, ich habe mich deswegen mehrfach (auch persönlich) bei Microsoft beschwert.
Wann wurde eigentlich klar, dass die D3D10 Spec erweitert wird mit 10.1?
nVidia muss es doch schon lange vor dem Finalen GT200 Chip gewusst haben, was die Spec bringt oder?
Wenn DX11 erst 2010 mit Windows 7 kommt, wird es 2009 ein 10.2 geben eventuell?
Avalox
2008-06-01, 18:34:50
AMD fördert sicher doch noch immer Spieleentwickler, oder ist dieses runter gefahren worden?
nur ist eben die frage ob entwickler noch nen DX10.1 Pfad reinfriemeln oder gleich einen DX11 pfad (wenn verfügbar)Wieso extra Pfad? Man könnte andere Shader verwenden, die ein Bild in höherer Qualität berechnen.
AMD fördert sicher doch noch immer Spieleentwickler, oder ist dieses runter gefahren worden?
Kannst ja mal danach suchen in der Presse, ob AMD auch solche Veranstaltungen gibt: http://www.nvision2008.com/
An Marketing Folien ist bisher ja nichts aggresives gekommen, was D3D10.1 pusht. Da war man früher anderes gewohnt.
Skinner
2008-06-01, 20:10:04
Die Frage müsste eigendlich ja heißen: Warum bringt nvidia kein DX 10.1
Ich stelle die Frage wie es mir passt, du kannst sie ja anders stellen ;)
Unterschwellig mir jetzt einen Fanboy unterzuschieben zu wollen wäre mieß.
Ich bin hier nur Gast und habe ein zwei Fragen zu D3D10, passend zu Thread.
Aber um auf deine Frage einzugehen, hatte ich eine Seite zurvor schon die Frage gestellt, ob es einen Nachfolger (10.2) in absehbarer Zeit geben wird. Dann wäre es ja hinfällig jetzt 10.1 zu bringen, viel R&D aufzuwenden, wenn Q2/2009 ein D3D10.2 kommt *hust*
Demirug
2008-06-01, 20:33:15
Es wird kein Direct3D 10.2 geben.
][immy
2008-06-01, 21:02:51
Die Frage müsste eigendlich ja heißen: Warum bringt nvidia kein DX 10.1
unter umständen weil sie an der chip architektur beim G200 nichts geändert haben und den chip stattdessen nur einen höheren takt spendiert haben und mehr "gleiche" hardware.
da es ja angeblich relativ einfach ist in hardware zu implementieren (von einem directx 10 chip aus gesehen) könnte ich mir nichts anderes vorstellen außer das sie es einfach nicht wagen etwas an der chiparchitektur zu ändern.
Schlammsau
2008-06-02, 07:09:50
Wie ist das eigentlich, wenn DX10.1 wirklich unter den Tisch fallen würde, profitiert DX11 von der .1 Karte mehr als von einer reinen DX10 Karte? Oder stehen beide gleich schlecht da?
Demirug
2008-06-02, 07:41:41
Wie soll jemand diese Frage beantworten wenn Microsoft ein Direct3D 11 noch nicht mal angekündigt hat?
Schlammsau
2008-06-02, 08:01:34
Wie soll jemand diese Frage beantworten wenn Microsoft ein Direct3D 11 noch nicht mal angekündigt hat?
Das ist ein Argument! :redface:
Aber eigentlich dachte ich schon, dass es angekündigt bzw. wenigestens in der Entwicklung ist!?
Skinner
2008-06-02, 09:34:25
Wollen wir mal hoffen das sich andere Entwickler nicht so einschüchtern lassen wie Ubisoft, und Spiele fleißig mit DX 10.1 bringen.
Wollen wir mal hoffen das sich andere Entwickler nicht so einschüchtern lassen wie Ubisoft, und Spiele fleißig mit DX 10.1 bringen.
unwahrscheinlich, besonders wenn man die marktverhältnisse von DX10+-grafikkarten ansieht.
Piffan
2008-06-02, 12:12:07
unwahrscheinlich, besonders wenn man die marktverhältnisse von DX10+-grafikkarten ansieht.
Das ist eine Frage des Aufwandes. Vielleicht muss ein bestimmter Shader nur partiell umgeschrieben werden bzw. entsteht eine Mehrarbeit weil man es NICHT nützt.....
bzw. entsteht eine Mehrarbeit weil man es NICHT nützt.....
Das kann man ausschliessen, da man 10.0 ja sowieso unterstützen muss.
entsteht eine Mehrarbeit weil man es NICHT nützt.....
das kann nicht sein, schließlich will man ja DX10.0 unterstützen, es entsteht auf jeden fall eine mehrarbeit wenn man DX10.1 unterstützt, auch wenn diese unter umständen eher gering ausfällt.
heute ist sogar noch der anteil an DX10-fähigen pcs sehr gering, jener die DX10.1-fähig sind fast zu vernachlässigen.
ich glaube kaum, dass ein spiel explizit mit DX10.1-pfad entwickelt wird, es könnte höchstens passieren dass ein interessierter programmierer sich das mal genauer ansieht und nebenher ein paar zeilen code für DX10.1 einfügt. mit glück bleiben die auch im endgültigen programm erhalten.
ich denke mit assassins creed ist es ähnlich gelaufen, vermutlich hat ein programmierer entdeckt, dass man mit ein paar zeilen code die FSAA-qualität verbessern kann. dummerweise hat er dabei ein paar fehler gemacht und ubisoft hat keine lust diesen in einem eingentlich garnicht geplanten pfad auszubessern.
unwahrscheinlich, besonders wenn man die marktverhältnisse von DX10+-grafikkarten ansieht.
Ein grosser Teil der Mainstreamkarten unterstützt D3D10.1, der RV670 ist ein sehr beliebter Chip. Mit dem RV770 wird das noch einiges mehr, vor allem, da ja immer mehr klar wird, das der RV770 vor die G92 Varianten setzen kann. Und der GT200 spielt eine zu geringe Rolle bei seinen Abmassen. Der Chip ist zwar wahnsinnig schnell, aber auch wahnsinnig teuer. Als BQ-Verbesserer ist D3D10.1 eine recht interessante Geschichte. Ich bin mir sicher dass es das ein oder andere Game geben wird, was von D3D10.1 profitiert.
Sollte der G200 wirklich kein DX10.1 unterstützten gibt es für mich nur eine erklärung:
Der G200 wurde wirklich kurz nach dem G80 entwickelt als Reservechip fals der R700 so schnell geworden wäre wie angekündigt, da dies nicht der Fall war und nicht mal der GTX geschweige denn der Ultra gefährlich werden konnte verwendete Nvidia ihren Mid-rage-chip (der G92, die 2 deutet nicht auf high-end hin) als neues High-End da er deutlich billiger zu fertigen war. Jetzt da ATI endlich vielleicht wieder konkurenz-fähig im bezug auf high-end leistung wird muss Nvidia etwas dagegen bringen, da sie aber vermutlich Geld sparen wollten haben sie einfach ihren G200 (der vielleicht nur auf Technologie-höhe eines G92 vielleicht sogar G80 ist) verwendet, auch wenn er veraltet ist, um 2 jahre Entwicklungs-arbeit zu sparen.
Sollte Meine Theorie zutreffen hätte Nvidia seit einführung des G92 eine Riesige Gewinnspanne (performance-hardware zu high-end preisen) und auch der G200 muss mitlerweile verhältnismäßig billig zu produzieren sein, sonst hätten die nicht diesen chip so entwickelt damit er schon vor über einem jahr marktreif gewesen wäre wenn die HD2900 XT die Ultra geschlagen hätte.
Alles natürlich nur Theorien aber einige punkte sprechen dafür
Sorry ich nochmal ich meinte natürlich ganz am anfang R600 nicht 700
Sollte Meine Theorie zutreffen hätte Nvidia seit einführung des G92 eine Riesige Gewinnspanne (performance-hardware zu high-end preisen) und auch der G200 muss mitlerweile verhältnismäßig billig zu produzieren sein, sonst hätten die nicht diesen chip so entwickelt damit er schon vor über einem jahr marktreif gewesen wäre wenn die HD2900 XT die Ultra geschlagen hätte.
nicht wirklich, G92 wurde nie zu highendpreisen verkauft (mal abgesehen von der GX2)
sicherlich verdienen sie auch so ganz gut daran, aber besonders teuer war er nie und man musste mit ATI den preiskampf mitmachen.
Bei der GX2 wurde er auch nicht zu High-End-Preisen verkauft weil es ja 2 sind ;)
der G92 GTS kostete als er rauskam (die ersten wochen, als die schlecht lieferbar waren) rund 350€+ das nenne ich schon recht hoch, natürlich kein vergleich zu den sost üblichen 500 bis 600 €
Pu1se
2008-06-02, 20:36:04
die 350€ haben sich aber keine 2 wochen gehalten...
Ein grosser Teil der Mainstreamkarten unterstützt D3D10.1, der RV670 ist ein sehr beliebter Chip.
Blödsinn, ATI hat im DX10 Bereich gerade mal einen Marktanteil von 15%, der Anteil bei DX10.1 dürfte noch mal einiges geringer sein.
Kein Software Entwickler wird sich für diesen geringen Anteil nur einen Finger rühren, besonders nicht wenn die mittlerweile alle von NV gefördert werden.
und der RV770 wird da wohl auch kaum was ändern können, wie auch...
RavenTS
2008-06-03, 12:33:13
unwahrscheinlich, besonders wenn man die marktverhältnisse von DX10+-grafikkarten ansieht.
Und wohl eher noch die Marktverhältnisse und Aussichten des einzigen DX10 Zocker-OS..! :rolleyes:
Tigerchen
2008-06-03, 14:43:43
Die Frage müsste eigendlich ja heißen: Warum bringt nvidia kein DX 10.1
Solche Technologieverweigerung wurde ATI ja vor gar nicht so langer Zeit schwer angekreidet. Wo sind die Techlevelfans von einst heute?
Solche Technologieverweigerung wurde ATI ja vor gar nicht so langer Zeit schwer angekreidet.
du willst aber nicht allen ernstes den übergang von SM2 auf SM3 mit jenem von DX10 auf 10.1 vergleichen oder?
du willst aber nicht allen ernstes den übergang von SM2 auf SM3 mit jenem von DX10 auf 10.1 vergleichen oder?
Warum nicht?
Warum nicht?
Der Umfang ist weitaus geringer. An den Fähigkeiten der Shader an sich ändert sich mit D3D10.1 überhaupt nichts, es gibt nur mehr Möglichkeiten bei Ein- und Ausgabe dieser und auch mehr Möglichkeiten sonst mit Resourcen zu hantieren.
Bei ATis SM2 damals musste man noch Klimmzüge machen um damit auszukommen, D3D10.1 ist mehr ein Ding der Performanceoptimierung (Gather4, Cubemap-Arrays, mehr Zugriffsmöglichkeiten auf Daten) und der Optik (manchmal mehr Möglichkeiten für Anti-Aliasing).
reunion
2008-06-03, 16:12:18
Der Umfang ist weitaus geringer. An den Fähigkeiten der Shader an sich ändert sich mit D3D10.1 überhaupt nichts, es gibt nur mehr Möglichkeiten bei Ein- und Ausgabe dieser und auch mehr Möglichkeiten sonst mit Resourcen zu hantieren.
Bei ATis SM2 damals musste man noch Klimmzüge machen um damit auszukommen, D3D10.1 ist mehr ein Ding der Performanceoptimierung (Gather4, Cubemap-Arrays, mehr Zugriffsmöglichkeiten auf Daten) und der Optik (manchmal mehr Möglichkeiten für Anti-Aliasing).
Performanceoptimierung und Optik, was will man mehr von einem neuen Tech-Level? Gerade wenn man sich ansieht, dass jedes zweite Spiel schon einen Hack benötigt um überhaupt noch MSAA mehr schlecht als recht anbieten zu können, wird einem die Notwendigkeit von D3D10.1 vor Augen geführt. Und die Leistungssteigerungen in AC sind auch nicht von schlechten Eltern. D3D10.1 wäre dringend erforderlich, denn es könnte bereits heute bei duzenden Spielen sichtbare Vorteile mit relativ wenig Aufwand bringen, leider wird es von nV nicht unterstützt.
Performanceoptimierung und Optik, was will man mehr von einem neuen Tech-Level?
Aus Programmierersicht wie immer: Einfachere Programmierung und weniger Aufwand. Das ist mit D3D10.1 nicht gegeben, deshalb wird es auch zu keinem Splinter-Cell-Effekt kommen.
Gerade wenn man sich ansieht, dass jedes zweite Spiel schon einen Hack benötigt um überhaupt noch MSAA mehr schlecht als recht anbieten zu können, wird einem die Notwendigkeit von D3D10.1 vor Augen geführt.
Moment mal. Halblang. Mit D3D10 wird da auch schon einiges erschlagen. Meistens braucht man nur die Color-Subsamples.
Und die Leistungssteigerungen in AC sind auch nicht von schlechten Eltern.
Nur, dass es gar keine gab!
Ohne AA: Performance identisch zu 10.0, mit AA = fehlerhafte Darstellung in 10.1.
Fakt ist, dass von den NV-Fans DX10.1 als unwichtiges/unnützes Feature abgestempelt wird. Würde ihr Bettdeckenüberzuglieferant dieses Feature liefern, die ATI-Konkurrenz hingegen nicht, düften wir uns dasselbe Gesülze wie anno dazumal wieder anhören.
Die NV Karten haben hier ein Defizit, daran gibt es nichts zu rütteln. Und etwas nicht zu können ist keine Bereicherung, rgal ob NV oder ATI.
Aufgrund der nicht vorhandenen Nutzung von DX10 dürfte sich das Fehlen von DX 10.1 allerdings nicht auswirken. Insofern ist nicht DX 10.1 tot, sondern DX 10 allgemein eine Totgeburt.
Dann ist 10.1 aber noch toter als das tote 10.0 ;)
Fakt ist, dass von den NV-Fans DX10.1 als unwichtiges/unnützes Feature abgestempelt wird. Würde ihr Bettdeckenüberzuglieferant dieses Feature liefern, die ATI-Konkurrenz hingegen nicht, düften wir uns dasselbe Gesülze wie anno dazumal wieder anhören.
Die NV Karten haben hier ein Defizit, daran gibt es nichts zu rütteln. Und etwas nicht zu können ist keine Bereicherung, rgal ob NV oder ATI.
Aufgrund der nicht vorhandenen Nutzung von DX10 dürfte sich das Fehlen von DX 10.1 allerdings nicht auswirken. Insofern ist nicht DX 10.1 tot, sondern DX 10 allgemein eine Totgeburt.
Trotzdem hat er recht, es gibt keinen grund, D10.1 nicht zu unterstützen. Progarmierer werden dafür bezahlt zu programieren und die entwickler der chips ebenso.
Nur weil NV es verpennt hat es zu implementieren, wird jetzt gesagt das es unnütz sei.
auf ne x800xt mit sm2 hat man keinen unterschied zu ner 6800gt mit sm3 gesehn, performancevorteile aufgrund von sm3 gabs auch nicht.
erst mit hdr wurde sm3 intterressant, damals aber nicht spielbar auf der vorhandenen hardware.
D10.1 bring aber eher performance-vorteile(siehe ac), die bildqualität ist ja die gleiche ausser beim aa, was dann auch noch schneller ist!!!
NV hat geschlampt und die ganzen "Ment to be played"-Unterstüzer sagen das man es nich braucht.
Warum sollte ubisoft sonst auch D10.1 aus ac rausgenommen haben? weil angeblich ein pass beim postprossesing gefehlt hätte? und warum ist die Bildquali dann die gleiche wie bei D10? und warum sollte man deswegen den D10.1 entfernen, wenn keine sichtbaren unterschiede gibt?
es kann ja wohl nicht verkehrt sein, dem kunden mehr performance und bessere quali mit aa zu geben. Das soll mir dann ma wer erklären. Und rein zufällig wurde ac von nv gesponsort, welche kein D10.1 unterstützen. ganz schön auffälliges verhalten oder?
AC war schneller, weil die Implementierung im Arsch war. Ohne AA gab es 0,0% Mehrleistung.
D10.1 bring aber eher performance-vorteile(siehe ac), die bildqualität ist ja die gleiche ausser beim aa, was dann auch noch schneller ist!!!
10.1 bringt bei AC nur mit FSAA performancevorteile, ohne FSAA ist die performance exakt identisch. dummerweise fehlen mit FSAA aber die ganzen partikeleffekte, was wohl auch den großteil des performanceunterschiedes ausmacht. würde der 10.1-pfad richtig funktionieren wäre der performancevorteil wohl deutlich geringer.
10.1 bringt bei AC nur mit FSAA performancevorteile, ohne FSAA ist die performance exakt identisch. dummerweise fehlen mit FSAA aber die ganzen partikeleffekte, was wohl auch den großteil des performanceunterschiedes ausmacht. würde der 10.1-pfad richtig funktionieren wäre der performancevorteil wohl deutlich geringer.
beweise? screens? reviews?
beweise? screens? reviews?
wurde im entsprechenden thread über AC und 10.1 ausführlich gepostet, ich bin jetzt zu faul zum suchen.
Demirug
2008-06-04, 07:48:42
Aber eigentlich dachte ich schon, dass es angekündigt bzw. wenigestens in der Entwicklung ist!?
So jetzt darf ich darauf antworten.
Natürlich ist Direct3D 11 bereits in der Entwicklung. Auf der Gamefest (22&23 Juli) gibt es dann mehr Details dazu.
MuLuNGuS
2008-06-04, 08:18:14
So jetzt darf ich darauf antworten.
Natürlich ist Direct3D 11 bereits in der Entwicklung. Auf der Gamefest (22&23 Juli) gibt es dann mehr Details dazu.
also wird wohl der nächste chip von NV wohl gleich ein Direct3D 11 chip der dann natürlich wiederum D3D10.1 untersützen wird.
hey, in der nächsten runde wird NV also auch D3D10.1 haben, macht euch also keine sorgen :D
robbitop@work
2008-06-04, 08:44:57
Moment mal. Halblang. Mit D3D10 wird da auch schon einiges erschlagen. Meistens braucht man nur die Color-Subsamples.
Also rein subjektiv muss ich Reunion zustimmen. Die MSAA-Hacks in neueren Spielen ziehen oftmals optische Kompromisse nach sich. Gerade z.B. in Crysis lasse ich MSAA oftmals aus, weil die Kantenglättung zum Heulen ist.
Wieso Hack? Crysis unterstützt doch ingame AA.
reunion
2008-06-04, 10:29:16
Nur, dass es gar keine gab!
Ohne AA: Performance identisch zu 10.0, mit AA = fehlerhafte Darstellung in 10.1.
Natürlich gibt es die. Ubisoft hat selbst bekannt gegeben, dass man durch D3D10.1 einen Z-Buffer wiederverwenden kann der das Spiel beschleunigt und das dieser Effekt nur mit MSAA zu tage tritt.
http://www.pcgameshardware.de/aid,645148/News/Ubisoft_Keine_Plaene_fuer_DirectX_101_in_Assassins_Creed/
ShadowXX
2008-06-04, 10:50:36
Natürlich gibt es die. Ubisoft hat selbst bekannt gegeben, dass man durch D3D10.1 einen Z-Buffer wiederverwenden kann der das Spiel beschleunigt und das dieser Effekt nur mit MSAA zu tage tritt.
http://www.pcgameshardware.de/aid,645148/News/Ubisoft_Keine_Plaene_fuer_DirectX_101_in_Assassins_Creed/
Ja...aber trotzdem wäre die Beschleunigung wohl nicht so stark ausgefallen, wenn alles vollständig und richtig umgesetzt worden wäre und nicht wie es in der Releaseversion war, wo dann anderen Effekte fehlten.
Die erwähnte Wiederverwendung des Z-Buffers beschleunigt das Spiel. Die Leistungssteigerung, welche in der Retailversion beobachtet werden konnte, ist jedoch nicht exakt so zu beziffern, da die Implementierung fehlerhaft war und ein Teil der Rendering-Pipeline somit nicht funktionierte. Diese Optimierung tritt nur zutage, wenn Anti-Aliasing zugeschaltet wird, ansonsten sind die Arbeitsabläufe für DirectX 10 und 10.1 gleich.
Also rein subjektiv muss ich Reunion zustimmen. Die MSAA-Hacks in neueren Spielen ziehen oftmals optische Kompromisse nach sich. Gerade z.B. in Crysis lasse ich MSAA oftmals aus, weil die Kantenglättung zum Heulen ist.
Wenn Crysis die Subpixel in Betracht ziehen würde wäre es aber auch noch deutlich langsamer was die ganzen Posteffekte angeht. Ich denke nicht dass das den Aufwand rechtfertigt.
Performanceoptimierung und Optik, was will man mehr von einem neuen Tech-Level? Gerade wenn man sich ansieht, dass jedes zweite Spiel schon einen Hack benötigt um überhaupt noch MSAA mehr schlecht als recht anbieten zu können, wird einem die Notwendigkeit von D3D10.1 vor Augen geführt. Und die Leistungssteigerungen in AC sind auch nicht von schlechten Eltern. D3D10.1 wäre dringend erforderlich, denn es könnte bereits heute bei duzenden Spielen sichtbare Vorteile mit relativ wenig Aufwand bringen, leider wird es von nV nicht unterstützt.Der Zugriff auf einzelne Multisamples ist seit G80 möglich. Nur unterstützen die GPUs nicht alle für 10.1 erforderlichen Features. Nvidia hätte es gerne gesehen, wenn dieses Feature bereits zu 10.0 zählen würde, hier hat sich Microsoft auf Drängen anderer 3D-Chip-Enwickler aber anders entschieden.
Auch mit 10.0 kann man auf die Multisamples zugreifen. Nur eben nicht auf Z.
Black-Scorpion
2008-06-04, 20:13:47
Der Zugriff auf einzelne Multisamples ist seit G80 möglich. Nur unterstützen die GPUs nicht alle für 10.1 erforderlichen Features. Nvidia hätte es gerne gesehen, wenn dieses Feature bereits zu 10.0 zählen würde, hier hat sich Microsoft auf Drängen anderer 3D-Chip-Enwickler aber anders entschieden.
Schon mal was vom gemeinsamen kleinsten Nenner gehört?
Das war doch nur eine reine Feststellung.
wrdaniel
2008-06-05, 03:49:21
Ist D3D10.1 tot?
Ja, hab's gesehen. War letztens auf'm Friedhof, und da lage es direkt neben den Spiele-PCs und den Plasmabildschirmen. Mal gespannt wer sich als naechstes dazugesellt.
Winter[Raven]
2008-06-05, 22:26:50
Ja, hab's gesehen. War letztens auf'm Friedhof, und da lage es direkt neben den Spiele-PCs und den Plasmabildschirmen. Mal gespannt wer sich als naechstes dazugesellt.
You Made My Day :)
@ thema
D3D10.1 ist leider eine Totgeburt. Solange AMD nichts dagegen unternimmt (Perf.HW, PR und DEV-Support) wird sich daran auch bis D3D11 nichts ändern.
deekey777
2008-06-05, 23:45:54
;6558747']You Made My Day :)
@ thema
D3D10.1 ist leider eine Totgeburt. Solange AMD nichts dagegen unternimmt (Perf.HW, PR und DEV-Support) wird sich daran auch bis D3D11 nichts ändern.
Was erzählst du da für einen Stuss? Hast du den Thread überhaupt gelesen?
Dieses "D3D10.1 ist tot, weil AMD nichts unternimmt" nervt gewaltig: D3D10.1 ist kein Checkbox-Feature, kein Developer ist darauf versessen, etwas zu integrieren, obwohl dies nicht braucht.
Winter[Raven]
2008-06-06, 00:25:49
Was erzählst du da für einen Stuss? Hast du den Thread überhaupt gelesen?
Wie wärs wenn du dich in deinem Ton bisschen mäßigst?
Dieses "D3D10.1 ist tot, weil AMD nichts unternimmt" nervt gewaltig
Bei einem Markt welches von den NV D3D10 GPU's dominiert wird, und das wird sich auch mit dem GT200 vortsetzen, werden die Entwickler es meiden irgendwelche Spielchen einzubauen.
Erzähl doch mal, was unternimmt AMD so?
Sobald aber D3D11 veröffentlicht wird, könnte .1 eine Auferstehung feiern, es sei den, die Devs springen auf den D3D11 Zug auf.
deekey777
2008-06-06, 00:31:49
;6559089']Wie wärs wenn du dich in deinem Ton bisschen mäßigst?
Bei einem Markt, welcher von den NV-D3D10-GPUs dominiert wird, und das wird sich auch mit dem GT200 fortsetzen, werden die Entwickler es meiden, irgendwelche Spielchen einzubauen.
Erzähl doch mal, was unternimmt AMD so?
Sobald aber D3D11 veröffentlicht wird, könnte .1 eine Auferstehung feiern, es sei den, die Devs springen auf den D3D11 Zug auf.
Mein Ton passt du deinem Posting: Du hast nicht verstanden, was D3D10.1 bringt. Und so lange du das nicht verstehst, kommen solche Äußerungen wie "Totgeburt". D3D10 vs. .1 ist nicht wie SM2 vs. SM3 oder PS 1.3 vs. PS 1.4. Es erleichtert und erweitert das, was schon vorhanden ist.
Warum soll ich dir erzählen, was AMD unternimmt, wenn du behauptest, dass AMD nichts unternimmt?
HarryHirsch
2008-06-06, 00:36:25
amd! unternimmt ja auch nichts! da kann es tausend mal besser sein
Schlammsau
2008-06-06, 07:17:35
Wissen wir was alles im Hintergrund passiert? Nein, eben nicht!
Wir wissen doch alle das A/A Spezialisten im Geheimnisstuen sind!
Warten wir einfach die nächsten Monate ab und schauen was passiert!
;6559089']
Sobald aber D3D11 veröffentlicht wird, könnte .1 eine Auferstehung feiern, es sei den, die Devs springen auf den D3D11 Zug auf.
wohl kaum, man würde eher weiter auf DX10 und DX11 setzen.
es ist wohl kaum anzunehmen, dass DX10.1 ein ähnliches revival wie PS1.4 erleben wird, was ja damals in erster linie an der FX-reihe lag die mit PS2 so extrem schwach war.
Winter[Raven]
2008-06-06, 11:56:17
@ Gast,
denke ich ähnlich...
@ Thema,
es gibt grob geschätzt 6 Sachen die mit .1 machbar sind, die Frage ist aber ob es sich lohnt...
;6559759']@ Gast,
denke ich ähnlich...
@ Thema,
es gibt grob geschätzt 6 Sachen die mit .1 machbar sind, die Frage ist aber ob es sich lohnt...Da wären AMD und S3 ja schön blöd, wenn sie es einbauen ohne dass es sicht lohnt.
Winter[Raven]
2008-06-06, 16:07:12
aths,
ich sage nicht es würde sich nicht lohnen, es sind paar interessante Erweiterungen dabei, aber die Frage ist und bleibt, lohnt es sich jetzt auf .1 zu setzen, wenn es noch keine echten D3D10 Spiele gibt?
Da wären AMD und S3 ja schön blöd, wenn sie es einbauen ohne dass es sicht lohnt.
NV wäre aber ganz schön blöd es nicht einzubauen wenn es sich lohnen würde.
Kriton
2008-06-06, 17:54:20
;6560329']aths,
ich sage nicht es würde sich nicht lohnen, es sind paar interessante Erweiterungen dabei, aber die Frage ist und bleibt, lohnt es sich jetzt auf .1 zu setzen, wenn es noch keine echten D3D10 Spiele gibt?
Ist sicher auch eine Frage wie lange man seine Karte nutzt. Ich werde z.B. auf eine 4870 gehen - DX10.1 ist da ein Grund, wenn auch nicht der einzige.
NV wäre aber ganz schön blöd es nicht einzubauen wenn es sich lohnen würde.
nv ist nicht blöd aber es war wohl zuviel aufwand es mit einzufügen.
nv ist nicht blöd aber es war wohl zuviel aufwand es mit einzufügen.
es hatte noch nie weniger aufwand für ein neues techlevel gegeben ;)
Gibt es Entwickler die einen D3D10.1 "Pfad" einbauen/nachpatchen wollen? Außer Assasines Creed mal, btw:
http://forum.beyond3d.com/showpost.php?p=1168612&postcount=1861
KillZone2 (a PS3 title) is based on a classic deferred renderer + MSAA and runs on NVIDIA hardware. This should tell us that NVDIA got at least DX10.1 features working way before AMD/ATI and way before DX10 was even finalized, it's not like they don't know how to do it.
Das der alte G70 sowas schon in den Shader realisieren kann, spricht für die Mächtigkeit von SM3 die man auf dem PC nich soo gesehen hat, oder?
Ich bin nur Leihe und überlasse es den Gurus die Aussage zu bewerten, aber es klingt interessant was sich so alle mit Arithmetischen Einheiten machen lässt (AA Resolve hat der R600 doch auch im Shader gemacht?).
Das der alte G70 sowas schon in den Shader realisieren kann, spricht für die Mächtigkeit von SM3 die man auf dem PC nich soo gesehen hat, oder?
nein, das zeigt nur das G7x (zumindest in der PS3-ausführung, keine ahnung ob da noch was geändert wurde) offenbar mehr kann als es für SM3 notwendig wäre.
Ich bin nur Leihe und überlasse es den Gurus die Aussage zu bewerten, aber es klingt interessant was sich so alle mit Arithmetischen Einheiten machen lässt (AA Resolve hat der R600 doch auch im Shader gemacht?).
die software kann in DX10 custom resolve über die shader machen, bei R(V)6xx macht auch der treiber resolve über die shader.
Schlammsau
2008-06-25, 13:12:58
http://www.heise.de/newsticker/Radeon-HD-4800-uebertrumpft-Konkurrenz-auf-allen-Gebieten--/meldung/109922
Ich würde sagen, doch nicht tot! :biggrin:
SEGA und der koreanische Spieleentwickler NHN (kommender Titel: "Cloud 9") kündigen an, DirectX 10.1 und Tessellation unterstützen zu wollen.
reunion
2008-06-25, 13:40:06
http://www.heise.de/newsticker/Radeon-HD-4800-uebertrumpft-Konkurrenz-auf-allen-Gebieten--/meldung/109922
Ich würde sagen, doch nicht tot! :biggrin:
Battleforge, der neue Titel von den Spellforce-Machern soll auch D3D10.1 unterstützen: http://www.pcgameshardware.de/aid,643439/Bildergalerie/Battleforge_Erste_Screenshots_zum_neuen_RTS-Spiel_von_den_Spellforce-Machern/
Schlammsau
2008-06-25, 13:52:55
Battleforge, der neue Titel von den Spellforce-Machern soll auch D3D10.1 unterstützen: http://www.pcgameshardware.de/aid,643439/Bildergalerie/Battleforge_Erste_Screenshots_zum_neuen_RTS-Spiel_von_den_Spellforce-Machern/
Schön......
Demirug
2008-06-25, 14:02:37
Battleforge, der neue Titel von den Spellforce-Machern soll auch D3D10.1 unterstützen: http://www.pcgameshardware.de/aid,643439/Bildergalerie/Battleforge_Erste_Screenshots_zum_neuen_RTS-Spiel_von_den_Spellforce-Machern/
Das habe ich doch schon vor Tagen in einem anderen Thread geposted.
reunion
2008-06-25, 14:04:09
Das habe ich doch schon vor Tagen in einem anderen Thread geposted.
Ich weiß, aber hier scheint das ja noch nicht angekommen zu sein. Sei doch froh das Werbung gemacht wird. :)
mapel110
2008-06-25, 14:04:50
Das habe ich doch schon vor Tagen in einem anderen Thread geposted.
Wird AA dann nur in dem Modus gehen oder auch im D3D10.0 Modus?
AnarchX
2008-06-25, 14:08:16
Das habe ich doch schon vor Tagen in einem anderen Thread geposted.
Und was war ausschlaggebend für euch D3D10.1 zu unterstützen?
Kriton
2008-06-25, 14:36:54
Battleforge, der neue Titel von den Spellforce-Machern soll auch D3D10.1 unterstützen: http://www.pcgameshardware.de/aid,643439/Bildergalerie/Battleforge_Erste_Screenshots_zum_neuen_RTS-Spiel_von_den_Spellforce-Machern/
Eigentlich steht da nur, dass die Engine das unterstützt - über die Nutzung in Battleforge selbst steht das nix.
Demirug
2008-06-25, 14:52:17
Wird AA dann nur in dem Modus gehen oder auch im D3D10.0 Modus?
Glaubst du ernsthaft ich schreibe Software die bei >95% aller Spieler kein AA erlaubt?
Und was war ausschlaggebend für euch D3D10.1 zu unterstützen?
Ich bin ein technophiler DirectX MVP. Reicht das als Begründung?
AnarchX
2008-06-25, 14:58:56
Ich bin ein technophiler DirectX MVP. Reicht das als Begründung?
OK, schon verstanden... :D
Armaq
2008-06-25, 16:58:49
Glaubst du ernsthaft ich schreibe Software die bei >95% aller Spieler kein AA erlaubt?
Ich bin ein technophiler DirectX MVP. Reicht das als Begründung?
Cool ist cool bleibt cool.
Satz 2 sollte man dir Rahmen und an die Wand hängen. :)
mapel110
2008-06-25, 17:03:11
Glaubst du ernsthaft ich schreibe Software die bei >95% aller Spieler kein AA erlaubt?
Ich kenne deinen Programmierstil und Auffassung nicht. Aber es gibt Entwickler, wie die von Assassins Creed, denen das wohl egal war. Also gibts offenbar auch Gründe für solch eine Entscheidung.
LovesuckZ
2008-06-25, 17:12:44
Glaubst du ernsthaft ich schreibe Software die bei >95% aller Spieler kein AA erlaubt?
Beträgt der Anteil an Spieler mit 10.1 Hardware >95%? ;)
deekey777
2008-06-25, 17:16:58
Beträgt der Anteil an Spieler mit 10.1 Hardware >95%? ;)
A > B = A ist größer als B.
A < B = A ist kleiner als B.
Glaubst du ernsthaft ich schreibe Software die bei >95% aller Spieler kein AA erlaubt?
Ich bin ein technophiler DirectX MVP. Reicht das als Begründung?
Um dann zu lesen, dass die Implementierung von D3D10.1 den fünfachen Aufwand gekostet habe?
:biggrin:
Beträgt der Anteil an Spieler mit 10.1 Hardware >95%? ;)
Richtig lesen wäre hilfreich.
LovesuckZ
2008-06-25, 17:22:38
Welchen Vorteil bringt dann 10.1 gegenüber 10.0?
AnarchX
2008-06-25, 17:31:51
Welchen Vorteil bringt dann 10.1 gegenüber 10.0?
Demirug kann halt seine technophile Neigung ausleben und sich darüber erfreuen unter D3D10.1 einen oder mehrere Passes zu sparen. ;)
Welchen Vorteil bringt dann 10.1 gegenüber 10.0?
Sehr wahrscheinlich Performance.
Demirug
2008-06-25, 20:34:57
Ich kenne deinen Programmierstil und Auffassung nicht. Aber es gibt Entwickler, wie die von Assassins Creed, denen das wohl egal war. Also gibts offenbar auch Gründe für solch eine Entscheidung.
Konsolen port. Für ein RTS nimmt man aber einen PC als Leadplattform.
A > B = A ist größer als B.
Um dann zu lesen, dass die Implementierung von D3D10.1 den fünfachen Aufwand gekostet habe?
:biggrin:
Verstehe ich jetzt nicht.
Demirug kann halt seine technophile Neigung ausleben und sich darüber erfreuen unter D3D10.1 einen oder mehrere Passes zu sparen. ;)
Allerdings nur bei AA Situationen. Ohne habe ich bisher nichts gefunden wo man mit 10.1 schneller werden kann.
MikBach
2008-06-25, 21:28:34
Verstehe ich jetzt nicht.
Allerdings nur bei AA Situationen. Ohne habe ich bisher nichts gefunden wo man mit 10.1 schneller werden kann.
Ich verstehe es auch nicht, da immer die Behauptung im Raum stand, dass die Implementierung mit D3D10.1 einfacher und effizienter als mit 10.0 ist.
Vielleicht kannst Du ja etwas dazu sagen...?
AnarchX
2008-06-25, 21:29:20
Allerdings nur bei AA Situationen. Ohne habe ich bisher nichts gefunden wo man mit 10.1 schneller werden kann.
Könnte nicht ähnliches bei Nvidia-HW erreicht werden, die ja auch meinen, dass sie "multisample readback" unterstützen.
MikBach
2008-06-25, 21:47:01
Könnte nicht ähnliches bei Nvidia-HW erreicht werden, die ja auch meinen, dass sie "multisample readback" unterstützen.
So wie ich das verstanden habe, kann es nicht direkt über die API angespochen werden..
Könnte nicht ähnliches bei Nvidia-HW erreicht werden, die ja auch meinen, dass sie "multisample readback" unterstützen.
Color sowieso. Z geht über 10.0 über die API nicht da kann die Karte können was sie will.
Exxtreme
2008-06-25, 23:13:44
Könnte nicht ähnliches bei Nvidia-HW erreicht werden, die ja auch meinen, dass sie "multisample readback" unterstützen.
Selbst wenn die Hardware das kann, wenn das API in der Version das nicht spezifiziert hat, wird es nicht gehen. Die D3D-Version gibt es nur in einem Paket.
deekey777
2008-06-25, 23:16:02
...
Verstehe ich jetzt nicht.
...
Das war eine gemeine Anspielung auf die Äußerung von VALVe über den Aufwand, den sie für die Implementierung des Mixedmodes betrieben mussten. Ich glaube, er fünfmal so hoch. Der Aufwand den Standardmodus einzubauen war aber gleich Null. Null*Fünf...
:biggrin:
Egal.
AnarchX
2008-06-26, 07:46:15
Something that hasn't been noted yet is that EA and SEGA are signed on with us for DX10.1 titles, we've also signed a fairly major deal with Blizzard.
http://rage3d.com/board/showpost.php?p=1335512390&postcount=12
Selbst wenn die Hardware das kann, wenn das API in der Version das nicht spezifiziert hat, wird es nicht gehen. Die D3D-Version gibt es nur in einem Paket.
Das ist die Theorie. Ich erinnere mal an Geometry instancing, dass auch nur für SM3 spezifiziert ist und das ATI dennoch per Hack in den R4xx implementiert hat.
Exxtreme
2008-06-26, 09:24:45
Das ist die Theorie. Ich erinnere mal an Geometry instancing, dass auch nur für SM3 spezifiziert ist und das ATI dennoch per Hack in den R4xx implementiert hat.
Soviel ich weiss war Direct3D 9 um einiges mehr wischiwaschi spezifiziert als es D3D10 ist.
Das Problem bei D3D10 ist dass es keine selber definierbaren Texturformate mehr gibt und dass die Runtime alles zurückweißt was 10.1 ist wenn man 10.0 verwendet.
Bei GI unter D3D9 hat man einfach nach einem Texturformat geschaut das bei ATI da war wenn GI aktiviert war und hat dann die Funktionen dafür ganz normal verwendet.
MikBach
2008-06-26, 09:34:53
Das ist die Theorie. Ich erinnere mal an Geometry instancing, dass auch nur für SM3 spezifiziert ist und das ATI dennoch per Hack in den R4xx implementiert hat.
GI konnte auch schon der R300.
In Hardware kann das erst R5xx. Das ist eine reine Treibergeschichte, was aber keine Rolle spielt weil es vor allem darum ging den Overhead der DX-Runtime zu reduzieren.
ShadowXX
2008-06-26, 11:58:53
http://rage3d.com/board/showpost.php?p=1335512390&postcount=12
Der Sega Titel ist sogar PC Exclusiv und hat nur 10.0 und 10.1 Support. Kein DX9 Fallback.
seahawk
2008-06-26, 12:27:40
Der Sega Titel ist sogar PC Exclusiv und hat nur 10.0 und 10.1 Support. Kein DX9 Fallback.
Und kommt 2011 ? Zeitnah einen DX10 only Titel anzubieten wäre, bei der Verbreitung von XP zu VISTA, wohl etwas sehr riskant. Vor Windows 7 wird man das imho nicht erleben.
Sorkalm
2008-06-26, 12:31:01
Und kommt 2011 ? Zeitnah einen DX10 only Titel anzubieten wäre, bei der Verbreitung von XP zu VISTA, wohl etwas sehr riskant. Vor Windows 7 wird man das imho nicht erleben.
Wenn man vor Windows 7 einen DX10-only-Titel anbietet gibts sicher aber auch noch etwas Cash von MS. ;)
ShadowXX
2008-06-26, 12:32:43
Und kommt 2011 ? Zeitnah einen DX10 only Titel anzubieten wäre, bei der Verbreitung von XP zu VISTA, wohl etwas sehr riskant. Vor Windows 7 wird man das imho nicht erleben.
Soll 2009 kommen.....
Kriton
2008-06-26, 14:26:52
According to officials from Phenomic Studio, the BattleForge game runs about 30% faster on DX10.1 compared to DX10 thanks to lower amount of rendering passes needed (perhaps, not in all types of scenes).
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_9.html#sect0
Demirug
2008-06-26, 17:44:18
Warum nur können die Leute nicht richtig zuhören?
Die Aussagen waren.
1. Mit Direct3D 10.1 können wir gegenüber 10.0 renderpasses sparen.
2. Wir haben aktuell bis zu 30% mehr Frames mit Direct3D 10 gegenüber Direct3D 9 gemessen.
Adam D.
2008-06-26, 17:48:17
Ham sie halt durcheinander geworfen, passiert doch häufig.
Aber allein schon 30% Geschwindigkeitszuwachs durch den D3D10-Pfad find ich klasse. Ich hoffe, man kriegt die relativ konstant und nicht nur in Ausnahmefällen.
Könnt ihr da auch eine Aussage zu einem durchschnittlichen Zuwachs treffen?
Sorkalm
2008-06-26, 17:50:17
Hier mal eine AMD-Folie:
http://s7.directupload.net/images/user/080626/oxmtze6d.jpg
Demirug
2008-06-26, 17:57:29
Ham sie halt durcheinander geworfen, passiert doch häufig.
Aber allein schon 30% Geschwindigkeitszuwachs durch den D3D10-Pfad find ich klasse. Ich hoffe, man kriegt die relativ konstant und nicht nur in Ausnahmefällen.
Könnt ihr da auch eine Aussage zu einem durchschnittlichen Zuwachs treffen?
Ich werde mich hüten für nicht finalisierte Software solche Aussagen zu treffen.
Botcruscher
2008-06-26, 18:15:12
2. Wir haben aktuell bis zu 30% mehr Frames mit Direct3D 10 gegenüber Direct3D 9 gemessen.
In Spiel XYZ oder nur in 5% davon?
PS:
Bzw. Bei Graka oder CPU limitierung?
Adam D.
2008-06-26, 19:36:40
Ich werde mich hüten für nicht finalisierte Software solche Aussagen zu treffen.
Ok, verstehe. Wie auch immer: D3D10 kommt und bringt endlich sichtbare Vorteile, nicht diese geschönten D3D10-Pfäde, die eigentlich keine sind.
reunion
2008-06-29, 14:09:33
Diablo III:
Using the latest graphics technology including DirectX® 10.1, its next-generation 3D engine helps create a thrilling, immersive role-playing experience.
http://eu.blizzard.com/diablo3/faq/#1_1
Demirug
2008-06-29, 14:28:38
Diablo III:
http://eu.blizzard.com/diablo3/faq/#1_1
Kann es sein das man das wieder gelöscht hat?
Sorkalm
2008-06-29, 14:30:07
Kann es sein das man das wieder gelöscht hat?
Anscheinend, ich finds auch nicht mehr. Schon merkwürdig...
reunion
2008-06-29, 14:30:12
Kann es sein das man das wieder gelöscht hat?
/edit: Wohl doch nur ein Fake.
Demirug
2008-06-29, 14:31:54
In Spiel XYZ oder nur in 5% davon?
PS:
Bzw. Bei Graka oder CPU limitierung?
Ich verstehe die Frage nicht ganz.
Ich rede hier von BattleForge und unserer Custom Engine dafür. Für die verpfuschten Direct3D 9 zu 10 Ports von anderen bin ich nicht verantwortlich.
Sorkalm
2008-06-29, 14:31:58
RVINE, Calif. - April 1, 2008
Wo wurde das denn ausgegraben? ;D
reunion
2008-06-29, 14:33:01
Wo wurde das denn ausgegraben? ;D
LOL, scheint wirklich ein Fake zu sein, ich habe das von hier übernommen:
http://forums.vr-zone.com/showthread.php?t=295012
Demirug
2008-06-29, 14:41:38
Hätte mich auch etwas gewundert. Blizzard gilt ja nicht gerade als technophil.
EA, Sega und Blizzard bringen D3D-10.1-Spiele (http://www.computerbase.de/news/software/spiele/2008/juli/ea_sega_blizzard_d3d-101-spiele/)
Schlammsau
2008-08-29, 13:50:20
Gilt DirectX 10.1 bald doch als Kaufargument? (http://ht4u.net/news/2301_gilt_directx_101_bald_doch_als_kaufargument/)
Darunter finden sich Unternehmen, wie Electronic Arts, Sega und NHN Games. Auch wurden schon konkrete Spiele genannt, so wird Electronic Arts Phenomic Studio mit seinem Fantasy-Strategiespiel “Battleforge“ ins Rennen gehen. Sega wird zum Einstieg in die DirectX-10.1-Welt das Echtzeit-Strategiespiel “Stormrise“ nutzen und NHN geht mit dem 3D-Rollenspiel “Cloud 9“ ins Rennen. Die Release-Termine streuen sich jedoch von vierten Quartal diesen Jahres, wie bei “Battleforge“, bis irgendwann im Laufe des Jahres 2009, wie bei “Stormrise“.
Bin gespannt, was es den Spielern bringt, an Crysis sieht man ja, das die Programmierer entweder Richtung Marketing D3D10 gehen. Sprich Grafik anbieten für D3D10 die aber auch unter DX9 verfügbar ist, gibts wieder ne nette InI fummelei...
Das SDK für D3D11 kommt im November, heist das, die "Spec" ist dann fest? GPUs 2Q/2009 schon D3D11 *g
Demirug
2008-08-29, 17:54:54
Bin gespannt, was es den Spielern bringt, an Crysis sieht man ja, das die Programmierer entweder Richtung Marketing D3D10 gehen. Sprich Grafik anbieten für D3D10 die aber auch unter DX9 verfügbar ist, gibts wieder ne nette InI fummelei...
Bei uns kann man da fummeln bis man schwarz wird.
Das SDK für D3D11 kommt im November, heist das, die "Spec" ist dann fest? GPUs 2Q/2009 schon D3D11 *g
Im November kommt eine Techpreview und da kann sich durchaus noch was ändern.
D3D10.1 scheint ja doch nicht so tot zu sein:
"PCGH: Wo liegen die technischen Vorteile von Direct X 10.1? Wie optimiert oder verinfacht Direct X 10.1 den Rendervorgang bei Stormrise?
Artem Kulakov: DX10.1 erlaubt es, direkt aus einem Tiefenpuffer mit Multisampling zu lesen. So braucht man den Tiefenpuffer nicht mehr separat per Multiple-Render-Target zu erzeugen, was zu einem Performancegewinn für DX-10.1-Hardware führt.
DX10.1 bringt festgelegte Sample-Muster für MSAA und erlaubt es dem Pixel-Shader, die AA-Coverage-Maske auszugeben. Damit können wir komplett per MSAA geglättete Alpha-Test-Geometrie (sic!) erzeugen, was zu einer besseren optischen Qualität führt.
Mit der neuen Gather-Instruktion (Gather = (an) sammeln, Anm. d. Übersetzers) in DX10.1 können nun vier Texturkoordinaten auf einmal gesampled werden, was natürlich wesentlich günstiger ist, als viermal ein einzelnes Sample auszulesen. Daher konnten wir unsere Shadow-Mapping-Techniken optimieren und sogar die Qualität steigern.
Diese Gather-Instruktion ermöglicht es auch, die Algorithmen für unsere Screen-Space Ambient Occlusion Technologie zu optimieren, was wiederum zu einem besseren optischen Ergebnis führt.
PCGH: Was sind die allgemeinen Vorteile von Direct X 10.1?
Artem Kulakov: Mit Direct X 10.1 brauchen wir weniger Videospeicher, um die gleiche Bildqualität wie bei Direct X 10.0 zu erzielen. Alternativ können wir auch die Bildqualität verbessern. Es ist so einfach zu programmieren, dass der Veröffentlichungstermin für Stormrise dadurch nicht gefährdet ist. Wir lassen dabei dem Spieler die Wahl zwischen Leistung und Qualität. Direct X 10.1 ist effizienter und löst einige der Einschränkungen von Direct X 10.0 auf."
http://www.pcgameshardware.de/aid,663580/News/PCGH_exklusiv_Wie_nutzt_das_RTS_Stormrise_Direct_X_101/
hört sich doch gut für 10.1 an. :)
10.1 ist so "tot" wie 10.0. Das ist im Moment eher das Problem.
reunion
2008-10-17, 16:43:51
FarCry2 auch mit D3D10.1 laut FUAD: http://www.fudzilla.com/index.php?option=com_content&task=view&id=9992&Itemid=1
Jep, und Ubi patcht das dann wieder raus.
DaBrain
2008-10-17, 20:41:05
Warum nur können die Leute nicht richtig zuhören?
Die Aussagen waren.
1. Mit Direct3D 10.1 können wir gegenüber 10.0 renderpasses sparen.
2. Wir haben aktuell bis zu 30% mehr Frames mit Direct3D 10 gegenüber Direct3D 9 gemessen.
Sieht Battleforge unter D3D10 entscheidend besser aus, oder reich D3D9 aus und ihr nutzt D3D10 für effizienteres Rendering?
@Coda
Erstmal Windows 7 abwarten. Wenn das besser einschlägt als Vista, könnte sich damit die DX10 Lage dramatisch verbessern, selbst wenn es dann schon eine neuere Version gibt.
Die Verbreitung der DX10 Karten sollte zu der Zeit schon ganz ordentlich sein im Vergleich zu DX11 Karten.
Sieht Battleforge unter D3D10 entscheidend besser aus, oder reich D3D9 aus und ihr nutzt D3D10 für effizienteres Rendering?
Wenn ich ältere Aussagen von ihm richtig interpretiere, gibt es D3D10-only-Features.
Far Cry 2: Angeblich Direct X 10.1 und Leistungsplus für HD 4870 X2 durch Hotfix-Treiber
http://www.pcgameshardware.de/aid,663980/News/Far_Cry_2_Angeblich_Direct_X_101_und_Leistungsplus_fuer_HD_4870_X2_durch_Hotfix-Treiber/
=)
Demirug
2008-10-17, 21:26:13
Sieht Battleforge unter D3D10 entscheidend besser aus, oder reich D3D9 aus und ihr nutzt D3D10 für effizienteres Rendering?
Das wir bisher nichts eingebaut haben was mit Direct3D 9 nicht realisierbar war sieht es bisher auch identisch aus.
Erstmal Windows 7 abwarten. Wenn das besser einschlägt als Vista, könnte sich damit die DX10 Lage dramatisch verbessern, selbst wenn es dann schon eine neuere Version gibt.
Die Verbreitung der DX10 Karten sollte zu der Zeit schon ganz ordentlich sein im Vergleich zu DX11 Karten.
Direct3D 11 wird ja auch wieder Direct3D 9 Hardware unterstützen. Das dürfte die Hemmschwelle einiger Entwickler reduzieren.
Wenn ich ältere Aussagen von ihm richtig interpretiere, gibt es D3D10-only-Features.
Wann soll ich denn das gesagt haben?
Krishty
2008-10-17, 21:55:37
Direct3D 11 wird ja auch wieder Direct3D 9 Hardware unterstützen. Das dürfte die Hemmschwelle einiger Entwickler reduzieren.
Hast du zufällig Links mit Details dazu? Mein Hauptgrund auf D3D10 umzusteigen war die garantierte Single-Precision im Shader. Wie das mit D3D9-Hardware umgesetzt wird interessiert mich sehr.
Wann soll ich denn das gesagt haben?Hat jetzt mit Coda nichts zu tun, aber so habe ich das „fummeln bis man schwarz wird“ (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6751088&postcount=140) verstanden.
Demirug
2008-10-17, 22:05:02
Hast du zufällig Links mit Details dazu? Mein Hauptgrund auf D3D10 umzusteigen war die garantierte Single-Precision im Shader. Wie das mit D3D9-Hardware umgesetzt wird interessiert mich sehr.
Gar nicht. Erzeugt man das Device mit einer 9er Techlevel gelten die Anforderungen n die 10er Hardware natürlich nicht mehr.
Hat jetzt mit Coda nichts zu tun, aber so habe ich das „fummeln bis man schwarz wird“ (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6751088&postcount=140) verstanden.
Das war so gemeint das es überhaupt nichts zu fummeln gibt.
Wann soll ich denn das gesagt haben?
Irgendwas wegen Crysis-D3D10-Effekten-mit-D3D9-Configs mal ala "Bei uns kann man lange rumeditieren".
Kann mich aber auch täuschen.
Das war so gemeint das es überhaupt nichts zu fummeln gibt.
Okay.
Krishty
2008-10-17, 22:15:08
Gar nicht. Erzeugt man das Device mit einer 9er Techlevel gelten die Anforderungen n die 10er Hardware natürlich nicht mehr.
Dann geht dieser Irrsinn mit den Caps doch wohl nicht schon wieder los?!? Das beste an D3D10 war IMHO, dass endlich alles überall verlässlich funktionierte und man sich genau darum nicht mehr kümmern musste… ;(
Evtl. gibt's dann ja auch ein vereinheitliches 9er Techlevel.
Demirug
2008-10-17, 22:18:15
Dann geht dieser Irrsinn mit den Caps doch wohl nicht schon wieder los?!? Das beste an D3D10 war IMHO, dass endlich alles überall verlässlich funktionierte und man sich genau darum nicht mehr kümmern musste… ;(
Ein Techlevel definiert einen festen Funktionsumfang. Das haben wir mit 10 und 10.1 ja jetzt auch schon. Ohne den Techlevel wäre es ja gar nicht möglich mit einer Runtime mehrere Hardware Generation zu unterstützen.
Krishty
2008-10-17, 22:41:16
Verstehe, entsprechend dem D3D10_FEATURE_LEVEL1 in D3D 10.1. Okay, dann ist alles klar :) Hatte schon wieder das Schlimmste befürchtet.
DaBrain
2008-10-17, 23:19:29
Da wir bisher nichts eingebaut haben was mit Direct3D 9 nicht realisierbar war sieht es bisher auch identisch aus.
Alles klar, finde ich gut so.
Direct3D 11 wird ja auch wieder Direct3D 9 Hardware unterstützen. Das dürfte die Hemmschwelle einiger Entwickler reduzieren.
Ich habe noch nicht viel über D3D11 gelesen, aber das ist wirklich interessant.
Danke für die Info. Muss mir gleich mal ein bisschen mehr zu dem Thema raussuchen. ;)
Demirug
2008-10-17, 23:27:59
Ich habe noch nicht viel über D3D11 gelesen, aber das ist wirklich interessant.
Danke für die Info. Muss mir gleich mal ein bisschen mehr zu dem Thema raussuchen. ;)
Offiziell wurde dazu AFAIK nicht mehr gesagt als das es funktioniert.
Aber müsste es dann nicht wieder auch Features in D3D11 geben die in D3D10 schon entfernt waren?
Demirug
2008-10-17, 23:58:41
Aber müsste es dann nicht wieder auch Features in D3D11 geben die in D3D10 schon entfernt waren?
Was kommt dir in den Sinn?
Flat Shading z.B. Das muss man in D3D10 ja über den Geo-Shader machen wenn man's braucht.
Krishty
2008-10-18, 00:48:28
Sehr interessanter Punkt. Pointsprites auch.
Jetzt ist es Offiziell, DX10.1 ist TOT ;)
http://www.pcgameshardware.de/aid,664388/News/Far_Cry_2_und_Direct_X_101_offizielles_Entwickler-Statement_bei_PCGH/
Fragt sich wie sie an der API herum an die Features gekommen sind. Weil eigentlich ist die Runtime dagegen recht gut geschützt.
Wenn es nur der Treiber reinpatcht weil sie mit NVIDIA zusammengearbeitet haben nützt das für andere Spiele halt nichts.
Ich Tippe doch sehr stark auf Treiber und das ab dem 180er!
Somit kan NVIDIA Theoretisch jede DX10.1 AA Erweiterung nutzen.
Demirug
2008-10-22, 12:50:14
Fragt sich wie sie an der API herum an die Features gekommen sind. Weil eigentlich ist die Runtime dagegen recht gut geschützt.
Wenn es nur der Treiber reinpatcht weil sie mit NVIDIA zusammengearbeitet haben nützt das für andere Spiele halt nichts.
Die 10er runtime ist relativ schlecht gegen API Hacks geschützt. Warum auch? Prüfungen kosten nur Zeit und man wollte ja den Overhead reduzieren. Zudem mit einem Treiber im Userspace der sowieso schon in den Process geladen wurde kann man noch leichter API Hacks einbringen.
Ich Tippe doch sehr stark auf Treiber und das ab dem 180er!
Somit kan NVIDIA Theoretisch jede DX10.1 AA Erweiterung nutzen.
API Hacks funktionieren in der Regel nur in ganz bestimmten Situationen. Entsprechend erwarte ich nicht das alles wie bei 10.1 funktioniert.
Die 10er runtime ist relativ schlecht gegen API Hacks geschützt. Warum auch? Prüfungen kosten nur Zeit und man wollte ja den Overhead reduzieren. Zudem mit einem Treiber im Userspace der sowieso schon in den Process geladen wurde kann man noch leichter API Hacks einbringen.
Hm okay, dann hab ich das mal falsch aufgeschnappt.
RainingBlood
2008-10-22, 14:50:57
"coole" Sache, dann gibts ja doch noch Hoffnung auf einen entsprechenden Assassins Creed Patch seitens UBI Soft.
Als ATI seinerzeit mit dem Instancing-Hack für die X800er Reihe daherkam, war der Aufschrei der NVidia-Fanboys riesig. Nun ist diese Hackerei offenbar erwünscht. Eine äusserst kleinkarierte Denkweise.
LovesuckZ
2008-10-22, 18:24:04
Du vergleichst eine Entwicklerarbeit mit einem IHV Hack? :rolleyes:
deekey777
2008-10-22, 18:51:29
Jetzt ist es Offiziell, DX10.1 ist TOT ;)
http://www.pcgameshardware.de/aid,664388/News/Far_Cry_2_und_Direct_X_101_offizielles_Entwickler-Statement_bei_PCGH/
Ich weiß nicht, was der Smiley genau bedeutet, aber D3D10.1 ist trotzdem nicht tot, nur weil NVs D3D10-HW ein D3D10.1-Feature bieten.
Man könnte aber sagen, dass sie (NV) bei der Entwicklung der G80-Generation mitgedacht haben. Interessant wäre, wieviel D3D10.1 der R600 ist.
>= 1. Ich vermute Cube-Map-Arrays, und Z-Readbacks auf Multisample-Targets. Die AA-Sachen (Multi-Frequency Shading) dürften fehlen, außerdem Fetch4.
Als ATI seinerzeit mit dem Instancing-Hack für die X800er Reihe daherkam, war der Aufschrei der NVidia-Fanboys riesig. Nun ist diese Hackerei offenbar erwünscht. Eine äusserst kleinkarierte Denkweise.
Wer redet von "erwünscht"? ich sagte doch, es ist vor allem undokumentiert nicht sehr günstig, weil es dann auf ein Spiel beschränkt ist. Vor allem ist dieses Mal blöd, dass man der API nichtmal "ansieht", dass die Zusatzfunktionalität vorhanden ist. ATi hatte damals ein eigenes Texturformat dafür definiert das nichts tat außer auf Instancing anzumelden.
Das die Z-Readbacks nicht in plain 10.0 drin sind ist eh nach wie vor ärgerlich, ich frage mich wer da geblockt hat.
deekey777
2008-10-22, 18:58:04
Du vergleichst eine Entwicklerarbeit mit einem IHV Hack? :rolleyes:
Es ist ein "IHV-Hack", denn das, was sie machen, sieht D3D10 nicht vor. Und diesen Hack nutzen sie auch in STALKER.
Wieso in Stalker? Wie kommst du darauf?
Avalox
2008-10-22, 19:21:24
Far Cry 2 ist tatsächlich ein DX10.1 Spiel.
Hätte ich nicht gedacht.
ShadowXX
2008-10-22, 19:34:08
Far Cry 2 ist tatsächlich ein DX10.1 Spiel.
Hätte ich nicht gedacht.
Es 10.1-Spiel zu nennen, nur weil Sie ein einziges 10.1 Feature benutzen und dies dazu nur dient MSAA zu beschleunigen, halte ich für etwas übertrieben.
Aber nur mit Nvidias "DX10.1". Es wird also wohl darauf hinauslaufen, daß die ATI-only Features aus 10.1 tot sind.
Avalox
2008-10-22, 19:44:13
Es 10.1-Spiel zu nennen, nur weil Sie ein einziges 10.1 Feature benutzen
Wie soll man dieses denn sonst nennen? Klar ist Far Cry 2 damit ein DX 10.1 Spiel. Eben eines, welches auch mit der nVidia extraMini MiniPort DX 10.1 Unterstützung funktioniert.
Diese wird nVidia ja nicht aus Jux eingebaut haben.
Interessant ist doch, dass sich Entwickler mit DX 10.1 überhaupt beschäftigen. Es ist doch damit eine grundlegend andere Situation, als noch vor einiger Zeit. Man muss dort schon die Funktionsunterstützung seitens nVidia als gezwungene Reaktion auf einen Marktdruck verstehen. Toll finden diese die Entwicklung bestimmt nicht.
deekey777
2008-10-22, 19:49:02
Wieso in Stalker? Wie kommst du darauf?
Ich gehe mal blind davon aus. :biggrin:
Es 10.1-Spiel zu nennen, nur weil Sie ein einziges 10.1 Feature benutzen und dies dazu nur dient MSAA zu beschleunigen, halte ich für etwas übertrieben.
Sie nutzen D3D10.1, oder?
Aber nur mit Nvidias "DX10.1". Es wird also wohl darauf hinauslaufen, daß die ATI-only Features aus 10.1 tot sind.
Es gibt keine "ATi-Only"-Features. Entweder es ist D3D10.1 oder gar nicht.
Interessant ist doch, dass sich Entwickler mit DX 10.1 überhaupt beschäftigen. Es ist doch damit eine grundlegend andere Situation, als noch vor einiger Zeit. Man muss dort schon die Funktionsunterstützung seitens nVidia als gezwungene Reaktion auf einen Marktdruck verstehen. Toll finden diese die Entwicklung bestimmt nicht.
Soll Nvidia die Hardware-Features etwa brach liegen lassen, nur weil sie unter 10.0 nicht ansprechbar sind?
Es gibt keine "ATi-Only"-Features. Entweder es ist D3D10.1 oder gar nicht.
Eben nicht, wie Far Cry 2 ja zeigt.
deekey777
2008-10-22, 20:06:14
Eben nicht, wie Far Cry 2 ja zeigt.
Was ist an diesem Text unklar:
Die PCGH-Übersetzung lautet: "Das Ubisoft-Team wollte Anti-Aliasing durch das Auslesen des Multisampled-Depth-Buffers verbessern. Dieses Feature ist entweder über Direct 3D 10.1 direkt zugänglich oder über eine DX10.0-Erweiterung, welche von den Nvidia-GPUs unterstützt wird. Da Nvidia dieses Feature in ihrer Hardware (ab Geforce 8, Anm. der Übersetzer) unterstützt, haben wir uns gefreut, diese Möglichkeit zur Beschleunigung ebenfalls nutzen zu können. Im Falle von Far Cry 2 funktionieren beide Ansätze mit vergleichbarer Performance."
Black-Scorpion
2008-10-22, 20:08:10
Eben nicht, wie Far Cry 2 ja zeigt.
Was zeigt FC2 denn?
Das sie mit einem Hack ein DX10.1 Features für NV nutzen.
Was kann ATI dafür das NV keine 10.1 Hardware hat?
Deswegen ist 10.1 noch lange kein ATI only Features.
reunion
2008-10-22, 20:09:36
Auf AMD-Karten muss FarCry 2 demnach die D3D10.1-API verwenden, da man dieses Feature ja nur bei nV-Karten über den Treiber-Hack bekommt?
san.salvador
2008-10-22, 20:10:02
[...]
Deswegen ist 10.1 noch lange kein ATI only Features.
Wer unterstützt denn außer AMD/ATI 10.1?
reunion
2008-10-22, 20:10:43
Wer unterstützt denn außer AMD/ATI 10.1?
Eigentlich alle außer nV. S3 und bald auch Intel über IMG-Hardware.
Avalox
2008-10-22, 20:12:24
Soll Nvidia die Hardware-Features etwa brach liegen lassen, nur weil sie unter 10.0 nicht ansprechbar sind?
Nö. Obwohl es besser wäre für nVidia, wenn sie dieses tun würden. Oder besser, wenn sie es sich leisten könnten die Funktionen nicht zu unterstützen.
Mit der aktuellen Unterstützung der technisch möglichen Teilmenge sorgt nVidia natürlich dafür, dass sich die Entwickler in Scharen dem DX 10.1 als solches zuwenden. Das kann kaum im Sinne von nVidia sein, wenn der Entwickler die Funktionsübersicht von DX 10.1 in gänze sieht und dann diese mit der eingeschränkten Teilmenge von nVidia vergleicht.
Sicherlich wäre nVidia es viel lieber gewesen, wenn sie diese Entwicklung untern Tisch hätten fallen lassen und erst mit DX 11 wieder aktiv geworden wären.
Es ist allein der Druck des Marktes welcher dort nVidia zwingt. Konkret werden es dort die damit verbundenen noch besseren ATI Benchmark Ergebnisse sein, welche nVidia fürchtet und zu diesem Schritt förmlich zwingt.
Dem heutigen nVidia Karten Nutzer ist dieses natürlich willkommen, hat er doch mehr von seiner alten Karte. Ein Mehr, welches nVidia ihn eigentlich vorenthalten wollte.
Black-Scorpion
2008-10-22, 20:13:26
Wer unterstützt denn außer AMD/ATI 10.1?
Was zum Geier hat das damit zu tun?
DX 10.1 ist von M$ und nicht von ATI.
Wenn die anderen es nicht gebacken bekommen DX10.1 Hardware auf den Markt zu bringen ist das nicht die Schuld von ATI.
Avalox
2008-10-22, 20:15:20
Auf AMD-Karten muss FarCry 2 demnach die D3D10.1-API verwenden
Na auf nVidia Karten wohl auch. Nur wird dort die DX Produktfunktions Abfrage für die nVidia Karte übersprungen (der Hack). Der nVidia Treiber wird dort sicherlich diese eine DX 10.1 Funktion ganz normal als DX10.1 Funktion unterstützen.
nVidia hat damit sowas wie einen DX10.1 Miniport Treiber auf den Markt gebracht.
Und nur mal so nebenbei, es ist wieder ein TWIMTBP Titel, wie damals Assassins Creed!
Ich gehe mal blind davon aus. :biggrin:
Seh ich anders. Stalker braucht kein Z-Readback, weil es ein vollständiger Deferred-Shader ist.
Auf AMD-Karten muss FarCry 2 demnach die D3D10.1-API verwenden, da man dieses Feature ja nur bei nV-Karten über den Treiber-Hack bekommt?
Auch auf Nvidia-Karten wird die 10.1 API verwendet.
ShadowXX
2008-10-22, 21:33:15
Sie nutzen D3D10.1, oder?
Wenn Sie exessiv Cube-Map-Arrays, Multi-Frequency Shading und Fetch 4 in dem Game benutzen würde würde ich dir zustimmen.
Da Sie das Auslesen des Multisampled-Depth-Buffers aber nur benutzen um damit die Geschwindigkeit des MSAA zu steigen ist es für mich kein 10.1-Game in näheren Sinne.
reunion
2008-10-22, 21:39:28
Kein Spiel nutzt alle Features einer API. Zumal die anderen Features wegen fehlender Unterstützung durch nV nicht vernünftig eingesetzt werden können. Bisher beschwerte man sich immer das man durch D3D10 keinen Geschwindigkeitsschub bekam, jetzt bekommt man diesen dank D3D10.1, und wieder ist es nicht recht. Für mich zeigt sich einmal mehr das D3D10.1 viele sehr sinnvolle Features hätte.
deekey777
2008-10-23, 00:13:56
Jetzt ist es Offiziell, DX10.1 ist TOT ;)
http://www.pcgameshardware.de/aid,664388/News/Far_Cry_2_und_Direct_X_101_offizielles_Entwickler-Statement_bei_PCGH/
Mir ist noch eine technische Frage eingefallen: Was ist, wenn ich mit einer HD3800 das Spiel spielen will, aber nur Vista ohne das SP1 installiert habe? Komme ich dann auch in den Genuß des (verbesserten) MSAA?
Wohl eher nicht
Kein Spiel nutzt alle Features einer API. Zumal die anderen Features wegen fehlender Unterstützung durch nV nicht vernünftig eingesetzt werden können. Bisher beschwerte man sich immer das man durch D3D10 keinen Geschwindigkeitsschub bekam, jetzt bekommt man diesen dank D3D10.1, und wieder ist es nicht recht. Für mich zeigt sich einmal mehr das D3D10.1 viele sehr sinnvolle Features hätte.
Meinst du wirklich du kannst das beurteilen? Vor allem das "sehr viele" halte ich bei der schon minimalen Anzahl an zusätzlichen Dingen in D3D10, die auch nur die API orthogonaler machen für ziemlich einseitig ausgelegt.
Im Prinzip reduziert es sich im Moment in allen Fällen auf das leidige Thema des "fehlenden" Z-Readback-Supports. That's it.
reunion
2008-10-23, 07:43:23
Meinst du wirklich du kannst das beurteilen? Vor allem das "sehr viele" halte ich bei der schon minimalen Anzahl an zusätzlichen Dingen in D3D10, die auch nur die API orthogonaler machen für ziemlich einseitig ausgelegt.
Im Prinzip reduziert es sich im Moment in allen Fällen auf das leidige Thema des "fehlenden" Z-Readback-Supports. That's it.
Es ist zumindest bezeichnend, dass trotz der äußerst geringen Verbreitung von D3D10.1 Hardware sich zunehmend Entwickler positiv dazu äußern und es auch in Spielen einsetzen. Aber du hast recht, "viele" (sehr bezog sich auf sinnvoll) ist wohl fehl am Platz, es reduziert sich auf den Z-Readback-Supports. Exklusive Features sind durch die geringe Verbreitung allerdings wohl auch kaum durchzudrücken.
mekakic
2008-10-23, 08:14:10
Es 10.1-Spiel zu nennen, nur weil Sie ein einziges 10.1 Feature benutzen und dies dazu nur dient MSAA zu beschleunigen, halte ich für etwas übertrieben.Naja, so einen riesigen Sack ungenutzer Features gibt es bei DirectX 10.1 ja sowieso nicht. Sie nutzen eines der 3 oder 4 zentralen Features von 10.1 und sind damit natürlich ein 10.1 Spiel.
Da Sie das Auslesen des Multisampled-Depth-Buffers aber nur benutzen um damit die Geschwindigkeit des MSAA zu steigen ist es für mich kein 10.1-Game in näheren Sinne.
was DX10.1 gegenüber DX10 mehr bringt kann man ja an einer hand abzählen, von daher ist es eigentlich garnicht wiklich möglich DX10.1 "exzessiv" zu benutzen ;)
Krishty
2008-10-23, 15:49:26
Was für eine sinnlose Diskussion… Was kommt als Nächstes? Kreischt gleich ein Gast-Troll, Crysis sei ein reines D3D9-Spiel weil die D3D10-Version keine Features bietet, die nicht auch mit 9 möglich sind?
Gerade im Technologieforum – wo es (bezeichnend für diese Diskussion) nur um Nullen und Einsen geht – hätte ich nicht erwartet, dass abgewägt wird, welche Features benutzt werden müssen um welche Nuance zwischen zwei API-Versionen zu erreichen… D3D zehn komma vier neun, klar… gibt es nicht.
Selbst ein Game, das die D3D10.1-Runtime benutzt und auf das 10.0er-Techlevel zurückfällt ist immernoch ein „10.1-Spiel“.
Ailuros
2008-10-26, 10:16:51
Im Prinzip reduziert es sich im Moment in allen Fällen auf das leidige Thema des "fehlenden" Z-Readback-Supports. That's it.
Ehrliche Frage: "hackt" NV die Z-readbacks jetzt durch die Hintertuer mit einer 10.0 extension rein oder machen sie es zu 100% legal? Den nach ihrem eigenem "off the record" Gelaber klingt es eher um den zweiten Fall. OT: uebrigens soll doch auch RSX ueber z-readbacks faehig sein oder? (und ja es hat in dem Fall sowieso nichts mit APIs im PC Sinn zu tun).
Demirug
2008-10-26, 10:25:17
Sie müssen es reinhacken weil es gar keinen „legalen“ Weg gibt Direct3D 10.0 um lediglich ein paar 10.1 Features zu erweitern. Die Regel heißt alles oder nichts.
Da man bei Konsolen ja weitgehend die Kontrolle über den Speicher hat kann man vieles machen. Die gemeinen Tricks erfordern aber auch sehr genaue Kenntnisse über den Datenaufbau. Ein Wissen das man beim PC nicht hat. Aber selbst wenn man es hat kann man es nicht wirklich nutzen da die Anwendung dann wieder auf jede GPU zugeschnitten werden müsste.
deekey777
2008-10-29, 17:17:31
Wie jetzt aussieht, bekommt auch STALKER CS mit dem nächsten Patch D3D10.1:
List of changes. New patch 1.5.06
Saved games
Saved games from 1.5.04 and 1.5.05 will be compatible with the patch 1.5.06.
Game changes
...
Graphics
- Added DX10.1 support.
- Added antialiasing for alpha-tested objects (("alpha-to-coverage" for DX10.0, emulation of "alpha-to-coverage" on DX10.1 to increase quality, original DX10.1 implementation for higher quality).
- Added a new higher level of quality for shadows from the sun (ultra).
- Added the new technology of "min/max shadowmap" (use advantages of DX10.1 on suitable videocards) to increase quality of the sunshaft effect for top videocards and on high resolution.
- Increased performance of the sunshaft effect for DX9.
.
reunion
2008-10-29, 17:22:04
Und das sogar mit verbesserter IQ, sehr schön. Damit summiert sich die Anzahl an aktuellen und zukünftigen DX10.1-Titeln mittlerweile schon zu einer stattlichen Menge.
Was ist von Direct2D zu halten, welches in DirectX 10.1 enthalten sein soll?
http://winfuture.de/news,43258.html
Dürfte wohl eher sowas wie D3DX sein, also ein Layer über der Runtime. Hört sich doch gut an, es gibt viele Dinge die man sonst immer und immer wieder neu erfinden müsste.
Und natürlich geht das auch unter Vista. DXGI ist dort vollständig implementiert.
san.salvador
2008-10-29, 18:11:59
Was sagen eigentlich die Spezis hier? Kommt DX11 noch vor Win7?
Die erste Preview kommt im November-DirectX-SDK. Es sollte meiner Meinung nach ziemlich zeitgleich wie die entsprechende Hardware kommen egal ob Windows 7 schon draußen ist oder nicht.
Demirug
2008-10-29, 18:15:22
Was sagen eigentlich die Spezis hier? Kommt DX11 noch vor Win7?
Die D3D11 CTP kommt nächsten Monat.
san.salvador
2008-10-29, 18:21:02
Die erste Preview kommt im November-DirectX-SDK. Es sollte meiner Meinung nach ziemlich zeitgleich wie die entsprechende Hardware kommen egal ob Windows 7 schon draußen ist oder nicht.
Die D3D11 CTP kommt nächsten Monat.
Danke für die Info.
Demnach ist 10.1, so es überhaubt "am Leben" ist, ein eher kurzes Dasein gegönnt.
Demirug
2008-10-29, 18:25:01
Danke für die Info.
Demnach ist 10.1, so es überhaubt "am Leben" ist, ein eher kurzes Dasein gegönnt.
10.1 ist doch vollständig in 11 enthalten.
Ist im PDC-Preview von Windows 7 auch schon eine Vorab-Version von DirectX 11 oder meinetwegen D3D11 (je nach Fasson) enthalten? Gibt's hier Teilnehmer?
Und das sogar mit verbesserter IQ, sehr schön.
Verbesserte IQ und ATI-Karte ist leider ein Widerspruch in sich. In der Summe wird es auf NVidia besser ausehen dank anständiger Texturfilter.
reunion
2008-10-29, 20:33:21
Verbesserte IQ und ATI-Karte ist leider ein Widerspruch in sich. In der Summe wird es auf NVidia besser ausehen dank anständiger Texturfilter.
Wenn du dafür auf Effekte verzichten musst kannst du dir mit deinem leicht besseren Texturfilter auch nichts kaufen.
Demirug
2008-10-29, 20:38:43
Ist im PDC-Preview von Windows 7 auch schon eine Vorab-Version von DirectX 11 oder meinetwegen D3D11 (je nach Fasson) enthalten? Gibt's hier Teilnehmer?
Ich würde nicht davon ausgehen da mir versichert wurde die erste öffentliche Version ist im SDK. Zudem baut Microsoft nur ungern betas auf betas. Ich kann mir durchaus vorstellen dass die Direct3D 11 Version aus dem SDK überhaupt nicht mit Windows 7 funktioniert.
deekey777
2008-10-30, 12:46:47
Seh ich anders. Stalker braucht kein Z-Readback, weil es ein vollständiger Deferred-Shader ist.
Nächster Versuch: Es darf ja kein MSAA auf MRTs ausgeführt werden, was der G-Buffer gerade ist.
:weg:
Die Kantenglättung in STALKER haut ja übelst rein: http://www.behardware.com/articles/723-11/product-review-the-nvidia-geforce-gtx-280-260.html
Aber es entsteht der Eindruck, dass es eher auf die Bandbreite (oder auch Pixelfüllrate) ankommt, denn die 8800Ultra liegt vor der 9800GTX (sie hat ja deutlich mehr Bandbreite sowie Pixelfüllrate).
Nächster Versuch: Es darf ja kein MSAA auf MRTs ausgeführt werden, was der G-Buffer gerade ist.
Mit D3D10 darf man das sehr wohl.
Die Kantenglättung in STALKER haut ja übelst
Das ist auch logisch, weil bei einem deferred shader dann die Lichtberechnungen pro Subsample ausgeführt werden müssen. Es ist also bis auf die Texturen Supersampling was passiert.
deekey777
2008-10-30, 12:52:52
Argh, das habe ich beim Schreiben unterschlagen, dass es eine DX9-Einschränkung ist.
Es ging aber ursprünglich um D3D10 vs. 10.1, oder lese ich hier was falsch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6863805#post6863805
Stalker braucht keinen "Hack" für AA mit D3D10.
deekey777
2008-10-30, 13:10:04
Es ging aber ursprünglich um D3D10 vs. 10.1, oder lese ich hier was falsch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6863805#post6863805
Stalker braucht keinen "Hack" für AA mit D3D10.
Ja, meine Annahme war falsch. Irgendwie hat mich der "Hack" mitgerissen, dass ich ihn überall sah.;(
Aber es entsteht der Eindruck, dass es eher auf die Bandbreite (oder auch Pixelfüllrate) ankommt, denn die 8800Ultra liegt vor der 9800GTX (sie hat ja deutlich mehr Bandbreite sowie Pixelfüllrate).
deferred renderer brauchen ja generell sehr viel bandbreite.
Krishty
2008-10-30, 15:33:32
Das ist auch logisch, weil bei einem deferred shader dann die Lichtberechnungen pro Subsample ausgeführt werden müssen. Es ist also bis auf die Texturen Supersampling was passiert.Dazu eine kleine Nebenfrage: Wenn ein 10.1-Update den Shader jetzt in Sample-Frequency statt in Pixel-Frequency ausführen würde, würden dann jene Pixel die nicht zu Kanten gehören auch nur einfach gesampled? Oder ist die neue Sample-Frequency das gleiche Supersampling wie vorher, nur mit der Schleife in Hardware statt im Shader-Code?
Dazu eine kleine Nebenfrage: Wenn ein 10.1-Update den Shader jetzt in Sample-Frequency statt in Pixel-Frequency ausführen würde, würden dann jene Pixel die nicht zu Kanten gehören auch nur einfach gesampled? Oder ist die neue Sample-Frequency das gleiche Supersampling wie vorher, nur mit der Schleife in Hardware statt im Shader-Code?
Ich weiß nicht so richtig wie ich darauf antworten soll, weil ich glaube dass du etwas durcheinander bringst.
Deferred Shading macht dieses "Supersampling" eher unfreiwillig, weil man die Lichtberechnungen pro Subsample im Deferred-Pass machen muss, weil ja in einem Pixel unterschiedliche Oberflächen vorhanden sein können.
Was man dagegen tun könnte ist dynamic branching, d.h. schauen ob alle 4 subsamples zum gleichen Dreieck gehören, aber wahrscheinlich wäre das noch teurer.
Krishty
2008-10-30, 16:11:47
Okay, ich mache das Schrittweise und du sagst mir, wo es hakt ;)
Also, bei Multisampling mit Deferred Shading ist es ja so, dass man in ein multisampled Render-Target und Depth-Stencil-Buffer schreiben muss.
Wenn man nun nachträglich die Post-Processing-Effekte drüber jagt – seien es Lichter beim Deferred Shading oder einfach nur ein Tonemapping-Operator – dann muss man auf Sample-Ebene arbeiten.
Wenn man also 4x Antialiasing hat, muss man pro Pixel vier Samples aus der Quelltextur laden. Egal, ob sich dort eine Kante befand oder nicht. Das ist das von dir genannte Supersampling und das macht z.B. S.T.A.L.K.E.R. Clear Sky mit Anti-Aliasing so langsam.
Nun hat man seit 10.1 die Möglichkeit, den Shader mit Sample-Frequency ausführen indem man ihm den Parameter SV_SampleIndex hinzufügt.
Meine Frage ist nun: Führt die GPU den Shader dann weiterhin strikt mit vier Samples pro Pixel aus, so dass man sich damit quasi nur die Schleife im Shader spart, oder prüft die GPU, an welchen Stellen des Depth-Stencil-Buffers überhaupt Polygonkanten aufgetreten sind und führt den Shader ausschließlich auf solchen multisampled Pixeln mehrfach aus, auf den singlesampled aber nur einmal?
Ich habe zwar schon viel drüber gelesen wieviel Arbeit Sample-Frequency spart, aber über diesen speziellen Umstand habe ich nichts gefunden.
Ich hatte auch noch keine Zeit Testszenarios zu schreiben… bei dem was ich testen konnte hatte sich kein Unterschied ergeben, was aber daran liegen kann dass drei Viertel des Bildschirms multisampled waren.
Und mit dynamic Branching hast du Recht, das macht alles nur noch schlimmer. Ich habe auch schon versucht, die multisampled Pixel mit dem Stencil-Buffer zu maskieren und in zwei Passes die multisampled und die singlesampled Pixel zu bearbeiten, das war aber ebenfalls saulahm. Vielleicht habe ich aber auch nur was falsch gemacht, da andere Leute damit wohl bessere Performance erzielen. (http://www.humus.name/index.php?page=3D&ID=81) Hatte nie Zeit, das anders als flüchtig und hastig zu testen.
Achja und entschuldige die dummen Bezeichnungen „multisampled Pixel“ usw. Ich kann das gerade irgendwie nicht in korrektem Deutsch formulieren :D
Man spart sich nur die Schleife im Shader.
Krishty
2008-10-30, 17:07:43
Okay, habe ich befürchtet.
Schade eigentlich… wäre ein nicht unerheblicher Performance-Boost. Ich meine, die Hälfte der Samples gegenüber SS könnte man damit bestimmt sparen, selbst wenn es nur provisorisch implementiert wäre.
deekey777
2008-10-31, 11:21:05
Was haltet ihr von diesem Thread:
What does DX10.1 add vs. DX10 that makes such a big difference? [deferred shading] (http://forum.beyond3d.com/showthread.php?t=45548)
Ubisoft says DirectX 10.1 as good as DirectX 10 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=10237&Itemid=1)
Wie jetzt aussieht, bekommt auch STALKER CS mit dem nächsten Patch D3D10.1:
Und die Verbesserungen sind durchaus nett:
http://www.pcgameshardware.de/aid,665475/Test/Benchmark/Stalker_Clear_Sky_im_D3D101-Test/
Das ginge aber auch alles mit D3D10, denn alle Maßnahmen kosten Leistung ...
MfG,
Raff
deekey777
2008-11-01, 20:46:09
Und die Verbesserungen sind durchaus nett:
http://www.pcgameshardware.de/aid,665475/Test/Benchmark/Stalker_Clear_Sky_im_D3D101-Test/
Das ginge aber auch alles mit D3D10, denn alle Maßnahmen kosten Leistung ...
MfG,
Raff
Das waage ich zu bezweifeln.
Weshalb wiegst du dich da in Sicherheit?
MfG,
Raff
Also das erste Bild zeigt nicht nur eine Änderung der Schatten, das komplette Bild ist weichgezichnet, inklusive der Texturen, HUDs etc...
betasilie
2008-11-01, 22:28:39
Weshalb wiegst du dich da in Sicherheit?
MfG,
Raff
Ich mein Du kannst sogar Raytracing machen wenn du willst mit einem DX10 Chip, wenn Du willst. Ob das sinnvoll ist, ist eine andere Frage. ;
Krishty
2008-11-01, 22:48:22
Also das erste Bild zeigt nicht nur eine Änderung der Schatten, das komplette Bild ist weichgezichnet, inklusive der Texturen, HUDs etc...Nein, es ist nur sauber antialiased. Man kann ziemlich gut erkennen, dass die Kreise auf dem HUD nicht nur weicher, sondern auch klarer und besser als rund erkennbar geworden sind. Warum das durch die Änderung der Schatten passiert, weiß ich aber auch nicht.
nagus
2008-11-02, 19:14:04
DX10.1 ist mit Sicherheit nicht tot. Windows 7 wird für die Oberfläche DX10.1 unterstützen und langsam aber sicher kommen immer mehr DX10.1 Spiele....
Und weils so schön ist hier ein interessantes DX10.1 Techdemo (http://forums.vr-zone.com/showthread.php?t=347076) für alle glücklichen Radeon Besitzer.
reunion
2008-11-02, 19:16:39
Das ginge aber auch alles mit D3D10, denn alle Maßnahmen kosten Leistung ...
Das ginge auch alles mit Softwarerendering, solche Aussagen sind so alt wie das erste DX-Level.
DX10.1 ist mit Sicherheit nicht tot. Windows 7 wird für die Oberfläche DX10.1 unterstützen und langsam aber sicher kommen immer mehr DX10.1 Spiele....
Und welche ziehen Nutzen daraus? Bisher keines...daher ist D3D10.1 ziemlich wayne.
deekey777
2008-11-02, 20:14:22
Das ginge auch alles mit Softwarerendering, solche Aussagen sind so alt wie das erste DX-Level.
Jetzt übertreibst du etwas.
Schaut euch den Thread, den ich verlinkt habe.
Ich hab das so verstanden:
Zumindest in der Theorie besteht die Möglichkeit mittels für D3D10.1 vorbehaltenen Features eine bessere Kantenglättung hinzubekommen.
DX10.1 ist mit Sicherheit nicht tot. Windows 7 wird für die Oberfläche DX10.1 unterstützen und langsam aber sicher kommen immer mehr DX10.1 Spiele....
garantiert nicht so lange ein großer teil der verkauften karten immer noch kein 10.1 beherrscht.
selbst die vista-oberfläche braucht nur SM2, obwohl zum zeitpunkt der veröffentlichung SM3 schon sehr weit verbreitet war.
Black-Scorpion
2008-11-02, 20:29:17
Als ob M$ interessiert ob nV DX10.1 Karten verkauft oder nicht.
Win7 unterstützt es, es steht nirgends das es Voraussetzung ist.
M$ ist eine der wenigen Firmen wo nV mit Kohle nicht nachhelfen kann. ;)
nagus
2008-11-02, 20:33:42
Und welche ziehen Nutzen daraus? Bisher keines...daher ist D3D10.1 ziemlich wayne.
wenn du eine dx10.1 karte hättest, könntest du dirs anschaun :P
"kein nutzen" ist jedenfalls zu 100% gelogen und vollkommener BS.
Schlammsau
2008-11-02, 20:40:13
Und welche ziehen Nutzen daraus? Bisher keines...daher ist D3D10.1 ziemlich wayne.
Ziemlich einseitige Sichtweise, findest du nicht?
Welches Spiel zieht momentan einen Nutzen aus DX10?
Wenn du dafür auf Effekte verzichten musst kannst du dir mit deinem leicht besseren Texturfilter auch nichts kaufen.D3D 10.1 ermöglicht keine neuen Effekte, kann aber die Performance bestimmter Effektberechnungen steigern.
Mir sind irgendwelche Shader-Effekte schnurz wenn meine Augen durch Texturflimmern Krebs bekommen.
Ziemlich einseitige Sichtweise, findest du nicht?
Welches Spiel zieht momentan einen Nutzen aus DX10?
Eben das wollte ich doch damit sagen...
Sieht das Fett aus :eek:
http://www.pcgameshardware.de/aid,665778/Download/Unigine-Tropics-Demo_nutzt_Grafikkarten_mit_DX101/
deekey777
2008-11-06, 15:38:29
Sieht das Fett aus :eek:
http://www.pcgameshardware.de/aid,665778/Download/Unigine-Tropics-Demo_nutzt_Grafikkarten_mit_DX101/
Was genau sieht dort fett aus?
Es wurde "nur" bessere Kantenglättung eingeführt.
Avalox
2008-11-06, 18:11:35
Was genau sieht dort fett aus?
Es wurde "nur" bessere Kantenglättung eingeführt.
Mach ich da irgendwas falsch mit dem Mouseover Bild? Die Bilder sind doch allesamt von PCGH verkleinert worden, also ein Supersampling drüber laufen lassen. Wie soll man dort noch Unterschiede sehen?
Das ist doch zu beknackt als, dass es sein kann.
Schlammsau
2008-11-06, 18:30:29
Mach ich da irgendwas falsch mit dem Mouseover Bild? Die Bilder sind doch allesamt von PCGH verkleinert worden, also ein Supersampling drüber laufen lassen. Wie soll man dort noch Unterschiede sehen?
Das ist doch zu beknackt als, dass es sein kann.
Das dachte ich mir auch!
deekey777
2008-11-06, 18:44:30
Mach ich da irgendwas falsch mit dem Mouseover Bild? Die Bilder sind doch allesamt von PCGH verkleinert worden, also ein Supersampling drüber laufen lassen. Wie soll man dort noch Unterschiede sehen?
Das ist doch zu beknackt als, dass es sein kann.
Du kannst immernoch die Bilder einzeln in Originalgröße sehen, wo man den Unterschied schon sieht. Was daran "FETT" sein soll, ist mir ein Rätsel.
Krishty
2008-11-06, 19:18:35
Mach ich da irgendwas falsch mit dem Mouseover Bild? Die Bilder sind doch allesamt von PCGH verkleinert worden, also ein Supersampling drüber laufen lassen. Wie soll man dort noch Unterschiede sehen?
Das ist doch zu beknackt als, dass es sein kann.Du sagst es.http://s1b.directupload.net/images/080926/om9nmli5.jpgWas daran "FETT" sein soll, ist mir ein Rätsel.Es sieht wirklich viel besser aus. Sicher, dass du die Bilder nicht nur direkt, sondern auch in der Originalgröße hast anzeigen lassen? Wenn Firefox sie ein paar Pixel in der Breite skaliert sieht man wieder keinen Unterschied.
Am besten ist es eh in Bewegung, wo die Palmenblätter ohne AA nurnoch flimmern, mit 8xAA aber butterweich sind.
Btw hätte ich Crysis deshalb nie als das Spiel mit der besten Grafik bezeichnet… obwohl vieles – insbesondere die ambient occlusion – durchaus beeindruckend war, hat die Flimmervegetation, die mit keiner heutigen Hardware zu bändigen ist bei mir nur Augenkrebs und Brechreiz verursacht.
Wenn jetzt noch Parallax mit weichen Kanten kommt, gibt es doch noch Hoffnung für die unter uns, die auf Bildqualität stehen. (oder gibt es das schon und ich habe es nur verpennt?) Dunn-dunn-dunn-DUUUUNN
DaBrain
2008-11-06, 20:00:37
Verwendet Crysis 1-Bit Alpha für die Vegetation?
Ja, SSAO ist eine nette Sache. ;)
Supersampling sollte das Parallax Zeug auch mit erwischen, ansonsten habe ich noch von keiner anderen (schnelleren....) Möglichkeit gelesen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.