PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25

Foobar2001
2016-10-08, 10:50:49
Eh? Dieses Jahr gab es bisher exakt 0 AAA-Releases mit UE4, wieso sollte sich das in Zukunft aendern? Activision, EA, Ubisoft und Zenimax haben alle eigene Engines.

Das einzige was austeht ist Space Hulk, sonst was? Paragon zaehl ich nich. GoW 4 ist meiner Informationen nach eben kein UE4, sondern immer noch modifizierte UE3. Aber selbst wenn nicht, dann haetten wir zwei.

Edit: Okay, Street Fighter noch.

deekey777
2016-10-08, 11:01:18
Heißt das im Umkehrschluss bei Quantum Break hatte Nvidia keinen Bock?

Quantum Break kam vor GTX 1080. X-D

dargo
2016-10-08, 11:13:00
Warum sollte NV Quautum Break jucken die Engine wird vermutlich in den Müll geschmissen.UE4 wird wieder herrschen und ist ideal auf Nvidia GPU's angepasst.
Der Trend geht eher in Richtung eigene Engines bei großen Studios.

Quantum Break kam vor GTX 1080. X-D
Keine Ahnung was du mir damit sagen möchtest. Gabs vor Pascal keine NV GPUs? Maxwell sieht nämlich kein Stück besser in Quantum Break @DX12 aus.

Edit:
Anderes Thema... gibt es eigentlich sehr aktuelle Benchmarks mit Rise of the Tomb Raider mit aktuellen Treibern? Hier liegt in 1440p die Fury X @VH sogar minimal vor der 980TI.
https://abload.de/img/zwischenablage08g6bfl.jpg
http://www.overclock3d.net/reviews/gpu_displays/rise_of_the_tomb_raider_directx_12_performance_update/3

Und das mit Crimson 16.7.1, Crimson 16.7.3 legt nochmal ca. 10% zu. Zudem würde mich mal auch ein Vergleich mit 1-4xAF interessieren nachdem man nun weiß, dass die Radeons deutlich stärker mit 16xAF in diesem Spiel einbrechen. :wink: Ein Vergleich mit aktuellen Spielstand, Crimson 16.10.1 und FW 373.06 wäre wünschenswert. PCGH, CB ?

dildo4u
2016-10-08, 12:45:46
Tomb Raider wird vermutlich näste Woche noch mal dick gepatcht wenn die 20 Years Version kommt dann könnten sie noch mal testen.

dargo
2016-10-08, 14:11:51
Jo... wäre nett wenn es weitere Performancesteigerungen gibt.

Kartenlehrling
2016-10-08, 14:28:30
UE4 wird wieder herrschen und ist ideal auf Nvidia GPU's angepasst.


:confused:

Daran glaub ich nicht mehr, vor 10 Jahren als Unreal für jedes dritte Spiele genommen wurd und in Asien seinen Siegeszug hatte vielleicht,
heute ... never never ever. (https://youtu.be/41_vMWOzbFA?t=1656)

dildo4u
2016-10-08, 14:47:01
Hab noch mal im neuen Heft geguckt PCGH hat Tomb Raider noch mal gebencht Treiber 372.70 und 16.9.1.Dort ist Nvidia massiv besser vermutlich weil sie eine CPU Limitierte Stelle im Geo Valley benchen.

System 6700k@4.5GHz

DX12 1080p Maximale Detail's Texturen Hoch

Sind alles Karten mit Werk's OC.

GTX 1080 90fps
980 TI 70fps
1070 70fps
1060 50fps
970 46fps
Fruy Nitro 42fps
480 42fps
390 39fps


4k

1080 36fps
980 Ti 31fps
1070 28fps
Fury Nitro 21fps
1060 20fps
390 19fps
970 18fps
480 18fps

dargo
2016-10-08, 15:28:48
Schon merkwürdig die Ergebnisse der PCGH. Gibts irgendwo ein Video der Testszene zum Nachstellen? Wie sehen die Ergebnisse in 1440p aus?

dildo4u
2016-10-08, 15:47:59
Sie haben nur 1080 und 4k gebencht.

Das dürfte der neue Bench sein.

https://youtu.be/3mPpGzuBeko?t=2m56s

dargo
2016-10-08, 16:05:20
Ich finde die Stelle auf Anhieb bei meinen Savegames nicht. :( Weiß aber, dass ich schon dort war. Weißt du zufällig wieviel % vom Spiel schon durch ist bei dieser Stelle?

dildo4u
2016-10-08, 16:20:42
Ich finde die Stelle auf Anhieb bei meinen Savegames nicht. :( Weiß aber, dass ich schon dort war. Weißt du zufällig wieviel % vom Spiel schon durch ist bei dieser Stelle?
35% sieht man kurz im Video.

dargo
2016-10-08, 16:37:25
Ah... übersehen. Komischerweise sind es bei mir 26% an der gleichen Stelle. Ich schau es mir gleich an.

Achill
2016-10-08, 16:39:50
Die Stelle schein ein Worst-Case zu sein, musste eine Weile dort suchen um wirklich die FPS der PCGH zu bekommen. Was ich hier kritisieren würde (wenn es nicht auch andere Werte in der PCGH gibt), dass dies nicht repräsentativ für das gesamte Spiel ist ..

@Dargo, beim Save einfach die .txt Endung wegnehmen und in dein Save-Game Ordner packen.

aufkrawall
2016-10-08, 16:42:18
Das ist kein Worst Case, ich hatte im Geothermal Valley mit der 390 in WQHD schon ~23fps.
Das Spiel hat eine miese Performance und auf Radeons nochmal eine deutliche Spur mieser. Hier kann sich immerhin Polaris von der 390 etwas absetzen, was gegen die NVs aber auch nicht reicht.
Btw: Sieht man im PCGH-Video sofort das üble Gestocke mit DX11 & Radeons.

dargo
2016-10-08, 16:47:22
Ich bin gerade die Stelle so wie die PCGH im Video abgelaufen. Ergebnis in 1080p 57-80fps mit Crimson 16.10.1, und das mit einem Hassi 4C/8T @3,7Ghz. Habe aber angepasste Settings und 1xAF.
57650

Da muss ja irgendein Setting abseits von 16xAF noch extrem Leistung auf Radeons fressen wenn die PCGH dort nur 39 avg.fps mit der R9 390 erreicht. Mal genauer ansehen...

Achill
2016-10-08, 16:52:23
Ich bin gerade die Stelle so wie die PCGH im Video abgelaufen. Ergebnis in 1080p 57-80fps mit Crimson 16.10.1, und das mit einem Hassi 4C/8T @3,7Ghz. Habe aber angepasste Settings und 1xAF.
57650

Da muss ja irgendein Setting abseits von 16xAF noch extrem Leistung auf Radeons fressen wenn die PCGH dort nur 39 avg.fps mit der R9 390 erreicht. Mal genauer ansehen...

Ja, meine Settings waren Maxed-Out, es ist das AF (was PCGH mit HQ betreibt) und wir haben Schnee im Hintergrund a.k.a. Tess. Killer :D


Das ist kein Worst Case, ich hatte im Geothermal Valley mit der 390 in WQHD schon ~23fps.
Das Spiel hat eine miese Performance und auf Radeons nochmal eine deutliche Spur mieser. Hier kann sich immerhin Polaris von der 390 etwas absetzen, was gegen die NVs aber auch nicht reicht.
Btw: Sieht man im PCGH-Video sofort das üble Gestocke mit DX11 & Radeons.

Hast du ein Save bzw. ein Screen? Bei den Radeons muss man bei RotTR auf DX12 gehen, dann gibt es keine Stocker und Max.Out Settings braucht auch mehr als 4GB (war ja eine Rx480-4GB) ...

aufkrawall
2016-10-08, 16:56:39
HQ-AF gibt es mit AMD für DX12 gar nicht. Außer, es wurde heimlich mit den letzten Treibern geändert. Was ich nicht glaube, bis das Gegenteil bewiesen ist.


Hast du ein Save bzw. ein Screen? Bei den Radeons muss man bei RotTR auf DX12 gehen, dann gibt es keine Stocker und Max.Out Settings braucht auch mehr als 4GB (war ja eine Rx480-4GB) ...
Geh mal bei Nacht & Regen im Geothermal Valley zu diese Höhle in der Nähe des hochgelegenen Dorfes (wo man ganz zuerst ist). Wenn man vor der Höhle stand und in Richtung des Dorfes geschaut hat, lagen die fps häufig bei ~23 mit der 390.

dargo
2016-10-08, 17:17:41
Ja, meine Settings waren Maxed-Out, es ist das AF (was PCGH mit HQ betreibt) und wir haben Schnee im Hintergrund a.k.a. Tess. Killer :D

Jo... die Hauptfresser sind wieder Tessellation und HBAO+.

Max. Details, Texturen hoch wie bei PCGH.
https://abload.de/thumb/rottr_2016_10_08_16_5j3ul5.jpg (http://abload.de/image.php?img=rottr_2016_10_08_16_5j3ul5.jpg)

Ohne Tessellation ist die Szene gleich mal 16% schneller. :freak:
https://abload.de/thumb/rottr_2016_10_08_16_51eued.jpg (http://abload.de/image.php?img=rottr_2016_10_08_16_51eued.jpg)

Und wofür? Ich musste schon die Lupe rauskramen um den vorderen Stein rechts im Bild zu erkennen. ;D

Das ganze dann nochmal zusätzlich mit AO ein anstatt HBAO+ und 1xAF.
https://abload.de/thumb/rottr_2016_10_08_16_5dbusg.jpg (http://abload.de/image.php?img=rottr_2016_10_08_16_5dbusg.jpg)

Der Witz dabei... ohne HBAO+ werden die Schattierungen noch stärker eingesetzt bei weniger Kosten. :freak: 16xAF ist übrigens in dieser Szene gar nicht mal so teuer. Ich glaube am meisten kostet es mit den Schneespuren. Von allen Settings in diesem Beispiel fällt mir am meisten das fehlende AF auf. Der Rest ist imho ein Witz im Vergleich zu den Kosten.

Ein klassischer Fall von "wie verballere ich sinnlos GPU-Leistung?" :uclap:

dildo4u
2016-10-08, 17:35:35
Polaris als Vergleich wäre mal interessant läuft ja schon so gut wie Fury bei PCGH.Texturen dürften nicht das Problem sein da sie nicht Very High Texturen testen.

fondness
2016-10-08, 17:39:22
Ja PCGH hat ein Talent dafür, solche Szene zu finden. Deshalb liegen AMD Karten auch nirgends so schlecht.

dildo4u
2016-10-08, 17:46:18
Hier meine 1070 1080p alles maxed 16 AF HQ Per Treiber 60fps.

http://abload.de/img/rottr_2016_10_08_17_4ekskt.png

720p Maxed 67fps.

http://abload.de/img/rottr_2016_10_08_17_53dkim.png

Ja PCGH hat ein Talent dafür, solche Szene zu finden. Deshalb liegen AMD Karten auch nirgends so schlecht.
Was sollen Benches in irgendwelchen Hölen mit 100fps bringen?PCGH zockt so lange bis es auffällig scheiße Läuft Geo Valley ist mir auch extrem negativ aufgefallen,deshalb hab ich nicht weiter gezockt und warte immer noch auf Patches.

dargo
2016-10-08, 17:49:17
Ja PCGH hat ein Talent dafür, solche Szene zu finden. Deshalb liegen AMD Karten auch nirgends so schlecht.
Man muss dazu allerdings auch sagen, dass diese Szene extrem schlecht für GCN optimiert ist. Meine GPU erreicht trotz 1440p und angepassten Settings (es limitiert also weder Tessellation noch AF) nur 70°C und klebt fröhlich bei 1020Mhz. Das heißt die Grafikkarte läuft nicht mal in mein tiefes PT rein, trotz DX12. Es ist auch kein CPU-Limit. Mit 720p schießen die Frames Richtung ~70fps.

aufkrawall
2016-10-08, 18:00:36
Ja PCGH hat ein Talent dafür, solche Szene zu finden. Deshalb liegen AMD Karten auch nirgends so schlecht.
Ja, diese böse PCGH findet für AMD immer Stellen, wo sie komisch einbrechen. Das ist natürlich PCGHs Schuld, und nicht etwa AMDs. :rolleyes:

Abgesehen davon finde ich die Tesselation in RoTR recht hübsch. Die Bäume wirken so wie echte 3D-Objekte und es werden in Tombs/Minen teilweise auch Steinböden recht schön tesseliert.
Wär natürlich besser, wenn es im Spiel noch Qualitätseinstellungen für Tess gäbe für Hardware, die Probleme damit hat.
AMD könnte aber auch einfach mal mehr Treiber-Features für DX12 bringen, etwa den Regler für die Tess-Begrenzung. Sehr kundenunfreundlich, dass es das nicht gibt.

dildo4u
2016-10-08, 18:06:24
390 wird mit der Zeit immer schlechter laufen,da die maximalen Detail Einstellungen der PC Ports ziemlich sicher auf PS4 Pro und Scorpio ausgelegt werden.Ich erwarte also mehr Tesseinsatz in Zukunft.

dargo
2016-10-08, 18:09:54
Ja, diese böse PCGH findet für AMD immer Stellen, wo sie komisch einbrechen. Das ist natürlich PCGHs Schuld, und nicht etwa AMDs der Entwickler. :rolleyes:

Fixed.

390 wird mit der Zeit immer schlechter laufen,da die maximalen Detail Einstellungen der PC Ports ziemlich sicher auf PS4 Pro und Scorpio ausgelegt werden.Ich erwarte also mehr Tesseinsatz in Zukunft.
Bis das passiert steckt schon lange ein fetter Vega mit 10-12 TFLOPs im Rechner, also wayne. ;) Mal davon abgesehen, dass ich die Tessellation in RotTR außerhalb der Schneespuren (die ich eh lächerlich unrealistisch finde) mit der Lupe suchen muss.

aufkrawall
2016-10-08, 18:16:05
Fixed.

Auch, kein Widerspruch. Aber AMD hat trotzdem mehr mit Flaschenhälsen in der Hardware zu kämpfen als Nvidia. RoTR ist ja schon DX12 mit AC.

dargo
2016-10-08, 18:18:33
Auch, kein Widerspruch. Aber AMD hat trotzdem mehr mit Flaschenhälsen in der Hardware zu kämpfen als Nvidia.
Aha...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11177950&postcount=1856

aufkrawall
2016-10-08, 18:21:03
Ich beziehe mich natürlich auf die fps in Spielen, was hat die Programmierfreundlichkeit von LL-APIs damit zu tun?

Achill
2016-10-08, 18:22:23
Auch, kein Widerspruch. Aber AMD hat trotzdem mehr mit Flaschenhälsen in der Hardware zu kämpfen als Nvidia. RoTR ist ja schon DX12 mit AC.

Man muss immer auf sein Bezugspunkt achten, der ursprüngliche Hawaii stammt aus der Zeit der GTX 780, und ihr habt jetzt auch kein 970/980/TI mehr drin sondern eine 1070/80 die ordentlich mit DX12 laufen sollte (muss) und auch schneller sein sollte, man hat ja i.d.R. schon das zweite Upgrade drin.

Kartenlehrling
2016-10-08, 18:27:05
Einigen wir uns das DX12 nicht das ist was uns Microsoft vor einem Jahr versprochen hat,
sie brauchen wohl nocht ein Jahr, ich werde jetzt Microsoft bis März 2017 Zeit geben um alles auszubügeln.
Dann sollten die ganzen Umstellunge umgesetzt sein, jetzt wird DX12 noch mit zuvielen Altlasten betrieben.

dargo
2016-10-08, 18:27:49
Ich beziehe mich natürlich auf die fps in Spielen, was hat die Programmierfreundlichkeit von LL-APIs damit zu tun?
Du hast von Flaschenhälsen in Hardware gesprochen, nicht ich.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11177975&postcount=1858
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11178167&postcount=1860

Einigen wir uns das DX12 nicht das ist was uns Microsoft vor einem Jahr versprochen hat...

Absolut falsch. Mit ihren +50% in CPU-Limits war Microsoft sogar recht zurückhaltend, besonders bei Radeons. Zusätzlich sollte man natürlich die ganzen UWP-Probleme ausklammern. Das hat rein gar nichts mit der DX12 API zu tun.

aufkrawall
2016-10-08, 18:32:08
Du hast von Flaschenhälsen in Hardware gesprochen, nicht ich.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11177975&postcount=1858
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11178167&postcount=1860

...in Zusammenhang mit niedrigen fps in Spielen.
Deine Zitate haben damit nichts zu tun.

dargo
2016-10-08, 18:34:51
...in Zusammenhang mit niedrigen fps in Spielen.

Das sind alles Flaschenhälse in Software und keiner Hardware, mal völlig übertriebene Tess-Faktoren in einzelnen Games ausgeklammert.

aufkrawall
2016-10-08, 18:38:00
Wenn die Hardware bestimmte Operationen langsamer ausführt als andere, ist das doch kein Flaschenhals in Software... :freak:

dargo
2016-10-08, 18:41:52
Die wären?

aufkrawall
2016-10-08, 18:44:47
Wir hatten allerneulichst erst das Beispiel AF.

dargo
2016-10-08, 18:47:56
Wenn das ein Hardwareproblem ist warum nutze ich in jedem anderen Spiel 16xAF weil es kaum was kostet? Man sollte sich eher fragen was RotTR falsch...ähm anders macht? Achja... 16xAF kostet übrigens nicht immer ~40% auf Radeon. In der geposteten Szene auf der vorigen Seite waren es bsw. "nur" ~15%. Oder besser gesagt 1xAF war ~15% schneller.

Foobar2001
2016-10-08, 18:49:34
Naja, kommt drauf an. Es gibt schon Ecken, da ist GCN effizienter. Dazu gehört auch async compute. Meine letzte Information war, dass NV nur komplette SMs wenn sie nichts zu tun haben dafür benutzen kann, bei AMD kann tatsächlich auf einer CU gemischt alles laufen.

Außerdem gibt es bei GCN halt skalaren Code. Das ist eine sehr nützliche Generalisierung wo NV nur fixed function Constant-Buffer-HW hat. Zum Beispiel spielt es auf GCN überhaupt keine Rolle ob man UAVs oder Konstanten liest. Solange der Compiler weiß das es nicht divergiert ist es exakt das selbe. Bei NV sind *nur* Konstanten-Buffer schnell für nicht divergierende Daten. Und sie haben ein 64KB-Limit, weshalb man schon Sachen aufsplitten muss und es ist ein Krampf. Außerdem kann man bei AMD auch wirklich skalaren Code schreiben, der nur einmal für 64 Pixel läuft und das ist eine andere Einheit, also ist es "umsonst". Das Skalar/Konstanten-Thema betrifft aber jede API, hat mir LL nichts zu tun.

aufkrawall
2016-10-08, 18:54:38
In welchem Spiel merk ich das?
Ausfälle in einzelnen Spielen, wie etwa dieser (http://www.pcgameshardware.de/No-Mans-Sky-Spiel-16108/Specials/Technik-Test-Benchmarks-1204593/), sind mir mit NV nicht bekannt.

Edit: Noch einer:
http://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/obduction-test-gpu

gedi
2016-10-08, 19:26:52
In welchem Spiel merk ich das?
Ausfälle in einzelnen Spielen, wie etwa dieser (http://www.pcgameshardware.de/No-Mans-Sky-Spiel-16108/Specials/Technik-Test-Benchmarks-1204593/), sind mir mit NV nicht bekannt.

Edit: Noch einer:
http://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/obduction-test-gpu
MEC, Ryse, F1 2016 ... Die liefen alle nicht rund auf meiner 1080.

Kartenlehrling
2016-10-08, 19:30:32
NoMan war/ist doch Grütze programiert, das zeigt mir doch schon die i7 CPU Auslastung.
Genauso UE4 Obduction, Singlecore Dreck, wenn ein i3-4330 an einem FX9590@5ghz vorbeizieht such ich die Schuld bestimmt nicht als erstes bei der GPU.

http://gamegpu.com/images/stories/Test_GPU/RPG/No_Mans_Sky/test/nms_intel.png

aufkrawall
2016-10-08, 19:31:48
MEC, Ryse, F1 2016 ... Die liefen alle nicht rund auf meiner 1080.
fps oder Frametimes, plz. Erzählen kann man viel, besonders du. Ich erinnere mich da an eine gewisse Behauptung, dass du selbst die kleinste PT-Drosselung spüren würdest, obwohl das FCAT-Frametimes überhaupt nicht hergeben...

Foobar2001
2016-10-08, 20:13:50
Ich glaube, diese Diskussionen werden fuer immer vergeblich sein.

Es gibt viel zu viele Variablen. Was hat der Entwickler gemacht, was behebt der Treiber was die Applikation verbockt, wie effizient ist die Hardware wirklich, etc.

NVIDIA investiert schon immer mehr in den Treiber, deshalb sind Vergleiche der reinen Hardware gar nicht machbar. No Man's Sky ist zum Beispiel ein garantierter Fall von: Der NVIDIA-Treiber badet es aus.

Hübie
2016-10-08, 22:18:11
@Hübie
Hier sind die ganzen 980TIs mit entsprechenden Taktraten.
http://geizhals.de/?cat=gra16_512&xf=9810_5+5632+-+GTX+980+Ti#xf_top

Vielleicht wirds so klarer worum es mir ging.

Da siehst du aber keineswegs wie hoch der Takt ist wenn du dir so eine Karte mal rein schraubst. Siehe meine Liste. ;) 1311 MHz im Schnitt.

gedi
2016-10-09, 00:26:10
fps oder Frametimes, plz. Erzählen kann man viel, besonders du. Ich erinnere mich da an eine gewisse Behauptung, dass du selbst die kleinste PT-Drosselung spüren würdest, obwohl das FCAT-Frametimes überhaupt nicht hergeben...

Das was das Spielgefühl subjektiv widergibt. Ich brauche dafür keine dämliche Kurve, welche mir dann sagt, ob ich ein Spiel als flüssig empfinden soll oder nicht. Wenn du eine solche Bestätigung brauchst - naja jedem das Seine.

dildo4u
2016-10-09, 03:07:06
Also MEC sieht verdammt sauber auf der 1080 aus gerade mit Skylake sollte das mehr als rocken.


https://youtu.be/F3pLG_I_LiU

N0Thing
2016-10-09, 03:17:23
Weniger Abkürzungen, mehr Text bitte. Ist sowohl für alle, die nicht direkt auf Mirror's Edge Catalyst kommen eine Hilfe, als auch für diejenigen, die später mal eine Suche im Forum starten. ;)

dargo
2016-10-09, 07:45:35
Da siehst du aber keineswegs wie hoch der Takt ist wenn du dir so eine Karte mal rein schraubst. Siehe meine Liste. ;) 1311 MHz im Schnitt.
Nö, bei der Referenz sind es bsw. eher 1115Mhz.
https://www.computerbase.de/2015-06/geforce-gtx-980-ti-test-nvidia-titan/3/

Bei guten Customs mag es anders sein.

Hübie
2016-10-09, 07:59:35
Und nun darfst du raten wie die Relationen Customs : Referenz sind. Dein Argument fußt gerade auf einem Exemplar. Bei AMD hast du solche Fälle erst seit Polaris, aber dort sind die Schwankungen in deutlich kleinerem Spielraum.
Was man also immer bei cb sieht ist das schlechteste Ergebnis das man mit so einer Karte haben kann, während ich z.B. mit eines der besten habe (stets out of the box - OC erreicht JEDE(!) GM200 1311 MHz). Nun kannst du daraus einen Median bilden um Ausreißer nach oben oder unten zu vermeiden und dann kommst du auf ~1311 MHz. Also ziemlich exakt dass was PCGH bencht.
Bei der Hawaii / Grenada im Grunde das Gleiche, nur dass der Takt da nicht von Karte zu Karte schwankt. Dafür wird es wohl kaum noch jemanden geben, der die als Ref-Design hat. ;);)

dargo
2016-10-09, 08:49:35
Naja... selbst die Custom bei der PCGH die mit 1341Mhz taktet läuft beim Speicher weiterhin mit nur 1750Mhz, wie die Referenz. Dann hast du zwar 20% mehr GPU-Takt, durchschlagen wird aber wieviel? 11-14%? Damit reißt du auch keine Bäume raus.

Hübie
2016-10-09, 09:27:48
Speicher OC bringt auch erst ab 1300 wirklich was. Frisst auch was vom PT der Karte. Der Zuwachs schwankt bspw. unter 1140p zwischen 11 und 23 Prozent. Sagen wir also eher 14-16 im Schnitt. Ich finde das schon nicht ohne. Ums kurz zu machen: Nicht einfach das schlucken was da steht. So etwas ähnliches hatten wir beide neulich mit deiner Grenada festgestellt (Verbrauch;)). PCGH kann man also nicht einfach als unrealistische Situation bezeichnen. Darum ging es mir. Wer nun wie in Gears of War abschneidet ist dann eine andere Geschichte. Von zerstören kann man hier allerdings nicht sprechen X-D

dargo
2016-10-09, 10:02:24
Speicher OC bringt auch erst ab 1300 wirklich was. Frisst auch was vom PT der Karte. Der Zuwachs schwankt bspw. unter 1140p zwischen 11 und 23 Prozent. Sagen wir also eher 14-16 im Schnitt.

Bei 20% mehr GPU hast du 23% mehr Leistung? Interessant. :D


PCGH kann man also nicht einfach als unrealistische Situation bezeichnen. Darum ging es mir.
Davon war auch nirgendwo die Rede. :confused:

Hübie
2016-10-09, 11:32:43
Na du sagtest stark übertaktet, was impliziert, dass es eine Ausnahme ist. Ist es eben nicht... Die 23% sind dann mit Speicher-OC. Sorry vergessen zu sagen. :D

Kriton
2016-10-09, 12:09:54
Das ist individuell unterschiedlich. Die Wahl zu haben bedeutet auch immer Verzicht. Je vielfältiger die Auswahl, desto größer auch der Verzicht. Diesen Verzicht kann man als Opportunitätskosten quantifizieren und je größer diese Kosten ausfallen, desto unglücklicher bist du mit deiner Entscheidung. Du wirst tagtäglich in jedem Supermarkt basierend auf diesem Prinzip verarscht. BioWare macht es genauso: In dem sie dir die Auswahl nur vorgaukeln und du am Ende sowieso alle Regler auf Max stellen wirst, fallen diese Opportunitätskosten für dich weg. Du bist zufrieden, lehnst dich zurück und genießt das Spiel.

Schön endlich mal wieder einen Post zu lesen, der fundiert auch über den Tellerrand schaut. :up:

dargo
2016-10-09, 12:28:38
Jo... die Hauptfresser sind wieder Tessellation und HBAO+.

Max. Details, Texturen hoch wie bei PCGH.
https://abload.de/thumb/rottr_2016_10_08_16_5j3ul5.jpg (http://abload.de/image.php?img=rottr_2016_10_08_16_5j3ul5.jpg)

Ohne Tessellation ist die Szene gleich mal 16% schneller. :freak:
https://abload.de/thumb/rottr_2016_10_08_16_51eued.jpg (http://abload.de/image.php?img=rottr_2016_10_08_16_51eued.jpg)

Und wofür? Ich musste schon die Lupe rauskramen um den vorderen Stein rechts im Bild zu erkennen. ;D

Das ganze dann nochmal zusätzlich mit AO ein anstatt HBAO+ und 1xAF.
https://abload.de/thumb/rottr_2016_10_08_16_5dbusg.jpg (http://abload.de/image.php?img=rottr_2016_10_08_16_5dbusg.jpg)

Der Witz dabei... ohne HBAO+ werden die Schattierungen noch stärker eingesetzt bei weniger Kosten. :freak: 16xAF ist übrigens in dieser Szene gar nicht mal so teuer. Ich glaube am meisten kostet es mit den Schneespuren. Von allen Settings in diesem Beispiel fällt mir am meisten das fehlende AF auf. Der Rest ist imho ein Witz im Vergleich zu den Kosten.

Ein klassischer Fall von "wie verballere ich sinnlos GPU-Leistung?" :uclap:
WTF?

Tessellation Off, 1xAF
https://abload.de/thumb/rottr_2016_10_09_12_1b3kat.jpg (http://abload.de/image.php?img=rottr_2016_10_09_12_1b3kat.jpg)

Tessellation On, 1xAF
https://abload.de/thumb/rottr_2016_10_09_12_1y3jsy.jpg (http://abload.de/image.php?img=rottr_2016_10_09_12_1y3jsy.jpg)

Hier sehe ich wenigstens den Unterschied an den zwei Bäumen ganz deutlich und es kostet wesentlich weniger als in der anderen Szene. :uconf2:

Edit:
Ah... der hohe Performancedrop kommt erst mit Tessellation zustande wenn 16xAF ins Spiel kommt.

Tessellation On, 16xAF
https://abload.de/thumb/rottr_2016_10_09_12_3ljsz2.jpg (http://abload.de/image.php?img=rottr_2016_10_09_12_3ljsz2.jpg)

Tessellation On, 1xAF
https://abload.de/thumb/rottr_2016_10_09_12_3yds7q.jpg (http://abload.de/image.php?img=rottr_2016_10_09_12_3yds7q.jpg)

Unglaublich. :usweet:

Kann mir mal einer erklären was da schief läuft?

Edit 2:
Ok... der Hauptfresser ist also 16xAF, Tessellation ist dagegen richtig harmlos.

Tessellation Off, 16xAF
https://abload.de/thumb/rottr_2016_10_09_12_5obl6c.jpg (http://abload.de/image.php?img=rottr_2016_10_09_12_5obl6c.jpg)

So langsam blicke ich durch. :redface:

Lurtz
2016-10-09, 13:27:48
Das was das Spielgefühl subjektiv widergibt. Ich brauche dafür keine dämliche Kurve, welche mir dann sagt, ob ich ein Spiel als flüssig empfinden soll oder nicht. Wenn du eine solche Bestätigung brauchst - naja jedem das Seine.
Laut dem subjektiven Spielgefühl Vieler laufen auch auf 20fps droppende Konsolentitel völlig flüssig. Klar kann man das so berichten, nur macht es ohne handfeste Zahlen einfach keinen Sinn.

Hübie
2016-10-09, 13:41:52
WTF?

Tessellation Off, 1xAF
https://abload.de/thumb/rottr_2016_10_09_12_1b3kat.jpg (http://abload.de/image.php?img=rottr_2016_10_09_12_1b3kat.jpg)

Tessellation On, 1xAF
https://abload.de/thumb/rottr_2016_10_09_12_1y3jsy.jpg (http://abload.de/image.php?img=rottr_2016_10_09_12_1y3jsy.jpg)

Hier sehe ich wenigstens den Unterschied an den zwei Bäumen ganz deutlich und es kostet wesentlich weniger als in der anderen Szene. :uconf2:

Edit:
Ah... der hohe Performancedrop kommt erst mit Tessellation zustande wenn 16xAF ins Spiel kommt.

Tessellation On, 16xAF
https://abload.de/thumb/rottr_2016_10_09_12_3ljsz2.jpg (http://abload.de/image.php?img=rottr_2016_10_09_12_3ljsz2.jpg)

Tessellation On, 1xAF
https://abload.de/thumb/rottr_2016_10_09_12_3yds7q.jpg (http://abload.de/image.php?img=rottr_2016_10_09_12_3yds7q.jpg)

Unglaublich. :usweet:

Kann mir mal einer erklären was da schief läuft?

Edit 2:
Ok... der Hauptfresser ist also 16xAF, Tessellation ist dagegen richtig harmlos.

Tessellation Off, 16xAF
https://abload.de/thumb/rottr_2016_10_09_12_5obl6c.jpg (http://abload.de/image.php?img=rottr_2016_10_09_12_5obl6c.jpg)

So langsam blicke ich durch. :redface:

Sorry, aber hier am Notebook sehe ich keinen Unterschied bei Tesselation. Ebenso macht in der Szene 16xAF keinen Sinn. Foobar2001 meinte dass nur benötigte samples erstellt werden.

Edit: Treiber-AF oder ingame? Macht es einen Unterschied das jeweils andere zu benutzen?

dargo
2016-10-09, 13:50:46
Sorry, aber hier am Notebook sehe ich keinen Unterschied bei Tesselation.

Bildschirm zu klein? :D


Edit: Treiber-AF oder ingame? Macht es einen Unterschied das jeweils andere zu benutzen?
Unter DX12 gibt es bei AMD aktuell nur Applications-AF.

Hübie
2016-10-09, 13:54:59
Ja 15.6" :D Wo soll ich hingucken?

dargo
2016-10-09, 14:05:04
:biggrin:

Auf die Baumrinde rechts bei den beiden Bäumen.

Edit:
Unter DX11 (hier kann der Treiber die AF Settings vom Spiel überschreiben) ist 16xAF über den Treiber genauso teuer. 62fps 1xAF, 47fps 16xAF.

N0Thing
2016-10-10, 00:24:20
:biggrin:

Auf die Baumrinde rechts bei den beiden Bäumen.

Edit:
Unter DX11 (hier kann der Treiber die AF Settings vom Spiel überschreiben) ist 16xAF über den Treiber genauso teuer. 62fps 1xAF, 47fps 16xAF.

Magst du von der Szene auch noch einmal Screenshots mit 4xAF posten, einmal mit Tess und einmal ohne? Würde mich interessieren, ob das ein guter Kompromiss wäre.

TheAntitheist
2016-10-10, 03:10:29
Laut dem subjektiven Spielgefühl Vieler laufen auch auf 20fps droppende Konsolentitel völlig flüssig. Klar kann man das so berichten, nur macht es ohne handfeste Zahlen einfach keinen Sinn.
Ich kann dir versichern, dass der Durchschnitts-PC Spieler noch viel Schmerzfreier ist als ein Konsolenspieler.

dargo
2016-10-11, 22:32:48
Magst du von der Szene auch noch einmal Screenshots mit 4xAF posten, einmal mit Tess und einmal ohne? Würde mich interessieren, ob das ein guter Kompromiss wäre.
Klaro.

Tessellation On, 4xAF
https://abload.de/thumb/rottr_2016_10_11_22_26jpxh.jpg (http://abload.de/image.php?img=rottr_2016_10_11_22_26jpxh.jpg)

Tessellation Off, 4xAF
https://abload.de/thumb/rottr_2016_10_11_22_3b0oe7.jpg (http://abload.de/image.php?img=rottr_2016_10_11_22_3b0oe7.jpg)

Edit:
Gerade eben ist ne neue Version von DxTory erschienen.

ver2.0.137 (2016/10/11)
ADD: Supported DirectX12 multi-GPU.
ADD: RawInput Hook.
MOD: Codes of hook processing.
MOD: UWP process detection was improved.
MOD: Performance of DirectX9 improved.
MOD: All of the capture process code.
FIX: Deadlock of the high-speed screenshot.

http://exkode.com/dxtory-log-en.html

Overlay funktioniert nun endlich einwandfrei bei UWP. :up: Mit Forza 6: APEX getestet, das war vorher immer wieder ein Problem. Mal war das Overlay im Menü kurz da, dann wieder weg. Im Rennen ganz weg usw.

N0Thing
2016-10-12, 00:44:46
Klaro.

Tessellation On, 4xAF
https://abload.de/thumb/rottr_2016_10_11_22_26jpxh.jpg (http://abload.de/image.php?img=rottr_2016_10_11_22_26jpxh.jpg)

Tessellation Off, 4xAF
https://abload.de/thumb/rottr_2016_10_11_22_3b0oe7.jpg (http://abload.de/image.php?img=rottr_2016_10_11_22_3b0oe7.jpg)


Coolio, danke dafür!

Für mich scheint dann 4xAF ein guter Kompromiss bei dem Spiel zu sein, mit Tess "On", sofern in anderen Szenen der geringe AF-Grad nicht stören würde.

dargo
2016-10-12, 08:19:03
Ja, 4xAF nutze ich jetzt auch. Mit 1xAF sieht es dann stellenweise doch etwas "ungewohnt" aus. :D Dennoch... 15% für 4xAF ist immer noch sehr teuer.

Hübie
2016-10-12, 09:10:16
Ich meine dsss es auch mit dem Texturformat zusammenhängt. :uponder: Schwankt somit also von Spiel zu Spiel. Bei TR hat man doch afaik eh wenig Situationen wo man Gitter oder Strassen bis weit in die Ferne sieht, also reicht 4- oder 8-fach ja sicher.

Loeschzwerg
2016-10-14, 19:27:32
AotS DX11 vs DX12 auf Iris Pro 580:
pL_IHfQQK5Y

Mit DX12 gibt es weniger max. FPS, aber dafür deutlich höhere min. FPS und wesentlich konstantere FPS.

Fusion_Power
2016-10-14, 20:15:18
Gar nichtmal übel für ne integrierte Intel-Grafiklösung. Da fragt man sich ja schon fast ob der DX12 Support von Intel so gut, oder der von NVidia/ATIso schlecht ist im Vergleich. :D

Foobar2001
2016-10-14, 20:18:01
Was ist daran schlechter? Intel verliert auch bisschen average FPS, ist doch exakt das selbe bei AMD und NVIDIA bis auf Ausnahmen.

aufkrawall
2016-10-14, 20:20:58
Intel kackt bei Normal Batches, also GPU- statt CPU-Limit, mit DX12 gegenüber 11 ein.
Das tun weder GCN noch Pascal. DX12 läuft also kacke auf Intel.

Edit: Ok, bei der vorhandenen CPU sollte mit DX12 dauerhaft ein GPU-Limit vorliegen. Unverständlich, warum Normal Batches so einbricht. Irgendwas muss da richtig schlecht auf Intel DX12 laufen.

][immy
2016-10-14, 20:30:22
Intel kackt bei Normal Batches, also GPU- statt CPU-Limit, mit DX12 gegenüber 11 ein.
Das tun weder GCN noch Pascal. DX12 läuft also kacke auf Intel.
Könnte mir gut vorstellen, das hier das Problem der Hauptspeicher ist. AotS ist ein Spiel das sowohl die GPU als auch CPU fordert. Wenn beide wirklich aktiv sind, wird die Bandbreite knapp. Wäre jetzt erst mal meine Vermutung für diese Anomalie.
Ansonsten bliebe da noch etwas was Intel seit Ewigkeiten begleitet, schlechte Gfx-Treiber.

aufkrawall
2016-10-14, 20:33:49
Loeschzwerg, kannst du mal in der Config-Datei Async Compute deaktivieren?

Loeschzwerg
2016-10-14, 21:21:11
Läuft mit AC off minimal besser, bleibt bei den Normal Batches aber trotzdem weit hinter DX11 zurück (ca. 7-10 FPS bei der Szene mit Fliegern in der Nahaufnahme).

@][immy: Den Speichertakt habe ich eh schon von 1066 auf 1333 angehoben, mehr habe ich noch nicht ausgelotet. CPU läuft fest auf 2.6GHz (-100mV) und die GPU auf 1050MHz.

dildo4u
2016-10-15, 16:55:08
Ich hab bei Hitman DX12 jetzt 98% GPU Auslastung mit einer 1070,ich glaub viel besser wird es für Pascal nicht mehr.Massiver Unterschied zu DX11 je nach Szene.

FX 8320e@4.2GHz GTX 1070 Treiber 373.06

DX12 1080p Ultra 54fps

http://abload.de/img/hitman_2016_10_15_16_08u06.png

DX11 1080p Ultra 41fps

http://abload.de/img/hitman_2016_10_15_16_jyuuj.png

iuno
2016-10-16, 22:23:00
War das noch gar nicht hier?
https://uk.hardware.info/reviews/7020/7/battlefield-1-review-benchmarks-with-13-graphics-cards-dx11-vs-dx12

Battlefield 1 benchmarks (DX12). Unerwartetes Ergebnis, aber schade, dass nur mit einer Karte direkt gegen dx11 verglichen wurde. AMD steht im dx12 Vergleich außergewöhnlich gut da

aufkrawall
2016-10-16, 22:32:28
Keine Frametimes oder Beschreibung des Spielgefühls -> unnützer Test.
Insbesondere, weil es wohl mit NV als auch AMD negative Rückmeldungen über die Spielbarkeit mit DX12 gibt.
Und natürlich, weil Treiber sowie Day 1-Patch fehlen.

captain_drink
2016-10-16, 22:56:59
Frametimes werden doch aufgeführt?

aufkrawall
2016-10-16, 23:16:26
Ja, stimmt. Ist im Vergleich zu visualisierten Frametime-Verläufen aber nur eine Krücke.

gnomi
2016-10-17, 12:53:49
Da passt ja noch nichts mit DX 12.
Es sollte in niedrigeren Auflösungen und eher schwächeren CPU's was bringen, nicht im GPU Limit. :confused:
Ich bin auf den Release gespannt und ob Dice vom Start weg wie The Coalition mehr liefern kann als Nixxes mit den ganzen Umsetzungen zuletzt...

Schaffe89
2016-10-17, 18:36:53
Passt auch nicht bei BF1, ich bleibe liebern gern oldschool mit Windows 7 solange die sich da mit den neuen Anforderungen battlen. Frametimes sollen im GPU Limit auch nicht gut sein, kann man bisher vergessen.

aufkrawall
2016-10-17, 18:47:37
Die Frametimes müssen mit DX 11.0 unter Win 7 auch nicht gut sein, bei BF4 waren die klar schlechter als unter 8.1 mit 11.1.

dargo
2016-10-17, 20:28:25
Habe jetzt mal testweise in Deus Ex bissel gespielt unter DX12. Die Frametimes sind immer noch eine recht große Baustelle.
57718

Naja... auf den nächsten Patch warten. :cool:

d2kx
2016-10-18, 19:03:19
Habe jetzt mal testweise in Deus Ex bissel gespielt unter DX12. Die Frametimes sind immer noch eine recht große Baustelle.
57718

Naja... auf den nächsten Patch warten. :cool:

Deus Ex: Mankind Divided Patch build 592.1

The following DirectX 12 changes are in this patch:

- Improved stability and performance.
- Major improvement to loading times.

DirectX 12 Multi-GPU support in Deus Ex: Mankind Divided:

DirectX 12 Multi-GPU support is being released as a preview through the dx12_mgpu_preview branch on steam.
We are aware that some systems might still experience issues. Please let us know when you are experiencing issues.

Third party software interference with DirectX 12

If you are experiencing problems using DirectX 12, please try disabling any 3rd party applications that might interfere with the game.

Such as:
- Steam Overlay.
- AMD Gaming Evolved.
- NVIDIA GeForce Experience.
- Fraps.
- MSI Afterburner.
- Any other game recording or streaming application.
- Any other application that displays an overlay on top of the game.

Note about using Stereoscopic 3D on DirectX 12

Stereoscopic 3D requires different settings for DirectX 11 and DirectX 12:
- DirectX 11 requires Exclusive Fullscreen to be active.
- DirectX 12 requires Exclusive Fullscreen to be inactive.

dargo
2016-10-18, 19:17:32
Lol... hättest du mir nicht gestern sagen können, dass heute ein neuer Patch kommt? :D

Erstmal nur Benchmark.
57728

Beim ersten Durchlauf sofort einwandfreie Frametimes, trotz Arschbrenner. :up: Spiel teste ich später, zu müde dafür heute nach der Frühschicht. :usad:

gnomi
2016-10-18, 19:23:20
Und schon kann es mit dem Testen weiter gehen. :wink:

N0Thing
2016-10-19, 02:05:15
Kommt der Patch über den Beta-Kanal, oder ist dieser DX12-Updates im regulären Release enthalten?

dargo
2016-10-19, 08:14:22
Was ist ein Beta-Kanal?

Achill
2016-10-19, 08:45:55
Kommt der Patch über den Beta-Kanal, oder ist dieser DX12-Updates im regulären Release enthalten?

Reguläres update, man kann aber über die Beta-Versionen zurück gehen sowie die mGPU Preview wählen.

Was ist ein Beta-Kanal?

In Steam > Eigenschaften des Spiels > Beta Tab > Version auswählen

http://images.akamai.steamusercontent.com/ugc/387666306417937261/B6D3FBA91607428DB55F41093721E6EFCC1C35BF/

dildo4u
2016-10-19, 09:49:24
Deus Ex wird langsam besser hab jetzt 42fps statt 32,DX11 immer noch vorne mit 51fps.Das Game verhält sich wie Tomb Raider die Hubwelten sind extrem CPU Lastig,erst da trennt sich die Spreu vom Weizen.

gnomi
2016-10-19, 10:56:17
Ich teste das heute mal. In Hitman konnte ich ja Zugewinne an bestimmten Stellen mit DX 12 sehen. (CPU Limits, wo DX 11 nur 50 fps ausspuckt)
In Deus Ex laufen aber nicht so viele Menschen rum und es ist würde ich sagen GPU limitierender.
Selbst die HUB Welten liefen gestern mit DX 11 kaum unter 60 fps aufgedreht! (Contact Hardening Shadows allerdings aus, die wirken fehlerhaft/unschön)
Irgendwo ist das Spiel da trotz fünf Jahre alter CPU ausgereizt. Was will man mit den ganzen Frames in einem SP Spiel, wenn man auch noch mit GSync und Controller am Start ist.

dargo
2016-10-19, 16:14:27
Lol... hättest du mir nicht gestern sagen können, dass heute ein neuer Patch kommt? :D

Erstmal nur Benchmark.
57728

Beim ersten Durchlauf sofort einwandfreie Frametimes, trotz Arschbrenner. :up: Spiel teste ich später, zu müde dafür heute nach der Frühschicht. :usad:
Hier nun das Spiel, immer noch ziemlich unbrauchbar.
57745

Wie stark die Frametimes jetzt vom Arschbrenner beeinflusst werden (Entwickler empfiehlt eine Deaktivierung) mag ich nicht beurteilen.

Troyan
2016-10-19, 16:54:31
Tomb Raider von vor 7 Monaten mit DX12:
https://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/#abschnitt_vier_verschiedene_cpus_entlocken_directx_12_manchmal_performance

30% Gewinn auf dem FX-8370 mit einer GTX980TI.

Battlefield 1 - Spiel im Gaming Evolved Programm von AMD - 3% Gewinn auf einer GTX980TI im Singleplayermodus und -3% im Multiplayermodus:
https://www.computerbase.de/2016-10/battlefield-1-benchmark/3/#abschnitt_benchmarks_auf_dem_amd_fx8370

Das ist längst kein Zufall mehr, dass Gaming Evolved Spiele komplett kaputt sind, wenn es zu DX12 und nVidia kommt.

dildo4u
2016-10-19, 16:59:23
CB hat auch Frametimes zu BF1:


https://www.computerbase.de/2016-10/battlefield-1-benchmark/4/#diagramm-frametimes-auf-dem-fx-8370-radeon-rx-480-mehrspieler

aufkrawall
2016-10-19, 17:17:56
Wie erwartet, voll der Shit. So viel zur Sinnhaftigkeit der 99p-Angabe.

gmb
2016-10-19, 17:26:39
Läuft der DX11 Modus noch mit DX11.1 in Battlefield 1?

gnomi
2016-10-19, 17:27:33
Taugt ja echt gar nichts. :down:
15-20% weniger Bilder und schlechtere Frametimes als DX 11 bei nvidia.
Na ja, die DX 11 Performance ist schlicht phantastisch. Von daher ist es irgendwo auch egal.
The Coalition hat DX12 als einziger sehr gut im Griff @ Launch. (das Spiel hat allerdings auch keinen DX 11 Modus, um mal zu vergleichen)

aufkrawall
2016-10-19, 17:31:04
The Coalition hats auch etwas vergeigt mit der schlechteren CPU-Performance auf Nvidia-Karten.
Eigentlich gibts überhaupt kein Spiel, bei dem DX12 von Anfang an ohne Nachteile lief.

Troyan
2016-10-19, 17:32:07
Tomb Raider lief von anfang klasse auf nVidia-Hardware, wenn es um CPU-Auslastung und Frametimes ging. Einzig in GPU-Szenen war man rund 10% langsamer. Das hat sich mit Patches und Treiber gelegt.

Solange unter dem Gaming Evolved Banner keine Optimierungen für nVidia-Karten vorgenommen werden dürfen und/oder die Entwickler ihren Hass nicht ablegen, werden solche Spiele wie BF1, Deus Ex, Warhammer, Hitman (zwei Monate war der DX12 Pfad unbenutzbar) die Norm bleiben.

Ich sehe keinen Sinn über DX12 zu diskutieren, wenn das Ergebnis zu 90% vom Bezahlprogramm abhängt.

dildo4u
2016-10-19, 17:35:44
The Coalition hats auch etwas vergeigt mit der schlechteren CPU-Performance auf Nvidia-Karten.
Eigentlich gibts überhaupt kein Spiel, bei dem DX12 von Anfang an ohne Nachteile lief.
Die 1070 und 1080 laufen schlechter als Fury X mit langsamer CPU,weil 6 bzw 8 GB Karten mehr Detail's laden.

The 1060 edges out the 970 with an average of 63.7 FPS, but it does have a slightly lower bottom 5%. This is due to the 1060’s 6GB of VRAM allowing it to load Ultra detail textures. Compared to the 970, the 1060 has loaded almost 2GB more texture data into VRAM. On the 4 core i5 this can result in a performance hit from the extra loading and decompression work.

https://gearsofwar.com/en-us/developerblog/8/gearsofwar4perfguide

Schnoesel
2016-10-19, 17:38:02
Dann frage ich mich wie das zu deiner Verschwörungtheorie passt:

https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/3/#abschnitt_benchmarks_auf_dem_amd_fx8370

Nvidia kackt hier komplett ab mit einer schwächern CPU unter DX 12 und das obwohl:

How NVIDIA Helped Develop the DX12 ‘Gears of War 4
https://blogs.nvidia.com/blog/2016/10/07/dx12-gears-of-war-4/

Scheint mir eher so zu sein dass es Nvidia in DX12 nicht gebacken bekommt.

dildo4u
2016-10-19, 17:38:48
Lies das was über dir steht.

dargo
2016-10-19, 17:40:08
Wie erwartet, voll der Shit. So viel zur Sinnhaftigkeit der 99p-Angabe.
Dir ist aber schon klar, dass hardware.info den SP getestet hat?
https://uk.hardware.info/reviews/7020/5/battlefield-1-review-benchmarks-with-13-graphics-cards-testresultaten-wqhd-2560x1440-+-frametimes

aufkrawall
2016-10-19, 17:41:06
Lies das was über dir steht.
Es stimmt aber nicht, sonst würde der Abstand zwischen 390 und 970 nicht zugunsten der 390 mit dem Bulldozer größer werden.
Das ist ein klarer Beleg dafür, dass die CPU-Performance mit Nvidia bei dem Spiel schlechter ist.

Schnoesel
2016-10-19, 17:43:30
Hab ich gelesen und da wird von minimalem Impact gesprochen:

"The 1060 edges out the 970 with an average of 63.7 FPS, but it does have a slightly lower bottom 5%. This is due to the 1060’s 6GB of VRAM allowing it to load Ultra detail textures. Compared to the 970, the 1060 has loaded almost 2GB more texture data into VRAM. On the 4 core i5 this can result in a performance hit from the extra loading and decompression work."

Zudem ist der FX eine 8 Thread CPU und kein I5 mit 4 Kernen ohne HT.

dildo4u
2016-10-19, 17:44:17
Der FX ist ca Vergleichbar mit dem i5 Haswell.

aufkrawall
2016-10-19, 17:44:52
Dir ist aber schon klar, dass hardware.info den SP getestet hat?
https://uk.hardware.info/reviews/7020/5/battlefield-1-review-benchmarks-with-13-graphics-cards-testresultaten-wqhd-2560x1440-+-frametimes
Ist auch egal. Wenn 1% der Frametimes komplett im Arsch wären, wär nach 99p-Angabe immer noch alles in bester Ordnung, obwohl es kurz wie die Pest ruckeln kann. Kann man wenig mit anfangen.

gnomi
2016-10-19, 17:46:56
Tomb Raider lief von anfang klasse auf nVidia-Hardware, wenn es um CPU-Auslastung und Frametimes ging. Einzig in GPU-Szenen war man rund 10% langsamer. Das hat sich mit Patches und Treiber gelegt.

Solange unter dem Gaming Evolved Banner keine Optimierungen für nVidia-Karten vorgenommen werden dürfen und/oder die Entwickler ihren Hass nicht ablegen, werden solche Spiele wie BF1, Deus Ex, Warhammer, Hitman (zwei Monate war der DX12 Pfad unbenutzbar) die Norm bleiben.

Ich sehe keinen Sinn über DX12 zu diskutieren, wenn das Ergebnis zu 90% vom Bezahlprogramm abhängt.

Bei Tomb Raider geht kein VXAO unter DX 12.
Aber ja, die FPS sind tatsächlich auch unter DX 12 okay.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11188003&postcount=214

Hitman kann im CPU Limit auch mit nvidia profitieren. (allerdings mehr VRAM Verbrauch und wohl auch längere Ladezeiten)
Deus Ex ist noch nicht so fortgeschritten. Ich unterstelle da jetzt mal nicht gleich böse Absichten.
In allen Fällen läuft DX 11 bei nvidia ja auch super.

dildo4u
2016-10-19, 17:49:04
Dildo kapierts wieder mal nicht...
Der Test mit der 970 haut hinten und vorne nicht hin wenn es so krass CPU Limitiert ist warum ist die 1060 dann so weit vor der 970?

dargo
2016-10-19, 17:50:16
Tomb Raider von vor 7 Monaten mit DX12:
https://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/#abschnitt_vier_verschiedene_cpus_entlocken_directx_12_manchmal_performance

30% Gewinn auf dem FX-8370 mit einer GTX980TI.

Battlefield 1 - Spiel im Gaming Evolved Programm von AMD - 3% Gewinn auf einer GTX980TI im Singleplayermodus und -3% im Multiplayermodus:
https://www.computerbase.de/2016-10/battlefield-1-benchmark/3/#abschnitt_benchmarks_auf_dem_amd_fx8370

Das ist längst kein Zufall mehr, dass Gaming Evolved Spiele komplett kaputt sind, wenn es zu DX12 und nVidia kommt.
Typisch Troyan-Logik. :facepalm:
https://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/

Bei Hitman legt NV mit einer FX-CPU 57% zu. Da hat AMD wohl vergessen die Entwickler zu bestechen. :ulol:

Ist auch egal.
Ist eben nicht egal. Es zeigt sich, dass der MP aktuell das Problem ist nicht der SP. Der SP zeigt auch bei CB keine großen Patzer.

aufkrawall
2016-10-19, 17:52:35
Der Test mit der 970 haut hinten und vorne nicht hin wenn es so krass CPU Limitiert ist warum ist die 1060 dann so weit vor der 970?
Stimmt allerdings. :redface:
Der Abstand zwischen 480 und 1060 müsste mit schnellerer CPU zugunsten der 1060 größer werden gegenüber dem Bulldozer, wird er aber nicht.
Passt dann doch irgendwie nicht zusammen. Da hätts zur Überprüfung einen Benchmark in 720p gebraucht.

Schnoesel
2016-10-19, 17:53:28
Für mich ist nur eines klar. DX12 steckt immer noch in den Kinderschuhen ist bei Release eines Games derzeit zu 90% nicht zu empfehlen, weder auf AMD noch auf Nvidia.

aufkrawall
2016-10-19, 17:58:52
Ist eben nicht egal
Ist doch egal.
Beispiel: BF4 hat bei mir mit Mantle alle paar Minuten einen größeren Spike verursacht. Wenn nur so selten eine Frametime durch die Decke geht, bildet das 99p überhaupt nicht ab. Das Spielgefühl ist aber trotzdem beschissen.
Also ist diese Angabe eine Krücke und deckt sich nur mehr oder weniger zufällig mit den CB-Messungen.

Troyan
2016-10-19, 18:05:09
Bei Tomb Raider geht kein VXAO unter DX 12.
Aber ja, die FPS sind tatsächlich auch unter DX 12 okay.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11188003&postcount=214

Der Benchmark spiegelt die DX12 Leistung nicht annähernd wider. Hier mal ein Beispiel von mir von vor 7 Monaten:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10970018&postcount=1006

Tomb Raider lief astrein - keine Spikes, keine geringe CPU-Auslastung, keine Stocker. DX12 hat hier das gemacht, was man als Minimum erwarten konnte.

Hitman kann im CPU Limit auch mit nvidia profitieren. (allerdings mehr VRAM Verbrauch und wohl auch längere Ladezeiten)
Deus Ex ist noch nicht so fortgeschritten. Ich unterstelle da jetzt mal nicht gleich böse Absichten.
In allen Fällen läuft DX 11 bei nvidia ja auch super.

Seit Hitman gibt es kein DX12 Spiel mehr im Gaming Evolved Programm, dass eine verbesserte CPU-Auslastung auf nVidia-Hardware erreicht. Es ist unbegreiflich, dass eine "Low-Level" API keine Verbesserung in stark CPU-limitierenden Szenen bringt.

Screemer
2016-10-19, 18:05:28
Wenns alle paar minuten zuckt ist das spielgefühl beschissen? Ernsthaft? Was hast du frühere nur gemacht?

aufkrawall
2016-10-19, 18:06:42
Natürlich ist das Spielgefühl in einem MP-Shooter dann beschissen, was eine überflüssige Frage.

Linmoum
2016-10-19, 18:07:30
Seit Hitman gibt es kein DX12 Spiel mehr im Gaming Evolved Programm, dass eine verbesserte CPU-Auslastung auf nVidia-Hardware erreicht.
Das ist längst kein Zufall mehr, dass Gaming Evolved Spiele komplett kaputt sind, wenn es zu DX12 und nVidia kommt.
Ja was denn nun? :rolleyes:

Troyan
2016-10-19, 18:14:57
Der DX12 Pfad war in Hitman für knapp 2 Monate unbenutzbar - Abstürze noch und nöcher. Steht auch in Klammern.

Alle DX12 Spiele, die von AMD gesponsert wurden, hatten und haben massive Probleme auf nVidia-Hardware.

dargo
2016-10-19, 18:16:50
Alle DX12 Spiele, die von AMD gesponsert wurden, hatten und haben massive Probleme auf nVidia-Hardware.
Laut Mancko ist AMD fast pleite. Woher nimmt AMD nur das Bestechungsgeld für die ganzen Entwickler her? :rolleyes:

Screemer
2016-10-19, 18:18:46
Natürlich ist das Spielgefühl in einem MP-Shooter dann beschissen, was eine überflüssige Frage.
Die fragen ist für noch nicht überflüssig, denn kurze spikes beinden ft alle paar minuten stressen mich überhaupt nicht. Ist also ziemlich subjeltiv. Schön wenn es nicht passiert, wenn doch ist es für michbaich keine beinbruch. Kompetitiv sieht das ganz wieder anders aus. Solchen einstellungen bencht aber niemand.

fondness
2016-10-19, 18:32:16
BF1 Test von CB - auch mit DX12 Werten:
https://www.computerbase.de/2016-10/battlefield-1-benchmark/3/

iuno
2016-10-19, 18:45:51
Wurde schon verlinkt ;p
CB lobt TAA ja wieder über alles. Wurde daran eigentlich im Vergleich zu swbf gearbeitet? Gibt es Einstellmöglichkeiten? Oder gibt es in bf1 überhaupt kein "Rauschen" (z.B. Regen), wo das problematisch wird?

Der dx12 Pfad ist ja echt mal wieder ein Flop. Klar ist die frostbite schon auf so einem Niveau dass große Zugewinne unrealistisch sind, aber wenigstens die gleiche Leistung darf man doch erwarten, sonst können sie es sich auch gleich sparen. W7 vs 10 würde mich auch noch interessieren (dx11 vs 11.2(?))

Locuza
2016-10-19, 19:01:41
CB bietet auch ein Videovergleich zwischen den unterschiedlichen AA-Modis.
TAA ist wirklich die einzige Option, die Sinn ergibt.
Es gibt nur Flimmerseuche (AA aus), weniger Flimmerseuche mit Blur (FXAA Mittel/Hoch) und eben TAA.
MSAA wird nicht angeboten und ansonsten kann man nur die Renderauflösung hochschrauben, was dann natürlich viel Performance frisst.
TAA sieht nicht sehr unscharf aus und die Bildruhe ist typischerweise sehr gut.

Vergleiche mit W7 und W8/10 habe ich noch keine gelesen, aber in dem Fall handelt es sich um DX11.1 mit Verbesserungen auf Seiten der Constant Buffers:
https://developer.nvidia.com/content/constant-buffers-without-constant-pain-0

aufkrawall
2016-10-19, 19:01:53
Gibt es Einstellmöglichkeiten? Oder gibt es in bf1 überhaupt kein "Rauschen" (z.B. Regen), wo das problematisch wird?

Man kann es wohl nur ein- oder ausschalten, nix mit frei einstellbarem Nachschärfen o.ä.
In BF und ME: C waren nicht Rauschen problematisch, sondern eher starke Kontraste und Bloom. UE4-TAA ist nach meinem Eindruck ein gutes Stück besser.

dildo4u
2016-10-19, 19:10:06
Das ganze zeigt schön wie schlecht die meisten Eigenentwicklungen unter DX11 sind,Dice hat jetzt über Jahre aggressiv auf DX11.1 optimiert und das zeigt sich.AMD wusste genau warum sie die Trash Engine's von Square Enix als Ziel genommen haben,bei Dice ist mit DX12 nicht viel zu holen.

Hübie
2016-10-19, 20:51:45
Laut Mancko ist AMD fast pleite. Woher nimmt AMD nur das Bestechungsgeld für die ganzen Entwickler her? :rolleyes:

AMD besteht aus Fremdkapital. ;)

We may not be able to generate sufficient cash to service our debt obligations or meet our working capital requirements.

We have a substantial amount of indebtedness which could adversely affect our financial position and prevent us from implementing our strategy or fulfilling our contractual obligations.

The agreements governing our notes and our Secured Revolving Line of Credit impose restrictions on us that may adversely affect our ability to operate our business.

Quelle (http://quarterlyearnings.amd.com/phoenix.zhtml?c=74093&p=quarterlyearnings)

Nur weil gerade an der Börse etwas hoch geht, ist der Kopf nicht aus der Schlinge. Dennoch steht eine Menge Kapital im Hintergrund zur Verfügung. :freak:

Ich bin jedoch überzeugt, dass es mehr mit Konsolen zu tun hat, weshalb AMD oftmals eher oder mehr profitiert, als NVIDIA. Ebenso scheint es für Devs nervig zu sein mit den Restriktionen bei NV umzugehen oder einfach gesagt eine Extrawurst zu braten.

Gilt es denn immer noch, dass keine Engine aktuell 'from scratch' auf D3D12 gebaut wurde?

Edit: Leider testet CB nicht 4k + FXAA vs 4k + TAA. Meine Erfahrung ist, dass es nicht mehr nötig ist die Leistung in TAA zu stecken. Doom war hier bisher eine positive Ausnahme.

Locuza
2016-10-19, 21:45:48
Gilt es denn immer noch, dass keine Engine aktuell 'from scratch' auf D3D12 gebaut wurde?
Die Nitrous-Engine von Oxide soll in diesem Bezug sehr modern sein, aber auch dort wird DX11 und Windows 7 unterstützt und mit DX12 ebenso jede DX12 Hardware.

"From scratch" ist dann wieder so ein Begriff den man bei so einer komplexen Angelegenheit wohl kaum als einfachen Punkt darstellen kann.
Aber falls man sich etwas darunter vorstellen sollte, dann denke ich kommt man mit DX12 FL12.0 da gut hin, Bindless Resources, Async Compute, ExecuteIndirect, es müssen mehr Grundprinzipien der neuen API verwendet werde und insgesamt ist scheinbar noch niemand dort.


Edit: Leider testet CB nicht 4k + FXAA vs 4k + TAA. Meine Erfahrung ist, dass es nicht mehr nötig ist die Leistung in TAA zu stecken. Doom war hier bisher eine positive Ausnahme.
Soviel kostet TAA aber auch nicht und eine temporäre Komponente erscheint immer sinnvoll.

fondness
2016-10-19, 21:53:03
Ich bin jedoch überzeugt, dass es mehr mit Konsolen zu tun hat, weshalb AMD oftmals eher oder mehr profitiert, als NVIDIA. Ebenso scheint es für Devs nervig zu sein mit den Restriktionen bei NV umzugehen oder einfach gesagt eine Extrawurst zu braten.


Es liegt zum einen daran, dass man Features der AMD-HW nur mit DX12 nutzen kann (Stichwort AsyncCompute) und zum anderen am geringeren Einfluss des Treibers, was ebenfalls AMD nützt. NV holt viel über die Treiber raus.

iuno
2016-10-19, 23:32:46
Danke. Ja, war vorhin nur mobil online und habe kein Video gesehen bzw. es haette auch nichts gebracht.
Sieht schon gut aus, wenn es dementsprechend kein Material gibt, dass verschluckt wird ist es ja auch top. Bei SWBF ist mir aber erst deutlich geworden, dass es halt kein Allheilmittel ist ;)

Leider testet CB nicht 4k + FXAA vs 4k + TAA. Meine Erfahrung ist, dass es nicht mehr nötig ist die Leistung in TAA zu stecken. Doom war hier bisher eine positive Ausnahme.
Verstehe ich nicht. Nicht noetig => schon "perfektes" Bild. Ist das also bei DOOM dann nicht aussergewoehnlich schlecht?

Hübie
2016-10-19, 23:34:31
Nein es kostet außergewöhnlich wenig Leistung bzw. 8xTSSAA war sogar performanter. :eek:

aufkrawall
2016-10-19, 23:48:40
Gerade mit 4k/hoher Pixeldichte macht TAA Sinn, weil dann die Unschärfe weniger auffällt.

Thunder99
2016-10-20, 00:12:45
https://www.computerbase.de/2016-10/battlefield-1-benchmark/3/#abschnitt_benchmarks_auf_dem_amd_fx8370

Wieso ist eine Fury X unter DX12 und FX8370 schneller als unter DX12 und einem 6700k? :confused: sogar schneller als eine 1080? Kack SMT und CMT 4tw? :freak: :confused:

Hübie
2016-10-20, 00:37:00
Wo guckst du da hin? SP? MP? 1080p? :|

just4FunTA
2016-10-20, 01:15:44
https://www.computerbase.de/2016-10/battlefield-1-benchmark/3/#abschnitt_benchmarks_auf_dem_amd_fx8370

Wieso ist eine Fury X unter DX12 und FX8370 schneller als unter DX12 und einem 6700k? :confused: sogar schneller als eine 1080? Kack SMT und CMT 4tw? :freak: :confused:hä mit 6700k ist sie doch deutlich schneller und nicht langsamer..

Nightspider
2016-10-20, 04:53:45
Das die Grafikkarten unter DX12 bei einer langsamen CPU immer noch extrem stark ausgebremst werden verwundert mich doch ein wenig.
Ich hätte gedachte DICE kriegt das so hin, was uns mit DX12 immer versprochen wurde: extrem geringer API Overhead und viel viel mehr nutzbare CPU Leistung.

Bin mal gespannt ob sich das in Zukunft noch ändert.

Foobar2001
2016-10-20, 04:58:36
Wenn was anderes als die Grafik auf der CPU limitiert ist DirectX 12 egal. Command Buffer zu fuellen ist bei weitem nicht alles was die CPU macht.

Gamecode, Animation, Physik und Audio wird davon logischerweise nicht schneller.

Gerade Gamecode ist oft seriell und nicht besonders gut optimiert. Die Programmierer die daran arbeiten sind weniger technisch.

iuno
2016-10-20, 11:03:00
Nein es kostet außergewöhnlich wenig Leistung bzw. 8xTSSAA war sogar performanter. :eek:
OK, sorry aber dann war es aussergewoehnlich schlecht ausgedrueckt ;p

PCGH hat uebrigens inzwischen auch Tests zu BF1, die schreiben auch wieder von forced Sync bei NV.
http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Battlefield-1-Technik-Test-Benchmarks-1210394/

dargo
2016-10-20, 11:09:13
Das mit dem Sync wurde schon dementiert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11188163&postcount=366

N0Thing
2016-10-20, 16:10:41
Das die Grafikkarten unter DX12 bei einer langsamen CPU immer noch extrem stark ausgebremst werden verwundert mich doch ein wenig.
Ich hätte gedachte DICE kriegt das so hin, was uns mit DX12 immer versprochen wurde: extrem geringer API Overhead und viel viel mehr nutzbare CPU Leistung.

Bin mal gespannt ob sich das in Zukunft noch ändert.

Vielleicht wäre es DICE mit Vulkan einfacher gefallen, sollte näher an dem ihnen bekannten Mantle dran sein als DX12. Vielleicht arbeiten sie für die nächsten Stufen der Frostbite-Engine in diese Richtung, nachdem nun das Schwergewicht BF1 weniger Arbeitskräfte bindet.

aufkrawall
2016-10-20, 16:14:17
Sie hatten ja rumschwadroniert, dass Vulkan in neuen Frostbite-Spielen Mantle ersetzen sollen. Sieht man nichts von, stattdessen verkackt man DX12, wenn sich bis Freitag nicht noch was ändert.

Die Frametimes im BF1 MP sind übrigens auch mit DX11 scheiße. Hoffen wir mal, dass das nicht daran liegt, dass man Ressourcen in DX12 versenkt hat...

dargo
2016-10-20, 16:25:27
Die Frametimes im BF1 MP sind übrigens auch mit DX11 scheiße. Hoffen wir mal, dass das nicht daran liegt, dass man Ressourcen in DX12 versenkt hat...
Denk mal an Hardline zurück. Das hatten sie auch zum Release verkackt.

N0Thing
2016-10-20, 17:01:50
Sie hatten ja rumschwadroniert, dass Vulkan in neuen Frostbite-Spielen Mantle ersetzen sollen. Sieht man nichts von, stattdessen verkackt man DX12, wenn sich bis Freitag nicht noch was ändert..

Wie gesagt, ich denke die Zeit hat für BF1 und die anderen Titel nicht gereicht. Da Vulkan für mehr als nur Windows 10 verwendet werden kann, würde eine alleinige Ausrichtung auf Vulkan auf lange Sicht sicher sinnvoller sein, als neben DX11 auch noch einen weiteren Pfad pflegen zu müssen.
Eventuell ist eine DX12-Version auch leichter als eine Vulkan-Version zu erstellen, wenn man eh für die Xbox One entwickeln muss und die PC-Plattform noch auf DX11 läuft. Inwiefern da evtl. Microsoft auch noch die Portokasse öffnet, weiß man ja auch nicht, bisher wirkt DX12 bei den meisten Spielen wie Checklistenfeature der PR-Abteilungen.
Dass dann am Ende kaum Vorteile für den Anwender heraus kommen, wundert nicht. Vulkan würde sich für eine komplette Umstellung anbieten, da man dann Win 7-10 und Linux-Derivate bedienen kann, Metal von Apple soll ja auch nicht stark abweichen. Aber das dauert Zeit und muss sich aus Sicht des Publishers/Entwicklers auch erst einmal lohnen.

dargo
2016-10-20, 17:04:31
Morgen erscheint auch Civilization 6. Gespannt auf die Tests wart. :D

N0Thing
2016-10-20, 17:09:06
Ich bin vor allem gespannt, ob da wirklich direkt zum Start schon DX12 mit dabei ist. Abgesehen von der alten Ankündigung hat man ja nie wieder etwas dazu gehört, auch nicht von den Testversionen, die im Umlauf waren/sind.

dargo
2016-10-20, 17:14:33
Das wäre enttäuschend.

N0Thing
2016-10-20, 18:56:46
Bei Start von Civilization VI kommt keine Abfrage zwischen DX11 und DX12 und im Optionsmenü gibt es auch keinen entsprechenden Eintrag.
Kommt dann wohl "when it's done".

Thunder99
2016-10-21, 01:05:04
Sorry, mein Brain Fail @ Hübi und just

Hübie
2016-10-21, 10:40:34
Ah okay. Ich dachte schon ich bin bekloppt :freak: :D Hab gesucht und gesucht...

fondness
2016-10-21, 10:46:38
DirectX 12 legt in Mankind Divided massiv zu
https://www.computerbase.de/2016-10/deus-ex-dx12-final-benchmark/

Hübie
2016-10-21, 10:56:13
Hö? Ich seh da 1-2% in 1080p. Massiv? WTF?? Die Ladezeiten sind deutlich kürzer, aber sonst... Was stimmt mit cb nicht? Erst das Fazit bei der 1070 und nun das? :|

Wolle was ist los?

Edit: Frametimes sind auf der Radeon etwas besser. Auf der GeForce fast gleich.

Das MASSIV fällt wohl auf die erste DX12-Implementation zurück. Ach so... Ungeschickt gewählte Überschrift.

][immy
2016-10-21, 11:05:04
Hö? Ich seh da 1-2% in 1080p. Massiv? WTF?? Die Ladezeiten sind deutlich kürzer, aber sonst... Was stimmt mit cb nicht? Erst das Fazit bei der 1070 und nun das? :|

Wolle was ist los?

Edit: Frametimes sind auf der Radeon etwas besser. Auf der GeForce fast gleich.

Das MASSIV fällt wohl auf die erste DX12-Implementation zurück. Ach so... Ungeschickt gewählte Überschrift.
naja, massiv trifft es wohl nicht, aber man sieht bei der 720p Auflösung doch deutliche fortschritte bei der 480er und dem CoreI7. Bei den anderen Auflösungen tritt wohl das GPU-limit ein. Dem FX schmeckt das Spiel aber mal so gar nicht.

Man darf von DX12/Vulkan halt nicht erwarten, das es in den höchsten GPU belastenden settings besser wird, sondern einfach nur, das die CPU weniger gefordert wird.

Aber noch steckt halt alles in den Kinderschuhen. Mantle brachte auch schon einige Vorteile, aber ein so richtig stabile mantle-unterstützung gab es soweit ich weiß nie.

Hübie
2016-10-21, 11:07:47
GeForce @DX11 war damals nach eins, zwei patches stets besser als Mantle. Das trotz der engen Kooperation mit Johan Andersson von DICE und AMD. Das hat sich bis heute auch nirgends großartig geändert.

Isen
2016-10-21, 11:12:59
Nana... die Framedrops waren durchgehend deutlich milder unter Mantle als unter DX11.
Speziell auf den 64er Servern war das eine wohltat, wo DX11 hingegen nicht so tolle abschnitt. Rein auf die FPS betrachtet, magst du hingegen Recht haben, aber mit den Balken kann ich mir allerhöchstens den Hintern abwischen.

Kartenlehrling
2016-10-21, 11:26:18
DirectX 12 legt in Mankind Divided massiv zu
https://www.computerbase.de/2016-10/deus-ex-dx12-final-benchmark/

Der Weisheit letzter Schluss ist DirectX 12 in Deus Ex Mankind Divided am Ende aber immer noch nicht
– zumindest jedoch eine ernstzunehmende Alternative, vor allem bei schnellen Prozessoren.
Dann läuft das Spiel auch im bisherigen DX12-Worstcase Prag teils besser als mit DirectX 11.

Erfreuliches gibt es ebenso über die Ladezeiten zu berichten. Diese waren bisher unter DirectX 12 massiv länger als unter DirectX 11
– die doppelte bis dreifache Ladezeit waren die Regel.
Diese sind jetzt zwar immer noch etwas länger, jedoch beträgt die Differenz nur noch wenige Sekunden.

Ich habe ja gehofft das mit DX12 niedrig getakte Mehrkern CPU besser laufen,
zb. 4/8core CPU die mit 3gHz takten genauso schnell sind wie 4/4core mit >4,x gHz.
Wenn man jetzt lesen muss das hochtakten immer noch wichtiger ist als Multicore ist es schon sehr enttäuschend.

Hübie
2016-10-21, 11:36:01
Nana... die Framedrops waren durchgehend deutlich milder unter Mantle als unter DX11.

Nicht auf einer GeForce 980 Ti. Definitiv nicht. ;) Der Graph schlug immer dann aus, wenn man gestorben ist und zur Kartenübersicht wechselte. Ansonsten war es eine sehr glatte und gleichmäßige Linie. Die 290 meines Bruders verhielt sich da äquivalent, nur eben langsamer. :freak:

Edit: Meine letzte BF4-Session ist allerdings schon eine Weile her, also kann es natürlich mit neuen Treiber / Patch verschlechtert worden sein - das weiß ich natürlich nicht.

MechWOLLIer
2016-10-21, 11:36:21
Hö? Ich seh da 1-2% in 1080p. Massiv? WTF?? Die Ladezeiten sind deutlich kürzer, aber sonst... Was stimmt mit cb nicht? Erst das Fazit bei der 1070 und nun das? :|

Wolle was ist los?

Edit: Frametimes sind auf der Radeon etwas besser. Auf der GeForce fast gleich.

Das MASSIV fällt wohl auf die erste DX12-Implementation zurück. Ach so... Ungeschickt gewählte Überschrift.
Natürlich fällt das auf dein Edit zurück.
Ja, wenn man nur stur Balken guckt, ist die Überschrift verwirrend:P
Wenn man den Text liest, sollte sie aber selbstverständlich sein. Zumal die Überschrift ja auch nicht behauptet, dass DX12 gegenüber DX11 massiv zunimmt - sondern nur allgemein. Und das tut sie ja.

Hübie
2016-10-21, 11:39:15
Ich hab Überschrift gelesen: :eek: JUHU!
Balken angeguckt: :| HÄÄÄ?
Text gelesen: :rolleyes: Aaaah.

So war die Reihenfolge, daher mein Edit. Aber wo du schon mal da bist: Das Fazit der 1070 hätte nach allen Maßstäben für die GameRock ausfallen müssen. Wieso wurde die nicht so herausgehoben? Versteh ich einfach nicht. Vor allem da diese preislich auch noch vorn ist. Verbraucht weniger, ist leiser, kühler, günstiger... nur 2,5 Slot ist negativ. :confused:

gnomi
2016-10-21, 11:58:25
Habe Deus Ex gestern auch getestet und komme mit meinem I7 2600k @ 4,4 GHz und einer 1080 zu ähnlichen Ergebnissen. (spiele 1440P Ultra - DOF nur EIn und CHS /CA aus)
In CPU limitierenden Stellen wie dem Headquarter läuft DX 12 auch mal etwa 10-20% schneller. Ladezeiten, VRAM Verbrauch und Spielgefühl sind aber noch nicht ganz auf DX 11 Niveau overall.
Im GPU limitierenden Benchmark war DX 11 4,5% schneller.
Alles in allem bleibe ich noch bei DX 11 in allen Nixxes Umsetzungen.
Bei Tomb Raider stimmen die Ergebnisse, aber es fehlt die höchste Beleuchtungsstufe.
Hitman und Deus Ex profitieren in CPU limitierenden Stellen, fühlen sich ansonsten aber noch nicht ganz gleichwertig an.
Aber es geht immerhin alles jetzt soweit schon ganz gut. Ich hoffe zukünftig auf Spiele, die tatsächlich auch mal klar besser abschneiden. (Gears 4 lässt den DX 11 Pfad ja gleich weg)

MechWOLLIer
2016-10-21, 12:17:14
Ich hab Überschrift gelesen: :eek: JUHU!
Balken angeguckt: :| HÄÄÄ?
Text gelesen: :rolleyes: Aaaah.

So war die Reihenfolge, daher mein Edit. Aber wo du schon mal da bist: Das Fazit der 1070 hätte nach allen Maßstäben für die GameRock ausfallen müssen. Wieso wurde die nicht so herausgehoben? Versteh ich einfach nicht. Vor allem da diese preislich auch noch vorn ist. Verbraucht weniger, ist leiser, kühler, günstiger... nur 2,5 Slot ist negativ. :confused:
Na, die Reihenfolge beim Lesen und deine Stimmung dabei sind doch perfekt:D

Meinst du den Partnerkartentest?
Wenn ja, wir haben nunmal die verfügbaren 1070 GameRock nie gehabt, sondern die Premium Edition. Und die ist quasi tot und wird man möglicherweise nie mehr kaufen können (oder erst wer weiß wann wieder). So eine Karte kann man also nicht empfehlen.

Und die normalen, gut erhältlichen Varianten haben wir nunmal nie getestet. Ja, der Kühler etc. ist gleich und ich verstehe, dass man sehr gut von der einen auf die anderen Karten schließen kann. Darum stehen die Karten ja auch im Fazit gar an erster Stelle als bester Allrounder drin. Aber ich kann den Lesern und erst recht nicht den Herstellern glaubhaft erklären, warum wir ein nicht getestetes Modell empfehlen, egal wie ähnlich das ist. Das hätte ja einen riesen Rattenschwanz für die Zukunft, den man nicht mehr los werden würde.

Und nun genug Off Topic, gerne weiter per PM :)

dargo
2016-10-21, 12:22:47
GeForce @DX11.1 war damals nach eins, zwei patches stets besser als Mantle. Das trotz der engen Kooperation mit Johan Andersson von DICE und AMD. Das hat sich bis heute auch nirgends großartig geändert.
fixed

Wenn der Mantlerenderer nicht mehr gepflegt wird ist es nun mal so.

Hübie
2016-10-21, 12:26:27
Die 290 wurde afaik offiziell unterstützt oder nicht? Ob 11 oder 11.1 sollte für die Performance nicht so relevant sein, wenn wir von 64er Server sprechen. ;)

dargo
2016-10-21, 12:29:47
Die 290 wurde afaik offiziell unterstützt oder nicht?

Es geht um dauerhafte Pflege (sprich weitere Optimierung) des Mantlerenderers. Dies war ab Patch XY nicht mehr gegeben. Zb. lief GCN 1.2 nie optimal.


Ob 11 oder 11.1 sollte für die Performance nicht so relevant sein, wenn wir von 64er Server sprechen. ;)
Hast du ne Ahnung. :tongue:

N0Thing
2016-10-21, 12:46:42
Ob 11 oder 11.1 sollte für die Performance nicht so relevant sein, wenn wir von 64er Server sprechen. ;)

Laut der PCGH ist der Unterschied zumindest in ihrem Benchmark-Parcours relevant: http://www.pcgameshardware.de/Battlefield-4-Spiel-18685/Specials/Battlefield-4-Windows-81-Windows-7-Performance-1108811/


Und wo du deine GeForce 980 Ti erwähnst, als Battlefield 4 aktuell war (im Sinne von Reviews und Benchmarks), war die GTX 780Ti das Topmodell von Nvidia. Dass die Performance mit High-End-Karten der Nachfolgenden Generation gut ausfällt, sollte nicht überraschen. ;)

Hübie
2016-10-21, 12:49:31
Ich hatte damals zwei 770 4GB im SLi und selbst das war astrein. :D

Edit: Die benches sind in 720p. Ich rede natürlich von der Spielerfahrung. Aber so genau weiß ich das nun nicht mehr. ;)

Nightspider
2016-10-21, 12:54:21
Lief BF4 nicht sogar mit DX11.2 unter Win8 schneller?

War damals schon kurz davor deswegen zu Win8 zu wechseln.

Hübie
2016-10-21, 12:56:18
11.2? :| Im Video von PCGH läuft die 780 Ti in Win 8 stets besser. Also auch Full HD. Wobei ich gerade zweifel hege, dass dies ein Grafiklimit ist.

Locuza
2016-10-21, 13:33:07
Lief BF4 nicht sogar mit DX11.2 unter Win8 schneller?

War damals schon kurz davor deswegen zu Win8 zu wechseln.
Windows Vista/7 = DX 11.0
Windows 8 = DX 11.1
Windows 8.1 = DX11.2
Windows 10 = DX11.3/4

Die Frostbite-Engine macht falls verfügbar, Gebrauch von DX11.1, womit der CPU-Overhead reduziert werden kann, auf Seiten der Constant-Buffer-Updates:
https://developer.nvidia.com/content/constant-buffers-without-constant-pain-0?ClickID=dkzckx0mh0kwnmnnm20ww2rckrzobobo2ymy

d2kx
2016-10-21, 13:54:14
[immy;11190241']Man darf von DX12/Vulkan halt nicht erwarten, das es in den höchsten GPU belastenden settings besser wird, sondern einfach nur, das die CPU weniger gefordert wird.

Jein. DirectX 12 und Vulkan können die CPU Auslastung deutlich senken, und je nach Fall reicht das nicht aus, um die Performance zu erhöhen (wenn ein Spiel sowieso immer GPU limitiert ist).

Mit AMD GCN Shader Intrinsic Functions lässt sich allerdings die GPU Leistung in genau solchen Fällen teils deutlich steigern. Das sind Erweiterungen für bekannte APIs, die zuerst nur unter Vulkan verfügbar waren und in DOOM eingesetzt wurden.

Inzwischen (ab AMD Crimson 16.40.x) gibt es auch unter DirectX 11 und DirectX 12 Unterstützung für GCN Shader Intrinsic Functions, allerdings würde es mich nicht wundern, wenn man diese eher nicht in DX11-Implementationen vorfinden wird. Diese sind allerdings der Grund, warum DirectX 12-Render in Zukunft noch deutlich zulegen werden, auch wenn es strenggenommen kein Verdienst der API selber ist, sondern ein Nebeneffekt dadurch, dass DX12/Vulkan-Render mit den neuesten Errungenschaften vollgestopft werden :smile:

Achill
2016-10-21, 14:09:26
Ich habe ja gehofft das mit DX12 niedrig getakte Mehrkern CPU besser laufen,
zb. 4/8core CPU die mit 3gHz takten genauso schnell sind wie 4/4core mit >4,x gHz.
Wenn man jetzt lesen muss das hochtakten immer noch wichtiger ist als Multicore ist es schon sehr enttäuschend.

Eine API kann Parallelität nur gut unterstürzen, nutzen und sauber implementieren müssen es die Entwickler.

][immy
2016-10-21, 14:28:14
Jein. DirectX 12 und Vulkan können die CPU Auslastung deutlich senken, und je nach Fall reicht das nicht aus, um die Performance zu erhöhen (wenn ein Spiel sowieso immer GPU limitiert ist).

Mit AMD GCN Shader Intrinsic Functions lässt sich allerdings die GPU Leistung in genau solchen Fällen teils deutlich steigern. Das sind Erweiterungen für bekannte APIs, die zuerst nur unter Vulkan verfügbar waren und in DOOM eingesetzt wurden.

Inzwischen (ab AMD Crimson 16.40.x) gibt es auch unter DirectX 11 und DirectX 12 Unterstützung für GCN Shader Intrinsic Functions, allerdings würde es mich nicht wundern, wenn man diese eher nicht in DX11-Implementationen vorfinden wird. Diese sind allerdings der Grund, warum DirectX 12-Render in Zukunft noch deutlich zulegen werden, auch wenn es strenggenommen kein Verdienst der API selber ist, sondern ein Nebeneffekt dadurch, dass DX12/Vulkan-Render mit den neuesten Errungenschaften vollgestopft werden :smile:
schon klar, aber derzeit sehen wir nur Sachen, wo DX12 drangeflanscht wird. Da ist nicht zu erwarten das sich wirklich etwas weltbewegendes tut, außer, das die CPU last ein wenig sinkt. Und selbst damit haben Entwickler noch Probleme.
An die Verantwortung die auf die Entwickler mit DX12 und Vulkan zukommt, müssen die sich erst gewöhnen. Man kann halt noch mehr falsch machen als vorher, dafür hat man viele Sachen nun selbst unter Kontrolle. Das ist nicht immer was gutes, kommt halt auf die Erfahrung des Entwicklers an.

dargo
2016-10-22, 08:36:34
Inzwischen (ab AMD Crimson 16.40.x) gibt es auch unter DirectX 11 und DirectX 12 Unterstützung für GCN Shader Intrinsic Functions, allerdings würde es mich nicht wundern, wenn man diese eher nicht in DX11-Implementationen vorfinden wird.
Schön, dass diese auch unter DX11 nutzbar sind. Wusste gar nicht, dass es möglich ist. Aber warum gehst du davon aus, dass diese nicht unter DX11 zum Einsatz kommen werden?

dargo
2016-10-29, 14:12:08
@N0Thing

Wir hatten ja kürzlich eine Diskussion im Vulkan-Thread. Ich mache mal hier weiter da es eigentlich um DX12 geht.

Hassi 4C/8T @3,7Ghz, DDR3-1600, R9 390 und 720p.

https://abload.de/thumb/rottr_2016_10_29_13_561p4y.jpg (http://abload.de/image.php?img=rottr_2016_10_29_13_561p4y.jpg) https://abload.de/thumb/rottr_2016_10_29_14_0ajp4j.jpg (http://abload.de/image.php?img=rottr_2016_10_29_14_0ajp4j.jpg) https://abload.de/thumb/rottr_2016_10_29_14_0c5pai.jpg (http://abload.de/image.php?img=rottr_2016_10_29_14_0c5pai.jpg) https://abload.de/thumb/rottr_2016_10_29_14_06urr4.jpg (http://abload.de/image.php?img=rottr_2016_10_29_14_06urr4.jpg)

Habe jetzt nicht explizit nach Worst Cases gesucht sondern einfach zwei meiner Savegames genommen. Erste Szene +35%, zweite +51%.

PS: nicht über die bessere Kantenglättung und etwas mehr Schärfe @DX11 wundern. Dort ist reShade mit SMAA/FXAA und Lumasharpen aktiv.

Edit:
Lol... Microsoft hat mit ihren +50% (wenn man auf Marketing steht ;)) noch deutlich untertrieben, zumindest bei Radeons. :D

Hassi 4C/8T @2,0Ghz, DDR3-1600, R9 390 und 720p.

https://abload.de/thumb/rottr_2016_10_29_16_4l5s57.jpg (http://abload.de/image.php?img=rottr_2016_10_29_16_4l5s57.jpg) https://abload.de/thumb/rottr_2016_10_29_16_474siw.jpg (http://abload.de/image.php?img=rottr_2016_10_29_16_474siw.jpg) https://abload.de/thumb/rottr_2016_10_29_16_4ansfl.jpg (http://abload.de/image.php?img=rottr_2016_10_29_16_4ansfl.jpg) https://abload.de/thumb/rottr_2016_10_29_16_4wms2m.jpg (http://abload.de/image.php?img=rottr_2016_10_29_16_4wms2m.jpg)

Szene 1 +101%, Szene 2 +106%.

MartinRiggs
2016-10-29, 17:57:23
720P:uclap:

Was bleibt in WQHD davon übrig?

dildo4u
2016-10-29, 18:14:28
Fast nix weil die 390 extrem langsam bei dem Game ist.

Lurtz
2016-10-29, 18:29:46
Theoretisch ist DX12 ganz toll in dem Spiel, auch wenn man am Ende nichts davon hat :upara: Die Frage ist sowieso was da überhaupt so viel CPU kostet.

dargo
2016-10-29, 18:42:54
Theoretisch ist DX12 ganz toll in dem Spiel, auch wenn man am Ende nichts davon hat :upara: Die Frage ist sowieso was da überhaupt so viel CPU kostet.
Wieso CPU? Du meinst wohl GPU. :tongue:

Selbst mickrige 2Ghz reichen für 60+fps beim Hassi. Ich schaue gleich noch ob 4C/8T gegenüber 4C/4T überhaupt was in diesem Spiel bringt. Im CPU-Limit bringt DX12 gigantische Vorteile bei RotTR mit Grenada. Im GPU-Limit sind es ca. +10%.

720P:uclap:

Mehr bitte von deiner Kompetenz.

Edit:
SMT bringt ein paar Vorteile... in meinen Szenen sind es +27%.

Hassi 4C/4T @2,0Ghz, DDR3-1600, R9 390 und 720p.

https://abload.de/thumb/rottr_2016_10_29_19_0ezslb.jpg (http://abload.de/image.php?img=rottr_2016_10_29_19_0ezslb.jpg) https://abload.de/thumb/rottr_2016_10_29_19_01osge.jpg (http://abload.de/image.php?img=rottr_2016_10_29_19_01osge.jpg)

Ex3cut3r
2016-10-29, 19:03:05
Danke Dargo. :smile:
Ich hänge einfach nochmal mein Ergebnis mit 1080p an, in dieser Auflösung zocken ja immer noch einige. ;)

i7 4770k @ 4ghz
GTX 1070
FHD MAX Settings

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11158521&postcount=3973

Also ich bin überzeugt von DX12, nur das muss alles noch reifen, die Entwicker brauchen anscheind große Eingewöhnungs Zeit, aber man könnte sich vermutlich ein CPU Upgrade sparen.

Lurtz
2016-10-29, 19:20:13
Ich meinte schon CPU.

dargo
2016-10-29, 19:25:55
Was erwartest du denn? Dass aktuelle Games mit einem Pentium G 60+fps liefern? X-D Wenn schon ein Hassi 4C/8T mit 2Ghz so hohe fps liefert dann dürfte ein i3 Skylake/Haswell auch schon reichen. Moment... ich kann ja sogar einen i3-4170 simulieren. :tongue: Nur den L3 Cache kann ich natürlich nicht reduzieren.

Michalito
2016-10-29, 19:27:37
@Dargo bitte, bitte, bitte einen anderen Pichoster, das ist ja nicht mehr feierlich was einen dort anspringt und vollqatscht.

Ex3cut3r
2016-10-29, 19:29:31
Hast du keinen Adblocker?

dargo
2016-10-29, 19:38:18
@Dargo bitte, bitte, bitte einen anderen Pichoster, das ist ja nicht mehr feierlich was einen dort anspringt und vollqatscht.
Einfach Adblocker verwenden.

Hier mal der Test mit einem simulierten i3-4170. Bitte nicht vergessen, dass ein echter i3 keine 8MB sondern nur 3MB L3 hat.

Hassi 2C/4T @3,7Ghz, DDR3-1600, R9 390 und 720p.

https://abload.de/thumb/rottr_2016_10_29_19_316s3c.jpg (http://abload.de/image.php?img=rottr_2016_10_29_19_316s3c.jpg) https://abload.de/thumb/rottr_2016_10_29_19_3h4s9j.jpg (http://abload.de/image.php?img=rottr_2016_10_29_19_3h4s9j.jpg)

Ich denke mal für eine ~110€ CPU kann sich das sehen lassen.

PS: den kleineren L3 kann man natürlich auch mit schnelleren Arbeitsspeicher gut kompensieren, besonders beim Skylake mit DDR4.

iuno
2016-10-29, 19:41:48
Das denke ich auch, danke für den Test. Kannst du auch was zu den frametimes mit dem "i3" sagen?

dargo
2016-10-29, 20:06:52
Logisch... bin jetzt in der ersten Szene etwas rumgelaufen.

57816

Für einen i3 kann sich das sehen lassen.

aufkrawall
2016-10-29, 20:17:52
Toll sind die aber nicht. Hatte auch mal Frametimes der 980 bei RotTR gepostet, find die aber leider nicht mehr.
Hab nur Bioshock: Infinite gefunden, aber nur mal zum Vergleich:
http://abload.de/image.php?img=bsi92jwg.png
Viel besser.

Außerdem reichen bei GoW DX12 only nicht mal vier physikalische Kerne, damit die Frametimes nicht unsauber werden.
Man kann jetzt ewig davon träumen, wie toll es laufen könnte, nur wird dadurch nichts besser spielbar.

Fakt ist, man ist jetzt schon mit nur vier Threads langsam am Ende. Und bis sich LL breitflächgig in vernünftiger Qualität durchgesetzt hat, braucht man schon längst wieder eine neue CPU, wenn man nicht gerade jetzt schon mit einem Haswell/Skylake i7 unterwegs ist.

dargo
2016-10-29, 20:21:56
Toll sind die aber nicht. Hatte auch mal Frametimes der 980 bei RotTR gepostet, find die aber leider nicht mehr.

Mit einem i3? Ich hoffe du erkennst den Unterschied.


Hab nur Bioshock: Infinite gefunden, aber nur mal zum Vergleich:
http://abload.de/image.php?img=bsi92jwg.png
Viel besser.

Super Quer-Vergleich der absolut Null mit dem Thema zu tun hat. Mal davon ab, dass die beiden großen Spikes der Witz sind. Von viel besser kann da überhaupt keine Rede sein.


Fakt ist, man ist jetzt schon mit nur vier Threads langsam am Ende. Und bis sich LL breitflächgig in vernünftiger Qualität durchgesetzt hat, braucht man schon längst wieder eine neue CPU, wenn man nicht gerade jetzt schon mit einem Haswell/Skylake i7 unterwegs ist.
Halte ich für ein Gerücht. Jeder Sandy Bridge i7 reicht noch lange Zeit. Ich würde mich sogar so weit aus dem Fenster lehnen und gleiches für einen i7 Lynnfield behaupten wenn er 3,5+Ghz macht. Es sei denn man peilt sehr hohe fps an (100+). Da ist es klar, dass die schon in die Jahre gekommenen CPUs an ihren Grenzen stoßen. Hier im 3DC kaufen viele Leute neue Hardware nicht nur aus der Notwendigkeit.

aufkrawall
2016-10-29, 20:29:53
Mit einem i3? Ich hoffe du erkennst den Unterschied.

Miese Frametimes können sich nie sehen lassen, was macht da die verwendete CPU für einen Unterschied?
Das wird einfach zappelig laufen, wenn man die Kamera dreht. Tolle Wurst.


Super Quer-Vergleich der absolut Null mit dem Thema zu tun hat. Mal davon ab, dass die beiden großen Spikes der Witz sind. Von viel besser kann da überhaupt keine Rede sein.
Hab die Verlinkung im Thread vergessen. Das sind feste Nachlade-Spikes, die wahrscheinlich mit jeder CPU auftreten:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10929249#post10929249

dargo
2016-10-29, 20:34:23
Miese Frametimes können sich nie sehen lassen, was macht da die verwendete CPU für einen Unterschied?
Das wird einfach zappelig laufen, wenn man die Kamera dreht. Tolle Wurst.

Hier läuft nichts zappelig. ;)

aufkrawall
2016-10-29, 20:36:19
Halte ich für ein Gerücht. Jeder Sandy Bridge i7
Weil er acht Threads hat und Spiele, die nicht mehr für 4 optimiert sind, darauf nicht scheiße laufen, siehe GoW.
Und du erzählst hier einen von i3s...

Und klar läuft RotTR mit simuliertem i3 bei dir zappelig, den Frametimes nach.
Erst erzählst du immer, man bräuchte unbedingt A-Sync, weil sonst alles am mikoruckeln ist, und jetzt sollen mit LL auf einmal ziemlich suboptimale Frametimes ganz toll sein (oder "für einen i3 nicht schlecht", was auch immer das heißen soll...).
Klaro.

Ex3cut3r
2016-10-29, 20:36:41
Jesus, könnt ihr euch eigentlich nie einigen?

dargo
2016-10-29, 20:40:03
Jesus, könnt ihr euch eigentlich nie einigen?
Das ist typisch aufkrawall, er muss immer das letzte Wort haben. ;)

Weil er acht Threads hat und Spiele, die nicht mehr für 4 optimiert sind, darauf nicht scheiße laufen, siehe GoW.
Und du erzählst hier einen von i3s...

Immer wieder toll zu sehen wo das wieder hinführt. Ich habe hier niemandem einen i3 empfohlen. Würde ich auch nie tun. Der Test mit dem simulierten i3 sollte nur aufzeigen wie mickrig die CPU-Last in RotTR dank DX12 tatsächlich ist.


Und klar läuft RotTR mit simuliertem i3 bei dir zappelig, den Frametimes nach.
Erst erzählst du immer, man bräuchte unbedingt A-Sync, weil sonst alles am mikoruckeln ist, und jetzt sollen mit LL auf einmal ziemlich suboptimale Frametimes ganz toll sein (oder "für einen i3 nicht schlecht", was auch immer das heißen soll...).

Erstens habe ich nie erzählt niedrigere Fluktuationen von ca. 10ms wären super problematisch, das denkst du dir wieder nur aus. Zweitens hättest du ein paar Videos von DF aufmerksam verfolgt würde dir auffallen, dass ein i3 je nach Game durchaus etwas stärker zu flukturieren neigt als ein i5 oder gar i7. Drittens... es gibt nicht nur aufkrawalls auf dieser Welt die jedes Mikroruckeln bemerken bzw. sich daran stören. Damit meine ich den Durchschnittsspieler. Der spielt ja sogar ohne A-Sync in der Regel.

Edit:
Hier mal die Frametimes mit Hassi 4C/8T @3,7Ghz damit aufkrawall auch zufrieden ist.

57817

Edit 2:
@aufkrawall

Mich hatte eine Sache dabei sehr interessiert. Ich meine du hattest das auch schon mal beobachtet wenn mich nicht alles täuscht. Diese stärkeren Fluktuationen bei den Frametimes liegen nicht zwangsläufig an zu wenigen Threads. Es liegt am extremen CPU-Limit.

Hassi 2C/4T @3,7Ghz, DDR3-1600, R9 390 @510/750Mhz und 720p.

57821

Wie man unschwer erkennen kann beruhigen sich die Frametimes bei steigernder GPU-Last wieder. Das gleiche könnte also ebenfalls passieren (ich kanns ja nicht testen) mit dem Hassi 4C/8T @3,7Ghz und einer deutlich schnelleren GPU als R9 390. Hier denke ich aber schon paar Jahre in die Zukunft an eine GPU mit 20+ TFLOPs. Ich teste ja in 720p. Bei meiner nativen Auflösung von 1440p erhöht sich ja die GPU-Last ohne die Graka zu untertakten, da sollten die Frametimes mit dem i3 also dann auch passen. Bei 1080p (was noch viele verwenden) gehe ich vom selben Ergebnis aus. Du hattest ja mal berichtet bei GoW 4 würden die Frametimes mit einem i5 leiden. Ist es immer noch so wenn du die Grafikkarte deutlich untertaktest? Oder halt die GPU-Last mit höheren Auflösung (4k+) erhöhst?

Hier der Beweis.
Hassi 2C/4T @3,7Ghz, DDR3-1600, R9 390 @1020/1500Mhz und 1440p.

57822

Kann mir einer der Gurus dieses Phänomen technisch erklären? Schwächelt vielleicht etwas dieses Frame Pacing wenn die Daten nicht schnell genug von der CPU an die GPU geliefert werden?

MechWOLLIer
2016-10-30, 12:18:08
Zuerst sollte man die Frage klären, ob man sich überhaupt darauf versteifen sollte.

Meine Erfahrung ist, dass FRAPS/Afterburner und co. vor allem auf AMD-Karten in letzter Zeit nur noch Mist messen, was Frametimes angeht. Wirklich genau war es logischerweise noch nie, aber in den letzten Spielen, die ich mir mal angesehen habe, was die Diskrepanz zwischen "gemessenen" und Wahrheit doch ziemlich groß. Auch bei Nvidia, dort war der Unterschied zur Realität aber deutlich kleiner.

fondness
2016-10-30, 12:48:26
Ich finde es generell extrem problematisch, dass man Frametimes mit einem offenkundig ungeeigneten Instrument misst und daraus dann auch noch Rückschlüsse zieht. Jeder weiß, dass diese Tools nicht das messen, was am Bildschirm ankommt. Bevor man einen Bullshit als Tatsachen verkauft, ist es allemal besser sich einzugestehen, dass man bestimmte Dinge einfach nicht messen kann. Oder man findet einen weg, direkt das Bildschirmsignal abzugreifen.

aufkrawall
2016-10-30, 13:21:38
Du hattest ja mal berichtet bei GoW 4 würden die Frametimes mit einem i5 leiden. Ist es immer noch so wenn du die Grafikkarte deutlich untertaktest? Oder halt die GPU-Last mit höheren Auflösung (4k+) erhöhst?

Ich habe es nicht mehr getestet (schon deinstalliert), aber ich denke, das wird bei GoW4 bei höherer GPU-Last nur durch die allgemein im Durchschnitt höheren Frametimes besser bzw. leicht weniger schlimm.
An einigen Stellen ist die GPU-Last recht hoch und damit die fps niedriger als üblich, aber dann gibt es weiterhin diese Streaming-Einbrüche.
Das geschieht am stärksten, wenn man alle Gegner in einem Areal getötet hat und er offenbar weitere Teile der Map lädt, die dann begehbar werden. Schon sehr auffällig.

dargo
2016-10-30, 13:23:36
Zuerst sollte man die Frage klären, ob man sich überhaupt darauf versteifen sollte.

Meine Erfahrung ist, dass FRAPS/Afterburner und co. vor allem auf AMD-Karten in letzter Zeit nur noch Mist messen, was Frametimes angeht. Wirklich genau war es logischerweise noch nie, aber in den letzten Spielen, die ich mir mal angesehen habe, was die Diskrepanz zwischen "gemessenen" und Wahrheit doch ziemlich groß. Auch bei Nvidia, dort war der Unterschied zur Realität aber deutlich kleiner.
Ich habe da andere Erfahrungen. Bisher konnte der Afterburner sehr gut die Probleme visuell zeigen die ich am Bildschirm auch sehe. Ob der die Frametimes absolut genau ausgibt stand für mich nie zu Debatte. Ihr könnt mir ein FCAT Equipment schenken dann verwende ich nur noch das. ;)

btw.
Hast du zufällig paar Vergleiche zwischen FCAT und Arschbrenner? Wäre schon interessant zu sehen wie groß die Abweichungen sind.

aufkrawall
2016-10-30, 13:35:19
Ich habe da andere Erfahrungen. Bisher konnte der Afterburner sehr gut die Probleme visuell zeigen die ich am Bildschirm auch sehe.
Das würd ich so unterschreiben.

MechWOLLIer
2016-10-30, 16:10:34
btw.
Hast du zufällig paar Vergleiche zwischen FCAT und Arschbrenner? Wäre schon interessant zu sehen wie groß die Abweichungen sind.
Wie der Zufall es so will - ja:D

Ganz neu: Skyrim SE.
https://pics.computerbase.de/7/5/2/3/5/diagramme/9-630.1477658302.png
und
https://pics.computerbase.de/7/5/2/3/5/diagramme/5-630.1477660400.png
Letzteres ist FCAT

Mehr habe ich jetzt leider nicht parat. Aber vor allem in Deus Ex waren die Frametimes per externem Tool auf AMD so richtig falsch.
Also es geht auch noch deutlich abweichender als das Beispiel oben. Es gibt halt auch Fälle, da ist die Abweichung geringer. Eine generelle Aussage kann man da leider nicht treffen.

Ich muss zugeben: Die Messung oben ist jetzt nicht mit dem Afterburner, sondern mit FRAPS erstellt. Beide Tools greifen die Messwerte aber an derselben Stelle der Renderpipeline ab. THEORETISCH sollte es also keine (wirklichen) Unterschiede eben. Praktisch muss ich aber zugeben, dass ich es nicht weiß.

dargo
2016-10-30, 16:16:22
Hmm... sind die Frametimes mit FCAT dann generell sauberer bei einer Abweichung oder ist das hier reiner Zufall? Und habt ihr das auch mal mit einem anderen System gegen getestet?

Edit:
Was überwacht ihr alles wenn der Arschbrenner zum Einsatz kommt?

MechWOLLIer
2016-10-30, 16:18:45
Also mit nur einer GPU sind sie eigentlich immer besser. Ich habe jetzt jedoch nicht so viele Vergleiche in letzter Zeit gemacht um nicht ausschließen zu können, dass es auch mal anders herum sein kann. Ist jetzt auch nur auf den Durchschnitt bezogen. Es kann auch mal große Spikes geben, die FCAT mitbekommt, andere Tools aber nicht.

Edit: Wenn ich mal Frametimes mit AB messe, dann protokolliere ich auch nur die.
Überwacht wird aber noch GPU-/Speicher-Frequenz, GPU-AUslastung, Temperatur und Lüfterdrehzahl.

dargo
2016-10-30, 16:22:51
Ich muss zugeben: Die Messung oben ist jetzt nicht mit dem Afterburner, sondern mit FRAPS erstellt. Beide Tools greifen die Messwerte aber an derselben Stelle der Renderpipeline ab. THEORETISCH sollte es also keine (wirklichen) Unterschiede eben. Praktisch muss ich aber zugeben, dass ich es nicht weiß.
Das ist ein wichtiger Punkt. Es sollte schon der Arschbrenner sein. Als ich letztes Mal Fraps dafür genommen habe (ich schon ne Ewigkeit her) war ich auch nicht unbedingt davon begeistert. Irgendwie waren die Fluktuationen teilweise größer. Mag aber auch an der Auflösung von Fraps gelegen haben.


Edit: Wenn ich mal Frametimes mit AB messe, dann protokolliere ich auch nur die.
Überwacht wird aber noch GPU-/Speicher-Frequenz, GPU-AUslastung, Temperatur und Lüfterdrehzahl.
Hier würde ich empfehlen sich nur auf das wesentliche zu konzentrieren. Je weniger umso besser. Im Optimalfall nur Frametimes. Ich nehme da noch paar Sachen mehr weil ich keinen Unterschied feststellen konnte. GPU-Auslastung lasse ich aber bsw. komplett weg.

aufkrawall
2016-10-30, 16:31:53
Das ist ein wichtiger Punkt. Es sollte schon der Arschbrenner sein. Als ich letztes Mal Fraps dafür genommen habe (ich schon ne Ewigkeit her) war ich auch nicht unbedingt davon begeistert. Irgendwie waren die Fluktuationen teilweise größer. Mag aber auch an der Auflösung von Fraps gelegen haben.

Ich hatte mit Fraps in BF4 auch schon größere Variationen als mit Afterburner gemessen, dir mir seltsam vorkamen.

dargo
2016-10-30, 16:43:41
Passend zum Thema... :D
http://techreport.com/blog/28679/is-fcat-more-accurate-than-fraps-for-frame-time-measurements

MechWOLLIer
2016-10-30, 17:26:38
Falls (ein dickes Falls) ich nächste Woche mal etwas Zeit habe, kann ich mir gerne mal FCAT vs. FRAPS vs. Afterburner in ein, zwei Spielen anschauen. Kanns aber nicht garantieren.

dargo
2016-10-30, 17:37:40
Danke... das wäre wirklich mal interessant zu sehen. :)

Edit:
Achja... falls möglich nimm bitte eine 250ms Abtastrate beim Afterburner. Dann hätte ich einen super Vergleich zu meinen Messungen.

Screemer
2016-10-30, 17:50:35
Auf so einen artikel warte ich seit den ersten fcat messungen. Endlich will das mal einer machen. Danke!

aufkrawall
2016-10-30, 18:10:33
Edit:
Achja... falls möglich nimm bitte eine 250ms Abtastrate beim Afterburner. Dann hätte ich einen super Vergleich zu meinen Messungen.
Die Abtastrate betrifft doch nur das Hardware-Polling?

dildo4u
2016-10-31, 15:39:19
Neuer Hitman Patch:


Earlier this week, we published the release notes for Episode 6 on our blog.
https://hitman.com/updates/episode-6-hokkaido-release-notes

Here’s an overview of what’s new for PC players, including support for DirectX12 Multi GPU and exclusive fullscreen.

- Fixed an issue that could cause framerate drops during cinematics
- Fixed an issue that caused graphic hitches on the World of Tomorrow briefing when using DX11.
- Fixed an issue that was causing lighting issues when launching a location for the first time, when using specific configurations with GTX 1080 cards.
- Fixed an issue that was causing a crash when running in 4k with supersampling.
- Other minor fixes to stability and performance.

- Added support for DirectX12 Multi GPU and exclusive fullscreen.
Multi GPU can be enabled in the Hitman Launcher (it is disabled by default).
Please note the below:

1) Currently only dual GPU configurations are supported
2) Expect highest scaling in 1440p / 2160p
3) Steam overlay is automatically disabled when using Multi GPU due to an incompatibility
4) If you experience instability, especially when toggling windowed and fullscreen mode, then disable services that provide in-game capture, such as Raptr, plays.tv, etc.

AMD specific notes:
1) Always use newest AMD drivers: http://support.amd.com/en-us/download
2) AMD CrossFire must be enabled in Radeon Settings
3) Frame Pacing should be enabled in Radeon Settings for smoother framerates
4) Note that the AMD CrossFire Logo is not shown in DirectX 12 even if multiple GPUs are used

NVIDIA specific notes:
1) Always use newest NVIDA drivers: http://www.geforce.com/drivers
2) SLI must be enabled in NVIDIA Control Panel
3) Frame Pacing should be enabled automatically by the driver when using exclusive fullscreen
4) Note that SLI Visual Indicator is not shown in DirectX 12 even if multiple GPUs are used

dargo
2016-10-31, 16:31:59
Wie ist denn das zu verstehen? Exklusiver Fullscreen erst mit diesem Patch? :|

aufkrawall
2016-10-31, 16:39:49
Vorher gab es nur borderless mit Vsync off (das geht ja mit DX12).
Wahrscheinlich bieten sie jetzt die gleichen Modi an wie in RoTR.

dargo
2016-10-31, 16:49:41
Vorher gab es nur borderless mit Vsync off (das geht ja mit DX12).

Das war mir bisher gar nicht bekannt. :eek: Igor... bitte die Frametimes sich neu anschauen. :cool:

aufkrawall
2016-10-31, 16:53:30
Das war nicht der Grund für miese Frametimes, die Probleme liegen wieder beim Streaming oder Multithreading.

Edit: Die schlimmen Stocker mit Shadow Maps > medium sind weg. höhere Einstellungen bringen aber immer noch keinen sichtbaren Gewinn und kosten massig VRAM.
Allgemein sind die Frametimes immer noch mies, während des Laufens durch Menschenmengen ist die Kamera unschön am zucken. Einfach nur eine richtig schlechte Vorstellung im Vergleich zu AC: Syndicate.
Edit 2: DX11 läuft immer noch sauberer.

gedi
2016-11-01, 00:31:48
Also mit nur einer GPU sind sie eigentlich immer besser. Ich habe jetzt jedoch nicht so viele Vergleiche in letzter Zeit gemacht um nicht ausschließen zu können, dass es auch mal anders herum sein kann. Ist jetzt auch nur auf den Durchschnitt bezogen. Es kann auch mal große Spikes geben, die FCAT mitbekommt, andere Tools aber nicht.

Edit: Wenn ich mal Frametimes mit AB messe, dann protokolliere ich auch nur die.
Überwacht wird aber noch GPU-/Speicher-Frequenz, GPU-AUslastung, Temperatur und Lüfterdrehzahl.


Bitte teste mit einem übertakteten Skylake die von AB ermittelten Werte nochmals nach (der Uncore-Takt und die Speichertimings verhalten sich entsprechend der Werte - ähm meh :freak:). Softwareschrott halt ...

Kartenlehrling
2016-11-01, 17:16:39
Gerade in Forza:Apex reingeschaut, i7-3770k+R9nano , Rio läuft besser, die Partikel Ruckler am Zieleinlauf sind weg.
Und meine 4/8core CPU läuft nicht mehr mit 2x 100% sondern mit 4x 80-100%, dafür sind die anderen 4 Threads aber unter 15% festgefroren.

d2kx
2016-11-03, 17:25:48
Deus Ex: Mankind Divided Patch build 616.0

The following changes are in this patch:

[...]
- Improved overall performance for DirectX 11 and 12.
- DirectX 12: Fixed an issue where for some systems cinematics would be rendered as black.
- DirectX 12: Fixed an issue where you would see rain splatters on Jensen while in-doors.
- Various MSAA bug fixes.

DirectX 12 support in Deus Ex: Mankind Divided:

Multi-GPU Note: Currently we support Multi-GPU for DirectX 12 for AMD Radeon™ hardware only. We advise players with AMD Radeon™ Multi-GPU capable systems to make sure that you have the latest drivers installed and have Crossfire turned ON in your Radeon Settings.

DirectX 12 Multi GPU support for GeForce® users:

We are working directly with NVIDIA to finalize Multi GPU support for GeForce® users. Until then players on NVIDIA hardware that want to try the Multi-GPU Preview on DirectX 12 can switch to the dx12_mgpu_preview beta branch in Steam to enable it.

dildo4u
2016-11-03, 17:47:25
Immer noch ca 10fps Unterschied bei mir:

FX 8320@4.2Ghz 1070 SC@2Ghz. 1080p@Ultra

DX12 45fps

http://abload.de/img/dxmd_2016_11_03_17_36k9s6l.png

DX11 55fps

http://abload.de/img/dxmd_2016_11_03_17_40vbswi.png

dargo
2016-11-03, 17:48:02
Endlich sehe ich hier Fortschritte und diese sind teilweise ganz nett.

Der Benchmark läuft wie schon gehabt einwandfrei.
57861

Das Spiel schaue ich mir gleich an.

Im Benchmark verzeichne ich einen minimalen fps-Anstieg von 3% bei den avgs. und 14% bei den min.fps im GPU-Limit. Im CPU-Limit (720p) sieht es schon deutlich besser aus. Während die avgs. nur um 8% steigen legen die min.fps ordentlich mit 32% zu (bei den avgs. könnte natürlich wieder die GPU limitieren, immerhin bewege ich mich hier bei knapp 100fps).

Edit:
Na so langsam wird es was Ingame. =)

57862

Nachdem sich das Spiel direkt nach dem Laden vom Savegame etwas eingestottert hat (habe mich da direkt mehrmals um 360° gedreht) läuft es schon fast perfekt. Der letzte Feinschliff fehlt noch.

Das war noch der Stand bei der letzten Build 592.1.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11188521&postcount=4341

Hübie
2016-11-03, 18:08:43
Beziehen sich die Steigerungen gegenüber D3D11 oder gegenüber der alten Version von Treiber und/oder Spiel? :confused:

dargo
2016-11-03, 18:13:47
DX12 alte Build (2-3 Builds älter) vs. DX12 aktuelle Build. Ich kann aber auch gerne nochmal für dich aktuell DX11 mit DX12 vergleichen falls Interesse besteht. Aber bitte nur Benchmark, ist halt am einfachsten. Ich bin Ingame eh noch komplett am Anfang.

Kartenlehrling
2016-11-03, 18:18:52
http://radeon.com/wp-content/uploads/2016/11/Deus-Ex-FINAL-800x283.png

HEHE,
die Seite haben sie wieder runter genommen, gestern waren da noch Grafiken die 100% Skalierung zeigten mit DX12 Multi-GPU.

http://radeon.com/en-us/deus-ex-directx-12-mgpu/

Hübie
2016-11-03, 18:29:08
DX12 alte Build (2-3 Builds älter) vs. DX12 aktuelle Build. Ich kann aber auch gerne nochmal für dich aktuell DX11 mit DX12 vergleichen falls Interesse besteht. Aber bitte nur Benchmark, ist halt am einfachsten. Ich bin Ingame eh noch komplett am Anfang.

Nein, danke. Keine Umstände. :smile: Ich brauchte nur die Basis. Das ist natürlich schon ganz gut und vor allem bemerkenswert, wenn man so deutliche Sprünge innerhalb eines Patches bemerkt. Es wird also dran gearbeitet. Nach wie vor sehe ich jedoch nicht den Vorteil für DX12 wie es mal proklamiert wurde.

dargo
2016-11-03, 18:40:09
Nach wie vor sehe ich jedoch nicht den Vorteil für DX12 wie es mal proklamiert wurde.
Wenn du es mit noch mehr CPU-Power erschlägst auch kein Wunder. ;D Oder mit anderen Worten ausgedrückt. Deine aktuelle Grafikkarte ist ein Fliegenschiss unter DX12 für deine CPU. :devil:

Hier nochmal ein kleiner Vergleich mit der aktuellen Build DX11 vs. DX12.

Hassi 4C/8T @2Ghz, DDR3-1600, R9 390, 720p mit High-Preset mit jeweils 2 Durchläufen.
57863 57864
57865 57866

d2kx
2016-11-03, 18:54:18
http://radeon.com/wp-content/uploads/2016/11/Deus-Ex-FINAL-800x283.png

HEHE,
die Seite haben sie wieder runter genommen, gestern waren da noch Grafiken die 100% Skalierung zeigten mit DX12 Multi-GPU.

http://radeon.com/en-us/2016/11/01/deus-ex-directx-12-mgpu/

http://radeon.com/en-us/deus-ex-directx-12-mgpu/

Hübie
2016-11-03, 18:54:19
Ja das ist die in der Tat. Wenn ich wieder in Deutschland bin sollte Vega da sein. Dann schau ich mal was in 4k geht (oder auch nicht). Die 1080 ist weder Fisch noch Fleisch für 8.3 megapixel. Die macht so bei 5-6 schlapp, wenn man 16.6 ms oder weniger will. TXP ist weit ausserhalb dessen was ich mit meinem Wertegefühl vereinbaren kann. Also wie immer --> aussitzen. :D

Wie siehts denn in 1440p aus? Kannst du da mal bitte schauen?

Blediator16
2016-11-03, 18:59:31
http://radeon.com/en-us/deus-ex-directx-12-mgpu/


https://www.youtube.com/watch?v=86tp-qRKG58

100% sind durchaus möglich :up:

dildo4u
2016-11-03, 19:03:04
Im Benchmark wie oft wollt ihr noch auf den Müll reinfallen.

aufkrawall
2016-11-03, 19:03:13
Daumen rauf für AFR? Ernsthaft?

Nightspider
2016-11-03, 19:25:00
11.2? :|

Was ist? Kennste nicht?

Windows Vista/7 = DX 11.0
Windows 8 = DX 11.1
Windows 8.1 = DX11.2
Windows 10 = DX11.3/4

Die Frostbite-Engine macht falls verfügbar, Gebrauch von DX11.1, womit der CPU-Overhead reduziert werden kann, auf Seiten der Constant-Buffer-Updates:
https://developer.nvidia.com/content/constant-buffers-without-constant-pain-0?ClickID=dkzckx0mh0kwnmnnm20ww2rckrzobobo2ymy

Achja, so war das. Danke. Mich ärgert es ein wenig das so wenig technsiche Details zu BF1 bekannt sind und es keine News zum DX12 Entwicklungsstand in BF1 gibt.

Hübie
2016-11-03, 19:46:19
Doch aber dass BF4 D3D11.2 nutzt war mir neu...

Nightspider
2016-11-03, 20:01:53
Brachte damals auch einiges im CPU Limit soweit ich mich an Usererfahrungen erinnern kann.
Hatte nur damals keinen Bock extra dafür Win8 draufzumachen.

aufkrawall
2016-11-03, 20:02:40
Es war 11.1, nicht 11.2. ;)

Hübie
2016-11-03, 20:03:35
Das war auch mein letzter Stand, aber da ich bestimmt schon gefühlte 5 Jahre kein BF4 mehr gespielt habe...

dargo
2016-11-03, 20:34:23
Wie siehts denn in 1440p aus? Kannst du da mal bitte schauen?

Hassi 4C/8T @3,7Ghz, DDR3-1600, R9 390, 1440p mit High-Preset mit jeweils 2 Durchläufen.

https://abload.de/thumb/dxmd_2016_11_03_20_24m4yqg.jpg (http://abload.de/image.php?img=dxmd_2016_11_03_20_24m4yqg.jpg) https://abload.de/thumb/dxmd_2016_11_03_20_268byiu.jpg (http://abload.de/image.php?img=dxmd_2016_11_03_20_268byiu.jpg)
https://abload.de/thumb/dxmd_2016_11_03_20_298myrr.jpg (http://abload.de/image.php?img=dxmd_2016_11_03_20_298myrr.jpg) https://abload.de/thumb/dxmd_2016_11_03_20_31gez2b.jpg (http://abload.de/image.php?img=dxmd_2016_11_03_20_31gez2b.jpg)

Achill
2016-11-03, 20:36:07
Mit Patch Build: 616.0

24/7 Silence Modus mit:
- 6850k@4Ghz / UC@3.6 / DDR4@3000-15-17-17-39
- 2x390X@1080/1500

Ultra Preset mit 1440p:
DX12, 2x GPU: 61 fps / 74.2 fps / 92.7 fps

Datenpunkte im System-Screenshot sind: Start Bench, Max.Frames, Max.Spick im Bench, Ende Bench


Läuft bei mir sehr gut mit mGPU.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=57871&d=1478201359

@aufkrawall, wenn NV & AMD irgendwann keine größeren GPUs mehr herstellen können / dies unwirtschaftlich wird, wird man sich spätestens dann über AFR freuen.
Man sollte auch zwischen "alten" AFR Szenarien (wo es mit dem Treiber nachgerüstet wurde) und "neuen" (wo Entwickler explizit mGPU steuern) unterschieden.

aufkrawall
2016-11-03, 20:51:07
Ich weiß, wie sich perfekt laufendes AFR anfühlt. Der Lag ist immer spürbar, werd ich mir nie wieder antun. fps um die 50 kann man damit in den meisten Spielen direkt knicken.

Locuza
2016-11-03, 20:51:15
Twitterverse post mortem:
Would like to require Win10 & DX12/WDDM2.0 as a minspec for our holiday 2016 games on Frostbite, likely a bit aggressive but major benefits
@repi "major benefits":
http://www.hardocp.com/article/2016/10/24/battlefield_1_video_card_dx12_performance_preview/6#.WBD11Xdh0_U

with exclusively designing for as a minspec, yes then there can be major benefits
https://twitter.com/repi/status/791589443715170304

DX12 as a minspec, well see you in 2020. :redface:

aufkrawall
2016-11-03, 20:53:53
Er soll nicht rumlabern, "major benefits" gabs schon längst mit Doom. Dice ist nur noch genau so eine überforderte Frickelbude wie viele andere auch.

Hübie
2016-11-03, 21:24:20
Hassi 4C/8T @3,7Ghz, DDR3-1600, R9 390, 1440p mit High-Preset mit jeweils 2 Durchläufen.

https://abload.de/thumb/dxmd_2016_11_03_20_24m4yqg.jpg (http://abload.de/image.php?img=dxmd_2016_11_03_20_24m4yqg.jpg) https://abload.de/thumb/dxmd_2016_11_03_20_268byiu.jpg (http://abload.de/image.php?img=dxmd_2016_11_03_20_268byiu.jpg)
https://abload.de/thumb/dxmd_2016_11_03_20_298myrr.jpg (http://abload.de/image.php?img=dxmd_2016_11_03_20_298myrr.jpg) https://abload.de/thumb/dxmd_2016_11_03_20_31gez2b.jpg (http://abload.de/image.php?img=dxmd_2016_11_03_20_31gez2b.jpg)

Sorry wenn ich noch mal Frage: Zeile ist Version und Spalte Durchlauf? :freak: Will nur sicher gehen. Ob ich das richtig interpretiere. Demnach sind die min-fps mit dem aktuellen Patch, laut den unteren zwei Bildern, ordentlich angestiegen.

Läuft bei mir sehr gut mit mGPU.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=57871&d=1478201359

@aufkrawall, wenn NV & AMD irgendwann keine größeren GPUs mehr herstellen können / dies unwirtschaftlich wird, wird man sich spätestens dann über AFR freuen.
Man sollte auch zwischen "alten" AFR Szenarien (wo es mit dem Treiber nachgerüstet wurde) und "neuen" (wo Entwickler explizit mGPU steuern) unterschieden.

Ich glaub du kennst nix anderes mehr. Sehr gut ist Note 1. Da spricht der Graph ne andere Sprache. :freak:

Twitterverse post mortem:



https://twitter.com/repi/status/791589443715170304

DX12 as a minspec, well see you in 2020. :redface:

Warum dann noch mit DX12 herum ärgern statt Vulkan zu benutzen? :| OK, glaub WDDM lässt sich damit nicht umgehen... oder? :|

@aufkrawall: Dennoch kommt am Ende was hübsches heraus. Wenn ich so sehe wie gut die Engine eigentlich skaliert... :smile:

dargo
2016-11-03, 21:30:04
Sorry wenn ich noch mal Frage: Zeile ist Version und Spalte Durchlauf? :freak: Will nur sicher gehen. Ob ich das richtig interpretiere. Demnach sind die min-fps mit dem aktuellen Patch, laut den unteren zwei Bildern, ordentlich angestiegen.

Links erster Durchlauf, rechts zweiter Durchlauf der jeweiligen API. Die API erkennst du am Overlay vom Arschbrenner.

aufkrawall
2016-11-03, 21:34:11
@aufkrawall: Dennoch kommt am Ende was hübsches heraus. Wenn ich so sehe wie gut die Engine eigentlich skaliert... :smile:
Sie hatten trotzdem seit Battlefront genug Zeit für DX12.

Locuza
2016-11-03, 21:45:16
[...]
Warum dann noch mit DX12 herum ärgern statt Vulkan zu benutzen? :| OK, glaub WDDM lässt sich damit nicht umgehen... oder? :|

@aufkrawall: Dennoch kommt am Ende was hübsches heraus. Wenn ich so sehe wie gut die Engine eigentlich skaliert... :smile:
Die DX12 Specs waren früher fertig, man kann seine riesige HLSL-Shader-Basis einfach übernehmen und DX12 bietet Multi-GPU Support an.

Vulkan besitzt aktuell nur ein GLSL--> SPIR-V Frontend und verfügt praktisch über keine Multi-GPU-Unterstützung.
Aktuelle tools scheinen noch nicht das ganze Featureset von HLSL nach GLSL automatisch bzw. mit wenig Aufwand übersetzen zu können.
Dieses Problem muss noch bewältigt werden, ebenso muss die Spec Multi-GPU-Support nachreichen und am besten auch gleich neuere Features.

WDDM kann man nicht umgehen, egal ob DX, OGL oder Vulkan, alles knüpft an WDDM an.
Mit 2.0/1 unter Windows 10 sollte das allgemein kein Problem darstellen, aber 1.x scheint zickig zu sein.

Die Frostbite Engine macht einen sehr guten Eindruck und mit BF1 feiert man einen Spielelaunch ohne ein ganzes Bugfest wie damals bei BF4, allerdings bezogen auf DX12 gibt es nicht wirklich etwas positives zu berichten.

Hübie
2016-11-03, 22:38:46
Gutes Argument. Das mit WDDM dachte ich mir auch, aber bin da ja nicht so der Experte. ;)

Mein Bruder flucht fleißig über die Frostbite mit NVIDIA, da die ständig mit "Device removed" abkackt (er hat meinen PC). Ansonsten stimme ich dir zu. Das was man präsentiert bekommt gefällt sehr gut und ich werde es mir wahrscheinlich auch nächstes Jahr kaufen, nachdem ich schon Battlefront verpasst hatte. Ich vertrau also darauf, dass wenn Johann Andersson sagt, es käme mehr heraus wenn man strikt auf Fallback verzichten würde, es auch stimmt. Ich glaube dargo ist auch ein Verfechter dieses Ansatzes.
Unser Alphatier könnte sich hier mal wieder zurückmelden, aber ich glaub er is endgültig weg.

iuno
2016-11-04, 00:49:01
DICE hat ein HLSL->DXIL Frontend und es gibt Referenzen fuer GLSL->SPIR-V. Zudem Erfahrungen mit ziemlich jeder Plattform und API, sogar Mantle und Metal. Als waere es fuer die ein Problem gewesen, Vulkan zu nutzen, auch zeitlich hinsichtlich dem BF1 Release. Und wen interessiert mGPU? Hat BF1 ueberhaupt mGPU Unterstuetzung mit dx12?
Man muss schon sagen, dass die sowieso schon ziemlich viel Arbeit reingesteckt haben und das Zeug auch mit dx11 schon gut laeuft. Die Spiele sind halt leider nix :P

edit: nochmal nachgeschaut, selbst glslang, die Referenzimplementierung hat ein hlsl frontend, zugegebenermassen allerdings erst seit kurzem und noch nicht 100%ig fertig :ulol:

d2kx
2016-11-04, 00:55:09
Für die, die das Spiel nicht haben:

Forza Horizon 3 Demo (~20GB) (https://www.microsoft.com/store/apps/9NBLGGH52TH6)
Windows Store

dargo
2016-11-04, 08:12:39
Na endlich. :up:

Edit:
Da denkst du nach Forza 6: APEX geht es nicht mehr schlimmer. Doch... Microsoft und seine Studios schaffen es. :uup:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11202515&postcount=944

Achill
2016-11-04, 13:37:48
[..]
Läuft bei mir sehr gut mit mGPU.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=57871&d=1478201359

Ich glaub du kennst nix anderes mehr. Sehr gut ist Note 1. Da spricht der Graph ne andere Sprache. :freak:


[..]


Die Varianz zwischen der Frame davor und dem Spike sind 10ms geschätzt - sowas filtert jeder FSync / GSync Monitor weg. Die Skalar war außerdem mit 50ms feiner aufgelöst als andere Screenshots hier im Fred - dort meist 100ms oder 200ms.

Für mich passt es ganz gut und kann damit noch warten auf die nächste GPU.

aufkrawall
2016-11-04, 14:12:11
Na endlich. :up:

Edit:
Da denkst du nach Forza 6: APEX geht es nicht mehr schlimmer. Doch... Microsoft und seine Studios schaffen es. :uup:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11202515&postcount=944
Tja, läuft hier mit meinem 2500k OC und der der 1070 bei 50-70fps (min-fps ab und zu auch mal in den 40er Bereich).
Läuft wohl einfach kacke auf Hawaii, hatte ich ja schon für Apex bez. 390 vs. 1070 beschrieben.
Schöne, neue DX12-Welt.

Kann man auf Radeons mittlerweile eigentlich AAA mit DX12 nutzen? Bei FH3 hilft TrSSAA via Treiber auf Nvidia ungemein, die Bäume zu entflimmern.

dargo
2016-11-04, 14:18:01
Tja, läuft hier mit meinem 2500k OC und der der 1070 bei 50-70fps (min-fps ab und zu auch mal in den 40er Bereich).
Läuft wohl einfach kacke auf Hawaii, hatte ich ja schon für Apex bez. 390 vs. 1070 beschrieben.
Schöne, neue DX12-Welt.

Och... wenn UWP nicht würfelt (;D) habe ich sogar 70+fps in 1440p. :D Einfach die Katastrophe im FH3 Thread verfolgen. ;)

aufkrawall
2016-11-04, 14:21:15
Ich konnte bisher in nativer Auflösung keine Probleme durch UWP feststellen, GoW4 lief auch dahingehend problemlos.
Edit: Forza Apex natürlich ausgenommen.

-/\-CruNcher-/\-
2016-11-04, 15:33:02
Er soll nicht rumlabern, "major benefits" gabs schon längst mit Doom. Dice ist nur noch genau so eine überforderte Frickelbude wie viele andere auch.

Du hängst dich aber mal wieder ganz schön weit aus dem Fenster ;)

iuno
2016-11-04, 15:37:01
Kann man auf Radeons mittlerweile eigentlich AAA mit DX12 nutzen? Bei FH3 hilft TrSSAA via Treiber auf Nvidia ungemein, die Bäume zu entflimmern.
Ist das ein externes Ding oder ueber Nvidias Panel? Funktioniert das auch bei ROTTR?
Du hängst dich aber mal wieder ganz schön weit aus dem Fenster ;)
Wo denn? Stimmt doch

aufkrawall
2016-11-04, 15:37:31
Du hängst dich aber mal wieder ganz schön weit aus dem Fenster ;)
Ich habe die BF1-Final auf meinem PC gesehen und traue mir ein Urteil zu.

Ist das ein externes Ding oder ueber Nvidias Panel? Funktioniert das auch bei ROTTR?
Das ist ein offizielles Treiber-Feature übers Panel, das MSAA im Spiel voraussetzt. Deshalb funktioniert das auch leider in RotTR nicht.
Mit 2xMSAA + 2xTRSSAA + FXAA lässt sich in FH3 ein brauchbarer Kompromiss erzielen. Hätten die Entwickler einfach gescheites TAA eingebaut, nun ja...