PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Novum
2015-09-13, 18:39:17
Eigentlich hört man solche Aussagen zu jeder neuen OpenGL-Version seit 3.x und spätestens seit 4.0.
OpenGL ist viel problematischer was die Treiber angeht.

aufkrawall
2015-09-13, 18:40:53
Alles Sachen die du auch gerne mal testen kannst. Kannst auch gerne deine Programme nennen.

Bei LibreOffice OpenCL ist tatsächlich auch nur Intel auf der Blacklist.

tdon
2015-09-13, 18:54:38
Siehe Signatur (Core i7-4750HQ) und immer aktueller Treiber. Und soweit ich weiß ist der GPU-Treiber von Intel noch OpenCL 1.2. 2.0 hat nur der CPU-Treiber.


OpenCL 2.0 auf der GPU gibt es erst ab Broadwell.

iuno
2015-09-13, 19:36:02
Bei Android gibt es verständlicherweise bisher nur eine Ankündigung das man es unterstützen wird. Allerdings noch ohne eine genaue Version anzugeben. Und wenn es dann kommt muss sich eigen wie schnell es eine kritische Masse erreicht.
Ich denke, Google hat durchaus Interesse daran, dass da schnell was passiert, einfach weil Apple mit Metal auffährt und man irgendwie dagegenhalten muss. Wie viele Features (oder ob überhaupt) die uralten Androiden dann untersützen ist da eher nebensächlich. Und es werden sich sicher Entwickler finden, die 'anspruchsvollere' Games für Vulkan bringen wollen.

Ich könnte mir vorstellen, dass erstmal nur Vulkan-Spiele von Studios kommen, die schon Erfahrung mit Mantle haben.
Da ist der gute Draht zu AMD dann sicher nützlich.
Und wer soll das sein? DICE hat ja wohl schonmal keinen Bock. Was gab es sonst noch außer Thief?

Tamagothi
2015-09-13, 20:10:38
Vulkan sollte man nicht unterschätzen.

Während man bei Steam mit DX12 nur knapp 20% der user erreicht, erreicht man mit Vulkan 100%.

Als Entwickler sollte man ja möglichst viele Spieler erreichen was mit DX12 aber noch dauern kann.

AintCoolName
2015-09-13, 20:20:44
DX12 ist da und 20% sind der Anfang das wird bis Ende des Jahres noch ordentlich steigen. Vulkan ist von den theoretischen 100% noch 100% Punkte entfernt, und das bleibt wohl auch noch eine weile so.

Demirug
2015-09-13, 20:21:55
Ich denke, Google hat durchaus Interesse daran, dass da schnell was passiert, einfach weil Apple mit Metal auffährt und man irgendwie dagegenhalten muss. Wie viele Features (oder ob überhaupt) die uralten Androiden dann untersützen ist da eher nebensächlich. Und es werden sich sicher Entwickler finden, die 'anspruchsvollere' Games für Vulkan bringen wollen.

Kein Widerspruch. Es ging mir auch mehr darum das Vulkan eben nicht die "One for All" Lösung ist als die es gerne verkauft wird.

Vulkan sollte man nicht unterschätzen.

Während man bei Steam mit DX12 nur knapp 20% der user erreicht, erreicht man mit Vulkan 100%.

Die Rechnung hätte ich gerne mal erklärt.

iuno
2015-09-13, 20:28:01
Kein Widerspruch. Es ging mir auch mehr darum das Vulkan eben nicht die "One for All" Lösung ist als die es gerne verkauft wird.
OK. Nein, das sicher nicht. Ist schließlich auch eine Next-Gen API :wink:

Tamagothi "rechnet" wohl mit der Verbreitung von Windows 10 laut der letzten Steam survey. Demnach hatten knapp 20% der Steam User W10, der Rest eben ältere Versionen (8.1, 8, 7, Vista, XP, ...) und dann gab es noch ein paar mit Mac und Linux. Damit ist die "Rechnung" natürlich erstmal Quatsch, denn Vulkan muss erstmal fertig werden und dann müssen auch Treiber auf allen Plattformen bereitstehen, was ja bei Apple schonmal raus fällt und sich auch sonst erst zeigen muss. Grundsätzlich ist der Gedanke aber imho richtig.

][immy
2015-09-14, 11:04:35
OK. Nein, das sicher nicht. Ist schließlich auch eine Next-Gen API :wink:

Tamagothi "rechnet" wohl mit der Verbreitung von Windows 10 laut der letzten Steam survey. Demnach hatten knapp 20% der Steam User W10, der Rest eben ältere Versionen (8.1, 8, 7, Vista, XP, ...) und dann gab es noch ein paar mit Mac und Linux. Damit ist die "Rechnung" natürlich erstmal Quatsch, denn Vulkan muss erstmal fertig werden und dann müssen auch Treiber auf allen Plattformen bereitstehen, was ja bei Apple schonmal raus fällt und sich auch sonst erst zeigen muss. Grundsätzlich ist der Gedanke aber imho richtig.
und die Hardware muss auch tatsächlich etwas unterstützen. Eine "uralt" Radeon/GeForce bringt auch mit Vulkan nix neues mit. Auch die ganzen Intels die sich da tummeln dürften kaum kompatibel sein.
Also auch wenn AMD mit mantle gute Vorarbeit geleistet hat, rechne ich nicht mit Vukan vor 2017

abgesehen davon wird gerne übersehen, hier wird wieder Vukan mit Direct3D 12 verglichen, nicht DirectX12. Zu DirectX12 gehört noch ein wenig mehr, auch wenn meistens nur die Grafik-Schnittstelle gemein ist.

Lord_X
2015-09-14, 16:28:05
[immy;10778566']Auch die ganzen Intels die sich da tummeln dürften kaum kompatibel sein.
Valve Developed An Intel Linux Vulkan GPU Driver

http://www.phoronix.com/scan.php?page=news_item&px=valve-intel-vulkan-driver
http://www.phoronix.com/scan.php?page=news_item&px=LunarG-Vulkan-AMA

Sooo schlimm ist die Situation mit Sicherheit nicht! Auch Nvidia hat schon bestätigt, dass sie einen Vulkan Treiber sehr schnell anbieten werden.

][immy
2015-09-14, 17:22:14
Valve Developed An Intel Linux Vulkan GPU Driver

http://www.phoronix.com/scan.php?page=news_item&px=valve-intel-vulkan-driver
http://www.phoronix.com/scan.php?page=news_item&px=LunarG-Vulkan-AMA

Sooo schlimm ist die Situation mit Sicherheit nicht! Auch Nvidia hat schon bestätigt, dass sie einen Vulkan Treiber sehr schnell anbieten werden.
es geht um die Hardware. Nicht jede GPU wird Vulkan-Kompatibel sein. Selbst wenn es pure Treiberkompatiblität ist, heißt es noch nicht das gegenüber OpenGL irgendwas gewonnen ist. Die Hardware muss ein bestimmtes Feature-Level haben um einen nutzen aus Vulkan ziehen zu können. Ansonsten können wir gleich wieder über <DX12 und OpenGL reden.

iuno
2015-09-14, 18:05:04
Intel hat auch schon live Demos von Vulkan Programmen auf Intel GPU gezeigt.

Das wichtigste "Feature" ist sowieso die Reduzierung des Overhead und die bessere Auslastung beim Multithreading, auch und gerade bei mobilen devices

Lord_X
2015-09-14, 18:18:23
[immy;10779018']es geht um die Hardware.Schon klar. Es ist bekannt, dass Vulkan auch Feature Level wie DX12 erhält. Bei DX12 ist Intel ab Haswell dabei. Da wird sich Vulkan nicht viel geben.

[immy;10779018']Nicht jede GPU wird Vulkan-Kompatibel sein.
Uhhh sag das nicht den Nvidia FB! :D

aufkrawall
2015-09-14, 18:37:28
Das wird wohl eher Pre-GCN Radeons betreffen.

Lord_X
2015-09-14, 19:05:32
Die Rechnung hätte ich gerne mal erklärt.
Der Marktanteil von Win10 ändert sich monatlich spürbar. Nimm doch die Umfrage hier im Forum:

Vulkan:
- Win 7 41.5%
- Win 8/8.1 10.5%
- Win 10 34%
- Linux 10.6%
- Gesamt: 96.4%

DX12:
- Win 10 34%
- Gesamt: 34%

Dazu kommt bei Vulkan noch der ganze Mobile Sektor.

Kartenlehrling
2015-09-14, 19:19:14
In einer Twitter Meldung wurde nachdem verlaute wurde das Fostbite3 nun auf DX12 umgestellt ist gefragt welch Spiele es sind und
da wurde geantworte auf jedenfall alle Fostbite3 Spiele die 2016 Release haben.

Dieses Jahr kommen ...Need for Speed, Starwars,
das diese Spiele auf der XBone mit DX12 kommen ist wohl sicher nur Welche API`s die PC Versionen unterstützen wissen wir immer noch nicht.




Mirror's Edge Catalyst kommt Febuar somit 100% sicher ....

Was mir Sorgen macht ist das anscheinen Nvidia MirrorEdge supporte.

Need for Speed 2015
PC Version wurde verschoben auf 2016 damit es ohne 30fps Lock kommt. lol EA
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10779125&postcount=88

:D Soo jetzt müssen sie noch Starwars verschieben dann Stimmt die Ausage das alle 2016 kommende Frostbits3 Spiele DX12 sind.

Tamagothi
2015-09-14, 19:56:09
Hab ich nicht gelesen das Starwars DX12 bekommt zwar nicht sofort ab nachgereicht?

-/\-CruNcher-/\-
2015-09-14, 20:00:39
Das wird wohl eher Pre-GCN Radeons betreffen.

Jo alles VLIW keine Chance ;)

Demirug
2015-09-14, 20:04:46
Der Marktanteil von Win10 ändert sich monatlich spürbar. Nimm doch die Umfrage hier im Forum:

Vulkan:
- Win 7 41.5%
- Win 8/8.1 10.5%
- Win 10 34%
- Linux 10.6%
- Gesamt: 96.4%

DX12:
- Win 10 34%
- Gesamt: 34%

Dazu kommt bei Vulkan noch der ganze Mobile Sektor.

1. Das sind keine 100%

2. Du gehst nicht ernsthaft davon aus das in jedem dieser Rechner DX12/vulkan fähige Hardware ist, oder?

Hübie
2015-09-14, 20:13:24
Besonders die Linux-Fachschaft dürfte eher Gurken haben :D Kenne nur wenige die echt brauchbare PCs haben auf denen Linux läuft. Damit meine ich Sandybridge Quadcore und GTX 580/HD7870+. Im Kontext des Zockens... ;);)

-/\-CruNcher-/\-
2015-09-14, 20:28:29
Ehhh unter Nvidia usern gibt es dutzende user mit High Quality Linux Systemen schon alleine wegen dem exzelenten Properitären Unix/Linux Treiber und seiner Performance.

Linux + Vulkan Vs Windows 10 (NT6.4) + DX 12 das wird nochmal richtig interessant vor allem bei VR ;)

Lord_X
2015-09-14, 20:32:03
1. Das sind keine 100%
Wow wusste nicht, dass du die Umfrage nicht selber findest. Die restlichen Prozent kannst du aufteilen unter Mac/FreeBSD/OpenBSD/NetBSD/Solaris/Wasweissich

2. Du gehst nicht ernsthaft davon aus das in jedem dieser Rechner DX12/vulkan fähige Hardware ist, oder?
Doch! Das ist das, was AMD/Nvidia uns doch verkaufen will oder? Ich gehe eher davon aus, dass es hier viele Leute mit aktuellerer Hardware gibt als bei Steam. Selbst dort Haben DX11 GPU's 79% Marktanteil und von DX12 profitieren doch alle DX11 taugliche GPU's...

http://store.steampowered.com/hwsurvey/videocard/

-/\-CruNcher-/\-
2015-09-14, 20:38:17
Erfasst das Steam Hardware Survey auch SteamOS install base oder sind diese Daten nicht öffentlich ?

N0Thing
2015-09-14, 20:40:00
Da Linux mit einem Anteil von 0,92% genannt wird, gehe ich davon aus, daß auch die Hardware der Linuxsysteme mit einfließt.

Demirug
2015-09-14, 20:41:11
Lord_X, es ging um Tamagothi Aussage "erreicht man mit Vulkan 100%" die ich erklärt haben wollte.

-/\-CruNcher-/\-
2015-09-14, 20:50:59
Da Linux mit einem Anteil von 0,92% genannt wird, gehe ich davon aus, daß auch die Hardware der Linuxsysteme mit einfließt.

Das muss nicht unbedingt heisen das SteamOS mit drinne ist wenn es keine Aussage dazu offiziel von Valve gibt.

N0Thing
2015-09-14, 21:18:21
Das muss nicht unbedingt heisen das SteamOS mit drinne ist wenn es keine Aussage dazu offiziel von Valve gibt.

Muss es nicht, aber ich wüsste nicht warum Valve ausgerechnet SteamOS aus seiner Statistik raus halten sollte Die müssten jedes Interesse daran haben, Linux als Alternative positiv darzustellen und zwar sowohl den Kunden als auch den Publishern gegenüber.

Lurtz
2015-09-14, 21:47:47
Das muss nicht unbedingt heisen das SteamOS mit drinne ist wenn es keine Aussage dazu offiziel von Valve gibt.
Die Survey wird einfach vom Steam Client gestartet, dem ist es egal auf welchem System er läuft.

Arcanoxer
2015-09-14, 21:50:47
Die Survey wird einfach vom Steam Client gestartet, dem ist es egal auf welchem System er läuft.
Das Survey betrifft ein paar % der User, nicht unbedingt aussagekräftig.
Oder wann war euer letztes Steam Survey? :confused:

Isen
2015-09-14, 21:51:51
Dez. 2014 bei mir... :D

Ganon
2015-09-14, 21:52:58
Naja, wie groß ist der Anteil der SteamOS-Nuter? 0.05%? Oder doch 0.1%? Ich glaube nicht, dass das eine Statistik groß beeinflusst.

Wie wird es eigentlich gerechnet, wenn ein Nutzer Steam in Windows und in Steam in Linux benutzt, so wie ich?

Lurtz
2015-09-14, 21:54:09
Das Survey betrifft ein paar % der User, nicht unbedingt aussagekräftig.
Oder wann war euer letztes Steam Survey? :confused:
Steam hat über 80 Millionen User. Selbst wenn nur 1% in den letzten sechs Monaten an der Umfrage teilgenommen haben, hast du wahrscheinlich ein repräsentatives Bild von der Hard- und Software von PC-Spielern. Oder gibt es eine bessere Datenquelle?


Wie wird es eigentlich gerechnet, wenn ein Nutzer Steam in Windows und in Steam in Linux benutzt, so wie ich?
Dann wird wohl die Info des Client verwertet, von dem aus die Umfrage beantwortet wurde.

Arcanoxer
2015-09-14, 22:05:04
Steam hat über 80 Millionen User. Selbst wenn nur 1% in den letzten sechs Monaten an der Umfrage teilgenommen haben, hast du wahrscheinlich ein repräsentatives Bild von der Hard- und Software von PC-Spielern. Oder gibt es eine bessere Datenquelle?
Gibt es.
http://www.3dcenter.org/news/umfrage-auswertung-welches-pc-betriebssystem-ist-im-einsatz-nach-dem-release-von-windows-10

Lurtz
2015-09-14, 22:10:47
Gibt es.
http://www.3dcenter.org/news/umfrage-auswertung-welches-pc-betriebssystem-ist-im-einsatz-nach-dem-release-von-windows-10
Not sure if trolling...

Unicous
2015-09-14, 22:14:56
Da hat ein gewisser Jemand bestimmt zig mal den Stecker beim Router gezogen und neu abgestimmt.:wink:

Arcanoxer
2015-09-14, 22:20:48
Da hat ein gewisser Jemand bestimmt zig mal den Stecker beim Router gezogen und neu abgestimmt.:wink:
Ich frage mich auch warum so viele freiwillig zu Windows 10 wechseln? :confused:

iuno
2015-09-14, 22:21:04
Besonders die Linux-Fachschaft dürfte eher Gurken haben :D Kenne nur wenige die echt brauchbare PCs haben auf denen Linux läuft. Damit meine ich Sandybridge Quadcore und GTX 580/HD7870+. Im Kontext des Zockens... ;);)
Die Aussage stimmt, auch wenn ich nicht verstehe was daran lustig ist.
Ich habe momentan auch in keinem Gerät auf dem Linux läuft eine Grafikkarte die zum Spielen taugt. Warum sollte ich auch? Die steckt in einer Windows-"Konsole". Deswegen ist ein Linux-Rechner aber nicht gleich Schrott, denn der hier hat z.B. vier Haswell Kerne, SSD usw. und eine Grafikkarte ist gleich drin, wenn es sein muss.
Ich nehme gerne für die jeweiligen Anwendungen die passenden Werkzeuge, weshalb ich mir kein Windows antue, solange es um was anderes als Spiele geht. Aber wieso sollte ich mir den Stress machen und ums Verrecken versuchen etwa alles mit Wine zum Laufen zu bekommen?
Linux ist momentan kein so "taugliches Werkzeug" wie Windows, wenn man spielen will. Das liegt aber nicht an Linux selbst.
Da das ganze ein Teufelskreis ist, ist die Argumentation auch purer Blödsinn, wenn man behauptet, es gäbe keine potenzielle Kundschaft unter Linux-usern für Spiele oder Linux-PCs seien grundsätzlich zum Spielen ungeeignet :rolleyes:

Ich hätte übrigens vor kurzem an der survey teilnehmen sollen. Weiß aber gar nicht mehr, ob ich es gemacht habe. Fakt ist aber, dass ich Steam nur auf Windows habe und sonst nur Linux benutze. Und Fakt ist auch, dass ich Windows nicht wieder anfassen würde, wenn Vulkan Verbreitung fände und mehr Spiele für Linux kommen.

Da hat ein gewisser Jemand bestimmt zig mal den Stecker beim Router gezogen und neu abgestimmt.:wink:
Ach so viel Aufwand ist doch da gar nicht nötig :P

Lord_X
2015-09-14, 22:38:21
Lord_X, es ging um Tamagothi Aussage "erreicht man mit Vulkan 100%" die ich erklärt haben wollte.
Du erklärst aber nicht, was genau dich stört! Ist es weil man nur auf 95% Marktanteil kommt oder was genau?

Gefällt dir folgende Aussage besser? "Mit Vulkan erreicht man alle User ausser von Apple (Mac OSX/iOS)! und Windows Mobile."

aufkrawall
2015-09-14, 22:48:54
Es geht ihm wohl einfach ums Prinzip. Was ich verstehen kann, denn ruckzuck entstehen durch mangelnde Genauigkeit dämliche wie falsche Legenden, die einem dann ständig vorgesetzt werden.

Birdman
2015-09-14, 22:52:07
Vulkan hat gemäss aktuellen Schätzungen ziemlich genau 0% Marktanteil - dunno woher da diese 95/100% kommen.
Auf ein könnte/hätte/wäre/müsste darf getrost verzichtet werden und ich grabe in einem Jahr dann gerne diesen Thread wieder aus und schaue on man die 0% endlich überschritten hat.

aufkrawall
2015-09-14, 22:57:34
Dass es auf alle Desktop-PCs kommt, die DX12 unterstützen, ist ziemlich sicher. Nur halt nicht die Antwort auf die Frage, wann.

Übrigens setzt etwa BF4 auch einen gewissen Mindestreiberstand voraus, sonst startet es nicht. Das könnte man bezüglich Vulkan genau so machen.
Aber natürlich muss vorher erst einmal eine gewisse Durchdringung stattgefunden haben.

r-or
2015-09-14, 22:59:30
Steam Hardware Survey nur fuer Linux:
http://store.steampowered.com/hwsurvey?platform=linux

hf

-> Im Schnitt potentere Systeme (auf denen Steam installiert ist) verglichen mit Windows.

Demirug
2015-09-14, 22:59:37
Es geht ihm wohl einfach ums Prinzip. Was ich verstehen kann, denn ruckzuck entstehen durch mangelnde Genauigkeit dämliche wie falsche Legenden, die einem dann ständig vorgesetzt werden.

Ja, bei 100% Aussagen bekomme ich immer Kopfschmerzen.

Vulkan hat gemäss aktuellen Schätzungen ziemlich genau 0% Marktanteil - dunno woher da diese 95/100% kommen.
Auf ein könnte/hätte/wäre/müsste darf getrost verzichtet werden und ich grabe in einem Jahr dann gerne diesen Thread wieder aus und schaue on man die 0% endlich überschritten hat.

0% ist auch nicht ganz richtig. Es gibt ja eine kleine Anzahl von Leuten die Vulkan (alpha/beta) Systeme haben.

Lord_X
2015-09-15, 07:03:21
Steam Hardware Survey nur fuer Linux:
http://store.steampowered.com/hwsurvey?platform=linux
Ich habe Steam seit HL2! Ich habe seit dieser Zeit genau 1 mal diese Umfrage bekommen und das dann, als ich unter Windows angemeldet war! Es ist einfach nutzlos, da es nicht wirklich aussagekräftig ist in meinen Augen.

THEaaron
2015-09-15, 08:35:35
So funktionier Statistik halt. Nimm dir eine hinreichen große Stichprobe und rechne sie auf die gesamte Menge hoch. Denn die Verteilung der hinreichend großen Stichprobe entspricht der Verteilung der Gesamtmenge.

Valve nutzt die Daten aktiv um den Entwicklern einen Leitfaden zu geben für welche Hardware sie die Software entwickeln sollen.

Bei Einschaltquoten wird der Spaß genauso "repräsentativ" gemacht, wobei hier mein Wissen auch schon etwas älter ist.

IMHO gibt es keine genaueren Daten über die Hardware von Spielern heute.

Gipsel
2015-09-15, 10:04:46
Nur mal so als Hinweis:
Zum Steam Hardware-Survey gab und gibt es woanders schon genug Diskussionen. Hier ist das nicht das Thema.

dargo
2015-09-16, 08:45:10
DXtory supportet DX12 seit dem 29.07.15 bereits, schon jemand getestet?
http://exkode.com/dxtory-log-en.html

Kartenlehrling
2015-09-16, 11:59:59
Nvidias Tool soll es auch können, wär toll wenn jemand was dazu sagen kann.
Vorallem das einfügen von OSD von zb. HWinfo64 und dieses in die Aufnahme einfügen.

GeForce Experience 2.5.11 Release Highlights

Adds support for video capture on DX12 games in Windows 10.
Incremental improvements in GameStream audio latency.
Bug fixes and quality improvements.

http://www.geforce.co.uk/geforce-experience/download

Kartenlehrling
2015-09-17, 10:39:34
Note: DirectX 12 is currently not support on Fermi GPUs
Nvidia Quadro-Treiber Changelog

Ob sie das noch bis Ende dieses Jahres schaffen,
oder sitzten sie es einfach aus bis keiner mehr darauf warten will und freiwillig sich schöne neue teuere Nvidia Karten kaufen.

AnnoDADDY
2015-09-17, 11:06:30
Nvidia Quadro-Treiber Changelog

Ob sie das noch bis Ende dieses Jahres schaffen,
oder sitzten sie es einfach aus bis keiner mehr darauf warten will und freiwillig sich schöne neue teuere Nvidia Karten kaufen.

Was ja leistungsmäßig sinnvoll wäre... Fermi ist eh zu lahm für dx12

Kartenlehrling
2015-09-17, 12:31:18
Nur hat AMD nicht behaupte das "DirectX 12 support for ALLE NVIDIA DX11 HARDWARE".
Wenn du 60% Leistungverlust bei Aktivierung von PhsyX heranziehst hast du natürlich recht das eine GTX580 zu langsam ist.

Match-Maker
2015-09-17, 13:16:18
Sofern einer GTX 580 der Speicher nicht ausgeht ist diese immer noch fast so schnell wie eine GTX 950.
Da Fermi, Kepler und Maxwell 1.0 das gleiche Feature-Level haben, gibt es keine Grund DX12 nicht auch für Fermi zu bringen.
Allein schon wegen WDDM 2.0, welches auch bei bisherigen Anwendungen Vorteile bringt und zudem den VRAM-Mangel vieler Fermi-Karten entschärft.

Kartenlehrling
2015-09-23, 10:11:46
Alle Demos und Testsprograme kann man doch nicht ernst nehmen.
Wir mussen es wie Nvidia "aussitzen" bis die ersten Games da sind, und dann ist die frage ob Async shaders wirklich Vorteile von zweistelligen Prozente bringt.

JustCause3 (Nvidia) 01.12.2015 und Hitman (AMD) 08.12.2015 werden wohl die ersten DX12 Games sein.
RotTR wird ja leider erst XBone exklusiv sein.

Nun ja, nun wüssen wir wohl bis März warten um Hitman in dx12 zu sehen, somit ist meine Aussage das es das erste DX12 Spiel ist auch falsch,
nun glaube ich auch nicht mehr das JustCause3 wirklich für DX12 vorgesehen war und ist.

http://www.computerbase.de/2015-09/hitman-agent-47-schlaegt-erst-im-maerz-2016-zu/

Hitman : Agent 47 schlägt erst im März 2016 zu

In die Reihe der mittlerweile zahlreichen Spiele-Verschiebungen des diesjährigen Herbstes reiht sich auch die Auftragskiller-Simulation Hitman ein.
Als Grund nennt Square Enix einerseits die Komplexität des Titels, andererseits das neue Release-Modell, das auf eine kontinuierlich erweiterte Welt zielt

StefanV
2015-09-23, 11:46:45
Was ja leistungsmäßig sinnvoll wäre... Fermi ist eh zu lahm für dx12
Es geht nicht um die Leistung, es geht um die Aussage von NVidia, dass man auch für Fermi DX12 Unterstützung bringen würde...

Wenn sie hier die Klappe gehalten hätten, hätte niemand was gesagt und irgendwas behauptet.
Aber sie haben die Klappe aufgerissen und gesagt, dass auch die unterstützt werden...

KingBert
2015-09-23, 12:10:13
Es geht nicht um die Leistung, es geht um die Aussage von NVidia, dass man auch für Fermi DX12 Unterstützung bringen würde...
Und wo haben sie gesagt, dass sie es bis heute schaffen?

Auch ein Release 2018 würde die Aussage erfüllen :rolleyes:

Godmode
2015-09-23, 12:17:06
Bleibt bitte sachlich! Habt ihr nichts zum Thema beizutragen, dann lasst es.

Schnoesel
2015-09-23, 13:19:04
Dem Namen nach ist er auch im B3D-Forum aktiv. Aber das sagt natürlich nichts über die Legitimät seiner Aussagen aus. Ein gewisser "troyan" fleucht da nämlich auch seit Neuestem herum.

Deswegen eben meine Frage ob das Sinn machen kann oder ob das nur aus der Luft gegriffen ist. Wenn das stimmt müsste er schon tieferen Einblick in die Architektur von Nvidia haben und aoweit mir bekannt ist das eben nicht öffentlich gut dokumentiert.

StefanV
2015-09-23, 15:51:47
Und wo haben sie gesagt, dass sie es bis heute schaffen?

Auch ein Release 2018 würde die Aussage erfüllen :rolleyes:
...was mich als GTX 570 SLI Nutzer jetzt in welcher Form interessieren soll?

Eben, genau das ist der Punkt. Ich möchte endlich wissen, wie die Thermis so unter DX12 abschneiden, ob sie noch (halbwegs) nutzbar sind, oder komplett für die Tonne...

Und sonst wird bei solchen Aussagen doch auch immer AMD geflamt, sich drüber lustig gemacht, dass sie es nicht gebacken bekommen usw...

Warum ist es jetzt OK, wenn nVidia etwas nicht gebacken bekommt?!

Oh und by the way, wirf mal 'nen Blick hierrauf:
http://www.geforce.com/hardware/technology/dx12/supported-gpus?field_gpu_type_value=All&page=3

Und darauf:
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-570


Also, noch einmal, um es klar zu stellen:

nVidia sagt selbst, dass die GTX 570 JETZT DX12 unterstützen würde, liefert aber momentan keinen Treiber, mit dem man das nutzen kann!

Im Klartext: (zum jetzigen Zeitpunkt, muss man ganz klar sagen)
nVidia lügt! (mal wieder)...

Zumal ich da auch keinerlei Anmerkungen, Sternchen oder ähnliches erkennen kann, so dass man daraus liest, dass es JETZT unterstützt wird und nicht irgendwann, vielliecht, bald...

y33H@
2015-09-23, 16:13:31
Supported Technologies ungleich Enabled Technologies :uclap:

Arcanoxer
2015-09-23, 16:15:08
nVidia sagt selbst, dass die GTX 570 JETZT DX12 unterstützen würde, liefert aber momentan keinen Treiber, mit dem man das nutzen kann!Diese ganze DX12 Hysterie kann ich nicht nachvollziehen, es gibt doch noch nicht mal content dafür aber alle schreien Treiber. :freak:
DX12 support wird früher oder später schon für Fermi kommen, genau so wie für Vulkan.

y33H@
2015-09-23, 16:17:23
Richtig, es gibt eine buggy Alpha (Ashes of Singularity) und eine Techdemo (Infiltrator).

Kartenlehrling
2015-09-23, 16:22:43
@Godmode
Findes du nicht das du zuviel "bereinigt" hast?


Die Nvidia Folien sind schliesslich noch vom letzten Jahr,
und haben klar gezeigt das sich Nvidia auf kosten von AMD in ein viel zu gutes Licht gesetzt haben,
schliesslich ist Zukunftsicher und in Voraussicht Entwickeln ein Kaufargument.

Arcanoxer
2015-09-23, 16:31:58
Valve geht DX12 am Allerwertesten vorbei.

Vulkan versus DirectX 12: Valve sieht keinen Grund, DX12 zu unterstützen (http://www.pcgameshardware.de/OpenGL-Software-141680/News/Vulkan-vs-DirectX-12-Valve-1172173/)

Menace
2015-09-23, 17:50:56
Finde ich toll, wenn sie dadurch Vulkan (für Acranoxer: von AMD gespendet :biggrin: ) forcieren. Man kann AMD wirklich nicht genug Danken, dass sie AMD Mantle für alle geöffnet haben (Grafikkartenhersteller wie auch Betriebssysteme).

iuno
2015-09-23, 18:11:45
Valve geht DX12 am Allerwertesten vorbei.

Vulkan versus DirectX 12: Valve sieht keinen Grund, DX12 zu unterstützen (http://www.pcgameshardware.de/OpenGL-Software-141680/News/Vulkan-vs-DirectX-12-Valve-1172173/)
Die SIGGRAPH war Anfang August, warum kramen die das jetzt vor?
Davon abgesehen steht in dem "Artikel" nichts, was sich jeder auch so schon denken kann :rolleyes:

Lurtz
2015-09-23, 19:00:00
Valve geht DX12 am Allerwertesten vorbei.

Vulkan versus DirectX 12: Valve sieht keinen Grund, DX12 zu unterstützen (http://www.pcgameshardware.de/OpenGL-Software-141680/News/Vulkan-vs-DirectX-12-Valve-1172173/)
Das ist nicht überraschend, wo Valve alles in ihrer Macht tut um sich von Windows zu lösen. Würde überhaupt keinen Sinn für sie machen wieder mit DX anzufangen.

aufkrawall
2015-09-23, 19:25:21
Nur wer benutzt noch die Source Engine, wenn man auch UE4 haben kann?

StefanV
2015-09-23, 19:27:50
Valve geht DX12 am Allerwertesten vorbei.

Vulkan Open Mantle versus DirectX 12: Valve sieht keinen Grund, DX12 zu unterstützen (http://www.pcgameshardware.de/OpenGL-Software-141680/News/Vulkan-vs-DirectX-12-Valve-1172173/)

Hab das ganze mal für dich korrigiert :P


Und, wie schon erwähnt, macht es für Valve relativ wenig, um nicht zu sagen gar keinen Sinn, wo man doch versucht von Win bisserl weg zu kommen...
Wie sinnvoll wäre es da, mit DX12 anzufangen?!

Botcruscher
2015-09-23, 19:31:57
Nur wer benutzt noch die Source Engine, wenn man auch UE4 haben kann?
Wollen wir die Frage mal nach Spielerzahl beantworten?

Epic wird eh Vulkan anbieten. Das DX Monopol bröckelt.

aufkrawall
2015-09-23, 19:37:50
Wollen wir die Frage mal nach Spielerzahl beantworten?

Da hast du einen Logikfehler, es gibt noch kein Source-Spiel mit Vulkan.
Aber du kannst ja gerne Vermutungen darüber aufstellen, wie sich das in naher Zukunft im Vergleich zu DX12 entwickeln wird...

Nightspider
2015-09-23, 19:43:24
Nur wer benutzt noch die Source Engine, wenn man auch UE4 haben kann?

Half Life 3, Portal 3, Left 4 Dead 3 um nur mal 3 hochkarätige Mustbuys zu nennen + 1-2 tolle VR Games. ;)

aufkrawall
2015-09-23, 19:45:42
Wenn nur die Hälfte dieser Titel jemals erscheinen sollte, hat man schon Glück. :freak:

Botcruscher
2015-09-23, 19:49:21
Da hast du einen Logikfehler, es gibt noch kein Source-Spiel mit Vulkan.
Aber du kannst ja gerne Vermutungen darüber aufstellen, wie sich das in naher Zukunft im Vergleich zu DX12 entwickeln wird...

Soll das ein schlechter Trollversuch sein? Es gibt auch keine Spiele mit DX12 und UE4.

Lurtz
2015-09-23, 19:49:53
Nur wer benutzt noch die Source Engine, wenn man auch UE4 haben kann?
Die millionenfach gespielten Valvetitel?

Da hast du einen Logikfehler, es gibt noch kein Source-Spiel mit Vulkan.
Aber du kannst ja gerne Vermutungen darüber aufstellen, wie sich das in naher Zukunft im Vergleich zu DX12 entwickeln wird...
Valve ist nicht gerade portierungsfaul.

Kartenlehrling
2015-09-23, 19:50:15
IchHabeImmerDasLetzteWort@aufkrawallAUS
Du kannst ja auch kein UE4 Spiel vorzeigen das einem die Kinnlade auf die Knie schlägt,
und bitte keine Demos aufzählen.

aufkrawall
2015-09-23, 19:58:12
Soll das ein schlechter Trollversuch sein? Es gibt auch keine Spiele mit DX12 und UE4.
Aber bald. Trifft das für die Source-Engine auch zu?
Die meisten VR-Devs scheinen auch lieber UE zu benutzen.

IchHabeImmerDasLetzteWort@aufkrawallAUS

Kannst du eigentlich auch etwas anderes als Links und Müll posten?

d2kx
2015-09-23, 20:11:35
Aber bald. Trifft das für die Source-Engine auch zu?

Dota 2 bekommt Vulkan-Support im Dezember.

aufkrawall
2015-09-23, 20:17:59
Das ist schön, aber auch nicht vergleichbar zu einer modernen AAA-Produktion.
Zumal das Spiel auch schon mit DX11 ziemlich beschleunigt wurde.

Ja, ok. Durch Dota wird es eine nennenswerte Anzahl an Spielern geben, die Vulkan nutzt. Valve ist aber trotzdem nicht der Nabel der Welt.

Botcruscher
2015-09-23, 20:20:41
... und die anderen Titel dürften folgen. Vulkan dauert eben etwas länger. Gegen OGL ist es aber noch immer unglaublich schnell.

Dota2+ CS und das Rennen ist schon gelaufen. Damit ist zumindest der Treibersupport sicher. Wer das nicht hinbekommt kann gleich gehen.

Die UE hat vor allem sehr gute Entwicklertools. Dafür ist das Paket von Valve gratis.

d2kx
2015-09-23, 20:23:00
Ich verstehe die Abgrenzung zur UE nicht. Die Unreal Engine 4 bietet aktuell experimentellen Support für DirectX 12 und Vulkan, nur ist letzterer noch nicht öffentlich. Lauffähig sind beide, fertig sind beide nicht. Tim Sweeney liegt der Vulkan-Support persönlich sehr am Herzen.

aufkrawall
2015-09-23, 20:32:20
Ich grenze nichts ab (und finde Vulkan übrigens auch überhaupt nicht doof).
Ich sehe aber, dass schon eine eine gute Menge AAA-Titel mit DX12 für die nächsten Monate angekündigt ist, während Valve nur den alten Gammel weiter wiederbelebt und für kleine Entwickler die Source-Engine wesentlich unattraktiver zu sein scheint als UE4.

Kann ja sein, dass Vulkan nächtes Jahr schon den Durchbruch feiert. Das kann man aber jetzt noch gar nicht absehen.

d2kx
2015-09-23, 20:41:45
Ich grenze nichts ab (und finde Vulkan übrigens auch überhaupt nicht doof).
Ich sehe aber, dass schon eine eine gute Menge AAA-Titel mit DX12 für die nächsten Monate angekündigt ist, während Valve nur den alten Gamel weiter wiederbelebt und für kleine Entwickler die Source-Engine wesentlich unattraktiver zu sein scheint als UE4.

Kann ja sein, dass Vulkan nächtes Jahr schon den Durchbruch feiert. Das kann man aber jetzt noch gar nicht absehen.

Niemand bestreitet, dass die Unreal Engine die mit Abstand attraktivste Engine ist; ich benutze sie selber für einige private Projekte. Valve haben in ihrer Präsentation absichtlich betont, dass es ab 2016 (!) nicht mehr viele Gründe für DX12 gibt. Dass es dieses Jahr noch anders aussieht, ist richtig, allerdings muss man doch mal sehen, worüber wir hier sprechen. Und bis auf einige reine Benchmarks-Titel bleibt da außer Star Wars: Battlefront nicht so viel übrig.

Thomas Gräf
2015-09-23, 20:46:06
Die Frage lautet doch jetzt wieviel Geld hat MS um sich mit ihr DX12 zb beim Tim Sweeney exklusiv einzukaufen.
Denkemal die Entwickler mit Rückgrat werden sich auf Vulkan freuen, alle anderen werden wohl den Redmond Blues singen.

Kartenlehrling
2015-09-23, 22:28:48
Deus Ex: Mankind Divided kommt bestimmt mit OSX-Metal und "warscheinlich" auch mit Vulkan, aber leider ist 23.Febuar noch lang hin.

][immy
2015-09-23, 23:21:00
Niemand bestreitet, dass die Unreal Engine die mit Abstand attraktivste Engine ist; ich benutze sie selber für einige private Projekte. Valve haben in ihrer Präsentation absichtlich betont, dass es ab 2016 (!) nicht mehr viele Gründe für DX12 gibt. Dass es dieses Jahr noch anders aussieht, ist richtig, allerdings muss man doch mal sehen, worüber wir hier sprechen. Und bis auf einige reine Benchmarks-Titel bleibt da außer Star Wars: Battlefront nicht so viel übrig.
erst mal muss Vulkan zeigen das es auch rauskommen kann (final) und das es sich auch in einem angemessenen Tempo weiterentwickelt. OpenGL krankte ja in der Vergangenheit stark daran, das die Standards nicht weiterentwickelt wurde über Jahre. X-Extensions von allen möglichen Herstellern ist halt alles andere als ein wünschenswerter Zustand für die Spieleentwicklung.
DirectX (bzw. wir meinen hier wohl nur Direct3D) hat in den letzten Jahren (Jahrzehnten inzwischen) immer wieder neue Features zum Standard erklärt. OpenGL hinkte immer nur hinterher.
Es mag zwar mit Vulkan erst mal wieder einen riesen Schritt geben (dank der Arbeit die AMD schon in Mantle gesteckt hat) aber wenn danach nix mehr kommt ist auch wieder sehr schnell Schluss mit dem breiten support.

blaidd
2015-09-24, 15:19:54
Hier sind ein paar Messungen mit dem offiziellen DX12-Benchmark (Preview) von Fable Legends.
http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/

dargo
2015-09-24, 15:32:36
Irgendwie merkwürdig die Ergebnisse. Grenada XT kommt schon beinah an eine Titan X und Fiji kann die Leistung immer noch nicht auf die Straße bringen. :uponder:

Edit:
Woher kommt die Info das Game würde Async Compute verwenden?

StefanV
2015-09-24, 15:37:03
Hier sind ein paar Messungen mit dem offiziellen DX12-Benchmark (Preview) von Fable Legends.
http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/
Erschreckend, wie grotten schlecht die GTX 970 performt...
Gerade mal 14% flotter als ne R9-280X ist irgendwie erschreckend, insbesondere wenn man den Preis (und das Alter) bedenkt...

Auch interessant ist das Verhältnis zwischen R9-390X und GTX 980...

AintCoolName
2015-09-24, 15:38:12
Wenn das die Unreal 4 Engine ist, wieviel DX12 ist den da drin. Der letzte build 4.9 sagt doch das DX12 experimental ist.

Wake
2015-09-24, 15:49:18
Wenn das die Unreal 4 Engine ist, wieviel DX12 ist den da drin. Der letzte build 4.9 sagt doch das DX12 experimental ist.

MS hat für Fable Legends DX12 auf eigene Faust implementiert und arbeitet auch mit Epic zusammen um es in Zukunft generell in UE4 zu integrieren.

blaidd
2015-09-24, 15:58:59
Woher kommt die Info das Game würde Async Compute verwenden?

We’ve been making use of the new features of DirectX 12 such as the async compute.
Wurde mehrfach im Rahmen von Direct X12 und Fable Legends betont. Zum Beispiel in diesem Video (bzw. dem Kommentar darunter) von Nvidia India
hZwGzt6tZnY

Es ist nicht bestätigt, dass dieses Feature auch in der Demo zum Einsatz kommt (habe ich auch nicht explizit geschrieben ;) ), allerdings sind einige Post-Processing auffallend günstig bei AMD.

fondness
2015-09-24, 16:07:00
AnandTech hat auch Benchs:
http://www.anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis


Hier sind ein paar Messungen mit dem offiziellen DX12-Benchmark (Preview) von Fable Legends.
http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/


Fury X nur 5% schneller als 390X, really? Grenada/Hawaii liegt wieder sehr gut, die Karte scheint sich immer mehr zum Geheimtipp für DX12 zu mausern.

-/\-CruNcher-/\-
2015-09-24, 16:11:51
Ich grenze nichts ab (und finde Vulkan übrigens auch überhaupt nicht doof).
Ich sehe aber, dass schon eine eine gute Menge AAA-Titel mit DX12 für die nächsten Monate angekündigt ist, während Valve nur den alten Gammel weiter wiederbelebt und für kleine Entwickler die Source-Engine wesentlich unattraktiver zu sein scheint als UE4.

Kann ja sein, dass Vulkan nächtes Jahr schon den Durchbruch feiert. Das kann man aber jetzt noch gar nicht absehen.

Auf die Zukunft "effizienz" gesehen machen 2 Lower Level APIs keinen Sinn vor allem wenn eine davon Platformübergreifend ist das wird dir jeder Lean Rechner bei den Publishern vorrechnen ;)

Auch was support und co angeht ist 1 Kern immer besser als x Paths zu pflegen debugen muss man so oder so in allen und da geht schon unter anderem genug Zeit drauf ;)

Bei Vulkan muss man nur etwas Zeit in das Window Management investieren aber immernoch round about günstiger von den zu vorausichtlichen investierenden Mann Stunden ;)

Somit, weniger patches schnellere Kundenzufriedeneheit weniger Shitstorms und die quantität (erreichbare Systeme) auf PC seite bleibt trotzdem erhalten ;)

dargo
2015-09-24, 16:12:41
Wurde mehrfach im Rahmen von Direct X12 und Fable Legends betont. Zum Beispiel in diesem Video (bzw. dem Kommentar darunter) von Nvidia India
http://youtu.be/hZwGzt6tZnY

Es ist nicht bestätigt, dass dieses Feature auch in der Demo zum Einsatz kommt (habe ich auch nicht explizit geschrieben ;) ), allerdings sind einige Post-Processing auffallend günstig bei AMD.
Ich frage halt deshalb weil die Skalierung von Fiji gegenüber Grenada/Hawaii sehr schwach ausfällt. Mit AC hätte ich da deutlich mehr erwartet.

AnandTech hat auch Benchs:
http://www.anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis

Nicht schlecht. Die R9 285 24% vor der GTX960. Eine R9 380 sollte knapp über 30% mehr fps liefern. Was ich aber richtig lustig finde ist vor allem die CPU-Skalierung mit dem simulierten i3 @720p. So schnell kann sich das Blatt wenden @Treiberoverhead zwischen rot und grün. ;)

aufkrawall
2015-09-24, 16:26:27
Nicht schlecht. Die R9 285 24% vor der GTX960. Was ich aber richtig lustig finde ist vor allem die CPU-Skalierung mit dem simulierten i3 @720p. So schnell kann sich das Blatt wenden @Treiberoverhead zwischen rot und grün. ;)
Bei AMD ist da auch noch Luft nach oben, der i3 mit Fiji ist in 1080p schneller als bessere CPUs.

Der "CPU-AC"-Treiber von NV dürfte bald kommen. Das wird entweder spannend, lustig oder traurig.

dargo
2015-09-24, 16:36:51
Bei AMD ist da auch noch Luft nach oben, der i3 mit Fiji ist in 1080p schneller als bessere CPUs.

Das ist eh ziemlich shrug. :D

Wenn ich mir aber die Unterschiede bei NV so anschaue ist die CPU-Last mickrig. Zumindest im Benchmark selbst. Ob der für die CPU-Last im tatsächlichen Spiel repräsentativ ist muss sich noch zeigen.


Der "CPU-AC"-Treiber von NV dürfte bald kommen. Das wird entweder spannend, lustig oder traurig.
Das dürfte aber eigentlich nur Auswirkungen im GPU-Limit haben.

Achill
2015-09-24, 16:40:08
Hallo, das zweite Spiel / Benchmark mit DX12 Unterstützung ist raus und es gibt die ersten Werte zu bestaunen. Gibt es aber noch nicht zum Download für die normalen Leutz... trotzdem ganz interessant zu lesen.

Seiten zu Fable Legends:
- PCGH (http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/)
- AnandTech (http://anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis)
- PC Perspective (http://www.pcper.com/reviews/Graphics-Cards/Fable-Legends-Benchmark-DX12-Performance-Testing-Continues)
- ExtremeTech (https://www.extremetech.com/gaming/214834-fable-legends-amd-and-nvidia-go-head-to-head-in-latest-directx-12-benchmark)

Nicht zu Empfehlen (imho):
- heise (http://www.heise.de/newsticker/meldung/DirectX-12-Benchmark-Die-volle-Pracht-von-Fable-Legends-2824314.html)

Edit: Gerade gesehen das wir schon im DirectX 12 offiziell von MS bestätigt (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=551545&page=42) Thread diskutieren ... @Mod pls close / move, thx.

[dzp]Viper
2015-09-24, 16:56:59
Interessant. Im Test von anandtech ist unter 1920x1080 der i3 mit einer FuryX schneller als ein i7 mit einer FuryX :ugly:

75fps vs 78fps

dildo4u
2015-09-24, 17:03:48
Die Aufschlüsselung ist interessant die Geforce sind massiv schneller bei der Dynamic Global illumination.

http://abload.de/img/all-4k-render5msng.png


Bringt da die Optimierung für VXGI was oder ist das ne andere Technik?

Achill
2015-09-24, 17:07:05
Es sieht so aus als ob der Treiber von AMD mit HT beim i7 Probleme hat (http://anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis/3). Hatte ich selbst schon bei AoS und DX12 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10749170#post10749170) festgestellt. Ich denke da geht noch was bzw. es sollte nicht langsamer sein.

=> Heißt für mich, dass die Werte auf den Seiten wo mit i7 (4C/6C/8C) + HT aktiv getestet wird, der AMD Treiber wegen dem HT-Effekt im GPU-Limit noch potential hat.

dildo4u
2015-09-24, 17:10:05
Fury und 390X unterschieden sich kaum laut den Frametime Messungen.

http://techreport.com/r.x/fable-legends-dx12/fable-99th.gif

Vielleicht belegt das Game zu viel Vram in 4k?

Achill
2015-09-24, 17:13:50
Die Aufschlüsselung ist interessant die Geforce sind massiv schneller bei der Dynamic Global illumination.

[...]

Bringt da die Optimierung für VXGI was oder ist das ne andere Technik?

Habe ich auch gesehen, konnte aber kein Hinweis in einen Review finden, ob GameWorks bei Fable Legends genutzt wird oder nicht. Die UE4 ist ja von MS für DX12 recht gut angepasst worden und GW ist glaube auch nicht zwingend aktiv bei UE4 - die Integration jedoch vorbereitet ...

Die Frage ist also, wofür / in wie fern sich MS für GW / Teile davon entschieden hat. Muss auch nicht nur VXGI sondern Temp.AA könnte auch aus GW kommen.

dildo4u
2015-09-24, 17:19:50
VXGI wird's nich sein das wäre viel zu langsam für die Xbox One.Lionhead hat das GI selber entwickelt.

http://www.lionhead.com/blog/2014/april/17/dynamic-global-illumination-in-fable-legends/

aufkrawall
2015-09-24, 17:22:42
Bei Cryengine SVOTI ist Maxwell auch massiv schneller als GCN, was nichts mit Gameworks zu tun hat.

dildo4u
2015-09-24, 17:29:10
Das ist auch Merkwürdig,die 980 und 980 TI sind bei GI massiv besser als die Midrange Maxwells.Die 960 ist dort kaum besser als die 380.


http://www.pcper.com/files/imagecache/article_max_width/review/2015-09-23/fable-4k-timings.png

aufkrawall
2015-09-24, 17:31:40
So extrem merkwürdig scheint mir das nicht, bei Compute-Benchmarks kommt so etwas auch vor.

Achill
2015-09-24, 17:54:13
Bei Cryengine SVOTI ist Maxwell auch massiv schneller als GCN, was nichts mit Gameworks zu tun hat.

Hab ich auch gar nicht gesagt ... sondern, dass ich keine Info zu GI oder etwas anders aus GW in Verbindung mit Fable gefunden habe. :ubeer:

blaidd
2015-09-24, 17:58:26
Abgesehen von den UE4-typischen Physx.dlls ist da kein Gameworks drin (jedenfalls nicht als externe DLL).

Affinator
2015-09-24, 19:05:32
Hat denn auch nur einer von Euch den Text bei Anandtech gelesen?

AMD hat einen neuen Treiber für die Fury zur Verfügung gestellt, der aber nicht mehr für die Benchmarks verwendet wurde. Die Ergebnisse der Fury würde ich daher vollständig ignorieren.

dargo
2015-09-24, 19:09:50
Hat denn auch nur einer von Euch den Text bei Anandtech gelesen?

Nö, da englisch. ;) Aber danke für den Hinweis. :)


The Test

The software provided to us is a prerelease version of Fable Legends, with early drivers, so ultimately the performance at this point is most likely not representative of the game at launch and should improve before release. What we will see here is more of a broad picture painting how different GPUs will scale when DX12 features are thrown into the mix. In fact, AMD sent us a note that there is a new driver available specifically for this benchmark which should improve the scores on the Fury X, although it arrived too late for this pre-release look at Fable Legends (Ryan did the testing but is covering Samsung’s 950 Pro launch in Korea at this time). It can underscore just how early in the game and driver development cycle DirectX 12 is for all players. But as with most important titles, we expect drivers and software updates to continue to drive performance forward as developers and engineers come to understand how the new version of DirectX works.

http://anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis

Kartenlehrling
2015-09-24, 19:17:32
The Fable Legends Benchmark at 4K


https://youtu.be/E_Cops6ta7I

Der Benchmark ist doch sowieso für den Müll, keine Explosionen oder Zauber,
keine NPC und Mobs oder wenigsten ein simulierter Kampf wär doch sinnvoll, soo ist das nix.
Und gut sieht das auch nicht aus.

blaidd
2015-09-24, 19:20:42
Hat denn auch nur einer von Euch den Text bei Anandtech gelesen?

AMD hat einen neuen Treiber für die Fury zur Verfügung gestellt, der aber nicht mehr für die Benchmarks verwendet wurde. Die Ergebnisse der Fury würde ich daher vollständig ignorieren.

Den Treiber habe ich schon verwendet (Catalyst 15.201.1151.1002B2) ;) Hat ein paar Pünktchen gebracht, aber nix weltbewegendes.

Nakai
2015-09-24, 19:21:31
https://forum.beyond3d.com/posts/1872750/

Einfach weil es eine schöne Zusammenfassung ist und das Problem bei NV womöglich auf die Schliche gekommen ist.;)

Schaffe89
2015-09-24, 20:13:07
Die Fury X, Fury und Nano, laufen irgendwo in ein Limit, die muss man wahrscheinlich erst gar nicht beachten.
Hawai sieht vs GTX 970 und GTX 980 sehr gut aus.
Ich denk da wird ich meine 8GB r9 290x noch ewig behalten, vll der beste Kauf überhaupt.
Ich wollte damals fast schon zur 3GB GTX 780 Ti mitte 2014 greifen, gut dass ichs nicht getan hab, mittlerweile ist die Karte einfach nurnoch lahm.

aufkrawall
2015-09-24, 20:17:28
Mit 1,2Ghz nicht.
Leider hat die niemand für Fable getestet. Aber wirklich nicht mal nur einen einzigen Kepler-Chip.
Smells fishy? :confused:

Nightspider
2015-09-24, 20:22:55
Was für Features bietet DX12_1 eigentlich noch außer "Conservative Rasterization" ?

Sind die Async Compute Engines bei AMD oder die DX12_1 Features bei Nvidia mehr Wert?
Sicherlich ersteres oder?

Radeonfreak
2015-09-24, 20:23:07
Was treibt eigentlich Futuremark? Schlafen die? :confused:

dargo
2015-09-24, 20:25:19
Was treibt eigentlich Futuremark? Schlafen die? :confused:
Wie meinst du das? Die waren afaik die ersten die mit dem API-Overhead-Benchmark kamen.

Radeonfreak
2015-09-24, 20:25:59
Ich meine einen richtigen neuen DX 12 Benchmark. 3dMark 16 oder so.

dargo
2015-09-24, 20:28:42
Naja... was erwartest du davon? Im Prinzip ist DX12 reine Effizienz API.

blaidd
2015-09-24, 20:45:38
Mit 1,2Ghz nicht.
Leider hat die niemand für Fable getestet. Aber wirklich nicht mal nur einen einzigen Kepler-Chip.
Smells fishy? :confused:

Doch ich ;) Ich hab die Ergebnisse aber noch nicht gepostet... Aber ich kann ja mal ein bisschen spoilern (1080p). Ist eine Gainward GTX 780 Ti Phantom.

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=53358&stc=1&d=1443120228

Locuza
2015-09-24, 20:57:16
Was für Features bietet DX12_1 eigentlich noch außer "Conservative Rasterization" ?

Sind die Async Compute Engines bei AMD oder die DX12_1 Features bei Nvidia mehr Wert?
Sicherlich ersteres oder?
Außer Conservative Rasterization Tier 1 sind noch Rasterizer Ordered Views mit dabei.

Alles großartige Features, aber welche Spiele werden was, wie umzusetzen, mit welchen Auswirkungen?
AMD hat dank den Konsolen, einen natürlichen Vorteil bei Async Compute, womit sich viele Entwickler auseinandersetzen.

Auf dem PC gibt es bisher nur Nvidia und Intel mit FL12.1 Hardware.
Und die Features sind PC exklusiv.

Da wird man abwarten müssen, ob Nvidia irgendeine GameWorks oder Treiber- Initiative mit gewissen Features plant.
VXGI von Nvidia profitiert schon einmal definitiv von Conservative Rasterization.
Nvidia hat auch viele technische Demos zu neuen AA-Methoden präsentiert.

Wenn sich selbst mit Async Compute am Ranking wenig tut, dann wäre mir als Kunde natürlich FL12.1 Hardware lieber.

Nightspider
2015-09-24, 21:00:19
Okay. Wird man wohl auch erst in 6-12 Monaten sagen können was im Nachhinein die bessere Entscheidung war.

aufkrawall
2015-09-24, 21:10:52
Doch ich ;) Ich hab die Ergebnisse aber noch nicht gepostet... Aber ich kann ja mal ein bisschen spoilern (1080p). Ist eine Gainward GTX 780 Ti Phantom.

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=53358&stc=1&d=1443120228
Thx, also minimal schneller als eine 970. So weit normal.

iuno
2015-09-24, 23:41:15
Der "CPU-AC"-Treiber von NV dürfte bald kommen. Das wird entweder spannend, lustig oder traurig.
Fürs erste bleibt es mal spannend :tongue:
https://forum.beyond3d.com/posts/1872750/
Einfach weil es eine schöne Zusammenfassung ist und das Problem bei NV womöglich auf die Schliche gekommen ist.;)


Wurde mehrfach im Rahmen von Direct X12 und Fable Legends betont. Zum Beispiel in diesem Video (bzw. dem Kommentar darunter) von Nvidia India
http://youtu.be/hZwGzt6tZnY
Also entweder sind die bei Nvidia wahnsinnig selbstbewusst, haben noch irgend einen Trumpf und halten sich einfach noch bedeckt, bis es wirklich zählt (bis Spiele da sind) und hauen dann noch irgendwas raus oder es wird wirklich ein richtiger fail.
Ich kann fast nicht glauben, wie der Typ in dem Video spricht...
What's awesome about it is we can use all the async compute capabilities from nvidia to make those jobs to be a lot more efficient.
Wenn die schon so lange so eng mit Nvidia zusammenarbeiten, wüssten sie es doch, würden deren Karten absolut versagen mit AC unter DX12. Vor allem doch würde der Typ dann ac nicht so feiern :freak:



btw. was für ein Schrott-Text ist das denn?
Die Ergebnisse sind besonders in 1080p interessant, hier fällt auf, dass die Radeon-GPUs ihre Leistung sehr gut auf die Straße bekommen. Dank Async Compute können die AMD-GPUs wohl endlich einmal wirklich ausgelastet werden - das sehen wir sonst nur in Ultra HD, wo die Radeons unter Direct X 11 verhältnismäßig stark abschneiden. Aber an der gewohnten Reihenfolge ändert sich kaum etwas
Fury X mit 64 vs 44 CUs und 1,05 vs 1 GHz 5% vor der 390X, seems legit

Und warum schafft es wieder keine der Seiten einfach mal den Stromverbrauch mit zu messen? :facepalm:

Locuza
2015-09-25, 00:14:31
Wenn die schon so lange so eng mit Nvidia zusammenarbeiten, wüssten sie es doch, würden deren Karten absolut versagen mit AC unter DX12. Vor allem doch würde der Typ dann ac nicht so feiern :freak:

Raymond sagt davor, Async Compute für Dynamic GI and physics simulation.
Bei Dynamic GI stehen die Nvidia GPUs richtig stark dar.
http://images.anandtech.com/graphs/graph9659/All-4K-render.png

Die 780Ti steht aber auch kaum schlechter dar, als eine 970 bei Dynamic GI.
Und auch der Abstand zur 770 im Performance-Feld sieht nicht auffällig aus.

Nakai
2015-09-25, 00:16:10
Ja, das mit Fury ist schon witzlos. Die Nano ist langsamer als Hawaii XT. Die R9 390X ist ein spätes Monster. Irgendwie ähnlich Tahiti. Und eine GTX 970 ist nur ~20% vor Tahiti/Tonga. Also mit Fiji ist es echt komisch. Was immer da getan wurde, es läuft nicht. ;D

Und das miese Abschneiden von Kepler erkennt man, dass sonst kaum Kepler getestet wurde.;D

Kartenlehrling
2015-09-25, 01:41:12
Ich wiederhole mich "Fabel Legend" ist doch ein DotA Verschnitt,
dieser "DX12 Unigine Valley Benchmark" ist doch vom Gameplay soweit weg wie ein MilkaSchokoEi von einem HühnerEi.

Jetzt haben wir schon 3x beschissen Demos, ich frag mich wie ihr diese Test ranziehen könnt um ein urteil abzugeben.

Tesseract
2015-09-25, 03:21:07
Sind die Async Compute Engines bei AMD oder die DX12_1 Features bei Nvidia mehr Wert?
Sicherlich ersteres oder?

tendenziell ja da async compute ein viel allgemeineres konzept ist das man an vielen stellen nutzen kann und auch dann wenn nur ein teil der hardwarebasis dazu fähig ist - auf dem rest läuft es halt etwas langsamer/inhomogener. conservative rasterization hingegen ist eine problemlösung für relativ spezielle anwendungsfälle, das wird man wohl erstmal höchstens in einzelnen, draufgeklatschten "PR-features" á la hairworks (in dem fall allerdings irgendwas mit collisionen) sehen bevor nicht ein großteil der hardwarebasis (d.h. auch die konsolen) support dafür bietet.

Troyan
2015-09-25, 09:38:53
Und das miese Abschneiden von Kepler erkennt man, dass sonst kaum Kepler getestet wurde.;D

"Mies"?
10% langsamer als eine 7970 ist doch für die GTX680 vollkommen in Ordnung:
http://images.anandtech.com/graphs/graph9659/1080pi7.png
http://www.anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis/2

dargo
2015-09-25, 09:53:19
Seit wann?

Das ist ein stinknormaler Tahiti mit 925/1375Mhz.

StefanV
2015-09-25, 10:03:30
und schau dir das ganze jetzt noch mal bei PCGH an...

Da dürft 'ne 7870 schon recht nah bei der 680 sein, die 770 is ja 'nen bisserl flotter...

fondness
2015-09-25, 10:07:43
"Mies"?
10% langsamer als eine 7970 ist doch für die GTX680 vollkommen in Ordnung:
http://images.anandtech.com/graphs/graph9659/1080pi7.png
http://www.anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis/2

Die GTX680 wurde teurer verkauft als die 7970 Ghz Edition. Das ist ein Tahiti mit nur 925/1375 wie schon von Dargo erwähnt. Da gibt es nichts zu beschönigen, die NV-Karten verlieren wieder mal tendenziell Leistung mit der Lebenszeit.

Ganz davon abgesehen, dass auch bei diesem DX12-Bench die AMD-Karte mit Ausnahme von Fiji sehr gut liegen. Die 390X liegt keine 10% hinter der TITAN X.

dargo
2015-09-25, 10:17:06
Mit der Leistungseinschätzung ist mir das bei DX12 allerdings noch zu voreilig. Keine Frage... unter Fiji laufen die AMDs sehr gut. Fiji skaliert dafür aber wie schon gesagt zu schwach, da muss noch wesentlich mehr kommen. Mal weitere Titel (vorallem Vollversionen) und Treiber beider IHV-Lager abwarten. Ich denke da ist noch einiges an Potenzial für DX12 drin.


Ganz davon abgesehen, dass auch bei diesem DX12-Bench die AMD-Karte mit Ausnahme von Fiji sehr gut liegen. Die 390X liegt keine 10% hinter der TITAN X.
Das ist natürlich besonders peinlich wenn es so bleibt. Und die Ausrede mit 12GB gibts hier auch nicht mehr. Mit 8GB ist Grenada verdammt gut bedient.

Kartenlehrling
2015-09-25, 10:27:26
anandtech.com
Die 50% Leistungsunterschied bei einem 1080p zwischen einer Gtx960 und gtx970 stört keinem?

gnomi
2015-09-25, 10:33:31
Neue Spiele mit allen Details werden doch eh auf neuen Grafikkarten gespielt.
Und bezüglich DX 12 werden die Karten aktuell gerade neu gemischt. (spielt also eher für die nächsten Karten langsam eine Rolle)
Für die älteren Karten sollte man eigentlich in gemäßigteren Details extra testen.
Eine 680 hat ja auch schon 3 1/2 Jahre auf dem Buckel. Selbst wenn die Konkurrenz ein paar Sachen dann löblicherweise etwas beschleunigt ausführen kann, es macht oft in der Praxis wenig aus.
Alle Nutzer, die sich dafür interessieren, besitzen schon was Neues. Dem Rest ist es egal. (so lange die 10% nicht breitgetreten werden)

dargo
2015-09-25, 10:37:56
Neue Spiele mit allen Details werden doch eh auf neuen Grafikkarten gespielt.

Du kannst ja mal ne Umfrage starten wie oft die Masse eine Grafikkarte wechselt. ;)

Kartenlehrling
2015-09-25, 10:40:33
@Gromi du weiss aber schon was das für ein Spiel werden soll?
Die werden normal in OnlineCafes und auf Hausfrauenrechner gespielt.

Schnoesel
2015-09-25, 10:43:24
PCGH hat soeben weitere Karten in den Graphen eingepflegt:

http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/

z.B. TI Phantom gleich auf mit GTX 970 (und die Phantom taktet imo auch schon ordentlich). Früher wäre diese Karte gut vor der R9 290X gewesen. Jetzt liegt die Non X 10% in Front. Bis auf Fiji schneiden die AMDs eigntlich alle Recht gut gegenüber der direkten Konkurrenz ab in diesem Bench. Allgemeine Aussagen sind imo immer noch nicht zu treffen.

gnomi
2015-09-25, 10:53:58
Ich sprach von allen Details.
Die meisten stellen weder im Treiber, noch in den Optionen jemals groß was um.
Wenn die alte 680 bereits 40 fps in der Beta hat, läuft das Spiel erst recht mit dem passenden Preset ohne den ein oder anderen anspruchsvollen Effekt in der Vollversion in 1080P also ganz hervorragend.
Möglich, dass die 7970 etwas schneller ist. (kann aber bei reduzierter GPU Last und ohne DX 12 wieder schnell anders sein)
Aber das interessiert doch eher bei Neuanschaffung. Ob sich darüber jetzt jeder 7970 Besitzer freut und 680 Besitzer ärgert? Die meisten sehen das praktischer und unverbissen.

][immy
2015-09-25, 11:12:07
Wegen den Fury werten:
ist Async compute nicht darauf angewiesen das die Register etc auf dem Chip schnell befüllt werden (also alte werte im Speicher gesichert und für die neue Aufgabe befüllt um das anschließend wieder rückgängig zu machen)?
Kann hier der HBM Speicher nicht im Endeffekt zum Flaschenhals werden, aufgrund seiner niedrigen Taktfrequenz? Die nähe zum Chip dürfte bei den niedrigen Frequenzen (500Mhz) ja grad mal dafür sorgen, das gegenüber einer GDDR5 Speicherbestückung die Latenzen wieder ausgeglichen sind.

Kann natürlich auch einfach sein, das Fury hier auf sein Powerlimit trifft und den Takt daher senkt. Immerhin sollte der Chip stärker ausgelastet sein. Verbrauchsmessungen könnten das ganz schnell klären.

Schnoesel
2015-09-25, 11:24:14
Kann natürlich auch einfach sein, das Fury hier auf sein Powerlimit trifft und den Takt daher senkt.

Kann ich mir nicht vorstellen. Meine Fury X läuft auf 1050 MHZ durch ohne PL Erhöhung egal in welchem Spiel, das war z.B. bei meiner R9 290X Tri -X nicht der Fall. Dort musste ich das PL leicht erhöhen, damit der Takt immer gehalten wird.

Gipsel
2015-09-25, 11:58:31
[immy;10791499']Wegen den Fury werten:
ist Async compute nicht darauf angewiesen das die Register etc auf dem Chip schnell befüllt werden (also alte werte im Speicher gesichert und für die neue Aufgabe befüllt um das anschließend wieder rückgängig zu machen)?In einem Wort: Nein.

dargo
2015-09-25, 12:01:11
[immy;10791499']
Kann natürlich auch einfach sein, das Fury hier auf sein Powerlimit trifft und den Takt daher senkt.
Wieso gerade Fury und nicht bsw. Grenada? Ergibt imo keinen Sinn.

dildo4u
2015-09-25, 12:21:53
Hier ist der Nvidia Treiber ein bissel zu effektiv daher die schlechten Werte im CPU Limit,der Treiber hat die CPU nicht aus dem Schlaf geholt.

https://www.extremetech.com/gaming/214834-fable-legends-amd-and-nvidia-go-head-to-head-in-latest-directx-12-benchmark

Schätze mal Nvdia hat weierhin Vorteile was CPU Overhead angeht selbst in DX12.

Botcruscher
2015-09-25, 13:09:54
Wie kommst du auf die Erklärung? Die Ursache für den Retest ist doch unbekannt. Das Zeug ist im besten Fall beta und noch immer verbugt.

Unter 720 low könnte auch einfach das Frontend der Fury limitieren.

][immy
2015-09-25, 13:38:35
Wieso gerade Fury und nicht bsw. Grenada? Ergibt imo keinen Sinn.
fury hat mehr CUs die dann vielleicht mal wirklich alle aktiv sind. Das Power Limit konnte ja vorher schon mit DX11 Sachen erreicht werden. Mit DX12 könnte einfach die Auslastung verstärkt werden, wodurch man dann wiederum schneller als die alten an das Limit kommt.
Natürlich sollte gleichzeitig der Speicher um einiges Sparsamer sein, aber es sind ja nicht nur ein paar CUs die dazu gekommen sind.

aufkrawall
2015-09-25, 13:41:10
Fury (X) hat eine TDP irgendwo bei 360W, die GPUs laufen in Spielen komplett ungedrosselt.
Edit: Es sind sogar 450W.

blaidd
2015-09-25, 14:06:01
Ich glaube, ich habe die Fiji-Schwäche gefunden... :) ich meld mich in ein paar Minuten nochmal.

M4xw0lf
2015-09-25, 14:24:30
... sprach er, und ward nie mehr gesehen :freak:

dildo4u
2015-09-25, 14:41:36
Nicht nur Fiji scheint Probleme zu haben,sondern allgemein GCN1.2 bei PCGH ist die 380 nur so schnell wie die 280 normalerweise ist die 380 schneller.

aufkrawall
2015-09-25, 14:43:36
Bei einzelnen Spielen war die 285 aber schon immer nur so schnell wie die 280.
Halt logisch, wenn ein Spiel mit der Rechenleistung skaliert. Das kann bei Fiji aber nicht der Fall sein.

M4xw0lf
2015-09-25, 14:47:21
Nicht nur Fiji scheint Probleme zu haben,sondern allgemein GCN1.2 bei PCGH ist die 380 nur so schnell wie die 280 normalerweise ist die 380 schneller.
Bei einzelnen Spielen war die 285 aber schon immer nur so schnell wie die 280.
Halt logisch, wenn ein Spiel mit der Rechenleistung skaliert.
Eigentlich ist es sogar umgekehrt - bis auf einzelne Spiele ist die 285 maximal gleichauf mit der 280. Die Ausnahmen sind die, wo Tonga aus der gleichen Rohleistung mehr FPS rausholt.

dildo4u
2015-09-25, 15:09:03
Scheint aufs Game anzukommen die Shaderlastigen Games scheinen deutlich besser zu laufen.Die 380 die PCGH bei Fable getestet hat ist ja auch eine OC Version.

Crysis 3,BF4,Metro LL.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35903-drei-modelle-der-radeon-r9-380-im-test.html?start=14

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35903-drei-modelle-der-radeon-r9-380-im-test.html?start=10

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35903-drei-modelle-der-radeon-r9-380-im-test.html?start=12

blaidd
2015-09-25, 15:11:13
... sprach er, und ward nie mehr gesehen :freak:

...weil von AMD erschossen, oder was? :freak:

So, ihr könnt nochmal schauen, ich kann auch nur ein Stück weit messen, der Rest ist gemutmaßt. Erscheint mir aber logisch.

http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-
Benchmark-1172196/
(http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/)

Mr. Lolman
2015-09-25, 15:44:55
...weil von AMD erschossen, oder was? :freak:

So, ihr könnt nochmal schauen, ich kann auch nur ein Stück weit messen, der Rest ist gemutmaßt. Erscheint mir aber logisch.

http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-
Benchmark-1172196/
(http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/)

- die CPU-Last düfte mit diesen Settings daher wesentlich niedriger liegen, als dies bei den anderen Messungen der Fall ist. Hier könnte sich auch ein Grund für das verhältnismäßig schlechte Abschneiden der Fury X verbergen: Mit der Fiji-GPU werden die Bildraten früher von der CPU begrenzt.
Man könnte andersrum auch behaupten, dass AMD nicht so CPU-lastig ist. Auf einem i3 sind Fury-X und 980TI gleich auf:


When dealing with the i5 and i7 at 1920x1080 ultra settings, the GTX 980 Ti still has that single digit percentage lead, but at Core i3 levels of CPU power the difference is next to zero, suggesting we are CPU limited even though the frame difference from i3 to i5 is minimal.

http://www.anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis/2




BTW: Hier gibts bei AMD generell bessere Frametimes: http://www.pcper.com/reviews/Graphics-Cards/Fable-Legends-Benchmark-DX12-Performance-Testing-Continues/Results-4K-Ultra

BTW2: AMD hat bei der GI-Performance noch Optimierungsbedarf: http://www.anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis/3

Die Qualität des GI ist 1A und ich kann mir denken, dass ähnliche Routinen künftig auch in anderen Engines verwendet werden (eine 4x so lange Rendertime wie NV macht da keinen schlanken Fuß): http://www.lionhead.com/blog/2014/april/17/dynamic-global-illumination-in-fable-legends/
http://www.lionhead.com/blog/2014/april/17/dynamic-global-illumination-in-fable-legends/

aufkrawall
2015-09-25, 15:47:29
So, ihr könnt nochmal schauen, ich kann auch nur ein Stück weit messen, der Rest ist gemutmaßt. Erscheint mir aber logisch.

http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-
Benchmark-1172196/
(http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/)
lool, sieht man da Crunchers tolle 1080p "Optimierung" für die 970? ;D

-/\-CruNcher-/\-
2015-09-25, 15:58:43
Man könnte andersrum auch behaupten, dass AMD nicht so CPU-lastig ist. Auf einem i3 sind Fury-X und 980TI gleich auf:


http://www.anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis/2




BTW: Hier gibts bei AMD generell bessere Frametimes: http://www.pcper.com/reviews/Graphics-Cards/Fable-Legends-Benchmark-DX12-Performance-Testing-Continues/Results-4K-Ultra

BTW2: AMD hat bei der GI-Performance noch Optimierungsbedarf: http://www.anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis/3

Die Qualität des GI ist 1A und ich kann mir denken, dass ähnliche Routinen künftig auch in anderen Engines verwendet werden (eine 4x so lange Rendertime wie NV macht da keinen schlanken Fuß): http://www.lionhead.com/blog/2014/april/17/dynamic-global-illumination-in-fable-legends/
http://www.lionhead.com/blog/2014/april/17/dynamic-global-illumination-in-fable-legends/

1A nur weil du es hier in der Demo begrenzt in Aktion siehst sicher es ist schnell aber 1A lange nicht ;)

Das GI ist sehr vergleichbar mit Crytek ihrem (alten) also neu ist da nix wirklich genauso ein LPV GI

Das ist noch nicht das optimum @ aufkrawall und schon jetzt schlägt die 970 sich perfekt was die overall Produkt Balance angeht, der code ist sehr AMD lastig Nvidias Engineers werden hier noch was rausholen abwarten :)

Wir sind hier bei einem Unterschied von AVG 7 Frames zur 390X und das ist schon ziemlich optimiert ;)

UNd vergess nicht ich bewerte alles da gehört nicht nur die Games Performance dazu sondern das gesamte featureset ;)

Und so gesehen ist die gesamt Balance immernoch auf seiten Nvidias die 390X ist einfach ein Rebrand und es fehlt auch dort verdammt viel so gesehen gleicht sich das beides aus wenn du es so sehen willst nur einige features kann man eben nicht so einfach ersetzen bzw sie werden nicht einfach langsamer sie fehlen bei den rebrands eben komplett ;)

Da ist ein Performance Verlust selbst wie wir ihn momentan hier sehen ein Witz wenn man es auf den Die Space und das gesammte featureset rechnet ist Nvidia immernoch effizienter.

dargo
2015-09-25, 16:04:41
lool, sieht man da Crunchers tolle 1080p "Optimierung" für die 970? ;D
Nur mal langsam. Ich halte die ganze Geschichte noch für ziemlich beta. In 4k sind die Frametimes wieder bei der 970 sauber. Was völlig unlogisch ist. Ein ähnliches Verhalten zeigt die Fury X zwischen 1080p und 4k. Auch wenn nicht so gravierend wie bei der 970. Aber es ist nicht zu übersehen, dass die Frametimes der Fury X ebenfalls bei 4k besser sind. Als weiteres würde mich mal interessieren ob die Frametimemessungen auch gut reproduzierbar sind?

fondness
2015-09-25, 16:07:19
Es ist nicht zu übersehen, dass Frametime-Messungen sehr häufig nicht reproduzierbar sind und mit sehr viel Vorsicht zu genießen sind.

aufkrawall
2015-09-25, 16:09:37
Es ist nicht zu übersehen, dass Frametime-Messungen sehr häufig nicht reproduzierbar sind und mit sehr viel Vorsicht zu genießen sind.
Nicht reproduzierbar zu was? Zu verschiedenen Systemen oder zu verschiedenen Runs auf dem gleichen System?
Das ist ein himmelweiter Unterschied.

-/\-CruNcher-/\-
2015-09-25, 16:35:37
Es ist aber nicht ungewöhnlich das die Frametimes sich stabiliesieren bei 4k in Richtung 33.3 ms während sie bei 1080p 16.6 ms mehr schwanken ;)

Gimmick
2015-09-25, 16:35:57
Nicht reproduzierbar zu was? Zu verschiedenen Systemen oder zu verschiedenen Runs auf dem gleichen System?
Das ist ein himmelweiter Unterschied.

Sowohl als auch ^^.
An eine konkrete Erwähnung des Problems kann ich mich aber nur im Zusammenhang mit Witcher 3 erinnern.

Meiner bescheidenen Meinung nach müsste man solche Messungen einfach immer machen wenn man das Spiel laufen lässt. Also den großen Statistikhammer auspacken und alles damit erschlagen :D

Man bräuchte dann natürlich ein Programm mit dem man die Daten bequem auswerten kann.

Ich weiß, dass das unrealistisch ist, aber bei hoher Varianz hilft halt wenig.

The_Invisible
2015-09-25, 16:43:26
Nur mal langsam. Ich halte die ganze Geschichte noch für ziemlich beta. In 4k sind die Frametimes wieder bei der 970 sauber. Was völlig unlogisch ist. Ein ähnliches Verhalten zeigt die Fury X zwischen 1080p und 4k. Auch wenn nicht so gravierend wie bei der 970. Aber es ist nicht zu übersehen, dass die Frametimes der Fury X ebenfalls bei 4k besser sind. Als weiteres würde mich mal interessieren ob die Frametimemessungen auch gut reproduzierbar sind?

Diese Probleme gibts halt immer wieder, ich traue außer FCAT Aufzeichnungen eh nix mehr. Außer ein paar Leute die immer darauf warten das mal ein balken ausschlägt und ihren Senf abgeben können ohne das Gesamtbild zu sehen (in 1080p ausschläge und in 4k sauber, ja genau)

Achill
2015-09-25, 16:51:26
[...]

Das ist noch nicht das optimum @ aufkrawall und schon jetzt schlägt die 970 sich perfekt was die overall Produkt Balance angeht, der code ist sehr AMD lastig Nvidias Engineers werden hier noch was rausholen abwarten :)

[...]



Stimmt, es ist ja nicht so das am NVIDIA Editor's Day 2014 (http://www.tweaktown.com/news/40235/nvidia-shows-off-fable-legends-running-in-directx-12/index.html) der aktuelle Status von Fable Legends gezeigt wurde, inkl. Zusammenarbeit von MS, NV, UE und Lionhead ... die haben sich danach sofort verkracht und sind wieder ihre eigenen Wege gegangen. :rolleyes:

dildo4u
2015-09-25, 18:43:22
PCGH bestätigt der NV Treiber erzeugt wieder deutlich weniger CPU Overhead.Der Bench zeigt das natürlich in hoher Auflösung überhaupt nicht,da er keine CPU Last erzeugt mal sehen wie das Game läuft.


http://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=127928

Das wär der Hammer wenn ich dank NV skylake weiter verschieben kann.

Schnoesel
2015-09-25, 18:50:33
1. PCGH aka Phill bestätigt gar nichts. Offenbar ist dir das Wort offenbar nicht geläufig. Sprich das ist eine Mutmaßung.
2. Beißt sich das irgendiwe mit Benches in 720p wo die CPU Last am höchsten sein müsste dort Fury aber schneller ist als eine GTX 980 ti:
http://www.anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis/2
3. Muss niemand zwingend auf Skylake aufrüsten wenn er eine CPU=I5 2500K nutzt noch nicht mal auf 1080p. Und damit hat auch Nvidia nicht so viel mit zu tun:
http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/7/#diagramm-assassins-creed-unity-intel-core-i5-2500k

PS: @ Phill wie hast du die Kernskalierung gemacht ? ich nehme an du hast CPU mit weniger Kernen und ohne HT simuliert ?! Das würde die Unterschiede bei anderen Seiten erklären. Ein mit einem I7 simulierter I3/I5 ist eben keine I3/I5.

blaidd
2015-09-25, 19:50:54
@dildo4u: Das ist leider schlecht vergleichbar, da bei den 720p-Einstellungen automatisch die niedrigsten Details aktiviert werden... die CPU-Last ist dort mit einiger Sicherheit völlig anders als bei den Messungen in 1080p oder 2160p. Aber die Messungen geben zumindest Basis für eine Vermutung, dass bei AMD früher ein CPU-Limit vorliegen könnte - mehr gibt der Bench aber nicht her.

@Schnoesel: Ja, ist mit dem 6700K simuliert - ich werde mal schauen, ob ich ein vernünftiges Mehrkern-System mit Intel i7 5960X zusammengebaut bekomme, es könnte zumindest in der näheren Zukunft interessant werden, wie die Low-Level-APIs über 4+ Kerne skalieren. Ich kann aber mal grad meinen 5820K@4,2 GHz mit der R9 290X durchjagen, das könnte ein paar interessante Vergleichswerte liefern oder ein CPU-Limit mehr oder minder bestätigen. Gib mir eine Sekunde.

EDIT: Da limitiert auf jeden Fall irgendwas, ansonsten wäre 1000/Total GPU-Score genau das Endergebnis*10. Das passt im GPU-limitierten Szenario mindestens bis auf die 2. Kommastelle.
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=53369&stc=1&d=1443204104

(Das dürft ihr selber checken, wenn ihr wollt - ich hab Wochenende ;) )

EDIT2: Beispiel (R9 390X @1080p).
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=53370&stc=1&d=1443205243

Ex3cut3r
2015-09-25, 20:04:11
Weiß bis jetzt nicht, was ich von DX12 halten soll, bei älteren Karten wie Kepler machts anscheinend keinen Sinn, da sie eh schon zu betagt sind.

Ansonsten ist Maxwell ja doch nicht soooo schlecht in DX12 wie alle vor ein paar Wochen noch dachten. Gut für mich, da ich, immer noch in Richtung GTX 980 Ti schiele. :biggrin:

Naja das ganze noch weiter beobachten...

blaidd
2015-09-25, 20:09:47
Weiß bis jetzt nicht, was ich von DX12 halten soll, bei älteren Karten wie Kepler machts anscheinend keinen Sinn, da sie eh schon zu betagt sind.

Ansonsten ist Maxwell ja doch nicht soooo schlecht in DX12 wie alle vor ein paar Wochen noch dachten. Gut für mich, da ich, immer noch in Richtung GTX 980 Ti schiele. :biggrin:

Naja das ganze noch weiter beobachten...

Das ist immer noch kein richtiges Spiel, immer noch nicht final, immer noch ein isoliertes Szenario. Bis man da was Vernünftiges zu sagen kann, wird's wohl noch eine ganze Weile dauern. Aber ich versteh' dich, ich find die GTX 980 Ti auch ziemlich ansprechend ;) - Bevor ich aber keinen Plan davon hab, wie die sich in absehbarer Zukunft schlagen wird, ist eine Neuanschaffung für mich persönlich ein No-Go. Ist ja auch nicht so wild, meine R9 290X wird im Vergleich immer besser... War schon bei der HD 7970 so, AMD braucht vielleicht einfach mehr Zeit zum Reifen. Oder ist nicht so auf Kante designt, je nach Auslegung ;)

dargo
2015-09-25, 20:29:36
@Schnoesel: Ja, ist mit dem 6700K simuliert - ich werde mal schauen, ob ich ein vernünftiges Mehrkern-System mit Intel i7 5960X zusammengebaut bekomme, es könnte zumindest in der näheren Zukunft interessant werden, wie die Low-Level-APIs über 4+ Kerne skalieren. Ich kann aber mal grad meinen 5820K@4,2 GHz mit der R9 290X durchjagen, das könnte ein paar interessante Vergleichswerte liefern oder ein CPU-Limit mehr oder minder bestätigen. Gib mir eine Sekunde.

EDIT: Da limitiert auf jeden Fall irgendwas, ansonsten wäre 1000/Total GPU-Score genau das Endergebnis*10. Das passt im GPU-limitierten Szenario mindestens bis auf die 2. Kommastelle.
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=53369&stc=1&d=1443204104

(Das dürft ihr selber checken, wenn ihr wollt - ich hab Wochenende ;) )

Ich blicke hier überhaupt nicht mehr durch. :freak: Was ist das denn nun wieder für ein Wert? Welche Hardware und welches Preset? 390X @1080p kann es ja nicht sein. :confused:

Achill
2015-09-25, 20:31:42
Ich blicke hier überhaupt nicht mehr durch. :freak: Was ist das denn nun wieder für ein Wert? Welche Hardware und welches Preset? 390X @1080p kann es ja nicht sein. :confused:

Das ALT Attribute von blaidd's Bild (Name) gibt Aufschluss: FableLegends_5820K-R920X-720p.jpg => R9-290X@720p@low

Hübie
2015-09-25, 20:34:35
1. PCGH aka Phill bestätigt gar nichts. Offenbar ist dir das Wort offenbar nicht geläufig. Sprich das ist eine Mutmaßung.
2. Beißt sich das irgendiwe mit Benches in 720p wo die CPU Last am höchsten sein müsste dort Fury aber schneller ist als eine GTX 980 ti:
http://www.anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis/2
3. Muss niemand zwingend auf Skylake aufrüsten wenn er eine CPU=I5 2500K nutzt noch nicht mal auf 1080p. Und damit hat auch Nvidia nicht so viel mit zu tun:
http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/7/#diagramm-assassins-creed-unity-intel-core-i5-2500k

PS: @ Phill wie hast du die Kernskalierung gemacht ? ich nehme an du hast CPU mit weniger Kernen und ohne HT simuliert ?! Das würde die Unterschiede bei anderen Seiten erklären. Ein mit einem I7 simulierter I3/I5 ist eben keine I3/I5.

Die nVidia-Karten takten sicherlich ziemlich herunter ;) DVFS. Was in diesen Benchmarks immer untergeht ist einfach der Frameverlauf. Ein i5 ist oftmals schneller an der Grenze als ein echter i7-Sechskerner.

dargo
2015-09-25, 20:35:04
Ajo... dann sollte er vielleicht mal den Text beim zweiten Edit korrigeren bevor noch mehr Verwirrung herrscht. :tongue:

blaidd
2015-09-25, 20:41:59
Ajo... dann sollte er vielleicht mal den Text beim zweiten Edit korrigeren bevor noch mehr Verwirrung herrscht. :tongue:

Ich mag ein bisschen Verwirrung. Trennt die interlektuelle Spreu vom Weizen :P Ich kann aber grad nicht ganz nachvollziehen, was da verwirrt. Das erste Bild (das du im Spoiler gepostet hast) ist das Ergebnis des i7-5820K @ 4,2 GHz und mit der R9 290X @ 720p sowie niedrigen Einstellungen. Wenn du das ausrechnest, müsste rein von der GPU-Score ein höheres Endergebnis rauskommen.

Das zweite Bild ist mit dem i7-6700K @ 4,5 GHz. 1080p und Ultra-Details. Wenn du da die GPU-Score mit dem Endergebnis verrechnest, kommt da ziemlich genau das gleiche raus. ;)

dargo
2015-09-25, 20:44:11
Entweder ist dein Browser kaputt oder meiner. Ich sehe einmal ein großes Bild und einmal ein kleines. Beide Bilder mit dem gleichen Inhalt.

blaidd
2015-09-25, 20:47:15
Ah, ich hab's beim erstem Mal falsch verlinkt. Drück mal STRG + F5 ;)

dargo
2015-09-25, 20:54:52
Ich sehe immer noch die gleichen Werte. Einmal in groß, einmal in klein. :freak:

blaidd
2015-09-25, 21:00:38
Ich kann jetzt leider nicht mit irgendwelchen Browser-Fuckups belästigt werden, aber so sieht's bei mir aus... ;)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=53371&stc=1&d=1443207588

Ernsthaft: Ich bin raus, die Mädels warten ;) Schönes WE allerseits.

derF
2015-09-25, 21:02:17
Dann siehts wohl nur bei dir so aus, blaidd. ^^

dargo
2015-09-25, 21:07:59
@blaidd

Tjo... bei mir siehts so aus. :D
53372

blaidd
2015-09-25, 21:13:41
Dann siehts wohl nur bei dir so aus, blaidd. ^^

Okay.:confused: Dann ignoriert die vorherigen Bilder einfach.
Nochmal sauber:

i7-5820K @ 4,5 GHz mit Sapphire R9 290X Tri-X, 720p min. Detail:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=53373&stc=1&d=1443208319

i7-6700K @ 4,5 GHz mit Asus R9 390X, 1080p, Ultra-Detail
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=53374&stc=1&d=1443208319

Ist das jetzt genehm? ;)

dargo
2015-09-25, 21:15:48
Ja, jetzt ergibt das auch Sinn. ;)

Achill
2015-09-26, 12:53:01
Ja, jetzt ergibt das auch Sinn. ;)

Ich stehe immer noch aufm Schlauch ... wie kann ich aus den Werten entnehmen - warum / wo / wie / was bremst?

Ich finde, aus dem 2. Update von PCGH (http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/#a3) kann man entnehmen, dass die Fury nicht so gut mit CPU-Cores skaliert als die Titian. Die Werte bei der Skalierung durch den Takt scheinen leider verzerrt zu sein, die Endwerte entsprechen den Werten von 4C+HT Test - damit gehe ich davon aus, dass die Taktskalierung mit 4C+HT durchgeführt wurde. Das sind auch sehr interessante Werte, da hier die Kombination von vielen Kernen/HW-Threads und Takt-Skalierung gemessen wird. Für eine reine Takt-Skalierung würde ich mir aber bei einen 2C/2T Szenario wünschen.

Im 1. Update vom PCGH Artikel (http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/#a2) habe ich dann noch den Hinweis gefunden, dass es sich bei dem Fable Legends Demo/Bench um ein Timedemo handelt - ich mag Timedemo als Benchmarks bis heute nicht, da das potential für "Optimierungen" dort viel höher ist, weil man die Abfolge der Frames kennt und damit die benötigten Resourcen (Texturen, Shader, Objekts, ...) vorbereiten / vorhalten kann. Wer erinnert sich noch an die News im Mai 2003?
Tip: Cheating, Doom 3, 3DMark2003 ... Ick wees, is ne alte Klamotte.

Edit: Spelling

Kartenlehrling
2015-09-26, 14:13:34
Ich finde die Aufnahme funktion in World of Tanks genial, dann kann man seine Kämpfe als Replays aufnehmen,
diese Replays sind zwischen 1-1,5mb gross, also für heutige download lächerlich gering.
Und jeder kann sich das gameplay in "seiner" gewünschen Qualität schauen und immer wieder reproduzieren.

Das sowas immer noch nicht üblich ist traurig.

Hübie
2015-09-26, 14:29:39
Seit neuestem wäre es wünschenswert wenn die Taktrate von GPU und CPU grafisch dargestellt werden würden. Denn sonst lässt sich von hier aus kein Rückschluss machen. In sämtlichen Texten wird kein Wort darüber verloren.

aufkrawall
2015-09-26, 14:31:35
Man bekommt ja die Informationen, die sich daraus ergeben (fps und Frametimes). Einen wirklichen Mehrgewinn dazu, wie Spiel X auf Hardware Y läuft, kann ich da nicht sehen.

Leonidas
2015-09-26, 15:00:13
Ich finde die Aufnahme funktion in World of Tanks genial, dann kann man seine Kämpfe als Replays aufnehmen,
diese Replays sind zwischen 1-1,5mb gross, also für heutige download lächerlich gering.
Und jeder kann sich das gameplay in "seiner" gewünschen Qualität schauen und immer wieder reproduzieren.

Das sowas immer noch nicht üblich ist traurig.


Replays sind faktisch Timedemos.

Interessant sind offene Welten mit einer definierten Anfangssituation und einer definierten Zufallsfunktion - dann passiert zwar immer wieder dasselbe, aber alle Game-Elemente rechnen trotzdem mit. Konnte schon UT2003.

aufkrawall
2015-09-26, 15:06:04
Da Replays aber immer verschieden sind (im Vergleich zu anderen), kann der IHV hier wahrscheinlich viel schwieriger tricksen.
Wenn ein Tester seine eigenen Replays nutzt, ist das legitim.

Hübie
2015-09-26, 15:19:23
Man bekommt ja die Informationen, die sich daraus ergeben (fps und Frametimes). Einen wirklichen Mehrgewinn dazu, wie Spiel X auf Hardware Y läuft, kann ich da nicht sehen.

In CPU Tests takten moderne Karten aber gerne mal herunter und verzerren so dass dann Ergebnis nicht mehr eindeutig ist. Daher könnte man diese Information zusätzlich verwerten. Interessiert mich besonders bei den CPU Tests zu Fable wo dann plötzlich eine FuryX schneller als die 980 Ti ist, wo man kein Wort über die Ursache verliert.
Ist von mir jetzt nur vermutet, da wie gesagt keiner was dazu sagt.

aufkrawall
2015-09-26, 16:34:53
Die sollten schnell genug wieder herauftakten, dass das keinen nennenswerten Einfluss auf die fps hat.

Achill
2015-09-26, 16:35:54
In CPU Tests takten moderne Karten aber gerne mal herunter und verzerren so dass dann Ergebnis nicht mehr eindeutig ist. Daher könnte man diese Information zusätzlich verwerten.

Meinst du den Boost- oder den Core-Takt? Bei Boost könnte ich mir vorstellen, dass bei einer anderen Auflösung + Low-Settings ein anderes Verhältnis bei der Auslastung von verschiedenen GPU-Teilen eintreten kann und dann ggf. mehr Leistung genommen wird und dies in Power-Limit läuft / zu mehr Wärme führt. Die Fury Nano könnte so ein Fall sein, hier müsste ja das kleiner Power-Limit greifen.



Interessiert mich besonders bei den CPU Tests zu Fable wo dann plötzlich eine FuryX schneller als die 980 Ti ist, wo man kein Wort über die Ursache verliert.
Ist von mir jetzt nur vermutet, da wie gesagt keiner was dazu sagt.

Auf welchen Seiten liegt die FuryX vor der 980TI? Die einzige war m.W. extremetech.com, dort lief aber etwas mit dem CPU+Mainboard nicht rund - wurde nachgetestet und dann war das Leistungsbild wie auf den anderen Seiten.

dargo
2015-09-26, 16:55:25
Auf welchen Seiten liegt die FuryX vor der 980TI? Die einzige war m.W. extremetech.com, dort lief aber etwas mit dem CPU+Mainboard nicht rund - wurde nachgetestet und dann war das Leistungsbild wie auf den anderen Seiten.
http://anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis/3

Hübie
2015-09-26, 17:08:36
Danke, dargo :)

@aufkrawall: Ehrlich gesagt weiß ich das eben nicht genau weil diesbezüglich auch keine stichhaltigen Untersuchungen gab. Ich glaube Igor ging mal hinterher was eine CPU mehr / weniger verbraucht wenn entsprechend das Limit von GPU zu CPU verschoben wird. Das war aber noch mit Boost "light" auf Kepler der weitaus weniger granular differenziert.

Achill
2015-09-26, 17:16:04
http://anandtech.com/show/9659/fable-legends-directx-12-benchmark-analysis/3

Danke, dargo :)

Thx. Mir fällt dort auf, dass dort leider nicht gesagt wird um welche 980TI es sich handelt (ggf. ja Referenz). Es gibt ja die "low-clocked" und die "high-clocked" Varianten mit den entsprechenden Preisen... PCGH hat z.B. nicht die schlechteste TI in das System gepackt - ggf. kommen ja daher die Unterschiede? Bei den Clock-Ranges geht es ja auch locker um +10% bei Base- und Boost-Clock hoch - das ändert dann schnell das Bild wenn eine Karte nur 3-5% hinter einer anderen liegt.

Hübie
2015-09-26, 17:22:20
Ist eine Referenz. Da die aber auch von 1150 MHz bis 1240 MHz alles dabei haben ist es ebenfalls nicht sehr präzise. Meine Beobachtungen der letzten Wochen ist dass die 980 Ti bis 1400 MHz relativ gut skaliert und man sich die Effizienz nicht versaut. Darüber is es stark davon abhängig welche ASIC man hat und danach die Spannung gewählt wird.

Bei mir sind 1437 MHz mit 1178 mV noch machbar. Das ist akzeptabel.

Botcruscher
2015-09-26, 21:02:20
Wie hoch ist eigentlich der Speicherverbrauch? Nicht das die Fury einfach an den 4GB hängt.

dargo
2015-09-26, 21:05:03
In 720p @low Details sollen die 4GB gesprengt werden? :uconf3:

Hübie
2015-09-26, 21:06:24
Bäm X-D

Botcruscher
2015-09-26, 22:04:51
In 720p @low Details sollen die 4GB gesprengt werden? :uconf3:
Wer redet von low? Die Fury skaliert auch unter 4k schlecht. Gerade im Zusammen mit dem "Bug".

dargo
2015-09-26, 22:39:17
Wer redet von low?
Die Beteiligten vor dir.

Botcruscher
2015-09-26, 23:02:18
Also keine Speichertests. Gab es wieder irgendwelche Testrichtlinien oder warum sehen die mir bekannten 4 Test so gleich aus?

tm0975
2015-09-27, 08:55:08
Auf welchen Seiten liegt die FuryX vor der 980TI? Die einzige war m.W. extremetech.com, dort lief aber etwas mit dem CPU+Mainboard nicht rund - wurde nachgetestet und dann war das Leistungsbild wie auf den anderen Seiten.

anandtech: in niedrigen Details und Auflösungen (für die 120 und 144 hz Fraktion) liegt fury meilenweit vor der ti, bei nem i3 ein wenig davor. rest war die ti mit kleinem vorsprung.

Hübie
2015-09-27, 09:33:46
Ich sagte bereits dass hier durchaus der Takt eine Rolle spielen kann. Henne Ei Problem. GPU bekommt wenig Daten und geht entsprechend mit der Leistung herunter um die Effizienz zu verbessern. Da wir die benches nicht selber bekommen sind wir auf die Arbeit der Journalisten angewiesen. Und das die das nicht machen wissen wir ja.

dargo
2015-09-27, 09:49:05
Naja... die AMDs gehen mit dem Takt auch runter wenn wenig GPU-Last vorhanden ist. Gilt ja nicht nur für NV. Du hast aber dennoch Recht. Ohne zu wissen wie stark die jeweiligen GPUs mit dem Takt runter gehen (danke an den neumodischen Boost :P) ist es mittlerweile schwer aus den Benchmarks was abzuleiten.

Nightspider
2015-09-28, 14:55:41
Ich suche Links.

Es gab doch mal von Entwicklern Aussagen dazu wie lange es dauert Mantle/DX12 einzubauen bzw. wie kompliziert das ist.

Hat da noch jmd. Links parat bzw. gab es dazu kürzlich ähnliche neue Aussagen?

Kartenlehrling
2015-09-28, 15:21:53
Zwei Programierer 8-10 Wochen für ein AAA+ Titel.

Kartenlehrling
2015-09-28, 16:06:01
hier wird behaupte sogar in 6 Wochen mit 2 programierer ... King of Wushu ist CryEngine.

https://www.youtube.com/watch?t=20&v=--UD4iHJP-k
King of Wushu DirectX12 Trailer Full Version

-/\-CruNcher-/\-
2015-09-28, 16:49:50
2 Chinesische Praktikanten ein bischen Wasser und Brot = 6 Wochen Done ;)

Wasser und Brot aber nicht vergessen sonst passiert das selbe wie in so manch einem Chinesischen Internet Cafe (Bei einem Monster Playout von King of Wushu *g*) und man brauch 2 neue Praktikanten ist aber auch kein großes Problem stehen schon vor der Tür ;)

WlSHo61nRWw

Nightspider
2015-09-28, 17:06:50
Können unsere Experten hier abschätzen wie viel länger eine "perfekte" DX12 Implementierung incl. Async Compute Features usw dauert?

Novum
2015-09-28, 17:15:33
Die Frage ergibt so keinen Sinn, es gibt viele Abstufungen. "perfekt" wird nie irgend eine Software sein.

Das Render-Backend mit DX12 zu ersetzen wie es alle im Moment machen ist jedenfalls nicht die optimale Loesung.

-/\-CruNcher-/\-
2015-09-28, 18:28:05
Naja für mich heist perfekt es gibt keinen großen Bug/Performance/Downgrade Shitstorm heutzutage nach release ;)

Jupiter
2015-09-28, 18:39:13
Wie lange dauert es bis man Windows 10-Upgrade bekommt? Ich habe es am Rechner vor etwa 3 Wochen geordert. Es wird noch immer geprüft.

Beim Laptop kam es damals nach wenigen Minuten.


hier wird behaupte sogar in 6 Wochen mit 2 programierer ... King of Wushu ist CryEngine.

https://www.youtube.com/watch?t=20&v=--UD4iHJP-k
King of Wushu DirectX12 Trailer Full Version


Ich meine mich zu erinnern das mal ein Crytek-Mitarbeiter gesagt hat das diese nicht aussagekräftig sei. Es würde weit mehr gehen. Eine Quelle habe ich nicht mehr. Vielleicht finde ich diese wieder. Ich würde aber nicht damit rechnen.

dildo4u
2015-09-28, 19:02:44
Wie lange dauert es bis man Windows 10-Upgrade bekommt? Ich habe es am Rechner vor etwa 3 Wochen geordert. Es wird noch immer geprüft.

Du musst nicht auf MS warten.

http://www.microsoft.com/de-de/software-download/windows10

Jupiter
2015-09-28, 19:49:41
@dildo4u
Alles klar und ein Dankeschön.

Das werde ich wahrscheinlich morgen machen.


EDIT:

Crysis 3 hat nun etwas mehr Bildeinbrüche als unter 8.1.
Ryse und GTA V starten erst gar nicht.

Ich lade Geforce Experience noch einmal neu herunter.

EDIT 2:

Die Spiele starten jetzt. Aber die Performance ist bei Crysis 3 definitiv schlechter. Vorher lief es sehr stabil mit 60fps. Jetzt nicht mehr. Es könnte ein V-Sync-Problem sein.

Ryse läuft bei mir so schlecht wie immer. Das hing aber mehr mit den nVidia-Treibern und den Xeon zusammen.

iuno
2015-09-29, 18:47:40
Viper hat im SC Thread etwas interessantes gepostet:
Viper;10795783']Chris Roberts spricht über DX12, Vulkan und über die Implementierung in Star Citizen:

Transcript:
http://www.gamersnexus.net/gg/2114-chris-roberts-star-citizen-on-dx12-vulkan-and-tech/Page-2

Video:
http://youtu.be/XD9_L5o4mhQ

Kartenlehrling
2015-10-03, 10:19:50
Any news on DX12 OSD support for Afterburner?

22.09.2015
Alexey Nicolaychuk aka Unwinder,
RivaTuner creator: Planned, but not in the nearest couple releases.

Das klingt aber nicht Toll.

fondness
2015-10-03, 10:28:25
Ganz interessante Untersuchung, Fable verwendet AsycCompute also kaum:
http://wccftech.com/asynchronous-compute-investigated-in-fable-legends-dx12-benchmark/

Kartenlehrling
2015-10-03, 10:41:52
Nicht Fable Legends, der Fable Legends Benchmark der in wirklichkeit mehr wie eine DX12 Version von Unigine Valley aussieht.
Nichtmal Vögel, Häschen oder Rehe sieht man im "Wald".

Wieso sie uns nicht als Benchmark ein Replay Ausschnitt von einem Fight zeigen.
https://www.youtube.com/watch?v=bYruJs2fH3Q
Fable Legends Gameplay - Villain Introduction (Closed Beta)

Schnoesel
2015-10-03, 10:58:40
Sehr interessant, genau solche Informationen braucht man um die Ergebnisse überhaupt einordnen zu können. Zu schade, dass der Bench nicht freigegeben wurde.

Troyan
2015-10-03, 11:26:24
Ganz interessante Untersuchung, Fable verwendet AsycCompute also kaum:
http://wccftech.com/asynchronous-compute-investigated-in-fable-legends-dx12-benchmark/

Der nVidia-Treiber unterstützt zur Zeit kein Asynchronous Shading unter DX12. :freak:

Da hat der Schreiberling den Beyond3d Thread wohl nicht richtig verstanden. ;D

y33H@
2015-10-03, 12:06:00
Woher haben die den Fable? Ein WTF-Artikel der nicht abgeschrieben wurde ... Fake! :ulol:

-/\-CruNcher-/\-
2015-10-03, 12:21:09
Vor allem mit GPUView testen das sieht man selten ;)

StefanV
2015-10-03, 13:52:00
Der nVidia-Treiber unterstützt zur Zeit kein Asynchronous Shading unter DX12. :freak:
ORLY?!

Nach aktuellen Informationen schauts wohl eher so aus, als ob die Hardware das nicht könne....

dargo
2015-10-03, 16:54:00
Lol... ich war mit meiner "Prognose (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10770350&postcount=1877)" vor wenigen Wochen noch zu pessimistisch. Heute liegt Windows 10 bei den Steam-Usern bereits bei 26%.
http://store.steampowered.com/hwsurvey/directx/

Somit halte ich bis Ende des Jahres 35-40% für realistisch.

sulak
2015-10-05, 18:03:22
Eine Frage zur Floating Point Genauigkeit, weil das Thema ja vor ca. 12 Jahren das letzte Mal angesprochen wurde. http://alt.3dcenter.org/artikel/2004/11-29_b.php

Was genau soll denn mit "nur" FP16 berechnet werden (mit DX12) und warum hat man mit DX9 es verbannt oder wasauchimmer damals beschlossen wurde.
Hab das nie richtig verstanden mit der Genauigkeit. Mir ist schon klar, das es mehr Rechenaufwand ist je genauer etwas sein soll, aber warum man damals den Unterschied gemacht hat und heute anscheinend WIEDER? :confused:

NV30-35 mit FP16=Schnell/Ausreichend FP32=Langsam/Sauber
R300 FP24=Schnell und Gut

Das wird sich ja nicht wiederholen, aber jede News Seite zu Pascal faselt etwas davon. Siehe aktuell PCGamesHardware: "Pascal beherrscht hier im Gegensatz zu Maxwell und Kepler FP16, FP32 und FP64, wobei FP16 für Spiele interessant sein könnte."
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-Pascal-Geruechte-Infos-GTC-2015-Taiwan-1173400/

iuno
2015-10-05, 18:24:36
FP16 bedeutet, dass deine Fließkommazahl 16 Bit breit ist. Mit 32 Bit bekommst du viel mehr Werte dargestellt als mit 16, nämlich nicht nur das doppelte sondern das 2^16-fache. Dabei ist FP16 natürlich nicht auf ganzzahlige Werte zwischen 0 und 2^16 beschränkt, da die Zahl als Vorzeichen, Mantisse und Exponent kodiert ist, aber das ist ein anderes Thema.

Damit eine Recheneinheit mit einer bestimmten "Genauigkeit" rechnen kann, muss sie dafür breit genug gebaut sein, eben damit sie die vielen Bits auch in einem Rechenvorgang verarbeiten kann. Früher war es eben noch zu teuer/unmöglich so viele so breite Recheneinheiten unterzubringen, daher hat man mit weniger Genauigkeit gerechnet, was natürlich unschön ist, wenn man eben eine feinere Abstufung zwischen den Werten haben will.

Heute ist die Situation so, dass man als Standard "einfache" Genauigkeit hat, also FP32. FP64 wird nur für sehr wenige Anwendungen gebraucht und FP16 wird eben noch dort benutzt, wo es eben ausreicht und die Leistung noch "klemmt", etwa bei embedded Devices. Pascal wird wohl weiterhin FP32 Recheneinheiten in der Hardware haben, die sich aber "aufspalten" lässt und somit bei Bedarf in einem Rechenvorgang zwei FP16 Werte bearbeiten kann. Das ist nicht trivial, sonst hätte es das schon viel früher gegeben. Man kann also als Entwickler entscheiden, wo man weniger Genauigkeit braucht und bekommt dafür quasi die doppelte Geschwindigkeit. Andersherum lassen sich auch zwei FP32 Einheiten zusammenschalten, um FP64 zu berechnen, dann eben in halbierter Geschwindigkeit, was aber immer noch viel schneller ist, als den Kram in Software zu machen.


OT entfernt.

sulak
2015-10-05, 18:40:44
THX, und mit DX12 darf man in FP16 rechnen bzw. es ist einfacher, während es "vorherige" DX-Spec nicht so einfach zuließ?
Klingt für mich nach Eiertanz, oder hat das einfach technische Gründe?

Tesseract
2015-10-05, 22:25:10
THX, und mit DX12 darf man in FP16 rechnen bzw. es ist einfacher, während es "vorherige" DX-Spec nicht so einfach zuließ?
Klingt für mich nach Eiertanz, oder hat das einfach technische Gründe?

16bit ist für vieles zu ungenau, aber da moderne architekturen viel mehr können als früher kann es unter hunderten effekten/algorithmen durchaus welche geben wo 16bit ausreicht und wenn man die architektur so geschickt baut, dass ein 32bit-rechenwerk statt einer 32bit-operation auch zwei 16bit-operationen gleichzeitig durchführen kann ist rechnen in 16bit potenziell doppelt so schnell. die früheren architekturen hatten diese 2x16-flexibilität nicht wodurch es, abgesehen von der abwärtskompatiblität, keinen grund gab irgendwas in 16bit zu berechnen weil es entweder gleich schnell oder sogar langsamer war. irgendwann ist der typ dann halt rausgeflogen.

Kartenlehrling
2015-10-08, 23:56:54
http://www.gamestar.de/spiele/ark-survival-evolved/news/ark_survival_evolved,52268,3237477.html
Ark: Survival Evolved - Performance unter DirectX-12 sogar schlechter, Patch verschoben

Irgendwie hat diese Verschiebung auf unbestimmt Zeit einen bittern Nachgeschmack, und schreit nach Verschwörungstheorien.

fondness
2015-10-10, 11:29:21
Ja, Nvidia hat es offenbar nicht eilig mit DX12:
http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/News/DirectX-12-Patch-ohne-Termin-Nvidia-unter-Verdacht-1173883/

In dem Thread geht es ziemlich ab deswegen:
http://steamcommunity.com/app/346110/discussions/0/481115363854241094/#p3

][immy
2015-10-10, 12:47:17
http://www.gamestar.de/spiele/ark-survival-evolved/news/ark_survival_evolved,52268,3237477.html
Ark: Survival Evolved - Performance unter DirectX-12 sogar schlechter, Patch verschoben

Irgendwie hat diese Verschiebung auf unbestimmt Zeit einen bittern Nachgeschmack, und schreit nach Verschwörungstheorien.
Naja, dx12 legt halt auch mehr Verantwortung in entwicklerhand. Wenn dieser die Sachen nicht besser implementiert als den dx11 pfad, kann es auch nicht besser werden ;-)

Hübie
2015-10-10, 13:12:23
Ja, Nvidia hat es offenbar nicht eilig mit DX12:
http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/Specials/Test-Benchmarks-1161186/

In dem Thread geht es ziemlich ab deswegen:
http://steamcommunity.com/app/346110/discussions/0/481115363854241094/#p1


Wieso nVidia? :| Und wieso gibt's da keine Fury(X)? :confused: PCGH schwächelt mal wieder.

Grestorn
2015-10-10, 13:14:41
Schau mal aufs Datum!

fondness
2015-10-10, 13:15:41
Falscher Link, sorry. Habe es oben korrigiert.

Hübie
2015-10-10, 13:20:36
Ah. Jetzt macht es Sinn. Aber da der letzte Satz alles besagt... :rolleyes:

-/\-CruNcher-/\-
2015-10-10, 13:35:42
Ja, Nvidia hat es offenbar nicht eilig mit DX12:
http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/News/DirectX-12-Patch-ohne-Termin-Nvidia-unter-Verdacht-1173883/

In dem Thread geht es ziemlich ab deswegen:
http://steamcommunity.com/app/346110/discussions/0/481115363854241094/#p3

Der DX 12 Part von Unreal Engine 4 ist bis jetzt noch nicht reif dafür.

Man sollte auch keine Mega wunder erwarten bei vielen frühen Engine draufsätzen eher erst mal in der Stabilität die vorteile erkennen ;)

Für Nvidia steht jetzt erstmal im Vordergrund die GameWorks effizienz mit DX 12 zu steigern daran arbeitet momentan ein ganzes batallion von Nvidia Devs und neuen technicken die danach eingeführt werden.

Nightspider
2015-10-18, 20:34:49
Ist die olle HD5870 meines Kumpels eigentlich noch DX12 fähig?
Das war damals die erste DX11 Karte.

aufkrawall
2015-10-18, 20:36:26
Nein, keine Pre-GCN Radeon.

Kartenlehrling
2015-10-18, 20:40:04
Mit deine 18.000 Posting fragst du das wirklich ?

DirectX® 12-fähige AMD Komponenten

Folgende AMD Komponenten sind DirectX® 12 fähig, vorausgesetzt es wurde Windows® 10 Technical Preview Build 10041 (oder höher) installiert und die aktuellsten Treiber von Windows Update bezogen:

AMD Radeon™ R9 Grafikkartenserie
AMD Radeon™ R7 Grafikkartenserie
AMD Radeon™ R5 240 Grafikkarten
AMD Radeon™ HD 8000 Grafikkartenserie für OEM-Systeme (HD 8570 und höher)
AMD Radeon™ HD 8000M Grafikkartenserie für Notebooks
AMD Radeon™ HD 7000 Grafikkartenserie (HD 7730 und höher)
AMD Radeon™ HD 7000M Grafikkartenserie für Notebooks (HD 7730M und höher)
AMD APUs der Serie A4/A6/A8/A10-7000 (Codename „Kaveri“)
AMD APUs der Serie A6/A8/A10 PRO-7000 (Codename „Kaveri“)
AMD APUs der Serie E1/A4/A10 Micro-6000 (Codename „Mullins“)
AMD APUs der Serie E1/E2/A4/A6/A8-6000 (Codename „Beema“)
http://www.amd.com/de-de/innovations/software-technologies/directx12

y33H@
2015-10-19, 01:46:35
Theoretisch sollte die HD 5870 ja D3D12 beherrschen, da sie D3D11 kann ... theoretisch.

aufkrawall
2015-10-19, 01:54:02
afair sind die Pre-GCN Radeons nicht mit dem WDDM 2.0 Speichermanagement kompatibel, also schon eine Hardware-Inkompatibilität.

Skysnake
2015-10-19, 10:10:26
Wohl eher eine "wir haben keinen bock den Softwarestack für VLIW auf DX12 zu portieren".

Das würde sicherlich einiges an Arbeit machen.

StefanV
2015-10-19, 16:11:56
...und Geld kosten, was man ja eh nicht wirklich hat...

=Floi=
2015-10-19, 16:41:09
die karte kam vor 6 jahren raus! selbst wenn, würde es nicht mehr viel bringen, weil die perfomance einfach unter aller kanone wäre.
die karte kann man wohl mit einer 285er GTX vergleichen...

aufkrawall
2015-10-19, 16:49:39
Die 5870 ist auf GTX 470 Niveau und die 6970 auf 480. Zumindest war das damals so. Ob die alte, fallen gelassene Architektur noch gut mit modernen Spielen zurecht kommt, sei mal dahin gestellt.

StefanV
2015-10-19, 19:43:38
Nunja, da es momentan auch bei nVidia nicht anders ausschaut, ist das momentan auch noch kein wirklicher Nachteil...

Wird auch interessant zu sehen, wie die Fermis abschneiden, so denn sie denn einen Treiber dafür bekommen...

Aber wie schon gesagt, die 5870 ist etwa 6 Jahre jung.
Die Tahitis aber auch schon 3 Jahre jung...

Novum
2015-10-19, 21:14:18
Wohl eher eine "wir haben keinen bock den Softwarestack für VLIW auf DX12 zu portieren".

Das würde sicherlich einiges an Arbeit machen.
Nein, Pre-GCN-Radeons haben keine Unterstuetzung fuer virtuellen Speicher. Das ist eine Voraussetzung fuer WDDM 2.0.

Nakai
2015-10-20, 15:34:27
http://www.vgleaks.com/orbis-gpu-compute-queues-and-pipelines

Nur mal so als Info, wie das obere Frontend bei GCN im Detail aussieht. Andere GCNs sind hier und da wohl unterschiedlich.

GCN kann in vielen Aspekten in die Breite skaliert werden, was schon ziemlich nett ist. Außerdem erkennt man, anhand der Bilder, wieso GCN teilweise erst mit AC gut auslastbar wird. Es zeigt auch auf, wieso GCN erstmal bis max 4 Shader Engines skaliert. Es zieht einen Rattenschwanz an Verbreiterungen, bis ganz nach oben, hinterher.

Novum
2015-10-20, 19:29:09
Noe. Da sind Crossbars dazwischen, es gibt keine Kopplungs zwischen Pipes und CU Anzahl. Auch erkennt man darauf nicht warum GCN nur mit async compute auslastbar ist. NVIDIA hat auch nur eine GFX-Pipeline und macht das Ding voll.