Archiv verlassen und diese Seite im Standarddesign anzeigen : Mantle - AMD Low-Level-API als Alternative zu DirectX
uweskw
2014-03-06, 02:12:36
:| Gerade die kleineren Karten profitieren doch stärker durch Mantle, weil die eher im CPU-Limit hängen.
richtig!, und mit einem 0815 Prozessor der 100-150€ Klasse erst recht. Aber hier wird, wie in fast allen Foren, volle Kanne gegen Mantle gebasht.
Würde wohl einigen lieber sein wenn AMD und die Spieleindustrie von Mantle ablässt und die überfälligen Optimiertungen vertrauensvoll MicroSoft überlässt.:freak:
Greetz
U.S.
Schaffe89
2014-03-06, 02:49:15
Wurde dein Account gehackt? So ein Beitrag wirkt wie reines trollen, wenn man bedenkt, daß du mal eher AMD freundlich gesinnt warst.
Aber abgesehen davon, wo kommt den die Information her, daß DICE Mantle los werden will?
Warte ein paar Tage ab dann kommts bestimmt hier und bei Konsorten.
Gehackt? Nein gehackt wurde nix, ich bin nur gegen Mantle ( nicht gegen und auch nicht für AMD ) und suche daher Informationen die es in ein schlechtes Licht rücken, weil ich Mantle doof finde.
AMD wird meinen Infos zufolge im Mai diesen Jahre von Samsung aufgekauft, ergo eh alles für den Poppes.
Screemer
2014-03-06, 04:46:31
Gibt es eigentlich schon 120Hz Monitore die kein TN-Panel verbaut haben?ist zwar völlig ot, aber ja ich und einige andere hier im forum haben 120hz pls monitore mit einer auflösung von 2560*1440.
warum kommst du eigentlich nur noch aus deinem bau um gegen mantle zu wettern? du hast mittlerweile 44 negative posts in diesem thread verfasst. schon sehr ungewöhnlich, dein ständiges gestänkere.
Schaffe89
2014-03-06, 05:44:58
Würde wohl einigen lieber sein wenn AMD und die Spieleindustrie von Mantle ablässt und die überfälligen Optimiertungen vertrauensvoll MicroSoft überlässt.
Besser als für AMD Werbung zu machen, wie ihr es tut.
Besser alles hypokritisch sehen.
Mantle ist ein kurzweiliger Reißer und das wars.
Ein Reißer der nix reißt und von nicht eingehaltenen Versprechungen umgeben ist.
Da lob ich mir doch GPU Physx, da bekommt man wenigstens was einem versprochen wurde.
Schniefe in a Schnepft in a SchniffControll Schnefferaunzen.
Skysnake
2014-03-06, 08:09:53
Also ich finde eine Verbesserung selbst mit absoluter High-End Hardware durchaus befriedigend.
Was will man mehr, als ~10% im bisherigen High-End Limit??? Für sowas drückt man normal richtig richtig richtig FETT! Geld ab.
Schau dir doch mal an, was die K/X CPUs mehr kosten als die nonK/X CPUs. Da biste schnell mal bei 100€+ besonders bei den X CPUs von Intel. Wenn man da dann auf einmal mit der langsameren CPU die gleichen Ergebnisse bekommt, dann ist das doch einfach geilomat. Keine Ahnung, was es daran zu meckern gibt, und gerade die Ergebnisse von CF sind ja auch extrem vielversprechend.
CF scheint sich damit zu einer echten Alternative zu SLI gemausert zu haben, und das jetzt nicht nur durch Mantle. D3D soll ja auch besser geworden sein in CF, und damit etwa auf dem stand von SLI.
Und spätestens bei mGPU rennste gegen Mantle halt gegen eine Wand, denn noch schnellere CPUs gibt es einfach nicht. Und genau das zeigt eben den Nutzen auch für ein breiteres Publikum. Die meisten haben halt eben nicht die 4,5GHz+ k CPU, sondern was kleineres. Zudem hat auch nicht jeder das Geld um sich nur das Feinste vom Feinen zu kaufen. Klar würde ich auch gern 3k€ für nen neuen Rechner ausgeben können, aber wer kann das schon? Und noch wichtiger, wer will das überhaupt wirklich, selbst wenn er könnte????
Für viele Leute ist es doch so, dass Sie nen Betrag x haben, und dafür das schnellste System haben wollen, und der Betrag x ist halt zu klein für die schnellste CPU+GPU. Oft sogar zu klein für die schnellste CPU oder GPU allein! Für die Leute ist die Entwicklung natürlich ein Segen, weil Sie je nachdem eben 0 € für ne neue CPU ausgeben müssen, weil die alte es eben mit Mantle noch tut.
Selbst mit Intel-CPUs >=4,5Ghz (wie im Test) ist die 290X auf 780Ti-Niveau, schon eine etwas langsamere CPU sollte reichen das die 290X vorbei zieht.
Jup, seh ich auch so. Hier wird ja mehr oder weniger der Worstcase für Mantle dargestellt.
Win8.1
Ultra schnelle CPU
extreme GPU Last
Also alles um ja die CPU-Limits zu unterdrücken, und dennoch siehen die Ergebnisse selbs mit sGPU ganz gut aus. Mit mGPU dann sogar ziemlich gut.
Also ich versteh da auch nicht so ganz, was es daran groß aus zu setzen gibt. :confused:
Natürlich gibt es erst 1 Spiel mit Mantle, und wenn es bei einer Randerscheinung bleibt, ist es halt doof, aber das ändert ja nichts an den Ergebnissen an sich. Man muss halt schauen, wie viel es einem bringt, und wenn man zu >90% nur BF4 spielt, und das eben mit 120FPS+UHD oder what ever zocken will, dann ist Mantle für einen bereits heute ein Segen, und somit bereits gerechtfertigt.
Andersrum, wenn man 2 Monitore nutzen will für Office, dann hat halt nVidia durch den deutlich geringeren Stromverbrauch in dem Setting einen klaren Vorteil.
Ich versteh echt nicht, warum ihr immer so absolute Aussagen haben wollt. Ist es so schwer zu vertragen, das für unterschiedliche Leute mit unterschiedlichen Anforderungen/Vorlieben unterschiedliche Produkte die optimale Wahl sein können :confused:
Gaestle
2014-03-06, 09:02:48
Ist auch klar da AMD jetzt kein Fokus mehr auf DX11.1 hat.Die Treiber wurden sogar langsamer.
http://www.hardocp.com/article/2014/03/04/bf4_amd_mantle_video_card_performance_review_part_1/6#.Uxd1qPl5MQE
Für Battlefield mag das vielleicht zutreffen, aber insgesamt kann ich mir das gar nicht vorstellen, das sie DX11 vernachlässigen. Und auch bei Battlefield kann ich mir nur schwer vorstellen, dass sie bestehende Optimierungen wieder deaktiviert haben. Der Buzz für Mantle@BF4 ist ja nun vorbei.
Außerdem habe ich keine Möglichkeit gefunden, die Behauptung von HOCP nachzuprüfen, weil die Darstellung der Benchergebnisse nicht konsistent ist.
dargo
2014-03-06, 09:09:11
:| Gerade die kleineren Karten profitieren doch stärker durch Mantle, weil die eher im CPU-Limit hängen.
Ähm... nein. Zumindest nicht beim gleichen Prozessor und Spielsettings.
Nochmal zum besseren Verständnis... hast du eine Spielszene die noch nicht im vollständigen CPU-Limit ist und baust eine stärkere Grafikkarte ein verstärkst du damit das CPU-Limit in dieser Szene weil die Grafikkarte die Aufgaben schneller erledigen kann und somit mehr auf den Prozessor warten muss.
Skysnake
2014-03-06, 09:34:52
Er geht wohl davon aus, dass gerade kleinere Karten eben normal auch mit kleineren CPUs betrieben werden, die Anforderung an die CPU aber nicht im gleichen Maße sinken, wie die Anforderung an die GPU.
Arcanoxer
2014-03-06, 09:54:02
ist zwar völlig ot, aber ja ich und einige andere hier im forum haben 120hz pls monitore mit einer auflösung von 2560*1440.Na die Monitore möchte ich sehen.
Ich habe nur welche mit TN Panel gefunden.
warum kommst du eigentlich nur noch aus deinem bau um gegen mantle zu wettern? du hast mittlerweile 44 negative posts in diesem thread verfasst. schon sehr ungewöhnlich, dein ständiges gestänkere.44 negative post in den thread, was ist das denn bitte? :freak:
Nur weil ich Mantle nicht durch eine rosarote Brille betrachte und ständig irgendwelche sinnbefreiten 720p benchmarks poste ist das nicht negativ sondern objektiv. Wir befinden uns schließlich in den Diskussions-Foren.
Viel mehr erwarte ich von den "das ist schon eine Hausnummer" schreier auch mal die andere Seite der Medaille zu betrachten und von der Rücken zur Wand Mentalität wegzukommen, ohne das gleich die Beissreflexe einsetzen.
dargo
2014-03-06, 10:00:12
Er geht wohl davon aus, dass gerade kleinere Karten eben normal auch mit kleineren CPUs betrieben werden, die Anforderung an die CPU aber nicht im gleichen Maße sinken, wie die Anforderung an die GPU.
Dann sollte man das dazu schreiben. :)
Klar... ich sehe das ähnlich. Wenn ich jetzt eine Mainstreamkarte habe dann gehe ich in BF4 entsprechend mit den Grafikoptionen runter damit ich wieder eine hohe Framerate habe. In der Regel mache ich dadurch mehr GPU-Zeit frei wodurch sich alles wieder stärker Richtung CPU-Limit verschiebt. Hast du gleichzeitig eine schwächere CPU ist der Fall eh klar.
Nur weil ich Mantle nicht durch eine rosarote Brille betrachte und ständig irgendwelche sinnbefreiten 720p benchmarks poste ist das nicht negativ sondern objektiv.
Daran ist überhaupt nichts objektiv. Du verstehst leider immer noch nicht was man durch die Absenkung der Auflösung bezwecken will.
Arcanoxer
2014-03-06, 10:19:07
Daran ist überhaupt nichts objektiv. Du verstehst leider immer noch nicht was man durch die Absenkung der Auflösung bezwecken will.Und da sind sie wieder, die Unterstellungen und Beissreflexe. :rolleyes:
dargo
2014-03-06, 10:27:41
Und da sind sie wieder, die Unterstellungen und Beissreflexe.
Wenn jemand so auf Stur wie du ist dann hilft nur noch das. Du bist einfach nicht bereit dir was erklären zu lassen.
Edit:
Du bist seit 2001 im 3DC registriert. Das Thema Limits in Games wurde in diesem Forum gefühlte hundert mal in den letzten Jahren behandelt. Hättest du in der Zeit lieber einige hilfreiche Threads verfolgt hätten sich nahezu alle Diskussionen mit dir zu diesem Thema erübrigt.
Iruwen
2014-03-06, 10:30:22
Laut der Präsentationsfolien soll Mantle zukünftig auch im GPU-Limit etwas bringen, nur weil das bei BF4 noch nicht so ist, heißt das ja nicht dass da nicht noch etwas kommt. Ich würde mich nicht so an BF4 festbeißen, das ist immer noch der einzige Titel und Mantle immer noch eine Beta.
Timbaloo
2014-03-06, 11:24:18
Laut der Präsentationsfolien soll Mantle zukünftig auch im GPU-Limit etwas bringen
Wo wäre denn da (um den Thread von der persönlichen auf die technische Ebene zu bringen) das Potential?
N0Thing
2014-03-06, 11:39:42
Ähm... nein. Zumindest nicht beim gleichen Prozessor und Spielsettings.
Nochmal zum besseren Verständnis... hast du eine Spielszene die noch nicht im vollständigen CPU-Limit ist und baust eine stärkere Grafikkarte ein verstärkst du damit das CPU-Limit in dieser Szene weil die Grafikkarte die Aufgaben schneller erledigen kann und somit mehr auf den Prozessor warten muss.
Was ich geschrieben hatte ist natürlich Blödsinn. Ich hatte da die APUs im Hinterkopf und habe das dann durcheinander gewürfelt. :redface:
Er geht wohl davon aus, dass gerade kleinere Karten eben normal auch mit kleineren CPUs betrieben werden, die Anforderung an die CPU aber nicht im gleichen Maße sinken, wie die Anforderung an die GPU.
Ja, quasi sowas habe ich mir gedacht. Hatte die Ergebnisse der APUs im Hinterkopf und die haben ja nunmal keine schnelle CPU. Daran habe ich in dem Moment aber nicht gedacht. :freak:
Nightspider
2014-03-06, 12:34:49
Laut der Präsentationsfolien soll Mantle zukünftig auch im GPU-Limit etwas bringen, nur weil das bei BF4 noch nicht so ist, heißt das ja nicht dass da nicht noch etwas kommt. Ich würde mich nicht so an BF4 festbeißen, das ist immer noch der einzige Titel und Mantle immer noch eine Beta.
This!
Screemer
2014-03-06, 13:18:27
Na die Monitore möchte ich sehen.
Ich habe nur welche mit TN Panel gefunden.
handelt sich dabei natürlich um enthusiast-hardware. google spuckt das aber schon aus: http://www.overclock.net/t/1384767/official-the-korean-pls-monitor-club-qnix-x-star
Laut der Präsentationsfolien soll Mantle zukünftig auch im GPU-Limit etwas bringen, nur weil das bei BF4 noch nicht so ist, heißt das ja nicht dass da nicht noch etwas kommt. Ich würde mich nicht so an BF4 festbeißen, das ist immer noch der einzige Titel und Mantle immer noch eine Beta.
ich finde schon die wesentlich runderen frametimes einen segen. auch die bei hocp gezeigten steigerungen finde ich toll. scheint aber jeder seine eigenen prioritäten zu haben.
Iruwen
2014-03-06, 13:27:21
Wo wäre denn da (um den Thread von der persönlichen auf die technische Ebene zu bringen) das Potential?
Das wissen bislang wohl nur die paar Auserwählten die das SDK haben, soweit das überhaupt schon vollständig ist, ansonsten Spekulationen und die Folien:
http://de.slideshare.net/DevCentralAMD/gs4151-developing-thief-with-new-amd-technology-by-jurjen-katsman
Siehe speziell Seite 21 und 25.
Screemer
2014-03-06, 23:23:06
laut einigen aussagen im bf4-sammelthread sind mit dem neuen patch die ruckler unter mantle mit pitcairn nicht mehr vorhanden. scheint also immer noch einiges zu tun zu geben.
HarryHirsch
2014-03-07, 02:39:37
laut einigen aussagen im bf4-sammelthread sind mit dem neuen patch die ruckler unter mantle mit pitcairn nicht mehr vorhanden. scheint also immer noch einiges zu tun zu geben.
:uconf2:
Screemer
2014-03-07, 03:06:09
:uconf2:
grobi und megamember berichten davon. im battlelog-forum sind es noch mehr. eine baustellte ist also wohl beseitigt. gibt aber noch genügend baustellen die dice unter mantle zu fixen hat.
HarryHirsch
2014-03-07, 03:15:35
Aso, davon hab ich auch gehört. Der Zusammenhang ist wohl an mir vorbei geflogen.
:freak:
fondness
2014-03-08, 10:23:08
Sniper Elite 3 soll am 27. Juni kommen:
http://www.pcgameshardware.de/Sniper-Elite-3-PC-257042/News/Sniper-Elite-3-Mantle-Release-1112244/
aufkrawall
2014-03-08, 10:31:51
D3D ist bei BF4 mit AMD wirklich grottig optimiert. Das bricht auf Lancang mit 64 Spielern ins CPU-Limit, dass es unglaublich ist.
Die neue Chip lehnt sich ja weit aus dem Fenster:
Zitat:"Vom Prinzip her steht einer Adaption von Mantle durch Nvidia nichts im Wege.
Falls Nvidia einsteigt prognostizieren einige Analysten sogar das eventuelle
Ende der Spielekonsolen."
Quelle: Zeitschrift Chip 4/2014 - Seite 92
grobi
2014-03-08, 11:00:32
Das geht doch aber nur wenn Mantle nicht Lowlevel ist. Ich denke die Chipredaktion hat keine Ahnung wovon sie spricht.
Demirug
2014-03-08, 11:10:36
Das geht doch aber nur wenn Mantle nicht Lowlevel ist. Ich denke die Chipredaktion hat keine Ahnung wovon sie spricht.
Mantle ist nicht wirklich Low-Level. Es verschiebt im Vergleich zu DirectX nur etwas mehr Verantwortung vom Treiber in die Spiele selbst. Der primäre Vorteil kommt aber wahrscheinlich daher das es "WDDM 2.X" Features nutzt welche der DX Treiber nicht nutzen kann.
Was das aber mit dem "Ende der Spielkonsolen" zu tun haben soll versehe ich auch nicht.
nvidia wird es aber trotzdem nicht so einfach unterstützen können da sehr wahrscheinlich die Daten im Grafikspeicher adort anders organisiert sind. Entsprechend wäre keine direkte Kompatibilität möglich. Die Spiele bräuchten GPU spezifische Funktionen zum kopieren der Daten in den Grafikspeicher.
Wo bleibt der für Anfang März angekündigte Mantle Patch für Thief? Irgendwie wieder typisch.
-/\-CruNcher-/\-
2014-03-08, 15:08:35
Mantle ist nicht wirklich Low-Level. Es verschiebt im Vergleich zu DirectX nur etwas mehr Verantwortung vom Treiber in die Spiele selbst. Der primäre Vorteil kommt aber wahrscheinlich daher das es "WDDM 2.X" Features nutzt welche der DX Treiber nicht nutzen kann.
Was das aber mit dem "Ende der Spielkonsolen" zu tun haben soll versehe ich auch nicht.
nvidia wird es aber trotzdem nicht so einfach unterstützen können da sehr wahrscheinlich die Daten im Grafikspeicher adort anders organisiert sind. Entsprechend wäre keine direkte Kompatibilität möglich. Die Spiele bräuchten GPU spezifische Funktionen zum kopieren der Daten in den Grafikspeicher.
Das wirft die Frage auf ob vieleicht AMD schon lange ihre Architektur für WDDM 2.x optimiert hat und durch Nvidia alles verzögert wurde, wieso auch immer (Skysnake würde sicher wieder ausrasten) ;)
AMD wollte sich damit nicht abfinden und boom wir sehen Mantle, denke mal das würde sich erhärten wenn wir sehen das auch ältere Hardware DX 12 besser unterstützen wird auf AMDs seite als wie Nvidia ;)
Nightspider
2014-03-08, 15:11:04
Ich könnte mir vorstellen, das der Unterschied zwischen D3D und Mantle in dem Spiel Dragon Age 3 (Frostbite Engine 3) mit am größten wird.
Zumindest haben in der Vergangenheit schon manche Rollenspiele CPUs in die Knie gezwungen und der neue Trailer macht einen sehr guten Eindruck:
http://www.youtube.com/watch?v=3xoZ51hhNPs
dargo
2014-03-08, 15:13:31
Wo bleibt der für Anfang März angekündigte Mantle Patch für Thief? Irgendwie wieder typisch.
Irgendwie wieder typisch das Jammern hier. Genieße das Wetter. Der Patch kommt schon wenn der soweit ist. Von Anfang März war übrigens keine Rede sondern von März.
Iruwen
2014-03-08, 15:19:02
Anfang März kommt iirc von Golem und hat sonst keine Grundlage.
http://www.golem.de/news/thief-mantle-und-trueaudio-erst-anfang-maerz-1402-104770.html
Bei Eidos steht einfach nur März.
We’re extremely proud of the work we’ve done with AMD to make the PC version of THIEF a stand-out, definitive experience although we have a little more work to do to accommodate all of these new PC-specific features - we are busy working on a patch to support AMD’s Mantle and TrueAudio technologies that is scheduled for March.
http://community.eidosmontreal.com/blogs/Thief-PC-Requirements
Das wirft die Frage auf ob vieleicht AMD schon lange ihre Architektur für WDDM 2.x optimiert hat und durch Nvidia alles verzögert wurde, wieso auch immer (Skysnake würde sicher wieder ausrasten) ;)
AMD wollte sich damit nicht abfinden und boom wir sehen Mantle, denke mal das würde sich erhärten wenn wir sehen das auch ältere Hardware DX 12 besser unterstützen wird auf AMDs seite als wie Nvidia ;)
http://i.imgur.com/QLqbjk9.png
Impliziert das nicht, dass unter Windows WDDM immer limitiert, auch bei Mantle? Wie bei OpenGL auch? Kann man WDDM überhaupt umgehen?
-/\-CruNcher-/\-
2014-03-08, 15:25:17
Dragon Age 3 wird sehr interessant vor allem im direkten vergleich mit The Witcher 3 :)
Zwei gleiche Spiel Genres nur eine Engine Speziel darauf optimiert die andere Multi Purpose, wo die ganze komplexe Logik von Bioware selbst geaded worden sein muss, Watchdogs als extreme komplexes Logik Monstrum sei auch noch zu erwähnen :)
Anfang März kommt iirc von Golem und hat sonst keine Grundlage.
Das kommt von AMD. Vielleicht haben die keine Grundlage, ja kann sein. Überraschen würde es nicht.
As a reminder, THIEF will be patched to support Mantle and AMD TrueAudio technologies in early March.
http://www.pcgameshardware.de/AMD-Catalyst-Grafikkarte-255517/Downloads/AMD-Catalyst-142-Download-Thief-und-Mantle-1110954/2/
Demirug
2014-03-09, 11:42:40
Impliziert das nicht, dass unter Windows WDDM immer limitiert, auch bei Mantle? Wie bei OpenGL auch? Kann man WDDM überhaupt umgehen?
Zumindest nicht vollständig. Zum WDDM gehört noch ein Kernel Module von Microsoft. Sowohl der Kernel wie auch der Use Mode Treiber kommunizieren mit diesem Module. Eine der wichtigsten Aufgaben diese Modules ist es dafür zu Sorgen das die GPU und der Videospeicher "fair" zwischen den Prozessen aufgeteilt werden. Das muss natürlich auch funktionieren wenn die Prozesse unterschiedliche APIs benutzten.
In wie weit Mantle nun an diesem Module vorbei arbeitet ist schwer zu sagen.
Ein Test dafür ist zum Beispiel der Process Explorer
http://technet.microsoft.com/de-de/sysinternals/bb896653.aspx
Er kann auf die internen Schnittstellen des Kernel Modules zugreifen und so den Speicherverbrauch und GPU Auslastung pro Prozess bestimmen. Zeigt er bei einer Mantle Anwendung nichts an arbeitet AMD an diesem Module vorbei.
aufkrawall
2014-03-09, 11:48:00
Er zeigt was an.
Twodee
2014-03-09, 13:22:35
Er zeigt was an.
Einen oder keinen GPU-Speicherverbrauch der Mantle-nutzenden App.
Screemer
2014-03-09, 16:18:39
sieht wie folgt aus:
http://abload.de/thumb/mantle2jikbg.png (http://abload.de/image.php?img=mantle2jikbg.png)
also wird wddm wohl nicht umgangen.
-/\-CruNcher-/\-
2014-03-10, 00:49:08
Zumindest nicht vollständig. Zum WDDM gehört noch ein Kernel Module von Microsoft. Sowohl der Kernel wie auch der Use Mode Treiber kommunizieren mit diesem Module. Eine der wichtigsten Aufgaben diese Modules ist es dafür zu Sorgen das die GPU und der Videospeicher "fair" zwischen den Prozessen aufgeteilt werden. Das muss natürlich auch funktionieren wenn die Prozesse unterschiedliche APIs benutzten.
In wie weit Mantle nun an diesem Module vorbei arbeitet ist schwer zu sagen.
Ein Test dafür ist zum Beispiel der Process Explorer
http://technet.microsoft.com/de-de/sysinternals/bb896653.aspx
Er kann auf die internen Schnittstellen des Kernel Modules zugreifen und so den Speicherverbrauch und GPU Auslastung pro Prozess bestimmen. Zeigt er bei einer Mantle Anwendung nichts an arbeitet AMD an diesem Module vorbei.
So sehr ich Russinovichs arbeit für Microsoft auch schätze aber ich finde Process Hacker um einiges gelungener ;)
Screemer schau dir mit Process Hacker http://processhacker.sourceforge.net/
mal genau die Node (in Process Explorer Engine) Ausslastung an und auf welchem Node/Engine die statfindet zudem aktiviere das GPU usage column pro prozess
http://www.ld-host.de/uploads/images/77269828cec5c9f9949ef602877ece55.jpg
Frostbites eigener interner Profiler Perfoverlay.Drawgraph 1 ist aber auch krass prezise der kann auch minimalste fluktuationen erkennen mein lieber scholli, ohne sich selbst wirklich weh zu tun :)
@Demirug
Bin mir nicht sicher könnte man überhaupt WDDM und DWM ausser im DXE mode (Fullscreen) umgehen, selbst die idee würde ja eigentlich WDDM ad absurdum führen oder nicht wenn man das per treiber (kernel zugriff) könnte ?.
Aber so ein test würde mich auch brennend interessieren hab ich bis jetzt auch von keinem Reviewer gesehen kann Mantle seine Effizienz im Windowed mode genau so halten wie im Fullscreen ?
[LOG]Skar
2014-03-10, 09:07:57
Sagt mal läuft bei euch auch BF4 ohne Hyperthreading besser, kann es an den FPS nicht ausmachen. Aber GraphOverlay sieht man regelmäßig Spikes. Betrifft mehr DirectX aber auch bei Mantle habe ich HT nun aus.
p.s. Der Performance Vorteil von Mantle wird, irgendwie von SweetFX ausgeglichen. Da kann man niedrige in Game
Settings (AA und Scale) nehmen und es mit dem #define USE_SMAA_ANTIALIASING 1 wieder günstig aufpeppen.
Muss euch mal nen paar Screens zeigen, wenn mein Rechner wieder geht :frown:
Bin dafür SweetFX in den Teiber aufzunehmen :smile: Aber bloß auch für Mantle, dann ist alles :D
StefanV
2014-03-10, 09:42:27
Kann sein, liegt am Hyperthreading bzw wie es funktioniert, dass es so ist. War aber schon immer so, dass das nicht immer was brachte...
foenfrisur
2014-03-10, 19:12:11
...und (HT) ab und zu sogar langsamer ist.
P3D hat seinen test unauffällig erweitert:
http://www.planet3dnow.de/cms/8900-amd-mantle-die-neue-api-in-einem-ersten-test-2-update/
mfg
M4xw0lf
2014-03-10, 20:31:54
P3D ist insgesamt seltsam unenthusiastisch bei dem Thema, für meinen Geschmack :uponder:
Dabei sind ihre Ergebnisse alles in allem auch sehr positiv. Unter 1600p noch 12% mehr avg-FPS und 25% bessere min-FPS (99% Perzentil zumindest) bei praktisch identischem Stromverbrauch.
Überraschend aussagekräftig für einen Multiplayer-Test :) Coole Sache, und schon substanzielle Gewinne für 2560×1600, High.
foenfrisur
2014-03-10, 20:47:44
ich finde auch den letzten graphen sehr interessant "häufigkeit der einzelnen FPS" in dem bench.
mfg
Gerade sowas finde ich speziell gut, ja, ebenso wie die genaue Darstellung, wie gebencht wurde etc.
aufkrawall
2014-03-10, 21:34:51
P3D ist insgesamt seltsam unenthusiastisch bei dem Thema, für meinen Geschmack :uponder:
Dabei sind ihre Ergebnisse alles in allem auch sehr positiv. Unter 1600p noch 12% mehr avg-FPS und 25% bessere min-FPS (99% Perzentil zumindest) bei praktisch identischem Stromverbrauch.
Mit welcher CPU wurde das getestet?
Ich konnte mich erst wieder davon überzeugen, wie beschissen die CPU-Skalierung im MP mit DX11.1 auf AMD ist.
Das ging auf unter 60fps, wo es mit NV mindestens mit 80 lief (Lancang CQL).
AMD FX-8350 @ 4GHz, unter 60% Auslastung im Schnitt laut Afterburner.
aufkrawall
2014-03-10, 21:48:09
Das dürfte auf high settings ziemlich CPU-limitiert mit dem AMD-Treiber & D3D sein.
Die IPC ist ja ein Witz und dann nur 4Ghz bei vielleicht 5 Threads Auslastung. Durch high details fressen etwa auch die Partikeleffekte viel weniger (auf der GPU).
fondness
2014-03-10, 21:52:57
Nicht jeder hat eine Haswell >4Ghz, von daher sind solche Werte um nichts weniger legitim.
aufkrawall
2014-03-10, 21:59:34
Nicht jeder hat eine Haswell >4Ghz, von daher sind solche Werte um nichts weniger legitim.
Habe ich das bestritten?
Trotzdem scheint es eher so zu sein, dass eine Schwäche von AMDs D3D, als eine Stärke von Mantle getestet wurde.
Man kann nur hoffen, dass das bei anderen Spielen nicht ähnlich ist.
fondness
2014-03-10, 22:04:51
Habe ich das bestritten?
Trotzdem scheint es eher so zu sein, dass eine Schwäche von AMDs D3D, als eine Stärke von Mantle getestet wurde.
Man kann nur hoffen, dass das bei anderen Spielen nicht ähnlich ist.
Du hättest doch schon längst ein Fass aufgemacht wenn dir das noch wo anders aufgefallen wäre. :)
Bei Hardocp hat man schon angemerkt das der Mantle-Treiber unter D3D-Leistung verloren hat. Nicht schön aber auch nicht ausgeschlossen das AMD hier bewusst bremst um den Mantle-Vorteil zu maximieren.
Außerdem ist unbestritten das Mantle auch ggü. den Nvidia-Treiber deutlich im CPU-Limit zulegt.
aufkrawall
2014-03-10, 22:08:07
Ich hab wegen OC natürlich auch den Catalyst 13.12 verwendet, der läuft im CPU-Limit nicht besser. Und ansonsten wäre es schon ein starkes Stück, wenn Dice künstliche Ausbremsungen reinpatchen würde (halte ich für ausgeschlossen).
Woanders ist es mir in der Tat bisher aber nicht aufgefallen. Allerdings spiele ich auch fast nur BF4 und ansonsten nutzt kein Spiel DX 11.1.
Außerdem ist unbestritten das Mantle auch ggü. den Nvidia-Treiber deutlich im CPU-Limit zulegt.
Sonst hätten sie sich auch komplett blamiert.
fondness
2014-03-10, 22:10:32
Womöglich ist auch einfach nur der D3D11.1-Pfad noch schlecht optimiert. Gibt ja nicht gerade viele Spiele dafür und das Treiberteam hatte mit Mantle wohl mehr als genug zu tun.
Sonst hätten sie sich auch komplett blamiert.
Wir sprechen hier auch nicht von Peanuts.
aufkrawall
2014-03-10, 22:15:43
Wir sprechen hier auch nicht von Peanuts.
Sonst hätte ich ja auch nicht was von +50% geschrieben.
Weißt du doch, hast mich sogar schon damit zitiert...
-/\-CruNcher-/\-
2014-03-11, 05:09:12
Funktioniert unter Mantle WorldRender.Lighttilecspathenable ?
foenfrisur
2014-03-11, 06:53:21
vermutlich schon, weil man den unterschied sonst sehen würde.
was ich auch komisch finde, das mantle 62% mehr vram frisst.
geht das mit dx11 nicht?
mfg
MusicIsMyLife
2014-03-11, 09:12:59
P3D ist insgesamt seltsam unenthusiastisch bei dem Thema, für meinen Geschmack :uponder:
Findest du?
Wir sehen das bisher eigentlich recht positiv. Allerdings - und da rührt vielleicht der Eindruck her - gibt es auch noch viele Fragen zu Mantle, die erst mit der Zeit beantwortet werden können. Denn man darf nicht vergessen, dass mit Battlefield 4 erst ein einziges Spiel in der Wildnis existiert, welches Mantle-Unterstützung bietet. Und a) ist dieses Spiel alles andere als fehlerfrei, was unter Umständen auch Einfluss auf Mantle haben kann und b) lässt sich anhand eines Titels bei weitem keine generelle Aussage für Mantle treffen. Hinzu kommt, dass es schon mehrere Spielepatches gab, die hier und da etwas verändert haben. Was also heute stimmt, muss morgen nicht mehr richtig sein. Daher gehen wir eigentlich sehr "vorsichtig" zu Werke.
Mit welcher CPU wurde das getestet?
Ich konnte mich erst wieder davon überzeugen, wie beschissen die CPU-Skalierung im MP mit DX11.1 auf AMD ist.
Das ging auf unter 60fps, wo es mit NV mindestens mit 80 lief (Lancang CQL).
Das Thema Mantle ist einfach zu komplex, um alle Facetten mit einem einzelnen Artikel just in time abzudecken. Daher gehen wir Schritt für Schritt vor und testen einzelne Aspekte isoliert. Bisher haben uns die Ereignisse auch recht gegeben, denn wenn wir versucht hätten, alles zum Release des Artikels fertig zu haben, dann hätten wir entweder nur halbherzig getestet oder aber doppelt so lange gebraucht, weil uns neue Treiber bzw. Patche immer wieder den Boden unter den Füßen weggezogen hätten.
Was ich damit sagen will: Wir tasten uns langsam voran und versuchen, soviele Aspekte wie möglich nach und nach zu untersuchen. Dass das aber Zeit kostet, dürfte klar sein. Nebenbei bemerkt habe ich das Testsystem für den Mantle-Test mit einer SSD, mit einer neuen HDD sowie der 290X samt Wasserkühlung auf eigene Kosten aufgerüstet. Nur, damit a) die ganzen Boot- und Ladezeiten nicht zu noch längeren Artikel-Wartezeiten führen und b), damit ich die Tests nicht mit einer 7970 machen muss. Kurzum: Ich setze mich auch selbst dafür ein, soviele Dinge wie möglich abzuklopfen. Aber die Ressourcen sind nunmal endlich.
Intern stehen auch schon einige Dinge auf der Agenda, die wir nach Möglichkeit abdecken wollen. Und das Thema DirectX-Performance steht auch drauf. Nur muss hier erstmal überlegt werden, was und wie wir überhaupt testen wollen/können. Und da kommt wieder der Faktor Zeit und die Hardware-Ressourcen ins Spiel...
Der ursprüngliche Sinn meines Posts war aber noch ein anderer. Ich habe mir mal fix ein paar Zeilen der Afterburner-Logs angeschaut. Und da ist es so, dass der FX-8350 die meiste Zeit auf allen Kernen belastet wird. Zwar gibt es Einträge, wo mal zwei oder drei Kerne mit 0 Prozent Auslastung zu Buche stehen, diese sind aber in der Minderheit. Meistens sind alle Kerne belastet, wobei es oft einen Kern gibt, der um die 10 Prozent Last hat. Wahllos ein paar Beispiele mit Mantle: Zwischen 12,5 und 85 Prozent, zwischen 7 und 83 Prozent, zwischen 23 und 90 Prozent - jeweils ein Kern mit wenig Last, die restlichen sieben mit deutlich höheren Werten.
Es scheint also, dass zumindest Mantle unter Windows 8.1 auch mit mehr als vier oder fünf Threads skalieren kann.
Gaestle
2014-03-11, 13:19:35
Ich könnte mir vorstellen, dass AMD die GDC nächste Woche für ein bisschen Mantle- und TrueAudio-Buzz nutzt. Da könnte ein passender Thief-Patch zeitlich gut passen. *daumendrück*
foenfrisur
2014-03-11, 17:16:32
@musicismylife
also was auch nochmal eine gaanz große nummer wäre:
ein ram-test mit unterschiedlichen größen und geschwindigkeiten.
im grunde reicht 16gb vs. 8gb sowie 1333er ram vs. 2133/2400er.
das mit einem intel und einem amd.
mfg
AwesomeSauce
2014-03-11, 17:34:41
Zumindest einer der grossen Player wagt den Schritt: CryEngine kommt offiziell für Linux: http://www.crytek.com/news/conference-attendees-can-also-see-a-brand-new-mobile-game-extra-engine-updates-and-much-more-at-crytek-s-booth
During presentations and hands-on demos at Crytek's GDC booth, attendees can see for the first time ever full native Linux support in the new CRYENGINE.
foenfrisur
2014-03-11, 19:45:05
hast du dich hier verlaufen :D :P
cryengine <-> mantle ?
mfg
MusicIsMyLife
2014-03-11, 21:31:26
@musicismylife
also was auch nochmal eine gaanz große nummer wäre:
ein ram-test mit unterschiedlichen größen und geschwindigkeiten.
im grunde reicht 16gb vs. 8gb sowie 1333er ram vs. 2133/2400er.
das mit einem intel und einem amd.
mfg
In der Richtung habe ich ehrlich gesagt noch nichts geplant. Es wird für mich leider auch schwierig umzusetzen. Denn mir fehlt dazu schlichtweg die Hardware.
Ich habe nur AMD-Hardware zur Verfügung. Zwar habe ich in meinem Alltagssystem einen Intel stecken, allerdings müsste ich dann die komplette Wasserkühlung samt SLI auseinander reißen, um den nutzen zu können. Zudem ist es ein Sandy Bridge-E. Quad-Channel mit 6/12-Threads gegen Dual-Channel mit 4/8 Threads wäre somit ein sehr suboptimaler Vergleich. Deshalb wird es schwierig.
Aber in Sachen AMD kann ich mir diesbezüglich vielleicht etwas einfallen lassen...
foenfrisur
2014-03-11, 21:41:48
nur mit einem FX wäre doch auch schonmal gut.
vielleicht gibts da schonmal tendenzen, die man auch auf intel ableiten kann.
mfg
fondness
2014-03-13, 00:00:13
PCGH: Was haltet ihr von AMDs Mantle-Technologie?
Richard Baker: AMD kam zu uns und hat eine Demonstration beziehungsweise eine Präsentation zu Mantle gemacht, aber da war es schon ein wenig spät, um Mantle noch in die Produktion mit einzubringen. Mantle ist aber etwas, was wir uns in der Zukunft ansehen werden. Und wenn es so aufregend ist, wie es klingt – eine Menge Programmierer hier sind ziemlich aufgekratzt, was das Potenzial von Mantle angeht *– werden wir damit mal etwas herumspielen, sobald wir den Launch hinter uns gebracht haben und es dann für zukünftige Spiele nutzen. Und vielleicht, wenn es einen sehr großen Performance-Gewinn bringen sollte, auch für Titanfall nachliefern.
http://www.pcgameshardware.de/Titanfall-PC-257364/Specials/Titanfall-Interview-Technik-1112495/
Gaestle
2014-03-13, 09:57:18
Erst mal sehen, was MS zeigt oder verspricht. Coda und Demirug haben sich zum Erwartbaren ja relativ eindeutig geäußert (zumindest habe ich das so interpretiert).
Eine generelle Lösung wäre mir fast lieber, weil AMD seine Softwareleute dann wieder komplett auf die Treiber konzentrieren kann und die (immer nur endlich vorhandene) Manpower nicht aufteilen muss. Mantle ist sicherlich nicht mal so eben nebenbei zu stemmen und das Personal, was dort reingesteckt wird, steht woanders nicht zur Verfügung.
fondness
2014-03-14, 18:56:44
Der 19. März ist Mantle-Tag auf der GDC:
http://developer.amd.com/amd-technology-at-gdc/?cmpid=social19885114
schreiber
2014-03-15, 07:29:37
http://www.legitreviews.com/amd-mantle-trueaudio-patch-thief-coming-march-18th_137560
Patch für Thief kommt am Dienstag
aufkrawall
2014-03-15, 12:11:02
Schon wieder den versprochenen Zeitrahmen nicht eingehalten. Hoffentlich brauchts dann nicht nochmal vier Wochen, bis etwaige Showstopper-Bugs gefixt sind.
Das nächste Spiel wär jetzt Garden Warfare? Wenn das wieder zu Release nichts wird...
Warten wir mal den 20. März ab.
fondness
2014-03-15, 12:33:40
Schon wieder den versprochenen Zeitrahmen nicht eingehalten. Hoffentlich brauchts dann nicht nochmal vier Wochen, bis etwaige Showstopper-Bugs gefixt sind.
Das nächste Spiel wär jetzt Garden Warfare? Wenn das wieder zu Release nichts wird...
Warten wir mal den 20. März ab.
Garden Warfare (noch kein PC-release Termin) oder Sniper Elite 3 (Juni).
Wenn das wieder nichts zum Release wird dann hättest du womöglich nichts zu meckern, das geht doch gar nicht :freak:
Im Ernst: Umso länger Mantle verfügbar ist umso eher werden die Spieleentwickler natürlich auch ausreichend Zeit haben die Implementierung zum Release verfügbar zu haben.
Aktuell ist das alles noch Beta und musste in schon weit fortgeschrittene Spiele und Engines gepatcht werden. Im übrigen sind es nicht mal 3 Wochen seit dem Release von Thief.
HarryHirsch
2014-03-15, 14:05:21
Mantle läuft doch super. Immer diese Meckerfritzen.
Naja.:freak:
foenfrisur
2014-03-15, 14:50:48
ich spiele auch nur noch mit mantle in bf4.
es läuft tatsächlich super :D
mfg
HarryHirsch
2014-03-15, 15:20:55
Wenn nur dieses Abschmieren beim ersten joinen nicht wäre. ;)
edith sagt:
kann auch am CF liegen. mit den neuen treibern will die zweite karte einfach weiter pennen.
foenfrisur
2014-03-15, 15:51:05
probiers doch mal aus.
wer hat denn hier noch cf und kann das bestätigen?
mfg
HarryHirsch
2014-03-15, 15:57:30
Da brauch ich nix Probieren...
Wenn eine Karte pennt kann ich nicht mal CF an/aus schalten...
Das starten einer 1337 Demo hilft aber. :freak:
Leider sind nicht alle so.
dargo
2014-03-16, 16:03:43
Hat sich eigentlich eine Seite die Mühe gemacht BF4 im Hinblick auf die Threadskalierung über 8 Threads zwischen DX11.1 und Mantle zu untersuchen? Ich würds selber tun aber der Aufwand mit Mantle zu benchen schreckt mich immer noch ab. Zudem habe ich nur GCN 1.0 bei dem laut AMD immer noch endgültige Mantleoptimierungen im Treiber fehlen.
Man müsste natürlich nur im SP wegen genauer Reproduzierbarkeit benchen. Zudem müsste man bei einem aktuellen Intel den Takt weit reduzieren (bei Mantle denke ich eher in Richtung 1Ghz) da im SP die CPU-Last ziemlich gering ist. Bei DX11.1 müsste man den Takt wieder anheben damit die Grundlast sich nicht zu stark auswirkt. Ich würde da am besten Taktraten wählen wo man sich in der gewählten Szene im Bereich von 40-50fps befindet. So kann man relativ sicher gehen, dass einem die Grundlast nicht zu stark dazwischen funkt. Mich interessiert brennend ob die Threadskalierung mit Mantle wie versprochen besser ist.
merfu
2014-03-18, 05:17:29
http://www.computerbase.de/artikel/grafikkarten/2014/amd-mantle-thief-benchmarks/
Haette nicht gedacht das Mantle in Thief so viel rausholen kann. Woran kann das liegen? Ist das wieder den Drawcalls geschuldet oder warum ist so viel drin, gerade bei 290 und 290X?
Selbst ein 4770k mit 3 GHz laesst die Highend Karten ins Limit rennen.
Schaffe89
2014-03-18, 05:56:14
Ist ja nur der integrierte Benchmark, der sagt erstmal eher wenig aus.
Mich würde es nicht wundern wenn da wie in der Mantle Demo etwas getrickst wurde.
foenfrisur
2014-03-18, 07:01:21
aber das spiel skaliert ja auch mit dem takt sehr gut, was ja auch zum teil bedeutet, das ein gewisses cpu-limit vorherrscht.
mfg
Loeschzwerg
2014-03-18, 07:02:50
Die Werte sehen echt gut aus, aber das Spiel scheint generell Probleme mit der Threadauslastung zu haben und ganz so einfach ist die Mantle Implementierung darüber hinaus auch nicht (beides siehe Artikel von CB).
Klar, wer nur das Spiel vor Augen hat, der sollte klar Mantle nutzen, im Hinblick auf die Technologie als solches bleibt mir persönlich aber ein fader Beigeschmack.
dargo
2014-03-18, 11:16:06
Bei Golem sind es bis zu +68%.
http://www.golem.de/news/thief-schleichen-mit-hall-und-mantle-1403-105198.html
Allerdings kann ich den intergrierten Benchmark schlecht einschätzen. Bei Timedemos bin ich immer skeptisch was die CPU-Last angeht.
Die Werte sehen echt gut aus, aber das Spiel scheint generell Probleme mit der Threadauslastung zu haben und ganz so einfach ist die Mantle Implementierung darüber hinaus auch nicht (beides siehe Artikel von CB).
Woran erkennst du das? Von zwei auf vier Kerne skaliert die Testszene unter DX perfekt (siehe CB-Test 3,5Ghz i7-4770 @2k vs. 3,5Ghz i7-4770 @4k). Bei Mantle ist der Zugewinn etwas geringer. Da könnte ich mir vorstellen, dass die Graka im Bereich der ~100fps schon etwas limitiert. Das einzige was ich erkennen kann ist, dass die Software wohl kleine Probleme mit HTT und vier Cores hat. Schade, dass man keinen FX-8350 für den Test genommen hat.
Loeschzwerg
2014-03-18, 12:26:47
Woran erkennst du das? Von zwei auf vier Kerne skaliert die Testszene unter DX perfekt (siehe CB-Test 3,5Ghz i7-4770 @2k vs. 3,5Ghz i7-4770 @4k). Bei Mantle ist der Zugewinn etwas geringer. Da könnte ich mir vorstellen, dass die Graka im Bereich der ~100fps schon etwas limitiert. Das einzige was ich erkennen kann ist, dass die Software wohl kleine Probleme mit HTT und vier Cores hat. Schade, dass man keinen FX-8350 für den Test genommen hat.
Und Zitat:
Mit drei CPU-Kernen hat Mantle offenbar einige Schwierigkeiten, denn in dem Fall ist die AMD-API 18 Prozent langsamer als DirectX. Mit zwei Kernen reagiert Mantle dann wieder normal, weswegen wir von einem weiteren Fehler ausgehen. Von AMD war bis Redaktionsschluss keine Aussage zu erhalten.
War bezogen auf Mantle, hab mich da etwas falsch ausgedrückt, sorry :)
Ein Test mit AMD FX6/8 fehlt aber wirklich noch.
gnomi
2014-03-18, 12:34:26
Die Zugewinne in Thief sind schon sehr beeindruckend.
Allerdings muss auch wieder gleich dazu gesagt werden, dass die Ausnutzung der CPU's unter DX 11 mit AMD GPU's im Rechner mies ist.
dargo
2014-03-18, 12:37:33
Allerdings muss auch wieder gleich dazu gesagt werden, dass die Ausnutzung der CPU's unter DX 11 mit AMD GPU's im Rechner mies ist.
:confused:
Bei CB liegt die GTX780TI auf Augenhöhe @DX mit der R9 290X, auch unter 720p.
gnomi
2014-03-18, 12:44:03
Ich bin vom Ergebnis im Benchmark Thread bzw. Golem ausgegangen.
Hier erscheinen mir die DX 11 Werte in 720P jedenfalls extrem niedrig.
dargo
2014-03-18, 13:08:28
Ich bin vom Ergebnis im Benchmark Thread bzw. Golem ausgegangen.
Hier erscheinen mir die DX 11 Werte in 720P jedenfalls extrem niedrig.
Also ich kann da keine Ungereimheiten feststellen.
Golem nimmt einen i7-3770K, CB einen i7-4770K @4,4Ghz. Golem kommt auf 63,2 avg.fps, CB auf 87,1 avg.fps @720p und DX. Klingt schlüssig würde ich sagen. Der Haswell hat eine höhere Pro/Mhz Leistung und mehr Takt. Wenn ihr jetzt im Benchmarkthread auf höhere Ergebnisse mit vergleichbaren CPUs kommt dann müsste man herausfinden was hier wieder falsch läuft.
gnomi
2014-03-18, 13:26:39
Hast Recht, innerhalb der Tests scheint es zu passen. :)
Ich finde die Werte ansich aber sehr niedrig.
Selber kam ich schon auf über 90 fps mit einem 2600k@4Ghz?
Eventuell ist wieder dieser Exklusive Vollbildmodus Schuld?
FXAA an oder aus ist denke ich egal...
merfu
2014-03-18, 14:05:52
Wenn unter DX die Skalierung von 2 auf 4 Kerne nahezu linear ist, dann dürfte das ganze unter DX komplett im CPU Limit hängen.
MfG
Knuddelbearli
2014-03-18, 14:07:23
Ist ja nur der integrierte Benchmark, der sagt erstmal eher wenig aus.
Mich würde es nicht wundern wenn da wie in der Mantle Demo etwas getrickst wurde.
Integrierte Benchmark ist sehr GPU lastig im eigentlich Spiel sollte da dann deutlich mehr bei herrumkommen.
Mal wieder Fail von AMD Chance nicht ergriffen ( für zumindest einen 2ten CPU lastigen iBenchmark, 720p testen die wenigsten Seiten und schauen sich noch weniger User an ).
Naja man ist es von AMD ja gewöhnt Top Produkte miese PT Abteilung :freak:
Knuddelbearli
2014-03-18, 14:19:38
Hoffentlich komtm dann bald auch eine neue APU mit 2 Modulen und min 1280 ( lieber 1536+ ) Shader und DDR4.
So wie es jetzt ist ist Mantle für APUs ja recht witzlos da pures GPU Limit vorherrscht
y33H@
2014-03-18, 14:25:07
Integrierte Benchmark ist sehr GPU lastig im eigentlich Spiel sollte da dann deutlich mehr bei herrumkommen.Meiner Ansicht nach ist es umgekehrt.
ShadowXX
2014-03-18, 14:49:03
Meiner Ansicht nach ist es umgekehrt.
Nicht nur deiner....im Spiel selbst wird Mantle (gegenüber DX) nicht annähernd soviel bringen.
Der Benchmark war schon das Zugeständnis an AMD....ohne den wäre die Mantle-Implementierung wohl vergebene Liebesmüh.
fondness
2014-03-18, 15:21:28
http://forums.anandtech.com/showpost.php?p=36170338&postcount=58
Iruwen
2014-03-18, 15:27:32
Und das nochmal mit 'ner 780 und DX11.1.
Unicous
2014-03-18, 15:29:02
Nicht nur deiner....im Spiel selbst wird Mantle (gegenüber DX) nicht annähernd soviel bringen.
Der Benchmark war schon das Zugeständnis an AMD....ohne den wäre die Mantle-Implementierung wohl vergebene Liebesmüh.
Oh ja, der Benchmark wurde exakt so gestaltet um AMD gut dastehen zu lassen.
Nur böse Menschen würde dir jetzt unterstellen, dass du hier Verschwörungstheorie um Verschwörungstheorie hervor zauberst um AMD zu diskreditieren, ich hingegen stehe da direkt hinter dir.
(Das ist keine Aussage, wie es im Spiel aussieht. Da kann sich die GPU-/CPU-Last deutlich unterscheiden.)
y33H@
2014-03-18, 16:25:45
Irgendwie testet kaum eine Seite eine API, welche die CPU entlastet, im CPU-Limit. Nichts gegen praxisnah, aber mir fehlt dieser Faktor einfach oft.
aufkrawall
2014-03-18, 16:53:26
Ich kann mich gerade nicht erinnern, bei Thief im realen Spiel mit einer 690 in 1440p + FXAA jemals ins CPU-Limit gekommen zu sein.
In dem Spiel ist lächerlich wenig los, quasi nie mehr als 10 NPCs gleichzeitig am Werk.
Wirkt gegen Hitman oder AC einfach nur leer. Würde mit FB3 & DX11.1 auf NV auch auf langsamen CPUs fast immer schnell genug laufen, jede Wette.
foenfrisur
2014-03-18, 20:03:45
ein bayrisches tier mit "A"...
A Hirsch...
wo ist harryhirsch...
das steht in den "known issues" des catalyst zum thema cf:
"Secondary GPUs do not enter low power state on CrossFire configurations; this issue will be addressed in the next AMD Catalyst beta release"
immerhin wissen sie also hier schon, dass da was argen liegt.
auch wenn du ja vom gegenteil schreibst, das sie nicht mehr aufwacht.
das habe ich allerdings auch mit einer einzelnen karte manchmal unter win8.1 ;)
nur jetzt, wo ich den takt fixiert habe, ist es erstmal weg.
mfg
Screemer
2014-03-18, 20:57:58
das mit dem nicht mehr aufwachen bei single GPU ist ein lange bekanntes Problem. monitorkabel abziehen und neu verbinden, danach sollte das Bild wieder da sein.
merfu
2014-03-18, 21:08:57
War es bei Thief nicht so das der Benchmark eine andere Last erzeugte als das Spiel selbst und somit die Ergebnisse des Bench nicht viel mit dem Game zu tun hatte?
Hat mal jemand direkt eine Spielszene getestet?
Knuddelbearli
2014-03-18, 21:22:01
da alle gängigen FPS Messprogramme nicht mit Mantle zusammenarbeiten nein.
Und ja Last unterschiedet sich. und so wie ich es bei HT4U verstanden habe ist die GPU last höher.
aufkrawall
2014-03-18, 21:49:08
HT4U schreiben, dass es im Spiel ähnlich fordernde Szenen gibt.
Der Bench hat zwar auch höhere GPU-Anforderungen als der Durchschnitt des Spiels, die CPU-Last ist aber unnatürlich hoch.
Das ist zu Beginn mit meinem 2500k@4,8Ghz in 720p bei ~55fps, und in der Szene ist fast nichts los.
Sieh es ein, dass der Benchmark nur ein Mantle-Showcase oder allgemein unbrauchbar ist.
Iruwen
2014-03-18, 23:30:22
Warum haben sie da auch nochmal ausgerechnet die alte UE3 verwurstet?
merfu
2014-03-19, 01:18:17
Geld, vielleicht bestehende Lizenzvertraege und Erfahrung der Mitarbeiter in dem Projekt. Vielleicht auch ein anderer.
Langenscheiss
2014-03-19, 01:44:01
Da ich die Sache mit Thief jetzt nicht so mitbekommen habe: Gibt es denn nur den spielinternen Benchmark als Möglichkeit, Mantle zu testen? Gibt es nicht mal einen Framecounter für das Spiel unter Mantle a la BF4?
Knuddelbearli
2014-03-19, 02:24:25
Nein
Schaffe89
2014-03-19, 06:14:27
Integrierte Benchmark ist sehr GPU lastig im eigentlich Spiel sollte da dann deutlich mehr bei herrumkommen.
Genau das Gegenteil ist der Fall, imho.
ShadowXX
2014-03-19, 08:11:11
Genau das Gegenteil ist der Fall, imho.
Knuddelbearli steht mit seiner Meinung da auch ziemlich alleine da. Wie aufkrawall schon schrieb: ja, der Benchmark ist auch etwas GPU-fordernder als Ingame, aber die CPU-Last des Benches toppt das um längen und ist wie benfalls schon erwähnt "unnatürlich" (und nicht mehr so im Game anzutreffen).
Der Bench ist ein reine Mantle-Showcase....erinnert stark an die Swarm-Demo.
Gaestle
2014-03-19, 08:11:19
Warum haben sie da auch nochmal ausgerechnet die alte UE3 verwurstet?
Geld, vielleicht bestehende Lizenzvertraege und Erfahrung der Mitarbeiter in dem Projekt. Vielleicht auch ein anderer.
Die Arbeiten an Thief begannen ca. 2008/09, da war noch keine UE4 am Horizont zu sehen. Zu dem Zeitpunkt war UE3 absolut "state-of-the-art" und keine Alternativen in Sicht. Als UE4 angekündigt/einsatzbereit/lizensierbar wurde (Mai 2012), war Thief dann schon im Entwicklungsprozess zu weit, um noch die Engine zu wechseln. Wäre sonst vielleicht ein "Thief Forever" geworden.
Der Bench ist ein reine Mantle-Showcase....erinnert stark an die Swarm-Demo.
IMHO Jain. Es ist ein Showcase, aber vermutlich anders als bei StarSwarm.
Loeschzwerg
2014-03-19, 09:05:51
Die Arbeiten an Thief begannen ca. 2008/09,
Was haben die so lange gemacht?! Da ist doch ordentlich was schief gelaufen :freak:
Gaestle
2014-03-19, 10:08:13
Was haben die so lange gemacht?! Da ist doch ordentlich was schief gelaufen :freak:
Mal abgesehen davon, das 5-6 Jahre Entwicklungszeit nicht extrem ungewöhnlich sind (andere Games brauchten und brauchen auch so lange), ist das im Thief-Thread eigentlich besser aufgehoben.
Am Anfang war man sich wohl nicht ganz klar, wie man welche Spielmechaniken implementiert und auch das grundsätzliche Setting. Zwischendurch wurde wohl die Entwicklung nochmal mindestens nachjustiert.
Bei den heutigen Produktionsbudgets erwarte ich, das sowas in Zukunft häufiger vorkommen wird um Risiken zu minimieren. Man ist mindestens in den "großen Fließband-Studios" in der Projektentwicklung und -umsetzung spürbar professioneller geworden, das schließt eine professionelle Evaluation von Zwischenschritten mit ein. Es muss bereits Ende 2010 eine umfassende interne Evaluation des damaligen Standes der Entwicklung von Thief gegeben haben, inkl. externer Testspielern, zumindest interpretiere ich das jetzt im Nachhinein in die damaligen Meldungen wie die folgende vom Februar 2011:
http://metro.co.uk/2011/02/27/first-thief-4-screenshot-leaked-out-641492/
Der ursprüngliche Producer hatte sowas in einem Interview auch mal angedeutet.
Aber generell werden Games nicht mal eben in zwei Jahren zusammengeklatscht.
Unicous
2014-03-19, 10:17:23
Ich würde die 5-6 Jahre "Entwicklungszeit" nicht so eng sehen.
Man kann da bei solchen Blockbuster ruhig ein Jahr abziehen, das geht dann für die Planungsphase des Product Managers drauf.:wink:
Heutzutage muss man vorher wissen, wie man ein Produkt vermarktet. Und dann wird erst einmal Marktforschung betrieben. Und das zieht sich. Währenddessen gibts vllt. eine Rumpfmannschaft, die Prototyen produziert, aber das wars auch schon.
Loeschzwerg
2014-03-19, 12:41:00
Blockbuster... naja. Wenn ein GTA-V 5 Jahre, ein Skyrim 4 Jahre hat und ein Dishonored knapp über 3 Jahre, dann braucht ein Thief eigentlich nicht 5-6 Jahre bei so einem "geringen" Umfang. Ergo hat es bei der Entwicklung Probleme gegeben (nichts anderes wollte ich zum Ausdruck bringen).
Edit: Es kann immer was schiefgehen, mich wundert es dabei eigentlich nur, warum man noch Mantle angeflanscht hat. Bei BF4 oder "speziellen" Star Swarm Engine sehe ich es ja noch ein, aber hier? Dann doch lieber den vollen TrueAudio Umfang (was hier im wesentlichen im Sinne der Spieler sein sollte).
Rache Klos
2014-03-19, 15:25:59
Ich finde es schon wirklich Geil, wie man Jahre später nachdem es schon mal gute Audio APIs und sogar Soundchips mit entsprechenden DSPs gab. Wer sich mal ein paar Spiele anschaut (bzw. anhört) die mit EAX oder OpenAL die Hardware den nutzen aus der Hardware von Creative zogen, der weiß das alles was heute geboten wird eigentlich nur zum schmunzeln ist. Selbst unterschiedlichste Materialien konnten ohne CPU Last akustisch berechnet werden, es war schon faszinierend dass man bei einigen Spielen vor 10 Jahren durchaus den Eindruck hatte der Raum wäre akustisch gesehen echt. So etwas habe ich aber bei keinem der Grafikbomber der letzten Jahre erleben dürfen, zwar hört sich der Sound wenn man die Samples betrachtet bei Blockbustern wie BF4 gigantisch an, wer aber vernünftige akustische Modelle sucht der wird diese nicht finden. Es knallt und bufft halt extrem, was dann selbst die heutigen Spieletester als "tollen" Sound bezeichnen. Aber selbst olle Spiele auf der Source Classic Enginge ala Counter Strike 1.6 boten da schon mehr, auch wenn es da halt weniger "realistische" Geräusche zu hören gab. Oder wenn ich mich da mal an Unreal erinnere, wie genial da teilweise die Halleffekte bzw. auch die Ortung von Geräuschen war.
Aber man merke, man streicht einfach schleichend irgendwas weg, dann kann man es der neuen Generation Jahre später als super neues tolles wieder verkaufen. Nur schade dass das alles wieder mal ein Hersteller treibt, was letztendlich nur dazu führt dass es sich entweder nicht durchsetzt oder die Lager spaltet. Schon seltsam dass es aber schon ewige Zeit offene Schnittstellen gibt, die man durchaus nutzen könnte um entweder eine dedizierte Soundkarte oder halt eine Grafikkarte für die Berechnung nutzen kann.
blaidd
2014-03-19, 21:20:36
Der Thief-Benchmark ist zwar eindeutig auf Mantle ausgelegt (hohe CPU-Last) und nicht spielrelevant, aber ein paar interessante Einsichten bringt er schon:
Gott, die Performance unter DX ist grottig...:freak:
Sinnige Mehrkernskalierung? Nö. Und HT wirkt wie ein Anker, den man der CPU ans Bein gebunden hat (Intel 4C/8T). Bei FX-Prozessoren mit 4 Modulen kann man die Hälfte getrost abschalten, hat praktisch keine Auswirkung auf die Performance. Unter Mantle dagegen skaliert die Engine gut.
Folge: AMD FX 8350 @ Stock (Mantle) versägt einen Core i7-3770K (4C/8T) @ 4,5 GHz (DX) gnadenlos.
Entweder die Entwickler waren bei der DX-Optimierung stinkfaul, oder DX11 ist gegenüber Mantle wirklich ein hoffnungsloser Clusterfuck.
Unicous
2014-03-19, 22:19:35
Nanu? Keiner was mitbekommen?
Boom, shake shake the room!
GDC 14: CRYENGINE To Support Mantle, AMD Gets Another Endorsement (http://www.pcper.com/news/General-Tech/GDC-14-CRYENGINE-Support-Mantle-AMD-Gets-Another-Endorsement)
Here at GDC, AMD told us they have expanded the number of beta Mantle members dramatically with plenty more applications (dozens) in waiting. Obviously this could put a lot of strain on AMD for Mantle support and maintenance but representatives assure us that the major work of building out documentation and development tools is nearly 100% behind them.
dargo
2014-03-19, 22:22:28
Folge: AMD FX 8350 @ Stock (Mantle) versägt einen Core i7-3770K (4C/8T) @ 4,5 GHz (DX) gnadenlos.
Gibts dazu auch einen Link? :)
M4xw0lf
2014-03-19, 22:25:48
Nanu? Keiner was mitbekommen?
Boom, shake shake the room!
GDC 14: CRYENGINE To Support Mantle, AMD Gets Another Endorsement (http://www.pcper.com/news/General-Tech/GDC-14-CRYENGINE-Support-Mantle-AMD-Gets-Another-Endorsement)
Öha, das ist doch was. Konnte man nach der Star Citizen-Ankündigung ja schon drauf hoffen. Jetzt fehlt noch die UE4 ^^
blaidd
2014-03-19, 22:26:33
Nanu? Keiner was mitbekommen?
Boom, shake shake the room!
GDC 14: CRYENGINE To Support Mantle, AMD Gets Another Endorsement (http://www.pcper.com/news/General-Tech/GDC-14-CRYENGINE-Support-Mantle-AMD-Gets-Another-Endorsement)
Cool, Danke. Hab ich aber mit gerechnet ;) Macht einfach Sinn.
Gibts dazu auch einen Link? :)
Ein Heft ;) Vielleicht pack ich noch was in den Online-Artikel, aber sicher nicht alles... =)
Unicous
2014-03-19, 22:48:47
Übrigens wurde ich ja letztens noch schräg von der Seite angemacht, als ich spekuliert habe, dass Kingdom Come vllt. von Chris Roberts und Co. Mantle übergeholfen bekommt. Ich bin der Meinung die Chancen haben sich nochmals erhöht. :)
Screemer
2014-03-19, 22:57:45
schreib aber bitte nicht in den artikel, dass es "Sinn macht" dadurch ergibt der satz naemlich keinen.
unity und ut4 fehlen jetzt nur noch von den großen, oder?
blaidd
2014-03-19, 22:58:03
Übrigens wurde ich ja letztens noch schräg von der Seite angemacht, als ich spekuliert habe, dass Kingdom Come vllt. von Chris Roberts und Co. Mantle übergeholfen bekommt. Ich bin der Meinung die Chancen haben sich nochmals erhöht. :)
Bei den Entwicklern von Kingdome Come hör ich definitiv mal nach. Die sind mit der ganzen Engine-Entwicklung eh noch relativ am Anfang und bei so einem offenen Spiel würde Mantle sicher einen Gewinn bringen :)
schreib aber bitte nicht in den artikel, dass es "Sinn macht" dadurch ergibt der satz naemlich keinen.
unity und ut4 fehlen jetzt nur noch von den großen, oder?
Der besprochene Artikel dreht sich um die DX-Performance von Thief. ;) Ein bisschen mehr Mühe würde ich mir aber wohl machen. :tongue:
Außerdem, warum sollte es keinen Sinn machen? AMD werkelt sowieso an der CryEngine (Ruby-Demo) und Star Citizen wird auch Mantle nutzen... Klingt eher unsinnig, die dort schon gesammelten oder noch zu erwartenden Erfahrungen bezüglich der Engine zu ignorieren...
Unicous
2014-03-19, 23:14:00
Makes Sense= Ergibt Sinn. Ich denke mal darauf wollte er hinaus.
Ich sage das aber auch ständig, daher finde ich das ein bißchen "Nazi grammar- mäßig".
Und danke fürs Nachfragen.
@Screemer
Ich habe irgendwie das Gefühl, dass Nvidia zu tief im Po von Epic steckt, als das sie es wagen AMD zu endorsen.
Außerdem, warum sollte es keinen Sinn machen?
Das sollte wohl eher eine Anspielung auf die Unart sein, "make sense" in die deutsche Sprache hineinzuvergewaltigen, was offensichtlich in der Presse nichts verloren hat.
Edit meint: zu spät
fondness
2014-03-19, 23:25:00
War fast klar das die CRYENGINE auch Mantle unterstützen wird, das konnte man fast schon zwischen den Zeilen lesen. Trotzdem sehr nice :)
http://s23.postimg.org/ujli7o8u3/Bj_Hm45m_CUAAl_MEV.jpg (http://postimage.org/)
Plus:
Here at GDC, AMD told us they have expanded the number of beta Mantle members dramatically with plenty more applications (dozens) in waiting. Obviously this could put a lot of strain on AMD for Mantle support and maintenance but representatives assure us that the major work of building out documentation and development tools is nearly 100% behind them.
http://www.pcper.com/news/General-Tech/GDC-14-CRYENGINE-Support-Mantle-AMD-Gets-Another-Endorsement
BTW:
My techy tech talk "Rendering Battlefield 4 with Mantle" is starting in a few min. Room is packed!
https://twitter.com/repi/status/446412660683177984
Mantle beta program for developers announced. After that Mantle will be public!
https://twitter.com/repi/status/446402134213275648
http://s23.postimg.org/9hgxfle4b/Bj_Hw_YDPCEAAIg_JQ_jpg_large.jpg (http://postimage.org/)
Breegalad
2014-03-20, 01:13:31
das Abwürgen von CreativLabs und Streichung des Gameports ab Vista sind Punkte, die ich MS ewig übel nehmen werde.
Ich weiß heute noch, wie ich in UnrealTournament zusammengezuckt bin, als die scharfen Wurfscheiben hinter mir an der Wand abprallten und direkt am linken Ohr vorbei zischten.
das 4.0-Sytem von damals klang räumlicher als meine heutigen 5.1-Systeme.
Akkarin
2014-03-20, 04:06:38
Das sollte wohl eher eine Anspielung auf die Unart sein, "make sense" in die deutsche Sprache hineinzuvergewaltigen, was offensichtlich in der Presse nichts verloren hat.
Edit meint: zu spät
Sorry für das OT, aber "sinn machen" macht auch im deutschen Sinn: http://www.iaas.uni-bremen.de/sprachblog/2007/10/01/sinnesfreuden-i/index.html
Der Author (der inzwischen Prof für anglistische Philologie an der Humbold uni in Berlin ist) hat auch noch n paar andre Artikel drüber geschrieben.
Screemer
2014-03-20, 04:50:19
diesen artikel kenn ich durchaus, denn er wird immer wieder verlinkt. für mich ist es jedoch eine unart. zumindest ist es keine abart aber doch schlicht nicht elegant. das muss die presse bei ihren texten scheinbar auch nicht mehr sein. umgangssprachlich wird es sicherlich seit ende des zweiten weltkriegs, durch vermeintliche übernahme aus dem englischen der besatzungmächte, und in der schriftsprache seit den 1960ern gebraucht, teils auch sehr viel früher (Göthe, Luther, etc.). der gebrauch ist in onlinezeiten zumindest nach meinem dafürhalten massiv angestiegen. wie man an meinem satzbau und meiner art zu tippen sieht, kann man mich auch nicht gerade als "grammar-nazi" bezeichnen. mit der meinung stehe ich, wenn man nach den kommentaren geht, auch nicht alleine da. darf jedoch jeder gerne halten wie er möchte.
nun aber zurück zum topic, wie man neudeutsch doch sagt ;)
Schaffe89
2014-03-20, 07:14:40
Könnte ja doch noch was mit Mantle werden. O.O
fondness
2014-03-20, 09:09:28
Nur mal um die Tragweite dieser Entscheidung zu verdeutlichen: nicht weniger als 35 Studios haben die cryengine Bis dato lizenziert und es sind nicht weniger als 50 spielen damit in Entwicklung.
M4xw0lf
2014-03-20, 09:12:44
Und die Unreal Engine? :naughty:
(rhetorische Frage :tongue:)
dargo
2014-03-20, 09:17:47
Und die Unreal Engine? :naughty:
(rhetorische Frage :tongue:)
Naja... die UE4 ist momentan noch ziemlich unbedeutend. Kommt Zeit, kommt Rat. Mir wäre es wichtiger wenn Mantle für Spiele wie bsw. Watch Dogs kommt. Bei solchen Open World Spielen macht Mantle besonders Sinn.
Yep-Mein Traum wäre ein GTA V + Watch Dogs mit Mantle :rolleyes:
fondness
2014-03-20, 09:29:01
Die UE4 wird zumindest aktuell überschätzt. EA der größten Abnehmer der UE3 hat jetzt frostbite mit Mantle. Auch andere große publisher wie ubi zimmern sich ihre eigene engine zusammen. Mal sehen wie es in ein paar Jahren aussieht aber aktuell ist es seit der Ankündigung erstaunlich ruhig.
Locuza
2014-03-20, 09:29:43
Und die Unreal Engine? :naughty:
Die sollte bald ebenso Support bekommen, da EPIC bekanntlich sehr Radeon affin ist, siehe Tim Sweeneys Aussage:
Epic developed Unreal Engine 4 on NVIDIA hardware, and it looks and runs best on GeForce
dargo
2014-03-20, 09:41:28
Die UE4 wird zumindest aktuell überschätzt. EA der größten Abnehmer der UE3 hat jetzt frostbite mit Mantle. Auch andere große publisher wie ubi zimmern sich ihre eigene engine zusammen. Mal sehen wie es in ein paar Jahren aussieht aber aktuell ist es seit der Ankündigung erstaunlich ruhig.
Ja... so sehe ich das auch. Diese Entwicklung der eigenen Engine finde ich sogar recht positiv. Imho war der Markt mit UE3 zu übersättigt. Fast alles sah mehr oder weniger gleich aus wo UE3 drauf stand. Fand ich irgendwann zu eintönig. Zumal ich auch kein Freund der UE3 (bis auf sehr wenige Ausnahmen) war was das visuelle Ergebnis betraff.
Mich wundern aber die vielen CE3 Spiele die da angeblich in Mache sind. Hast du dazu eine Quelle?
dildo4u
2014-03-20, 09:46:12
Mich wundern aber die vielen CE3 Spiele die da angeblich in Mache sind. Hast du dazu eine Quelle?
Hauptsächlich Müll MMO's aus China.
Loeschzwerg
2014-03-20, 10:02:37
Könnte ja doch noch was mit Mantle werden. O.O
Hängt davon ab was AMD weiter mit Mantle macht bzw. wie es sich weiterentwickelt., sonst ist spätestens ab DX12 schluss. 3dfx Glide passt hier momentan wie die Faust aufs Auge.
Edit: GTA-V / Watch Dogs mit Mantle sehe ich nur wenn diese Studios ihre Engines erweitern.
@Screemer: Nur am Rande, wenn die Mehrheit es falsch macht, die Bedeutung dahinter aber richtig ist, ist es dann noch falsch? ;D:D Stört mich weiter weniger als so manche Jugendsprache :freak:
fondness
2014-03-20, 10:02:53
Mich wundern aber die vielen CE3 Spiele die da angeblich in Mache sind. Hast du dazu eine Quelle?
Ich habe es gerade in einem Forbes Artikel gelesen:
It’s a safe argument to make that DICE and Crytek power some of the most technically advanced video games out there between Battlefield 4 and Crysis 3. But Crytek’s Cryengine is also licensed out to more than 35 studios at last count, encompassing more than 50 games.
http://www.forbes.com/sites/jasonevangelho/2014/03/19/exclusive-amds-matt-skynner-talks-new-crytek-partnership-mantles-beacon-of-leadership/
Da scheinen schon ein paar nette Sache dabei zu sein, zumindest die Grafik finde ich genial:
MShEe8twY6g
iICzbDBeZ7U
M4xw0lf
2014-03-20, 10:12:39
Die sollte bald ebenso Support bekommen, da EPIC bekanntlich sehr Radeon affin ist, siehe Tim Sweeneys Aussage:
Yeah... :rolleyes: Ist schon recht traurig. Ob die überhaupt schon von Mantle gehört haben? :freak:
Unicous
2014-03-20, 11:33:42
Die sollte bald ebenso Support bekommen, da EPIC bekanntlich sehr Radeon affin ist, siehe Tim Sweeneys Aussage:
:biggrin:
Dieses Angebiedere finde ich schon ganz schön eklig. Ich weiß ja nicht inwieweit Nvidia epic über Wasser hält denn da kommt ja seit Ewigkeiten nichts mehr außer dem super duper geilen (gähn) Fortnite und die neue Engine ist ja auch nicht so der Blockbuster, und einige Studios haben sind ja sogar abgesprungen und haben sich für Frostbite bzw. CryEngine entschieden.
Schade, dass man als Engine-Entwickler da keine Neutralität wahren kann und mit solchen Aussagen auf den Putz haut.
@M4xw0lf
Tim Sweeney hat doch beim N'sync äääh G-Sync Event gesagt, er findets nicht schlecht aber er will nicht zig APIs unterstützen müssen und OpenGL ist auch ganz toll. So in etwa. Die Zeiten der Vorreiterrolle der Unreal Engine ist damit wohl vorbei.
N0Thing
2014-03-20, 11:47:59
Da scheinen schon ein paar nette Sache dabei zu sein, zumindest die Grafik finde ich genial:
http://youtu.be/MShEe8twY6g
Das scheinen mir größtenteils aber keine Spiele, sondern einzelne Level-Showcases zu sein.
Aber an Spielen ist mit Star Citizen, Kingdom come und Evolve (wußte ich gar nicht, daß die auf die CE setzen) ja Vielversprechendes im Anmarsch.
Iruwen
2014-03-20, 12:21:25
Nur am Rande, wenn die Mehrheit es falsch macht, die Bedeutung dahinter aber richtig ist, ist es dann noch falsch?
Ja.
Loeschzwerg
2014-03-20, 12:35:34
Ja.
Nope, denn wenn dieser Fall eintritt ändert sich irgendwann auch die Definition :smile: Aber genug OT ^^
Zu CE: Nur weil das SDK bald Mantle Unterstützung hat, müssen auch alle Spiele mit dieser Engine Mantle Unterstützung haben?
-/\-CruNcher-/\-
2014-03-20, 12:36:43
Das scheinen mir größtenteils aber keine Spiele, sondern einzelne Level-Showcases zu sein.
Aber an Spielen ist mit Star Citizen, Kingdom come und Evolve (wußte ich gar nicht, daß die auf die CE setzen) ja Vielversprechendes im Anmarsch.
Irgendwie errinere ich mich noch das Evolve mit Source Engine wie Titanfal geplannt war ;)
Demirug
2014-03-20, 12:40:18
Zu CE: Nur weil das SDK bald Mantle Unterstützung hat, müssen auch alle Spiele mit dieser Engine Mantle Unterstützung haben?
Nicht zwingend. Wenn man den Sourcecode der Engine hat kann man ja im Prinzip selbst entscheiden was man benutzt und was nicht.
Dalai-lamer
2014-03-20, 17:20:20
Eigentlich muss man mantle so sehen: es senkt die CPU Anforderungen teilweise drastisch. Das bedeutet ein CPU oder systemupgrade kann nach hinten geschoben werden und es lohnt sich eher eine neue leistungsstarke Grafikkarte. So gewinnt amd doch ;) also mit marke würde meine CPU noch lange reichen und sich eher ein hup Update lohnen..
fondness
2014-03-20, 18:15:19
Präsentation von Andersson: Rendering Battlefield 4 with Mantle
http://www.frostbite.com/2014/03/rendering-battlefield-4-with-mantle/
aufkrawall
2014-03-20, 19:59:45
Verbraucht es jetzt immer noch mehr VRAM als D3D (bei BF & Thief) und wenn ja, warum?
blaidd
2014-03-20, 20:38:17
Verbraucht es jetzt immer noch mehr VRAM als D3D (bei BF & Thief) und wenn ja, warum?
Zumindest in Thief (gerade gemessen) eindeutig ja. Laut AMD ist das Speichermanagement noch nicht vollständig optimiert.
Aber in Thief kratzen auch Nvidia-Karten unter DX mit 2 GiByte ab. Das Spiel ist eine Speichersau. Unter Mantle ist's aber noch eine Ecke heftiger.
aufkrawall
2014-03-20, 20:40:34
Danke. Na gut, ist halt noch beta.
Ich mecker dann, wenns final ist. :cool:
M4xw0lf
2014-03-20, 20:45:17
Was gibts am VRAM-Verbrauch zu meckern? Hat man f*cking 4GB von dem Zeug, damit dann nur 2GB belegt werden? Wenn hohe Belegung Teil des leistungssteigernden Pakets ist, so what.
Loeschzwerg
2014-03-20, 20:51:59
So, jetzt ist sind DX12 Games, nach der Ankündigung von MS, gut geschätzt 1 1/2 Jahre weg. Wir haben momentan 2 Mantle Spiele und ne Hand voll (nicht alle AAA) die angekündigt sind.
Wie lange schätzt ihr die Lebensdauer von Mantle ein oder wird es sogar überdauern?
Meine persönliche Einschätzung: So schnell wie Mantle gekommen ist verschwindet es auch wieder. Grund: Intel/NV spielen bei Mantle nicht mit und MS stellt, mit der Ankündigung von DX12, genau diese breite Marktbasis (AMD, NV, Intel) in Aussicht. Jetzt kommen gerade noch die angekündigten Spiele mit Mantle Support und danach macht sich keiner mehr die Mühe auf diese Sonderlocke zu setzen.
Wichtig für AMD wäre nun Mantle schnell weiter voranzubringen mit weiteren deutlichen Verbesserungen. Ob das so einfach möglich ist kann ich nicht beurteilen.
blaidd
2014-03-20, 21:02:40
So, jetzt ist sind DX12 Games, nach der Ankündigung von MS, gut geschätzt 1 1/2 Jahre weg. Wir haben momentan 2 Mantle Spiele und ne Hand voll (nicht alle AAA) die angekündigt sind.
Wie lange schätzt ihr die Lebensdauer von Mantle ein oder wird es sogar überdauern?
Meine persönliche Einschätzung: So schnell wie Mantle gekommen ist verschwindet es auch wieder. Grund: Intel/NV spielen bei Mantle nicht mit und MS stellt, mit der Ankündigung von DX12, genau diese breite Marktbasis (AMD, NV, Intel) in Aussicht. Jetzt kommen gerade noch die angekündigten Spiele mit Mantle Support und danach macht sich keiner mehr die Mühe auf diese Sonderlocke zu setzen.
Wichtig für AMD wäre nun Mantle schnell weiter voranzubringen mit weiteren deutlichen Verbesserungen. Ob das so einfach möglich ist kann ich nicht beurteilen.
Andere Möglichkeit: Mantle geht dank sehr ähnlicher Struktur später in DX12 über. AMD sitzt ja auch im DX-Gremium und sie könnten mit entsprechenden Updates an ihrer API vielleicht Kompatiblität zu DX12 erzielen. Was das bringt? Schätzungsweise ein gutes Jahr Entwicklungsvorsprung für AMD. Und bei Bedarf könnte man Mantle parallel weiterentwickeln und sich eventuell wieder von DX12 lösen, wenn MS sich mal wieder als schnarchnasig erweist. -Zugegeben, dass ist wilde Spekulation und ich habe nicht viel Ahnung von effizienter Firmenführung, aber aus meiner Sicht wäre das ein intelligenter Schachzug.
Danke. Na gut, ist halt noch beta.
Ich mecker dann, wenns final ist. :cool:
Du meckerst doch immer :biggrin: Ist ja auch in Ordnung so.
Akkarin
2014-03-20, 21:04:49
Sollte Mantle für Linux geportet werden und es mehr Linux spiele geben könnte es auch mit DX12 überleben.
Unicous
2014-03-20, 21:12:05
@Loeschzwerg
Das hängt doch auch von dem "Erfolg" von Windows 8 bzw. dann sicherlich schon 9 ab (falls sich es bewahrheiten sollte, dass es 2015 schon eine neue Version geben sollte).
Nach anderthalb Jahren ist Windows 8 jetzt bei ca. 10% angelangt (aller PC-Betriebssysteme). Windows 7 liegt bei 47%, Windows XP bei 29%.
Bei der nicht representativen Steam-Umfrage sind es für beide Win 7 Versionen insgesamt ca. 63%!!! Die verschiedenen Windows 8 Versionen samt .1 liegen bei ca. 22%. Gleichzeitig verliert aber Win7 kaum an Marktanteil eher kannibalisiert Win 8.1 seinen kleinen Bruder.
Mantle läuft auch auf Windows 7. Ein großer Pluspunkt. Ob DirectX 12 überhaupt auf Windows 8 bzw. 8.1. läuft wissen wir weiterhin nicht. Gerade da hat man überhaupt keine Aussage getroffen. Auf die Frage nach Windows 7 sagten sie, wie äußern uns dazu nicht aber sie "verstehen" die Nachfrage.
Den Totengesang auf Mantle würde ich weiterhin noch nicht anstimmen.
edit:
Akkarin. Genau. Das kommt noch hinzu. Und wenn man Qualcomm noch ins Boot holt, könnte man das sogar auf den Mobil-Markt übertragen und das mit HSA verknüpfen.
Loeschzwerg
2014-03-20, 21:16:43
Andere Möglichkeit: Mantle geht dank sehr ähnlicher Struktur später in DX12 über. AMD sitzt ja auch im DX-Gremium und sie könnten mit entsprechenden Updates an ihrer API vielleicht Kompatiblität zu DX12 erzielen. Was das bringt? Schätzungsweise ein gutes Jahr Entwicklungsvorsprung für AMD. Und bei Bedarf könnte man Mantle parallel weiterentwickeln und sich eventuell wieder von DX12 lösen, wenn MS sich mal wieder als schnarchnasig erweist. -Zugegeben, dass ist wilde Spekulation und ich habe nicht viel Ahnung von effizienter Firmenführung, aber aus meiner Sicht wäre das ein intelligenter Schachzug.
AMD wird jetzt schon einen guten Brocken an Arbeit erspart bleiben im Hinblick auf DX12 Support, den Punkt haben sie sicher :) Evtl. geplante Updates von Mantle in DX12 sehe ich kritisch, wenn es Intel/NV nicht passt bzw. hier von Seiten HW nachgebessert werden müsste. Dürfte dann zu 100% geblockt und nach hinten verschoben werden. Business as usual :freak:
Wieder von DX lösen zieht dann nur wenn es wieder einen großen Vorteil gibt, wie gerade aktuell. Wie vorher schon geschrieben kann ich das aber nicht ganz abschätzen. Das Problem wäre im Best-Case wie momentan und dabei schließt man einen großen Teil des Marktes aus.
Linux wäre vielleicht eine Chance wenn Valve gleich darauf anspringt, sonst eher weniger. Wobei ein weiterer Win 8 ähnlicher Fail von MS die Chancen weiter verbessern könnte.
Mantle läuft auch auf Windows 7. Ein großer Pluspunkt. Ob DirectX 12 überhaupt auf Windows 8 bzw. 8.1. läuft wissen wir weiterhin nicht.
MS hat diesbezüglich vermutlich selber noch keinen Plan. Wenn 8/8.1 (das Update auf 8.1 ist ja eh gratis) gesamt immer noch bei diesem geringen Martkanteil bleibt, sehe ich auch kein Problem DX12 nur für Win 9 zu bringen. Vorausgesetzt MS macht mit Win 9 nicht ähnlich grobe Fehler wie bei Win 8, die User müssen dann von Win 7 umsteigen wollen.
Aber selbst mit DX11 sehe ich Mantle noch lange nicht als Gewinner, denn Mantle zieht einfach nicht in jedem Szenario und da bleibt es abzuwarten wie die Entwickler mittelfristig reagieren.
blaidd
2014-03-20, 21:20:49
Linux wäre vielleicht eine Chance wenn Valve gleich darauf anspringt, sonst eher weniger. Wobei ein weiterer Win 8 ähnlicher Fail von MS die Chancen weiter verbessern könnte.
Cryengine nicht vergessen ;-)
Linux (http://www.crytek.com/news/conference-attendees-can-also-see-a-brand-new-mobile-game-extra-engine-updates-and-much-more-at-crytek-s-booth)
Mantle (http://crytek.com/blog/crytek-partner-with-amd-to-bring-mantle-support-to-cryengine)
aufkrawall
2014-03-20, 21:21:39
Was gibts am VRAM-Verbrauch zu meckern? Hat man f*cking 4GB von dem Zeug, damit dann nur 2GB belegt werden? Wenn hohe Belegung Teil des leistungssteigernden Pakets ist, so what.
Hat AMD neuerdings nur 4GB-Karten im Angebot?
Mit Pitcairn und drunter bist du in solchen Fällen gearscht. Ein nicht ganz unerheblicher Teil der GCN-Karten...
M4xw0lf
2014-03-20, 21:26:14
Hat AMD neuerdings nur 4GB-Karten im Angebot?
Mit Pitcairn und drunter bist du in solchen Fällen gearscht. Ein nicht ganz unerheblicher Teil der GCN-Karten...
Du weißt sicher, dass die 4GB nur eine Platzhalterangabe waren. Ist ja heute noch oft genug so, dass auch bei 2GB und 3GB noch die Hälfte ungenutzt rumgammelt.
Loeschzwerg
2014-03-20, 21:32:37
Cryengine nicht vergessen ;-)
Linux (http://www.crytek.com/news/conference-attendees-can-also-see-a-brand-new-mobile-game-extra-engine-updates-and-much-more-at-crytek-s-booth)
Mantle (http://crytek.com/blog/crytek-partner-with-amd-to-bring-mantle-support-to-cryengine)
Ich wusste dass das kommt :D
Der Support der Engine ist nur leider nicht gleichzusetzen mit "hier kommen auch wirklich alle Spiele welche die Cryengine nutzen" und die Option OpenGL (wichtiger Faktor im Hinblick auf Kundenerreichbarkeit, da Intel/NV an Board sind) gibt es auch :)
Letztendlich das gleiche Spiel wie bei Windows dann auch.
aufkrawall
2014-03-20, 21:34:47
BF4 und erst recht Thief sind Säufer beim VRAM-Verbrauch, da hat man mit 2-3GB nichts zu verschenken.
Abgesehen davon performen Spiele mit hohem VRAM-Verbrauch eher nicht besser oder sehen nicht besser aus als solche mit niedrigerem. So ein Müllhaufen an Code wie bei Thief oder Ghosts ist nicht zu rechtfertigen.
M4xw0lf
2014-03-20, 21:37:16
Wenn aber wie bei BF4 unter Mantle mit dem höheren VRAM-Verbrauch höhere Performance erziehlt wird, dann bitte gerne.
blaidd
2014-03-20, 21:41:17
Thief ist speichertechnisch wirklich alles andere als gut optimiert. Sogar Karten mit 3 GiByte haben da anscheinend Probleme (HD 7970/GTX 780 Ti - Und Raff hat's damit endlich mal geschafft seine 6 Gig vollzuknallen ;)). Ich frage mich langsam, ob Nixxes da vielleicht die Parallax-Maps im RAW-Format reingeknallt haben. Bei Call of Duty hülle ich mich mal lieber ganz in Schweigen.
Ich wusste dass das kommt :D
Der Support der Engine ist nur leider nicht gleichzusetzen mit "hier kommen auch wirklich alle Spiele welche die Cryengine nutzen"
Ja, das stimmt. Aber wenn die Engine die Technik schon von Haus aus unterstützt, dürften die nötigen Anpassungen deutlich schneller zu bewerkstelligen sein. ;)
aufkrawall
2014-03-20, 21:42:08
Läuft denn BF4 in 1440p denn mit Mantle noch auf Pitcairn?
Mit den fps wollen sich einige immerhin SP-Spiele geben.
Unicous
2014-03-20, 21:47:08
@Loeschzwerg
Natürlich gibt es OpenGL auch noch.
Aber wenn ich die Möglichkeit habe ein Spiel von Windows auf Linux (oder umgekehrt) zu portieren und dann auch noch Ähnlichkeiten zu DX12, Xbox One und vllt. sogar PS4 habe, bietet es sich doch an gleich auf Mantle zu setzen.
Und genau das ist ja AMDs Begehr von Anfang an gewesen. Eine
Multiplattform-API von der man schnell effizient und kostengünstig/-neutral portieren kann. Da AMD kein gemeinnütziger Verein ist, hat man natürlich auch im Sinn damit Grafikkarten- und Konsolenverkäufe anzukurbeln.
Microsoft hat ja gleich dazwischengefunkt und festgestellt: Mantle, pfff. Nicht mit uns, Freundchen. Aber das heißt ja nicht, das andere Betriebssysteme sich nicht damit nicht anfreunden könnten.
blaidd
2014-03-20, 21:48:07
Läuft denn BF4 in 1440p denn mit Mantle noch auf Pitcairn?
Mit den fps wollen sich einige immerhin SP-Spiele geben.
Ich werd das definitv mal checken. Nächste Woche kommt ja schon Naval Strike, da darf ich mit Sicherheit sowieso benchen.
Wer sonst noch Wünsche/Verbesserungsvorschläge hat, bitte jetzt melden, nicht erst, wenn ich mich stundenlang hab über den Haufen schießen lassen. :tongue:
aufkrawall
2014-03-20, 21:51:57
Danke. :)
Wahnsinnig interessant fände ich natürlich einen BF4 MP-Test mit 4650k@4,4Ghz, Win 8.1 290x vs 780 Ti DX11.1 & beide @1Ghz. :freak:
Akkarin
2014-03-20, 21:53:53
Wer nen 1440p monitor hat spielt nicht auf Pitcairn, deswegen ist die Fragestellung mMn unnötig.
Wer nen 1440p monitor hat spielt nicht auf Pitcairn, deswegen ist die Fragestellung mMn unnötig.
Ich hab ne 7850 und einen 1440p Monitor.
M4xw0lf
2014-03-20, 21:58:23
Ich werd das definitv mal checken. Nächste Woche kommt ja schon Naval Strike, da darf ich mit Sicherheit sowieso benchen.
Wer sonst noch Wünsche/Verbesserungsvorschläge hat, bitte jetzt melden, nicht erst, wenn ich mich stundenlang hab über den Haufen schießen lassen. :tongue:
Lahmere Karten mit lahmeren CPUs paaren ^^
Wenigstens mal ein Beispiel, zb R9 270X nicht nur @3770K oder was die Standard-CPU sein wird, sondern zusätzlich mit einer langsameren aber noch verbreiteten CPU - beispielsweise Phenom II X4/X6 oder ältere i5 und i7, aus der Sandy Bridge-, Westmere-, oder Nehalem-Generation.
Oder ein größerer Quervergleich mit sowohl R9 290X als auch R9 270X gepaart mit den genannten älteren und aktuellen CPUs... am besten ketten wir dich einfach für ne Woche im Testlabor fest, damit dich nichts vom Testen ablenkt :ugly:
blaidd
2014-03-20, 22:20:29
Danke. :)
Wahnsinnig interessant fände ich natürlich einen BF4 MP-Test mit 4650k@4,4Ghz, Win 8.1 290x vs 780 Ti DX11.1 & beide @1Ghz. :freak:
Das ist ein bisschen arg speziell. :tongue:
Aber zumindest einen Win-8.1-Vergleich mache ich nach Möglichkeit Zumindest mit den leistungsfähigsten Karten. Ich hab mir sowieso schon überlegt, ob ich nicht eine "Special"-Kategorie als zusätzlichen Benchmark machen soll. Zeitlich ist es leider nicht drin, bei so einem Multiplayer-Schlachtet-den-Idioten-der-immer-die-gleiche-Route-läuft-Benchmark plus Mantle-Frametime-Auswertungen, alle GPUs nochmals durchzunudeln, aber ein paar Extras lassen sich wohl einbauen (jedenfalls, wenn es nicht wieder Treiber-Fuck-Ups wie die verbuggte Lüftersteuerung in Second Assault gibt... 20 Stunden hat mich der Mist insgesamt gekostet...An einem Arbeitstag!).
Lahmere Karten mit lahmeren CPUs paaren ^^
Wenigstens mal ein Beispiel, zb R9 270X nicht nur @3770K oder was die Standard-CPU sein wird, sondern zusätzlich mit einer langsameren aber noch verbreiteten CPU - beispielsweise Phenom II X4/X6 oder ältere i5 und i7, aus der Sandy Bridge-, Westmere-, oder Nehalem-Generation.
Oder ein größerer Quervergleich mit sowohl R9 290X als auch R9 270X gepaart mit den genannten älteren und aktuellen CPUs... am besten ketten wir dich einfach für ne Woche im Testlabor fest, damit dich nichts vom Testen ablenkt :ugly:
Ist ein bisschen viel :freak: Aber ein Phenom-System wäre eventuell in Kombination mit einer oder zwei Radeons/GTXen drin. Einen lahmen i7 mit einer R9 290X hab ich privat, da könnte ich vielleicht mit leichter Verzögerung noch einen Wert nachliefern.
Ich will auch nicht zu viel versprechen, aber ich versuche das mal. Eventuell fliegt dann aber die eine oder andere Graka raus. GTX 780, GTX 780 Ti /R9 290, R9 290X muss aber auch nicht sein, oder? Jeweils eine sollte doch reichen...?
Gruß,
Phil
dargo
2014-03-20, 22:35:07
Verbraucht es jetzt immer noch mehr VRAM als D3D (bei BF & Thief) und wenn ja, warum?
Wo kommt eigentlich dieses Gerücht her Mantle würde mehr Vram als D3D benötigen? Womit wird das überhaupt erfasst?
aufkrawall
2014-03-20, 22:38:29
Ist die VRAM-Belegung mit Mantle neuerdings unmessbar?
blaidd
2014-03-20, 22:40:48
Wo kommt eigentlich dieses Gerücht her Mantle würde mehr Vram als D3D benötigen? Womit wird das überhaupt erfasst?
Es lässt sich tatsächlich nur die Belegung des Speichers auslesen, nicht der tatsächliche Verbrauch (das saugt, btw.). Bei Thief lässt es sich aber anhand der heftigen Nachladeruckler, die unter Mantle (mit 2 Gig) deutlich häufiger sind, recht deutlich erahnen.
Bei einer GTX 660 kann man es auch unter DX gut beobachten: Sobald 1.5 Gig voll sind und die Karte nur noch das lahme Speicherinterface nutzen kann, krachen die Min-FPS ins bodenlose :)
Ist die VRAM-Belegung mit Mantle neuerdings unmessbar?
Belegung != Verbrauch. Kein Schwein kann mir erzählen, dass Titanfall 4 GiByte Videospeicher für kleine Maps mit ~20 verschiedenen Mid- bis Low-Res Texturen verbrät ;)
dargo
2014-03-20, 22:41:07
Ist die VRAM-Belegung mit Mantle neuerdings unmessbar?
Keine Ahnung, deswegen frage ich auch. Wenn ihr dafür den Arschbrenner oder Ähnliches nehmt dann würde ich mich fragen wie verlässlich so ein Tool überhaupt sein kann wenn der nicht mal in der Lage ist unter Mantle die Frames zu erfassen.
Es lässt sich tatsächlich nur die Belegung des Speichers auslesen, nicht der tatsächliche Verbrauch (das saugt, btw.). Bei Thief lässt es sich aber anhand der heftigen Nachladeruckler, die unter Mantle (mit 2 Gig) deutlich häufiger sind, recht deutlich erahnen.
Bei einer GTX 660 kann man es auch unter DX gut beobachten: Sobald 1.5 Gig voll sind und die Karte nur noch das lahme Speicherinterface nutzen kann, krachen die Min-FPS ins bodenlose :)
Das ist gar nicht meine Frage. Ich habe gefragt womit ihr den Speicherverbrauch @Mantle messt?
aufkrawall
2014-03-20, 22:47:17
Belegung != Verbrauch. Kein Schwein kann mir erzählen, dass Titanfall 4 GiByte Videospeicher für kleine Maps mit ~20 verschiedenen Mid- bis Low-Res Texturen verbrät ;)
Da gälte es mal zu messen, ob es mit vollem VRAM nicht doch häufiger zu Frametime-Spikes kommt. Ich hab das Spiel nicht, kann da also nicht aushelfen, und auch nur 2GB derzeit.
Keine Ahnung, deswegen frage ich auch. Wenn ihr dafür den Arschbrenner oder Ähnliches nehmt dann würde ich mich fragen wie verlässlich so ein Tool überhaupt sein kann wenn der nicht mal in der Lage ist unter Mantle die Frames zu erfassen.
Laut demirug dürfte der ausgelesene Wert nicht falscher sein als bei D3D, weil Mantle nicht außerhalb von WDDM läuft.
blaidd
2014-03-20, 22:47:53
Das ist gar nicht meine Frage. Ich habe gefragt womit ihr den Speicherverbrauch @Mantle messt?
Können wir nicht. Auch unter DX nicht. Mit Tools kann man lediglich die Belegung feststellen. Wir können nur die Symtome bei zu hoher Belastung feststellen. Ohne die Möglichkeit, direkt sehen zu können, wie die Engine auf den Speicher zugreift, wüsste ich auch keine Lösung für dieses Problem... ;(
dargo
2014-03-20, 22:50:17
Können wir nicht. Auch unter DX nicht. Mit Tools kann man lediglich die Belegung feststellen. Wir können nur die Symtome bei zu hoher Belastung feststellen. Ohne die Möglichkeit, direkt sehen zu können, wie die Engine auf den Speicher zugreift, wüsste ich auch keine Lösung für dieses Problem... ;(
Dann frage ich mal anders... womit messt ihr die Vram-Belegung unter Mantle? Ich habe wie gesagt meine Zweifel ob die verfügbare Software überhaupt die Vram-Belegung unter Mantle korrekt erfassen kann. Und natürlich hast du damit vollkommen recht... nur weil x Vram belegt ist heißt es noch lange nicht, dass x Vram nötig ist.
M4xw0lf
2014-03-20, 22:54:29
Eventuell fliegt dann aber die eine oder andere Graka raus. GTX 780, GTX 780 Ti /R9 290, R9 290X muss aber auch nicht sein, oder? Jeweils eine sollte doch reichen...?
Gruß,
Phil
Für mich schon ^^
blaidd
2014-03-20, 23:13:53
Da gälte es mal zu messen, ob es mit vollem VRAM nicht doch häufiger zu Frametime-Spikes kommt. Ich hab das Spiel nicht, kann da also nicht aushelfen, und auch nur 2GB derzeit
Ne, das passt schon, das läuft bei mir auch mit voller Belegung buddahweich. Das wirft nur alles, was möglich ist in den Speicher (der ist dann ja auch sinnvoll genutzt, verringert Latenzen bzw. Ladezeiten). Auch mit einer 1-Gig-Karte kann man noch recht flüssig spielen, zumindest, wenn man auf MSAA verzichtet.
[EDIT:] Okay, das muss ich zumindest teilweise zurücknehmen. Mit 2 GiB oder weniger ist man gearscht.
Aber ich brauche nur ins Spielmenu gehen und bekomme prompt zwei Gigabyte vollgerotzt (siehe Bild). :freak:
Dann frage ich mal anders... womit messt ihr die Vram-Belegung unter Mantle? Ich habe wie gesagt meine Zweifel ob die verfügbare Software überhaupt die Vram-Belegung unter Mantle korrekt erfassen kann. Und natürlich hast du damit vollkommen recht... nur weil x Vram belegt ist heißt es noch lange nicht, dass x Vram nötig ist.
Die Belegung kann man ganz konventionell mit GPU-Z und Konsorten feststellen. Genau wie die Auslastung der GPU (Wie genau das tatsächlich ist, sei dahingestellt, siehe CPU-Auslastung im Task-Manager). Der wirkliche Verbrauch lässt sich leider nicht so einfach messen... Vielleicht gibt es Möglichkeiten, aber dann müsste man wohl direkt auf das Speichermanagement der Engine zurückgreifen können... Vielleicht kann da ja einer unserer Gurus Auskunft drüber geben. :)
Für mich schon ^^
Arsch.^^ [EDIT:] Falsch verstanden ;-)
aufkrawall
2014-03-20, 23:31:37
Ne, das passt schon, das läuft bei mir auch mit voller Belegung buddahweich. Das wirft nur alles, was möglich ist in den Speicher (der ist dann ja auch sinnvoll genutzt, verringert Latenzen bzw. Ladezeiten). Auch mit einer 1-Gig-Karte kann man noch recht flüssig spielen, zumindest, wenn man auf MSAA verzichtet.
Aber ich brauche nur ins Spielmenu gehen und bekomme prompt zwei Gigabyte vollgerotzt (siehe Bild). :freak:
Gut. Ist nur die Frage, ob das wirklich so "smart" ist. FB3 & CE machens mit den aktuellen Spielen jedenfalls nicht.
Vielleicht ist es eine Notlösung, weil das Caching nicht gut genug funktioniert o.ä. Können wir nur spekulieren.
blaidd
2014-03-20, 23:50:07
Gut. Ist nur die Frage, ob das wirklich so "smart" ist. FB3 & CE machens mit den aktuellen Spielen jedenfalls nicht.
Vielleicht ist es eine Notlösung, weil das Caching nicht gut genug funktioniert o.ä. Können wir nur spekulieren.
Stimmt nicht ganz. ;) Zumindest Battlefield 4 speichert unter Mantle während dem Laden die Shader im Speicher, zwecks besserer Performance ingame. Jedenfalls, wenn ich das richtig verstanden habe. (Siehe "Rendering with Mantle"-Präsi auf der GDC 14).
Aber richtig, wir können da dummerweise kaum mehr als spekulieren.
Loeschzwerg
2014-03-21, 07:05:58
@Loeschzwerg
Natürlich gibt es OpenGL auch noch.
Aber wenn ich die Möglichkeit habe ein Spiel von Windows auf Linux (oder umgekehrt) zu portieren und dann auch noch Ähnlichkeiten zu DX12, Xbox One und vllt. sogar PS4 habe, bietet es sich doch an gleich auf Mantle zu setzen.
Und genau das ist ja AMDs Begehr von Anfang an gewesen. Eine
Multiplattform-API von der man schnell effizient und kostengünstig/-neutral portieren kann. Da AMD kein gemeinnütziger Verein ist, hat man natürlich auch im Sinn damit Grafikkarten- und Konsolenverkäufe anzukurbeln.
Ich kann nur wieder betonen, die Basis ist die HW und das wissen auch die Entwickler. Was nützt einem eine breitere OS Kompatibilität wenn dann letztendlich weniger leute kompatible HW haben?
Es muss momentan so oder so OpenGL und DX unterstützt werden.
Bezüglich der Möglichkeiten bin ich völlig bei dir, aber ich teile keineswegs diese Euphorie die hier teils zu aufdringlich entgegenweht.
Ja, das stimmt. Aber wenn die Engine die Technik schon von Haus aus unterstützt, dürften die nötigen Anpassungen deutlich schneller zu bewerkstelligen sein. ;)
Mit dem default Set des Engine SDKs sicher, hängt aber auch noch davon ab was die Entwickler noch weiteres machen und evtl. an Middleware oder Eigenentwicklungen hinzufügen.
Erinnere mich in ~2 Jahren daran wenn ich falsch gelegen habe, dann fahre ich nach Fürth und geb dir einen aus :)
N0Thing
2014-03-21, 07:47:24
Aber wenn ich die Möglichkeit habe ein Spiel von Windows auf Linux (oder umgekehrt) zu portieren und dann auch noch Ähnlichkeiten zu DX12, Xbox One und vllt. sogar PS4 habe, bietet es sich doch an gleich auf Mantle zu setzen.
Und genau das ist ja AMDs Begehr von Anfang an gewesen. Eine
Multiplattform-API von der man schnell effizient und kostengünstig/-neutral portieren kann. Da AMD kein gemeinnütziger Verein ist, hat man natürli
Erstmal abwarten, ob und wann Mantle wirklich auf anderen Betriebssystemen eingesetzt werden kann. Der Begriff Multiplattform wurde bisher immer für die angebliche Nähe zu den Konsolen verwendet, aka leichtere Portierung.
Zum Thema Mantle unter Linux ist der Stand heute ja eher ein "schaun mer mal".
Demirug
2014-03-21, 07:57:35
Gut. Ist nur die Frage, ob das wirklich so "smart" ist. FB3 & CE machens mit den aktuellen Spielen jedenfalls nicht.
Vielleicht ist es eine Notlösung, weil das Caching nicht gut genug funktioniert o.ä. Können wir nur spekulieren.
Ich vermute das man bei Mantle um das teure Binding zu umgehen erst einmal alles was man vielleicht einmal braucht direkt in dem Videospeicher kopieren muss um für den späteren Zugriff die Speicheradresse zu haben.
Bei DirectX wird das umkopieren dagegen zum teil erst gemacht wenn man etwas zum ersten Mal braucht. Das kommt historisch noch aus der Zeit als man die Texturen für ein ganzes Level teilweise nicht auf einmal in den Videospeicher bekommen hat und immer wieder ausgetauscht werden musste.
Bei DX 12 werden wir wohl einen ähnlichen Effekt sehen was den Videospeicher angeht.
Stimmt nicht ganz. ;) Zumindest Battlefield 4 speichert unter Mantle während dem Laden die Shader im Speicher, zwecks besserer Performance ingame. Jedenfalls, wenn ich das richtig verstanden habe. (Siehe "Rendering with Mantle"-Präsi auf der GDC 14).
Aber richtig, wir können da dummerweise kaum mehr als spekulieren.
Das ist der Pipeline Cache. Die Shader plus andere Sachen werden zu einer Pipeline verrechnet. Da das etwas dauert kann man bei Mantle das Ergebnis davon aus dem Treiber auslesen und auf der Platte speichern. Beim nächsten Start lädt man dann einfach die fertige Pipeline was schneller geht als sie neu zu erzeugen. Dadurch wird aber kein zusätzlicher Speicher verbraucht.
M4xw0lf
2014-03-21, 09:14:30
Ich vermute das man bei Mantle um das teure Binding zu umgehen erst einmal alles was man vielleicht einmal braucht direkt in dem Videospeicher kopieren muss um für den späteren Zugriff die Speicheradresse zu haben.
Bei DirectX wird das umkopieren dagegen zum teil erst gemacht wenn man etwas zum ersten Mal braucht. Das kommt historisch noch aus der Zeit als man die Texturen für ein ganzes Level teilweise nicht auf einmal in den Videospeicher bekommen hat und immer wieder ausgetauscht werden musste.
Bei DX 12 werden wir wohl einen ähnlichen Effekt sehen was den Videospeicher angeht. zu erzeugen. Dadurch wird aber kein zusätzlicher Speicher verbraucht.
Also wurde dieser Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=544775) nun endlich beantwortet: "4GB VRAM - wann wird es wirklich erforderlich sein?" - "Ende 2015" ;)
blaidd
2014-03-21, 09:32:08
Ich vermute das man bei Mantle um das teure Binding zu umgehen erst einmal alles was man vielleicht einmal braucht direkt in dem Videospeicher kopieren muss um für den späteren Zugriff die Speicheradresse zu haben.
Das ist der Pipeline Cache. Die Shader plus andere Sachen werden zu einer Pipeline verrechnet. Da das etwas dauert kann man bei Mantle das Ergebnis davon aus dem Treiber auslesen und auf der Platte speichern. Beim nächsten Start lädt man dann einfach die fertige Pipeline was schneller geht als sie neu zu erzeugen. Dadurch wird aber kein zusätzlicher Speicher verbraucht.
Ah okay, dann hab ich was durcheinander geschmissen. Ich hab die Folien gestern auch nur mal überflogen. Danke.
Demirug
2014-03-21, 09:57:29
Also wurde dieser Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=544775) nun endlich beantwortet: "4GB VRAM - wann wird es wirklich erforderlich sein?" - "Ende 2015" ;)
Nicht zwingend. Es muss dann halt die Engine das Ein und Auslagern aus dem VRam machen.
M4xw0lf
2014-03-21, 11:25:52
Ausgerechnet Gamestar hat einen Thief-Mantle-Test mit schwächerer CPU, in der Richtung wie ich mir das oben gewünscht hab: http://www.gamestar.de/spiele/thief/artikel/thief_im_mantle_check,44861,3033801,2.html
Nur leider bringen die Mittelklasse-Karten aktuell unter Mantle auch bei den schwachen CPUs genau gar nix, dank Speicherproblematik.
y33H@
2014-03-21, 11:45:30
Mit maximalen Details samt 4x SSAA ... und normale mit 2x SSAA ... super um die CPU-Leistung zu prüfen.
M4xw0lf
2014-03-21, 12:29:34
Mit maximalen Details samt 4x SSAA ... und normale mit 2x SSAA ... super um die CPU-Leistung zu prüfen.
Aber trotzdem in Ordnung, um realistische Settings zu zeigen, wie sie die Spieler auch verwenden würden. Als CPU-Test natürlich Käse.
Screemer
2014-03-21, 12:42:01
das spiel würde doch im leben kein ssaa bei den karten vorkonfigurieren. das läuft doch unterirdisch und so zockt doch keiner, denn der durchschnittspieler stellt wohl erst mal nichts um. was ist da realitätsnah?
M4xw0lf
2014-03-21, 13:01:19
Unterirdisch? 30-40 FPS mit diesen Settings und einer 270X reichen vielen Leuten.
Butterfly
2014-03-22, 17:05:39
Sollte Mantle für Linux geportet werden und es mehr Linux spiele geben könnte es auch mit DX12 überleben.
Naja, wenn man Low Level programmiert und dann doch Porten muss, hat man es nicht verstanden! :biggrin:
Für Linux nimmt man wine, damit laufen sehr viele DX9 Spiele bereits mit Linux.
http://de.wikipedia.org/wiki/Wine
Wine, ein rekursives Akronym und zugleich Apronym für „Wine Is Not an Emulator“[4] (englisch für „Wine ist kein Emulator“)
Iruwen
2014-03-22, 17:28:39
Spiele bestehen nicht nur aus einer Grafikschnittstelle und laufen im User-Space, da ist immer noch das Betriebssystem vor. Und Wine unterstützt auch nur DX9, vollen DX10+ Support wird es niemals geben. Das Gallium3D Experiment wurde auch schon vor geraumer Zeit beerdigt. Wenn Mantle unter Windows durch DX12 obsolet wird werden Entwickler eher zu OpenGL greifen als eine herstellerspezifische API nur für Linux zu verwenden. Vor allem wenn Valve eine der treibenden Kräfte ist.
fondness
2014-03-23, 10:25:25
Welche Ironie, Nvidia hält eine proprietäre API für den falschen Weg: :)
NVIDIA doesn’t deny that a lower level API is beneficial or needed for PC gaming. It does, however, think that the methodology of AMD’s Mantle is the wrong way to go. Fragmenting the market into additional segments with a proprietary API does not maintain the benefits of hardware abstractions or “cross vendor support”. I realize that many readers will see some irony in this statement considering many in the industry would point to CUDA, PhysX, 3D Vision and others as NVIDIA’s own proprietary feature sets.
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Talks-DX12-DX11-Efficiency-Improvements
dargo
2014-03-23, 10:53:17
Lol... ;D ;D ;D
Typisch Nvidia, es ist der falsche Weg weils nicht von NV kommt. :ulol:
dildo4u
2014-03-23, 11:17:53
Neue DX11 Treiber von NV
http://cdn.pcper.com/files/review/2014-03-22/10.jpg
http://www.pcper.com/image/view/38822?return=node%2F59855
Erstaunlich es ist kein 11.1 nötig damit NV AMD vermöbelt,sogar im Kompletten CPU Limit.(Star Swarm)
Schnoesel
2014-03-23, 11:38:48
1. Sind das Nvidia Folien (cherrypicking FTW)
2. Dazu noch ohne Einstellungen (das Thief z.B. ab 1440p im absoluten GPU Limit nicht viel bringt ist klar)
3. Vergleichbarkeit von Star Swarm?
"obviously hand selected by NVIDIA" sagt eigentlich schon alles. Marketing eben, da war Nvidia schon immmer gut.
Aber jeder Nvidianer darf sich doch darüber freuen, dass Nvidia offensichtlich Druck verspürt und ihre Performance bis zu den ersten Spielen in DX 12 versucht noch mit DX11 zu verbessern. Für den Kunden ist das nur Win Win egal ob er ne Nvidia oder AMD hat.
Arcanoxer
2014-03-23, 12:12:12
Neue DX11 Treiber von NV
http://cdn.pcper.com/files/review/2014-03-22/10.jpg
http://www.pcper.com/image/view/38822?return=node%2F59855
Erstaunlich es ist kein 11.1 nötig damit NV AMD vermöbelt,sogar im Kompletten CPU Limit.(Star Swarm)
Le roi est mort, vive le roi! ;)
dargo
2014-03-23, 12:12:17
Neue DX11 Treiber von NV
http://cdn.pcper.com/files/review/2014-03-22/10.jpg
http://www.pcper.com/image/view/38822?return=node%2F59855
Erstaunlich es ist kein 11.1 nötig damit NV AMD vermöbelt,sogar im Kompletten CPU Limit.(Star Swarm)
Nach näherer Betrachtung...
Der Thief-Benchmark ist absoluter Witz. Erstens ist die Skala :ucrazy:. Zweitens GPU-Limit. Es gibt schon einen guten Grund warum gerade dort der D3D-Wert bei R9 290X fehlt. ;) Die Auflösung muss jedenfalls höher als 1600p sein oder man hat SSAA genommen.
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/#diagramm-thief-2560-1600-fxaa-16xaf
Die Werte unter 1600p sind jedenfalls höher. Aber schön zu sehen wie die Leute auf das Marketing von Nvidia wieder reinfallen.
Bei der Star Swarm Demo bin ich mir gar nicht mal so sicher ob diese durchgehend im CPU-Limit liegt. Hier meine Ergebnisse mit dem Cat. 14.3 Beta unter Windows 8.1 und i7 Haswell @3,7Ghz, HD7970 @1050/1500Mhz.
D3D = 30fps
Mantle = 47fps
Was bei dieser Demo mir besonders auffällt. Es gibt sehr viele Szenen wo ich trotz D3D zwischen ~50 und 77fps liege. Es gibt aber auch Szenen die bis zu 7fps unter D3D einbrechen. Bei Mantle brechen die Frames in den Worst Cases bei weitem nicht so stark ein (min. 23fps). Die max. fps dagegen ändern sich bei Mantle kaum, sie sind sogar etwas tiefer als bei D3D bei mir (70fps, könnte an GCN 1.0 liegen). Deswegen wäre ich hier vorsichtig in dieser Demo vom CPU-Limit zu sprechen. Ein Frameverlauf wäre besser gewesen anstatt nur avg.fps in der NV-Folie.
PS: mich wundert der niedrige D3D Wert der R9 290X in Star Swarm. Ich erreiche quasi das selbe. Jetzt ist halt die Frage ob diese Demo stärker im CPU- oder GPU-Limit liegt. Zudem kann ich den 12 Threader gegenüber meinem 8 Threader @D3D unter dieser Demo nicht gut einschätzen inwieweit die auseinander liegen.
aufkrawall
2014-03-23, 12:14:54
afair waren die Geforces im GPU-Limit bei StarSwarm schneller.
Trotzdem wird man mit einer Verbesserung im CPU-Limit bei NV rechnen müssen.
Wo soll denn die ganze GPU-Leistung auf einmal herkommen, häh...?
gnahr
2014-03-23, 12:21:27
es ist dir sicher zu hoch, aber die folien sind wie üblich skaliert, dass der kleinste und der größte balken jeweils etwa gleich lang zwischen den grafiken sind. es macht niemand anders, wenn der interessante bereich signifikant kleiner ist als die absoluten werte, aber der geneigte "kritiker" hatet.
du kannst auch gern weiter mit win8 testen wenn die grafik sich auf win7 bezieht, nur bitte versuch nicht nochmal die kaputte d3d-performance von amd den anderen karten anzudichten. bei mantle hies es immer "besser by design" und nun werden sie auf einmal in totalen zahlen geschlagen. schon klar, dass sowas ein weltbild erschüttern kann.
-/\-CruNcher-/\-
2014-03-23, 12:23:31
Treiber Cleanup den haben sie angekündigt den führen sie jetzt radikal durch, da fliegt momentan aller gebranchter balast raus nur würde ich diese zahlen auch nicht gleich glauben wollen ohne unabhängige Bestätigung, wenn es meiner ollen 460 Fermi helfen sollte dann kann ich euch die Bestätigung liefern kein Problem ;)
dildo4u
2014-03-23, 12:25:18
Nvidia ist einfach eine Legende was die Treiber angeht,dazu gibt's auch Benches in der neuen PCGH,dort sind die Nvidia High-End Karten plötzlich vor der 290X in Bioshock infinite und Grid 2.Das mit von AMD gebauten Techniken.(HDAO,Forward+Global Illumination etc)
http://community.amd.com/community/amd-blogs/amd-gaming/blog/2013/03/26/optimized-for-amd-bioshock-infinite-launches
Grid 2 in der Preview 7870 so schnell wie eine GTX 680,Stand Heute GTX770=280X laut neuem PCGH Heft.
http://www.pcgameshardware.de/Grid-2-PC-239144/Tests/Grid-2-im-Technik-Test-1067659/
Schnoesel
2014-03-23, 12:27:37
Wie wäre es wenn wir uns nur noch Marketingfolien auseinandersetzen. Das soll ne Diskussionsgrundlage sein? Srsly? Wer postet die erste AMD Marektinfolie wos genaus andersrum aussieht. Ist ja lächerlich.
Nvidia ist einfach eine Legende was die Treiber angeht
Ja wie der legendäre 320.18. Das Gedächtnis mancher ist einfach zu kurz.
http://www.computerbase.de/2013-06/nvidia-treiber-geforce-320.18-macht-probleme/
dargo
2014-03-23, 12:31:52
Wie wäre es wenn wir uns nur noch Marketingfolien auseinandersetzen. Das soll ne Diskussionsgrundlage sein? Srsly? Wer postet die erste AMD Marektinfolie wos genaus andersrum aussieht. Ist ja lächerlich.
Bei dildo schaltet öfter man das Gehirn aus wenn es um Nvidia geht. Von daher nicht so ernst nehmen. :wink: gnahr ignoriere ich völlig, da ist eh schon lange der Zug abgefahren.
afair waren die Geforces im GPU-Limit bei StarSwarm schneller.
Trotzdem wird man mit einer Verbesserung im CPU-Limit bei NV rechnen müssen.
Wo soll denn die ganze GPU-Leistung auf einmal herkommen, häh...?
Die Star Swarm Demo gibt mir einige Rätsel auf. Diese Demo wurde zig mal geändert. Bei der ersten Version hatte ich noch eine Verdoppelung der Performance bei den avgs. Jetzt komme ich auf gute +50% (wobei die Reproduzierbarkeit auch etwas fraglich ist, der zweite Run unter Mantle spuckte nur noch 44,xxfps aus). Heißt für mich... entweder hat man die D3D Performance gesteigert (eher unwahrscheinlich da die min.fps immer noch stark zwischen beiden APIs abweichen) oder es gibt mehr gpu-limitierte Szenen. Immerhin wurde die Demo mittlerweile auf ganze 6 Minuten ausgedehnt.
dildo4u
2014-03-23, 12:42:59
Was ist wohl relevanter für High-End User test im CPU Limit oder Test's mit Maximalen Details in hohen Auflösungen?Die FPS auf der Folie sind im spielbaren Bereich um 60fps,es wurde nich mal versucht mi 4K ein absolutes GPU Limit zu erzeugen,auch wurden ein 30fps nicht als vernüftig spielbar verkauft um in's GPU Limit zu kommen.
fondness
2014-03-23, 12:47:43
Nach näherer Betrachtung...
Der Thief-Benchmark ist absoluter Witz. Erstens ist die Skala :ucrazy:. Zweitens GPU-Limit. Es gibt schon einen guten Grund warum gerade dort der D3D-Wert bei R9 290X fehlt. ;) Die Auflösung muss jedenfalls höher als 1600p sein oder man hat SSAA genommen.
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/#diagramm-thief-2560-1600-fxaa-16xaf
Die Werte unter 1600p sind jedenfalls höher. Aber schön zu sehen wie die Leute auf das Marketing von Nvidia wieder reinfallen.
Bei der Star Swarm Demo bin ich mir gar nicht mal so sicher ob diese durchgehend im CPU-Limit liegt. Hier meine Ergebnisse mit dem Cat. 14.3 Beta unter Windows 8.1 und i7 Haswell @3,7Ghz, HD7970 @1050/1500Mhz.
D3D = 30fps
Mantle = 47fps
Was bei dieser Demo mir besonders auffällt. Es gibt sehr viele Szenen wo ich trotz D3D zwischen ~50 und 77fps liege. Es gibt aber auch Szenen die bis zu 7fps unter D3D einbrechen. Bei Mantle brechen die Frames in den Worst Cases bei weitem nicht so stark ein (min. 23fps). Die max. fps dagegen ändern sich bei Mantle kaum, sie sind sogar etwas tiefer als bei D3D bei mir (70fps, könnte an GCN 1.0 liegen). Deswegen wäre ich hier vorsichtig in dieser Demo vom CPU-Limit zu sprechen. Ein Frameverlauf wäre besser gewesen anstatt nur avg.fps in der NV-Folie.
PS: mich wundert der niedrige D3D Wert der R9 290X in Star Swarm. Ich erreiche quasi das selbe. Jetzt ist halt die Frage ob diese Demo stärker im CPU- oder GPU-Limit liegt. Zudem kann ich den 12 Threader gegenüber meinem 8 Threader @D3D unter dieser Demo nicht gut einschätzen inwieweit die auseinander liegen.
Korrekt, habe ich ja auch schon im anderen Thread bemerkt. NV hat halt ein paar Treiberoptimierungen getätigt und versucht das jetzt als ebenbürtig zu Mantle zu verkaufen. Dabei testet man natürlich im GPU-Limit um den Mantel-Vorteil zu verdecken.
aufkrawall
2014-03-23, 12:48:38
Hier nehmen einige den Mund ganz schön voll, obwohl noch niemand den neuen Treiber in Aktion gesehen hat...
dargo
2014-03-23, 12:49:10
Was ist wohl relevanter für High-End User test im CPU Limit oder Test's mit Maximalen Details in hohen Auflösung?Die FPS auf der Folie sind im spielbaren Bereich um 60fps,es wurde nich mal versucht mi 4K ein absolutes GPU Limit zu erzeugen,auch wurden ein 30fps nicht als vernüftig spielbar verkauft um in's GPU Limit zu kommen.
Du weichst vom Thema ab. Wenn schon Folien im GPU-Limit rausgehauen werden frage ich mich wofür die ganze Aufregung wegen DX12?
Korrekt, habe ich ja auch schon im anderen Thread bemerkt. NV hat halt ein paar Treiberoptimierungen getätigt und versucht das jetzt als ebenbürtig zu Mantle zu verkaufen. Dabei testet man natürlich im GPU-Limit um den Mantel-Vorteil zu verdecken.
Bingo. ;)
Der Verzicht auf den D3D-Wert @Radeon bei Thief verrät es schon. Die Leute sollen bloß nicht sehen, dass die Radeon bei DX11 in den verwendeten Settings nicht oder kaum (1-3% jucken eh keinen) langsamer ist. :wink:
Angiesan
2014-03-23, 12:50:48
Unser lieber Dildo4u hyperventiliert zwar gerne mal wenn es um NV geht aber wo er recht hat, hat er recht was bringt es wenn ich heute schon niedrige Auflösungen fahren muss damit ich einen Vorteile sehen kann bzw. zeigen kann.
Die CPU - Entwicklung bleibt sicherlich nicht stehen!
Ich empfinde das jetzt nicht als Cherrypicking mal sehen wann wir die ersten BF4 Tests sehen dann wird es interessant ob NV da mit dem neuen Treiber auch zulegen kann oder ob Thief die Ausnahme bleibt.
fondness
2014-03-23, 12:52:17
Hier nehmen einige den Mund ganz schön voll, obwohl noch niemand den neuen Treiber in Aktion gesehen hat...
Die fps der 290X in Thief sind eindeutig. Solch niedrigen fps erreicht man mit dem Core i7 3930K und Mantle nur im GPU-Limit.
Unser lieber Dildo4u hyperventiliert zwar gerne mal wenn es um NV geht aber wo er recht hat, hat er recht was bringt es wenn ich heute schon niedrige Auflösungen fahren muss damit ich einen Vorteile sehen kann bzw. zeigen kann.
Die CPU - Entwicklung bleibt sicherlich nicht stehen!
Ich empfinde das jetzt nicht als Cherrypicking mal sehen wann wir die ersten BF4 Tests sehen dann wird es interessant ob NV da mit dem neuen Treiber auch zulegen kann oder ob Thief die Ausnahme bleibt.
Nicht jeder hat eine fette High-End-CPU, vor allem sollte man auch die min-fps nicht vergessen die gerne mal an der CPU hängen oder Spieler die gerne mehr fps haben, etc.
M4xw0lf
2014-03-23, 12:54:06
Genau genommen zeigen die Balken sowas wie 57 vs 66 FPS bei Star Swarm und 55 vs 58.5 FPS bei Thief. Ziemlich normale Werte für 290X vs 780Ti, unter GPU Limit (bei Star Swarm vielleicht etwas großer Unterschied, aber der "Benchmark" von Star Swarm ist ja sowieso wenig reproduzierbar - viel Spielraum für "Kirschselektierung" ^^).
dargo
2014-03-23, 12:54:49
Unser lieber Dildo4u hyperventiliert zwar gerne mal wenn es um NV geht aber wo er recht hat, hat er recht was bringt es wenn ich heute schon niedrige Auflösungen fahren muss damit ich einen Vorteile sehen kann bzw. zeigen kann.
Die CPU - Entwicklung bleibt sicherlich nicht stehen!
Hier sind wir wieder beim Thema... CPU-Limit in Games. Ich stelle mal eine Gegenfrage... wozu die ganze Aufregung wegen DX12 dann wo es vor allem um weitere API-Effizienzsteigerungen geht?
dildo4u
2014-03-23, 12:57:34
Unser lieber Dildo4u hyperventiliert zwar gerne mal wenn es um NV geht aber wo er recht hat, hat er recht was bringt es wenn ich heute schon niedrige Auflösungen fahren muss damit ich einen Vorteile sehen kann bzw. zeigen kann.
Die CPU - Entwicklung bleibt sicherlich nicht stehen!
Ebend Game's werden GPU lastiger siehe das neue AC und The Division,diese Game's bringen im Prinzip den Technik Stand von Crysis 3 in die Open World.Grafik kann man viel besser skalieren als die CPU Last,die muss relativ gering bleiben damit sie auf den Konsolen läuft,auf dem PC kann man die GPU Power in bessere Soft Schatten,HBAO+,besseres AA,extra PhysX Efftke etc stecken.(Siehe z.b Witcher 3 Gameworks)
http://www.youtube.com/watch?v=-i8K5M98eME&feature=share&list=UULzxS5DdWLFg_979UABJ2Gw&index=2
Angiesan
2014-03-23, 13:00:49
Die fps der 290X in Thief sind eindeutig. Solch niedrigen fps erreicht man mit dem Core i7 3930K nur im GPU-Limit.
Nicht jeder hat eine fette High-End-CPU, vor allem sollte man auch die min-fps nicht vergessen die gerne mal an der CPU hängen oder Spieler die gerne mehr fps haben, etc.
Ja da stimme ich in beiden Punkten voll zu, es würde mich jetzt interessieren ob diese werte auch mit einer weniger starken CPU gehalten werden können. Bei Mantle wissen wir das es mit schwächeren CPU´s zu einem stärkeren Effekt kommt, wie ist das mit dem neuen NV Treiber, dass wird die Frage sein die man sich stellen muss wenn er dann in der freien Wildbahn auftauscht.
dargo
2014-03-23, 13:08:33
Ebend Game's werden GPU lastiger siehe das neue AC und The Division,diese Game's bringen im Prinzip den Technik Stand von Crysis 3 in die Open World.Grafik kann man viel besser skalieren als die CPU Last,die muss relativ gering bleiben damit sie auf den Konsolen läuft.
Du saugst dir mal wieder was aus den Fingern, dass es schon weh tut. Konsolen (auch die Neuen) haben oftmals eine Zielframerate von 30fps. Am PC möchte jedenfalls ich nicht mit 30fps spielen. Ich peile eher die Richtung 60+fps an. CPU-Last kann man bis zu einem gewissen Grad auch sehr gut skalieren. Das sieht man ganz gut an Watch Dogs was auch noch auf den alten Konsolen mit einer Zielframerate von 30fps laufen soll. Genauso wie die neuen Konsolen. Paar Passanten weniger hier, paar Fahrzeuge weniger dort. Agressiveres LoD, weniger Partikeleffekte etc. und schon passt es irgendwie ins fps Budget. Sieh der Wahrheit endlich ins Auge. Die neuen Konsolen werden uns noch viel früher limitieren als die alten damals. Besonders dank der weiteren Effizienzsteigerungen durch Mantle und demnächst DX12. Die einzige Frage ist dabei dann halt... wie schnell sind die Entwickler bereit für den PC Extrawürste in Form von mehr Details anzubieten. Das werden uns die nächsten Jahre dann zeigen.
Knuddelbearli
2014-03-23, 13:25:10
Nvidia ist einfach eine Legende was die Treiber angeht,dazu gibt's auch Benches in der neuen PCGH,dort sind die Nvidia High-End Karten plötzlich vor der 290X in Bioshock infinite und Grid 2.Das mit von AMD gebauten Techniken.(HDAO,Forward+Global Illumination etc)
http://community.amd.com/community/amd-blogs/amd-gaming/blog/2013/03/26/optimized-for-amd-bioshock-infinite-launches
Grid 2 in der Preview 7870 so schnell wie eine GTX 680,Stand Heute GTX770=280X laut neuem PCGH Heft.
http://www.pcgameshardware.de/Grid-2-PC-239144/Tests/Grid-2-im-Technik-Test-1067659/
Ach AMD ist6 dann auch eine Legende was Treiber angeht?
Damals zB Bf3 und einige andere Spiele.
Knuddelbearli
2014-03-23, 13:29:05
Unser lieber Dildo4u hyperventiliert zwar gerne mal wenn es um NV geht aber wo er recht hat, hat er recht was bringt es wenn ich heute schon niedrige Auflösungen fahren muss damit ich einen Vorteile sehen kann bzw. zeigen kann.
Die CPU - Entwicklung bleibt sicherlich nicht stehen!
Weill man dann sieht was möglich ist wenn das Spiel von Haus aus Dx12 / mantle unterstützt und man damit die sich langweilige CPU endlich mal für Sinvolle Sachen nutzen kann. ( Deutlich bessere KI, Gameplay Physik, Open World statt Schlauchshooter usw )
Außerdem kann man GPU last recht einfach über Einstellungen / Auflösungen senken. CPU Last aber nur sehr beschränkt.
Finde ich zumindest 1000 mal Interessanter ob jetzt die eine GPU 10-15% schneller ist als die andere.
Da ist Mantle /Dx12 höchstens Interessant ob ich meinen 2600K eventuel noch weitere 3-4 statt 1-2 Jahre behalten kann.
und last but not least. Ohne Mantle / Dx12 ist eine Konstante 120/144 framerate quasi unmöglich
aufkrawall
2014-03-23, 13:30:41
Ach AMD ist6 dann auch eine Legende was Treiber angeht?
Damals zB Bf3 und einige andere Spiele.
Sie hatten da quasi nur die unterirdische Performance gefixt.
Schon interessant, wie manche Sachverhalte, je nach Wunschdenken, hängen bleiben.
Wo bleibt denn mal ein legendärer Fix für die fps im Vehicle-Zoom...
dildo4u
2014-03-23, 13:32:25
Ach AMD ist6 dann auch eine Legende was Treiber angeht?
Damals zB Bf3 und einige andere Spiele.
Kein Plan was du meinst Performance scheint auf NV besser zu sein,GTX 770 schneller als 280X.(Treiber 13.5 und 13.11,"Wunder" Treiber war 12.11)
http://ht4u.net/reviews/2013/amds_radeon_r-serie-grafikkarten_r9_270x_und_280x_und_r7_260x_im_test/index31.php
M4xw0lf
2014-03-23, 13:35:57
Sie hatten da quasi nur die unterirdische Performance gefixt.
Schon interessant, wie manche Sachverhalte, je nach Wunschdenken, hängen bleiben.
Und was war Nvidias Performance in Dirt Showdown? Schon interessant, wie manche Sachverhalte... usw usw. :freak:
Breegalad
2014-03-23, 13:37:44
ich hätte da mal ne Frage:
wenn eine GPU beschleunigt wird, sei es durch Mantle oder Treiber-Verbesserungen, so steigt nach meinem Verständnis der Stromverbrauch ziemlich proportional zur Beschleunigung.
Müssten dann nicht ältere Karten Kühlungsprobleme bekommen?
Und neuere Karten, die am Power-Target-Limit hängen, einfach früher oder stärker drosseln?
Sodaß bei Karten, die am elektrischen oder thermischen Limit laufen, höchstens minimale FPS-Steigerungen möglich sein sollten dürften???
Ich meine, es wird ja grafikkartenseitig nicht die Effizienz gesteigert im Sinne von weniger Rechenaufwand pro dargestelltem Bild, sondern nur eine bessere Auslastung durch mehr DrawCalls erreicht.
Kann mir diese Frage (???) trotz eifrigen Mitlesens leider nicht selbst beantworten.
dildo4u
2014-03-23, 13:38:56
Und was war Nvidias Performance in Dirt Showdown? Schon interessant, wie manche Sachverhalte... usw usw. :freak:
Das wurde gefixt der Unterschied ist das BF3 keine Nvidia Tech hatte von der AMD nix wusste vor Release.
M4xw0lf
2014-03-23, 13:40:01
Das wurde gefixt der Unterschied ist das BF3 keine Nvidia Tech hatte von der AMD nix wusste vor Release.
Says who.
Auch wenns keine spezifische Technologie war, können trotzdem Schritte des Renderings ideal für NV und sehr suboptimal für AMD gelöst worden sein, was dann erst nach viel Sucherei mit dem "Wundertreiber" gelöst werden konnte.
aufkrawall
2014-03-23, 13:41:41
Und was war Nvidias Performance in Dirt Showdown? Schon interessant, wie manche Sachverhalte... usw usw. :freak:
Gib sie dann wenigstens richtig wieder! ;)
Dirt SD läuft immer noch schneller auf Radeons. Vermute, Grid 2 ist besser für Intel & NV optimiert.
Der Sachverhalt ist auch nicht ganz vergleichbar, weil AMD halt immer noch langsamer bei BF ist und NV bei Grid 2 nicht mehr.
Außerdem setzt FB halt nicht auf eine Rendering-Technik, die direkt aus NVs Feder stammt (außer HBAO, aber AMDs Compute ist doch eh soo überlegen :tongue: ).
dildo4u
2014-03-23, 13:45:26
HBAO gab's schon lange vor BF3 daher hat wie gesagt AMD keine wirkliche Ausrede für die miese Performance.
HBAO is typically rendered at half-resolution, as in Battlefield: Bad Company 2
http://www.geforce.com/hardware/technology/hbao-plus/technology
M4xw0lf
2014-03-23, 13:47:03
HBAO gab's schon lange vor BF3 daher hat wie gesagt AMD keine wirkliche Ausrede für die miese Performance.
http://www.geforce.com/hardware/technology/hbao-plus/technology
HBAO war auch nicht das Problem. Erinnere mich grade nicht mehr was die Bremse genau war, aber es wurde darüber berichtet damals.
aufkrawall
2014-03-23, 13:47:55
afair wurde das gar nicht kommuniziert.
dargo
2014-03-23, 13:49:12
HBAO war auch nicht das Problem. Erinnere mich grade nicht mehr was die Bremse genau war, aber es wurde darüber berichtet damals.
Bei BF3 war am Anfang MSAA das Problem. Mit dem "Horny-Treiber" war dann 4xMSAA bis zu über 60% schneller.
aufkrawall
2014-03-23, 13:49:48
War es nicht auch ohne MSAA deutlich lahmer?
dargo
2014-03-23, 13:51:25
Nicht, dass ich wüsste.
aufkrawall
2014-03-23, 13:52:23
Nicht, dass ich wüsste.
Bei 1600p sind es ob mit oder ohne MSAA ~20% mehr als die 580 gewesen:
http://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/35/
War also nicht nur das MSAA.
dildo4u
2014-03-23, 13:59:21
Bei 1600p sind es ob mit oder ohne MSAA ~20% mehr als die 580 gewesen:
http://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/35/
War also nicht nur das MSAA.
Manchmal frage ich mich warum die ihre Karten immer so früh mit Alpha Treibern raushauen,der erst Eindruck ist fürn Arsch dafür können sie sagen sie waren von NV draußen naja.
Wobei das extra lange gedauert hat den Treiber zu fixen der Test ist von Ende Dezember,die BF3 Beta gabs im September.
fondness
2014-03-23, 14:01:20
Wobei das extra lange gedauert hat den Treiber zu fixen der Test ist von Ende Dezember,die BF3 Beta gabs im September.
Was ja bei NV viel schneller ging in den gerade von dir zitierten Spielen Bioshock Infinitiy und Dirt2 :lol:
Manchmal frage ich mich warum die ihre Karten immer so früh mit Alpha Treibern raushauen,der erst Eindruck ist fürn Arsch dafür können sie sagen sie waren von AMD draußen naja. :ugly:
Wer noch immer nicht merkt das es für beiden Seiten hier jeweils Beispiele gibt dem ist echt nicht mehr zu helfen ;)
aufkrawall
2014-03-23, 14:03:18
Halt mal den Ball flach. Im Gegensatz zu AMD hat Nvidia nicht ihre Kunden monatelang mit beschissener D3D-Performance bis Mantle hingehalten bzw. verarscht.
fondness
2014-03-23, 14:05:25
Halt mal den Ball flach. Im Gegensatz zu AMD hat Nvidia nicht ihre Kunden monatelang mit beschissener D3D-Performance bis Mantle hingehalten bzw. verarscht.
Ich finde es nur lollig wie du und dildo hier versuchen den praktisch exakt selben Sachverhalt bei NV zu loben und bei AMD zu kritisieren. :)
Und mit der tollen D3D-leistung kam NV auch erst als Reaktion auf Mantle, also freu dich darüber. ;)
dildo4u
2014-03-23, 14:06:55
Halt mal den Ball flach. Im Gegensatz zu AMD hat Nvidia nicht ihre Kunden monatelang mit beschissener D3D-Performance bis Mantle hingehalten bzw. verarscht.
Ebend das ist schlecht für den Kunden aber das kapiert hier keiner,die setzen ihre ganze Manpower an Mantle und der DX11 Treiber kackt immer weiter ab.Bissel schlecht wenn 90% der Games mit DX11 laufen.
aufkrawall
2014-03-23, 14:10:44
Und mit der tollen D3D-leistung kam NV auch erst als Reaktion auf Mantle, also freu dich darüber. ;)
Stimmt nicht, es war schon zu Launch im CPU-Limit massiv schneller und im GPU-Limit auch schneller.
Durch Treiber- und auch Spieleupdates hat sich das sogar noch verstärkt.
Wer also keinen crappigen Betatreiber installieren will, mit dem OC nicht geht, hat bei AMD nach wie vor die Arschkarte.
Wenn jetzt NV wirklich noch über den Treiber um 30% oder mehr im CPU-Limit nachlegt, würd ich als AMD-User an die Decke gehen.
fondness
2014-03-23, 14:11:04
Ebend das ist schlecht für den Kunden aber das kapiert hier keiner,die setzen ihre ganze Manpower an Mantle und der DX11 Treiber kackt immer weiter ab.Bissel schlecht wenn 90% der Games mit DX11 laufen.
Solange NV nur spielespezifisch auf Mantle-Spiele optimiert hat ein AMD-User keine Nachteile. Eine schlechtere CPU-Ausnutzung von AMD in non-Mantle-Spiele konnte noch niemand nachweisen.
Selbst in Thief ist davon im übrigen nichts zu sehen, im CPU-Limit liegt eine 290X@D3D exakt gleichauf mit einer 780Ti:
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/#diagramm-thief-1280-720-fxaa-16xaf
Stimmt nicht, es war schon zu Launch im CPU-Limit massiv schneller und im GPU-Limit auch schneller.
Die ersten Benchmarks zeigten etwas anderes, nämlich 290X mindestens gleichauf mit 780Ti, eher schneller: http://www.hardocp.com/article/2013/11/17/battlefield_4_video_card_performance_iq_review/#.Uy7e9IVWg5g
Außerdem wusste da NV schon lange von Mantle und hat natürlich entsprechend optimiert.
Wenn jetzt NV wirklich noch über den Treiber um 30% oder mehr im CPU-Limit nachlegt, würd ich als AMD-User an die Decke gehen.
Warum, weil man dann nur noch einen ~30% Vorsprung for free hat und die um Welten besseren Frametimes? Gibt größere Probleme. :)
dargo
2014-03-23, 14:18:52
Ebend das ist schlecht für den Kunden aber das kapiert hier keiner,die setzen ihre ganze Manpower an Mantle und der DX11 Treiber kackt immer weiter ab.Bissel schlecht wenn 90% der Games mit DX11 laufen.
Du erzählst mal wieder einen Schwachsinn... sag mal wirst du eigentlich von NV bezahlt? Das ist ja nicht mehr auszuhalten.
Wo siehst du hier bei Thief bsw. die angebliche Überlegenheit von NV im D3D Treiber?
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/#diagramm-thief-1280-720-fxaa-16xaf
Beide schnellsten Karten der IHVs liegen in 720p auf dem gleichen Niveau. Und diese Szene ist mit der verwendeten CPU in 720p sehr stark cpu-limitiert wie man am Ergebnis von bsw. R9 270X sieht. Bei NV wurde auch ein aktueller Treiber 335.23 verwendet. Hör bitte endlich auf Märchen zu verbreiten.
Unicous
2014-03-23, 14:24:03
Da hier ja eh nur OT-Blödsinn ausgetauscht, würde ich gerne darauf hinweisen: Wer Eben mit d schreibt ist ... rechtschreibunsicher.
dargo
2014-03-23, 15:03:22
Es ist nicht unbedingt OT. Was mir nur tierisch auf den Senkel geht ist dieses ständige Pochen von gewissen Leuten, NV würde so viel besser unter DX11.0 im CPU-Limit performen was überhaupt nicht stimmt. Wie das bei DX11.1 aussieht weiß ich bis heute immer noch nicht. Dabei wäre es das einfachste dem nachzugehen. Es muss sich nur ein User finden lassen (was im 3DC wohl kaum so schwer sein sollte :rolleyes:) der einen 8 Threader Haswell, eine Nvidia Grafikkarte (am besten wäre hier eine GTX680/770), Windows 8.1 und BF4 hat, der zudem mit der Benchmarkfunktion von Fraps vertraut ist. Da der MP in Bezug auf exakte Reproduzierbarkeit problematisch ist kann man sich eine Szene im SP aussuchen wo etwas mehr los ist. Die CPU-Last ist im SP zwar sehr gering. Dem kann man aber auch leicht entgegenwirken indem man die CPU dann mit bsw. 1,5Ghz taktet.
Ich kann problemlos mit einem 8 Threader Haswell und Tahiti für einen Vergleich dienen.
Breegalad
2014-03-23, 15:04:14
Da hier ja eh nur OT-Blödsinn ausgetauscht, würde ich gerne darauf hinweisen: Wer Eben mit d schreibt ist ... rechtschreibunsicher.
mit Nichten und Neffen
http://www.spiegel.de/kultur/zwiebelfisch/fragen-an-den-zwiebelfisch-von-daher-bis-halt-ebend-a-305558.html
aufkrawall
2014-03-23, 15:15:27
Problem ist, dass niemand weiß, ob sich MP und SP im CPU-Limit ähnlich verhalten.
Iruwen
2014-03-23, 15:18:50
Bei dildo schaltet öfter man das Gehirn aus wenn es um Nvidia geht. Von daher nicht so ernst nehmen. :wink: gnahr ignoriere ich völlig, da ist eh schon lange der Zug abgefahren.
Wer im Glashaus sitzt, sollte nicht mit Steinen werfen. Ganz speziell du solltest dich bei derartigen Vorwürfen extrem bedeckt halten.
Unicous
2014-03-23, 15:19:24
Breegalad
Es geht hier aber nicht um gesprochene Sprache sondern um geschriebene.
Ick kann dir och ebend janz jenau sagen wie ick sonst rede, aber schreiben tue ich ganz normal. Wir sind hier nicht in einem Mundsprache-Thread, geschweige denn -Forum. Aber da wa hier ja eh nich mehr über dit eijendliche Thema quarken, können wa och jerne in Mundart weiterquatschen.
dargo
2014-03-23, 15:32:19
Problem ist, dass niemand weiß, ob sich MP und SP im CPU-Limit ähnlich verhalten.
Was soll sich da anders verhalten? Vollständiges CPU-Limit ist vollständiges CPU-Limit. Völlig egal ob SP oder MP. Das einzige was möglich wäre ist, dass der MP eventuell etwas besser parallelisierbar ist. Das ist aber nur reine Spekulation erstmal. Dennoch wäre der SP schon mal ein Anfang um den ganzen Spekulationen endlich ein Ende zu setzen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.