Archiv verlassen und diese Seite im Standarddesign anzeigen : Mantle - AMD Low-Level-API als Alternative zu DirectX
del_4901
2014-04-08, 15:07:04
Von daher ist das IMHO zunächst mit Vorsicht zu geniessen und an eine "Umsortierung" und "Optimierung" innerhalb eines zusätzlichen Frames glaube ich nicht. Ich wüsste auch nicht wie man sowas programmatisch lösen sollte. :comfort:
dargo
2014-04-08, 15:11:01
Das stimmt nicht, der Treiber bringt selbst bei maximaler CPU Auslastung mehr Leistung. Ich sehe auch keine bessere CPU Auslastung bei nicht voll ausgelasteter CPU, trotzdem sind Verbesserungen im zweistelligen Prozentbereich zu verzeichnen.
Ich möchte nochmal darauf hinweisen, dass man dem Taskmanager (oder Tools die auf die gleiche Weise arbeiten) was CPU-Auslastung angeht nicht blind vertrauen sollte.
dargo
2014-04-08, 15:18:56
Der Treiber scheint nur dann Geschwindigkeitsvorteile zu haben so lange man nicht alle Kerne der CPU voll auslastet.
Bei diesem Punkt gelange ich allerdings an meine Grenzen. Ein einfaches Beispiel... nehmen wir mal eine Anwendung die 4 Threads beansprucht und du hast eine CPU mit sagen wir mal 8 Threads. Dass der Treiber die 4 freien Threads für den Overhead nutzt da komme ich noch mit. Jetzt nehmen wir die gleiche CPU aber eine Anwendung die 8 Threads beansprucht. Woher weiß der Treiber wieviel % CPU-Leistung auf einem oder mehreren Thread(s) für diese Auslagerung vom Treiber gerade frei ist? Und wenn man jetzt x% Leistung irgendwo "klaut" dann bleibt doch weniger Leistung fürs Rendering übrig. Da komme ich echt nicht mit. :ugly:
Und wieso nicht?
Weil ich genug Beispiele hier schon hatte wo offenbar der Taskmanager irgendwelche Wartezyklen fälschlicherweise als CPU-Last angezeigt hat. Jedenfalls habe ich keine andere plausible Erklärung dafür warum ein Quadcore gegenüber einem Dualcore praktisch nichts zugelegt hat obwohl alle 4 Threads laut TM fast am Anschlag in meiner Szene lagen. Afaik war das damals eine Timeshift-Szene, natürlich im vollständigen CPU-Limit.
Exxtreme
2014-04-08, 15:29:36
Bei diesem Punkt gelange ich allerdings an meine Grenzen. Ein einfaches Beispiel... nehmen wir mal eine Anwendung die 4 Threads beansprucht und du hast eine CPU mit sagen wir mal 8 Threads. Dass der Treiber die 4 freien Threads für den Overhead nutzt da komme ich noch mit. Jetzt nehmen wir die gleiche CPU aber eine Anwendung die 8 Threads beansprucht. Woher weiß der Treiber wieviel % CPU-Leistung auf einem oder mehreren Thread(s) für diese Auslagerung vom Treiber gerade frei ist? Und wenn man jetzt x% Leistung irgendwo "klaut" dann bleibt doch weniger Leistung fürs Rendering übrig. Da komme ich echt nicht mit. :ugly:
Die Verteilung der Ressourcen auf die Kerne macht normalerweise das Betriebssystem. Und dieses weiss ja wo grad was frei ist und kann da Threads zuweisen. Da sehe ich jetzt nicht so die Probleme. Probleme gibt es halt dann wenn alle Kerne ausgelastet sind. Dann werden bestimmte Threads angehalten, andere Threads bekommen Ressourcen zugewiesen, werden angehalten und wieder was anderes bekommt eine Zeitlang Ressourcen.
Hier ist es gut beschrieben:
http://de.wikipedia.org/wiki/Multitasking#Pr.C3.A4emptives_Multitasking
Demirug
2014-04-08, 15:30:19
Bei diesem Punkt gelange ich allerdings an meine Grenzen. Ein einfaches Beispiel... nehmen wir mal eine Anwendung die 4 Threads beansprucht und du hast eine CPU mit sagen wir mal 8 Threads. Dass der Treiber die 4 freien Threads für den Overhead nutzt da komme ich noch mit. Jetzt nehmen wir die gleiche CPU aber eine Anwendung die 8 Threads beansprucht. Woher weiß der Treiber wieviel % CPU-Leistung auf einem oder mehreren Thread(s) für diese Auslagerung vom Treiber gerade frei ist? Und wenn man jetzt x% Leistung irgendwo "klaut" dann bleibt doch weniger Leistung fürs Rendering übrig. Da komme ich echt nicht mit. :ugly:
Die Fragestellung macht so keinen Sinn. Eine CPU hat keine Threads sondern Kerne (virtuelle und echte) und das Betriebssystem lässt auf diesen Kernen alle im System aktiven Threads abarbeiten. Wenn der Treiber jetzt also einen oder mehrere Threads erzeugt um irgendwelche Arbeiten auszulagern dann kümmert sich schon das Betriebssystem darum das diese auf einem Kern abgearbeitet werden der Rechenzeit zur Verfügung hat. Braucht man mehr Rechenzeit als man hat greifen entsprechenden Prioritäten und Quoten. Multithreading 101
Weil ich genug Beispiele hier schon hatte wo offenbar der Taskmanager irgendwelche Wartezyklen fälschlicherweise als CPU-Last angezeigt hat. Jedenfalls habe ich keine andere plausible Erklärung dafür warum ein Quadcore gegenüber einem Dualcore praktisch nichts zugelegt hat obwohl alle 4 Threads laut TM fast am Anschlag in meiner Szene lagen. Afaik war das damals eine Timeshift-Szene, natürlich im vollständigen CPU-Limit.
Wenn der Taskmanager anzeigt das Leistung beansprucht wurde dann ist das auch so. Wenn alle Kerne am Anschlag hängen dann hat dort wohl jemand mit "busy waits" gearbeitet. Dabei wird der Kern nicht an das Betriebssystem zurück gegeben sondern einfach mit entsprechenden Warteschleifen blockiert. Gilt durchaus als Unsitte so etwas zu machen.
Ich will damit zeigen, dass die PCGH hier einen recht betagten Prozessor genommen hat und sich die auf den Folien versprochenen Steigerungen nicht zeigen.
Von daher ist das IMHO zunächst mit Vorsicht zu geniessen und an eine "Umsortierung" und "Optimierung" innerhalb eines zusätzlichen Frames glaube ich nicht. Ich wüsste auch nicht wie man sowas programmatisch lösen sollte. Vielleicht stimmt das was Demirug mal schrieb, dass sie den API-Overhead in einen eigenen Thread auslagern.
Die haben eine veraltete Plattform genommen, deswegen sagt das nichts aus. Die müssten einen Core i5 nehmen, der hat ebenso 4 Threads. Hätten sie beim i7 auch deaktivieren können. Der Test ist sowieso nicht der Maßstab, es gibt definitiv Steigerungen. Einige Engines wie die Cryengine, Frostbite, Madness scheinen besonders gut zu profitieren, dazu Batman, Hitman und noch ein paar andere.
Ich möchte nochmal darauf hinweisen, dass man dem Taskmanager (oder Tools die auf die gleiche Weise arbeiten) was CPU-Auslastung angeht nicht blind vertrauen sollte.
In Crysis 3 bin ich mir sicher, dass dort im Gras meine 4 Thread CPU voll ausgelastet wird im CPU Limit. Im pcars Forum berichtet jemand mit nem Athlon II X3 450 von Steigerungen weit über 50%, obwohl die CPU vorher schon auf Anschlag läuft. Von Geschwindigkeitsvorteilen nur bei freien Kernen kann keine Rede sein, das deckt sich auch nicht mit Nvidias Aussagen. Es sieht für mich nach einem verringerten Overhead aus, der keine freien CPU Ressourcen erfordert. Ob 6-8 Thread CPUs noch mehr profitieren kann ich nicht sagen, das ist natürlich dennoch möglich falls es nicht alleinig am Overhead liegt.
dargo
2014-04-08, 15:54:49
@Exxtreme und Demirug
Argh... hab den Windows-Scheduler irgendwie völlig vergessen. :ugly:
Iruwen
2014-04-08, 15:56:33
Es war aber vermutlich nicht in ihrem Interesse so zu benchen, dass exakt das rauskommt was Nvidia behauptet. Es findet sich sicher ein ausgewähltes Szenario mit dem man das hinbekommt, aber das ist über alle Reviews gesehen offensichtlich nicht repräsentativ.
Exxtreme
2014-04-08, 16:01:37
Die haben eine veraltete Plattform genommen, deswegen sagt das nichts aus. Die müssten einen Core i5 nehmen, der hat ebenso 4 Threads. Hätten sie beim i7 auch deaktivieren können. Der Test ist sowieso nicht der Maßstab, es gibt definitiv Steigerungen. Einige Engines wie die Cryengine, Frostbite, Madness scheinen besonders gut zu profitieren, dazu Batman, Hitman und noch ein paar andere.
Dass es nichts aussagt, das würde ich so nicht sagen. Genau das ist nämlich der Vorteil von Mantle, dass es durch die Overhead-Reduzierung auch betagte Plattformen wieder ganz brauchbar zum Spielen macht. Ob das der neue Treiber von NV auch macht?
Vielleicht mache ich mir den Spaß und deaktiviere 3 Module auf meinem Rechner und mache paar Benchmarks. Leider habe ich keine Spiele, bei denen man sehr viel CPU-Last erzeugen könnte um zu vergleichen. MMOs sind da leider sehr unvorhersehbar was das angeht da man nicht weiss wie viele Leute grad durch's Bild hüpfen.
dargo
2014-04-08, 16:02:28
In Crysis 3 bin ich mir sicher, dass dort im Gras meine 4 Thread CPU voll ausgelastet wird im CPU Limit. Im pcars Forum berichtet jemand mit nem Athlon II X3 450 von Steigerungen weit über 50%, obwohl die CPU vorher schon auf Anschlag läuft. Von Geschwindigkeitsvorteilen nur bei freien Kernen kann keine Rede sein, das deckt sich auch nicht mit Nvidias Aussagen. Es sieht für mich nach einem verringerten Overhead aus, der keine freien CPU Ressourcen erfordert. Ob 6-8 Thread CPUs noch mehr profitieren kann ich nicht sagen, das ist natürlich dennoch möglich falls es nicht alleinig am Overhead liegt.
Wie ich schon im Treiber-Thread schrieb...
Wir haben uns - vor allem aufgrund der wesentlich größeren Zielgruppe - die Verbesserungen mit nur einer GPU angesehen und dafür zunächst auf einen, wie wir dachten, besonders geeigneten, weil älteren Prozessor in Form des Core 2 Extreme QX 9650 zurückgegriffen. Hier jedoch offenbarte sich, dass wir in unserem CPU-Parcours kaum einen Gewinn verbuchen konnten und wenn, dann fiel dieser deutlich geringer aus, als es die Nvidia-Präsentation versprach. In der umgehenden Rücksprache gab Nvidia an, dass ältere CPUs schon stark mit den jeweiligen Spielen selbst belastet wären und sich größere Gewinne bei moderneren CPUs mit vielen Kernen einstellen würden. Gleichzeitig gab man uns zu verstehen, dass der neue Treiber dort viel helfen würde, wo es auch AMDs Mantle-API täte.
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Test-sGeforce-Treiber-33750-gegen-Mantle-1116527/
Das klingt bei Nvidia aber ganz anders.
Vielleicht mache ich mir den Spaß und deaktiviere 3 Module auf meinem Rechner und mache paar Benchmarks. Leider habe ich keine Spiele, bei denen man sehr viel CPU-Last erzeugen könnte um zu vergleichen. MMOs sind da leider sehr unvorhersehbar was das angeht da man nicht weiss wie viele Leute grad durch's Bild hüpfen.
Das ist kein Problem. Einfach den CPU-Takt weit genug senken. Irgendwann liegst du garantiert im vollständigen CPU-Limit.
Dass es nichts aussagt, das würde ich so nicht sagen.
3% der PCGH Leser setzen einen Core 2 Quad ein, als repräsentativ würde ich das nicht bezeichnen. Ein Spiel ins CPU Limit treiben kann man auch auf einer DDR3 Plattform ohne FSB Flaschenhälse. Genügend alte CPUs dafür gäbe es.
Wie ich schon im Treiber-Thread schrieb...
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Test-sGeforce-Treiber-33750-gegen-Mantle-1116527/
Das klingt bei Nvidia aber ganz anders.
Dann ist es doch kein Problem. 4 Kerne sind für gamer Systeme lange der Standard. Ich sehe da jetzt auch kein Widerspruch in sich. Im nächsten Atemzug erwähnen sie das sich dort Vorteile ergeben, wo die Mantle-API helfen würde. Nach meinen Tests sieht es nach einem verringerten Overhead aus, was Nvidia bestätigt hat.
As with 337.50 Beta’s single-GPU DirectX 11 optimizations, CPU overhead reductions apply globally, benefitting the majority of DirectX 9, DirectX 10, and DirectX 11 games the instant they go on sale. Per-game optimizations will continue to be developed before and after a game’s release, but now every game can potentially see an immediate boost.
http://www.geforce.com/whats-new/articles/nvidia-geforce-337-50-beta-performance-driver
dargo
2014-04-08, 16:40:04
Dann ist es doch kein Problem. 4 Kerne sind für gamer Systeme lange der Standard.
Nun... wie repräsentativ Steam ist sei mal dahin gestellt. Aber 47% @Dualcore ist nicht gerade wenig:
http://store.steampowered.com/hwsurvey/cpus/
Darum gehts mir aber nicht. Ein Kentsfield/Yorkfield hat auch 4 Kerne. Ist natürlich kein nativer Quadcore sondern ein doppelter Dualcore. Vielleicht ist das aber auch die Erklärung warum diese CPU nicht wirklich mit dem neuen Treiber zulegen kann. Durch das ständige Auslagern macht sich eventuell der Flaschenhals FSB hier besonders stark bemerkbar.
Nach meinen Tests sieht es nach einem verringerten Overhead aus, was Nvidia bestätigt hat.
Wenn der Overhead verringert wurde müsste sich das auch auf CPUs mit weniger Kernen auswirken. Teste es einfach mal indem du 2 Kerne deiner CPU deaktivierst.
aufkrawall
2014-04-08, 17:20:27
Ihr unterstellt, NV hat nun bei allen Spielen einen wahrscheinlich um ein Frame höheren Input Lag?
Unicous
2014-04-08, 17:27:43
Es gibt einen Unterschied zwischen vermuten und unterstellen.
Daher ruhig bleiben. Dein künstliches Echauffieren ist nämlich ziemlich...ermüdend.
aufkrawall
2014-04-08, 17:50:38
Eine Frame mehr wäre der zusätzliche Inputlag mit zwei GPUs & AFR.
Das fühlt sich nach meinem Dafürhalten deutlich zäher an.
Erzählen kann man jedenfalls viel. Habe deshalb mal bei blurbusters um eine Messung gebeten:
http://forums.blurbusters.com/viewtopic.php?f=10&t=549
Warum bleiben solche Sachen immer an mir hängen...
Nun... wie repräsentativ Steam ist sei mal dahin gestellt. Aber 47% @Dualcore ist nicht gerade wenig:
http://store.steampowered.com/hwsurvey/cpus/
Und jetzt sortieren wir noch alle Nicht Gamer Systeme raus.
Wenn der Overhead verringert wurde müsste sich das auch auf CPUs mit weniger Kernen auswirken. Teste es einfach mal indem du 2 Kerne deiner CPU deaktivierst.
2 Kerne mit einer Nvidia ist eine schlechte Idee bei der Threading Schwäche. Mit 3 Kernen legt Crysis 3 10% zu, ebenso mit 4 Kernen. Beides jeweils läuft bei 100% CPU Auslastung egal welcher Treiber.
Flusher
2014-04-08, 22:11:19
So ich hab gerade mal wieder eine Runde BF4 zocken wollen nach einigen Wochen Abstinenz, und musste feststellen, dass es unspielbar ist. Ich habe kurze Hänger alle 2 Sekunden - die Framerate bleibt zwar stabil, aber Bewegungen "freezen".
So ein Verhalten hatte ich zuletzt mit dem ersten Mantle-Treiber in Kombination mit einer 7970 auf Paracel Storm. Nun ist es auf jeder Karte :freak:
Iruwen
2014-04-09, 00:46:26
War da nicht was mit der Framepacingmethode die man umstellen sollte?
Screemer
2014-04-09, 02:55:07
http://battlelog.medalofhonor.com/bf4/forum/threadview/2955065227608379852/
sollten multigpu-user definitiv testen.
Dawn on Titan
2014-04-09, 07:58:30
Mantle hilft auch schwachen CPUs, NV Treiber braucht starke CPUs, da ist gar kein Vergleich. Abgesehen davon fühlt sich der neue NV-Treiber sehr komisch an. Eingaben fühlen sich so verzögert an, fast wie Microruckeln.
Rancor
2014-04-09, 09:28:47
Mantle hilft auch schwachen CPUs, NV Treiber braucht starke CPUs, da ist gar kein Vergleich. Abgesehen davon fühlt sich der neue NV-Treiber sehr komisch an. Eingaben fühlen sich so verzögert an, fast wie Microruckeln.
Aha, komischerweise kenne ich niemanden bei dem das so ist...
Gaestle
2014-04-09, 09:37:28
Die Fragestellung macht so keinen Sinn. Eine CPU hat keine Threads sondern Kerne (virtuelle und echte) und das Betriebssystem lässt auf diesen Kernen alle im System aktiven Threads abarbeiten. Wenn der Treiber jetzt also einen oder mehrere Threads erzeugt um irgendwelche Arbeiten auszulagern dann kümmert sich schon das Betriebssystem darum das diese auf einem Kern abgearbeitet werden der Rechenzeit zur Verfügung hat. Braucht man mehr Rechenzeit als man hat greifen entsprechenden Prioritäten und Quoten. Multithreading 101
Einen Deiner letzten Posts hier im Thread vorher habe ich so verstanden, dass der 337er NV-Treiber vor allem das Threading optimiert, aber die Menge der Aufgaben für die CPU insgesamt nicht reduziert wird (die Auifgabenmenge bleibt gleich, wird aber besser verteilt).
Wenn ich jetzt den zitierten Teil dazu nehme und im Hinterkopf habe, das das Multithreading bei Win8.1 besser als bei Win7 sein soll, dann frage ich mich, ob der 337er-NV-Treiber auf Win8.1 mehr Balkenlänge / Leistung bringen könnte, als auf Win7. Wie siehst Du das?
HarryHirsch
2014-04-09, 15:11:25
http://battlelog.medalofhonor.com/bf4/forum/threadview/2955065227608379852/
sollten multigpu-user definitiv testen.
Hab das schon om BF4-Thread geschrieben. Seit die das eingebaut haben hatte ich in Metro extreme FPS Einbrüche wenn die Stützen weg geschossen wurden.
RenderDevice.FramePacingMethod 1
http://abload.de/img/screenshotwin32-0014rssrf.png (http://abload.de/image.php?img=screenshotwin32-0014rssrf.png)
RenderDevice.FramePacingMethod 2 (aktuell default)
http://abload.de/img/screenshotwin32-00135mszy.png (http://abload.de/image.php?img=screenshotwin32-00135mszy.png)
Wenn dann alles voller Staub ist sacken die FPS mit Methode 2 voll in den Keller. Ist mit Screenshots leider schwer festzuhalten.
Ailuros
2014-04-09, 18:19:24
Der Kollege hat zwar froehlich mitgeloescht an OT/Spam/Troll-Beitraegen hat aber so manche von Punkten verschont. Ich hab heute morgen 2 Herrschafften in Urlaub geschickt und kann die Liste gerne noch laenger werden lassen wenn Ihr Euch nicht wie Erwachsene benehmen koennt.
Screemer
2014-04-09, 18:59:42
Hab das schon om BF4-Thread geschrieben. Seit die das eingebaut haben hatte ich in Metro extreme FPS Einbrüche wenn die Stützen weg geschossen wurden.
RenderDevice.FramePacingMethod 1
http://abload.de/img/screenshotwin32-0014rssrf.png (http://abload.de/image.php?img=screenshotwin32-0014rssrf.png)
RenderDevice.FramePacingMethod 2 (aktuell default)
http://abload.de/img/screenshotwin32-00135mszy.png (http://abload.de/image.php?img=screenshotwin32-00135mszy.png)
Wenn dann alles voller Staub ist sacken die FPS mit Methode 2 voll in den Keller. Ist mit Screenshots leider schwer festzuhalten.
könntest du von den beiden methoden mal nen graph aufzeichnen lassen?
PerfOverlay.FrameFileLogEnable 1
-> http://www.overclock.net/t/1469627/bf4fta-battlefield-4-frame-time-analyzer-version-4-2-released-major-release
hast du schon mal 0 als parameter versucht.
HarryHirsch
2014-04-09, 19:17:06
Kann ich machen.
Auf 0 hatte ich es bevor ich wusste das es noch ne alternative Methode gibt. Da ist FramePacing dann aus.
HarryHirsch
2014-04-09, 20:01:22
Hier. 48460
Jeweils 3 Läufe ohne die Maus zu bewegen. Bei den Stützen war es mit "RenderDevice.FramePacingMethod 1" im Limiter (200 FPS).
Bei "RenderDevice.FramePacingMethod 2" bleiben nach dem weg schießen die FPS so niedrig bis man aus dem Spiel raus und wieder rein tabbt.
-/\-CruNcher-/\-
2014-04-09, 23:25:40
Im besten Fall ist es ein Nullsummenspiel, warscheinlicher ist es aber durchaus schlechter. Ich wuerde auch auf einen zusätzlichen Frame tippen.
Also im GPU Limit messe ich bei Fermi 460 GTX -1 fps (AC4,Far Cry 3) und auch der WPI zeigt einen Abfall von 7.7 auf 7.6 im Vergleich zum letzten WHQL (Game Ready Titanfall) ;)
7.7 war bis jetzt immer Stabil bis auf einige Betas, das ist wieder die erste Beta die den WPI -.1 abfallen lässt.
Also die Verbesserungen beziehen sich definitiv nur auf Kepler bei Sleeping Dogs zeigt sich im Benchmark auch nichts signifikantes.
WHQL
-------------------
AVG = 17.808752060
MAX = 24.787349701
MIN = 11.008094788
BETA
-------------------
AVG = 17.828557968
MAX = 24.820999146
MIN = 11.020845413
allerdings fällt mir auf das im Benchmark plötzlich in den ersten 2 Szenen sowas wie Regen gerendert wird mit dem Beta (so weise Kometartige streifen, nennt United Fronts anscheinend Regen ;)) die waren beim WHQL nicht sichtbar.
BF4 zeigt auch keine Veränderung vor allem das worldrender.lightiledcspathenable 1 (default) ist immernoch heftig am frametime erhöhen.
Du hast Dich im Thread geirrt.
Mantle - AMD Low-Level-API als Alternative zu DirectX
Unicous
2014-04-13, 01:17:11
Dafür, dass Mantle am Absterben ist, ist der AAA Developer-Support aber nicht von schlechten Eltern.:eek:
In addition to its use of DirectX 11, Sid Meier’s Civilization: Beyond Earth will be among the first wave of products optimized for the latest in AMD graphics technologies, including: the new Mantle graphics API, for enhanced graphics performance; AMD CrossFire™, for UltraHD resolutions and extreme image quality; and AMD Eyefinity, which allows for a panoramic gameplay experience on up to six different HD displays off of a single graphics card.
http://www.gametrailers.com/news-post/73123/sid-meiers-civilization-goes-sci-fi-with-beyond-earth
Wird dann wohl ein Gaming Evolved Titel?
Nightspider
2014-04-13, 01:21:20
absterben :ulol:
Sicher sinnvoll in einem Civ-Game, gerade solche Spiele hängen an der CPU, da kommt Mantle zur Verbesserung des Spielgefühls gerade recht. Ausserdem war Civ V afaik nicht gerade der AMD-freundlichste Titel, so scheint das ein lohnenswerter Schritt zu sein.
Kipp und Baker von den Nitrous-Engine-Entwicklern war auch bei Firaxis.
Akkarin
2014-04-13, 03:24:49
Bei Civ ist doch die Rundenzeit das Problem, nicht die FPS. Glaube kaum das Mantle da viel bringt.
Nightspider
2014-04-13, 03:30:39
In einem neuen Command & Conquer hätte Mantle extrem glänzen können.
Leider hat es EA aber mal wieder verbockt.
-/\-CruNcher-/\-
2014-04-13, 06:43:16
Bei Civ ist doch die Rundenzeit das Problem, nicht die FPS. Glaube kaum das Mantle da viel bringt.
Vor allem tiled resources bringen gewaltig viel und wenn man den kartenaufbau komplett selbst steuern kann wird es ein noch niedrigeres latenz erlebniss selbst stufenlosses rein raus zoomen sollte kein Problem mehr darstellen für viele Entwickler :)
Wieso nur 1 stadt simulieren oder eine begrenzte karte wenn man eine ganze Welt simulieren kann und auch mal sehr komplexe multi location rts fahren könnte ;)
Unicous
2014-04-13, 12:25:01
Bei Civ ist doch die Rundenzeit das Problem, nicht die FPS. Glaube kaum das Mantle da viel bringt.
Häh? Wer redet denn hier von fps. Civ 5 ist zumeist CPU-bound und lastet eigentlich nur 2 Kerne vollständig aus und skaliert auf max. 4 Kerne/Threads.
Je länger das Spiel, je mehr Einheiten, Städte, Karte aufgedeckt, desto länger werden die Rundenzeiten und das liegt auch daran, dass Civ die CPU nicht so gut auslastet. Das hat man vor einiger Zeit gesehen, als sie versucht haben, das zu ändern und aus Versehen die einzelnen KI-Berechnungen gleichzeitig stattgefunden haben, anstatt nacheinander. Auf einmal hat die Rundenzeit nur noch wenige Sekunden gedauert, anstatt bis zu einer Minute und mehr (im Endgame mit vielen Gegnern). Das war natürlich ein Fehler, hat aber gezeigt, dass auf schnelleren und mehrkernigen CPUs Civ deutlich effizienter berechnen könnte und das einzige Problem, die diplomatischen Verwicklungen sind, die in der Zeit stattfinden.
Civ ist aber auch an einigen Stellen GPU-bound wenn es z.B. um die Herrscher geht. Mantle und später DirectX 12 werden Civ spielen enorm helfen, auch auf älteren Rechnern einigermaßen zu laufen, alleine weil die CPU besser ausgelastet wird. Civ ist wie jedes Strategiespiel prädestiniert dafür.
Iruwen
2014-04-13, 13:39:02
So in conclusion, the reason NVIDIA beats AMD in Civ V is that NVIDIA currently offers full support for multi-threaded rendering/deferred contexts/command lists, while AMD does not. Civ V uses massive amounts of objects and complex terrain, and because it's multi-threaded rendering capable the introduction of multi-threaded rendering support in NVIDIA's drivers means that NVIDIA's GPUs can now rip through the game.
This is the true power of DX11. When properly implemented in both drivers and games, DX11's multi-threaded rendering capabilities are going to allow developers to push a lot more stuff out to the GPU without immediately bottlenecking the CPU.
On a future note, while Civ V is the first game to use DX11 multi-threaded rendering, it is not going to be the last. Battlefield 3 will most likely use it - DICE was lamenting the lack of driver support last month at GDC. The Capcom team responsible for Lost Planet 2 also mentioned how they would have liked to have this feature working before LP2, though I can't find the article at this time.
Coincidentally, last month's interview with AMD's Richard Huddy at Bit-Tech also has a lot in common with this. AMD says DX11 multi-threaded rendering can double object/draw-call throughput, and they want to go well beyond that by bypassing the DX11 API.
http://forums.anandtech.com/showpost.php?p=31520674
Blediator16
2014-04-13, 13:54:56
Also stand 2011 schon fest, dass sowas wie Mantle kommen muss/wird.
-/\-CruNcher-/\-
2014-04-13, 15:44:20
Natürlich faktisch schon seit 2006, formen hat es bei AMD wärend der PS4 und Xbox One Entwicklung angenommen
Multithreading ist immernoch etwas was nicht perfekt funktioniert, keiner hat damals mal damit gerechnet das Otto Normal Multithreaded unterwegs sein würde selbst bei Linux warst du für Lange zeit was bessonderes wenn du damals schon Multithreaded code geschrieben hast wärend es für die Server vorbehalten war, da sind die meisten lieber Single Threaded geblieben mit ihren Applications, mein gott ich errinere mich noch an so viele diskussionen in den Mailinglists "Das hat keine Zukunft" vor allem war der Compiler support grausam und die ganzen deterministischen probleme + latenz :D
GPU hat das ganze dann nochmal extremst gepusht, und leute wie Carmack waren einfach ihrer Zeit weit voraus was Parallel GPU Programming angeht :)
Das Sheduling muss effektiv für beides realisiert werden CPU/GPU beides Multithreded Microsoft hat mit Longhorn LDDM (heute WDDM, volle integration von DX ins OS Rendering) angefangen das zu realisieren bis heute, sachen wie Mantle oder DX12 kommen nicht aus dem nichts sie kommen nur verdammt langsam :)
Was alles noch innefizient macht sind die System bedingten bottlenecks die angefangen wurden mit den Konsolen und Mobile zu eliminieren und so langsam gehen wir da endlich auch mit der PC Architektur in die Richtung :)
Und AMD war danach gesehen wirklich ein vorreiter mit ihrem ATI aufkauf und Fusion (HSA)
Akkarin
2014-04-13, 16:47:30
Vor allem tiled resources bringen gewaltig viel und wenn man den kartenaufbau komplett selbst steuern kann wird es ein noch niedrigeres latenz erlebniss selbst stufenlosses rein raus zoomen sollte kein Problem mehr darstellen für viele Entwickler :)
Wieso nur 1 stadt simulieren oder eine begrenzte karte wenn man eine ganze Welt simulieren kann und auch mal sehr komplexe multi location rts fahren könnte ;)
Das wäre natürlich cool und Mantle wäre hier vermutlich nützlich, aber die ciV engine hat deutlich andere Probleme.
Häh? Wer redet denn hier von fps. Civ 5 ist zumeist CPU-bound und lastet eigentlich nur 2 Kerne vollständig aus und skaliert auf max. 4 Kerne/Threads.
Je länger das Spiel, je mehr Einheiten, Städte, Karte aufgedeckt, desto länger werden die Rundenzeiten und das liegt auch daran, dass Civ die CPU nicht so gut auslastet. Das hat man vor einiger Zeit gesehen, als sie versucht haben, das zu ändern und aus Versehen die einzelnen KI-Berechnungen gleichzeitig stattgefunden haben, anstatt nacheinander. Auf einmal hat die Rundenzeit nur noch wenige Sekunden gedauert, anstatt bis zu einer Minute und mehr (im Endgame mit vielen Gegnern). Das war natürlich ein Fehler, hat aber gezeigt, dass auf schnelleren und mehrkernigen CPUs Civ deutlich effizienter berechnen könnte und das einzige Problem, die diplomatischen Verwicklungen sind, die in der Zeit stattfinden.
Civ ist aber auch an einigen Stellen GPU-bound wenn es z.B. um die Herrscher geht. Mantle und später DirectX 12 werden Civ spielen enorm helfen, auch auf älteren Rechnern einigermaßen zu laufen, alleine weil die CPU besser ausgelastet wird. Civ ist wie jedes Strategiespiel prädestiniert dafür.
In der Zeit zwischen den runden wenn die AI ihre sachen macht gibts doch quasi keine GPU last und damit keinen overhead. Wo soll Mantle hier bei den Rundenzeiten helfen ?
Knuddelbearli
2014-04-13, 16:56:53
Mantle verringert ( Laut Mantle Folien ) ja nicht nur die Grafik API last sondern erleichtert auch deutlich das MT programmieren.
Häh? Wer redet denn hier von fps. Civ 5 ist zumeist CPU-bound und lastet eigentlich nur 2 Kerne vollständig aus und skaliert auf max. 4 Kerne/Threads
Civ 5 skaliert eher gut mit Kernen, sogar 6 Kerne bringen Vorteile gegenüber 4.
In der Zeit zwischen den runden wenn die AI ihre sachen macht gibts doch quasi keine GPU last und damit keinen overhead. Wo soll Mantle hier bei den Rundenzeiten helfen ?Vielleicht hilft es sogar dabei marginal, weil ja der Bildschirm bei nicht-simultanen Runden ja auch nicht einfach schwarz bleibt, und wenn da der Treiber-Overhead für's rendern allein schon immer mal wieder für eine signifikante Zeit ein, zwei Kerne auslastet?
Unicous
2014-04-13, 19:53:26
Civ 5 skaliert eher gut mit Kernen, sogar 6 Kerne bringen Vorteile gegenüber 4.
Beweis durch Behauptung? Wenn sie zwischenzeitlich nichts an der Engine getan haben( wovon ich nicht ausgehe, sonst hätten sie es kommuniziert) skaliert es auf 4 Kerne und danach kann man nur noch den Takt hochschrauben.
Habe ich auch nochmal extra nen Test von damals herausgesucht.
With four processing threads available, overall per-core usage levels out using ~50% of each core. As you will see on our CPU performance tests it's a balance of this, clock speeds, and architecture efficiency that pushes performance on Civ V. The only hexa-core CPU we tested failed to deliver better performance, so it appears this game's usage maxes out at four cores.
http://www.techspot.com/review/320-civilization-v-performance/page10.html
Es gibt auf den Folgeseiten noch Clock-Scaling und Civ steht einzig und allein auf schnelle Kerne. Zwei hochtaktende Kerne wären sicherlich schneller als ein langsamerer 4 Kerner.
Was ich mir bei neueren 6-Kernern vorstellen könnte, ist dass sie mehr Turbo Boost headroom haben und alle 4 Kerne auf der höchsten Boost-Stufe halten im Gegensatz zu normalen 4-Kernern.
Wenn du andere Erkenntnisse hast, dann wäre es schön wenn du dafür auch eine Quelle nennen könntest.
Aus 1000en Stunden Civ5-Erfahrung kann ich auch nur bestätigen, dass man 4 Kerne haben sollte. Darüber ist Bonus, darunter beschissen. Aber es ist wirklich recht gut multithreaded. Im Multiplayer läuft ein X6 aber deutlich besser als ein X4 bei ähnlichen Taktraten meiner Erfahrung nach. Das wirklich blöde war lange Zeit der Renderer (Stabilitätsprobleme auf NV, lahmarschig auf AMD-Karten). Das geht aber mittlerweile. Mantle sollte den Renderer quasi unsichtbar machen, sodass sämtliche Rechenleistung beim Spiel bleibt.
Beim neuen Civ kann man davon ausgehen, dass 8 Threads auf jeden Fall unterstützt werden und dank Mantle auch keine Engpässe zu erwarten sind.
Unicous
2014-04-13, 20:25:48
Ein X6 kann Kerne schlafen legen und dadurch den Takt erhöhen.
Wie gesagt, wenn es Test gibt, die Gegenteiliges zu Tage fördern, also dass mehr als 4 Kerne sich positiv auf die Performance auswirken und nicht einfach nur Last erzeugen, ziehe ich meine Aussage gerne zurück. Bis jetzt habe ich aber keinen signifikanten Core-Bonus gesehen. Den Takt zu erhöhen hat dagegen immer etwas gebracht, mit linearer Skalierung.
Dan Baker und Tim Kipp hatten ja damals gesagt, dass Civ auf min. 12 Kerne skaliert. Aber damit meinten sie mE einfach nur, dass die Engine die Kerne nutzen kann. Dass da ein konkretes Leistungsplus entsteht haben sie nicht gesagt.
[...] And that's allowed us, at least in terms of efficiency, to scale very well on a single core. The second side of that is that Dan and I looked very hard at threading scalability in terms of how games typically wind up implementing that. Most of the games and the game engines you'll find out there are very functionally threaded which means they'll run physics on a thread, they'll run graphics on a thread. It's very very coarse. Very very coarse and beyond say the Xbox that doesn't scale very well. Once you get to quad core and beyond you just wind up running out of functional elements and you wind up requiring to subdivide. However if you design for a functional paradigm what happens is that trying to break that up into smaller pieces now introduces additional overhead. So we design everything from the ground up to be job-based, task-based, very well encapsulated so we've scaled up to, what is it, 12...
DB: We've tested on 12 threads but, I mean, we don't have anything more than 12 to test on but we're pretty confident it'll work with a lot more. Yeah it's amazing how it spreads across the whole system.
http://www.civilization5.com/#/community/podcast_transcript_5
So wie ich das interpretiere sinkt durch mehrer die Utilization der Kerne und sinkt mit jedem weiteren Kern. Aber da Civ V dennoch Takt und IPC mag, erhöht sich eben nicht die Leistung, eher der Overhead.
Pentium M
2014-04-13, 20:44:56
Power Gating gibt es bei AMD doch erst seit Llano.
Beweis durch Behauptung? Wenn sie zwischenzeitlich nichts an der Engine getan haben( wovon ich nicht ausgehe, sonst hätten sie es kommuniziert) skaliert es auf 4 Kerne und danach kann man nur noch den Takt hochschrauben.
Beweise gab es damals im PCGH Heft.
Firaxis betont, dass Civilization 5 generell mit dem Fokus auf Multithreading entwickelt wurde, unsere Benchmarks [siehe PCGH 11/2010, welche am 04. Oktober erscheint] bestätigen dies: Sechs Kerne sind schneller als vier, egal ob beim Scrollen auf der Map oder den Berechnungen während eines Zuges. Bei letzteren sind sechs Kerne fast ein Drittel flotter!
http://www.pcgameshardware.de/Civilization-5-PC-234217/Tests/Civilization-5-DirectX-11-im-Praxistest-plus-Interview-mit-Firaxis-Graphics-Lead-776000/
Es ist auch allgemein bekannt, dass Civ 5 gut auslastet. Von einer 2 Kerne Auslastung kann da keine Rede sein.
Unicous
2014-04-13, 20:58:37
Ich habe nicht von Power Gating gesprochen. Turbo Core hingegen gibt es seit Thuban.
Power Gating heißt ja, dass die Kerne komplett stromlos geschaltet werden. Bei der ersten Turbo Core Implementierung ging es ja nur darum den TDP headroom nutzen zu können, während ein Teil der Kerne "schläft".
@mrck
Cool, zwei Sätze ohne Benchmarks. Na vielen Dank. Waren die 6-Kerner auch beim Takt beschnitten, bzw. auf dem Niveau der anderen Kerne? war Turbo Boost ausgeschaltet? Dies Fragen beantworten diese zwei Sätze nicht. Wie wurde ermittelt, dass der 6-Kerner nicht nur höher taktet und hat man Utilisation der Kerne überprüft? Turbo Boost hat zu der Zeit noch ein wenig anders funktioniert als heutzutage.
Pentium M
2014-04-13, 22:07:43
Bei meinem 1090T haben einzelne Kerne bei 4 Threads(Auslastung 100%) auf 800 Mhz getaktet,trotzdem lag bei allen
Kernen 1.4 V an.Deswegen hat der Turbo Modus bei mir gar nicht bis wenig gegriffen.
Kartenlehrling
2014-04-13, 22:52:55
Wie gesagt, wenn es Test gibt, die Gegenteiliges zu Tage fördern,
also dass mehr als 4 Kerne sich positiv auf die Performance auswirken und nicht einfach nur Last erzeugen, ziehe ich meine Aussage gerne zurück.
Bis jetzt habe ich aber keinen signifikanten Core-Bonus gesehen. Den Takt zu erhöhen hat dagegen immer etwas gebracht, mit linearer Skalierung.
Dan Baker und Tim Kipp hatten ja damals gesagt, dass Civ auf min. 12 Kerne skaliert.
Aber damit meinten sie mE einfach nur, dass die Engine die Kerne nutzen kann. Dass da ein konkretes Leistungsplus entsteht haben sie nicht gesagt.
Genau soo ist es,
6,8 oder 12 thread wirklich ausnutzten ist was anderes,
die jetztigen Spiele verteilen höchstens und es läuft eigentlich immer noch nur auf einen "main core", wenn wir glück haben 2core.
Und wenn ich Microsoft richtig interpretiere gibts mit DX12 auch nur 6 "echte" core maximal,
aber ich denke die nächsten 5 Jahren können wir froh sein wenn es 4 core sind.
Kartenlehrling
2014-04-13, 22:56:04
Ausserdem steht für den Consolen Spieleentwicker sowieso nur 6 AMD Kerne von den 8 bereit, jedenfalls bei der Xbox und bei der Playstation wohl auch.
M4xw0lf
2014-04-14, 11:21:43
Da ja das neue Civilization Beyond Earth auch mit Mantle kommen wird - kann man hier auch mit Leistungssprüngen rechnen? Das Problem bei Rundenstrategiespielen sind ja nicht die FPS, sondern wie lange die CPU braucht, um die Züge der KI zu berechnen. Kann Mantle hier durch besseres Multithreading oder sonstwas Vorteile bringen?
fondness
2014-04-14, 11:24:20
Ich würde mal davon ausgehen, das kein Entwickler Mantle aus Langeweile einsetzt, sondern weil es eben auch was bringt. Und das muss nicht mal immer nur Performance sein.
Iruwen
2014-04-14, 11:55:38
Wie soll Mantle bei der KI helfen außer die CPU allgemein zu entlasten damit mehr Ressourcen dafür zur Verfügung stehen?
Unicous
2014-04-14, 12:19:30
Frag Oxide Games, bzw. Tim Kipp und Dan Baker.
dildo4u
2014-04-14, 12:31:45
Ihr unterschätzt die CPU Last gerade kleinere AMD APU's hätten massive Probleme ohne Mantle.
http://www.techspot.com/review/320-civilization-v-performance/page12.html
mironicus
2014-04-14, 12:32:46
Wie soll Mantle bei der KI helfen außer die CPU allgemein zu entlasten damit mehr Ressourcen dafür zur Verfügung stehen?
Hab mehr Vertrauen in Mantle! :biggrin:
Iruwen
2014-04-14, 13:35:26
http://i.imgur.com/tWgl41im.jpg
Ok.
Kartenlehrling
2014-04-14, 13:46:49
Ihr unterschätzt die CPU Last gerade kleinere AMD APU's hätten massive Probleme ohne Mantle.
Du hast eigentlich den falschen CPU-test verlinkt, die CPU-Takt Skalierung ist viel wichtiger und die kann durch Mantle auch reduziert werden.
Weil der vergleich i7-920, i5-750 und dem i3-540 zeigt das man bei Test schon im GPU Limit (gtx480) war oder mehr als 4Kerne/Threads nichts bringen.
Ein Spiele wie das 4 Jahre alte Civilization V das soo stark von CPU-Takt Skalierung profitiert (http://static.techspot.com/articles-info/320/bench/CPU_01.png) zeigt doch das es immer noch alles Maincore läuft und das wollen sie ja mit Mantle und DX12 beseitigen.
http://www.extremetech.com/wp-content/uploads/2014/03/2806.cpucompare-640x450.png
Arcanoxer
2014-04-15, 22:08:33
Kein OSX und SteamOS support, aber Linux?
Was möchte uns michael_marks damit sagen?! :confused:
AMD's Mantle May Still Come To Linux (http://www.gamingonlinux.com/articles/amds-mantle-may-still-come-to-linux-despite-other-websites-reports.3490)
Knuddelbearli
2014-04-15, 22:21:24
Das Linux Zukunftsträchtiger ist als Mac? Oder Apple Mac einfach auch nicht dafür öffnen will? ( Müssten dann ja auch immer schön angeben ob in dem Mac eine Radeon oder Geforce Karte steckt usw )
Rente
2014-04-15, 23:34:28
Das bezieht sich auf das nächste CIV - es kommt für Linux mit AMD-Karten, aber nicht/nicht direkt für SteamOS und gar nicht für MacOSX.
Mantle wird es nach aktuellem Stand weder noch geben, weil es nun mal kein Mantle für Linux gibt.
Steht aber auch alles da...
Now, bear in mind this is specifically talking about the new Civilization game that is coming to Linux, it cannot support Mantle on Linux/SteamOS since Mantle isn't yet on Linux.
Arcanoxer
2014-04-15, 23:51:13
Das bezieht sich auf das nächste CIV - es kommt für Linux mit AMD-Karten, aber nicht/nicht direkt für SteamOS und gar nicht für MacOSX.
Schon klar das es sich auf das neue Civilization bezieht, aber warum Linux und kein SteamOS support? *shrug*
Unicous
2014-04-16, 00:04:43
Über was quarkt ihr jetzt eigentlich? Ein Typ (eh. AMD jetzt Aspyr) bei Twitter ist traurig, dass es Mantle nicht für Linux gibt und Nick Thibieroz macht ihm Hoffnung, dass sie schauen ob Mantle auf für andere Plattformen kommt.
Warum sollte Civ BE keinen SteamOS Support bekommen. Es wird sicherlich wieder an Steam gebunden sein und da wird es auch eine SteamOS Version geben. Wo ist jetzt die Henne im Ei vergraben? Oder wo hat das Ei die Henne gelegt?
Der Autor echauffiert sich noch über den Linux Support zu Recht/unrecht (die neuesten Entwicklungen sind ja mehr als positiv zu sehen) und schon hat man daraus einen "Artikel" zusammengeschustert.
*schnarch
Viel interessanter ist doch das hier:
https://twitter.com/NThibieroz/status/455015373705080833
Ein kurzes Gespräch zwischen Ian Cutress (von Anandtech) über Civ V
Nick Thibieroz
Excited to work with @FiraxisGames on Mantle support for Civilization: Beyond Earth. Mantle is a great match for the demanding Civ engine!
Ian Cutress
In previous Civ iterations, frame rates haven't mattered much. It's all about turn time algorithms.
Nick Thibieroz
fps matters a lot in Civ 5 engine. Try end-game at high res. Thousands of models rendered per-frame.
Ian Cutress
It was in my benchmark suite for CPU choice, but readership preferred faster turns over FPS http://goo.gl/ieBQUT
Nick Thibieroz
Mantle saves CPU time which could be re-used elsewhere (e.g. AI). It's too early to comment on this though.
Was ich ja gesagt habe. Mantle kann in vielerlei Hinsicht helfen.
Iruwen
2014-04-16, 11:21:55
Der letzte Satz spiegelt genau wieder was ich oben meinte, Mantle entlastet die CPU beim Rendering und die freiwerdenden Ressourcen können schlicht für andere Dinge verwendet werden. Keine Magie.
Unicous
2014-04-16, 12:19:12
Und wer spricht hier von Magie? Das Meme hast du doch bemüht, weil wir keine Mantle-Entwickler sind und dir diese Frage im Detail nicht beantworten können.
Wie ich bereits gesagt habe, gehen Tim Kipp und Dan Baker darauf deutlich stärker ein in ihren Talks und Interviews. Denn die Nitrous Engine eignet sich sicherlich nicht nur für RTS-Tech Demos.
Iruwen
2014-04-16, 12:44:53
Das Bild bezog sich einzig auf mironicus offensichtlichen Scherz und war ein ebensolcher.
Nick beantwortet die Frage mit seinem letzten von dir zitierten Satz für mich hinreichend.
Auslöser meiner Frage war halt:
Ich würde mal davon ausgehen, das kein Entwickler Mantle aus Langeweile einsetzt, sondern weil es eben auch was bringt. Und das muss nicht mal immer nur Performance sein.
Das kann man entweder so interpretieren, dass die freiwerdenden Ressourcen für andere Dinge als mehr FPS genutzt werden, was ja auch der Fall ist, oder wenn man M4xw0lfs Frage die damit wohl beantwortet werden sollte berücksichtigt, dass damit auch direkt andere Dinge beschleunigt werden. Aber Mantle ist halt "nur" eine Grafik-API.
fondness
2014-04-16, 13:14:43
Das kann man entweder so interpretieren, dass die freiwerdenden Ressourcen für andere Dinge als mehr FPS genutzt werden, was ja auch der Fall ist, oder wenn man M4xw0lfs Frage die damit wohl beantwortet werden sollte berücksichtigt, dass damit auch direkt andere Dinge beschleunigt werden. Aber Mantle ist halt "nur" eine Grafik-API.
Das bezog sich eher auf Dinge wie AFR-loses Crossfire oder APU-Optimierungen wie zB in Plants vs. Zombies angekündigt.
Iruwen
2014-04-16, 13:26:35
Okay, dann wäre das geklärt :cool:
Iruwen
2014-04-16, 18:43:50
Du kannst ja mal probieren das SDK zu bekommen.
http://developer.amd.com/mantle/
fondness
2014-04-19, 14:55:37
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Mantle-rendergrafik-in-cryengine-1118074/
In einem kürzlich von AMD veröffentlichten Video äußert sich Cryteks CEO Cevat Yerli zu den grafischen Möglichkeiten der Low-Level-API Mantle. Laut Yerli sei man durch Mantle in der Lage, CQ-Qualität - also die vorgerenderten Materials - mittels Ingame-Grafik zu erreichen. Die Cryengine sei das erste Grafikgerüst, das dieses Niveau schafft.
Die Ergebnisse der Zusammenarbeit zwischen AMD und Crytek wolle man schon bald veröffentlichen. Um was es sich dabei handelt, verriert Yerli nicht. Denkbar wäre etwa eine neue Ruby Techdemo, die bereits hinter verschlossenen Türen gezeigt worden sein soll.
uNutMUU3TOY
Schaffe89
2014-04-19, 16:03:25
Ist doch Käse was der da plappert.
Unicous
2014-04-19, 16:08:53
Ist doch Käse was der da plappert.
Danke für den input. Das hat mir die Augen geöffnet. So ein Schwätzer (der Cevat).
*facepalm
aufkrawall
2014-04-19, 16:22:37
Gut, dass du besser argumentierst.
Schaffe89
2014-04-19, 16:35:45
Ähm das ist eine reine Marketingaussage entweder für Mantle oder ihre Cryengine, oder beides.
Wenn Mantle das jetzt möglich machen soll, dann bin ich gespannt wie.
Dafür braucht man sicherlich kein Mantle, das geht genauso mit Directx auch.
Ich wüsste nicht welche Performancehürden Mantle umgehen würde, damit eine GPU das jetzt flüssig berechnen kann.
Unicous
2014-04-19, 16:46:27
Gut, dass du besser argumentierst.
Wo soll ich denn anfangen? Er hat ja noch nicht mal gesagt was für Käse es ist. Gouda? Leberkäse? Emmentaler? Rochefort?
Das ist doch keine Argumentationsgrundlage. Man muss vorher schon die Rahm(en)bedingungen festlegen.
Iruwen
2014-04-19, 17:36:09
Yerli hat schlicht gar nichts gesagt, aber das mit vielen Worten. Insofern gibt es auch nicht viel zu argumentieren, das war soweit reine PR.
AwesomeSauce
2014-04-19, 17:56:17
Danke für den input. Das hat mir die Augen geöffnet. So ein Schwätzer.
*facepalm
Warum immer gleich so bissig? Seit du angemeldet bist, wurdest du bereits zwei Mal gesperrt. Take the Hint! Überdenk deine Diskussionsweise...
Unicous
2014-04-19, 18:13:55
Warum immer gleich so bissig? Seit du angemeldet bist, wurdest du bereits zwei Mal gesperrt. Take the Hint! Überdenk deine Diskussionsweise...
Now wait. Anstatt konstruktiv über das Gesagte zu diskutieren! wird mit Käse und Geplapper "argumentiert" und daraus soll ich noch etwas Positives ableiten und eine Debatte führen? Der Dumme ist immer der, der sich solch einen unsachlichen Blödsinn nicht gefallen lässt. Der Gute ist derjenige, der weghört und nichts macht. Hat ja wie man aus der Geschichte lernt immer sehr gut geklappt.
Übrigens wie oft und wann und für wie lange ich gesperrt wurde ist genauso OT und hat hier nichts zu suchen und ist auch kein Beitrag zum Thema wie du vllt. selbst festgestellt hast.
-/\-CruNcher-/\-
2014-04-19, 18:43:40
Vor allem was zur Hölle ist CQ Qualität ?
Ich dachte wir streben alle nach CGI Animated in Realtime Quality (Raytracing nahe Resultate mit Rasterization und mixes) ;)
CQ Qualität ist ja was ganz neues :)
Und wir sind teilweise schon mittendrin mit HDR,GI und PBR/PBS :)
Yerli spricht von CG quality und spricht hier explizit das PBR und PBS der CryEngine und die Fortschritte mit Ryse an und vor allem die Beschleunigung die man mit Mantle oder DX12 dort erreichen kann.
Iruwen
2014-04-19, 18:57:19
Now wait. Anstatt konstruktiv über das Gesagte zu diskutieren! wird mit Käse und Geplapper "argumentiert" und daraus soll ich noch etwas Positives ableiten und eine Debatte führen? Der Dumme ist immer der, der sich solch einen unsachlichen Blödsinn nicht gefallen lässt. Der Gute ist derjenige, der weghört und nichts macht. Hat ja wie man aus der Geschichte lernt immer sehr gut geklappt.
Übrigens wie oft und wann und für wie lange ich gesperrt wurde ist genauso OT und hat hier nichts zu suchen und ist auch kein Beitrag zum Thema wie du vllt. selbst festgestellt hast.
Du schreibst zuviel ohne etwas auszusagen, nur um des Schreibens willen. Im Gegensatz zu Yerli hat das hier aber nichtmal einen PR-Effekt.
-/\-CruNcher-/\-
2014-04-19, 19:13:58
Viel bessere Erklärung für Anfänger weniger PR :)
2_zlJFpDp6A
Ailuros
2014-04-20, 22:34:07
Koennen wir in der Zwischenzeit den Ton wieder normalisieren? Danke
=Floi=
2014-04-21, 01:01:29
könnte man über das SDK nicht eine portierung für NV karten machen?
Unicous
2014-04-21, 03:30:07
Machbar wäre es sicherlich (solange das SDK nicht zu GCN-affin ist). Aber wer will das machen?
Nvidia jedenfalls nicht.:tongue: Und für ein Hobbyprojekt ist das zu viel Aufwand.
Kartenlehrling
2014-04-21, 11:12:27
Reingeschaut hat Nvidia bestimmt schon, um sich die Rosinen da raus zu picken.
del_4901
2014-04-21, 13:32:06
könnte man über das SDK nicht eine portierung für NV karten machen?
Portierung auf was? Directx? :ugly:
Ne nen eigenen Treiber schreiben natürlich. Für die NVidia-Community mit überlegenem Intellekt sollte das ja kein Problem sein.
del_4901
2014-04-21, 18:55:08
Ne nen eigenen Treiber schreiben natürlich. Für die NVidia-Community mit überlegenem Intellekt sollte das ja kein Problem sein.
Das wahre ja fast schon Nouveau, und sicherlich auch genauso performant. :ugly:
Nouveau ist nur so extrem lahm, weil sie nicht wissen, wie man die GPU hochtaktet. Das macht NV per Microcontroller.
del_4901
2014-04-21, 19:23:30
Ich kann mir kaum vorstellen, das deren Treiber so ausgetüftelt ist wie das original. Ich hab schon in Treibersourcen von IHVs gearbeitet, da stecken viele Mannstunden drin.
Natürlich wäre er auch mit korrektem Takt noch langsamer, aber lang nicht so extrem.
Liszca
2014-04-21, 21:16:53
Natürlich wäre er auch mit korrektem Takt noch langsamer, aber lang nicht so extrem.
Geht "reclock" nicht schon seit letztem jahr? Oder war das nur fuer bestmmte modelle oder verwechsel ich da was mit den radeon treibern?
disap.ed
2014-04-21, 22:09:05
Viel bessere Erklärung für Anfänger weniger PR :)
http://youtu.be/2_zlJFpDp6A
Ist der M$-Typ auf Drogen? ;)
Dafür bringt einen Raja Koduri wieder runter *lol*
-/\-CruNcher-/\-
2014-04-21, 22:15:12
Nein Development Manager, hat er wohl in seinem Manager Seminar so gelernt ;)
N0Thing
2014-04-22, 09:10:16
Man lernt in einem Seminar bei einer Präsentation möglichst ausgelaugt auszusehen und immer wieder den Text vom Monitor auf Fußbodenhöhe abzulesen und dann überaus enthusiastisch ein bis zwei Sätze stockend rauszuhauen?
Ich sollte auch Manager Seminare abhalten. :D
Geht "reclock" nicht schon seit letztem jahr? Oder war das nur fuer bestmmte modelle oder verwechsel ich da was mit den radeon treibern?
Verwechselst du wohl.
Butterfly
2014-04-22, 12:17:24
Hab mir mal gerade die Techdemo von Crytek 3 angeschaut, das sieht schon sehr gut aus: http://www.youtube.com/watch?v=NGhfSe0Gvvw (Start 5:12)
Das kann man nicht mit den vorhandenen CryTek3 YouTube Videos vergleichen die älter sind, z.B.: http://www.youtube.com/watch?v=H9D6Z2sCNtg
Gimmick
2014-04-22, 12:29:34
Hab mir mal gerade die Techdemo von Crytek 3 angeschaut, das sieht schon sehr gut aus: http://www.youtube.com/watch?v=NGhfSe0Gvvw (Start 5:12)
Das kann man nicht mit den vorhandenen CryTek3 YouTube Videos vergleichen die älter sind, z.B.: http://www.youtube.com/watch?v=H9D6Z2sCNtg
Das ist doch das ~1 Jahr alte Crysis 3 Techvideo
http://youtu.be/JWvgETOo5ek
?
-/\-CruNcher-/\-
2014-04-23, 09:59:59
Hab mir mal gerade die Techdemo von Crytek 3 angeschaut, das sieht schon sehr gut aus: http://www.youtube.com/watch?v=NGhfSe0Gvvw (Start 5:12)
Das kann man nicht mit den vorhandenen CryTek3 YouTube Videos vergleichen die älter sind, z.B.: http://www.youtube.com/watch?v=H9D6Z2sCNtg
Natürlich kannst du das vergleichen es ist das selbe nur der Ryse branch ist anders durch das hinzufügen von PBS und dem Übershader und dem tiled compute part :)
"Geforce Platform" lol da sieht man mal wie sich das eingebrannt hat ins Hirn das er selbst ihre eigene Platform kurz umbennent ;)
dungeonlight
2014-04-23, 17:31:55
Wenn die User gruppenintelligent sind, lassen sie DirectX12 im Regen stehen
und setzen stattdessen auf Mantle; warum ? Weil Konkurrenz das Geschäft
belebt, und diesbezüglich der Kunde immer der lachende Dritte ist.
Ohne Mantle hätte Microsoft noch nicht mal im Jahr 2016 DirectX12 rausgebracht,
und kaum taucht in Form von Mantle Konkurrenz auf und man hat nicht mehr
das Monopol sicher, schwups, packen sie auf einmal DirectX12 auf den Tisch.
Also verar... kann ich mich alleine...
fondness
2014-04-25, 22:16:21
Q. Why did the developers of the upcoming Sid Meier’s Civilization: Beyond Earth decide to optimize the game for the AMD Mantle API and what are the benefits of using the API?
A. Mantle is an extremely powerful graphics API. It works very efficiently at a much lower level than the game engine and has fully parallel draw submission, which lets us spread the work around multiple cores. For a game like Civilization which renders a significant number of things on the screen, this has reduced the cost of a draw call by an order of magnitude. This is an amazing improvement in performance for us.
Q. The AMD Mantle website states that “Mantle makes game development easier.” If this is so, how does Mantle and the Mantle API make game development easier for developers?
A. The Mantle API is able to be backed with a much simpler, faster driver. The increased efficiency means that we no longer need to add as much complexity to our rendering pipeline to achieve the required level of performance. Mantle’s simplicity also means that it will probably be more stable over the long run. We anticipate that the bug rate for Mantle to be lower than previous systems we worked with.
Q. What have you liked best about developing Sid Meier’s Civilization: Beyond Earth?
A. Mantle’s a pretty significant step forward in graphic APIs, and we’re pleased to have the opportunity to get in there and iterate on the Civilization game engine with this tech. We’ve also had the opportunity to work on the terrain engine to help push the appearance of the alien world helping to align it with the art team’s incredibly cool vision.
http://blog.programmableweb.com/2014/04/24/2k-announces-game-that-will-utilize-new-amd-mantle-graphics-api/
Unicous
2014-04-25, 22:31:11
"Yellow"]In before random "Das ist doch Bullshit" Schaffe89 comment.
Da hat sich die Millionen an AMD Marketingdollar doch gelohnt. *zwinkerzwinker*
Sie sagen also dass sie Draw Calls effizienter nutzen können, bzw. die "Kosten" für Draw Calls reduziert werden.
Das hört sich irgendwie nach einer anderen Herangehensweise als z.B. bei Star Swarm an. Oder meinen sie dass sie die Anzahl an Draw Calls erhöhen konnten und die Engine dadurch effizienter ist.
Hmm. So richtig schlau wird man nicht daraus.
Iruwen
2014-04-25, 23:57:00
Im Gegensatz zu dem Video ist das schon konkret. Außer Yerlis Ansprache wurde gekürzt, ist ja ein paarmal geschnitten, aber da fehlt vermutlich nur das betretene Schweigen :rolleyes:
Klingt doch genau wie bei Star Swarm. Reduzierter Overhead und besseres Multithreading ermöglichen mehr Draw Calls bei weniger Last was Ressourcen für andere Dinge wie KI freiwerden lässt. Keine Überraschung.
uweskw
2014-04-26, 04:34:00
........
und kaum taucht in Form von Mantle Konkurrenz auf und man hat nicht mehr
das Monopol sicher, schwups, packen sie auf einmal DirectX12 auf den Tisch.
Also verar... kann ich mich alleine...
Ja nur leider springen all die „Fachmedien“ dankbar auf den MS Zug auf und erzählen uns wie fantastisch DX 12 wird. Kurzfristig gut für den User, aber AMD hat wieder mal die Arschkarte gezogen und seine Investitionen verloren. So erhält man den Status quo und Intel sowie NVIDIA werden uns immer nur das absolut notwendige an Fortschritt gönnen. Und die Kuh weiter melken!
Einst versuchte jeder Hersteller möglichst schnell auf eine kleinere Ferigungsbreite umzustellen um der Konkurrenz einen Schritt voraus zu sein. Er wusste, dass die anfänglich höheren Kosten über die Stückzahl wieder eingefangen werden. Heute beweisen uns all die Fachmedien ihre Wirtschaftskenntnisse und erklären uns warum es sich nicht lohnt auf den (anfänglich!) teureren Prozess umzusteigen. So sichert man sich Milliardengewinne und melkt den Kunden so lange es nur irgend geht.
Greetz
U. S.
Ailuros
2014-04-26, 09:18:52
Ja nur leider springen all die „Fachmedien“ dankbar auf den MS Zug auf und erzählen uns wie fantastisch DX 12 wird. Kurzfristig gut für den User, aber AMD hat wieder mal die Arschkarte gezogen und seine Investitionen verloren. So erhält man den Status quo und Intel sowie NVIDIA werden uns immer nur das absolut notwendige an Fortschritt gönnen. Und die Kuh weiter melken!
Waehrend Du mal wieder wie ueblich in jeder Ecke eine Verschwoerung gegen AMD siehst, sollte mal jemand anmerken dass AMD zur Entwicklung von DX12 aktiv beigetragen hat und ich bin als User genauso dankbar dafuer als auch fuer Mantle welches teilweise eine indirekte Animierung in meinem Buch war dass DX12 zur Notwendigkeit wird.
Einst versuchte jeder Hersteller möglichst schnell auf eine kleinere Ferigungsbreite umzustellen um der Konkurrenz einen Schritt voraus zu sein. Er wusste, dass die anfänglich höheren Kosten über die Stückzahl wieder eingefangen werden. Heute beweisen uns all die Fachmedien ihre Wirtschaftskenntnisse und erklären uns warum es sich nicht lohnt auf den (anfänglich!) teureren Prozess umzusteigen. So sichert man sich Milliardengewinne und melkt den Kunden so lange es nur irgend geht.
Greetz
U. S.
Das zeigt mal wieder dass Du nicht den blassesten Schimmer an Ahnung hast wenn es zu Herstellungs-technologie kommt. Hat aber auch nichts mit dem Thema hier zu tun, ergo begrenz Dich bitte aufs eigentliche Thema.
-/\-CruNcher-/\-
2014-04-26, 12:09:54
Sorry for offtop
Ja nur leider springen all die „Fachmedien“ dankbar auf den MS Zug auf und erzählen uns wie fantastisch DX 12 wird. Kurzfristig gut für den User, aber AMD hat wieder mal die Arschkarte gezogen und seine Investitionen verloren. So erhält man den Status quo und Intel sowie NVIDIA werden uns immer nur das absolut notwendige an Fortschritt gönnen. Und die Kuh weiter melken!
Einst versuchte jeder Hersteller möglichst schnell auf eine kleinere Ferigungsbreite umzustellen um der Konkurrenz einen Schritt voraus zu sein. Er wusste, dass die anfänglich höheren Kosten über die Stückzahl wieder eingefangen werden. Heute beweisen uns all die Fachmedien ihre Wirtschaftskenntnisse und erklären uns warum es sich nicht lohnt auf den (anfänglich!) teureren Prozess umzusteigen. So sichert man sich Milliardengewinne und melkt den Kunden so lange es nur irgend geht.
Greetz
U. S.
Schon mal drüber nachgedacht das es besser ist auch in Verbindung mit unserem Resourcenverbrauch, Silicium ist auch nicht unendlich vorhanden ganz im Gegenteil dank Smartphone und Co wird es rassant verbraucht ;)
Der Markt für Polysilicium bzw. Reinstsilicium ist seit Mitte der 2000er Jahre im Umbruch. Aufgrund des hohen Bedarfes der Solarbranche kam es schon 2006 zu einer Siliciumknappheit, und nachdem Polysilicium aufgrund der hohen Nachfrage in den Jahren 2008/2009 nicht mehr in ausreichender Menge verfügbar war, stieg sein Preis so stark, dass eine ganze Reihe von Firmen dazu überging, eigene neue Produktionsanlagen zu errichten.
Nightspider
2014-04-26, 12:27:15
Silizium ist ganz bestimmt der letzte Rohstoff um den du dir sorgen machen musst. :rolleyes:
Iruwen
2014-04-26, 12:49:06
Auch mal den Rest zitieren:
Aber auch die etablierten Hersteller erweiterten ihre Kapazitäten stark, ganz zu schweigen von zahlreichen völlig neuen Anbietern, vor allem aus Asien, so dass die Frage, welcher dieser Hersteller am Ende in der Lage sein würde, seine Anlagen beizeiten in Betrieb zu nehmen und bei nun wieder stark gefallenen Preisen noch profitabel zu produzieren, zum Ende des Jahrzehnts schwer zu beantworten war
-/\-CruNcher-/\-
2014-04-26, 13:09:34
Auch mal den Rest zitieren:
Dies resultierte aber in einem immens angestiegenen Energie- und Betriebstoffverbrauch für die Gewinnung, lass uns diese diskussion aber mal sein geht zu weit offtop.
soLofox
2014-04-26, 21:51:00
ich hab's schon in den 14.4 final treiber-thread geschrieben:
bei mir funktioniert mantle mit BF4 nicht mehr. ich bekomme ständig "Battlefield 4 funktioniert nicht mehr". meistens schon direkt beim laden, manchmal erst nach 5-10min im spiel.
hat jemand eine idee woran das liegt? ich hatte vorher schon alles gemacht, treiber neu installiert, windows neu aufgesetzt, grafikkarte runtergetaktet, alles. dann kam ich durch zufall auf den fehler. mit DX11 jetzt null probleme.
Blediator16
2014-04-26, 23:19:44
ich hab's schon in den 14.4 final treiber-thread geschrieben:
bei mir funktioniert mantle mit BF4 nicht mehr. ich bekomme ständig "Battlefield 4 funktioniert nicht mehr". meistens schon direkt beim laden, manchmal erst nach 5-10min im spiel.
hat jemand eine idee woran das liegt? ich hatte vorher schon alles gemacht, treiber neu installiert, windows neu aufgesetzt, grafikkarte runtergetaktet, alles. dann kam ich durch zufall auf den fehler. mit DX11 jetzt null probleme.
Spiel neuinstallieren? Weil wenn du alles bis auf das Spiel schon neu gemacht hast, dann kann das kein Zufall sein, sonst würde man an jeder Ecke tausende von Beschwerden sehen bezüglich dieses Problems.
soLofox
2014-04-26, 23:47:05
spiel 2x neu installiert, leider ohne erfolg.
HarryHirsch
2014-04-26, 23:49:59
Läuft hier ohne Probleme. So Probleme kommen hier nur mit zu viel Takt.
foenfrisur
2014-04-27, 11:56:10
alten treiber mal probiert, ob dann der fehler immernoch vorhanden ist?
bei mir lüppt ooch allet wie jeschnitten brot.
mfg
fondness
2014-04-28, 16:52:02
„Plants vs. Zombies Garden Warfare“ auf PC am 24. Juni
http://www.computerbase.de/2014-04/plants-vs-zombies-garden-warfare-auf-pc-am-24.-juni/
fondness
2014-04-28, 18:37:54
Why We Went With Mantle (http://www.firaxis.com/?/S=5845faeea69df1fb3c3a75a2c7c3b2beb5f6cb11/blog/single/why-we-went-with-mantle)
Civilization graphic engineers Josh Barczak and John Kloetzli introduce AMD’s Mantle API, and explain why Firaxis is supporting Mantle with Civilization: Beyond Earth.
Unicous
2014-04-28, 18:52:59
Danke für den Link.
Mantle has required an up-front investment, but the cost for future products to continue offering it will be considerably lower.
Civ VI. Lechz.=)
edit:
In the long run, we expect Mantle to drive the design of future graphics APIs, and by investing in it now, we are helping to create an environment which is more favorable to us and to our customers.
"Mantle now, DX12 later" lese ich daraus. So hatte ich es mir vorgestellt. Mantle als Lern-API um dann auf DX12 umzuschwenken und die Zeit dazwischen überbrücken zu können."
Auch wenn Mantle dann stirbt hat AMD daraus für zwei Jahre Profit schlagen können und mindshare "gesammelt". Und der ist mE sehr wichtig.
Und für Konsolenumsetzungen die dann auf DX12 setzen kann man das gesammelte Wissen dann sofort anwenden und kann dann GCN deutlich effizienter ansprechen. Win-Win-Win für AMD.
Iruwen
2014-04-28, 19:41:45
Ich glaube nicht, dass AMD daraus nennenswerten finanziellen Profit schlägt, und beim Gros der Anwender dürfte das Thema gar nicht angekommen sein, höchstens in Form eines äußerst holprigen Starts auch wenn der mehr BF4 als Mantle geschuldet war.
Unicous
2014-04-28, 20:03:38
Man(n) muss ja Profit nicht immer im monetären Sinne sehen.;) Man kann auch Profit daraus schlagen, in den Medien zu sein, bessere Entwicklerbeziehungen aufgebaut zu haben und bei Konsolen vllt. besseren Support bieten zu können. Auch hier könnte es ja Synergieeffekte geben besonders auch in Hinsicht auf Cross-Platform Titel.
Vllt. gibt es da dann auch Einsparmöglichkeiten die wiederum dann ja doch einer monetäre Vorteil sind. :tongue:
Den holprigen Start haben nur diejenigen mitbekommen, die sich damit auseinandergesetzt haben bzw. Mantle in der weiter laufenden Beta-Phase ausprobiert haben. Ich wüsste auch nicht, dass es explizit Berichte und Artikel gibt, die darauf hinweisen wie beschissen doch Mantle läuft bzw. sich generell schlecht über Mantle reden.
Da wird dann maximal in Detailfragen Kritik geübt. Aus der Community und Verschwörer-Ecke kamen dann eher die Negativ-Berichte. PR-Gag, DICE/AMD schummeln bei der BQ um mehr Performance herauszubekommen etc..
Der Otto-Normal Verbraucher der obendrein nicht BF4 zockt hat das nicht mitbekommen, weil er sich dafür gar nicht interessiert. Aber das AMD irgendeinen Mantel entwickelt hat der irgendetwas toll kann und ich dadurch nicht so eine teure CPU brauche, das hat er dann doch mitbekommen.
Bei Thief gibt es ja auch keinen massiven Probleme, jedenfalls habe ich nichts dahingehend gehört.
Mantle wird das PR-technisch gut ausschlachten können, dass jetzt auch Firaxis und andere Studios dafür interessieren und es auch sogleich implementieren zeigt das Interesse an der "Technologie". Ich kann mir vorstellen, dass in den nächsten Monaten noch so einige Mantle implementieren werden, denn vor Kurzem wurde der erlauchte Kreis ja erst erweitert bzw. es können/konnten sich weiter Studios "bewerben".
Wie gesagt, es geht auch um den mindshare... der kann mittelfristig dazu führen das auch der marketshare wächst. Wenn man über AMD redet und das auch noch positiv:biggrin: ist das eine sehr gute Zeit für die Marketing-/PR-Abteilung.
edit:
Auch interessant: John Kloetzli ist seit 2006 bei Firaxis hat also auch bei der Lore Engine Entwicklung mitgewirkt und Josh Barczak war vorher bei AMD/ATi und hat auch an Civ V mitgearbeitet, da er auf seiner persönlichen Seite die Projekte beschreibt an denen er mitgewirkt hat.
Kloetzli :biggrin: ? Ist der Schweizer?
P3DN haben CPU/Speicher-Skalierungsbenchmarks angestellt, worin sie DX mit Mantle in der vielfach angesprochenen Thief-Benchmarkszene vergleichen: http://www.planet3dnow.de/cms/6751-amd-mantle/subpage-update-4-windows-8-1-thief-skalierung-ergebnisse/
Fazit dort bezüglich dieses Testszenarios: DX profitiert bei der Durchschnittsbildrate stärker als Mantle, Mantle bei den Min-FPS (mithin bei der Gleichmässgikeit der Ausgabe) stärker als DX. Und die Folge der Summe aller Übertakungen ist grösser als die Summe der Folgen der einzelnen Übertaktungen.
Kaveri IGP profitiert im Thief-Benchmark auch etwas von Mantle (4-11% vs DX), aber bei weitem nicht so deutlich wie die stärkeren Grafikkarten, und es ruckle offenbar regelmässig, vermutlich wegen der Speicherbelegung.
Wahrscheinlich sind sich Mantle und DX12 von der API her so ähnlich, dass sie sehr einfach auszutauschen sind. Ich könnte mir vorstellen, dass man Mantle am Leben hällt und zusätzliche Hardware-Fähigkeiten zur Verfügung stellt, die mit DX12 nicht gehen.
schreiber
2014-04-30, 23:21:54
Da hab ich meine Zweifel, dass AMD Transistoren extra für Mantle opfert. Kann man sich imo nicht leisten, eventuell Performance in DX12 zu verschenken.
Knuddelbearli
2014-04-30, 23:26:10
Wieso? man hat ja auch aktuell die selbe Leistung wie NV ( DP sogar massiv schneller ) bei einem weit kleineren DIE
Und Nv schleppt ja auch CUDA PhysX usw mit.
schreiber
2014-04-30, 23:28:59
Cuda und Physx sind reine Softwarelösungen. Dafür hat nvidia keinen Transistor geopfert.
Gipsel
2014-05-01, 00:15:37
Cuda und Physx sind reine Softwarelösungen. Dafür hat nvidia keinen Transistor geopfert.Und genauso muß man für Mantle keinen Transistor opfern. Der Unterschied zu DX irgendwas ist ... nur Software!
Iruwen
2014-05-01, 00:33:05
Sagte er ja, als Antwort auf moBis Idee.
Gipsel
2014-05-01, 01:15:06
Sagte er ja, als Antwort auf moBis Idee.Nö, das schreibt er andersrum (moBi meint, daß man über Mantle weiterhin etwas näher an der Hardware ist und somit wohl mehr Features [oder diese zumindest direkter] zur Verfügung stehen; schreiber bezweifelt, daß AMD dafür Transistoren opfern würde; ich sage, da ist gar nicht nötig, da reine Softwaresache, genau wie bei CUDA oder PhysX). Lies nochmal moBis Post und schreibers letzten beiden! ;)
fondness
2014-05-01, 14:24:59
Word comes from AMD this morning that the private beta for the Mantle developer program has begun. Up until now the Mantle SDK (not to be confused with the drivers) has been in alpha development, with AMD granting access to only a handful of very close developers (EA/DICE, Nixxes, etc). The commencement of the private beta in turn marks the first time that the Mantle SDK has been made widely available to developers since it was announced at AMD’s 2013 Developer Summit back in November.
At this point AMD tells us that they have 40 developers pre-registered – AMD has been taking registrations for the past six months since the summit – and that they’re still taking additional developers. The beta, though much wider than the earlier alpha, is still a private beta, so developers still need to register with AMD for access. AMD tells us that “There are no objective criteria for being selected, as we are interested in talking to developers of all shapes and sizes. Past development experience is encouraged, however.”
http://www.anandtech.com/show/7985/amd-mantle-developer-private-beta-begins
Kartenlehrling
2014-05-01, 17:20:24
Für Thief fand ich die Mantle Anbindung nicht umbedingt nötig.
Ich kann es aber kaum erwarten ein hochwertiges Echtzeit-Strategiespiele (RTS ) mit Mantle zu sehen.
occ-kh@Mirko
2014-05-01, 17:23:49
Wenn man sich auch rein aus Interesse an der Verwendung registrieren muss ist klar das es irgendwann mehr werden. Ob die API dann auch tatsächlich zur Anwendung kommt, ein anderes Thema. Auf jeden Fall wird Mantle nicht ignoriert. Das ist doch auch schon was Wert und dürfte MS weiter anspornen auch DX weiter voran zu treiben. Konkurrenz belebt das Geschäft siehe Titan Z.
Butterfly
2014-05-01, 17:56:36
Für Thief fand ich die Mantle Anbindung nicht umbedingt nötig.
Ich kann es aber kaum erwarten ein hochwertiges Echtzeit-Strategiespiele (RTS ) mit Mantle zu sehen.
Notwendig wäre es nicht, da kann ich dir zustimmen.
Aber, mit Mantle kann man sicher sein, dass gewisse Features auch greifen und nicht "unter" gehen.
http://www.planet3dnow.de/vbulletin/showthread.php/417375-Thief-erhaelt-Unterstuetzung-fuer-AMD-Mantle-und-TrueAudio-durch-Patch-nachgereicht-2-Update?p=4890622&viewfull=1#post4890622
Thief in mittlerer Grafikqualität 1920x1080, SSAA niedrig, normale Details
DX11 CfX:
Min: 33.5FPS
Avg: 53.7FPS
Max: 108,9FPS (Am Ende vom Bench)
Mantle 6GiB VRAM (hUMA?):
Min: 51.5FPS
Avg: 67.7FPS
Max: 90.0FPS (In der Mitte vom Bench)
aufkrawall
2014-05-01, 18:06:38
6GB VRAM?
Wie das mit einer 3GB-Karte bei schnellen Umdrehungen läuft, kann man sich denken.
Butterfly
2014-05-01, 18:50:09
@aufkrawall
Ja, die VRAM Menge hab ich auch lange nicht verstanden!
Physikalisch sind bei Multi-GPU beide Karten mit der selben VRAM Menge gefüllt wie eine Karte.
Verbrauchstechnisch summiert sich die VRAM Menge mit mehr als einer GPU (Karte) im System.
hUMA ist APU only soweit ich weiß, aber wer weiß was die Entwickler so alles treiben. ;)
aufkrawall
2014-05-01, 18:53:43
Das Spiel kann nicht mit VRAM umgehen und Mantle braucht mehr als D3D11.
Beides zusammen ist denkbar ungünstig. Besonders für die Zielgruppe (mid range oder drunter).
Butterfly
2014-05-01, 19:07:23
Das Spiel kann nicht mit VRAM umgehen und Mantle braucht mehr als D3D11.
Beides zusammen ist denkbar ungünstig. Besonders für die Zielgruppe (mid range oder drunter).
Meinst du das Spiel Thief?
Wenn Mantle mehr VRAM Menge braucht deutet das für mich auf Änderungen beim Speichermanagement hin. :uponder:
Womöglich ist "dual graphics" doch keine schlechte Idee. :whisper:
Demirug
2014-05-01, 19:15:58
Meinst du das Spiel Thief?
Wenn Mantle mehr VRAM Menge braucht deutet das für mich auf Änderungen beim Speichermanagement hin. :uponder:
Das ist der DirectX Speichermanager gegen was eigenes. Der von DirectX ist massiv darauf optimiert wurden mitmöglichst wenig "echtem" Videospeicher auszukommen. Mantle macht mit dem Speicher genau das was es gesagt bekommt. Da gibt es dann halt jede Menge Möglichkeiten verschwenderisch damit umzugehen.
aufkrawall
2014-05-01, 19:30:38
Meinst du das Spiel Thief?
Ja, das haut auch mit D3D den VRAM voll. In 1440p hatt ich mit 2GB an verfügbarem VRAM in der Stadt bei schnellen Drehungen gerne Stocker.
fondness
2014-05-01, 19:39:11
6GB VRAM?
Wie das mit einer 3GB-Karte bei schnellen Umdrehungen läuft, kann man sich denken.
Welche AMD Karte hat bitte 6GB VRAM, da wurde einfach der VRAM bei Crossfire addiert. Und hUMA verwendet Thief sicher auch nicht.
Das ist der DirectX Speichermanager gegen was eigenes. Der von DirectX ist massiv darauf optimiert wurden mitmöglichst wenig "echtem" Videospeicher auszukommen. Mantle macht mit dem Speicher genau das was es gesagt bekommt. Da gibt es dann halt jede Menge Möglichkeiten verschwenderisch damit umzugehen.
Umgekehrt könnte man auch behaupten das es dadurch auch jede Menge Möglichkeiten gibt zu optimieren. Der Entwickler weiß schließlich am besten wann er welche Daten nicht mehr benötigt.
aufkrawall
2014-05-01, 19:48:07
Welche AMD Karte hat bitte 6GB VRAM, da wurde einfach der VRAM bei Crossfire addiert. Und hUMA verwendet Thief sicher auch nicht.
In seinem Profil stehen 6GB 7970s und von huma hab ich nichts gesagt.
Butterfly
2014-05-01, 19:56:58
Ja, das haut auch mit D3D den VRAM voll. In 1440p hatt ich mit 2GB an verfügbarem VRAM in der Stadt bei schnellen Drehungen gerne Stocker.
Ich bin noch nicht so weit bei Thief, aber das was ich bisher spielen konnte, war alller erste Sahne!
Zumindest vom Inputfeedback (CfX an im Treiber)
Festlegen ist immer so eine Sache, daher sind auch meine zwei Ladys noch nicht geflutet mit H²O. :)
Welche AMD Karte hat bitte 6GB VRAM, da wurde einfach der VRAM bei Crossfire addiert. Und hUMA verwendet Thief sicher auch nicht.
Schon probiert mit Kaveri :confused:
Umgekehrt könnte man auch behaupten das es dadurch auch jede Menge Möglichkeiten gibt zu optimieren. Der Entwickler weiß schließlich am besten wann er welche Daten nicht mehr benötigt.
Ein Entwickler wird immer GDDR5 bevorzugen, auch wenn DDR4 vorhanden ist. =)
fondness
2014-05-01, 20:21:35
In seinem Profil stehen 6GB 7970s und von huma hab ich nichts gesagt.
Und weil er 6GB Karten hat heißt das das es mit 3Gb Karte ruckelt? Spannende Schlussfolgerung^^
Schon probiert mit Kaveri :confused:
Soetwas würde man kommunizieren, auch gibt es genug Benchmarks mit Kaveri die keine besondere Steigerung zeigen.
aufkrawall
2014-05-01, 20:25:47
Warum sind die 2GB Karten mit Mantle wohl langsamer als mit D3D, wenn der VRAM voll ist?
http://www.gamestar.de/spiele/thief/artikel/thief_im_mantle_check,44861,3033801,2.html
Ob die 6GB bei dem User voll waren, weiß ich nicht. Wie du ja schon gemerkt hast, ist das nicht ganz stimmig, was er schreibt (huma...).
Butterfly
2014-05-02, 12:03:09
@aufkrawall
Das liegt nicht am vollen VRAM an sich, sondern am überlaufen. Wobei überlaufen nichts anderes ist wie auslagern in den CPU RAM, wenn dieser auch voll ist, geht es weiter auf die Festplatte.
Das verschieben der Daten ist aufwendig und frisst relative viel Leistung.
http://www.planet3dnow.de/cms/6751-amd-mantle/subpage-update-4-windows-8-1-thief-skalierung-vorwort/
Bezüglich 6GiB VRAM, das hab ich aus dem Thief-Log:
07:49:15:542 (5024) > Description : AMD Radeon HD 7900 Series
07:49:15:543 (5024) > Vendor : AMD (1002)
07:49:15:543 (5024) > Device : 6798
07:49:15:543 (5024) > Sub system : 32121682
07:49:15:543 (5024) > Revision : 0
07:49:15:543 (5024) > Dedicated Video Memory : 6101 MB
07:49:15:543 (5024) > Dedicated System Memory : 0000 MB
07:49:15:543 (5024) > Shared System Memory : 3797 MB
fondness
2014-05-08, 20:19:30
Am 2. Juni gibt es einen "AMD & Microsoft Game Developer Day". Das Logo dazu sieht spannend aus:
http://s29.postimg.org/nmgm7g19j/logo.png (http://postimage.org/)
https://www.eventbrite.com/e/amd-microsoft-game-developer-day-tickets-11172787107?ref=enivtefor001&invite=NTc3ODIwOS94dmlzaW9ueEBob3RtYWlsLmNvbS8w&utm_source=eb_email&utm_medium=email&utm_campaign=inviteformal001&utm_term=eventpage
Presentation content will be primarily aimed at Graphics programmers
Agenda:
7 presentations in covering the below subjects (titles currently being finalised)
GCN Architecture
Mantle
DirectX12
Shader optimisation
Xbox One and Indi Developers
Johan Andersson from EA Frostbite and Emil Persson from Avalanche Studios are confirmed presenters
We look forward to seeing you all
Cheers, Kevin Strange - AMD EMEA Developer Relations Manager
soLofox
2014-05-13, 15:41:16
ich rege mich gerade etwas auf, möchte aber mal unbeeinflusste meinungen hören:
wieviel sinn macht ein Intel Celeron G1830 mit 2x R9 290X grafikkarten mit mantle?
Nightspider
2014-05-13, 15:45:14
:ugly:
Für BF4? Da bremst die CPU auch noch mit Mantle, weil die nur 2 Kerne hat.
:ugly:
Für BF4? Da bremst die CPU auch noch mit Mantle, weil die nur 2 Kerne hat.
Schon mit einer 290x bremst ein i3 deutlich:
http://www.tweakpc.de/hardware/tests/cpu/amd-mantle/i/battlefield4_bf4_r9-290x_benchmark_mantle_big.jpg
Quelle (http://www.tweakpc.de/hardware/tests/cpu/amd-mantle/s02.php)
Ex3cut3r
2014-05-13, 18:05:05
Die Tabelle ist doch Mist, wie kann ein 6350 schneller als ein 8350 sein?
Höherer Turbo, weil der Chip bisschen besser war?
StefanV
2014-05-13, 18:07:28
wieviel sinn macht ein Intel Celeron G1830 mit 2x R9 290X grafikkarten mit mantle?
0 Sinn, die CPU ist nicht wirklich flott/stark...
wie kann ein 6350 schneller als ein 8350 sein?
Höherer Turbo und Singleplayerkampagne. Die braucht keine 8 Threads, nur Takt.
Oder Mantle. :D
Ex3cut3r
2014-05-13, 21:16:45
Ok, alles klar.
fondness
2014-05-16, 12:43:20
Hier sieht man auch mal auf der zeitlichen Achse ein bisschen wann AMD wieviele Mantle Spiele erwartet: Ende des Jahres sollte es also 10 11 Mantle Spiele geben.
http://s23.postimg.org/4xqwow2e3/s_68efd1dc0188488d9fcdc2f7944b70c2.jpg (http://postimage.org/)
http://news.mydrivers.com/1/304/304724_1.htm
dargo
2014-05-16, 13:12:08
Hier sieht man auch mal auf der zeitlichen Achse ein bisschen wann AMD wieviele Mantle Spiele erwartet: Ende des Jahres sollte es also 10 Mantle Spiele geben.
http://s23.postimg.org/4xqwow2e3/s_68efd1dc0188488d9fcdc2f7944b70c2.jpg (http://postimage.org/)
http://news.mydrivers.com/1/304/304724_1.htm
Lol... ich befürchte langsam, dass es dann Ende des Jahres mehr Mantle-Spiele gibt als Spiele die über DX11.0 kommen. :freak:
Hübie
2014-05-16, 16:16:08
*hust* Adoption...
AMDs marketing Maschinerie läuft wieder ;D Mal sehen was alles angepriesen wird.
Unicous
2014-05-22, 15:58:35
Dan Baker hat mal wieder einen Blog-Eintrag geschrieben.
http://www.oxidegames.com/2014/05/21/next-generation-graphics-apis/
Er geht besonders auf Grafiktreiber ein und wie die fetten APIs (OGL und DX11) dazwischenfunken.
fondness
2014-05-22, 20:23:04
Interessant finde ich vor allem das er ziemlich eindeutig sagt das es DX12 nur wegen Mantle gibt:
We heard nothing of the development of a new version of D3D12 until sometime after the early tests of Mantle were indicating that this radically different API model could work, and work well – data which we shared with Microsoft. What prompted Microsoft to redesign DX is difficult to pin down, but we’d like to think that it would never have happened if Mantle hadn’t changed the game.
Plus Mantle wird wohl besser sein als DX12:
Does D3D12 mitigate the need for Mantle? Not at all. Though it is difficult to determine without more complete information on D3D12, our expectation is that Mantle will have the edge of D3D12 in terms of CPU performance. This is because the GCN architecture by AMD is the most general of all the current GPUs, and therefore the driver needs to do a bit less.
Hübie
2014-05-22, 22:26:26
Na auf jeden Fall hätte es länger gedauert. Ich frage mich wie nVidia die API-Frage handhabt und ob die auch was getan hätten..?
Iruwen
2014-05-23, 13:24:42
Plus Mantle wird wohl besser sein als DX12:
Bei dem potentiellen Vorsprung über den man da noch redet wird sich aber wohl keiner mehr die Mühe machen es zu implementieren, außer vielleicht die großen Lizenz-Engines die eh schon dran sind.
Bei dem potentiellen Vorsprung über den man da noch redet wird sich aber wohl keiner mehr die Mühe machen es zu implementieren, außer vielleicht die großen Lizenz-Engines die eh schon dran sind.
Sei doch nicht immer so negativ.:D
mironicus
2014-05-23, 14:16:34
Bei dem potentiellen Vorsprung über den man da noch redet wird sich aber wohl keiner mehr die Mühe machen es zu implementieren, außer vielleicht die großen Lizenz-Engines die eh schon dran sind.
Hier! Ich geb dir nen Fuffi und dann machst du es doch. :biggrin:
StefanV
2014-05-23, 15:10:52
Bei dem potentiellen Vorsprung über den man da noch redet wird sich aber wohl keiner mehr die Mühe machen es zu implementieren, außer vielleicht die großen Lizenz-Engines die eh schon dran sind.
Wenn DX12 eine Adaption von Mantle ist und das Verhalten sehr ähnlich, macht es aber sehr wohl sinn, auf Mantle zu setzen.
Eben um schon mal sich auf DX12 vorbereiten zu können...
Was mich am meisten nervt ist der ganze Marketing-Bullshit. Aus allen Richtungen.
Skysnake
2014-05-23, 15:23:26
Bei dem potentiellen Vorsprung über den man da noch redet wird sich aber wohl keiner mehr die Mühe machen es zu implementieren, außer vielleicht die großen Lizenz-Engines die eh schon dran sind.
Wahrscheinlich, ist aber nicht unerwartend, das sage ich von Anfang an ;)
Zudem ist es auch völlig ausreichend, wenn es die großen Lizenzengines unterstützen. Mehr brauchts einfach nicht.
kruemelmonster
2014-05-23, 19:44:12
Eine DX12 Implementierung für die Allgemeinheit + eine Mantle Implementierung für GCN+ vs einmal DX12 für alle. Was ist wohl wirtschaftlicher, was sich wird ohne Marketingdollar seitens AMD eher durchsetzen? ;)
Mantle mag vllt der Anreiz und Ideengeber für DX12 gewesen sein, das heißt aber nicht dass es mehrkostenverursachend parallel ewig mitgeschleppt wird.
Butterfly
2014-05-23, 20:33:03
Eine DX12 Implementierung für die Allgemeinheit + eine Mantle Implementierung für GCN+ vs einmal DX12 für alle. Was ist wohl wirtschaftlicher, was sich wird ohne Marketingdollar seitens AMD eher durchsetzen? ;)
Mantle mag vllt der Anreiz und Ideengeber für DX12 gewesen sein, das heißt aber nicht dass es mehrkostenverursachend parallel ewig mitgeschleppt wird.
Wenn AMD fies wäre, nehmen sie Mantle als Marketing + mit, wie es nvidia mit CUDA schon lange macht.
Das clever ist ja, dass Mantle nicht nur auf DX abgesehen hat, sondern fast überall Einsatz finden kann. :freak:
fondness
2014-05-23, 20:37:05
AMD wird nicht so blöd sein und eine solch aufwändige Entwicklung nach 2 Jahren begraben. Erstens hat man den Win7-Vorteil, dann kann man Mantle auf Linux bringen was ohnehin zunehmend an Bedeutung gewinnt. Dazu kommt das man auch Hardware-Features ansprechen kann, die DX nicht unterstützt und man hat natürlich mit GCN eine einheitliche Hardware-Basis was auch Vorteile bieten kann. Und man kann noch immer irgendwelche Spielestudois für exklusive Features über Mantle kaufen wie es NV mit PhysX macht.
Skysnake
2014-05-23, 20:48:39
AMD muss da doch aktuell rein gar nichts mehr machen.
Man ist in einigen großen Engines schon drin, und gerade in einem Knaller wie SC. Das reicht an sich schon völlig aus, um genug gute Presse zu generieren. Vor allem, wenn man schön nen paar % vorne ist, hat man absolut gewonnen.
N0Thing
2014-05-23, 22:33:16
Das Beispiel von Battlefield 4 zeigt doch recht deutlich, daß ein Knaller nicht ausreicht, um einen signifikanten Vorteil zu erreichen.
Die Presse hat mehrheitlich positiv geurteilt, man war durchaus ein paar % vorne und geändert hat sich auf Seiten der Kunden quasi nichts.
Mantle wird abgesehen von der Beschwörung von DX12 nicht viel hinterlassen, wenn es innerhalb von 1-2 Jahren nicht mindestens zwei Hände voll populärer (!) Spiele gibt, die durch Mantle deutlich profitieren und dies auch gegenüber eventuellen DX12 Titeln.
Mandalore
2014-05-23, 22:42:28
Das Beispiel von Battlefield 4 zeigt doch recht deutlich, daß ein Knaller nicht ausreicht, um einen signifikanten Vorteil zu erreichen.
Die Presse hat mehrheitlich positiv geurteilt, man war durchaus ein paar % vorne und geändert hat sich auf Seiten der Kunden quasi nichts.
Mantle wird abgesehen von der Beschwörung von DX12 nicht viel hinterlassen, wenn es innerhalb von 1-2 Jahren nicht mindestens zwei Hände voll populärer (!) Spiele gibt, die durch Mantle deutlich profitieren und dies auch gegenüber eventuellen DX12 Titeln.
Also in BF4 ist Mantle schon extrem. In meinem Fall (habe zur Zeit nen Dual-Core i3) ist Mantle der Grund, dass ich BF4 flüssig (60FPS+) zocken kann, während es mit D3D11 die meiste Zeit ruckelt. Und selbst auf High-End Systemen bringt es nen spürbaren Turbo und da die Mehrheit warscheinlich noch auf 2-Kernen sitz bringt es schon ne Menge. Aber recht hast du trotzdem. AMD muss Mantle in den meisten AAA-Games implementieren um auf Dauer erfolgreich zu sein...
Iruwen
2014-05-24, 16:38:37
BF4 war trotzdem nicht der Marketing-Knaller weil es insgesamt zu viel schlechte Presse bekommen hat wofür Mantle leider nichts konnte. Aber dass es unter Windows 7 läuft ist in der Tat ein Vorteil den ich nicht bedacht habe.
dargo
2014-05-24, 16:44:17
Das Beispiel von Battlefield 4 zeigt doch recht deutlich, daß ein Knaller nicht ausreicht, um einen signifikanten Vorteil zu erreichen.
Die Presse hat mehrheitlich positiv geurteilt, man war durchaus ein paar % vorne und geändert hat sich auf Seiten der Kunden quasi nichts.
Mantle wird abgesehen von der Beschwörung von DX12 nicht viel hinterlassen, wenn es innerhalb von 1-2 Jahren nicht mindestens zwei Hände voll populärer (!) Spiele gibt, die durch Mantle deutlich profitieren und dies auch gegenüber eventuellen DX12 Titeln.
Ich sag nur eins... es gibt bereits mehr Mantlespiele als DX11.1 Spiele. :D Letzteres setzt Win8 voraus. Nächsten Monat kommt das dritte Mantle-Game raus. DX11.1 Games gibts bisher genau eins. :freak:
aufkrawall
2014-05-24, 16:55:29
Nächsten Monat kommt aber wahrscheinlich auch das nächste DX 11.1 Spiel raus. Das hast du wohl vergessen?
dargo
2014-05-24, 16:56:11
Das wäre?
aufkrawall
2014-05-24, 16:57:12
Du meintest doch mit Mantle-Spiel für nächsten Monat Garden Warfare?
dargo
2014-05-24, 16:58:18
Du meintest doch mit Mantle-Spiel für nächsten Monat Garden Warfare?
Korrekt. Und was ist jetzt das nächste DX11.1 Game welches nächsten Monat kommen soll?
Iruwen
2014-05-24, 17:00:49
Garden Warfare? :D
dargo
2014-05-24, 17:04:06
Wo steht das? Also, dass es DX11.1 unterstützt? Nur weils FB3 ist heißt es noch gar nichts, siehe Rivals.
aufkrawall
2014-05-24, 17:06:36
Rivals hatte auch kein Mantle.
Blediator16
2014-05-24, 17:28:55
Rivals hatte auch kein Mantle.
Und Rivals kam genau wann raus?
dargo
2014-05-24, 17:32:05
Rivals hatte auch kein Mantle.
Wie denn auch wenn Mantle zum Releasezeitpunkt noch gar nicht verfügbar war? :ugly: Thief hat Mantle, und dennoch kein DX11.1.
Iruwen
2014-05-24, 17:32:08
Unicous würde vermutlich sagen: fragt doch einfach mal per Twitter :cool:
fondness
2014-05-24, 17:44:19
Nächsten Monat kommt Garden Warfare und Sniper Elite 3, also 2 Mantle-Spiele. ;)
N0Thing
2014-05-24, 17:56:47
Ich sag nur eins... es gibt bereits mehr Mantlespiele als DX11.1 Spiele. :D Letzteres setzt Win8 voraus. Nächsten Monat kommt das dritte Mantle-Game raus. DX11.1 Games gibts bisher genau eins. :freak:
Das ist auch alles schön und gut, vor allem für diejenigen, die schon eine AMD-Karte besitzen. Schön und gut für AMD - im Sinne von die Ausgaben haben sich gelohnt - ist es aber erst dann, wenn Kunden nun eine GPU von AMD kaufen, anstatt weiter mehr Geld für eine GPU gleicher Leistungsklasse von Nvidia zu bezahlen. Und ob das aufgeht, wird man erst in 1-2 Jahren sehen.
dargo
2014-05-24, 17:56:57
Nächsten Monat kommt Garden Warfare und Sniper Elite 3, also 2 Mantle-Spiele. ;)
Oh... SE 3 habe ich völlig vergessen. Laut Amazon gibts auch nur DX11.0.
http://www.amazon.de/Avanquest-Software-Sniper-Elite-PC/dp/B00JYAEOV8/ref=sr_1_1?s=videogames&ie=UTF8&qid=1400947135&sr=1-1&keywords=Sniper+Elite+3+pc
Weiß aber nicht wie verlässlich die Informationen dort sind.
Das ist auch alles schön und gut, vor allem für diejenigen, die schon eine AMD-Karte besitzen. Schön und gut für AMD - im Sinne von die Ausgaben haben sich gelohnt - ist es aber erst dann, wenn Kunden nun eine GPU von AMD kaufen, anstatt weiter mehr Geld für eine GPU gleicher Leistungsklasse von Nvidia zu bezahlen. Und ob das aufgeht, wird man erst in 1-2 Jahren sehen.
Natürlich... das ist ein langer Prozess bis sich da Verkaufszahlen nennenswert ändern. Nur ohne Mantlespiele wird das nichts. Bisher sieht es recht gut aus, zumindest versus DX11.1.
Butterfly
2014-05-24, 20:36:56
Das Beispiel von Battlefield 4 zeigt doch recht deutlich, daß ein Knaller nicht ausreicht, um einen signifikanten Vorteil zu erreichen.
Die Presse hat mehrheitlich positiv geurteilt, man war durchaus ein paar % vorne und geändert hat sich auf Seiten der Kunden quasi nichts.
Mantle wird abgesehen von der Beschwörung von DX12 nicht viel hinterlassen, wenn es innerhalb von 1-2 Jahren nicht mindestens zwei Hände voll populärer (!) Spiele gibt, die durch Mantle deutlich profitieren und dies auch gegenüber eventuellen DX12 Titeln.
Nanu, wo kommen denn die vielen Infos bei Mantle her?
http://abload.de/img/aida64_anzeige_mantlehqsf1.jpg
:cool:
N0Thing
2014-05-26, 08:35:55
Nanu, wo kommen denn die vielen Infos bei Mantle her?
http://abload.de/img/aida64_anzeige_mantlehqsf1.jpg
:cool:
Ich verstehe den Zusammenhang nicht, oder, falls es keinen gibt, worauf du hinaus willst.
Butterfly
2014-05-26, 12:23:47
Ich verstehe den Zusammenhang nicht, oder, falls es keinen gibt, worauf du hinaus willst.
Eine ältere Version von AIDA, hat nur das hier ausgelesen:
http://abload.de/thumb/aida_mantleb3u8a.jpg (http://abload.de/image.php?img=aida_mantleb3u8a.jpg)
Nun sind auch die Queue für CPU und GPU vorhanden, das sieht dem HSA bzw. hUMA sehr ähnlich.
Also Zero copy und das sparen von Datentransfers innerhalb des System. :smile:
Unicous
2014-05-26, 13:13:07
War das nicht eh eine Treibersache?
Butterfly
2014-05-26, 16:58:42
@Unicous
Ja, das kann auch am Treiber gelegen haben. Ich hab inzwischen den 14.4 WHQL (2nd Edition) installiert.
Was könnte den ein Memory Heap sein?
http://abload.de/thumb/aida64_anzeige_mantleaaq99.jpg (http://abload.de/image.php?img=aida64_anzeige_mantleaaq99.jpg)
Unicous
2014-05-26, 17:11:43
Nicht hauen wenn ich falsch liege, aber ist das nicht der ungenutzte Speicherbereich im Gegensatz zum Stack?
Und in dem Zusammenhang wie schnell darauf zugegriffen werden kann etc.
Butterfly
2014-05-26, 17:19:28
Nicht hauen wenn ich falsch liege, aber ist das nicht der ungenutzte Speicherbereich im Gegensatz zum Stack?
Und in dem Zusammenhang wie schnell darauf zugegriffen werden kann etc.
Nee, war eine ernste Frage! Das ist kein Grund zum hauen!
Interessant ist zuerst mal "CPU-GPU Cache Coherent" -> Yes!
Sowie "GPU Memory Heap" -> CPU Write-Combined
:smile:
Kartenlehrling
2014-05-30, 11:02:08
Anscheinen gibts in 3 Tagen wieder Forza5demo auf dem PC gezeigt.
Ich glaube an keine "neuen" Infomationen aber alles ist besser als Stillstand.
http://www.gamestar.de/hardware/news/grafikkarten/3056301/directx_12_mantle.html
AMD und Microsoft veranstalten am 2. Juni 2014 in Schweden eine Entwicklerkonferenz zu DirectX 12 & Mantle.
grobi
2014-05-30, 11:35:31
Anscheinen gibts in 3 Tagen wieder Forza5demo auf dem PC gezeigt.
Ich glaube an keine "neuen" Infomationen aber alles ist besser als Stillstand.
http://www.gamestar.de/hardware/news/grafikkarten/3056301/directx_12_mantle.html
AMD und Microsoft veranstalten am 2. Juni 2014 in Schweden eine Entwicklerkonferenz zu DirectX 12 & Mantle.
Es ist komisch das Nvidia nicht mit dabei ist.
MfG grobi
Hübie
2014-05-30, 11:48:50
An einem AMD and Microsoft Developer day soll nVidia dabei sein X-D
Der war gut!
Skysnake
2014-05-30, 11:50:18
vielleicht sieht MS das DX12 auf der TitanZ ungern ;D
Ne Spaß, würde mich auch interessieren.
StefanV
2014-05-30, 12:38:44
Wait, what?!
AMD + Microsoft, DX12 + Mantle?!
DAFUQ?!
vielleicht sieht MS das DX12 auf der TitanZ ungern ;D
Davon würd ich sogar ausgehen wollen, ev. sogar, dass M$ unter Umständen etwas pissig @ nVidia ist und AMD mit Mantle bezüglich DX12 vorgeschickt hat. Würd nicht ausschließen wollen, dass AMD wollte, M$ wollte, aber nV hinter den Kulissen geblockt hat. Und irgendwann ist den beiden dann mal der Kragen geplatzt...
Rente
2014-05-30, 13:02:50
Man könnte auch denken das du dir das komplett aus den Fingern saugst...
Für keinen deiner Punkte gibt es irgendeinen stichhaltigen Beweiß.
Warum sollte AMD auf einer Konferenz die von ihnen mit gestaltet wird nicht auch über Mantle reden? Denkst du Microsoft würde es verbieten?
Arcanoxer
2014-05-30, 14:28:13
Mantle läuft doch sowieso nur unter Windows (egal was AMD gerne "sehen möchte"), also kann es Microsoft doch egal sein.
occ-kh@Mirko
2014-05-30, 15:25:26
Warum sollte AMD auf einer Konferenz die von ihnen mit gestaltet wird nicht auch über Mantle reden? Denkst du Microsoft würde es verbieten?
Schon allein weil es dabei um eine "alternate API-Möglichkeit" geht den Overhead sinnvoll zu reduzieren. Worüber wollte Nvidia da sprechen? Über die Treiberentwickung die auf M$ DX Spezifikationspaket beruht?
Hier veranstalten beide Entwicklerteams eine PR um ihren Weg aufzuzeigen, oder den "gemeinsdamen Weg" der nicht nur für M$ wünschenswert wäre. Jeder Spieler würde davon profitieren wenn M$ Mantel ausreichend berücksichtig und umgekehrt!
Nvidia müsste hier höchstwahrscheinlich über CUDA-basirende Perfomance referieren, dass passt aber nicht ganz.
Was ist daran jetzt "DAFUQ"? Das es nicht in dein primitives Weltbild passt?
occ-kh@Mirko
2014-05-30, 15:49:23
Was ist daran jetzt "DAFUQ"? Das es nicht in dein primitives Weltbild passt?
Du kennst doch @Stefan.. immer etwas provokativ...;). Jedenfalls hab ich ihn so kennengelernt.
Ich denke mal das M$ irgendwann Teile von Mantle als "eigenen Pfad" in DX integriert ist garnicht mal soweit weg. Für die hardwarenahe Programmierung derzeit am Markt befindlicher Architekturen unter einem Label wäre das sicher M$'s Ziel.
Da bleibt immer noch ausreichend Platz um eigene Wege zu gehen, egal ob AMD oder Nvidia. Zudem beschränkt sich DX nicht mehr hauptsächlich und allein auf Spielebasirende Desktopsähnliche GPUs. Mit Qualcomm dürfte auch das Interesse seitens AMD an DX12 gewachsen sein.
Wer weiss was da noch so kommt.
Kartenlehrling
2014-05-30, 16:41:27
Agenda:
09.25-09.30 – Welcome and agenda: Kevin Strange, AMD
09.30-10.00 – GCN Performance ftw: Stephan Hodes, AMD
10.00-10.30 – TressFX: The Fast and the Furry Nick Thibieroz, AMD
10.30-11.00 – Xbox Indie Scene 2014: Mike Froggatt, Microsoft
11.00-11.15 – Break
11.15-12.00 – Introduction to DirectX 12: Ivan Nevraev, Microsoft
12.00-12.30 – D3D 12: “The future is so bright you gotta wear shades”: Dave Oldcorn, AMD
12.30-14.00 – Lunch break
14.00-14.45 – Rendering Battlefield 4 with Mantle (includes demo): Johan Andersson, Frostbite
14.45-15.30 – Inside XBox One: Martin Fuller, Microsoft
15.30-16.00 – Coffee break
16.00-16.45 – Low-level Shader Optimization for Next-Gen and DirectX 11: Emil Persson, Avalanche
16.45-17.30 – Holy Smoke! Faster Particle Rendering using DirectCompute Gareth Thomas, AMD
17.30-20.00 – Drinks reception - mingle
Wenn man sich die Agena anschaut,
steht die Optimierung der Nextgen und im besonderen die XBone im Vordergrund.
Holy Smoke!
Das klingt nach dem Rauchschatten Berechnung was schon in der dx11.2 von intel gezeigt wurde.
https://www.youtube.com/watch?v=t8XgpkI2ZTY
Grid 2 - Intel Attract Mode | Ultra Settings | GTX Titan | 2560x1600 (HD)
Das klingt nach dem Rauchschatten Berechnung was schon in der dx11.2 von intel gezeigt wurde.
Hat mit DX11.2 nichts zu tun, das was Intel macht unterstützt directx11.x nicht out of the box. Sonst wäre Intel nicht auf exklusive Directx extensions angewiesen. Mit DirectX12 wird OIT wahrscheinlich offiziell Einzug halten.
http://static.gamespot.com/uploads/original/823/8237367/2484602-pixel+ordered+uav.jpg
fondness
2014-05-30, 18:25:26
AMD hat ein Mantle White Paper veröffentlicht:
http://www.amd.com/Documents/Mantle_White_Paper.pdf
AwesomeSauce
2014-05-30, 19:44:48
Interessant, vorallem das explizite Speichermanagement. Die Binding Points in OpenGL hängen mir zum Hals heraus. API Specs und Docs wären mir aber lieber gewesen.
fondness
2014-05-30, 19:46:06
Auch die zusätzlichen AntiAliasing-Möglichkeiten könnten noch interessant werden.
blaidd
2014-05-30, 22:33:19
Auch die zusätzlichen AntiAliasing-Möglichkeiten könnten noch interessant werden.
Davon war schon in den ersten Präsentationen die Rede. Gesehen habe ich (zumindest bewusst) aber noch nichts davon.
Hier mal quasi Random aus dem Netz gefischt, irgendwo ist auch von "cheap AA" die Rede:
http://image.slidesharecdn.com/johanmantlefinalflat-131115061647-phpapp01/95/slide-18-638.jpg?cb=1384519187
Diese Konferenz stinkt ganz schön danach, dass D3D12 "einfach" Mantle 2.0 sein könnte...
dargo
2014-05-31, 10:53:55
Es ist doch sche... egal auf was es aufbaut oder wie es heißt. Hauptsache es gibt weitere gravierende Effizienzsteigerungen.
Knuddelbearli
2014-05-31, 15:11:31
DX12 = Mantle 2.0 wäre aber scheiße da sich dann an der Architektur nie wieder was Grundlegendes ändern darf oder man kann die "alten" Dx12 Spiele dann nimmer spielen
DX12 = Mantle 2.0 wäre aber scheiße da sich dann an der Architektur nie wieder was Grundlegendes ändern darf oder man kann die "alten" Dx12 Spiele dann nimmer spielen
So ist Mantle ja auch nicht gedacht. Mantle ist stark auf GCN optimiert, dennoch gibt es ein Treibermodell. Wenn man das konsequent weiterdenkt, kommt man automatisch bei D3D12 an ;).
Natürlich muss D3D12 sowieso näher an der Hardware sein, sonst gäbe es keinen Fortschritt.
AwesomeSauce
2014-05-31, 16:34:23
Mantle ist stark auf GCN optimiert
Woran willst du das erkennen? Es gibt keine Spec. Falls Mantle die Standard-API werden will, sollte auch ein Nvidia-Implementierung möglich sein.
fondness
2014-05-31, 17:02:50
http://community.amd.com/community/amd-blogs/amd-gaming/blog/2014/05/28
Thanks to Mantle and our presence in the console space, AMD will also stand alone with a graphics architecture that has received years of attention from developers working with low-overhead graphics APIs.
Above all, Mantle will present developers with a powerful shortcut to DirectX® 12, as the lingual similarities between APIs will make it easy to port a Mantle-based render backend to a DirectX® 12-based one if needed or desired. In addition, Mantle developers that made the bold decision to support our historic API will be well-educated on the design principles DirectX® 12 also promises to leverage.
http://s13.postimg.org/63py7llbr/port_times_PNG.png (http://postimg.org/image/kzohf6wqb/full/)
dargo
2014-05-31, 17:29:03
Das finde ich lustig. :D
http://community.amd.com/servlet/JiveServlet/showImage/38-2706-2911/mantle_cpu_prices.png
Wird sicherlich daran liegen, dass die Anwendung nicht wirklich guten Gebrauch von mehr als 4 Threads macht oder? Dennoch witzig der Preisvergleich der beiden CPUs. Das Marketing haben die langsam verstanden. ;D
Das hier kann aber nur ein Fehler sein.
http://community.amd.com/servlet/JiveServlet/showImage/38-2706-2909/mantle_in_thief.png
Ich meine... seit wann verwendet Thief DX11.1? :confused:
Kartenlehrling
2014-06-01, 00:23:59
Wieso kramst du 3 Monate alte Folien wieder raus? :confused:
dargo
2014-06-01, 10:23:10
3 Monate?
Ich sehe da was vom 28.05.2014. Zudem ist der Nvidia Treiber nicht mal 2 Monate alt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=552443
Butterfly
2014-06-01, 12:27:04
Das finde ich lustig. :D
Ich meine... seit wann verwendet Thief DX11.1? :confused:
Gute Frage, keine Ahnung ob das hier eine Rolle spielt: http://www.heise.de/newsticker/meldung/Nachgelegt-Catalyst-Treiber-kuenftig-ohne-Windows-8-Support-2209710.html
Wenn WDDM 1.3 = DX11.2 Hardware entspricht und Windows 8 den Renderpfad von Windows 7 bekommt, wird es wohl WDDM 1.2 = DX11.1 sein.
Das Mantle Crossfire schlägt zumindest bei mir durch in Thief: http://www.planet3dnow.de/vbulletin/showthread.php/418543-Thief-Patch-1-5-Bringt-CrossFire-fuer-Mantle-API-und-senkt-VRAM-Bedarf
dargo
2014-06-01, 12:53:59
Das Mantle Crossfire schlägt zumindest bei mir durch in Thief: http://www.planet3dnow.de/vbulletin/showthread.php/418543-Thief-Patch-1-5-Bringt-CrossFire-fuer-Mantle-API-und-senkt-VRAM-Bedarf
Heiliger Bimbam, die min.fps sind heftig. :O
Interessant finde ich aber auch die Information zu dem gesenkten Vram-Bedarf.
http://www.planet3dnow.de/cms/9983-thief-patch-1-5-bringt-crossfire-fuer-mantle-api-und-senkt-vram-verbrauch/
Eventuell ist da doch noch einiges drin wenn man sich mit der API mal genauer beschäftigt. Immerhin ist Mantle für Entwickler noch ziemlich neu.
Jo, sieht gut aus. Interessant zu wissen wäre was genau mit Mantle-cfx gemeint ist - evtl SFR?
aufkrawall
2014-06-01, 16:16:21
Oder einfach nur AFR einschalten.
Wahrscheinlich (für den Moment?) ja, wissen würde ich es trotzdem gerne :smile:
aufkrawall
2014-06-01, 16:45:14
Wenn es SFR wäre, wär es sehr unklug, das nicht groß und breit zu bewerben, oder nicht? :)
Da die Implementierung afaik nicht ausschließlich seitens des Treibers erfolgt, frage ich mich, wer denn die mGPU-Umsetzung publik machen soll. Vom Spielehersteller wird höchstes was in den Release-Notes bez. des Patch stehen, wenn überhaupt. Mantle-Crossfire explizit erwähnt zu haben - mich wundert halt die Bezeichnung, denn AFR unter DX = AFR unter Mantle, muss es dann Mantle-Crossfire heißen?
Butterfly
2014-06-01, 17:41:06
Heiliger Bimbam, die min.fps sind heftig. :O
Interessant finde ich aber auch die Information zu dem gesenkten Vram-Bedarf.
http://www.planet3dnow.de/cms/9983-thief-patch-1-5-bringt-crossfire-fuer-mantle-api-und-senkt-vram-verbrauch/
Eventuell ist da doch noch einiges drin wenn man sich mit der API mal genauer beschäftigt. Immerhin ist Mantle für Entwickler noch ziemlich neu.
Ja, das ist ziemlich neu für jemanden, der nicht introduced ist. :wink:
Bei dem Vergleich habe ich die Grafik Einstellungen auf Maximum Eingestellt.
Das System war ein wenig übertaktet jedoch nur CPU Seitig. (4.7/2.6/2.6GHz)
GPU Seitig war Frame Pacing aktiv, sowie das PowerLimit @ 0%. Standard eben.
Auch mit Standard Takt immer noch über 60FPS Minimum.
Jo, sieht gut aus. Interessant zu wissen wäre was genau mit Mantle-cfx gemeint ist - evtl SFR?
Ich hab leider keine Einsicht in den Render Vorgang, der Verbrauch deutet aber auf eine gute Auslastung hin.
Die Minimum FPS sehen ja schön und gut aus, das Spielerlebnis ist aber um ein Vielfaches besser (lag free).
Unicous
2014-06-02, 20:40:59
:eek::eek::eek::eek::eek::eek::eek::eek::eek::eek:
Apple stellt gerade Metal vor.
Eine eigene API die den Overhead reduziert.
Vorgestelltes Spiel: Plants vs. Zombies: Garden Warfare
THE FUCK.:freak::freak::freak::freak::freak:
Tim Sweeney von Epic Games ist da.
fondness
2014-06-02, 20:50:54
Mantle hat wohl eingeschlagen wie eine Bombe. LOL ist das Tim Sweeney da ist der ja Mantel abgelehnt hat.
Unicous
2014-06-02, 20:54:00
Tim Sweeney ist so ein Heuchler.
Letztes Jahr hat er noch gesagt, dass Mantle scheiße ist und er keinen Bock hat mehrere APIs zu unterstützen. Jetzt hat er sich von Apple kaufen lassen um "Metal" vorzustellen. Und entwickelt wird es es ja laut (ich glaube Craig Federighi auch schon seit einigen Monaten.
Die Spieleindustrie wird immer schlimmer.
M4xw0lf
2014-06-02, 21:05:34
11:38AM PDT - 3D graphics is next
11:38AM PDT - Called metal
11:38AM PDT - YES! New 3D API
11:39AM PDT - OpenGL ES is standard on iOS
11:39AM PDT - OpenGL is a layer of overhead, so iOS will fix that
11:39AM PDT - Means you can get much closer to the metal to increase perf, up to 10x draw call rates
11:39AM PDT - Also can use GPU for compute, supports multitthreading and precompiled shaders
Die haben wirklich nur ein paar Buchstaben geändert, oder? ^^
fondness
2014-06-02, 21:06:35
Ja und nicht mal viele :ugly:
Iruwen
2014-06-02, 21:18:25
Oh Gott :D Aber bei Apple wundert mich gar nichts.
AwesomeSauce
2014-06-02, 21:19:46
Bei Apple kann man aber jegliche Hoffnung vergessen, dass das jemals mit etwas anderem als ihrem Prozessor funktioniert. :(
Kein Support von FB3/UE4(offiziell im Falle der letzteren) für Wii U aber Hauptsache auf iOS :freak:
Screemer
2014-06-02, 21:33:18
da winken halt mehr grüne scheine.
Kartenlehrling
2014-06-03, 16:08:05
Hat einer Infos von gestrigen "AMD & Microsoft Game Developer Day" oder ist das alles in der euphorie über Apples ARM Metal API untergegangen?
https://www.eventbrite.com/e/amd-microsoft-game-developer-day-tickets-11172787107
Locuza
2014-06-03, 17:20:43
Nick von AMD hat paar (wertlose) Bilder auf Twitter davon gepostet.
https://twitter.com/NThibieroz
Was man jedenfalls unabhängig von den APIs mitnehmen darf ist, dass AMD mit dem nächsten Radeon SDK auch wieder kostenlos den Code von der dort vorgezeigten Smoke Particle Demo bekommt.
https://twitter.com/NThibieroz/status/473481021183512576
aufkrawall
2014-06-03, 17:49:58
Durfte mich eben wieder von Mantle in BF auf einer 290 überzeugen:
-Catalyst 14.6 sorgte für leicht zuckelige Bildausgabe
-starke CPU-Time Spikes bei plötzlichen Kameraschwenks Richtung Boden
-ansonsten ebenfalls keine perfekten Frametimes
-4xMSAA und 150% Resolution Scale sorgen auch, wie bei NV D3D, für vermehrte Spikes (nur wenig besser)
-Grafikfehler auf Lancang Dam, ein Teil des Damms hat geflackert (mit D3D nicht der Fall)
-in-game Framelimiter hat übelstes Ruckeln verursacht
-ebenso Vsync
4770k, Win 7 x64, Catalyst 14.4/6
fondness
2014-06-03, 19:34:26
Nick von AMD hat paar (wertlose) Bilder auf Twitter davon gepostet.
https://twitter.com/NThibieroz
Was man jedenfalls unabhängig von den APIs mitnehmen darf ist, dass AMD mit dem nächsten Radeon SDK auch wieder kostenlos den Code von der dort vorgezeigten Smoke Particle Demo bekommt.
https://twitter.com/NThibieroz/status/473481021183512576
Die Slides wird man von AMD laden können.
Butterfly
2014-06-03, 20:29:53
Bei Apple kann man aber jegliche Hoffnung vergessen, dass das jemals mit etwas anderem als ihrem Prozessor funktioniert. :(
Wenn es sich auch auf apple übertragen lässt, sollte das mit OpenGL auch gehen.
Overhead reduzieren scheint gerade das Motto zu sein, nach dem man Jahre lang darauf hin gearbeitet hat. :biggrin:
Durfte mich eben wieder von Mantle in BF auf einer 290 überzeugen:
-Catalyst 14.6 sorgte für leicht zuckelige Bildausgabe
-starke CPU-Time Spikes bei plötzlichen Kameraschwenks Richtung Boden
-ansonsten ebenfalls keine perfekten Frametimes
-4xMSAA und 150% Resolution Scale sorgen auch, wie bei NV D3D, für vermehrte Spikes (nur wenig besser)
-Grafikfehler auf Lancang Dam, ein Teil des Damms hat geflackert (mit D3D nicht der Fall)
-in-game Framelimiter hat übelstes Ruckeln verursacht
-ebenso Vsync
4770k, Win 7 x64, Catalyst 14.4/6
Hab es auch kurz angespielt, läuft soweit gut mit dem 14.6 Beta 1.
Resolution scale habe ich jetzt nicht getestet, die Frametimes auch nicht angeschaut.
Evt. hilft dir das hier weiter: http://www.reddit.com/r/Battlefield/comments/1q14u9/bf4_i_have_multiple_fixes_that_make_the_game_90/
aufkrawall
2014-06-03, 20:58:23
Hab es auch kurz angespielt, läuft soweit gut mit dem 14.6 Beta 1.
Resolution scale habe ich jetzt nicht getestet, die Frametimes auch nicht angeschaut.
Evt. hilft dir das hier weiter: http://www.reddit.com/r/Battlefield/comments/1q14u9/bf4_i_have_multiple_fixes_that_make_the_game_90/
Das ist doch Voodoo.
Jede Wette, dass es bei dir im PerfOverlay Graphen auch nicht sauber ist und Lancang kannst du selber starten.
Butterfly
2014-06-03, 21:19:55
Das ist doch Voodoo.
Jede Wette, dass es bei dir im PerfOverlay Graphen auch nicht sauber ist und Lancang kannst du selber starten.
Ne das war 3DFX :tongue:
Ich hatte bisher kein Grund den Graphen zu kontrollieren, wenn es läuft, läuft es.
Ich werde mir Lancang mal anschauen, Ergebnisse gibt es dann im BF4 Thread.
Locuza
2014-06-03, 21:35:00
Apropo BF4, dass neue BF4 Netcode Update bringt laut Changelog auch Verbesserungen bei CF unter Mantle mit:
AMD Mantle multi-GPU improvements
http://blogs.battlefield.com/2014/06/new-netcode-update-rolling-out/
Kartenlehrling
2014-06-04, 00:13:39
http://www.momspective.com/wp-content/uploads/2014/02/ill-be-back.jpg
-
http://www.kitguru.net/components/graphic-cards/bob/richard-huddy-rejoins-amd-as-gaming-scientist/
Richard Huddy "Godfather of DirectX" rejoins AMD as Gaming Scientist
Nightspider
2014-06-04, 00:23:09
Vielleicht bringt der gleich noch etwas CPU-Know How mit.^^
Schön, schön wenn sich bei AMD wieder ein paar gute Ingenieure versammeln.
Diese werden AMD sicherlich beim erneuten Aufstieg helfen.
Jetzt muss sich AMD nur noch paar Ingenieure von Apple krallen. ^^
AffenJack
2014-06-04, 08:00:16
Mir ist gerade bei b3d was zur Offenheit von Mantle aufgefallen vom User Andrew Lauritzen, der Intel Mitarbeiter ist:
We have asked them for specs several times (which would be step one) and they have refused. I would not be surprised if NVIDIA has done the same since AMD themselves said they would entertain such a conversation. For all I know they gave the specs to NVIDIA but I sort of doubt it
http://forum.beyond3d.com/showpost.php?p=1850385&postcount=193
Also zumindest Intels Anfragen für Specs wurden abgelehnt, wie sollen sie dann nochmal da mitmachen?
Knuddelbearli
2014-06-04, 08:04:23
Naja bei Intel auch verständlich pusht ja vor allem die CPU
Locuza
2014-06-04, 08:07:04
Wahrscheinlich so, wie man es sich denken konnte.
Maximale Eigennutzung vom Feature, fertige Treiber und Mantle API und dann darf die Konkurrenz Einsicht gewinnen.
Ich frage mich aber schon, was AMD mit Mantle auf lange Sicht gesehen vor hat?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.