Archiv verlassen und diese Seite im Standarddesign anzeigen : Mantle - AMD Low-Level-API als Alternative zu DirectX
Hübie
2014-02-11, 11:34:25
Aber keine konstanten ~130-150fps
Schätze wegen CPU-Limit auch nicht. Die Karte selber sollte dazu im Stande sein. Ich prüf das bei Gelegenheit mal.
boxleitnerb
2014-02-11, 16:26:38
Das hat genau was mit objektiver Berichterstattung zu tun?
Tu doch nicht so, das weißt du genau:
Dass DX11.1 endlich nicht unter den Tisch fallen gelassen wird, nur damit Mantle besser dasteht. Dass man das noch so erklären muss...:freak:
Dass z.B. bei CB in der Testszene kaum ein Unterschied zwischen Win7 und 8.1 besteht, mag so sein (obwohl ich es persönlich nicht so nachvollziehen kann, aber wenn Wolfgang das so sagt, wird es schon so sein), allerdings denken dann viele automatisch, dass das immer so sein muss. Der Test bei PCGH zeigt, dass dem mitnichten so ist und Mantle sogar große Probleme hat teilweise. Davon liest du sonst nichts, nur Lobeshymnen.
fondness
2014-02-11, 16:29:19
Das Mantle plus die Mantle-Implementierung in BF4 noch Beta sind ist kein Geheimnis, dazu kommt dann noch das der einzige Mantle-Treiber erhebliche Bugs mit dem Powerlimit hat und deshalb unter Umständen nicht hoch taktet. Das Potential hat man jedenfalls gesehen, schon ende des Monats wird man mit Thief 4 ein weiteres Beispiel haben und sich einen umfassenderen Blick zu verschaffen. Ist schön das DX11.1 auch Leistung bringen kann, aber solange sich Win8.1 nicht mehr verbreitet wird das wohl kaum jemand einsetzen. Zumal Dinge wie die viel gleichmäßigeren Frametimes nicht zu leugnen sind und non-AFR-Crossfire noch gar nicht vorhanden ist.
Hier ein Interview mit dem Thief Producer:
http://www.pcgameshardware.de/Thief-4-PC-98521/Specials/Thief-4-Exklusives-Interview-mit-dem-Producer-1108933/
PCGH: Ihr hab ja schon mehrmals bekannt gegeben, dass Thief 4 AMDs Mantle-Schnittstelle unterstützen wird. Was sind die Vorteile der API seitens der Entwickler?
Stephane Roy (Producer): Im Vergleich zu Direct3D ist Mantle eine sehr konsolenähnliche API. Ihr Vorteil ist, dass die Mantle-API uns viel mehr Kontrolle über die Performance gibt. Einer der Performance-Aspekte beim PC ist die Echtzeit-Optimierung der Shader, die der Direct3D-Treiber übernimmt und oft wahrnehmbare Verzögerungen beim Gameplay produziert. Mantle gibt uns dagegen die Möglichkeit, die optimierten Shader in den Cache zu laden. Die Verzögerung kann dann hinter einem Ladebildschirm verborgen werden, sodass der Nutzer das gar nicht mitbekommt.
PCGH: Als wie schwer und zeitaufwendig hat es sich herausgestellt, eine solch fundamental andere Technik in eine bereits existierende Engine zu intergieren?
Stephane Roy (Producer): Während der Entwicklung von Thief 4 haben wir einen Programmierer abgestellt, der sich nur um die Integration von Mantle kümmert. Für den restlichen Teil des Projekts haben wir zwei weitere Techniker sowie auch unterstützende AMD-Entwickler, die uns dabei helfen, die Performance von Mantle kontinuierlich zu verbessern.
fondness
2014-02-11, 16:35:55
Wenn du wuesstest, was alles im Treiber gemacht wird... Das ist manchmal echt einen :facepalm: wert.
Wo arbeitet denn AlphaTier? So viele Andeutungen wie er schon über Mantle gemacht hat muss er eigentlich zugriff darauf haben...
BTW, Test von planet3dnow, vor allem über die CPU-Performance:
http://www.planet3dnow.de/cms/6751-amd-mantle/
AMD on Mantle: We want our graphics API to become the industry standard (http://www.techradar.com/news/computing/pc/amd-on-mantle-we-want-our-gaming-api-to-become-the-industry-standard-1218560)
AMD told TechRadar that it'd be willing to make Mantle, or an API based on it, available across the industry. Even, the company said, if it means Mantle is adopted by competitors like Nvidia.
"Mantle for now is straight up in a closed ecosystem, a closed beta, which you have to do in a complicated project like this to get it off the ground. It's us and a few key game developers," Robert Hallock, technical communications, AMD Graphics & Gaming, told us in a recent interview.
"After that phase is done, we do hope that Mantle becomes an industry standard. We'll be releasing a public SDK later this year, and hope that others adopt it. If they don't adopt it itself, then we hope they adopt APIs similar to it that become an industry standard for PC gaming."
boxleitnerb
2014-02-11, 17:58:22
Das Mantle plus die Mantle-Implementierung in BF4 noch Beta sind ist kein Geheimnis, dazu kommt dann noch das der einzige Mantle-Treiber erhebliche Bugs mit dem Powerlimit hat und deshalb unter Umständen nicht hoch taktet. Das Potential hat man jedenfalls gesehen, schon ende des Monats wird man mit Thief 4 ein weiteres Beispiel haben und sich einen umfassenderen Blick zu verschaffen. Ist schön das DX11.1 auch Leistung bringen kann, aber solange sich Win8.1 nicht mehr verbreitet wird das wohl kaum jemand einsetzen. Zumal Dinge wie die viel gleichmäßigeren Frametimes nicht zu leugnen sind und non-AFR-Crossfire noch gar nicht vorhanden ist.
Hier ein Interview mit dem Thief Producer:
http://www.pcgameshardware.de/Thief-4-PC-98521/Specials/Thief-4-Exklusives-Interview-mit-dem-Producer-1108933/
Ich würde da nicht mit zweierlei Maß messen. Eine Karte, bei der Mantle aktuell etwas bringt (290, 290X und Bonaire?) dürfte ähnlich wenig verbreitet sein wie 8.1, was an Beliebtheit langsam aber sicher zunimmt. Es ist einfach hirnrissig, 8.1 bzw. 11.1 auszuschließen, wenn es um die Grundsatzdiskussion bzgl. Mantle und den Benefits geht. Btw, was ist mit den Frametimes bei 11.1 vs 11 bzw. Win 8.1 vs Win 7?
fondness
2014-02-11, 18:06:44
Der Unterschied ist das Mantle auf Initiative vieler Entwickler entstanden ist, die schon länger mehr Kontrolle am PC verlangen um eben Dinge wie geringeren Overhead, besseres Multi-GPU-Rendering oder bessere Frametimes ermöglichen wollen.
Bezüglich Frametimes, Techreport hat Win8.1 NV vs AMD Mantle getestet:
Bei Mantle/290X sind diese bis auf einem Peak (bekannter Mantle Bug) immer unter 10ms während die 780Ti in D3D11.1 einige Peaks darüber hat und das obwohl die 780Ti sogar insgesamt die höhere Framerate erreicht.
http://imageshack.com/a/img31/2328/tlu.gif (https://imageshack.com/i/0vtlug)
http://imageshack.com/a/img690/8007/ved.gif (https://imageshack.com/i/j6vedg)
MusicIsMyLife
2014-02-11, 18:29:40
Ich würde da nicht mit zweierlei Maß messen.
Ich bin der Meinung, dass das auch keiner absichtlich macht.
Alle Hardwareseiten haben auf Mantle gewartet, um genau diese API zu testen. Es hat vermutlich keiner daran gedacht, dass der Mantle-Patch auch auf NV-Seite Veränderungen in der Größenordnung bringt, wie sie scheinbar an der Tagesordnung sind.
Die Review-Seiten brauchen schließlich auch etwas Zeit, um auf diese - auch für mich - neue Situation zu reagieren. Und die sollte man ihnen auch geben, statt hier von zweierlei Maß zu sprechen. Mantle ist gerade einmal 11 Tage in freier Wildbahn. Bei manch Grafikkarten-Generationen verging schon mehr Zeit, bis alle Informationen vorhanden waren (ich denke da in erster Linie an Kepler und den Boost). Da sollte man meiner Meinung nach einer neuen API, die auf zwei Betriebssystemen und zwei Hardware-Generationen läuft, auch ein paar Wochen für die Informationsgewinnung zugestehen.
Als Außenstehender ist es auch immer sehr einfach, sein Fähnchen in den Wind zu drehen. Wäre alles normal verlaufen, Windows 8.1 hätte kein anderes Verhalten gezeigt als Windows 7, es hätten aber alle mit 8.1 getestet, dann wäre das Geschrei wieder groß gewesen, warum man denn das total unverbreitete Windows 8.1 testet statt das viel verbreitetere Windows 7. Viele haben Windows 7 in ihrem Parcours und haben es genutzt. Jetzt ist es ein leichtes zu sagen, es würde mit zweierlei Maß gemessen. Wie die Kritiker es eben gerade brauchen, wie es halt gerade passt.
Ich sage nicht, dass die derzeitige Situation gut ist. Ich sage nur, dass niemand absichtlich irgendwas unter den Tisch fallen lässt und auch Reviewer nicht in die Zukunft sehen können. Denn könnten sie das, würden wir heute sicher andere Informationen haben.
boxleitnerb
2014-02-11, 18:39:10
Ich bin der Meinung, dass das auch keiner absichtlich macht.
Alle Hardwareseiten haben auf Mantle gewartet, um genau diese API zu testen. Es hat vermutlich keiner daran gedacht, dass der Mantle-Patch auch auf NV-Seite Veränderungen in der Größenordnung bringt, wie sie scheinbar an der Tagesordnung sind.
Die Review-Seiten brauchen schließlich auch etwas Zeit, um auf diese - auch für mich - neue Situation zu reagieren. Und die sollte man ihnen auch geben, statt hier von zweierlei Maß zu sprechen. Mantle ist gerade einmal 11 Tage in freier Wildbahn. Bei manch Grafikkarten-Generationen verging schon mehr Zeit, bis alle Informationen vorhanden waren (ich denke da in erster Linie an Kepler und den Boost). Da sollte man meiner Meinung nach einer neuen API, die auf zwei Betriebssystemen und zwei Hardware-Generationen läuft, auch ein paar Wochen für die Informationsgewinnung zugestehen.
Als Außenstehender ist es auch immer sehr einfach, sein Fähnchen in den Wind zu drehen. Wäre alles normal verlaufen, Windows 8.1 hätte kein anderes Verhalten gezeigt als Windows 7, es hätten aber alle mit 8.1 getestet, dann wäre das Geschrei wieder groß gewesen, warum man denn das total unverbreitete Windows 8.1 testet statt das viel verbreitetere Windows 7. Viele haben Windows 7 in ihrem Parcours und haben es genutzt. Jetzt ist es ein leichtes zu sagen, es würde mit zweierlei Maß gemessen. Wie die Kritiker es eben gerade brauchen, wie es halt gerade passt.
Ich sage nicht, dass die derzeitige Situation gut ist. Ich sage nur, dass niemand absichtlich irgendwas unter den Tisch fallen lässt und auch Reviewer nicht in die Zukunft sehen können. Denn könnten sie das, würden wir heute sicher andere Informationen haben.
Das war auch auf fondness ausführungen bezogen. Abgesehen davon war es lange zuvor klar, dass bei bf4 11.1 vorteile bringt
Demirug
2014-02-11, 18:56:35
Hier ein Interview mit dem Thief Producer:
http://www.pcgameshardware.de/Thief-4-PC-98521/Specials/Thief-4-Exklusives-Interview-mit-dem-Producer-1108933/
Eher ernüchternd.
Keine Aussage zur Performances, Ein Entwickler plus Hilfe von AMD und als größtes Feature wird einfacheres Shaderpreloading herausgestellt. Das hört sich fast so an wie "Eigentlich bringt uns Mantle technisch nicht wirklich was"
url=http://www.techradar.com/news/computing/pc/amd-on-mantle-we-want-our-gaming-api-to-become-the-industry-standard-1218560]AMD on Mantle: We want our graphics API to become the industry standard[/url]
"But for the good of gamers, [we] would want one ultimate specification that is either Mantle itself or one similar to it. As Highlander said, 'There can only be one.'"
=> Mantle bleibt also eine proprietäre Insellösung oder ist eigentlich schon Tod.
-/\-CruNcher-/\-
2014-02-11, 19:22:20
Der Unterschied ist das Mantle auf Initiative vieler Entwickler entstanden ist, die schon länger mehr Kontrolle am PC verlangen um eben Dinge wie geringeren Overhead, besseres Multi-GPU-Rendering oder bessere Frametimes ermöglichen wollen.
Bezüglich Frametimes, Techreport hat Win8.1 NV vs AMD Mantle getestet:
Bei Mantle/290X sind diese bis auf einem Peak (bekannter Mantle Bug) immer unter 10ms während die 780Ti in D3D11.1 einige Peaks darüber hat und das obwohl die 780Ti sogar insgesamt die höhere Framerate erreicht.
http://imageshack.com/a/img31/2328/tlu.gif (https://imageshack.com/i/0vtlug)
http://imageshack.com/a/img690/8007/ved.gif (https://imageshack.com/i/j6vedg)
gut und nu erklär mir wo das für Gamer von irgend einer Bedeutung ist das die frame times etwas mehr peaken bis auf diese extremen peaks ist das allles geradezu fantastisch :)
Oder willst du mir jetzt sagen das könnten Gamer kognitiv erfassen und hätten einen vorteil mit Mantle ;)
sicherlich unter 10ms zu bleiben ist schon nice aber das andere ist genauso perfekt das würde sich so manch ein Game (Engine) wünschen zu schaffen :)
fondness
2014-02-11, 19:24:16
Eher ernüchternd.
Keine Aussage zur Performances, Ein Entwickler plus Hilfe von AMD und als größtes Feature wird einfacheres Shaderpreloading herausgestellt. Das hört sich fast so an wie "Eigentlich bringt uns Mantle technisch nicht wirklich was"
Das dir Mantle warum auch immer nicht zusagt oder gefällt hast du ja schon das ein- oder andere mal angedeutet, andere Entwickler sehen das aber offenbar anders. Und bei Thief würde ich zuerst mal das Ergebnis abwarten. Es wurde immerhin auch schon bis zu 20% zusätzliche GPU-Leistung angekündigt. Das diese Früchte deutlich höher hängen als die CPU-Optimierungen wurde auch schon gesagt.
=> Mantle bleibt also eine proprietäre Insellösung oder ist eigentlich schon Tod.
Oder Mantle etabliert sich als Standard. Und selbst wenn das Ding einen anderen Namen bekommt ist Mantle deshalb noch lange nicht tot.
MusicIsMyLife
2014-02-11, 20:14:49
Das war auch auf fondness ausführungen bezogen.
Achso. Dann habe ich das womöglich in den falschen Hals bekommen.
Abgesehen davon war es lange zuvor klar, dass bei bf4 11.1 vorteile bringt
Sprechen wir hier von dem Vorteil, der seit BF4-Release immer mal wieder kolportiert wird? Also dass Windows 8.1 bis zu 20 Prozent mehr FPS bringen kann? Oder reden wir von dem Mantle-Patch, der scheinbar auch auf NV-Seite mit DirectX einen deutlichen Schub unter Windows 8.1 gebracht hat?
Ich meine letzteres.
Und zum ersten Teil kann ich nur sagen, dass ich sowohl Windows 7 als auch Windows 8.1 parallel installiert habe und ich mit meinem Titan-SLI keinen Unterschied zwischen beiden OS messen und/oder spüren kann. Der Unterschied zu den meisten Leuten, die beim Sprung von Windows 7 zu 8.1 von enormen Sprüngen in BF4 berichten, ist der, dass bei mir BF4 unter Windows 7 bereits perfekt läuft (von den Spieleeigenen Fehlern mal abgesehen).
Dieser Sachverhalt sagt mir, dass irgendwas in Windows 7 anders tickt als in 8.1, man dies aber auch unter Windows 7 hinbekommen kann. Und ich bin da auch nicht allein, es klappt bei einigen. Aber eben bei vielen auch nicht. Und dieser tendenzielle Vorteil von Windows 8.1 mag bekannt gewesen sein.
Demirug
2014-02-11, 20:25:18
Das dir Mantle warum auch immer nicht zusagt oder gefällt hast du ja schon das ein- oder andere mal angedeutet, andere Entwickler sehen das aber offenbar anders. Und bei Thief würde ich zuerst mal das Ergebnis abwarten. Es wurde immerhin auch schon bis zu 20% zusätzliche GPU-Leistung angekündigt. Das diese Früchte deutlich höher hängen als die CPU-Optimierungen wurde auch schon gesagt.
Der Producer reduziert hier Eindeutig die Erwartunghaltung. Das machen Leute in dieser Position eigentlich nur wenn sie halt nichts haben. Ich will gar nicht abstreiten das die Entwickler Potenzial gesehen haben. Nur so wie sich das in dem Interview anhört konnten sie es bisher nicht wirklich nutzen.
Oder Mantle etabliert sich als Standard. Und selbst wenn das Ding einen anderen Namen bekommt ist Mantle deshalb noch lange nicht tot.
Die Wahrscheinlichkeit das nvidia und Intel einsteigen ist nahezu gleich Null. Genauso wie die Wahrscheinlichkeit das Mantle überhaupt ohne Änderungen für andere GPUs implementiert werden kann. Ergo gibt es entweder etwas neues (durchaus ähnliches) oder es bleibt eine AMD only Sache weil die anderen bei OpenGL/DirectX bleiben. Wenn es etwas neues gibt wird AMD Mantle wahrscheinlich sehr schnell wieder aufgeben da die Entwickler dann lieber die API nutzen die auch mit GPUs anderer Hersteller funktioniert.
boxleitnerb
2014-02-11, 20:35:21
Sprechen wir hier von dem Vorteil, der seit BF4-Release immer mal wieder kolportiert wird? Also dass Windows 8.1 bis zu 20 Prozent mehr FPS bringen kann? Oder reden wir von dem Mantle-Patch, der scheinbar auch auf NV-Seite mit DirectX einen deutlichen Schub unter Windows 8.1 gebracht hat?
Ich meine letzteres.
Und zum ersten Teil kann ich nur sagen, dass ich sowohl Windows 7 als auch Windows 8.1 parallel installiert habe und ich mit meinem Titan-SLI keinen Unterschied zwischen beiden OS messen und/oder spüren kann. Der Unterschied zu den meisten Leuten, die beim Sprung von Windows 7 zu 8.1 von enormen Sprüngen in BF4 berichten, ist der, dass bei mir BF4 unter Windows 7 bereits perfekt läuft (von den Spieleeigenen Fehlern mal abgesehen).
Dieser Sachverhalt sagt mir, dass irgendwas in Windows 7 anders tickt als in 8.1, man dies aber auch unter Windows 7 hinbekommen kann. Und ich bin da auch nicht allein, es klappt bei einigen. Aber eben bei vielen auch nicht. Und dieser tendenzielle Vorteil von Windows 8.1 mag bekannt gewesen sein.
Ich meine bevorzugt ersteres, weil ich mir einfach nicht vorstellen kann, dass diese Lücke von der Beta jemals geschlossen wurde. Kleiner geworden kann sie schon sein, aber geschlossen...daran glaube ich nicht. Der Punkt ist, dass es aufgrund der frühen Ergebnisse zumindest anzunehmen war/ist, dass da noch Potential brach lag/liegt. Das hätte eigentlich dazu führen sollen, dass man zusätzlich mit 8.1 testet und den aktuellen Stand untersucht. Denn es ist nicht nur eine interessante Frage, sondern hat sich durch eine sowieso neue Untersuchung wegen Mantle doch gerade angeboten...sollte man jedenfalls meinen.
fondness
2014-02-11, 20:37:40
Der Producer reduziert hier Eindeutig die Erwartunghaltung. Das machen Leute in dieser Position eigentlich nur wenn sie halt nichts haben. Ich will gar nicht abstreiten das die Entwickler Potenzial gesehen haben. Nur so wie sich das in dem Interview anhört konnten sie es bisher nicht wirklich nutzen.
Vielleicht wurde auch einfach nur vereinbart keine Zahlen zu nennen. Auch bei BF4 wurde lange nichts gesagt bis AMD mit einer Folie mit dem "up to 45%" kam. Schlussendlich wurde es dann sogar mehr.
Die Wahrscheinlichkeit das nvidia und Intel einsteigen ist nahezu gleich Null. Genauso wie die Wahrscheinlichkeit das Mantle überhaupt ohne Änderungen für andere GPUs implementiert werden kann. Ergo gibt es entweder etwas neues (durchaus ähnliches) oder es bleibt eine AMD only Sache weil die anderen bei OpenGL/DirectX bleiben. Wenn es etwas neues gibt wird AMD Mantle wahrscheinlich sehr schnell wieder aufgeben da die Entwickler dann lieber die API nutzen die auch mit GPUs anderer Hersteller funktioniert.
Wenn die Vorteile groß genug sind steigt auch der Druck auf andere Entwickler und Intel/NV/MS.
Selbst wenn ein von dir beschriebenes Szenario eintritt hat sich das Ganze ausgezahlt. AMD erwähnt das ja sogar mehrmals im Artikel oben.
fondness
2014-02-11, 20:52:32
gut und nu erklär mir wo das für Gamer von irgend einer Bedeutung ist das die frame times etwas mehr peaken bis auf diese extremen peaks ist das allles geradezu fantastisch :)
Oder willst du mir jetzt sagen das könnten Gamer kognitiv erfassen und hätten einen vorteil mit Mantle ;)
sicherlich unter 10ms zu bleiben ist schon nice aber das andere ist genauso perfekt das würde sich so manch ein Game (Engine) wünschen zu schaffen :)
Was gibt es da groß zu erklären? Die fps sind kein ausreichend genaues Maß um Flüssigkeit eines bewegten Bildablaufes darzustellen, das sollte jedem spätestens seit der Mikrorucklerproblematik klar sein. Die Frametimes zeigen die maximale Latenz von einem Bild zum nächsten, trotz weniger fps erreicht die Mantle-Version einen deutlich gleichmäßigeren Bildwiedergabe mit niedrigerer Latenz. Jede Wette das man die Mantle-Version trotz weniger fps als "flüssiger" empfinden würde.
Klar ist das in diesem Fall bei solch hohen fps beides sehr gut, aber man braucht ja nur die Anforderungen erhöhen und schon sinken die fps und solche Peaks fallen immer stärker auf.
Eher ernüchternd.
Keine Aussage zur Performances, Ein Entwickler plus Hilfe von AMD und als größtes Feature wird einfacheres Shaderpreloading herausgestellt. Das hört sich fast so an wie "Eigentlich bringt uns Mantle technisch nicht wirklich was"
=> Mantle bleibt also eine proprietäre Insellösung oder ist eigentlich schon Tod.
Der Interpretationsspielraum ist gemäß diesem Artikel weitläufig und ich persönlich sehe dies anders als du. Versucht wird lediglich die API möglichst objektiv für das Spiel zu beurteilen - was im Endeffekt dabei rumkommt wird man beim Release, oder erstem Update dann erkennen können.
Zudem: Schnell mit einem 4.5Ghz Haswell+übertakteter/Highend-GPU kann jeder, allerdings schnell mit non K @ 3 Ghz nur einer ;)
schreiber
2014-02-11, 23:52:38
Zudem: Schnell mit einem 4.5Ghz Haswell+übertakteter/Highend-GPU kann jeder, allerdings schnell mit non K @ 3 Ghz UND einer High End GPU nur einer ;)
fixed.
Unicous
2014-02-12, 00:20:17
Demirug versucht weiterhin Mantle zu diskreditieren. Nicht nur unterstellt er, dass Star Swarm simple Sprites nutzt (auch wenn er wohl etwas anderes behaupten wird), nun wird auch noch dem PR-Menschen/Producer unterstellt er würde sich (meine Interpretation) für Mantle's Performance schämen und deswegen keine Performanceaussagen treffen.
Als Spieleentwickler oder generell Mitglied eines Unternehmens sollte er doch wissen, dass es eher schlecht ist über die Leistung eines nicht veröffentlichten Produktes zu reden.
Dazu kommt, dass der Herr äußerst bemüht ist, wirklich keinerlei Grabenkämpfe über die Unterschiede bei den verschiedenen Ports/Versionen entstehen zu lassen.
Die Zeit die Demirug verwendet hat um Mantle und Star Swarm zu analysieren hätte er auch darin verwenden können sich das zig mal verlinkte Präsentationsvideo anzugucken (https://www.youtube.com/watch?feature=player_detailpage&v=QIWyf8Hyjbg#t=1650) (time code 27:30 wird übrigens die Frage aufgeworfen und auch eine Antwort gegeben er vergleicht das Rendering mit RenderMan von Pixar. Keine Ahnung ob die Antwort zufriedenstellend ist, es hört sich jedenfalls nicht nach popeligen "Sprites" an)
Außerdem haben wir nur die Übersetzung und nicht den Originalwortlaut, also ist das Ganze auch nur eine Interpretation einer Interpretation.:rolleyes:
Was gibt es da groß zu erklären? Die fps sind kein ausreichend genaues Maß um Flüssigkeit eines bewegten Bildablaufes darzustellen, das sollte jedem spätestens seit der Mikrorucklerproblematik klar sein. Die Frametimes zeigen die maximale Latenz von einem Bild zum nächsten, trotz weniger fps erreicht die Mantle-Version einen deutlich gleichmäßigeren Bildwiedergabe mit niedrigerer Latenz. Jede Wette das man die Mantle-Version trotz weniger fps als "flüssiger" empfinden würde.
Klar ist das in diesem Fall bei solch hohen fps beides sehr gut, aber man braucht ja nur die Anforderungen erhöhen und schon sinken die fps und solche Peaks fallen immer stärker auf.
Das halte ich für ein Gerücht. Ich sehe keinen Grund warum die Latenz oder Jitter gegenüber D3D besser sein sollte.
Wenn überhaupt dann wegen den "max prerendered frame" buffering, aber das sollte eine Shooter-Engine unterdrücken.
Und die Latenz sinkt natürlich mit mehr FPS, das ist wohl am ehesten was du spürst.
Demirug
2014-02-12, 06:40:44
Demirug versucht weiterhin Mantle zu diskreditieren. Nicht nur unterstellt er, dass Star Swarm simple Sprites nutzt (auch wenn er wohl etwas anderes behaupten wird), nun wird auch noch dem PR-Menschen/Producer unterstellt er würde sich (meine Interpretation) für Mantle's Performance schämen und deswegen keine Performanceaussagen treffen.
Als Spieleentwickler oder generell Mitglied eines Unternehmens sollte er doch wissen, dass es eher schlecht ist über die Leistung eines nicht veröffentlichten Produktes zu reden.
Dazu kommt, dass der Herr äußerst bemüht ist, wirklich keinerlei Grabenkämpfe über die Unterschiede bei den verschiedenen Ports/Versionen entstehen zu lassen.
Das er sich schämt habe ich nicht gesagt. Er äussert sich nicht besonders euphorisch was für einen Producer eben in der Regel kein allzu gutes Zeichen ist. Thief ist wahrscheinlich einfach kein guter Kanidat für Mantle was durchaus an der wenn auch stark modifizierten Unreal Technology im Hintergrund liegen kann. Frostbite 3 passt da besser.
Die Regel heißt nicht das man nicht über unveröffentlichte Produkte redet sondern das man über nicht angekündigte Sache schweigt.
Die Zeit die Demirug verwendet hat um Mantle und Star Swarm zu analysieren hätte er auch darin verwenden können sich das zig mal verlinkte Präsentationsvideo anzugucken (https://www.youtube.com/watch?feature=player_detailpage&v=QIWyf8Hyjbg#t=1650) (time code 27:30 wird übrigens die Frage aufgeworfen und auch eine Antwort gegeben er vergleicht das Rendering mit RenderMan von Pixar. Keine Ahnung ob die Antwort zufriedenstellend ist, es hört sich jedenfalls nicht nach popeligen "Sprites" an)
Im Vordergrund werden den größeren Objekte tatsächlich als 3D Objekte heraus gerendert. War allerdings nicht ganz einfach die wenigen Calls in den Unmengen zu finden. Ich habe auch nichts gegen Sprites. Gerade bei kleinen Strukturen haben sie durchaus Vorteile. Das Problem ist das dabei auf Instaning verzichtet wurde. Letzten Endes sieht es so aus als würde man die gleichen Commandos für Mantle und Direct3D verwenden. Das ist völlig OK wenn man lediglich einen Vergleich zum Overhead und Multithread verhalten anstellen will. Betrachtet man den Direct3D renderer aber für sich verstösst man mit diesen Microcalls aber gegen eine der Fundamentlasten Regeln bei Direct3D Optimierungen: "Batch, Batch, Batch"
Das halte ich für ein Gerücht. Ich sehe keinen Grund warum die Latenz oder Jitter gegenüber D3D besser sein sollte.
Wenn überhaupt dann wegen den "max prerendered frame" buffering, aber das sollte eine Shooter-Engine unterdrücken.
Und die Latenz sinkt natürlich mit mehr FPS, das ist wohl am ehesten was du spürst.
Kalte Pipeline/Shader Caches könnten für einen höheren Jitter verantwortlich sein. >Den Zeitpunkt wann die entsprechenden Compiler anspringen kann man mit Mantle im Gegensatz zu Direct3D genau kontrollieren. Ähnliches gilt auch für den Zeitpunkt zudem Resourcen in den VRAM geladen werden. Direct3D hat da die Tendenz das Lazy zu machen.
StefanV
2014-02-12, 08:20:36
Die Wahrscheinlichkeit das nvidia und Intel einsteigen ist nahezu gleich Null. Genauso wie die Wahrscheinlichkeit das Mantle überhaupt ohne Änderungen für andere GPUs implementiert werden kann. Ergo gibt es entweder etwas neues (durchaus ähnliches) oder es bleibt eine AMD only Sache weil die anderen bei OpenGL/DirectX bleiben. Wenn es etwas neues gibt wird AMD Mantle wahrscheinlich sehr schnell wieder aufgeben da die Entwickler dann lieber die API nutzen die auch mit GPUs anderer Hersteller funktioniert.
Du begehst einen Denkfehler bzw erwähnst eine Möglichkeit nicht.
Und die ist, dass AMD durchaus schon mit anderen 'GPU' Entwicklern zusammenarbeitet, um Mantle für deren (zukünftigen) GPUs nutzbar zu machen.
Natürlich ist das NICHT nVidia und natürlich auch NICHT Intel.
Aber ARM und Qualcom gibts auch noch. Ebenso PowerVR.
Wenn man die drei im Boot hat, ist der Zug für Intel und nVidia abgefahren, gerade/insbesondere im Mobilen Bereich.
Das er sich schämt habe ich nicht gesagt. Er äussert sich nicht besonders euphorisch was für einen Producer eben in der Regel kein allzu gutes Zeichen ist. Thief ist wahrscheinlich einfach kein guter Kanidat für Mantle was durchaus an der wenn auch stark modifizierten Unreal Technology im Hintergrund liegen kann. Frostbite 3 passt da besser.
Möglich, aber auch, dass er keine Freigabe bekommen hat, über die Performance zu reden.
Denn, das hast du ja auch mal erwähnt, wäre es ziemlich blöd, wenn man herausposaunen würde, dass das Spiel auf AMD Hardware drei mal so schnell laufen würde wie auf nVidia Hardware, denn das würde ja, laut deinen Aussagen, dazu führen, dass die ganzen nVidia Jünger das Spiel nicht kaufen würden. Oder einen Shitstorm versuchen würden.
Daher kanns auch in diesem Falle eine gute Idee sein, nichts zu dem Performance Vorteil, den Mantle bringen kann und das, was man normalerweise sieht/spürt zu reden.
Im Vordergrund werden den größeren Objekte tatsächlich als 3D Objekte heraus gerendert. War allerdings nicht ganz einfach die wenigen Calls in den Unmengen zu finden. Ich habe auch nichts gegen Sprites. Gerade bei kleinen Strukturen haben sie durchaus Vorteile. Das Problem ist das dabei auf Instaning verzichtet wurde. Letzten Endes sieht es so aus als würde man die gleichen Commandos für Mantle und Direct3D verwenden. Das ist völlig OK wenn man lediglich einen Vergleich zum Overhead und Multithread verhalten anstellen will. Betrachtet man den Direct3D renderer aber für sich verstösst man mit diesen Microcalls aber gegen eine der Fundamentlasten Regeln bei Direct3D Optimierungen: "Batch, Batch, Batch"
Und jetzt kommt DIE große Preisfrage:
Glaubst du, dass es in der Retail Version ebenso sein werden wird und hälst du es für ausgeschlossen, dass die Engine das prinzipiell kann (bzw es implementiert werden wird), man es aber aus diversen Gründen in der Demo nicht getan hat?
Wäre es nicht logisch, dass die Oxide Jungs das ganze momentan nicht gemacht haben (oder abgeschaltet haben), um zu demonstrieren, was Mantle in worst case szenarien leisten kann?
Armaq
2014-02-12, 08:59:53
Thief und Mantle ist einfach keine Win/Win Situation.
Demirug
2014-02-12, 09:11:06
Du begehst einen Denkfehler bzw erwähnst eine Möglichkeit nicht.
Und die ist, dass AMD durchaus schon mit anderen 'GPU' Entwicklern zusammenarbeitet, um Mantle für deren (zukünftigen) GPUs nutzbar zu machen.
Natürlich ist das NICHT nVidia und natürlich auch NICHT Intel.
Aber ARM und Qualcom gibts auch noch. Ebenso PowerVR.
Wenn man die drei im Boot hat, ist der Zug für Intel und nVidia abgefahren, gerade/insbesondere im Mobilen Bereich.
Mobile ist eine ganz andere Baustelle. Da installiert man nicht einfach mal einen neuen Treiber der eine neue API mit sich bringt. Da müssen Google und Apple mitspielen. Das wäre so als ob Mantle nur von Microsoft als Windows Update ausgeliefert werden könnte.
Google hat schon recht klar gemacht das sie von zwei APIs für den gleichen Bereich nicht viel hält. Bei Apple wäre es eher denkbar aber die sind so mit PowerVR verheiratet das dann eher was eigenes von PowerVR kommt.
Möglich, aber auch, dass er keine Freigabe bekommen hat, über die Performance zu reden.
Denn, das hast du ja auch mal erwähnt, wäre es ziemlich blöd, wenn man herausposaunen würde, dass das Spiel auf AMD Hardware drei mal so schnell laufen würde wie auf nVidia Hardware, denn das würde ja, laut deinen Aussagen, dazu führen, dass die ganzen nVidia Jünger das Spiel nicht kaufen würden. Oder einen Shitstorm versuchen würden.
Daher kanns auch in diesem Falle eine gute Idee sein, nichts zu dem Performance Vorteil, den Mantle bringen kann und das, was man normalerweise sieht/spürt zu reden.
Das er der Performancesfrage ausweicht ist ja nur ein Teil des Problems. Das IMHO viel größere ist das er den Precompile der Pipelines als das Feature herausstellt. Das ist aber in der ganzen Mantle API das Feature was im Vergleich zu Direct3D am wenigsten bringt. Es ist am Ende des Tages das was übrig bleibt wenn ich mit Direct3D kein Overhead Problem habe.
Und jetzt kommt DIE große Preisfrage:
Glaubst du, dass es in der Retail Version ebenso sein werden wird und hälst du es für ausgeschlossen, dass die Engine das prinzipiell kann (bzw es implementiert werden wird), man es aber aus diversen Gründen in der Demo nicht getan hat?
Wäre es nicht logisch, dass die Oxide Jungs das ganze momentan nicht gemacht haben (oder abgeschaltet haben), um zu demonstrieren, was Mantle in worst case szenarien leisten kann?
Die ganze Diskussion begann damit das die Behauptung im Raum steht das man für Direct3D mehr optimiert hätte als für Mantle. Möglicherweiße sind ja bereits mehr Optimierungen vorhanden und sie wurden aus welchen Gründen auch immer nicht eingeschaltet. Ich kann halt nur das sehen was der Stresstest macht.
Ailuros
2014-02-12, 09:19:30
Mobile ist eine ganz andere Baustelle. Da installiert man nicht einfach mal einen neuen Treiber der eine neue API mit sich bringt. Da müssen Google und Apple mitspielen. Das wäre so als ob Mantle nur von Microsoft als Windows Update ausgeliefert werden könnte.
Google hat schon recht klar gemacht das sie von zwei APIs für den gleichen Bereich nicht viel hält. Bei Apple wäre es eher denkbar aber die sind so mit PowerVR verheiratet das dann eher was eigenes von PowerVR kommt.
Da es Euch wundern wuerde dass ich NICHT meinen Senf dazu beitrage sobald PVR ins Gespraech kommt: Weder fruitco noch IMG haben irgendwelches Interesse daran. Sie duerften viel zu viel beschaeftigt sein eine proprietaere low power ray tracing Methode auf die Beine zu stellen.
Mobile ist tatsaechlich eine ganz andere Welt und ich wuerde die beiden Welten (ULP mobile & desktop) nicht im gleichen Satz benutzen wenn es zu solchen Einzelheiten kommt.
Ist zwar OT aber Apple scheint es geschafft zu haben mit Cyclone im A7 den OGL Treiber overhead um ca. 5x Mal effizienter zu gestalten als Qualcomm. Wieso sie sich jetzt noch ueber Mantle scheren sollten ist mir fremd.
Auf der anderen Seite fuer Android mit einem linux kernel als OS? You got to be kidding me....
Gaestle
2014-02-12, 09:29:43
Die Zeit die Demirug verwendet hat um Mantle und Star Swarm zu analysieren hätte er auch darin verwenden können sich das zig mal verlinkte Präsentationsvideo anzugucken (https://www.youtube.com/watch?feature=player_detailpage&v=QIWyf8Hyjbg#t=1650) (time code 27:30 wird übrigens die Frage aufgeworfen und auch eine Antwort gegeben er vergleicht das Rendering mit RenderMan von Pixar. Keine Ahnung ob die Antwort zufriedenstellend ist, es hört sich jedenfalls nicht nach popeligen "Sprites" an)
Ich persönlich begrüße es sehr, wenn sich mal jemand die Zeit nimmt und anschaut, wie die Wahrheit auf dem Platz (sprich im Code) aussieht, statt sich anhand von verbalen Aussagen ein Urteil zu bilden, die nur in den allerseltensten Fällen ohne Marketing-Mauklkorb oder zumindest individualpolitische Absichten geäußert werden.
Sorry für OT.
Gipsel
2014-02-12, 09:39:59
Das er der Performancesfrage ausweicht ist ja nur ein Teil des Problems. Das IMHO viel größere ist das er den Precompile der Pipelines als das Feature herausstellt.Hast Du noch nie Deinen Chefs zugehört, egal ob in irgendwelchen Gesprächen oder auch bei Vorträgen auf Konferenzen? Also mir sträuben sich da recht regelmäßig die Haare, weil wesentliche Punkte (aus meiner Sicht) nicht richtig rüberkommen. Aber auch objektiv gesehen, stehen die bei so einem Interview vor einem schwierigen Problem. Das Publikum des Interviews war die Allgemeinheit, keine anderen Entwickler. Wie erklärt man dem Durchschnittsuser an einem konkreten Beispiel, was für Vorteile das bringen könnte? Und das Beispiel mit den Precompiles ist nunmal einfach zu verstehen, ohne in sich in den Untiefen des D3D Drawcall-Overheads zu verlieren. Er sagt ja nicht, daß es das einzige wäre, es ist lediglich ein Besipiel in diesem Interview. Daß man allgemein bessere Kontrolle über die Performance hätte, ist zwar an Unkonkretheit kaum zu überbieten, schließt aber andere Performancevorteile auch nicht aus. Das Interview ist schlicht keine detaillierte technische Diskussion der Vorteile.
==============================
Und zu mobil, ich würde mal glatt vermuten, daß da eventuell das Mantle-Modell gar nicht so gut paßt (mehr spezialisierte fixed function Logik, insbesondere bei den Tilern) und da entweder die Architekturen oder die API angepaßt werden müßten. Es ist allerdings ein ziemlich guter Fit für die neueren AMD- und nV-GPUs. Ich denke schon, daß man die relativ gut unter einen Hut bringen könnte, wenn man das wollte.
fondness
2014-02-12, 09:59:50
Das halte ich für ein Gerücht. Ich sehe keinen Grund warum die Latenz oder Jitter gegenüber D3D besser sein sollte.
Wenn überhaupt dann wegen den "max prerendered frame" buffering, aber das sollte eine Shooter-Engine unterdrücken.
Und die Latenz sinkt natürlich mit mehr FPS, das ist wohl am ehesten was du spürst.
Es gibt nicht nur eine Messung welche die gleichmäßigeren Frametimes bestätigen. Auch haben das mehrere Reviewer bestätigt. Demirug hat ja schon eine mögliche Erklärung geliefert.
http://imagizer.imageshack.us/v2/1024x768q90/822/aku3.png (https://imageshack.com/i/muaku3p)
http://imagizer.imageshack.us/v2/1024x768q90/802/8fxf.png (https://imageshack.com/i/ma8fxfp)
http://www.pcper.com/reviews/Graphics-Cards/Battlefield-4-Mantle-Early-Performance-Testing
Demirug
2014-02-12, 10:22:06
Es gibt nicht nur eine Messung welche die gleichmäßigeren Frametimes bestätigen. Auch haben das mehrere Reviewer bestätigt. Demirug hat ja schon eine mögliche Erklärung geliefert.
http://imagizer.imageshack.us/v2/1024x768q90/822/aku3.png (https://imageshack.com/i/muaku3p)
http://imagizer.imageshack.us/v2/1024x768q90/802/8fxf.png (https://imageshack.com/i/ma8fxfp)
http://www.pcper.com/reviews/Graphics-Cards/Battlefield-4-Mantle-Early-Performance-Testing
Ich bezog mich eher auf die vereinzelten Spitzen in dem zuletzt geposteten Diagramm. Wenn es so gleichmässig passiert spricht das eher dafür das entweder der VRAM am Limit ist und ständig Sachen umkopiert werden müssen oder das da eine Queue immer wieder vollläuft und dann abgebaut wird.
fondness
2014-02-12, 10:26:34
Die 4GB VRAM der 290X sollten mehr als genug sein. Mal sehen wie es bei Tief aussieht, aber zumindest bei BF4 haben das zu viele Reviewer festgestellt um von einem Zufall zu sprechen.
Möglicherweise ist das auch einfach eine Folge des deutlich geringeren CPU-Overheads, während die GPU bei der D3D-Version immer mal wieder auf die CPU warten muss, ist die Mante-Version in normalen Einstellungen wohl fast ausschließlich GPU-limitiert.
evilbob
2014-02-12, 10:43:06
Die Frametimes sind bei so ziemlich jedem D3D-Spiel mit MT grottenschlecht.
Crysis 3 im Gras ist die größte Frechheit überhaupt.
Aber auch GPU-Spikes hat Mantle ausgebügelt.
-/\-CruNcher-/\-
2014-02-12, 10:57:55
Mobile ist eine ganz andere Baustelle. Da installiert man nicht einfach mal einen neuen Treiber der eine neue API mit sich bringt. Da müssen Google und Apple mitspielen. Das wäre so als ob Mantle nur von Microsoft als Windows Update ausgeliefert werden könnte.
Google hat schon recht klar gemacht das sie von zwei APIs für den gleichen Bereich nicht viel hält. Bei Apple wäre es eher denkbar aber die sind so mit PowerVR verheiratet das dann eher was eigenes von PowerVR kommt.
Das er der Performancesfrage ausweicht ist ja nur ein Teil des Problems. Das IMHO viel größere ist das er den Precompile der Pipelines als das Feature herausstellt. Das ist aber in der ganzen Mantle API das Feature was im Vergleich zu Direct3D am wenigsten bringt. Es ist am Ende des Tages das was übrig bleibt wenn ich mit Direct3D kein Overhead Problem habe.
Die ganze Diskussion begann damit das die Behauptung im Raum steht das man für Direct3D mehr optimiert hätte als für Mantle. Möglicherweiße sind ja bereits mehr Optimierungen vorhanden und sie wurden aus welchen Gründen auch immer nicht eingeschaltet. Ich kann halt nur das sehen was der Stresstest macht.
@Demirug
Btw weist du etwas von einem von Ubisoft eigen entwickelsten POM, oder wird da wieder mal etwas übertrieben ?
Es gibt nicht nur eine Messung welche die gleichmäßigeren Frametimes bestätigen. Auch haben das mehrere Reviewer bestätigt. Demirug hat ja schon eine mögliche Erklärung geliefert.
http://imagizer.imageshack.us/v2/1024x768q90/822/aku3.png (https://imageshack.com/i/muaku3p)
http://imagizer.imageshack.us/v2/1024x768q90/802/8fxf.png (https://imageshack.com/i/ma8fxfp)
http://www.pcper.com/reviews/Graphics-Cards/Battlefield-4-Mantle-Early-Performance-Testing
Die Messgenauigkeit (Auflößung) ist hier wiederum eine ganz andere als wie bei 3dnow und das sieht wirklich nicht gut aus aber dort wird wiederum nicht mit Nvidia vergleichen und diese Ergebnisse das Nvidia dort besser sein muss im Treiber Management sind schon länger bekannt, somit sagt das hier leider auch nichts wirklich im Vergleich aus man kann nur erahnen das das jittering niedriger sein muss bei Nvidia im Vergleich zu AMD ohne Mantle aber eindeutig wird es auch hier nicht :(
Es zeigt wiederum nur AMDs Treiber state mit und ohne Mantle ;)
Zumal auch problematisch da die ganze test Methodology total im Dunkeln liegt, was wird da eigentlich gerendert momentan ?
Demirug
2014-02-12, 11:20:24
Die 4GB VRAM der 290X sollten mehr als genug sein. Mal sehen wie es bei Tief aussieht, aber zumindest bei BF4 haben das zu viele Reviewer festgestellt um von einem Zufall zu sprechen.
Zufall ist das sicher nicht. Ich würde da eher von einem Bug/Problem in der DX Runtime/D3D Treiber oder in FB3/BF4 ausgehen.
Möglicherweise ist das auch einfach eine Folge des deutlich geringeren CPU-Overheads, während die GPU bei der D3D-Version immer mal wieder auf die CPU warten muss, ist die Mante-Version in normalen Einstellungen wohl fast ausschließlich GPU-limitiert.
Wenn man die gründe Kurve mittelt liegt sie wohl im gleichen Bereich wie die blaue. Das spricht primär dafür das in beiden Fälle die gleiche Komponente limitiert.
Es sieht irgendwie so aus als könnte die CPU jeweils einen Frame sehr schnell pumpen dann einen weiteren hinterher und muss dann warten bis die GPU hinterher kommt. Ich würde mich da Coda anschließen das so eine Kurve nach einen Problem im Prerender Limit Bereich riecht. Fehler im Framepaceing vielleicht.
Iruwen
2014-02-12, 12:35:42
Es gibt nicht nur eine Messung welche die gleichmäßigeren Frametimes bestätigen. Auch haben das mehrere Reviewer bestätigt. Demirug hat ja schon eine mögliche Erklärung geliefert.
http://imagizer.imageshack.us/v2/1024x768q90/822/aku3.png (https://imageshack.com/i/muaku3p)
http://imagizer.imageshack.us/v2/1024x768q90/802/8fxf.png (https://imageshack.com/i/ma8fxfp)
http://www.pcper.com/reviews/Graphics-Cards/Battlefield-4-Mantle-Early-Performance-Testing
Du meinst damit, dass die glatteren Frametimes durch die kleineren CPU Spikes bedingt sind oder? Weil die Graphen ja die Auslastung der CPU zeigen und nicht die Frametimes ist das gerade missverständlich.
Rente
2014-02-12, 12:55:48
Ist die nVidia-Präsentation Beyond Porting (http://media.steampowered.com/apps/steamdevdays/slides/beyondporting.pdf) hier schon bekannt?
Geht dabei aus meiner Sicht u.A. auch um Punkte für welche AMD Mantle ins Feld führt.
Gibt auch einen Mitschnitt davon (51min): http://youtu.be/-bCeNzgiJ8I
All the Draw Calls!
Problem:
You want more draw calls of smaller objects.
D3D is slow at this.
Naïve GL is faster than D3D, but not fast enough.:D
mironicus
2014-02-12, 13:20:31
Nur schade, dass die Sache mit den Draw Calls und der optimierten Programmierung wohl nur den neuen Konsolen vorbehalten bleiben wird, und man auf dem PC Mantle vorwiegend nur dazu nutzt um die allgemeine Performance zu steigern, aber nicht um bisher "nie dagewesene Spiele mit extrem viel bewegten Objekten" herzustellen.
In Zukunft kann ich mir vorstellen, dass es in PS4 Spielen weit mehr Dynamik geben wird, alles wird lebendiger, mehr Objekt-Physik im Hintergrund bei der Darstellung von Landschaften und Natur, während auf dem PC alles statisch bleibt, weil noch vermehrt auf DX11 gesetzt wird.
schreiber
2014-02-12, 13:22:41
Bei der miesen CPU-Performance der Konsolen ist eher das Gegenteil zu erwarten.
mironicus
2014-02-12, 13:26:06
Die CPU-Performance ist doch gerade das, was unwichtiger wird.
Bei der miesen CPU-Performance der Konsolen ist eher das Gegenteil zu erwarten.
Glaube für viele ist das Thema echt zu hoch (selbst im 3DCenter), da nach wie vor Null auf dem Radar (zumindest wirkt es so)? Es wäre wohl an der Zeit für ein Grundsatzartikel zu HSA, der Art wie man sie früher im 3dCenter fand! :smile:
Gaestle
2014-02-12, 13:42:14
Mironicus, ich denke nicht, dass CPU-Performance unwichtiger wird.
Ich könnte mir auch vorstellen, dass man CPU-Kapazitäten freischaufelt, um für die von Dir beschriebenen Dinge (Lebendigkeit der Welt) Platz zu schaffen.
schreiber
2014-02-12, 13:46:45
Wenn die Konsolen-CPUs nur halb so schnell sind wie aktuelle Desktop-Quads, dann ist der Vorteil der Hardware-nahen APIs bereits mehr als verfrühstückt.
Glaube für viele ist das Thema echt zu hoch (selbst im 3DCenter), da nach wie vor Null auf dem Radar (zumindest wirkt es so)? Es wäre wohl an der Zeit für ein Grundsatzartikel zu HSA, der Art wie man sie früher im 3dCenter fand! :smile:
HSA ist nicht die Lösung für Drawcall-Overheads. Und auch überhaupt keine generelle Lösung für irgendwas, vor allem wenn man auf der GPU auch noch rendern will.
Unicous
2014-02-12, 14:21:16
Ich persönlich begrüße es sehr, wenn sich mal jemand die Zeit nimmt und anschaut, wie die Wahrheit auf dem Platz (sprich im Code) aussieht, statt sich anhand von verbalen Aussagen ein Urteil zu bilden, die nur in den allerseltensten Fällen ohne Marketing-Mauklkorb oder zumindest individualpolitische Absichten geäußert werden.
Sorry für OT.
Ich persönlich fände es aber gut, wenn jemand die Fakten aufführt und nicht auf Grund seiner kurzen Untersuchung nur Vermutungen und Spekulationen anstellt, die dann vom Entwickler anders sagen wir mal, "interpretiert" wird.
Es gibt nämlich eine deutliche Diskrepanz, zwischen dem was Demirug sagt und sagte und dem was Dan Baker und Tim Kipp "präsentiert" hat.
Und daher finde ich es mehr als verwunderlich, dass Demirug sich das Video, bzw. nicht mal die jeweils angesprochen Ausschnitte zu Gemüte führt und an stattdessen nur im trüben Code fischt.
Dann könnte er nämlich auch die Aussagen von Oxide Games und seine Funde und Interpretationen für jedermann vergleichen. Aber irgendwie kommen nur Allgemeinplätze oder das Anprangern von schlechter PR gegenüber dem Thief-Producer und daraus abgeleitet wird dann, dass Mantle gar nicht so toll ist.:freak:
Ich sehe da keine nüchterne Herangehensweise, sondern eine worauf auch immer basierte starke Abneigung mit gezielten Sticheleien die als kompetente Analyse daherkommen sollen.
Und das brauche ich persönlich nicht.:rolleyes:
@ Mantle@ARM
Ich denke nicht, dass ARM, Qualcomm u. Co. mittelfristig sich mit Mantle auseinandersetzen werden. Apple schon gar nicht. Die würden wenn überhaupt was eigenes auf die Beine stellen, aber wie Ailuros schon sagt: Apples Treiber- bzw. Softwareteam kitzelt jetzt schon alles aus der gekauften GPU-IP heraus, die haben schon ihr eigenes Mantle (Obwohl es bei den Macs jetzt nicht sooo toll aussieht, muss man mal sagen. Da ist die Devise Hauptsache es läuft).
Was Star Swarm angeht bin ich völlig auf Demirugs Seite. Offensichtlich wurde Null auf DirectX optimiert.
Unicous
2014-02-12, 14:38:30
Was Star Swarm angeht bin ich völlig auf Demirugs Seite. Offensichtlich wurde Null auf DirectX optimiert.
Offenbar=/=Offensichtlich.
Star Swarm wurde auf DirectX entwickelt, die Entwickler sagen sie haben mehr Zeit für DirectX aufgewendet. Ihr bezichtigt Oxide Games damit also der Lüge.
Q. This is just a marketing tool for AMD; you’ve obviously crippled the DirectX version!
A. We really haven’t; to be perfectly honest we’ve spent more time optimizing for DirectX than we have on Mantle. The fact is that DirectX is conceived and implemented as a single-threaded API, and so a lot of the more significant gains we see thanks to the Nitrous engine’s aggressive multithreading are badly limited by API overhead when we’re using it.
We obviously can’t prove this to the satisfaction of everyone on the Internet, but understand that our primary goal with Nitrous is to make the best engine we can so that we can open the door to the new kinds of games that we want to make (and play ourselves!). An awful lot of the gamers we hope to entertain don’t and won’t have access to Mantle-enabled hardware any time soon, so we’d be making a huge mistake as entertainers and as businesspeople by not supporting or poorly supporting non-Mantle hardware.
http://www.oxidegames.com/2014/01/31/star-swarm-faq/
Wie gesagt, ein starkes Stück, das Dan Baker vorzuwerfen.
Ich wiederhole mich immer wieder gern: Ihr werft einem ehemaligen DirectX Lead Engineer Dilletantismus bei der DirectX Implementierung vor.
Loeschzwerg
2014-02-12, 14:39:21
Und das brauche ich persönlich nicht.:rolleyes:
Dann überlies die Beiträge oder merke sie dir für die Zukunft ;) Hier immer wieder in die gleiche Kerbe zu schlagen und Demirug anzupflaumen braucht es auch nicht.
@ Mantle@ARM
Ich denke nicht, dass ARM, Qualcomm u. Co. mittelfristig sich mit Mantle auseinandersetzen werden. Apple schon gar nicht. Die würden wenn überhaupt was eigenes auf die Beine stellen, aber wie Ailuros schon sagt: Apples Treiber- bzw. Softwareteam kitzelt jetzt schon alles aus der gekauften GPU-IP heraus, die haben schon ihr eigenes Mantle (Obwohl es bei den Macs jetzt nicht sooo toll aussieht, muss man mal sagen. Da ist die Devise Hauptsache es läuft).
Anschauen werden sie es sich evtl., aber einen aktiven Einsatz sehe ich nicht. Die Gründe wurden schon gennant, Google und andere HW Voraussetzungen.
Rente
2014-02-12, 14:42:07
Offenbar=/=Offensichtlich.
Star Swarm wurde auf DirectX entwickelt, die Entwickler sagen sie haben mehr Zeit für DirectX aufgewendet. Ihr bezichtigt Oxide Games damit also der Lüge.
http://www.oxidegames.com/2014/01/31/star-swarm-faq/
Wie gesagt, ein starkes Stück, das Dan Baker vorzuwerfen.
Ich wiederhole mich immer wieder gern: Ihr werft einem ehemaligen DirectX Lead Engineer Dilletantismus bei der DirectX Implementierung vor.Und du verteidigst ihn (über mehrere Seiten) mit aller Kraft, warum? Demirug ist aufgrund seines beruflichen Werdegangs mindestens ebenso vertrauenswürdig, darüber hinaus bezichtigt hier niemand irgendwem einer Lüge.
Es ist auch eher weniger unabsichtlicher Dilletantismus, als Kosten-/Nutzen-Rechnung und darauf angepasste Verfahrensweise bei der Umsetzung aus meiner Sicht.
fondness
2014-02-12, 14:49:52
Ich wäre trotzdem etwas vorsichtiger mit solchen Aussagen ohne den Code auch nur gesehen zu haben geschweige denn irgend ein Mantle SDK zu besitzen.
Jemand wie Dan Baker hat es sicherlich nicht nötig als Marketingsprachrohr zu fungieren, ohne das jetzt mit Demirugs Qualifikation irgendwie abwiegen zu wollen.
Iruwen
2014-02-12, 14:57:53
Es gibt nämlich eine deutliche Diskrepanz, zwischen dem was Demirug sagt und sagte und dem was Dan Baker und Tim Kipp "präsentiert" hat.
Und daher finde ich es mehr als verwunderlich, dass Demirug sich das Video, bzw. nicht mal die jeweils angesprochen Ausschnitte zu Gemüte führt und an stattdessen nur im trüben Code fischt.
Er soll sich also auf bloße Behauptungen verlassen wenn er offensichtlich in der Lage ist die Software genauer zu analysieren? Öh...
Du bist nebenbei auch ein Meister der (mehr oder weniger) subtilen Diskreditierung.
PS: Gabe Newell z.B. war übrigens auch mal ein hohes Tier bei Microsoft, ist heute aber offersichtlich nicht unbedingt ein Fan des Konzerns.
ShadowXX
2014-02-12, 15:05:48
Ich wäre trotzdem etwas vorsichtiger mit solchen Aussagen ohne den Code auch nur gesehen zu haben geschweige denn irgend ein Mantle SDK zu besitzen.
Jemand wie Dan Baker hat es sicherlich nicht nötig als Marketingsprachrohr zu fungieren, ohne das jetzt mit Demirugs Qualifikation irgendwie abwiegen zu wollen.
Demirug hat sich den Output den StarSwarm generiert angeguckt. Da sind die Drawcalls drinne aufgelistet....das kannst du dir und auch Unicous sich auch selbst angucken.
Und ganz ehrlich gesagt traue ich sowohl Demirug und Coda da wesentlich mehr Objektivität zu als einem Entwickler auf einer Marketingveranstaltung.
Vielleicht haben Sie es sogar für DX optimiert....nur das diese Optimierung in der Demo vielleicht gar nicht drinne ist (oder deaktiviert).
Unicous
2014-02-12, 15:20:11
Und du verteidigst ihn (über mehrere Seiten) mit aller Kraft, warum? Demirug ist aufgrund seines beruflichen Werdegangs mindestens ebenso vertrauenswürdig, darüber hinaus bezichtigt hier niemand irgendwem einer Lüge.
Es ist auch eher weniger unabsichtlicher Dilletantismus, als Kosten-/Nutzen-Rechnung und darauf angepasste Verfahrensweise bei der Umsetzung aus meiner Sicht.
Es geht nicht darum, irgendetwas zu verteidigen sondern die (privaten) Aussagen von Spieleentwicklern über andere Spieleentwickler etwas genauer zu beäugen. Genauso wie man die Aussagen der sich hier tummelnden Redakteure in Perspektive rücken muss.
Hier wird immer noch um den heißen Brei herumgetanzt. Es kommen auch keine klaren Aussagen von Demirug, außer einzelne Verlautbarungen und Vermutungen. Die sind aber überwiegend sehr negativ und geringschätzig. Es wird hier und in anderen Foren behauptet DirectX könnte das auch und die Mantle-Entwickler sind einfach zu doof das in DirectX vernünftig zu exponieren.
Es wurde für DirectX nicht genügend am code optimiert und nur deswegen sähe Mantle so gut aus. Etc. etc.
Eine nüchterne Betrachtungsweise gibt es auch also auch nicht von Leuten mit entsprechender Expertise. Das finde ich äußerst interessant. Vor allem, wird Star Swarm als Pseudo-Benchmark einer kleinen Klitsche abgetan. Wenn da jetzt olle Carmack oder Sweeney hinter gewesen wäre, dann wären hier aber solche Euphoriestürme ausgebrochen, das glaubt man gar nicht.
Stattdessen nur Geringschätzung, Belächelung, Diskreditierung. Überall wird versucht die Haare rauszufischen und einzeln aufzuhängen, die Negativität ist schon enorm (wie gesagt nicht nur hier). Der Mantle Thread bei Anandtech hat über 7000 Einträge und ist schon mehrfach gesperrt worden.
Hier passiert ähnliches. Tests von der BF4-Beta werden herangezogen, DX 11.1 zeigt deutliche Anwächse bei Kepler und natürlich wurde da ein vorher "bewusst" angezogene Handbremse gezogen. Während die Mantle Beta anscheinend Probleme hat, die auch im Treiber changelog angesprochen werden, wird hämisch "Ha ha" gerufen. "AMD ist doof, Mantle noch viel doofer, unter DX 11.1 ist Nvidia besser".
Ein Kindergarten sondergleichen. Ein Grafik-Bug (laut Andersson) ist eigentlich nur Geschummel von den Mantle-Entwicklern. Das lässt sich noch ewig weiterführen.
Am Ende des Tages bleibt übrig: Mantle ist nur Schein AMD, DICE, Oxide, Nixxes/Eidos wollen uns nur verarschen und DirectX und OpenGl können das aber sowas von viel besser oder mindestens gleich gut.
Ich sehe hier keine nüchterne Herangehensweise, eher das Gegenteil.
fondness
2014-02-12, 15:25:56
Demirug hat sich den Output den StarSwarm generiert angeguckt. Da sind die Drawcalls drinne aufgelistet....das kannst du dir und auch Unicous sich auch selbst angucken.
Und ganz ehrlich gesagt traue ich sowohl Demirug und Coda da wesentlich mehr Objektivität zu als einem Entwickler auf einer Marketingveranstaltung.
Vielleicht haben Sie es sogar für DX optimiert....nur das diese Optimierung in der Demo vielleicht gar nicht drinne ist (oder deaktiviert).
Er hat sich hoffentlich deutlich mehr angesehen als nur dieses txt. :rolleyes:
Dabei hat er sich auch schon widersprochen, zuerst meinte er die Objekte bestehen nur aus Sprites, später ist er zurück gerudert.
Auch kein Wunder, ist nicht leicht soetwas ohne Code zu analysieren, genau deshalb würde ich mich auch deutlich mehr zurück halten.
Unicous
2014-02-12, 15:28:09
Er soll sich also auf bloße Behauptungen verlassen wenn er offensichtlich in der Lage ist die Software genauer zu analysieren? Öh...
Du bist nebenbei auch ein Meister der (mehr oder weniger) subtilen Diskreditierung.
PS: Gabe Newell z.B. war übrigens auch mal ein hohes Tier bei Microsoft, ist heute aber offersichtlich nicht unbedingt ein Fan des Konzerns.
Was hat Gabe Newell damit jetzt konkret zu tun? Der mag Windows 8 nicht(und ein Fan von DirectX ist er auch nicht)?
Ich will Demirug nicht diskreditieren, ich möchte gerne mal herauskitzeln, warum er Ressentiments gegen Mantle und auch Star Swarm/Oxide hegt. Ich verstehe es nämlich nicht.
Demirug hat sich den Output den StarSwarm generiert angeguckt. Da sind die Drawcalls drinne aufgelistet....das kannst du dir und auch Unicous sich auch selbst angucken.
Und ganz ehrlich gesagt traue ich sowohl Demirug und Coda da wesentlich mehr Objektivität zu als einem Entwickler auf einer Marketingveranstaltung.
Vielleicht haben Sie es sogar für DX optimiert....nur das diese Optimierung in der Demo vielleicht gar nicht drinne ist (oder deaktiviert).
Du traust einem Entwickler der sich privat in deinem bevorzugten Forum tummelt mehr, als einem dir unbekannten Entwickler auf einer Marketingveranstaltung (eigentlich nur ein Developer Summit aber egal)
Das ist legitim.
Die folgende Unterstellung ist dann aber doch wieder genau das was ich gerade angesprochen habe. Unnötige Verschwörungstheorien, unbewiesen aber einfach mal so in die Runde geworfen. Vllt. bleibt es ja kleben.
Einfach nur unverständlich und dem Thema nicht förderlich.
-/\-CruNcher-/\-
2014-02-12, 15:34:08
Darum geht es doch garnicht es geht nur um die Wirtschaftlichkeit und die Vorteile sehen momentan im Real Life eher nüchtern aus. Da werden sich wenige Publisher drauf einlassen extra zu investieren um AMD zu pushen.
Das Ding ist doch wann wurde Mantle angefangen zu entwickeln das war in der Zeit der PS4 Entwicklung (in der Zeit war Microsoft noch hinten an) zur selben Zeit hat Microsoft an ihren Optimierungen gearbeitet für die Xbox One (windows 8 danach 8.1) an DirectX die haben sie auf der Build präsentiert und nun sehen wir die ersten Ergebnisse :)
Und Wirtschaftlich sieht man in diesen Demos den sinn nicht extra noch die leute an einem Mantle Branch arbeiten zu lassen.
Bis jetzt wird hier nur versucht den Usern etwas anzudrehen um AMDs GPU verkaufszahlen zu steigern, und viele machen da schön bei mit :)
Wie gesagt das ist Nvidias altes Marketing Team, absolut ihre Handschrift ;)
Rente
2014-02-12, 15:38:19
Ich sehe hier keine nüchterne Herangehensweise, eher das Gegenteil. Das siehst du aber quasi alleine so, aus meiner Sicht dichtest du anderen hier auch (wie Iruwen auch schon geschrieben hat) immer wieder einfach mal (mit unter sogar böswillige) Sachen an.
Hier behauptet keiner, der halbwegs lang dabei und ausreichend neutral ist, dass Mantle nur Schein ist, nur das StarSwarm in der aktuellen Form aller höchstens einen Extremfall darstellt bzw. man gewisse Punkte daran vielleicht auch hätte anders/eleganter/performanter lösen können.
Darüber hinaus ist das auch alles hochgradig OT und hat mit der Diskussion um Mantle eigentlich wenig zu tun und ist vor allem auch keineswegs irgendwie zielführend, was auch immer deine Beweggründe sind bzw. wie sie zu Stande kommen.
RaumKraehe
2014-02-12, 15:44:50
Ich finde die Diskussion hier echt trollig. Auch wenn ich selber ein Geforce nutzer bin, ich hatte nie eine ATI/AMD Karte und deshlab nicht wirklich Mantle testen kann um mir eine eingenes Bild zu machen so finde ich es generell auf jeden Fall klasse das sowas überhaupt mal probiert wurde.
Gegen etablierte Standards anzutreten ist halt immer etwas schwierig.
Auch wenn sich möglicherweise Mantle nicht durchsetzt, was ich allerdings nicht denke, so kommt zumindest Bewegung in die Technologie. Und diese Bewegung ist in meinen Augen überfällig.
Zumindest Nvidia wird das nicht auf sich sitzen lassen können wenn wirklich noch ein paar Blockbuster Mantle unterstützen und davon profitieren.
Im Endeffekt werden wir in 1-2 Jahren wahrscheinlich alle davon profitieren, nicht explizit von Mantle aber von der Technologie. Und dann können wir uns alle wieder in Arme nehmen und lieb haben.
Iruwen
2014-02-12, 15:45:50
Was hat Gabe Newell damit jetzt konkret zu tun?
Du berufst dich ständig darauf, dass Dan Baker ein DX Crack ist. Sollte das was Demirug sagt zutreffen hätte das aber nichts mit Dilettantismus zu tun sondern wäre schlicht und einfach gewollt. Vermutlich nichtmal aus Bösartigkeit, sondern einfach um einen absoluten Worst Case zu zeigen. Die Möglichkeit ziehst du aber nichtmal in Betracht sondern wirfst deinerseits allen hier reine Böswilligkeit vor die es wagen das Thema kritisch zu betrachten. Um es mit deinen Worten zu sagen: ich sehe hier keine nüchterne Herangehensweise, eher das Gegenteil.
/e: offensichtlich fällt das auch anderen auf. Denk mal drüber nach. Du verhältst dich wie ein in die Enge getriebenes Tier obwohl der Jäger längst nach Hause gegangen ist.
-/\-CruNcher-/\-
2014-02-12, 15:46:57
@RaumKraehe
Microsoft hat längst damit begonnen DirectX zu optimieren sie hatten auch gar keine andere wahl (Mobile) :)
Was du hier siehst sind Echoes von Entwicklungsstadien die schon lange laufen :)
Die aber von den Reviewern und der Presse im Allgemeinen sehr komisch interpretiert und ausgelegt werden und verdamt dilettantish verglichen, dieser ganze ablauf ist schon suspekt erst überennt man die Reviewer mit ihren Deadlines dann geht alles drunter und drüber, ein paar wenige versuchen aus diesem wilden mix an daten zwischendrin etwas herauszufischen :)
Und dann die Fanboys von rechts und links ;)
Halleluja was für ein Spaß :)
Unicous
2014-02-12, 16:01:18
@Rente
Allein CruNchers und Iruwens Aussagen strafen deine Aussage Lügen. Hier werden die gleichen "böswilligen Sachen" bis zum Erbrechen wiederholt.
Dan Baker verkrüppelt sein Machwerk um einen use case für Mantle herzustellen.
DICE verkrüppelt die Wind8.1/DirectX 11.1 Performance von Nvidia um Mantle und AMD besser darzustellen.
Hier werden immer die kompliziertesten Fälle konstruiert, anstatt einfach mal zu sagen: Vllt. sind die Leute auch nur Menschen, machen Fehler und haben Probleme mit den verschieden Hardwareimplementierungen der jeweiligen Hersteller.
Es kann nicht nüchtern an das Thema herangegangen werden, überall wird Verrat und Hinterlist vermutet.
Man kann Mantle und Co. nicht das nehmen was es ist: ein Experiment mit Ambitionen das sich in einer Beta-Phase befindet die sich eher wie eine Alpha-Phase anfühlt.
Das AMD daraus Kapital schlagen möchte sollte hier eigentlich nicht zur Debatte stehen, denn "that's a given" wie man so schön im Englischen sagt. Sie sind ein kapitalistisches Aktienunternehmen, genauso wie Nvidia, Intel, EA, Eidos...
Ich hatte mir erhofft, dass es mal ein Forum schafft sich auf die Technik und Technologie dahinter zu unterhalten, denn ich als Laie finde Mantle und die Implikationen gegenüber DirectX sehr spannend. Auch finde ich den SteamOS Ansatz sehr spannend, nur ist das momentan noch viel "nischiger" als Mantle und das Potential MS, diese Krankheit, mal mit den Haaren durch den Schnee zu ziehen sehe ich nur bedingt.
Aber, seufz, es wird nur über AMDs Marketing-Coup und der blauen Luft gesprochen. Die roten Brillen fauchen die grünen Brillen an und so weiter und so fort.
Und dazwischen ein paar Sticheleien gegen die Entwickler.
Also alles wie immer (und überall).;(
edit:
@Iruwen
Ich beziehe mich auf Dan Baker, weil er der Entwickler von Oxide ist und alleine (laut OXide Games und Stardock) Mantle implementiert hat. Wenn ich über Star Swarm und die Mantle-Implementierung rede, auf wen soll ich mich da sonst berufen? Johan Andersson?
Diese Jäger-Metapher ist bei mir irgendwie nicht angekommen, verstehe nicht was du mir damit sagen möchtest.
Gaestle
2014-02-12, 16:10:17
Ich will Demirug nicht diskreditieren, ich möchte gerne mal herauskitzeln, warum er Ressentiments gegen Mantle und auch Star Swarm/Oxide hegt. Ich verstehe es nämlich nicht.
Und ich verstehe Deinen blinden Glauben an Oxide und Mantle nicht. Hast Du Dir den Code selbst mal angesehen, oder verlässt Du Dich auf ein Video mit einem Interview?
Dass Problem ist schlicht, dass wir wahrscheinlich noch 12 Monate warten müssen um halbwegs sinnvolle Bewertungen von Mantle vornehmen zu können. Ein Spiel im Betastadium und eine Demo einer Engine im Alpha-Stadium, die in der Kritik steht, reichen dazu nicht.
Es ist nach wie vor OT.
Und wenn Du mehr erfahren willst, ist es nach meiner bisherigen Erfahrung nicht der allerbeste Weg, die Einzigen die es Wissen könnten permament anzupampen.
Das Forum würde es sicherlich schaffen "sich auf die Technik und Technologie dahinter zu unterhalten", allerdings sind wie Du selbst bemerkt hast, Glaubenskriege dafür nicht hilfreich. Nur warum führst Du dann selber einen unter der Flagge "Mantle ist toll"?
Entwickler A sagt "Mantle ist toll" und Entwickler B sagt "Mantle ist besonders in dem einen Beispiel besonders toll, weil in diesem Beispiel bestimmte Fehler gemacht wurden". Und nun stehst Du vor dem Dilemma, dass Du von Entwickler A (mangels Kontakt) keine neue Message bekommst und dann besteht Deine Strategie darin, Entwickler B solange zu nerven, bis er hier nichts mehr schreibt? Super Plan!
Und weil Du Dich ja so gerne an "offenbar" hochziehst:
Fremden Code zu prüfen ist Forschung und Forschungsergebnisse sind IMMER nur solange gültig, bis der Nächste kommt und das Gegenteil beweist. Das weiß jeder, der mal ernsthaft in der Forschung gearbeitet hat. Und deswegen sind Abschwächungen wie "offenbar" im Forschungsbereich oder ähnliches Gang und Gäbe, weil immer eine Restunsicherheit bleibt. Und je weniger Zeit man hat, um eventuelle Unsicherheitsfaktoren zu prüfen, desto legitimer und desto glaubwürdiger ist die Verwendung des Wortes "offenbar".
Deine basis ist genauso dünn, wie Demirugs Aussagen für den Laien nachprüfbar sind. Dein Argument ist ein Video mit einem Interview und der große Name des Interviewten. Nun sollte aber jedem klar sein, dass öffentliche Interviews von Entwicklern immer mindestens einen Sekundärzweck haben, und sei es nur das eigene Ansehen zu schützen. Warum das jetzt der heilige Gral der Wahrheit sein soll, erschließt sich mir nicht. Solchen Videos ist mindestens die gleiche Skepsis entgegen zu bringen, wie irgendwelchen Statements hier im Forum.
Unicous
2014-02-12, 16:24:58
Und ich verstehe Deinen blinden Glauben an Oxide und Mantle nicht. Hast Du Dir den Code selbst mal angesehen, oder verlässt Du Dich auf ein Video mit einem Interview?
Dass Problem ist schlicht, dass wir wahrscheinlich noch 12 Monate warten müssen um halbwegs sinnvolle Bewertungen von Mantle vornehmen zu können. Ein Spiel im Betastadium und eine Demo einer Engine im Alpha-Stadium, die in der Kritik steht, reichen dazu nicht.
Es ist nach wie vor OT.
Nö. Das ist nur eine Unterstellung von dir. Ich glaube nicht blind. Ich sehe nur dass es wie gesagt eine deutliche Diskrepanz zwischen dem von Oxide behaupteten und dem von Demirug behaupteten gibt. Er musste sich nach Hinweisen von mir und anderen auch schon mehrmals in diesem Thread korrigieren. Die negative Einstellung gegenüber Mantle aber bleibt. Ich würde gerne wissen ob das eine professionelle Ablehnung auf Grund der eigenen Analyse ist oder es auch einen ökonomischen Hintergrund gibt. Und nicht falsch verstehen, ich mein das aus der Unternehmerperspektive aus. Kosten für die Implementierung, eigene API (:tongue:) bzw. die eigene RTS Grafik-Engine als Kokurrent zu Nitrous. Das würde ich gerne ergründen. Den bist jetzt sind die Aussagen sehr diffus.
Ich möchte vor allem auch nicht, dass Intel und Nvidia potentiell benachteiligt werden und das wird auch bei der Marktmacht der beiden nicht so schnell passieren. Von daher sind solche Erwägungen gegenüber Mantle mehr als legitim und diskussionswürdig, denn diese Komponente hat ja sehr an Diskussionkraft verloren. Das war ja vor Wochen und Monaten noch ein großes Thema auch in diesem Forum.
Das findet aber nicht mehr statt. Es werden nur Fehler gesucht und Manipulationsversuche erdacht; die Redakteure werden angegangen. Ihnen wird unterstellt von AMD Vorgaben erhalten und ausgeführt zu haben (Win 7).
Hier geht es schon lange nicht mehr um Mantle sondern darum wie AMD und DICE uns hinter das Licht führen wollen. Seit Tagen.
Die Theorie, die Zukunftsvision bleibt auf der Strecke. Schade.
edit:
Du kannst meine Beiträge durchsuchen. Wo steht da "Mantle ist toll"? Das einzige was ich "toll" finde ist die Idee dahinter. Denn viel zu lange musste ich mich durch Singlethreaded Ports durchkämpfen nur weil Microsoft und in gewisser Hinsicht auch Sony es nicht schaffen Die heutige PC-Technik ansatzweise auszureizen. Das interessiert mich. Mantle als Idee. Als Ideengeber. Als Kopfnuss für Microsoft. Genauso Wie Apple und Google gerade die Kopfnüsse verteilen.
Diese Vision wird diskreditiert als AMD-Marketing Coup. Die Entwicklung einer Engine die ich als RTS/TBS-Fan sehr spanned finde wird von einem Entwickler einer Konkurrenz-Engine samt Spiel als schlecht programmiert und zwischen den Zeilen als dilletantisch dargestellt.
Da möchte ich gerne die Beweggründe erforschen. Ich empfinde das als gerechtfertigt. Es kommt bloß leider nicht viel zurück außer Allgemeinplätzen.
Star Swarm wurde auf DirectX entwickelt, die Entwickler sagen sie haben mehr Zeit für DirectX aufgewendet. Ihr bezichtigt Oxide Games damit also der Lüge.
Ja, mach ich auch. Ganz offen.
Was sie machen ist eindeutig einzelne Drawcalls für ein paar Dreiecke. Das ist schlicht absolut bescheuert mit DirectX und jeder weiß wie man es besser macht. Es ist nicht so als wäre das ein Geheimnis. Dann von "optimiert" zu reden ist einfach unehrlich.
Hier geht es schon lange nicht mehr um Mantle sondern darum wie AMD und DICE uns hinter das Licht führen wollen. Seit Tagen.
Die Theorie, die Zukunftsvision bleibt auf der Strecke. Schade.
Ich bin der letzte der hier irgendwie was gegen Mantle hat. Ich sage nur, dass die Starswarm Demo keinen guten Vergleich darstellt. Battlefield 4 ist viel eher geeignet, und da sieht man ja die Vorteile auch deutlich.
mironicus
2014-02-12, 16:33:22
Es werden nur Fehler gesucht und Manipulationsversuche erdacht; die Redakteure werden angegangen.
Lass sie doch. Alles Neue wird immer in einem kritischen Licht gesehen - man versteht es halt (noch) nicht. Es liegt an AMD immer etwas Neues zu liefern um die Akzeptanz zu erhöhen.
Gaestle
2014-02-12, 16:34:58
Nö. Das ist nur eine Unterstellung von dir. Ich glaube nicht blind.
Dann bin ich aber gespannt.
Wo sind denn Deine Argumente? Inzwischen gibt es von ZWEI Entwicklern die Aussage, dass der Direct3D-Pfad der Demo wohl nicht so das Gelbe vom Ei ist.
Ein ganz konkreter Hinweis war, dass man die DrawCalls unter D3D wohl eleganter hinbekommen könnte. Ich glaube "Batch, Batch, Batch" war die Formulierung.
Und genau darum geht es in der Demo, um DrawCalls.
Ansonsten: Ich bin mir aber ganz sicher, dass ein bißchen Geblubber in einem deutschsprachigen Freizeit-Nerd-Forum extrem viel Impact auf den ökonomischen Erfolg von einer Firma erwarten lässt. :D
Demirug
2014-02-12, 16:35:40
Er hat sich hoffentlich deutlich mehr angesehen als nur dieses txt. :rolleyes:
Dabei hat er sich auch schon widersprochen, zuerst meinte er die Objekte bestehen nur aus Sprites, später ist er zurück gerudert.
Auch kein Wunder, ist nicht leicht soetwas ohne Code zu analysieren, genau deshalb würde ich mich auch deutlich mehr zurück halten.
Es ist keine TXT sondern ein großes Binär file für den Grahics Debugger. Und Ja ich habe bei der ersten Durchsicht der tausenden Drawcalls die 4 oder 5 übersehen wo mal wirklich ein 3D Objekt gerendert wurde. Mea maxima culpa.
Man braucht den Code nicht. Es ist sogar schwerer mit dem Sourcecode festzustellen was nun wirklich an die API geschickt wird. Wenn ich den Code hätte könnte ich es ja mal ein bisschen optimieren.
Ich weiß jetzt auch ehrlich gesagt nicht was ihr sehen wollt. Soll ich die komplette Liste mit den tausenden D3D Aufrufe posten? Auszüge daraus? Screenshots von Zwischenschritten beim rendern?
Iruwen
2014-02-12, 16:38:00
Dann bin ich aber gespannt.
Wo sind denn Deine Argumente? Inzwischen gibt es von ZWEI Entwicklern die Aussage, dass der Direct3D-Pfad der Demo wohl nicht so das Gelbe vom Ei ist.
Ein ganz konkreter Hinweis war, dass man die DrawCalls unter D3D wohl eleganter hinbekommen könnte. Ich glaube "Batch, Batch, Batch" war die Formulierung.
Und genau darum geht es in der Demo, um DrawCalls.
Ansonsten: Ich bin mir aber ganz sicher, dass ein bißchen Geblubber im Forum extrem viel Impact auf den ökonomischen Erfolg von einer Firma erwarten lässt.
Ich glaube bei Unicous passt der Spruch: "Kommt mir nicht mit Fakten, meine Meinung steht" ganz gut. Gleich kommt wieder der Vorwurf der Böswilligkeit und haltloser Behauptungen.
fondness
2014-02-12, 16:39:03
Ja, mach ich auch. Ganz offen.
Was sie machen ist eindeutig einzelne Drawcalls für ein paar Dreiecke. Das ist schlicht absolut bescheuert mit DirectX und jeder weiß wie man es besser macht. Es ist nicht so als wäre das ein Geheimnis. Dann von "optimiert" zu reden ist einfach unehrlich.
Wenn das alles durch schlichtes zusammenfassen der Batches auch unter DX lösbar wäre, warum sehe ich dann keine DX-Spiele mit 7000 Einheiten auf dem Bildschirm, wovon jede eine eigenen KI, Physik, etc hat? Heutige Strategiespiele sind meist schon mit wenigen hundert Einheiten überfordert.
Gaestle
2014-02-12, 16:41:01
Ich weiß jetzt auch ehrlich gesagt nicht was ihr sehen wollt. Soll ich die komplette Liste mit den tausenden D3D Aufrufe posten? Auszüge daraus? Screenshots von Zwischenschritten beim rendern?
Also mir wäre ein Maus-Video mit Armin, Christoph, Ralph und natürlich der Maus am liebsten...
mironicus
2014-02-12, 16:41:29
Ein ganz konkreter Hinweis war, dass man die DrawCalls unter D3D wohl eleganter hinbekommen könnte. Ich glaube "Batch, Batch, Batch" war die Formulierung.
Und genau darum geht es in der Demo, um DrawCalls.
Die Demo soll doch genau das aufzeigen, dass mit Mantle die Programmierung vereinfacht wird, während man bei DirectX gezwungen ist, mehr Zeit zu investieren um gleiches/ähnliches zu erreichen.
Zeit/Geld = wichtig!
Gaestle
2014-02-12, 16:43:22
Die Demo soll doch genau das aufzeigen, dass mit Mantle die Programmierung vereinfacht wird, während man bei DirectX gezwungen ist, mehr Zeit zu investieren um gleiches/ähnliches zu erreichen.
Zeit/Geld = wichtig!
Okay, vielleicht ist es so, und es wäre auch nachvollziehbar, aber es wurde so nicht kommuniziert.
Man kann doch nicht anfangs sagen "wir haben uns totoptimiert" und hinterher sagen "wir wollten zeigen was passiert, wenn man sich die Optmierung spart".
ShadowXX
2014-02-12, 16:44:23
Heutige Strategiespiele sind meist schon mit wenigen hundert Einheiten überfordert.
Schon mal überlegt ob das vielleicht an was anderem als an der Grafik-API liegt?
mironicus
2014-02-12, 16:49:03
In der Kommunikation entstehen immer Missverständnisse, auf denen dann herumgeritten wird. Ein falsches Wort und schon entsteht ein Shitstorm. Da möchte ich wirklich kein Entwickler oder in der Marketingabteilung sein...
Iruwen
2014-02-12, 16:49:34
Es ist aber kein "Missverständnis" wenn ein Entwickler der beide APIs in- und auswendig kennt ein klares Statement abgibt.
Man kann doch nicht anfangs sagen "wir haben uns totoptimiert" und hinterher sagen "wir wollten zeigen was passiert, wenn man sich die Optmierung spart".
Guter Punkt. Wenn das zutrifft hätten sie einfach gleich sagen sollen "wir wollten den absoluten Worst Case zeigen".
HSA ist nicht die Lösung für Drawcall-Overheads. Und auch überhaupt keine generelle Lösung für irgendwas, vor allem wenn man auf der GPU auch noch rendern will.
Tut mir leid hätte es wohl extra erwähnen sollen, :wink: wie so oft meinte das eher im allgemein, mit HSA werden Dinge möglich die anders noch sehr lange nicht, womöglich auch nie Denkbar! Was man speziell bei der PS4 draus machen wird, wird die Zeit noch sehr gut zeigen! Und da werden dann zur Abwechslung exklusiv Sachen/Titel mal wieder dabei sein wo es durchaus rein technisch begründet (weil ohne HSA schlicht unmöglich)!
Und allgemein noch angefügt zur womöglichen Frage:
Was hat es mit dem Topic zu tun(?), nun das es durchaus stimmt das classic x86er Rohperformance zukünftig mehr und mehr an Bedeutung verlieren wird. Ab gewisser mindest- Leistung x wird es egal werden und zudem sich ohnehin nicht mehr groß weiter steigern (pro Kern), auch bei Intel nicht. Denn das Ding ist hüben wie drüben schon an nahe ausgequetscht und an der Technischen Grenze (speziell bei den dicken Kernen)! Bei dem einem mehr als bei dem anderen, Sachen wie HSA tauchten nicht ohne Grund "auf einmal" auf. :deal:
Unicous
2014-02-12, 17:03:18
Ich glaube bei Unicous passt der Spruch: "Kommt mir nicht mit Fakten, meine Meinung steht" ganz gut. Gleich kommt wieder der Vorwurf der Böswilligkeit und haltloser Behauptungen.
Eigentlich... geht es mir ja darum, dass hier Fakten auf den Tisch gelegt werden. Die Aussagen und Behauptungen zweier Entwickler, bei dem einer in direkter Konkurrenz zu Oxide Games steht sehe ich daher äußerst kritisch.
Aber anscheinend sind Coda und Demirug das Maß aller Dinge hier, daher bin ich wohl gezwungen die "Fakten" die sie hervorgebracht haben als in Stein gemeißelt zu erachten.
Und ja, als Civ-Fan bin ich Dan Baker und Tim Kipp sehr zugeneigt, auch wenn sich die Lore Engine DirectX-bedingt nicht besonders gut im Endgame macht. (Daher auch meine in einem früheren Post ausgedrückte Hoffnung, dass etwas Mantle- und Nitrousähnliches Verwendung bei Civ (oder einem guten Klon) oder einem Homeworld 3 findet)
Das heißt aber im Umkehrschluss nicht, das ihre Aussagen das Maß aller Dinge sind.
Jemanden des Lügens zu bezichtigen ohne wirklich etwas in der Hand zu haben veranlasst mich jedenfalls nicht, beim Angeklagten schon die Schellen klicken zu lassen. Da muss dann schon etwas Gewichtigeres her.
Iruwen
2014-02-12, 17:05:48
Coda lag auch schon oft genug falsch, aber das (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10107397#post10107397) klingt ziemlich überzeugt und deckt sich mit dem was Demirug sagt. Über die Motive kann man nur spekulieren. Alphatier könnte sich das ja auch nochmal ansehen, allzu viele Cracks die wirklich tief in der Entwicklung stecken gibts hier ja auch nicht.
Unicous
2014-02-12, 17:05:49
Guter Punkt. Wenn das zutrifft hätten sie einfach gleich sagen sollen "wir wollten den absoluten Worst Case zeigen".
Wenn ich mich nicht irre wollten Oxide genau das mit Star Swarm machen. Diese Aussage könnte es in dem Präsentations-Video oder ein einem Interview geben. Könnte aber auch eine trübe Erinnerung meinerseits sein.
Iruwen
2014-02-12, 17:08:17
Das wirkt aber merkwürdig wenn sie explizit betonen, dass sie mehr Zeit in die Optimierung der DX-Version als der Mantle-Version gesteckt haben. Vielleicht haben sie ja die DX-Version tatsächlich darauf optimiert, möglichst effizient mit dieser Anzahl von Draw Calls umzugehen - laut Coda und Demirug wäre der richtige Weg aber halt sie einfach zu vermeiden.
Ich hoffe ich gebe das richtig wieder.
Unicous
2014-02-12, 17:15:15
Dann verstehe ich aber nicht, warum Nvidia gerade eine Präsentation hatte in der sie aufgezeigt haben, dass Open GL in der Lage ist mehr Drawcalls zu verarbeiten/weiterzureichen?
Ich habs mir noch nicht anschauen können, wurde ja hier schon verlinkt. Ist aber glaube ich mehr als ne Stunde lang.
In ihrer Präsentation sagt Oxide Games, die ganzen Jahre ging es darum Drawcalls zu vermeiden und so in Batches zusammenzulegen, dass man ein bißchen mehr Effizienz herauskitzelt. Und gleichzeitig versucht, das Drawcall Ceiling ein wenig zu erhöhen.
http://www.gamersglobal.de/sites/gamersglobal.de/files/news/teaser/2107/batches2_0.png
Sie behaupten jetzt: das ist die falsche Herangehensweise und zeigen das in der obigen Folie. Die GPU Performance steigt exponentiell und man kann das nicht ausnutzen weil die geringe Zahl an Drawcalls das verhindern.
fondness
2014-02-12, 17:21:18
Das wirkt aber merkwürdig wenn sie explizit betonen, dass sie mehr Zeit in die Optimierung der DX-Version als der Mantle-Version gesteckt haben. Vielleicht haben sie ja die DX-Version tatsächlich darauf optimiert, möglichst effizient mit dieser Anzahl von Draw Calls umzugehen - laut Coda und Demirug wäre der richtige Weg aber halt sie einfach zu vermeiden.
Ich hoffe ich gebe das richtig wieder.
Du meinst zusammenfassen. So ein Drawcall kostet eben eine bestimmte Mengen an CPU-Zeit um alles zu "übernehmen", Buffer zu erzeugen, Daten Richtung Grafikkarte zu laden, mit dem Treiber zu kommunizieren etc. Wenn man nun viele Drawcalls mit nur wenigen Dreiecken macht, summiert sich diese Zeit natürlich auf. Packt man alle Dreiecke in einen Buffer so ist nur ein Drawcall notwendig und es wird CPU-Zeit gespart. Allerdings gibt es dabei auch Einschränkungen (ein Effekt pro Buffer, begrenzte Anzahl Texturen etc.). Die Kunst ist, die richtige Balance zu finden.
Wenn ich mich nicht irre wollten Oxide genau das mit Star Swarm machen. Diese Aussage könnte es in dem Präsentations-Video oder ein einem Interview geben. Könnte aber auch eine trübe Erinnerung meinerseits sein.
Es ist ein feiner Unterschied einen Worst Case zu produzieren den man reell tatsächlich nicht umgehen kann und mit Absicht brute force zu verwenden.
Und ich verbitte mir diese direkte Angriffe gegen meine Person, das brauch ich mir nicht gefallen lassen. Ich hab schon genügend tatsächliche Produktions-Erfahrung um das glaube ich ganz gut beurteilen zu können.
Coda lag auch schon oft genug falsch
Was soll das? Das ist absolut unterirdische Diskussionskultur mal wieder. Selbst wenn es so wäre, was hat das mit dem Thema jetzt zu tun?
StefanV
2014-02-12, 17:28:22
Ja, mach ich auch. Ganz offen.
Was sie machen ist eindeutig einzelne Drawcalls für ein paar Dreiecke. Das ist schlicht absolut bescheuert mit DirectX und jeder weiß wie man es besser macht. Es ist nicht so als wäre das ein Geheimnis. Dann von "optimiert" zu reden ist einfach unehrlich.
Richtig, die Frage letztendlich ist:
a) kann die Engine das nicht bzw hat man das nicht implementiert?
b) hat man das absichtlich für diese Star Swarm Demo deaktiviert?
ich persönlich würde von b) ausgehen. Sprich man hat das ganze schon implementiert, aber um zu zeigen, wie toll Mantle ist, hat man das deaktiviert.
Gut, dass die Star Swarm Demo jetzt kein dickes AMD Logo hat, ist natürlich doof...
mironicus
2014-02-12, 17:29:21
Es ist ein feiner Unterschied einen Worst Case zu produzieren den man reell tatsächlich nicht umgehen kann und mit Absicht brute force zu verwenden.
Und ich wette mit dir, dass es im Grunde genau darum auch nur ging, was dann diese Demo aufzeigen sollte - den Worst Case. :)
Und das wäre dann die klare Logik dahinter, dass die Leute auf keinen Fall vorhaben irgendjemanden zu betrügen (wozu?). Es wurde falsch kommuniziert.
Richtig, die Frage letztendlich ist:
a) kann die Engine das nicht bzw hat man das nicht implementiert?
b) hat man das absichtlich für diese Star Swarm Demo deaktiviert?
ich persönlich würde von b) ausgehen. Sprich man hat das ganze schon implementiert, aber um zu zeigen, wie toll Mantle ist, hat man das deaktiviert.
Gut, dass die Star Swarm Demo jetzt kein dickes AMD Logo hat, ist natürlich doof...
Kannst du auch mal einen Post ohne Verschwörungstheorien verfassen? Es nervt.
-/\-CruNcher-/\-
2014-02-12, 17:38:50
@StefanV
In dem Punkt währe eigentlich Coda der jenige der AMD aufs blut verteidigen müsste das tut er aber nicht mal drüber nachdenken ;)
"Together we will revolutionize PC Gaming" ;)
Battlefield 4 FB3 lässt bessere Rückschlüsse zu als StarSwarm, vor allem wegen seinem Multipart Workload sprich + DirectCompute :)
In dem Punkt währe eigentlich Coda der jenige der AMD aufs blut verteidigen müsste das tut er aber nicht mal drüber nachdenken ;)
Wat?
Botcruscher
2014-02-12, 17:45:12
Warum hängt ihr euch an Star Swarm so auf? Das ist eine Techdemo für was wäre wenn. Bis jetzt zählt doch eh nur BF4. Der Pluspunkt von Mantle ist, dass alle liefern müssen. AMD, NV, MS, die Spieleentwickler... Dann schauen wir mal in einem halben Jahr was raus kommt.
Hübie
2014-02-12, 18:00:46
Ja vor allem wie toll es wäre wenn alle so arbeiten würden wie die. DX kacke da stehen lassen (und somit 95% der Kunden), bei mantle "vergessen" multicore-renderer zu kompilieren und dann auch noch Behauptungen aufstellen die nachweislich nicht korrekt sind. Dann gute Nacht PC-Gaming :rolleyes:
Also ich sags mal so salopp: Ich scheiß auf Star swarm. Ob mit oder ohne AMD-Logo: die werden bei jeder Präsi hoch und runter geleiert.
Mal nebenbei: Mantle vereinfacht bzw verkürzt erst mal gar nix. Du musst ja dennoch OGL (Gemüsegarten) oder D3D (Restriktionen) noch unterstützen wenn du Geld verdienen willst...
Viel besser fände ichs wenn die IHV mal aufs Gas latschen und D3D von (vielleicht sogar unnötigen??) Restriktionen "befreien". Dazu muss man halt mal alten Balast abwerfen.
Ich habe letztes Jahr einen Artikel gelesen: "The Road to One Million Draws (http://www.openglsuperbible.com/2013/10/16/the-road-to-one-million-draws/)". Sehr interessant.
-/\-CruNcher-/\-
2014-02-12, 18:05:37
@Coda
Nevermind ;)
Persönlich frage ich mich woher dieses jittering kommt AMD hat doch ihren Frame Pacing patch nachgeliefert aber irgendwie scheint sich hier nix zu verbessern es sieht immernoch so aus wie bei BF3 ohne Frame pacing ?
da sind riesen fluktuationen ohne Mantle
http://videocardz.com/images/2013/06/BF3_2560x1440_PLOT_0.png
da frag ich mich was läuft hier schief im Treiber im Vergleich zu Nvidia ?
Das hier von kein Nvidia vergleich im selben Patch state exestiert ist echt bedauerlich
http://imagizer.imageshack.us/v2/1024x768q90/822/aku3.png
http://imagizer.imageshack.us/v2/1024x768q90/802/8fxf.png
Gibt es da absolut keinen der sich das jetzt nach Mantle und den DICE Patches nochmal genauer angeschaut hat zwischen Nvidia 780 x und AMD 290x unter WDDM 1.3 ?
fondness
2014-02-12, 18:24:01
@Coda
Nevermind ;)
Persönlich frage ich mich woher dieses jittering kommt AMD hat doch ihren Frame Pacing patch nachgeliefert aber irgendwie scheint sich hier nix zu verbessern es sieht immernoch so aus wie bei BF3 ohne Frame pacing ?
da sind riesen fluktuationen ohne Mantle
http://videocardz.com/images/2013/06/BF3_2560x1440_PLOT_0.png
da frag ich mich was läuft hier schief im Treiber im Vergleich zu Nvidia ?
Das hier von kein Nvidia vergleich exestiert ist echt bedauerlich
http://imagizer.imageshack.us/v2/1024x768q90/822/aku3.png
http://imagizer.imageshack.us/v2/1024x768q90/802/8fxf.png
Gibt es da keinen der sich das jetzt nach Mantle und den Patches nochmal genauer angeschaut hat zwischen Nvidia 780 x und 290x ?
Bitte bitte vermische hier nicht einfach Kraut und Rüben. Frame Pacing ist ausschließlich für Multi-GPU, und hat absolut nichts mit dem Thema hier zu tun. Und nein auch bei Single-GPU gibt es keine perfekte Frameausgabe - weder bei NV noch bei AMD. Ich habe ja vorhin auch eine Graph mit der 780Ti vs. Mantle gezeigt.
-/\-CruNcher-/\-
2014-02-12, 18:31:27
Ja richtig einen Mantle vergleich aber keinen ohne Mantle
http://imageshack.com/a/img31/2328/tlu.gif
http://imageshack.com/a/img690/8007/ved.gif
http://cdn.overclock.net/7/74/742c8b1a_2yQxsa6.gif
Allerdings passt das nicht mehr in diesen Thread, weil es nur indirekt mit Mantle zu tun hat
dargo
2014-02-12, 18:44:22
Ja vor allem wie toll es wäre wenn alle so arbeiten würden wie die. DX kacke da stehen lassen (und somit 95% der Kunden)...
Mit dieser Argumentation könnte ich auch behaupten DX11.x bringt 80-90% der Kunden gar nichts. Oder wie hoch schätzst du den Marktanteil von Windows 8 bei den Gaming-PCs?
Edit:
Eigentlich ist es erschreckend wie wenig Erfolg Windows 8 hat.
http://www.spiegel.de/netzwelt/web/betriebssystem-charts-windows-8-steigert-marktanteil-deutlich-a-919866.html
-/\-CruNcher-/\-
2014-02-12, 19:12:27
Techreports daten schauen in der tat sehr vernünftig aus :)
alles sehr ordentlich auch die testing Methodology mit den in Engine tools, absolut empfehlenswert :)
http://techreport.com/review/25995/first-look-amd-mantle-cpu-performance-in-battlefield-4
und er/sie erkennt/erkennen auch
One thing we didn't expect to see was Nvidia's Direct3D driver performing so much better than AMD's.
Einzige was ich noch gern gesehen hätte zu dem währe ein Power Output vergleich bei den gerenderten test scenes aber naja, besser als was die meisten anderen Reviewer verbockt haben ist das hier allemal :)
Gipsel
2014-02-12, 19:17:37
Ich möchte aus gegebenem Anlaß nochmal daran erinnern, daß es hier im Thread darum gehen sollte, die technischen Aspekte von Mantle zu erörtern. Die Credentials einzelner Forenmember ist definitiv nicht das Thema, ebensowenig irgendwelche Fanboy-Vorwürfe oder Verschwörungstheorien. Bitte bedenkt das, bevor ihr den "Antworten"-Button drückt!
Danke.
Hübie
2014-02-12, 19:35:25
Wenns hier schon technisch werden soll dann kann mir doch mal jemand verraten warum man bei Direct3D immer wieder irgendwelche Grenzen einbaut wenn es so einfach wäre die wegzulassen bzw. nach oben zu setzen. Es wurde ja gesagt dass Mantle vor etwa zwei Jahren angegangen wurde. D3D 11 gibts ja nun schon deutlich länger (Ende 2009). Was soll der ganze Scheiß immer wieder? Ich checks einfach nicht. War da ein bockiges Kind im "Gremium"?
Und wieso lese ich einen Artikel wo man schon von einer Million drawcalls redet wenn man bei mantle mit 100k prahlt? Kann man nicht einfach die API in dieser Hinsicht offen lassen und es dem Entwickler übertragen wohin er seinen sweet spot verschiebt?
Demirug
2014-02-12, 20:22:07
Und wenns hier schon technisch werden soll dann kann mir doch mal jemand verraten warum man bei Direct3D immer wieder irgendwelche Grenzen einbaut wenn es so einfach wäre die wegzulassen bzw. nach oben zu setzen. Es wurde ja gesagt dass Mantle vor etwa zwei Jahren angegangen wurde. D3D 11 gibts ja nun schon deutlich länger (Ende 2009). Was soll der ganze Scheiß immer wieder? Ich checks einfach nicht. War da ein bockiges Kind im "Gremium"?
Nein, Vereinfacht gesagt habe Mantle und Direct3D haben etwas unterschiedliche Ausrichtungen und Zielgruppen..
- Direct3D übernimmt die Sequenzierung automatisch. Bei Mantle muss sich der Entwickler darum kümmern. Das muss man sich so vortstellen das sich bei Direct3D die GPU wie ein Singelcore System verhält während man bei Mantle es wie ein Multicore System handhaben muss. Entsprechend steigt mit Mantle die Gefahr das Code der auf einer GPU läuft auf einer anderen Renderfehler verursacht wenn man beim manuellen synchronisieren einen Fehler gemacht hat. Bei Direct3D gilt die Prämisse das die gleiche Folge von Anweisungen immer zum gleichen Ergebnis führen muss.
- Bei Direct3D sind die Möglichkeiten des Treiber sehr groß. Das führt dazu das die IHVs bei wichtigen Spielen Fehler aller Art der Spieleentwickler im Treiber ausgleichen wenn sie dafür mehr FPS aus ihrer Hardware heraus bekommen. Dummerweiße verursacht das Erkennen dieser Fehler einen Overhead. Wir haben hier einen Tradeoff von CPU Leistung für mehr FPS. Das ist halt sehr unschön wenn das Spiel sowieso schon an der CPU hängt. Bei Mantle gilt eher das Garbage In Garbage Out Prinzip. Wenn das Spiel Mist baut wird der minimalistische Treiber das nicht irgendwie abfangen. Bleibt nur zu hoffen das AMD diesem Prinzip auch treu bleiben kann wenn sie Mantle öffentlich zugänglich machen.
. Multicore rendering ist in DirectX 11 vorgesehen. Dummerweiße hat es Microsoft den Treiberentwicklern erlaubt es nicht direkt im Treiber zu implementieren sondern auf eine "Emulation" in der Runtime zurück zugreifen. Entsprechend hat es keiner im Treiber implementiert. Die Emulation brachte bei entsprechenden Tests keinen Gewinn. Also hat es keiner benutzt und damit gab es auch keinen Grund es in die Treiber einzubauen und zu optimieren. Neuerer Treiber zeigen wohl jetzt langsam einen Fortschritt. Ich habe es aber selbst noch nicht ausprobiert.
Und wieso lese ich einen Artikel wo man schon von einer Million drawcalls redet wenn man bei mantle mit 100k prahlt? Kann man nicht einfach die API in dieser Hinsicht offen lassen und es dem Entwickler übertragen wohin er seinen sweet spot verschiebt?
In dem Artikel geht es um einen OpenGL Functions mit der man mit einem einzigen Drawcall das gleiche wie mit ein paar Millionen erreichen kann. Das fällt wieder in den Bereich Batch, Batch, Batch.
Eine API als solches hat keine Performance Limitierung. Sie limitiert nur das nutzbare Featureset. Die Performance wird durch die Implementierung bestimmt. Natürlich ergeben sich durch die
del_4901
2014-02-12, 22:42:00
Ich wuerde mich schwertun ueber eine APi zu urteilen, mit der ich selber noch nicht gearbeitet habe.
Unicous
2014-02-12, 23:24:45
Multicore rendering ist in DirectX 11 vorgesehen. Dummerweiße hat es Microsoft den Treiberentwicklern erlaubt es nicht direkt im Treiber zu implementieren sondern auf eine "Emulation" in der Runtime zurück zugreifen. Entsprechend hat es keiner im Treiber implementiert. Die Emulation brachte bei entsprechenden Tests keinen Gewinn. Also hat es keiner benutzt und damit gab es auch keinen Grund es in die Treiber einzubauen und zu optimieren. Neuerer Treiber zeigen wohl jetzt langsam einen Fortschritt. Ich habe es aber selbst noch nicht ausprobiert.
Entschuldige, aber das ist mir viel zu schwammig. Ich habe gar keinen Fortschritt bei irgendeinem Treiber gesehen, was Multicore-Rendering anbelangt, geschweige denn Multithreading im Allgemeinen. Auch finde ich es komisch, dass die IHVs zu doof sind, das nach 5 Jahren zu implementieren und jetzt wo Mantle herauskommt sich schwuppdiwupp der Knoten gelöst hat. (Ich weiß jetzt nicht von welchem Zeitraum du sprichst, aber im letzten halben Jahr ist da meines Erachtens gar nichts passiert).
Ich lasse mich gerne eines Besseren belehren, denn ich weiß es selbst nicht besser. Aber es ist auch niemandem sonst aufgefallen, daher meine Skepsis.
@Alphatier Gute Einstellung. :smile:
Interessant und gut, dass es wieder um Inhalte in diesem Thread geht und nicht nur seitenweise Geschwurbel, "der hat aber, und du, aber selber."
Demirug
2014-02-13, 00:04:48
Entschuldige, aber das ist mir viel zu schwammig. Ich habe gar keinen Fortschritt bei irgendeinem Treiber gesehen, was Multicore-Rendering anbelangt, geschweige denn Multithreading im Allgemeinen. Auch finde ich es komisch, dass die IHVs zu doof sind, das nach 5 Jahren zu implementieren und jetzt wo Mantle herauskommt sich schwuppdiwupp der Knoten gelöst hat. (Ich weiß jetzt nicht von welchem Zeitraum du sprichst, aber im letzten halben Jahr ist da meines Erachtens gar nichts passiert).
Ich lasse mich gerne eines Besseren belehren, denn ich weiß es selbst nicht besser. Aber es ist auch niemandem sonst aufgefallen, daher meine Skepsis.
Ist wie gesagt eine Henne/Ei Problem. Da kein für die IHVs relevantes Spiel Deferred Contexts benutzt stellt man keine Resourcen bei der Treiberentwicklung ab. Da es nichts bringt benutzt es keiner.
Die Aussage das es sich mit den letzten Treibern gebessert haben soll kommt von Oxide.
kruemelmonster
2014-02-13, 00:14:53
Was mich (als komplettem Laien) bei dem Thema wundert:
D3D9 hat uns jahrelang als Bremsklotz begleitet. Dann gab es wenige Spiele wie Far Cry 2 bei denen der optionale 10er Pfad ein nettes fps-Plus brachte und noch weniger 10-only Spiele wie Just Cause 2, zu dem Coda mal sagte dass es mit 9 entweder wesentlich schlechter gelaufen oder wesentlich schlechter ausgesehen hätte.
D3D10 hatte durch die alten Konsolen und Multiplattformgames leider keine wirkliche Marktrelevanz, gelohnt hätte es sich wohl da sehr viele alte Zöpfe abgeschnitten wurden und es wohl allgemein eine gute API sei (größtmögliche Vereinfachung meinerseits einer Aussage von iirc Coda; ohne dir auch nur irgendwas in den Mund legen zu wollen falls ich falsch liegen sollte).
D3D11 ist afair wohl mehr eine Erweiterung von 10 um Compute und Tess als etwas fundamental Neues, insofern <glücksbärchilandmodus> sollte sich doch eigentlich viel von dem noch brachliegenden Potential der 10er Struktur in aktuellen 10/11 Spielen durch Erfahrungswerte, besserem Verständnis und der Auslegung from-scratch auf die API freisetzen lassen. </glücksbärchilandmodus>
Aber kaum dass es neue Konsolen gibt welche endlich Techlevel 11+ beherrschen, und es mehr und mehr 10/11-only Games werden ist 11 auf einmal das neue 9 und zu nix mehr zu gebrauchen? :confused:
Sind die Anforderungen an die Drawcallmenge auf einmal tatsächlich so durch die Decke gegangen dass es den neuen Heiland Mantle oder ein darauf aufbauendes IHV-unabhängiges Derivat zwingend braucht, oder zeigt das positive Beispiel BF4@11.1 sowie Beyond Porting (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10107102&postcount=4035) dass man mit den "alten" APIs doch noch ohne Einschränkungen durch den Tag kommt? Oder geht es letztlich "nur" darum schmalbrüstige CPUs zu pushen, ohne das irgendwie abschätzig zu meinen.
uweskw
2014-02-13, 01:35:39
Wenn das alles durch schlichtes zusammenfassen der Batches auch unter DX lösbar wäre, warum sehe ich dann keine DX-Spiele mit 7000 Einheiten auf dem Bildschirm, wovon jede eine eigenen KI, Physik, etc hat? Heutige Strategiespiele sind meist schon mit wenigen hundert Einheiten überfordert.
Guter Punkt.
Wenn ich die Greeks hier richtig verstehe meinen sie die SWARM-Demo ist einfach bescheiden unter DX11 optimiert. Also müsste man es unter DX11 deutlich performanter hinbekommen diese 7000 EH mit jeweils KI und Physik dazustellen? Gibst es da Beispiele? Ich erinnere mich da mal was mit Schmetterlingen gesehen zu haben, waren aber deutlicht weniger.
Greetz
U.S.
Demirug
2014-02-13, 06:31:31
Sind die Anforderungen an die Drawcallmenge auf einmal tatsächlich so durch die Decke gegangen dass es den neuen Heiland Mantle oder ein darauf aufbauendes IHV-unabhängiges Derivat zwingend braucht, oder zeigt das positive Beispiel BF4@11.1 sowie Beyond Porting (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10107102&postcount=4035) dass man mit den "alten" APIs doch noch ohne Einschränkungen durch den Tag kommt? Oder geht es letztlich "nur" darum schmalbrüstige CPUs zu pushen, ohne das irgendwie abschätzig zu meinen.
Die Drawcall Menge ist nicht unbedingt so das Problem. BF4 kommtmit ~2000 pro Frame aus. Es kann ein Problem sein wenn man von der Konsole portiert weil dort der Overhead geringer ist. Das Problem ist eher das man allgemein zu wenig CPU Leistung hat. Nachdem man nun so langsam die Leistung der zusätzlichen Cores zu nutzen versteht sucht man zwangsläufig nach neuen Möglichkeiten irgendwo noch mehr CPU Leistung zu bekommen.
Guter Punkt.
Wenn ich die Greeks hier richtig verstehe meinen sie die SWARM-Demo ist einfach bescheiden unter DX11 optimiert. Also müsste man es unter DX11 deutlich performanter hinbekommen diese 7000 EH mit jeweils KI und Physik dazustellen? Gibst es da Beispiele? Ich erinnere mich da mal was mit Schmetterlingen gesehen zu haben, waren aber deutlicht weniger.
Greetz
U.S.
Ja es geht performanter mit DirectX 11. Die Frage hier ist eher wie man sinnvoll ein Spiel mit mehreren tausend Einheiten bauen soll ohne das der Spieler den Überblick verliert.
Ätznatron
2014-02-13, 07:47:51
Ja es geht performanter mit DirectX 11. Die Frage hier ist eher wie man sinnvoll ein Spiel mit mehreren tausend Einheiten bauen soll ohne das der Spieler den Überblick verliert.
Dann Frage ich mich, warum seit 5 Jahren nichts passiert ist.
Aus Sorge, der Spieler könne sich überfordert fühlen von vielen tausend Einheiten?
Und deshalb findet man sich mit der Performancestagnation ab?
Das halte ich für wenig glaubhaft.
Für mich sieht es eher so aus, dass mögliche Performancesteigerungen von DX so bescheiden ausfallen, dass sich der Optimierungsaufwand nicht lohnt.
Demirug
2014-02-13, 08:27:21
Dann Frage ich mich, warum seit 5 Jahren nichts passiert ist.
Aus Sorge, der Spieler könne sich überfordert fühlen von vielen tausend Einheiten?
Und deshalb findet man sich mit der Performancestagnation ab?
Das halte ich für wenig glaubhaft.
Für mich sieht es eher so aus, dass mögliche Performancesteigerungen von DX so bescheiden ausfallen, dass sich der Optimierungsaufwand nicht lohnt.
Ich glaube hier ist irgendwas durcheinander gekommen.
Das war die Antwort auf die Frage warum niemand ein Spiel mit 7000 Einheiten macht. Es ist technisch kein Problem mit DirectX 11 7000 Raumschiffe performant zu rendern.
Armaq
2014-02-13, 09:00:57
Wenn alles mit DX möglich ist, warum macht man dann Mantle? Warum ging ein Entwickler auf beide IHVs zu?
Für mich gilt, AMD ist ein Unternehmen und macht Dinge, weil sie sich davon eine bessere Marktsituation erhoffen / erschaffen.
dargo
2014-02-13, 09:03:15
Ich glaube hier ist irgendwas durcheinander gekommen.
Das war die Antwort auf die Frage warum niemand ein Spiel mit 7000 Einheiten macht. Es ist technisch kein Problem mit DirectX 11 7000 Raumschiffe performant zu rendern.
Warum macht es dann keiner? Oder ist Hauptgrund einfach nur, dass im RTS-Bereich man immer noch bei DX9 festsitzt?
Wenn alles mit DX möglich ist, warum macht man dann Mantle? Warum ging ein Entwickler auf beide IHVs zu?
Da größte Problem bei DX ist die Skalierbarkeit über Threads. Der Drawcall-Overhead ist zwar auch problematisch, aber da kann man drumherum arbeiten. Mantle hat schon seinen Sinn.
-/\-CruNcher-/\-
2014-02-13, 09:54:48
Der Sinn ist es das Microsoft darauf hin optimiert und das werden sie sicherlich wie gesagt Mobile effizienz wird immer wichtiger und das schlägt automatisch auf den Desktop um ;)
ohne diese kontinuierliche investition währe Bay Trail für Microsoft eine Katastrophe geworden ;)
Iruwen
2014-02-13, 10:05:03
Ist Civ 5 nicht ein Beispiel für DX11 + Multithreading done right?
http://forums.anandtech.com/showpost.php?p=31520674
Flusher
2014-02-13, 10:06:37
Wat?
Er meint damit: wenn Mantle wirklich so toll ist, dann müsstest du es doch als Entwickler verteidigen.
Was er aber nicht versteht: bisher sind nur einige aufgewählte Studios von AMD für die Mantle-Beta auserkoren worden.
Ob Crytek dazugehört weiss ich aber nicht.
Hübie
2014-02-13, 10:28:16
Ich hab doch neulich noch irgendwo gelesen dass nVidia mit dem GeForce 320.xx (glaub ich) multithreaded rendering aktiviert hat. Kann mir da mal jemand auf die Sprünge helfen? Blaire sollte das wissen. Oder ist das etwas anderes?
Was braucht man denn in Hardware um ALLE Aufgaben für die GPU zu syncen? Ist u.a. HSA/hUMA von Nöten?
@AlphTier: Ich hoffe du meintest nicht mich :| Ich arbeite nie und werde wahrscheinlich auch nie mit einer graphics API arbeiten - also urteile ich als Aussenstehender so laienhaft wie eben Infos gestreut werden :P
Edit: Ach ja: Danke für die Erklärung, demirug. Mir ist aber immer noch nicht klar warum man mit DX nicht massiv parallelisieren kann. Ist es wegen der "Altlasten"?
Und in die Runde: Würden nicht VLIW4/5 Designs besonders von Mantle profitieren können? :|
Iruwen
2014-02-13, 10:43:38
Ich hab doch neulich noch irgendwo gelesen dass nVidia mit dem GeForce 320.xx (glaub ich) multithreaded rendering aktiviert hat.
With the Release 265 series drivers, NVIDIA enabled partial support for DX11's multi-threaded rendering features. At the time this support was limited to just Civ V, and while it was beyond the experimental stage it was clearly limited to Civ V as that allowed NVIDIA to deploy it against a single known program while they collected feedback and finished the other aspects of multi-threaded rendering.
With NVIDIA's drivers now allowing Civ V to use multiple deferred contexts, Civ V's performance shot way up. With high-end GPUs performance damn near doubled at lower resolutions. Civ V was in fact CPU limited - it was CPU limited because it was only able to use a single thread to assemble its contexts, and that thread was maxing out the single GPU core it could use. This is why drivers played such a big part in Civ V's performance, because how drivers handled D3D11 contexts was the key to unlocking Civ V's performance.
Siehe Anandtech Link oben.
fondness
2014-02-13, 10:53:18
Ist Civ 5 nicht ein Beispiel für DX11 + Multithreading done right?
http://forums.anandtech.com/showpost.php?p=31520674
LOL du weißt schon wer der Graphics Leader bei Civ 5 war und sich wohl wie kaum ein zweiten mit Multi-core rendering auskennt? Zufälligerweise Dan Baker, also der Herr der angeblich keine Ahnung hat beim StarSwarm Demo. :ugly:
Iruwen
2014-02-13, 10:58:31
LOL du weißt schon wer der Graphics Leader bei Civ 5 war und sich wohl wie kaum ein zweiten mit Multi-core rendering auskennt? Zufälligerweise Dan Baker, also der Herr der angeblich keine Ahnung hat beim StarSwarm Demo. :ugly:
LOL du solltest die Beiträge hier nochmal lesen und dann zeig mir nur einen in dem ihm jemand Inkompetenz unterstellt :freak:
Demirug
2014-02-13, 11:01:30
Ach ja: Danke für die Erklärung, demirug. Mir ist aber immer noch nicht klar warum man mit DX nicht massiv parallelisieren kann. Ist es wegen der "Altlasten"?
Die API sieht es ja vor. Das Problem sind die Treiber. Wie mit allen Multicore Sachen ist die Implementierung wohl nicht ganz einfach. Erschwerend kommt hinzu das DX11 ja ursprünglich für WDDM 2.0 designed wurde. Das man das ganze jetzt über WDDM 1.x machen muss macht es nicht einfacher.
Und in die Runde: Würden nicht VLIW4/5 Designs besonders von Mantle profitieren können? :|
Ich sehe da keinen Zusammenhang zwischen der API die den Commandprozessor Teil steuert und der Architektur der Zellen.
fondness
2014-02-13, 11:04:09
Er meint damit: wenn Mantle wirklich so toll ist, dann müsstest du es doch als Entwickler verteidigen.
Was er aber nicht versteht: bisher sind nur einige aufgewählte Studios von AMD für die Mantle-Beta auserkoren worden.
Ob Crytek dazugehört weiss ich aber nicht.
Dir ist schon klar das auch "die Entwickler" hier noch keinen Zugriff darauf haben oder? Mir kommt das eher so viel als ob machen Entwickler hier lieber "high level" Programmieren und die zusätzliche Verantwortung die ein Entwickler mit Mantle hat nicht tragen wollen. Ist okay, andere wollen eben mehr Möglichkeiten, Mantle muss eh nicht jedem gefallen.
Ich sehe da keinen Zusammenhang zwischen der API die den Commandprozessor Teil steuert und der Architektur der Zellen.
Eventuell meinte er, dass aufgrund mehr CPU-Threads auch die Wahrscheinlichkeit steigen könnte, die VLIW-Bündel voller zu bekommen/deren Auslastung zu steigern.
Ist jetzt aber egal, VLIW war mal gut, als Not an Silizium bestand, dem ist nicht mehr so .. ergo haben wir jetzt GCN und das ist sicher nicht verkehrt :)
Noch zu Civ5: Erinnere mich, dass AMD nach relativ langer Zeit ebenfalls gut Leistung mit Treiberupdates nachlegte. Aber keine Ahnung, ob das nun aufgrund mth-Treiber war, oder irgendwas anderes.
Hübie
2014-02-13, 11:09:20
Siehe Anandtech Link oben.
Nein das war nicht so alt. Das war vielleicht Oktober / November 2013 und erst ab einen 300er Treiber. Nicht 265er und Civ V only. Find das jetzt auch nicht und hab auch keine Zeit mehr (die kleine will ihren verdammten Brei :freak:=)).
@S940: Genau so meinte ich das. Sorry falls nicht verständlich :smile:
Iruwen
2014-02-13, 11:13:20
Noch zu Civ5: Erinnere mich, dass AMD nach relativ langer Zeit ebenfalls gut Leistung mit Treiberupdates nachlegte. Aber keine Ahnung, ob das nun aufgrund mth-Treiber war, oder irgendwas anderes.
Müssten sie das laut dem Post fehlende Feature nicht nachgereicht haben weil es ab FL 11_1 keine (?) optionalen Features mehr gibt?
Armaq
2014-02-13, 11:15:06
Da größte Problem bei DX ist die Skalierbarkeit über Threads. Der Drawcall-Overhead ist zwar auch problematisch, aber da kann man drumherum arbeiten. Mantle hat schon seinen Sinn.
Ok. Damit ich das richtig verstehe, können wir massiv verbesserte Performance bei 8 Core+ CPUs erwarten?
Muss ich mit Mantle komplett neu ansetzen und neu denken, oder ist nachträglich einbauen tatsächlich eine Option bzw. wie schätzt Du/Ihr den Mehrwert höher ein?
StarSwarm hat den Switch gemacht und BF auch, Mantle als "Lead"API zu nutzen ist natürlich eine andere Qualität (imho).
Thief halte ich für ein Negativbeispiel par excellence wo man Mantle nicht braucht. BF4 ist schon viel besser, hat aber seit Release echt viele Macken.
Hübie
2014-02-13, 11:31:20
Noch was:
http://abload.de/img/drivercommandlistseskx1.png (http://abload.de/image.php?img=drivercommandlistseskx1.png)
Sind driver command lists nicht die Grundvoraussetzung für multithreading? Wenn nicht dann zerhackstückelt mich nicht gleich :freak:
dildo4u
2014-02-13, 11:57:07
BF4 wurde wieder gepatcht sind auch einige Mantle Fixes dabei.
Mantle
-Fix for a crash that would occur when activating full screen in portrait mode
-Fix for stuttering that could appear during video sequences on multi-GPU PCs
-Fix for a memory system leak that could cause stalls, which would result in frames taking longer to process
-Reduced the amount of stalls that occurred when running with high graphics setting that require more GPU memory than is currently available
-Fixed screenshots on multi-GPU PCs
-Players now have to explicitly enable Mantle, as it is no longer enabled by default.
http://battlelog.battlefield.com/bf4/forum/threadview/2979150493838365687/
Gipsel
2014-02-13, 12:00:01
Und in die Runde: Würden nicht VLIW4/5 Designs besonders von Mantle profitieren können? :|Ich sehe da keinen Zusammenhang zwischen der API die den Commandprozessor Teil steuert und der Architektur der Zellen.Eventuell meinte er, dass aufgrund mehr CPU-Threads auch die Wahrscheinlichkeit steigen könnte, die VLIW-Bündel voller zu bekommen/deren Auslastung zu steigern.Die VLIW-Auslastung kann man durch eine andere API keineswegs steigern. Das ist nur von der Güte der Compileroptimierungen und dem im Shadercode vorhandenem ILP abhängig. Und das ist vollkommen unabhängig von der API.
Der Hauptgrund, warum die VLIW-Architekturen nicht mit Mantle kompatibel sind (oder nur mit sehr großen Kopfständen, die es unsinnig machen würden), ist vermutlich das völlig andere Speichermanagement, insbesondere beim Zugriff auf Resourcen (Texturen, Buffer, Sampler). Mit GCN (und auch bei intels und nVs halbwegs aktuellen GPUs) gibt es prinzipiell keine hardverdrahtete Limits mit festen Slots für Buffer, Texturen und Sampler. Der Zugriff läuft im Prinzip über einen Pointer an dem eine Deskriptor-Struktur (128 bis 256bit) im Speicher liegt, die die Resource beschreibt (bei einer Textur also z.B. wieder ein Zeiger auf die eigentliche Textur, die Größe, das Datenformat, das Layout [stride, padding], Anzahl der LoD-Level und noch ein paar andere Dinge, die die TMU wissen muß, um aus der Textur zu lesen). Solange ein Shaderprogramm also die Pointer auf die Deskriptorstrukturen kennt (oder einen Zeiger auf ein Array davon), kann man beliebig viele Resourcen im Shader nutzen und ist nicht an die traditionallen Bindslots gebunden, die DirectX und OpenGL nutzen.
Bei den VLIW-Architekturen existieren dagegen die Bindslots praktisch festverdrahtet in Hardware. Eine Sample-Instruktion hat nur 8 Bit Platz für eine Resource-ID und 5 Bit für die Sampler-ID. Will man andere nutzen, müssen andere IDs an die Pipeline gebunden werden (was praktisch CPU-Interaktion, einen neuen Drawcall und Validierung durch Runtime und Treiber erfordert => schlecht).
Demirug
2014-02-13, 12:24:24
Noch was:
http://abload.de/img/drivercommandlistseskx1.png (http://abload.de/image.php?img=drivercommandlistseskx1.png)
Sind driver command lists nicht die Grundvoraussetzung für multithreading? Wenn nicht dann zerhackstückelt mich nicht gleich :freak:
Ja und Nein. Wenn es der Treiber nicht unterstützt bekommt man eine "Emulation" dieses Features von der D3D Runtime. Und der Hacken dort sagt halt leider nichts darüber aus wie gut die Implementierung ist.
dargo
2014-02-13, 12:28:18
BF4 wurde wieder gepatcht sind auch einige Mantle Fixes dabei.
Mantle
-Fix for a crash that would occur when activating full screen in portrait mode
-Fix for stuttering that could appear during video sequences on multi-GPU PCs
-Fix for a memory system leak that could cause stalls, which would result in frames taking longer to process
-Reduced the amount of stalls that occurred when running with high graphics setting that require more GPU memory than is currently available
-Fixed screenshots on multi-GPU PCs
-Players now have to explicitly enable Mantle, as it is no longer enabled by default.
http://battlelog.battlefield.com/bf4/forum/threadview/2979150493838365687/
Endlich!
Da sieht man mal gleich, dass die Verantwortung beim Spieleentwickler mit Mantle liegt. Ich hätte eher gedacht diese Bildstopper würden am Treiber liegen.
Die VLIW-Auslastung kann man durch eine andere API keineswegs steigern. Das ist nur von der Güte der Compileroptimierungen und dem im Shadercode vorhandenem ILP abhängig. Und das ist vollkommen unabhängig von der API.
Na und wenn der Compiler jetzt auch mutlithreaded läuft und statt aus einer Inputquelle nun Daten aus 4+ CPU-Threads geliefert bekommt? Kommt da am Ende aufgrund der TLP nicht mehr ILP für die GPU heraus?
Neben der Frage ob sowas überhaupt programmierbar wäre, ist klar, dass Mantle nie auf VLIW laufen wird. Trotzdem Danke für die detaillierte Erklärung. Zu wissen warum ist immer gut :)
Na und wenn der Compiler jetzt auch mutlithreaded läuft und statt aus einer Inputquelle nun Daten aus 4+ CPU-Threads geliefert bekommt? Kommt da am Ende aufgrund der TLP nicht mehr ILP für die GPU heraus?
:facepalm:
:facepalm:
Hej bei Gipsel gibts da immer ne nette Erklärung, pass Dich diesen Umgangsformen bitte an oder bleib ein Philosoph und schweige :biggrin:
Antwort: Nein. Die beiden Dinge haben nichts miteinander zu tun.
Hübie
2014-02-13, 13:29:23
Weil die VLIW Architektur eben aus erklärten Gründen vorher die Gretsche macht? Also im Sinne: wenn der Scheduler bzw. workdistribution ausgelastet ist, ist Schicht im Schacht?
Danke Gipsel für die Erklärung. Auch wenn ich nicht alles verstanden habe :freak:
del_4901
2014-02-13, 14:58:51
GPUs haben einen Commandprocessor(CP) und "StreamProzessoren"(SPs). Die CPU interagiert ueber eine APi nur mit dem CP, welcher dann die Arbeit an die SPs "verteilt". Der Unterschied zwischen VLIW und GCN liegt groesstenteils nur in der Organisation SPs.
Gipsel
2014-02-13, 15:10:15
Na und wenn der Compiler jetzt auch mutlithreaded läuft und statt aus einer Inputquelle nun Daten aus 4+ CPU-Threads geliefert bekommt? Kommt da am Ende aufgrund der TLP nicht mehr ILP für die GPU heraus?Verschiedene CPU-Threads setzen ja verschiedene Drawcalls für verschiedene gerenderte Objekte/Pixel ab (die im Zweifelsfall auch noch andere Shaderprogramme nutzen). In einem VLIW-Instruktionsbündel kann man nur Operationen für genau einem Pixel zusammenpacken (natürlich nur aus einem Shaderprogramm). Die VLIW-Packing wird statisch beim Kompilieren des Shaders festgelegt (bevor die eigentlichen Drawcalls das nutzen können) und hat als Input natürlich nur den Shadercode selber. Ob die Drawcalls später dann von einem Thread oder von mehreren kommen und über DX, OpenGL, Mantle oder sonstwie anders da ankommen, ist völlig irrelavant. Die Kompilierung eines Shaders kann man z.B. auch offline anstoßen (und das Ergebnis als GPU-Binärcode speichern, ist mit DX und OpenGL aber nicht wirklich vorgesehen), das kann also gar nicht davon abhängen, ob die Drawcalls single- oder multithreaded abgesetzt werden.
Weil die VLIW Architektur eben aus erklärten Gründen vorher die Gretsche macht? Also im Sinne: wenn der Scheduler bzw. workdistribution ausgelastet ist, ist Schicht im Schacht?
Danke Gipsel für die Erklärung. Auch wenn ich nicht alles verstanden habe :freak:Daß Mantle nicht funktionieren wird, ist meiner Meinung nach keine Frage der Workdistribution sondern der Resourcen- und Speicherverwaltung. Die VLIW-Architekturen haben ziemlich direkt DirectX abgebildet (z.B. die Bindslots). Alle diese bindless/tiled resources Sachen usw. sind ja nur wegen der Flexibilität der neueren Designs möglich. Und auf genau die baut Mantle, ohne geht es nicht. Der eigentliche Graphics Command Processor der GPU ist wohl gar nicht so viel anders, zumindest spricht er immer noch praktisch die gleiche Sprache (das Format der command packets heißt immer noch PM4) und hat nur ein paar neue Wörter gelernt.
Hübie
2014-02-13, 15:51:08
Vielen Dank an euch. Jetzt ist mir das klarer geworden :) Also ists schlicht die veraltete (VLIW-) Architektur welche das ganze indiskutabel bzw. unrentabel macht, ja?
Ich muss jetzt auch mal blöd fragen: Findet eigentlich auch eine bidirektionale Kommunikation zwischen CPU und GPU statt? Also teilt die GPU auch der CPU Ergebnisse mit die dann auch nur von der CPU prozessiert werden können? Was wäre so ein Anwendungsfall am PC? Ist das auch über APIs definiert? Gibts mit Mantle noch Einschränkungen die D3D beherrscht?
evilbob
2014-02-13, 16:13:57
Wurd der Tonemapping-Bug mit dem letzten BF4 Update gefixt?
fondness
2014-02-13, 17:05:43
Interview mit Dan Baker: http://www.maximumpc.com/AMD_Mantle_Interview_2014
When you look at Star Swarm, it's really a testament to brute force. For us, we can see cases where Mantle is many times faster, with especially big differences as we add more cores and slow down their clock speeds. We wouldn't expect most games to necessarily see this, as it will happen in cases where you have a really efficient, high throughput engine, but it will certainly make an impact everywhere. We aren't set up to do very precise testing, so we'd rather others do the analysis on this. However, we'd like to point out that our Direct3D performance is absolutely outstanding, relative to what is expected. We have spent a huge amount of time optimizing around D3D, and we feel we are actually pretty biased in D3D’s favor. Mantle, on the other hand, we've spent far less time with and currently have only pretty basic optimizations. But Mantle is such an elegant API that it still dwarfs our D3D performance.
schreiber
2014-02-13, 17:10:18
Für 4000 Zeilen Code hat er zwei Monate gebraucht? Hmmmmm.
Simon
2014-02-13, 17:27:22
Für 4000 Zeilen Code hat er zwei Monate gebraucht? Hmmmmm.
100 vernuenftige Zeilen pro Tag ist gar nicht mal wenig. Gab schon Tage, da war ich ueber zwei Zeilen froh :biggrin:
Sunrise
2014-02-13, 18:23:25
Für 4000 Zeilen Code hat er zwei Monate gebraucht? Hmmmmm.
Wenn du im Demoszene-Bereich mit wenigen Zeilen auskommst, bist du der Held. Der Witz bei Code ist nicht, wieviele Zeilen du schreibst, sondern wieviel du mit möglichst wenigen Zeilen erreichen kannst.
Antwort: Nein. Die beiden Dinge haben nichts miteinander zu tun.
Danke!!! Suuupererklärung ... für das verwendete Bild aus dem letzten Posting.
Im Ernst: Wenn Du nichts sachliches zur Diskussion beitragen willst, lass es bitte bleiben. Hier im Thread wird schon genug gespammt, da musst nicht ausgerecht Du auch noch damit anfangen.
Verschiedene CPU-Threads setzen ja verschiedene Drawcalls für verschiedene gerenderte Objekte/Pixel ab (die im Zweifelsfall auch noch andere Shaderprogramme nutzen). In einem VLIW-Instruktionsbündel kann man nur Operationen für genau einem Pixel zusammenpacken (natürlich nur aus einem Shaderprogramm). Die VLIW-Packing wird statisch beim Kompilieren des Shaders festgelegt (bevor die eigentlichen Drawcalls das nutzen können) und hat als Input natürlich nur den Shadercode selber. Ob die Drawcalls später dann von einem Thread oder von mehreren kommen und über DX, OpenGL, Mantle oder sonstwie anders da ankommen, ist völlig irrelavant. Die Kompilierung eines Shaders kann man z.B. auch offline anstoßen (und das Ergebnis als GPU-Binärcode speichern, ist mit DX und OpenGL aber nicht wirklich vorgesehen), das kann also gar nicht davon abhängen, ob die Drawcalls single- oder multithreaded abgesetzt werden.
(Wirkliches) Danke, dass da nur ein Pixel pro VLIW-Bündel berechnet wird, wusste ich noch nicht, dann gehts natürlich nicht, wieder was gelernt.
ciao
Alex
Das ist doch nicht das eigentliche Problem. Du vermischt aus irgend einem Grund gedanklich das kompilieren der Shader im Treiber mit der Ausführung des entstandenen Codes auf der GPU. Mantle ändert aber überhaupt nichts an dem entstandenen Code, es macht evtl. nur die Erstellung des Codes schneller.
Exxtreme
2014-02-14, 15:21:27
Für 4000 Zeilen Code hat er zwei Monate gebraucht? Hmmmmm.
Es gab mal eine IBM-Studie, die besagte, dass ein Programmierer rund 12 "produktive" Zeilen Code pro Tag schafft.
Iruwen
2014-02-14, 15:49:05
Das kann man praktisch jawohl nicht verallgemeinern da das vom jeweiligen Projekt, dem gerade bearbeiteten Teil des Projekts, der verwendeten Sprache usw. abhängt.
Wer stur nach Spezifikation runterprogrammiert wird auch einen wesentlich höheren "Durchsatz" haben als ein "echter" Entwickler, wenn man sich parallel noch in eine neue API einarbeiten muss erst recht.
Für 4000 Zeilen Code hat er zwei Monate gebraucht? Hmmmmm.
So schlecht ist das nicht.
foenfrisur
2014-02-14, 17:13:48
- "ein Programmierer rund 12 "produktive" Zeilen Code pro Tag"
- "4000 Zeilen Code hat er zwei Monate"
sind doch eigentlich nutzlose aussagen....
die stimmen nur zu einer bestimmten zeit, für eine bestimmte sache...
das sah vor 10 jahren anders aus, es sieht heute anderes aus und sieht sicher in 10 jahren noch wieder anders aus.
glaube nicht, dass es da bei programmierern allgemeingültige aussagen gibt.
ihr seid doch welche :)
und weil ich keiner bin, wird mein code (wort) ohnehin ignoriert :D
mfg
fondness
2014-02-14, 17:19:40
Also in 2 Monaten 3000-4000 Zeilen Code für eine neue und unbekannte Beta-API zu verfassen ist sicher alles andere als schlecht. Der Mann ist allerdings sicher auch ein sehr guter Programmierer.
StefanV
2014-02-15, 01:36:40
2 Monate sind etwa 60 Tage.
Oder 8 Wochen. Nehmen wir einfach mal an, dass er an zwei Tagen die Woche nicht arbeitet:
60 - (8x2) = 44 Tage, die er arbeitet
Nehmen wir einfach mal 4400 Zeilen Code an, weil wir mal gut sind. Und faul beim Rechnen:
4400 / 44 = 100 Zeilen Code am Tage.
Bei 8 Stunden Arbeit wären es 12,5 Zeilen pro Stunde.
Bei 10 Stunden Arbeit wären es 10 Zeilen pro Stunde.
Das schaut für mich, so von weitem, nach einer verdammt guten Leistung aus, die er da alleine vollbracht hat.
Wobei es natürlich auhc möglich ist, dass er deutlich mehr gearbeitet hat als ich hier angenommen habe. Und er in seiner 'Freizeit' sich vermutlich durch die Mantle API Dokumentation geschlagen hat...
schreiber
2014-02-15, 01:43:57
Es scheint jedenfalls nicht so trivial gewesen zu sein, wie es dargestellt wird. Wenig Code, aber viel geistige Arbeit. Warten wir mal ab, wie gut es die Entwickler von Thief hinbekommen haben.
Dann lässt sich auch besser beurteilen, ob BF4 ein Bughaufen ist, oder ob die Probleme auch mit dem Support von Mantle zusammenhängen.
Iruwen
2014-02-15, 02:41:22
Es scheint jedenfalls nicht so trivial gewesen zu sein, wie es dargestellt wird. Wenig Code, aber viel geistige Arbeit.
Das ist beim Entwickeln eigentlich die Regel. Er sagte aber: "it wasn't terribly difficult". Wobei derartige Aussagen bei solchen Cracks mit Vorsicht zu genießen sind, kann mir gut vorstellen dass er zu der Kategorie gehört die in relativ kurzer Zeit Zeugs schreibt bei dem sich unsereins nur noch
http://i.imgur.com/EMrknJP.gif
denkt.
Unicous
2014-02-15, 03:16:40
Ja was er in 2 Monaten schafft, können vllt. zwei "normale" Coder auch in der gleichen Zeit (Oder 4 in der Hälfte:wink:). Wo liegt das Problem?
Außerdem wurde das Ganze ja direkt für die Engine geschrieben, d.h. zukünftige Spiele können da mit wenig bis null Mehraufwand (Behauptung meinerseits, die aber auch von Aussagen von AMD und Co. gestützt werden) von profitieren (Sollen ja schon drei Nitrous-Engine Spiele in der Entwicklung sein). Wenn das einmal in die Engine implementiert wird, ist es auch leicht zu pflegen. Auch das wird durch mehrere Aussagen gestützt, z.B. im aktuellen Interview mit Baker.
Wo wir dann wieder bei Ports sind. du codest auf dem PC und portierst dann auf X0 und PS4. Der Mehraufwand den du am Anfang hattest, wird durch die vereinfachte Portierung wieder wettgemacht.
Es geht ja AMD auch um diese Synergieeffekte. Die kommen im Endeffekt dem PC-Spieler zu Gute...soweit die Theorie.:biggrin:
Viele der angekündigten Spiele werden ja auch auf die Konsolen kommen.
Bei Thief war es da schon zu spät würde ich mal schätzen. Aber die Tatsache allein, das Nixxes Mantle implementiert hat wird sich sicherlich auch auf zukünftige Eidos/Square Enix Spiele auswirken.
Man hat sich schon um ein paar einflussreiche Entwickler gekümmert. Wenn das zündet, könnte sich das wie ein Lauffeuer entfachen. Wer will den nicht bei den Entwicklungskosten sparen, wenn du zig Versionen des selben Spieles programmierst.
Skysnake
2014-02-15, 08:43:24
Es ist keine TXT sondern ein großes Binär file für den Grahics Debugger. Und Ja ich habe bei der ersten Durchsicht der tausenden Drawcalls die 4 oder 5 übersehen wo mal wirklich ein 3D Objekt gerendert wurde. Mea maxima culpa.
Man braucht den Code nicht. Es ist sogar schwerer mit dem Sourcecode festzustellen was nun wirklich an die API geschickt wird. Wenn ich den Code hätte könnte ich es ja mal ein bisschen optimieren.
Ich weiß jetzt auch ehrlich gesagt nicht was ihr sehen wollt. Soll ich die komplette Liste mit den tausenden D3D Aufrufe posten? Auszüge daraus? Screenshots von Zwischenschritten beim rendern?
So mit paar kurzem Kommentaren wäre das doch ne super Sache, bei der man auch noch was lernen könnte :up:
Noch besser wäre aber, wenn du eventuell an nem kleinen Beispiel zeigen könntest, wie du dir die Daten beschafft hast, und die zwei drei wichtigsten Stellen zeigst. Dann kann man das nämlich auch für alle Zukunft nutzen und sich die SAchen selbst anschauen und mehr Augen sehen einfach mehr ;)
Nein, Vereinfacht gesagt habe Mantle und Direct3D haben etwas unterschiedliche Ausrichtungen und Zielgruppen..
- Direct3D übernimmt die Sequenzierung automatisch. Bei Mantle muss sich der Entwickler darum kümmern. Das muss man sich so vortstellen das sich bei Direct3D die GPU wie ein Singelcore System verhält während man bei Mantle es wie ein Multicore System handhaben muss. Entsprechend steigt mit Mantle die Gefahr das Code der auf einer GPU läuft auf einer anderen Renderfehler verursacht wenn man beim manuellen synchronisieren einen Fehler gemacht hat. Bei Direct3D gilt die Prämisse das die gleiche Folge von Anweisungen immer zum gleichen Ergebnis führen muss.
Und genau darin sehe ich den großen Vorteil von Mantle. Man kann GPUs so ansprechen, wie Sie heute eigentlich auch aussehen. Ganz abgesehen davon, dass sich eben neue Möglichkeiten für den Multi-GPU Support ergeben, weil man eben nicht mehr mit dem 1GPU Bild rumrennt.
- Bei Direct3D sind die Möglichkeiten des Treiber sehr groß. Das führt dazu das die IHVs bei wichtigen Spielen Fehler aller Art der Spieleentwickler im Treiber ausgleichen wenn sie dafür mehr FPS aus ihrer Hardware heraus bekommen. Dummerweiße verursacht das Erkennen dieser Fehler einen Overhead. Wir haben hier einen Tradeoff von CPU Leistung für mehr FPS. Das ist halt sehr unschön wenn das Spiel sowieso schon an der CPU hängt. Bei Mantle gilt eher das Garbage In Garbage Out Prinzip. Wenn das Spiel Mist baut wird der minimalistische Treiber das nicht irgendwie abfangen. Bleibt nur zu hoffen das AMD diesem Prinzip auch treu bleiben kann wenn sie Mantle öffentlich zugänglich machen.
Auch das sehe ich sehr positiv. In den letzten Jahren/Jahrzehnt hat sich zumindest bei einigen großen Fischen die Vorstellung durchgesetzt, das man mehr oder weniger die Dinger nur noch hinklatscht, und AMD/nVidia sich dann schon um die Schnitzer kümmern werden...
Das wirkt aber Marktverzessernd, weil eben nur die Großen davon profitieren, also zum Nachteil der kleinen Studios. Ganz zu schweigen davon, das wir das am Ende über unsere GPU-Preise mitzahlen...
. Multicore rendering ist in DirectX 11 vorgesehen. Dummerweiße hat es Microsoft den Treiberentwicklern erlaubt es nicht direkt im Treiber zu implementieren sondern auf eine "Emulation" in der Runtime zurück zugreifen. Entsprechend hat es keiner im Treiber implementiert. Die Emulation brachte bei entsprechenden Tests keinen Gewinn. Also hat es keiner benutzt und damit gab es auch keinen Grund es in die Treiber einzubauen und zu optimieren. Neuerer Treiber zeigen wohl jetzt langsam einen Fortschritt. Ich habe es aber selbst noch nicht ausprobiert.
Tja, das Henne-Ei-Problem halt. Wäre nur spannend, wer sich bei dieser Fehlentscheidung durchgesetzt hat, also von wem die Ausging.
Und in die Runde: Würden nicht VLIW4/5 Designs besonders von Mantle profitieren können? :|
Nein, gibt keinen Grund dafür.
100 vernuenftige Zeilen pro Tag ist gar nicht mal wenig. Gab schon Tage, da war ich ueber zwei Zeilen froh :biggrin:
Oh ja ;D
Ich hing mal mit Speichermanagement, was am Ende vieleicht 100-200 Zeilen Code waren gute nen Monat :freak: Aber in denen steckt auch echt viel Gehirnschmalz drin und zehntausende Zeilen reviewed.
grobi
2014-02-15, 09:08:21
Wie Lowlevel ist eigentlich Mantle?
Mir ist gestern beim Mantletest unter BF4 das komplette Windows abgestürzt mit einem roten Bildschirm. Ich habe meine 7870 leicht übertaktet und die letzten 1 1/2 jahre keine Probleme damit gehabt. Ist vielleicht die Auslastung höher und deswegen ist die Übertaktung dank Mantle nicht mehr stabil?
Demirug
2014-02-15, 09:13:52
So mit paar kurzem Kommentaren wäre das doch ne super Sache, bei der man auch noch was lernen könnte :up:
Noch besser wäre aber, wenn du eventuell an nem kleinen Beispiel zeigen könntest, wie du dir die Daten beschafft hast, und die zwei drei wichtigsten Stellen zeigst. Dann kann man das nämlich auch für alle Zukunft nutzen und sich die SAchen selbst anschauen und mehr Augen sehen einfach mehr ;)
Ich ziehe später mal ein paar Stellen raus. Wird es dauern weil der Graphics Debugger doch etwas mit der Menge an Calls zu kämpfen hat. Um an die Daten zu kommen nimmt man einfach den Graphics Debugger aus Visual Studio (mindestens Professional)
Und genau darin sehe ich den großen Vorteil von Mantle. Man kann GPUs so ansprechen, wie Sie heute eigentlich auch aussehen. Ganz abgesehen davon, dass sich eben neue Möglichkeiten für den Multi-GPU Support ergeben, weil man eben nicht mehr mit dem 1GPU Bild rumrennt.
Multi GPU ist so eine Sache. Es muss sich halt noch zeigen wie viel Bandbreite man pro Frame zwischen den GPUs wirklich hat um am Ende was anderes als AFR zu machen. Und dann bleibt halt noch die Frage wie viele Entwickler da auch Zeit reinstecken wollen.
Auch das sehe ich sehr positiv. In den letzten Jahren/Jahrzehnt hat sich zumindest bei einigen großen Fischen die Vorstellung durchgesetzt, das man mehr oder weniger die Dinger nur noch hinklatscht, und AMD/nVidia sich dann schon um die Schnitzer kümmern werden...
Das wirkt aber Marktverzessernd, weil eben nur die Großen davon profitieren, also zum Nachteil der kleinen Studios. Ganz zu schweigen davon, das wir das am Ende über unsere GPU-Preise mitzahlen...
Mantle ist nicht so Low Level als das man da nicht auch wieder im Treiber anfangen könnte jede Menge Dinge einzubauen. Sobald man das SDK öffentlich macht hat AMD nicht mehr so viel Kontrolle darüber wer Mantle wie nutzt. Das Problem könnte also leider wieder entstehen.
Tja, das Henne-Ei-Problem halt. Wäre nur spannend, wer sich bei dieser Fehlentscheidung durchgesetzt hat, also von wem die Ausging.
Das Henne Ei Problem hätte man auch ohne die Emulation in der Runtime. Wahrscheinlich hätten die Treiberentwickler es im ersten Anlauf auch erst einmal so gelost wie es die Emulation macht.
Iruwen
2014-02-15, 13:07:52
Wie Lowlevel ist eigentlich Mantle?
Mir ist gestern beim Mantletest unter BF4 das komplette Windows abgestürzt mit einem roten Bildschirm. Ich habe meine 7870 leicht übertaktet und die letzten 1 1/2 jahre keine Probleme damit gehabt. Ist vielleicht die Auslastung höher und deswegen ist die Übertaktung dank Mantle nicht mehr stabil?
Zu ersterem steht was im Interview, zu letzterem ja, in den Reviews sieht man dass durch den Wegfall der CPU-Handbremse die Leistungsaufnahme der GPU steigt, also auch die Auslastung. Und BF3/4 ist eh schon ein guter OC-Test. Ansonsten laufen BF4 und/oder Mantle aber halt auch einfach noch nicht stabil.
Knuddelbearli
2014-02-15, 13:24:10
Zu ersterem steht was im Interview, zu letzterem ja, in den Reviews sieht man dass durch den Wegfall der CPU-Handbremse die Leistungsaufnahme der GPU steigt, also auch die Auslastung. Und BF3/4 ist eh schon ein guter OC-Test. Ansonsten laufen BF4 und/oder Mantle aber halt auch einfach noch nicht stabil.
Auslastung steigt sogar massiv!
Man muss ja bedenken das "Dank" Boost bei höherer Auslastung die Taktrate und Spannung fällt
evilbob
2014-02-15, 16:41:27
Auslastung steigt sogar massiv!
Hast du oder wer sonst das nachgemessen?
Wenn nicht, nimm mal besser den Mund nicht so voll.
Gipsel
2014-02-15, 17:46:00
Hast du oder wer sonst das nachgemessen?
Wenn nicht, nimm mal besser den Mund nicht so voll.Also in den Fällen, wo sich die Framerate +50% oder gar bis +100% erhöht (also CPU-Limit mit DX), muß die GPU-Auslastung steigen, das geht gar nicht anders ;).
evilbob
2014-02-15, 18:10:34
Dafür brauchts kein Mantle und dass instabile Hardware seltener crasht, wenn sie sich langweilt, ist doch wirklich ein ziemlich unaufregendes Thema.
Ailuros
2014-02-15, 18:15:58
Hast du oder wer sonst das nachgemessen?
Wenn nicht, nimm mal besser den Mund nicht so voll.
Fuer jemand mit nur 5 posts ist der Ton schon fast ein Stueck zu aggressiv.
Gipsel
2014-02-15, 18:22:10
Dafür brauchts kein Mantle und dass instabile Hardware seltener crasht, wenn sie sich langweilt, ist doch wirklich ein ziemlich unaufregendes Thema.Der GPU ist es doch vollkommen egal, warum es mehr zu tun gibt. Der Punkt ist, daß sie mehr tut (also die Auslastung steigt). :wink:
evilbob
2014-02-15, 18:24:01
Er suggeriert, es wäre klar, dass Mantle die GPU generell signifikant stärker belasten würde als D3D. Was so sicherlich nicht stimmt. Da ist es kein guter Stil, die eigene Falschaussage noch mit Ausrufezeichen zu hypen.
Wer Hawaii schonmal übertaktet hat weiß, dass BF4 + Mantle kein Sonderfall darstellt. Vorher gibts schon schwere Grafikfehler im Kombustor etc.
Gipsel
2014-02-15, 18:31:46
Er suggeriert, es wäre klar, dass Mantle die GPU generell signifikant stärker belasten würde als D3D. Was so sicherlich nicht stimmt. Da ist es kein guter Stil, die eigene Falschaussage noch mit Ausrufezeichen zu hypen.In Knuddelbearlies Post (den Du zitiert hast) entdecke ich keine Falschaussage. Du interpretierst nur eine hinein. Anderen in der Form einen schlechten Stil vorzuwerfen ist übrigens auch kein guter Stil.
Deswegen würde ich Dir den gleichen Tipp geben, wie es Ailuros schon indirekt getan hat: Zügel Dich ein wenig!
Blackhand
2014-02-15, 18:44:56
http://www.planet3dnow.de/cms/6751-amd-mantle/subpage-leistungsaufnahme/
http://www.planet3dnow.de/cms/6751-amd-mantle/subpage-skalierung-und-effizienz/
Gipsel
2014-02-15, 19:00:34
http://www.planet3dnow.de/cms/6751-amd-mantle/subpage-leistungsaufnahme/
http://www.planet3dnow.de/cms/6751-amd-mantle/subpage-skalierung-und-effizienz/
Wobei das mit niedrigerer Auflösung und dann vielleicht noch Multiplayer deutlich größere Unterschiede mit BF4 ergeben würde. P3DN hat sich gerade Szenarien ausgesucht, wo sich nicht soo viel tut.
evilbob
2014-02-15, 19:04:17
Das sieht mir ganz nach mehr CPU-Limit mit D3D aus und somit natürlich höherem Verbrauch mit Mantle, weil GPU stärker gefordert.
Ich sehe aber, wie gesagt, nicht, was das bei einem nicht kaputten System für einen Unterschied machen soll (ich unterstelle jetzt nicht das Gegenteil als Aussage).
Kann man den Stromverbrauch übers Powertune auslesen?
Bei Powertarget geht das.
Gipsel
2014-02-15, 19:09:43
Das sieht mir ganz nach mehr CPU-Limit mit D3D aus und somit natürlich höherem Verbrauch mit Mantle, weil GPU stärker gefordert.Bingo! Jetzt weißt Du, wofür Mantle gut ist: Die CPU-Last durch die DX-Runtime und Treiber zu reduzieren (und effizienteres sowie multithreaded Absetzen von Drawcalls). Dadurch wird die GPU weniger von der CPU eingebremst. Und genau das war der Punkt, den Du bestritten hast.
Aber schön, daß das jetzt auch hoffentlich alle verstanden haben.
evilbob
2014-02-15, 20:42:29
Jetzt reiß meine Worte mal nicht aus dem Zusammenhang.
AMD sagt überdies auch nicht, dass Mantle nur die CPU effektiver nutzt, 20% im GPU-Limit geisterten schon durch den Raum.
Zur Erinnerung: Der Zusammenhang war eine effektivere Ausnutzung der GPU mit Mantle ("hardwarenäher"). Das ist was völlig anderes, als wenn die GPU, wegen Drawcall-Flaschenhalses, auf die CPU warten muss.
Sunrise
2014-02-15, 20:50:39
Zur Erinnerung: Der Zusammenhang war eine effektivere Ausnutzung der GPU mit Mantle ("hardwarenäher").
Und was passiert, wenn du die GPU effektiver auslasten kannst?
Gipsel weiß schon, was er da schreibt.
Gipsel
2014-02-15, 21:17:15
Jetzt reiß meine Worte mal nicht aus dem Zusammenhang.Offenbar hast Du den Zusammenhang in Bezug auf Knuddelbearlis Post nicht erkannt ;).
Ansonsten sagte ich schon,daß es die GPU herzlich wenig interessiert, warum sie mehr zu tun bekommt. Und es ist ganz einfach eine empirische Beobachtung, daß in BF4 oder Starswarm (die zur Zeit einzigen Beispiele) die Framerate mit Mantle zum Teil deutlich hochgeht (man ist halt weniger durch die CPU limtiert) und somit die Last, die die GPU bewältigen muß, entsprechend steigt. Und nichts Anderes hat Knuddelbearli in seinem Post gesagt (bzw. zur Bekräftigung noch, daß die Auslastung [als relative Angabe] sogar stärker steigt als die Steigerung der fps es vermuten lassen, weil der variable GPU-Takt [Boost] mit Mantle tendentiell geringer ausfällt als mit DirectX). Jetzt alles klar?
Edit:
Die angesprochenen +20% im GPU-Limit sind eher wirkliche Einzelfälle, solange man nicht einen Renderer auf Mantle auslegt (was BF4 nicht tut, da sind es vielleicht maximal 5% oder so). Und die kommen auch vornehmlich dadurch zustande, daß man z.B. Datenverwaltung/-zugriffe besser steuern kann bzw. sogar redundante Dinge in dem Bereich einsparen kann. Da können die fps also auch steigen, weil man weniger oder zumindest etwas anders tut als mit DX. Das muß also nicht unbedingt immer mit einer Erhöhung der Auslastung der GPU einhergehen, sondern das kann auch eine effizientere Nutzung der Resourcen bedeuten. ;)
Achja, für alle mal ein kleines Glossar:
Effizient bedeutet, mit geringem Aufwand das Ergebnis zu erreichen. Effektiv heißt, das Ergebnis überhaupt zu erreichen (eine Methode ist effektiv, wenn sie einen Effekt erzielt, also prinzipiell funktioniert, das ist was völlig anderes, als diesen Effekt effizient zu erreichen!) und Auslastung ist der Anteil der genutzen Resourcen im Verhältnis zu den vorhandenen.
evilbob
2014-02-15, 21:34:45
Nach dieser Logik sind die fps mit Mantle und D3D im komplettem GPU-Limit komplett gleich. Sind sie das? Gibt es da Benches zu?
Konzentrieren wir uns mal auf BF4. Dir ist schon klar, dass da eine schnelle Intel-CPU mit Nvidia auf Windows 8.1 locker 100fps und mehr durchgehend schafft?
Die GPU wird nicht effektiver ausgelastet, wenn das CPU-Limit bei 100fp oder 120fps liegt, die GPU aber nur 80fps schafft.
Ich ahne schon, dass man mir gleich vorwerfen wird, ich würde die Situation nicht berücksichtigen, wenn das GPU-Limit höher als das CPU-Limit liegt.
Das stimmt auch, davon sprach ich nämlich nie. Was ist an "GPU-Limit" so schwer zu verstehen? GPU-Limit schließt CPU-Limit aus.
Beim Shitstorm bitte nicht vergessen, auf den ersten Absatz einzugehen.
Gipsel
2014-02-15, 21:45:06
Nach dieser Logik sind die fps mit Mantle und D3D im komplettem GPU-Limit komplett gleich. Sind sie das? Gibt es da Benches zu?Ja, sie sind beinahe gleich. Gibt auch Benchmarks dazu.
Konzentrieren wir uns mal auf BF4. Dir ist schon klar, dass da eine schnelle Intel-CPU mit Nvidia auf Windows 8.1 locker 100fps und mehr durchgehend schafft?
Die GPU wird nicht effektiver ausgelastet, wenn das CPU-Limit bei 100fp oder 120fps liegt, die GPU aber nur 80fps schafft.Siehe oben, effektivere Auslastungen gehen sprachlich nicht (höchstens eine effektive Auslastung mit der Bedeutung wirksame Auslastung), Du meinst wahrscheinlich eine effektiv höhere bzw. höhere effektive Auslastung (sind auch noch mal zwei leicht verschiedene Dinge) ;).
Aber im Ernst. Lies mal den Thread ein wenig ausführlicher. Die CPU-Last der Treiber ist unterschiedlich und DX11.1 auf Win8.1 bringt auch ordentlich was (also ein Lösen der CPU-Bremse), offenbar vor Allem für nV. Ansonsten ist es unter Win7 ziemlich schwer, z.B. im MP mit 64 Spielern ständig über 100fps zu bleiben.
Knuddelbearli
2014-02-15, 21:45:49
wie oft hat man in Bf4 MP reines GPU limit*? richtig sogut wie nie ( gaar nie will ich nicht sagen vielleicht sind es 0,1% )
* solange man keinen 5Ghz Haswell mit einer 270X kreuzt
Rente
2014-02-15, 21:48:28
Wenn man mit FullHD, Max.-Details, 4xMSAA und Resolutionscale (115-125%) spielt hat man sehr oft GPU-Limit, allerdings auch nicht 100% der Zeit (mit einer 780 Ti@1,2 GHz) und trotzdem eine spielbare Framerate.
Bei solchen Settings dürfte Mantle dazu führen, dass noch deutlich öfter ein GPU-Limit anliegt.
evilbob
2014-02-15, 21:54:29
Ja, sie sind beinahe gleich. Gibt auch Benchmarks dazu.
Wo denn bitte? Taugen die was? Sind die nachvollziehbar?
Da kann man viel falsch machen. Frag mal dargo. Die meisten Reviewer sind ja schon überfordert, den fps-Limiter zu deaktivieren und mittels Auflösungsskalierung garantierte Limits festzustellen.
wie oft hat man in Bf4 MP reines GPU limit*? richtig sogut wie nie ( gaar nie will ich nicht sagen vielleicht sind es 0,1% )
* solange man keinen 5Ghz Haswell mit einer 270X kreuzt
Die 144Hz kriegst du gut genutzt?
Knuddelbearli
2014-02-15, 23:54:12
Wenn man mit FullHD, Max.-Details, 4xMSAA und Resolutionscale (115-125%) spielt hat man sehr oft GPU-Limit, allerdings auch nicht 100% der Zeit (mit einer 780 Ti@1,2 GHz) und trotzdem eine spielbare Framerate.
Bei solchen Settings dürfte Mantle dazu führen, dass noch deutlich öfter ein GPU-Limit anliegt.
sicher das das 100%tige gpu limits sind? also mehr cpu leistung dort 0,0nix bringen? bezweifle ich irgendwie, eher gpu limitiert ja aber eben nicht absolut
][immy
2014-02-16, 00:42:38
was ich aktuell bei mantle noch vermisse sind die leistungszuwächse die mal vor langem auch in gpu-limitierten szenarien versprochen wurden. war es nicht eigentlich das ziel mantle dazu zu bringen allgmein schneller als D3D zu sein durch mehr hardware-nähe?
derzeit scheint es ja nur die möglichkeit zu geben sich ein wenig unabhängiger von der cpu zu machen. das ist zwar durchaus positiv (besonders für die AMD CPUs) aber eigentlich doch nur ein neben-ziel von mantle gewesen.
oder haben sich z.b. die Battlefield Entwickler derzeit nur darauf konzentriert eine mantle-unterstützung einzubauen, ohne irgendwas großartiges an ihrer engine selbst zu ändern. gibt es nun mit mantle die möglichkeit die GPU allgemein effizienter zu nutzen und die wurde schlicht noch nicht genutzt, oder gibt es aktuell diese möglichkeit noch gar nicht?
weil ursprünglich wollte AMD damit ja auch die integrierten GPUs besser nutzen können.
Knuddelbearli
2014-02-16, 01:11:28
naaja mom ist bf4 ja nur eine "billige portierung" gpu zuwachs gibts vor allem wenn ein spiel speziell für mantle programmiert wurde
gnahr
2014-02-16, 01:23:03
jetzt mach mal nicht den lead-titel runter.
bf4 wurde nicht etwa erst irgendwann dieses korsett übergezwängt, sondern die idee kam vom gleichen konzern paralell zum start der heißen phase.
alles so klein zu reden ist ein wenig unfair, nachdem befeuerte erwartungen dieser wunder-engine verfehlt wurden.
Knuddelbearli
2014-02-16, 01:51:34
also +100% in dem Bereich wo man nix machen kann ( IPC stagniert anährend und Takt sinkt und man kann keine 2te CPU einfach so dazuschalten wie bei GPUs, halbwegs stabile 144 fps waren bisher in aktuellen Titeln quasi unmöglich ) sind zumindest für mich klar und bei weitem Erwartung übertroffen.
Und trotzdem ist BF4 nunmal vor allem ein D3D Titel dem im Nachhinein Matle übergestülpt worden wurde. Bei einem reinen Mantle Titel oder wenn man Mantle als Basis nimmt und danach D3D macht sieht sicher deutlich anders aus. Allerdings wird es das wohl nie geben da AMD sich nicht so massiv einkauft damit sich das lohnen würde und weder Intel ( die würden dann noch weniger CPUs verkaufen ) noch NV ( solange Huang was zu sagen hat ) es benutzen werden.
gnahr
2014-02-16, 01:55:42
komm doch mal bitte von deinem wunschdenken weg. "rein mantle" traut sich nicht mal die eigene pr in den mund zu nehmen, im gegenteil wird es ja immernoch als teure erweiterung/zückerlie für großprojekte wie bf4 verkauft, bis alle hintergründe auf der technischen seite offen liegen.
"da kann ja noch so viel mehr" verkennt das potenzial analoge entwicklungen nun auch bei d3d zu beschleunigen.
("den bereich wo man nix machen kann"... lustige umschreibung für völlig fehlkonzipierte spiele-systeme. a10 und dann ne 400€ graka ist vieles, aber nicht relevant wenn man sich mal steam-machines im vergleich anguckt.)
[LOG]Skar
2014-02-16, 07:41:03
("den bereich wo man nix machen kann"... lustige umschreibung für völlig fehlkonzipierte spiele-systeme. a10 und dann ne 400€ graka ist vieles, aber nicht relevant wenn man sich mal steam-machines im vergleich anguckt.)
Ich hab nen i7 2600k (@4,4) mit einer r9 290x und merke von Mantle deutlich etwas. BF4 Settings sind Ultra + 2xAA ohne FXAA bei 150% Scale -> 3840x1620
So spiele ich den BF4 MP! Das absolut tolle ist, dass mir sogar 40 FPS noch so flüssig vorkommen wie 60 FPS unter D3D.
Die Stabilität muss halt noch besser werden, aber es ist halt noch sehr frisch. (Das aktuelle BF4 Update konnte ich noch nicht Testen)
Skysnake
2014-02-16, 09:46:01
Ich ziehe später mal ein paar Stellen raus. Wird es dauern weil der Graphics Debugger doch etwas mit der Menge an Calls zu kämpfen hat. Um an die Daten zu kommen nimmt man einfach den Graphics Debugger aus Visual Studio (mindestens Professional)
Öhm ich hab VS 2010 Prof. Ist das also ein MS "Product"?
Mir kam die Darstellung schon so bekannt vor, aber NSight sieht ja ähnlich aus.
Multi GPU ist so eine Sache. Es muss sich halt noch zeigen wie viel Bandbreite man pro Frame zwischen den GPUs wirklich hat um am Ende was anderes als AFR zu machen. Und dann bleibt halt noch die Frage wie viele Entwickler da auch Zeit reinstecken wollen.
Klassisches Multi-GPU sicherlich. Da muss man schon aufpassen, das einem PCI-E nicht das Genick bricht.
Ich denke da aber eher an MCM-GPUs. Die könnte man sehr schön skalieren lassen.
Mantle ist nicht so Low Level als das man da nicht auch wieder im Treiber anfangen könnte jede Menge Dinge einzubauen. Sobald man das SDK öffentlich macht hat AMD nicht mehr so viel Kontrolle darüber wer Mantle wie nutzt. Das Problem könnte also leider wieder entstehen.
...
Dann hoffe ich INSTÄNDIG! das AMD sich selbst diszipliniert, und die Verantwortung bei den Entwicklern lässt und wenn dann halt nur Tutorials/SDKs fixed/bereitstellt, und eventuell mal direkt beim Debugging hilft, aber nicht über den Treiber versucht was zu fixen...
Das Henne Ei Problem hätte man auch ohne die Emulation in der Runtime. Wahrscheinlich hätten die Treiberentwickler es im ersten Anlauf auch erst einmal so gelost wie es die Emulation macht.
hm. Wahrscheinlich haste damit Recht.
Knuddelbearli
2014-02-16, 13:23:07
("den bereich wo man nix machen kann"... lustige umschreibung für völlig fehlkonzipierte spiele-systeme. a10 und dann ne 400€ graka ist vieles, aber nicht relevant wenn man sich mal steam-machines im vergleich anguckt.)
du hast scheinbar meinen Post nicht verstanden, ob wie meisten gewollt oder diesesmal ungewollt kA
das "den bereich wo man nix machen kann" bezog sich darauf das man bei CPU Limit eben nichts machen kann. bei GPU gibts Leistungsverdoppelung alle paar Jahre und notfalls SLI und CF. Wenn man aber im CPU Limit ist und deshalb keine FPS X erreicht und das trotz OC CPU kann man nunmal gar nix machen. Die Leute mit 120 / 144 HZ Monitor können dir ein Lied davon singen.
Gerade da BF 4 laut etlichen Leuten hier die es häufig spielen ( spiele es selber ja nicht spiele keine Shooter aber viele Strategiespiele und Rollenspiele wo Mantle theoretisch noch viel viel mehr reinhauen kann da dort CPU noch wichtiger ist ) BF4 erst ab 80+ FPS richtig smooth ist.
Flusher
2014-02-16, 23:59:31
Hat schon jemand Erfahrungen mit dem neuesten BF4 Update sammeln können? Mir scheint es gibt mehr Abstürze, aber ich kann das schlecht beurteilen, weil ich nicht weiß ob das von meinem Umstieg von 7970 auf r9 290 kommt, oder tatsächlich bei der Software was im Argen liegt.
BTW: hat AMD mal was dazu gesagt wann die nächste Catalyst Version rauskommt? Mir geht der P-State Bug mächtig auf den Sack. Meine GPU idlet mit vollem Takt und Spannung. :freak:
[LOG]Skar
2014-02-17, 08:49:30
Hab gestern BF4 gespielt, allerdings hatte ich auch wieder den TDM no Sound bug. Der sollte ja eigentlich gefixt worden sein?
Abstürze hatte ich auch einige, auch mit DirectX.
Meine Mantle Perfomance ist den Bach runter :confused::eek:
Scheint mir das gleich zu sein wie PCGH hier im Video anmerkt bei min. 2:25.
http://www.pcgameshardware.de/Battlefield-4-PC-238749/Specials/Battlefield-4-Windows-81-Windows-7-Performance-1108811/
Kann das hier jemand bestätigen?:smile:
Werde heute abend noch mal schauen.
Hat schon jemand Erfahrungen mit dem neuesten BF4 Update sammeln können? Mir scheint es gibt mehr Abstürze, aber ich kann das schlecht beurteilen, weil ich nicht weiß ob das von meinem Umstieg von 7970 auf r9 290 kommt, oder tatsächlich bei der Software was im Argen liegt.
Hab sowohl die 290 als auch BF4 neu, kann also nur sagen, dass es unter Mantle auch oft stirbt, aber nicht worans liegt. Auch noch nicht ausführlich mit DX11 testen können, schien aber bei erstem Test stabil zu sein.
Schnoesel
2014-02-17, 10:36:17
Hi,
ich habe so gut wie keine Probleme mit Mantle und BF4. In den letzten Tagen ist er einmal aus dem Spiel gegangen das wars aber auch schon. Die FPS drops sind aber beseitigt worden.
Es gibt nur einen Bug der ziemlich nervt: Manchmal scheint Mantle nicht aktiv zu sein jedenfalls habe ich dann nur etwas die Hälfte der FPS (um die 40-50), wenn das pasiert muss ich den PC neustarten und dann habe ich wieder die gewohnten FPS(zwischen 90 und 110).
Also dieser Bug sollte noch verschwinden und auch der Nebelbug, dann wäre ich zufrieden.
System ist
FX 8350
r9 290x
Win 7 64
PS: Mit meiner CPU/GPU Kombination profitiere ich von Mantle extrem das hätte ich so nicht gedacht da ich auf 1440p zocke (high preset). Aber selbst beim einstürzenden Hochaus auf nem 64 Mann Server ist er nicht unter 70FPS gefallen.
Iruwen
2014-02-17, 12:52:28
komm doch mal bitte von deinem wunschdenken weg. "rein mantle" traut sich nicht mal die eigene pr in den mund zu nehmen, im gegenteil wird es ja immernoch als teure erweiterung/zückerlie für großprojekte wie bf4 verkauft, bis alle hintergründe auf der technischen seite offen liegen.
"da kann ja noch so viel mehr" verkennt das potenzial analoge entwicklungen nun auch bei d3d zu beschleunigen.
In addition to making more effective and efficient use of the CPU, Mantle will allow GPU resources to be used more efficiently. Katsman brought up the Radeon R9 290X, which has 5.6 tflops of compute power, and said that an "awful lot" of that compute power is "lying there dormant." With current APIs, some of the compute power might be used for some parts of a frame, but other parts "will be bottlenecked by something else," such as "getting things from memory, by fetching textures through the texture fetch units, [and] the rasterization units." He went on:
The APIs we have right now, they just allow us to queue synchronous workloads. We say, "draw some triangles," and then, "do some compute," and the driver can try to be a little smart, and maybe it'll overlap some of that. But for the most part, it's serial, and where we're doing one thing, it's not doing other things.
With Mantle . . . we can schedule compute work in parallel with the normal graphics work. That allows for some really interesting optimizations that will really help your overall frame rate and how . . . with less power, you can achieve higher frame rates.
What we'd see, for example—say we're rendering shadow maps. There's really not much compute going on. . . . Compute units are basically sitting there being idle. If, at the same time, we are able to do post-processing effects—say maybe even the post-processing from a previous frame, or what we could do in Tomb Raider, [where] we have TressFX hair simulations, which can be quite expensive—we can do that in parallel, in compute, with these other graphics tasks, and effectively, they can become close to zero cost.
If we guessed that maybe only 50% of that compute power was utilized, the theoretical number—and we won't reach that, but in theory, we might be able to get up to 50% better GPU performance from overlapping compute work, if you would be able to find enough compute work to really fill it up.
The 50% figure is a theoretical best-case scenario, but Katsman added, "It seems quite realistic that you would get maybe 20% additional GPU performance out of optimizations like that."
Also, because Mantle lets developers use GPU memory more efficiently, the new API could allow for the use of higher-resolution textures in a given game, according to Katsman.
http://techreport.com/review/25683/delving-deeper-into-amd-mantle-api/3
Flusher
2014-02-17, 23:48:48
Hi,
ich habe so gut wie keine Probleme mit Mantle und BF4. In den letzten Tagen ist er einmal aus dem Spiel gegangen das wars aber auch schon. Die FPS drops sind aber beseitigt worden.
Es gibt nur einen Bug der ziemlich nervt: Manchmal scheint Mantle nicht aktiv zu sein jedenfalls habe ich dann nur etwas die Hälfte der FPS (um die 40-50), wenn das pasiert muss ich den PC neustarten und dann habe ich wieder die gewohnten FPS(zwischen 90 und 110).
Das liegt an Powertune - da gibt es einen Bug, der das hochtakten des Speichers manchmal verhindert. Workaround: Overdrive im CCC aktivieren und wieder deaktivieren (oder vice versa).
Also dieser Bug sollte noch verschwinden und auch der Nebelbug, dann wäre ich zufrieden.
System ist
FX 8350
r9 290x
Win 7 64
PS: Mit meiner CPU/GPU Kombination profitiere ich von Mantle extrem das hätte ich so nicht gedacht da ich auf 1440p zocke (high preset). Aber selbst beim einstürzenden Hochaus auf nem 64 Mann Server ist er nicht unter 70FPS gefallen.
Ehrlich gesagt glaube ich das nicht. Mein System ist recht ähnlich, aber ich habe regelmäßig Slowdowns auf teilweise unter 40 FPS. Vor allem auf Operation Locker sind die Frameraten selten über 50 FPS.
dargo
2014-02-17, 23:51:46
Ehrlich gesagt glaube ich das nicht. Mein System ist recht ähnlich, aber ich habe regelmäßig Slowdowns auf teilweise unter 40 FPS. Vor allem auf Operation Locker sind die Frameraten selten über 50 FPS.
Das kann aber eigentlich nur ein Bug sein. Ich habe zwar einen Haswell Xeon mit 3,7Ghz, auf Locker habe ich aber noch nie weniger als 80fps gesehen (80fps Limiter selbst gelegt)
Screemer
2014-02-18, 00:22:08
unter mantle verabschiedet sich mein bf4 nach jeder runde. das ganze mit einer 7950. sobald das scoreboard kommt hängt es. kann es nur noch mit dem taskmanager abschießen. dx11 läuft.
foenfrisur
2014-02-18, 07:58:19
eigentlich sollte das nicht an mantle oder dx liegen.
beide APIs stürzen seit dem letzten patch regelmäßig ab.
kann man in battlelog lesen.
ich spiele nur noch mit mantle, weils glatter läuft.
mfg
dargo
2014-02-18, 10:48:36
ich spiele nur noch mit mantle, weils glatter läuft.
Ich auch... das Spielgefühl ist mit Mantle einfach besser. Der Fog-Bug könnte aber langsam beseitigt werden. Das ist auf Dauer recht anstrengend für die Augen.
Schnoesel
2014-02-18, 10:54:02
Vor allem auf Operation Locker sind die Frameraten selten über 50 FPS.
Dann stimmt aber was nicht, gerade Operation Locker bleiben die Frames wie festgenagelt um die 80-90. Da habe ich bisher noch keinen Slowdown erlebt seit dem letzten BF4 Update.
Wie gesagt spiele auf 1440p @ high preset aber selbst bei Tests unter Full HD und Ultra preset hatte ich zwischen 70 und 90 FPS, allerdings nur Shanghai mal getestet (außer beim Zoom im Panzer da geht dann das ganze runter bis 45).
Das mit dem Overdrive probiere ich mal aus, mittlerweile ist es so, dass ich beim ersten Start von BF4 immer die niedrigen Frameraten habe und erst nach einem Neustart alles so funktioniert wie es soll.
PS: Das er sich beim Rundenwechsel aufhängt hatte ich bisher zum Glück erst 1x. Mit welchem OS spielt ihr? Ich habe manchmal das Gefühl dass Mantle unter Win 7 64 besser läuft als unter WIn 8.
Screemer
2014-02-18, 10:56:29
ich hab mit mantle keinen rundenwechsel über standen. mit DX keine Probleme. wurde auch gern mit mantle daddeln, denn es fühlt wirklich viel geschmeidiger an.
Skysnake
2014-02-18, 11:03:41
Haste mal nen Framelimiter benutzt?
Kann sein, dass die Karte nicht ganz stabil ist und bei dem Anstieg der Framerate abschmiert.
Also gerade wenn du OC betreibst, würde ich mal auf STock gehen, oder halt nen Framelimiter einsetzen.
THEaaron
2014-02-18, 12:16:32
Ehrlich gesagt glaube ich das nicht. Mein System ist recht ähnlich, aber ich habe regelmäßig Slowdowns auf teilweise unter 40 FPS. Vor allem auf Operation Locker sind die Frameraten selten über 50 FPS.
Auf Locker habe ich mit die meisten FPS. Da läuft was falsch. ;)
Screemer
2014-02-18, 14:14:50
Haste mal nen Framelimiter benutzt?
Kann sein, dass die Karte nicht ganz stabil ist und bei dem Anstieg der Framerate abschmiert.
Also gerade wenn du OC betreibst, würde ich mal auf STock gehen, oder halt nen Framelimiter einsetzen.
welcher fps-limiter könnte denn mit mantle funktionieren? könnte der im rtss funktionieren? stick-takte bringen leider keine Besserung.
fondness
2014-02-18, 14:19:27
In-Game Frame-Limiter.
Screemer
2014-02-18, 15:13:32
ahh. sowas gibts. wusste ich nicht. werd ich gleich mal in meiner user.cfg tippen. danke.
GameTime.MaxVariableFps
Johnny Rico
2014-02-18, 18:59:57
Dann stimmt aber was nicht, gerade Operation Locker bleiben die Frames wie festgenagelt um die 80-90. Da habe ich bisher noch keinen Slowdown erlebt seit dem letzten BF4 Update.
Wie gesagt spiele auf 1440p @ high preset aber selbst bei Tests unter Full HD und Ultra preset hatte ich zwischen 70 und 90 FPS, allerdings nur Shanghai mal getestet (außer beim Zoom im Panzer da geht dann das ganze runter bis 45).
Das mit dem Overdrive probiere ich mal aus, mittlerweile ist es so, dass ich beim ersten Start von BF4 immer die niedrigen Frameraten habe und erst nach einem Neustart alles so funktioniert wie es soll.
PS: Das er sich beim Rundenwechsel aufhängt hatte ich bisher zum Glück erst 1x. Mit welchem OS spielt ihr? Ich habe manchmal das Gefühl dass Mantle unter Win 7 64 besser läuft als unter WIn 8.
Bei mir ist es im Moment 1 Server, wo die Mantle Frames bei 35-40fps liegen. Immer im roten Bereich und nach einer Weile kommt die Speicher voll Meldung.
Server details
Retro-Gaming Hardcore Ranked Server | 64 Slot | online Admins | Server protected by PB/PBScreens/GGC/Metabans | Teamspeak: bf-retrogaming.de pw: retro | Read our rules, play hard and play fair. www.bf-retrogaming.de
SERVER ADDRESS
37.157.248.56:27015
Gleiche Konfig, aber anderer Server(auch 64er) und es sind 120fps. wtf ist das. Total nachstellbar.
Flusher
2014-02-18, 19:16:00
Das kann aber eigentlich nur ein Bug sein. Ich habe zwar einen Haswell Xeon mit 3,7Ghz, auf Locker habe ich aber noch nie weniger als 80fps gesehen (80fps Limiter selbst gelegt)
Auf Locker habe ich mit die meisten FPS. Da läuft was falsch. ;)
Schräg - gerade auf Locker habe ich massive Einbrüche, was mich auch gewundert hat, da die Map schließlich nicht so dynamisch ist wie andere Maps, wie Paracel Storm. Ich habs bisher auf die aufwendigere Beleuchtung geschoben. Zockt ihr in Full-HD und vollen Details? MSAA?
Schnoesel
2014-02-18, 22:22:11
Also nochmal getestet, wenn meine Frames auf der Häfte sind ist mein VRam nicht runtergetaktet alles eigentlich normal nur eben die Hälfte der Frames. Bei mir hilft nur Neustart
dargo
2014-02-19, 00:01:34
Schräg - gerade auf Locker habe ich massive Einbrüche, was mich auch gewundert hat, da die Map schließlich nicht so dynamisch ist wie andere Maps, wie Paracel Storm. Ich habs bisher auf die aufwendigere Beleuchtung geschoben. Zockt ihr in Full-HD und vollen Details? MSAA?
Ich zocke momentan mit Full-HD ohne MSAA, dafür 125% Auflösung. Mit 4xMSAA gibts gelegentlich kurze Einbrüche. Da scheint es noch Probleme beim Speichermanagement zu geben (bei mir Tahiti). Probiere es einfach mal ohne MSAA aus. Das läuft hier zu 99% schön rund.
[LOG]Skar
2014-02-19, 10:57:11
Bei mir ist es im Moment 1 Server, wo die Mantle Frames bei 35-40fps liegen. Immer im roten Bereich und nach einer Weile kommt die Speicher voll Meldung.
Server details
Retro-Gaming Hardcore Ranked Server | 64 Slot | online Admins | Server protected by PB/PBScreens/GGC/Metabans | Teamspeak: bf-retrogaming.de pw: retro | Read our rules, play hard and play fair. www.bf-retrogaming.de
SERVER ADDRESS
37.157.248.56:27015
Gleiche Konfig, aber anderer Server(auch 64er) und es sind 120fps. wtf ist das. Total nachstellbar.
Das wäre ja was wenn es an Server liegt, auch wenn es erst mal nicht logisch klingt. BF4 macht es sicher möglich ;D
Gestern lief es auf jeden Fall mal wieder rund, nach einem Reboot aber nicht mehr. Könnte aber auch eine vorher gestartete andere D3D Anwendung gewesen sein.
soLofox
2014-02-19, 13:46:49
ja geil, gott sei dank ist meine kiste dann kein einzelfall.
gestern metro 2014 gezockt auf dem 3DC server.
30fps - festgenagelt?!
mit einem E3-1230v3 und R9 290@290X, ultra details @ 1080p.
kann doch nicht sein.
habe vsync an. zuerst dann 60fps ganz normal, sobald dann rauch kam auf einmal 30fps und dann geht er auch erstmal nicht höher, egal ob ich mich bewege oder so.
sehr komisch. nervt auch langsam etwas :)
mit 30 fps zocken is jetzt nich so geil X-D
Flusher
2014-02-19, 13:57:09
Ich zocke momentan mit Full-HD ohne MSAA, dafür 125% Auflösung. Mit 4xMSAA gibts gelegentlich kurze Einbrüche. Da scheint es noch Probleme beim Speichermanagement zu geben (bei mir Tahiti). Probiere es einfach mal ohne MSAA aus. Das läuft hier zu 99% schön rund.
Wieviel frisst den Downsampling an Leistung in BF4?
dargo
2014-02-19, 14:31:03
Wieviel frisst den Downsampling an Leistung in BF4?
Keine Ahnung, juckt mich auch nicht. Die Frames sind bei mir auf 80 festgenagelt, alles drüber wird ergo gekappt. Von daher habe ich da keinen Vergleich. Ich hatte nur kurz 150% Skalierung getestet und da gingen die Frames öfter Richtung 60fps, was mir dann etwas zu wenig war. Mit Tahiti wohlgemerkt.
blaidd
2014-02-19, 16:47:33
ja geil, gott sei dank ist meine kiste dann kein einzelfall. [..] 30fps - festgenagelt?! mit einem E3-1230v3 und R9 290@290X, ultra details @ 1080p. kann doch nicht sein. [...] sehr komisch. nervt auch langsam etwas :)
Starte die Kiste nachdem du in Battlefield warst mal neu und lösche die Cache-Dateien unter /Dokumente/Battlefield 4/cache.
Das Problem habe ich sowohl privat als auch beim Benchen ständig. Mante springt irgendwie nicht richtig an. Das ist definitv ein Bug, entweder im Treiber oder in BF4.
Nach dem Neustart läuft's bei mir normalerweise rund.
Iruwen
2014-02-19, 18:52:39
Was sie machen ist eindeutig einzelne Drawcalls für ein paar Dreiecke. Das ist schlicht absolut bescheuert mit DirectX und jeder weiß wie man es besser macht. Es ist nicht so als wäre das ein Geheimnis. Dann von "optimiert" zu reden ist einfach unehrlich.
Baker said that the Direct3D performance for the game absolutely outstanding. We have spent a huge amount of time optimising around D3D, and are biased in D3D's favor. “Mantle, on the other hand, we've spent far less time with and currently have only pretty basic optimizations. But Mantle is such an elegant API that it still dwarfs our D3D performance," Baker said.
http://www.fudzilla.com/home/item/33974-mantle-is-disruptive-technology
Passt dann jawohl nicht so ganz.
Rente
2014-02-19, 19:04:40
http://www.fudzilla.com/home/item/33974-mantle-is-disruptive-technology
Passt dann jawohl nicht so ganz.
Die Aussage ist schon ein paar Tage älter und ändert wenig an der Umsetzung in der Demo, genaueres wissen wir allerdings wohl erst wenn mal ein Spiel mit der Engine erscheint.
Schnoesel
2014-02-19, 20:00:29
Das Problem habe ich sowohl privat als auch beim Benchen ständig. Mante springt irgendwie nicht richtig an. Das ist definitv ein Bug, entweder im Treiber oder in BF4.
Nach dem Neustart läuft's bei mir normalerweise rund.
Genau das muss ich auch immer machen (Cache löschen ist aber nicht nötig bei mir) . Erst starten, dann stell ich fest dass ich zu wenig FPS habe, Neustart und dann funktioniert es ohne Probleme. Als hätte Mantle das erste mal einfach keine Lust. Nutze Win 7 64 bit.
Heute hatte ich gernerell nur die Hälfte der Frames (Heaven Bench, Valley Bench, CoH2) habe dann auch den Treiber neu installieren dürfen, jetzt ist wieder alles normal.
Wird Zeit dass die Fixes kommen. Ohne Mantle will ich schon gar nicht mehr BF4 zocken, so heftig ist der Unterschied.
foenfrisur
2014-02-19, 21:06:16
dann poste ich nochmal was sinnvolles hier :D
http://www.planet3dnow.de/cms/6751-amd-mantle/subpage-update-1-windows-8-1-leistungsaufnahme-effizienz-ursachenforschung/
http://www.planet3dnow.de/cms/6751-amd-mantle/subpage-update-1-windows-8-1-benchmarks/
die performance pro watt ist mit mantle gesteigert.
auch wird hier endlich mal gut zwischen win7 und 8.1 getestet.
leider fehlt eine intel-cpu.
mfg
Ohne die positiven Qualitäten dieses Tests schmälern zu wollen, "Gut" getestet ist es nicht so generell, da die Min-FPS als irgendwie wichtig dargestellt werden und sogar noch per Extra-Update überprüft. Macht mMn keinen Sinn, da als Einzelwert völlig arbiträr. Heute ist Frametime-Analyse angesagt, und im Fall von BF4 gilt es diese Spikes spezifisch zu berücksichtigen, die mit Cache-File, MSAA whatever zusammenhängen (können), statt einfach etwas zu sagen im Stil von "Min-FPS mit Win 7 auffällig niedrig".
dildo4u
2014-02-20, 13:56:26
Battlefield 4 Second Assault: Grafikkarten-Benchmarks - Mantle versus Direct3D, R9 290X versus GTX 780 Ti
http://www.pcgameshardware.de/Battlefield-4-PC-238749/Specials/Battlefield-4-Second-Assault-Benchmarks-1109970/
Nicht vergleichbar mit den PCGH Benches davor,da 3770k ohne OC statt 4770K@4.6Ghz.
Iruwen
2014-02-20, 14:08:37
Und immer noch Windows 7. Aus den Kommentaren:
http://extreme.pcgameshardware.de/quickpolls/303578-kommende-cpu-test-welches-betriebssystem-17.html#post5924465
Sven77
2014-02-20, 14:21:24
:facepalm:
dargo
2014-02-20, 15:16:31
:facepalm:
Du verstehst es immer noch nicht oder? Windows 7 ist am stärksten unter den Gamern verbreitet. Windows 8 ist da kaum der Rede wert, zumindest aus heutiger Sicht. Das ist der große Vorteil von Mantle. Man muss nicht auf Windows 8.1 umsteigen was mit mindestens ~80€ (OEM Vollversion) zu Buche schlägt.
Ich habe natürlich nichts gegen Benchmarks unter Win8.1. Einfach aus Interesse schon alleine. Das wird aber dennoch Usern mit Windows 7 nichts helfen. Kaum jemand steigt auf Windows 8 um wegen einem Spiel.
aufkrawall
2014-02-20, 15:22:00
Ich kenn mehrere, die das gemacht haben.
Und jetzt?
Ist doch bekannt,das Win 8 ein Flop ist - Marktanteile:Win7:60 % gegen Win8 20 %.
aufkrawall
2014-02-20, 15:24:14
Ihr verwechselt immer die allgemeine Marktsituation mit der Leserschaft bei PCGH oder hier.
fondness
2014-02-20, 15:28:55
Hm, bei Mantle gibt es keine Min-fps?
PCGH hat eine neuen Treiber?
Die im Video zitierten Werte entsprechen nicht der Realität. Es stellte sich bei einem Nachtest mit der (eigentlich langsameren) Referenz-R9-290X heraus, dass die Lüftersteuerung der Gigabyte Windforce beeinträchtigt wurde und damit nicht einmal ansatzweise die zu erwartenden Taktraten erreicht wurden. Dies wurde eventuell durch einen Bug des verwendeten und noch nicht offiziellen Catalyst 14.1 Beta 1.7 verursacht.
Auch im Diagramm steht Beta 1.7 nicht 1.6.
dargo
2014-02-20, 15:33:47
Ich kenn mehrere, die das gemacht haben.
Und jetzt?
Du und deine Kumpels/Bekannte seid jetzt natürlich repräsentativ für die Masse da draußen.
Ist doch bekannt,das Win 8 ein Flop ist - Marktanteile:Win7:60 % gegen Win8 20 %.
Die 20% sind viel zu hoch gegriffen.
Unicous
2014-02-20, 15:33:47
Ich kenn mehrere, die das gemacht haben.
Und jetzt?
Denen kann man dann auch nicht mehr helfen. Windows 8 ordentlich zu konfigurieren (auf einem Laptop meiner Schwester z.B.) ist ein Graus. Das Update auf 8.1 hat schon mal spontan nicht geklappt und dann STUNDEN gedauert. STUNDEN.
Da wünscht man sich manchmal, Apple wäre nicht genauso ein Kackverein, denn da klappt ein Upgrade/Update zumeist anstandslos. Alleine die Intel Grafiktreiber und dedicated Treiber zu installieren, hat mich mehrere Stunden gekostet, weil Dell/Windows 8 der Meinung war die Treiber nicht installieren zu müssen/können/dürfen.
Ich würde Windows 7 in den nächsten Jahren nicht missen wollen, solange MS weiterhin die "Poweruser" in den Popo poppt und die normalen Features nimmt und gibt wie sie lustig sind. Meine Schwester hat z.B. über sidebar immer ihre Programme und Apps aufgerufen über den Desktop. Bei 8.1. nicht mehr möglich, herausgeupdatet.
Und was hat das mit Mantle zu tun?
Na es funktioniert auch unter Windows 7.;D
Alle Features sind auch unter windows 7 verfügbar und scheren sich einen Dreck um Microsofts Segmentierung von Features. Windows 7 bekommt kein DX11.1 ...weil deswegen. Windows XP bekommt keinen IE 9 weil... keinen Bock. Kauft euch doch nen aktuelles Windows ihr kleinen (Geld-)Scheißerlein.
Windows 8.1. ist eine Seuche. Wegen einem! Spiel nochmal 70, 80 Euro ausgeben?;D
fondness
2014-02-20, 15:35:58
Und ja, unter Win 8.1 kommt eine GTX 780 Ti in Kombination mit einem sehr schnellen, übertaktetem (!) Prozessor nah an die Werte einer R9 290X unter Mantle mit dem im Test verwendeten Prozessor @ Standard-Takt heran.
http://extreme.pcgameshardware.de/battlefield/320585-battlefield-4-second-assault-grafikkarten-benchmarks-mantle-versus-dirextx-r9-290x-versus-gtx-780-ti-4.html#post6178874
Es braucht also auch unter Win8.1 deutlich mehr CPU-Leistung damit eine 780Ti an eine 290X mit Mantle ran kommt.
Windows 7 ist und bleibt wohl auch das beste Betriebssystem aller Zeiten :cool:
Sven77
2014-02-20, 15:46:00
Du und deine Kumpels/Bekannte seid jetzt natürlich repräsentativ für die Masse da draußen.
Die Masse hat eine 290X oder eine 780TI im Rechner? 53fps mit der TI auf Shanghai :ulol: da würde ich die Kiste auf die Strasse schmeissen ;D
Windows 7 ist und bleibt wohl auch das beste Betriebssystem aller Zeiten :cool:
Lass mich raten, du hast beruflich nichts mir Rechnern zu tun
dargo
2014-02-20, 15:52:16
Die Masse hat eine 290X oder eine 780TI im Rechner?
Was hat nochmal eine High-End Graka mit Mantle zu tun? Die minimalen Gewinne im GPU-Limit sind einfach nur ein kleiner Bonus den man mitnimmt. Mantle gibts ab sowas:
http://geizhals.de/?cat=gra16_512&xf=1440_HD+7730#xf_top
Und BF4 lässt sich problemlos mit einer ~100€ Grafikkarte dank Mantle spielen. Man muss halt paar Details runterschrauben. Zudem wird dank Mantle keine High-End CPU benötigt.
Sven77
2014-02-20, 15:54:45
Das ist ja alles schön und gut, das hat der Test der PCGH aber wohl nicht bezweckt.. da hat man die grossen Geschütze aufgefahren und entsprechend sollte man auch unter Idealbedingungen testen.. warum sollte ich also ein DX11.1 Spiel unter Windows 7 testen. Wegen der Verbreitung? So ein BS...
fondness
2014-02-20, 15:56:51
Mr Andersson wird auf der GDC weitere Details zur Mantle-Implementierung in Frostbite und zu zukünftigen Spielen sagen:
In this technical presentation Johan Andersson will show how the Frostbite 3 game engine is using the low-level graphics API Mantle to deliver significantly improved performance in Battlefield 4 on PC and future games from Electronic Arts. He will go through the work of bringing over an advanced existing engine to an entirely new graphics API, the benefits and concrete details of doing low-level rendering on PC and how it fits into the architecture and rendering systems of Frostbite. Advanced optimization techniques and topics such as parallel dispatch, GPU memory management, multi-GPU rendering, async compute & async DMA will be covered as well as sharing experiences of working with Mantle in general.
Rendering Battlefield 4 with Mantle (Presented by AMD) (http://schedule.gdconf.com/session-id/828212)
dargo
2014-02-20, 16:04:04
Das ist ja alles schön und gut, das hat der Test der PCGH aber wohl nicht bezweckt.. da hat man die grossen Geschütze aufgefahren und entsprechend sollte man auch unter Idealbedingungen testen.. warum sollte ich also ein DX11.1 Spiel unter Windows 7 testen. Wegen der Verbreitung? So ein BS...
Du hast offenbar große Schwierigkeiten aus einzelnen Tests die wichtigsten Hinweise abzuleiten. Das haben leider viele User. Wenn du eine ~100€ Graka verwendest gehts du automatisch in die Grafikoptionen und senkst die Grafikdetails damit die Frames nicht so absacken. Für alles @Ultra und 60fps wird bsw. sowas:
http://geizhals.de/asus-hd7790-dc2oc-1gd5-directcu-ii-oc-a923341.html
garantiert nicht reichen. Durch die Absenkung der Grafikdetails wird logischerweise zum größten Teil auch die GPU-Last abgesenkt. Du schiebst also alles wieder stärker Richtung CPU-Limit. Und das ist wieder die Spielwiese von Mantle. Man kann es drehen und wenden wie man will. Mantle ist auch ein großer Gewinn für schwächere Grafikkarten, es werden keine High-End GPUs benötigt! Bei schwächeren GPUs verwenden die Spieler in der Regel keinen stark übertakteten Haswell.
Sven77
2014-02-20, 16:07:10
Nur wurden bei dem Test keine 100Eur Grafikkarten verwendet, sondern die Platzhirsche..
dargo
2014-02-20, 16:18:19
Nur wurden bei dem Test keine 100Eur Grafikkarten verwendet, sondern die Platzhirsche..
Lese bitte meinen letzten Post genau durch und denke nochmal drüber nach. :) Das ganze Thema kann doch nicht so kompliziert sein oder etwa doch? :uponder: Manchmal wünsche ich mir einen Artikel zu Limits in Games, ich selbst habe aber keine Lust dazu. Ein kleiner Tipp am Rande... die PCGH (und meistens auch andere Reviewer) verwendet bei ihren Tests mit den High-End GPUs max. Details. Das sollte als Hinweis eigentlich reichen.
aufkrawall
2014-02-20, 16:22:23
http://extreme.pcgameshardware.de/battlefield/320585-battlefield-4-second-assault-grafikkarten-benchmarks-mantle-versus-dirextx-r9-290x-versus-gtx-780-ti-4.html#post6178874
Es braucht also auch unter Win8.1 deutlich mehr CPU-Leistung damit eine 780Ti an eine 290X mit Mantle ran kommt.
Behauptet der Herr Volontär einfach mal. Ich erinnere mich an eine ähnlich lapidare Behauptung von CB-Wolfgang und weiß auch noch, dass ich die als ziemlich daneben fand...
Ich werd mir nach den Flops mit den 290s vielleicht eine 780 bestellen, man muss offenbar alles selber machen. Was aber auch nichts daran ändert, dass mit ordentlich OCter Intel-CPU auf Win 8.1 & NV nicht das CPU-Limit das Problem ist. Mit AA oder 1440p erst recht nicht.
dargo, du nervst.
Iruwen
2014-02-20, 16:23:28
Du verstehst es immer noch nicht oder? Windows 7 ist am stärksten unter den Gamern verbreitet. Windows 8 ist da kaum der Rede wert, zumindest aus heutiger Sicht. Das ist der große Vorteil von Mantle. Man muss nicht auf Windows 8.1 umsteigen was mit mindestens ~80€ (OEM Vollversion) zu Buche schlägt.
Ich habe natürlich nichts gegen Benchmarks unter Win8.1. Einfach aus Interesse schon alleine. Das wird aber dennoch Usern mit Windows 7 nichts helfen. Kaum jemand steigt auf Windows 8 um wegen einem Spiel.
Du hast offenbar den verlinkten Beitrag nicht gelesen:
http://extreme.pcgameshardware.de/quickpolls/303578-kommende-cpu-test-welches-betriebssystem-17.html#post5924465
Bei GPU-Tests gilt das gleiche dann plötzlich nicht mehr? Und wenn man schon eine API die noch im Betastadium steckt testet sollte man das im Interesse aller unter optimalen Bedingungen tun. Zumindest als separaten Test hätte man den Unterschied zwischen Windows 7 und 8.1 erwähnen sollen, eine Windows Lizenz ist immer noch günstiger als eine Grafikkarte.
fondness
2014-02-20, 16:28:47
Behauptet der Herr Volontär einfach mal.
Er testet es laut eigenen Aussagen für das Heft.
MusicIsMyLife
2014-02-20, 16:41:07
Hm, bei Mantle gibt es keine Min-fps?
Bei Mantle gibt es natürlich Min-FPS. Allerdings muss man diese dank fehlender Tools erst "umständlich" aus den Ergebnisdateien ausrechnen.
Wobei man ja auch die Average-FPS aus den Dateien ausrechnet, da wären Min-FPS nur eine Formel mehr...
Behauptet der Herr Volontär einfach mal. Ich erinnere mich an eine ähnlich lapidare Behauptung von CB-Wolfgang und weiß auch noch, dass ich die als ziemlich daneben fand...
Ich werd mir nach den Flops mit den 290s vielleicht eine 780 bestellen, man muss offenbar alles selber machen. Was aber auch nichts daran ändert, dass mit ordentlich OCter Intel-CPU auf Win 8.1 & NV nicht das CPU-Limit das Problem ist. Mit AA oder 1440p erst recht nicht.
Ich habe am Montag Abend einen sehr kurzen Test mit meinem Titan-SLI (unübertaktet) gemacht. Sockel 2011, CPU mit 4,7 GHz, dazu DDR3-2400. Windows 7 x64 und Windows 8.1 x64 im Dual-Boot.
Ich war ausschließlich auf der Testrange unterwegs. Dort je 3x das gleiche gemacht und die Durchläufe gemittelt. Ergebnis: Windows 7 war sowohl in den Min- als auch Average-FPS etwas flotter. Minimum waren ~55 vs. 50, Average waren 107 vs. 103 FPS. Ich spiele in 2560x1600 mit 140 Prozent Scaling, dafür ohne Kantenglättung.
Allerdings hatte ich noch nicht den aktuellen WHQL-Treiber drauf, sondern einen früheren (332.21 ist das glaube ich). Den neuen WHQL will ich nach Möglichkeit heute Abend ausprobieren.
Für "richtigen" Multiplayer fehlt mir leider die Zeit.
aufkrawall
2014-02-20, 16:52:55
War das mit inoffiziellem PCIe 3.0? Das soll wohl mit mGPU schon mal problematisch sein.
Fürs CPU-Limit müsstest du mit dem Gespann ja einfach nur die Auflösunsskalierung auf 25% stellen. Das sollte auf Shanghai mit 8.1 deutlich schneller als mit 7 laufen. Tat es hier sowohl mit nem 2500k@4,8 als auch nem 4770k@4,4 + HTT. Letztere CPU hatte da sicherlich so gut wie durchgängig >120fps. Was Mantle da bei den GPU-Anforderungen unter realen Bedingungen noch reißen soll, ist mir schleierhaft. Im GPU-Limit haben die Radeons jedenfalls Aufholbedarf.
MusicIsMyLife
2014-02-20, 17:07:15
War das mit inoffiziellem PCIe 3.0? Das soll wohl mit mGPU schon mal problematisch sein.
Nein, ich nutze nur PCIe 2.0.
Wenn ich 3.0 nutze, dann habe ich im Combined-Test vom 3DMark FireStrike (Extreme) ganz kurze und regelmäßige Framedrops. Da man nicht ausschließen kann, dass das auch woanders auftritt, läuft halt nur 2.0.
Fürs CPU-Limit müsstest du mit dem Gespann ja einfach nur die Auflösunsskalierung auf 25% stellen. Das sollte auf Shanghai mit 8.1 deutlich schneller als mit 7 laufen.
Meinst du wirklich 25 %? Also ein Viertel meiner Auflösung? 640x400?
Ganz ehrlich gestellte Frage: Wozu das denn?
Mein Monitor stellt 2560x1600 dar, da ist es mir völlig egal, welches OS bei 640x400 schneller wäre. Ich will Battlefield und nicht Tetris spielen... Selbst wenn Windows 8.1 in 640x400 doppelt so schnell wie Windows 7 sein sollte - das mag vielleicht nice-to-know sein, einen Praxisbezug hat das aber nicht mehr. FullHD würde ich aufgrund der Marktdurchdringung noch einsehen, aber 640x400 ist praxisfern...
Und abseits dessen: Immer, wenn ich Windows 7 und Windows 8.1 bisher unter BF4 miteinander vergleichen habe, konnte ich gefühlt keinen Unterschied im realen Multiplayer feststellen. Beide Systeme gefühlt gleich schnell, gemessen ist Windows 7 bisher im Vorteil. Aber eben sehr knapp.
dargo
2014-02-20, 17:11:02
dargo, du nervst.
Ist das alles was du beizutragen hast? Du kannst es gerne übernehmen und versuchen anderen zu erklären.
Du hast offenbar den verlinkten Beitrag nicht gelesen:
http://extreme.pcgameshardware.de/quickpolls/303578-kommende-cpu-test-welches-betriebssystem-17.html#post5924465
Bei GPU-Tests gilt das gleiche dann plötzlich nicht mehr?
Verstehe nicht worauf du hinaus willst. Bitte um Erklärung.
Und wenn man schon eine API die noch im Betastadium steckt testet sollte man das im Interesse aller unter optimalen Bedingungen tun. Zumindest als separaten Test hätte man den Unterschied zwischen Windows 7 und 8.1 erwähnen sollen, eine Windows Lizenz ist immer noch günstiger als eine Grafikkarte.
Und was ist wenn man die Grafikkarte schon hat? Wir reden hier von ab GCN 1.0. Oder was ist wenn Spiel X Mantle unterstützt, aber kein DX11.1? Momentan habe ich keine Informationen dazu ob ein Spiel automatisch über DX11.0 hinausgeht wenn Mantle-Support geboten wird. Oder ist da schon was zu bekannt?
schreiber
2014-02-20, 17:16:00
Ich hab mit 4770k und einer GTX460 enorme Unterschiede zwischen Win7 und Win8.1 feststellen müssen, zugunsten von Win8.
Mal schauen, ob ich am Wochenende nochmal Win7 parallel draufknalle und mir das mit der 770er gebe.
aufkrawall
2014-02-20, 17:28:24
Ist das alles was du beizutragen hast? Du kannst es gerne übernehmen und versuchen anderen zu erklären.
"Beitragen" ist kein gutes Stichwort, denn deine "Ich bin so k-l-u-k"-Marotten verdienen diese Begrifflichkeit nun wirklich nicht. Poste lieber einfach gar nicht.
Meinst du wirklich 25 %? Also ein Viertel meiner Auflösung? 640x400?
Ganz ehrlich gestellte Frage: Wozu das denn?
D3D11.1 soll ja in erster Linie im CPU-Limit helfen, und genau das führst du so herbei.
Dass es bei dir (im GPU-Limit?) mit Win 7 schneller laufen soll, wundert mich. Das tut es hier mit besagten Systemen und GK104 definitiv nicht. Ich habe auch sonst noch nichts gehört, was darauf hindeuten würde.
MusicIsMyLife
2014-02-20, 17:36:21
D3D11.1 soll ja in erster Linie im CPU-Limit helfen, und genau das führst du so herbei.
Ja, schon klar. Aber so ein Setting ist für mich total praxisfern. Wie gesagt: Nice-to-know, mehr aber auch nicht.
Dass es bei dir (im GPU-Limit?) mit Win 7 schneller laufen soll, wundert mich. Das tut es hier mit besagten Systemen und GK104 definitiv nicht. Ich habe auch sonst noch nichts gehört, was darauf hindeuten würde.
GPU-Limit kann sein, da die Karten nicht übertaktet waren. Sonst laufen sie im Spiel mit 1202/1800, für den kurzen Test waren es fixe 876/1500 dank Modbios.
Mich persönlich wundert es ja auch, dass mein Windows 7 flotter ist. Ich habe sehr wohl die vielen Berichte von besserer Performance in BF4 unter Windows 8.1 zur Kenntnis genommen. Nur leider konnte ich das auf meinem Alltagssystem bisher nirgends in Zahlen feststellen.
Hinzu kommt noch, dass viele BF4-Spieler von unrundem Spielgefühl unter Windows 7 berichten. Das kann ich aber ebenfalls nicht bestätigen, da beide Betriebssysteme bei mir gleich rund laufen. Meine Vermutung geht daher in die Richtung, dass ich beim Einrichten meines Windows 7 irgendetwas anders gemacht habe als die meisten User, sodass mein Windows 7 rund läuft und deshalb auch nicht langsamer ist.
Aber erstens ist das nur eine Vermutung und zweitens wüsste ich nicht, was ich eben anders gemacht haben soll. Ich mache mir deshalb ja auch so meine Gedanken, bis hin zu der Überlegung, dass mein Windows 8.1 vielleicht nicht rund läuft. Doch das kann eigentlich auch nicht sein, da ich keinerlei Probleme damit habe. Alles so, wie es sein soll.
Ich weiß es auch nicht, kann aber nur das wiedergeben, was ich messen und spüren kann. Und da ist Windows 7 messtechnisch im leichten Vorteil, gefühlsmäßig sind beide gleich.
fondness
2014-02-20, 17:45:44
Also mit SLi sollte das eigentlich nicht so sein. Im Crossfire sind die Vorteile von Mantle enorm laut den Messungen von DICE. Was auch logisch ist, da bei derart schnellen GPUs natürlich auch häufig ein CPU-Limit eintritt.
Test case 3: High-end single-player with multiple GPUs
CPU: Intel Core i7-3970x Extreme, 12 logical cores @ 3.5 GHz
GPU: 2x AMD Radeon R9 290x 4 GB
Settings: 1080p ULTRA 4x MSAA
OS: Windows 8 64-bit
Level: South China Sea “Broken Flight Deck”
This single-player scene is heavy on both the CPU and GPU with lots of action going on. Test was done on the highest end Intel CPU on Windows 8, which is the fastest option before Mantle thanks to DirectX 11.1. Still this CPU is not fast enough to keep the 2 290x GPUs fed at 1080p on Ultra settings so we get a significant CPU performance bottleneck which results in major performance improvement when enabling Mantle.
Result: 13.24 ms/f -> = 8.38 ms/f = 58% faster
http://battlelog.battlefield.com/bf4/news/view/bf4-mantle-live/
dargo
2014-02-20, 17:59:51
"Beitragen" ist kein gutes Stichwort, denn deine "Ich bin so k-l-u-k"-Marotten verdienen diese Begrifflichkeit nun wirklich nicht. Poste lieber einfach gar nicht.
Du interpretierst da viel mehr hinein als dort steht. Wenn ich mit einfachsten Mitteln versuche was zu erklären, was stört dich genau daran? Oder kannst du nicht ertragen wenn jemand anderes als du recht hat? Ansonsten wie schon gesagt... du kannst es gerne übernehmen. Hast freie Bahn, nur zu. Ich bin schon auf deine Erklärungen zu Limits in Games und den Abhängigkeiten gespannt.
HarryHirsch
2014-02-20, 18:12:04
Also mit SLi sollte das eigentlich nicht so sein. Im Crossfire sind die Vorteile von Mantle enorm laut den Messungen von DICE. Was auch logisch ist, da bei derart schnellen GPUs natürlich auch häufig ein CPU-Limit eintritt.
http://battlelog.battlefield.com/bf4/news/view/bf4-mantle-live/
Kann ich bestätigen. Nur das bei mir die CPU mit 4.5 GHz taktet und die GPUs mit 1050/1375.
aufkrawall
2014-02-20, 18:24:49
Er spielt in 1600p mit AA. CPU-Limit dürfte da mit nem i7 und >=4,5Ghz auf Win 8.1 nicht viel ausmachen.
Ich hab den Eindruck, ihr überschätzt das wegen wegen Win 7- und Radeon only-Benchmarks etwas.
Schaffe89
2014-02-20, 18:35:58
Was soll der Kindergarten wieder?
Die alten Grabenkämpfe der Fanboys wiedermal aufgefrischt oder wie?
Nur mal ernsthaft:
Ich kenne keinen der Windows 8 zum Gamen nutzt.
Den grössten Anteil haben Noobs oder Casual Anwender die den Quatsch einfach so mit dem Notebook verkauft bekommen, insofern ist es okay, wenn die PCGH Benchmarks unter Windows 7 anfertigt.
Und profitieren tut man mit einer langsameren karte ( angenommen man hat eine 270 oder 270x, oder 260x) genauso wie mit einer High End GPU, ganz einfach weil jeder vernünftige Spieler um die 60 FPS will und nicht mit 20 FPS im GPU Limit spielen will und dann heißt das Stichwort eben Settings runterdrehen und schon ist man wieder im CPU Limit Bereich.
HarryHirsch
2014-02-20, 18:37:13
Ich hab nur die verlinkten Benches mit 1080P und 4x AA bestätigt, bevor wieder jemand kommt und sie als Marketing Müll abtut.
Ich Spiele in 1050P @ low was in 200FPS resultiert. Da wo DX11 wegen dem CPU-Limit auf bis zu 150FPS einbricht passiert mit Mantle garnix.
Unicous
2014-02-20, 19:04:45
Vllt. gibt es einen neuen Mantle-Kandidaten, nachdem Chris Roberts vor drei Tagen einen "Technologie-Austausch" mit den Kingdome Come: Deliverance Entwicklern verkündet hat?
https://robertsspaceindustries.com/comm-link/transmission/13577-Kickstarter-Kingdom-Come-Deliverance
Könnte natürlich auch nur um "schnöde" Engine-Tweaks handeln, Chris Roberts ist ja jetz auch nicht der enthusiastischste Mantle-Befürworter.:rolleyes:
dargo
2014-02-20, 19:08:22
Was soll der Kindergarten wieder?
Die alten Grabenkämpfe der Fanboys wiedermal aufgefrischt oder wie?
Weißt du was die Ironie dabei ist?
Vor nicht allzulanger Zeit (ca. 1-2 Jahre) haben noch bestimmte Personen hier nach DX9 Games geschriehen weil man so schön SGSSAA aufzwingen kann. Da wollten diese Personen (ich nenne jetzt keine Namen ;)) von DX10.x/11.x gar nichts wissen. Jetzt wo plötzlich sich ein Entwickler traut richtig hohe CPU-Last in seinem Game zu erzeugen (was zudem dank Mantle zeigt, dass selbst DX11.0 noch ziemlich ineffizient ist) schreit keiner mehr nach DX9. Nein... jetzt wird sogar DX11.1 als Mindestvoraussetzung angesehen. :freak:
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.