PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mantle - AMD Low-Level-API als Alternative zu DirectX


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26 27 28 29 30

aufkrawall
2014-03-23, 15:35:54
Richtig, du spekulierst wieder mal.

Abgesehen davon hat die dumme Origin-Sau irgendwie meine Savegames entsorgt, kann die Missionen nicht mehr frei anwählen.

Iruwen
2014-03-23, 15:43:24
Das ist das Wunder der Cloud, ist mir auch schon passiert. Einmal nicht aufgepasst...

dargo
2014-03-23, 16:21:14
Abgesehen davon hat die dumme Origin-Sau irgendwie meine Savegames entsorgt, kann die Missionen nicht mehr frei anwählen.
Keine Ausreden. ;)

Ich hab hier schon eine Szene mit perfekter Reproduzierbarkeit. Ist ziemlich am Anfang in Baku. Brauchst also gar nicht so weit zu laufen. Hast du einen Haswell?

Edit:
Da es hier zu OT damit wird. Hier gehts weiter.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=552042

dildo4u
2014-03-23, 16:45:40
Solange NV nur spielespezifisch auf Mantle-Spiele optimiert hat ein AMD-User keine Nachteile.

NV optimiert natürlich alle wichtigen Game's die anderen Beispiele hab ich ja grad erst gegeben.(Grid 2 und Bioshock)

Hier noch mehr aktuelle Beispiele alles reine DX11 Games ohne Mantle.
http://www.geforce.com/whats-new/articles/nvidia-geforce-334-89-whql-drivers-released

fondness
2014-03-23, 20:11:20
NV optimiert natürlich alle wichtigen Game's die anderen Beispiele hab ich ja grad erst gegeben.(Grid 2 und Bioshock)

Hier noch mehr aktuelle Beispiele alles reine DX11 Games ohne Mantle.
http://www.geforce.com/whats-new/articles/nvidia-geforce-334-89-whql-drivers-released

Das bezog sich auf die bessere Leistung im CPU-Limit wie unschwer zu erkennen war. Allerdings ist das IMO ohnehin nur D3D11.1 spezifisch. Ich wiederhole mich, unter anderen APIs konnte noch niemand einen Vorteil von NV im CPU-Limit nachweisen. AMD hat wohl die Ressourcen lieben in Mantle als in den D3D11.1-Treiber gesteckt, aber solange es außer BF4 keine Software gibt vollkommen irrelevant und wird man mittelfristig auch wieder aufholen.

captain_drink
2014-03-23, 20:17:46
Allerdings ist das IMO ohnehin nur D3D11.1 spezifisch. Ich wiederhole mich, unter anderen APIs konnte noch niemand einen Vorteil von NV im CPU-Limit nachweisen.

Bei Civilization V hat Fermi damals doch alles und jeden wegen der Multithreading-Implementierung im Treiber abgezogen, das war noch auf FL_11_0. Vgl. http://forums.anandtech.com/showpost.php?p=31520674

fondness
2014-03-23, 20:20:18
Naja das ist drei Jahre alt und kann heute schon wieder ganz anders aussehen. Gibt es dazu auch aktuelle Benchs?

Screemer
2014-03-23, 23:00:14
Naja das ist drei Jahre alt und kann heute schon wieder ganz anders aussehen. Gibt es dazu auch aktuelle Benchs?
zumindest vor gut einem Jahr war ne 7970 schneller als ne 580: www.anandtech.com/show/6934/choosing-a-gaming-cpu-single-multigpu-at-1440p/7.

[...]Multithreading-Implementierung im Treiber abgezogen, das war noch auf FL_11_0. Vgl. http://forums.anandtech.com/showpost.php?p=31520674was was in obigem benchmakr sogar auffällt ist, dass ein 2500k, mit nur vier thread, kombiniert mit einer 580 besser performt als in kombination mit allen 8 thread cpus.


und zur vorstellung der 780 sah es auch nicht so aus als würde eine 7970ge von ner 680 abgezogen: http://www.anandtech.com/show/6973/nvidia-geforce-gtx-780-review/14

waren die ersten Treffer halbwegs aktuellen treffer. dürfte aber spielend mehr zu finden sein.

DanyW
2014-03-23, 23:23:40
Offtopic, habs daher nachträglich gelöscht...;)

captain_drink
2014-03-23, 23:27:34
http://www.tomshardware.com/reviews/geforce-gtx-580-gf110-geforce-gtx-480,2781-10.html

Der Bench stammt noch aus VLIW-Zeiten und geht eher in die Richtung, die ich gemeint habe. Abziehen sieht natürlich trotzdem anders aus, das stimmt. In der von mir eben rausgekramten PCGH 6/11 ist dagegen von 115 fps für die GTX 570 und 67 FPS für die HD 6970 die Rede, wobei die Erstere ohne DX11-MT 85 FPS erzielt.

Bei Tahiti gg. GK104 sieht es wegen der höheren Computeleistung der Ersteren dann wieder besser für AMD aus: http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/17

Unicous
2014-03-23, 23:51:19
@DanyW

Problem ist, bis dahin wars ganz interessant gegenzulesen.

Von der Lebendigkeit einer Sprache über Volksgruppen hinweg oder vielleicht einer Form von Legasthenie (bzw. einem einfachen Schreibfehler) hin zu einer computer-/software-/technischen Betrachtungsschwäche zu schließen, ist aber genauso schwach. Also genausoweit weit hergeholt, aber was versucht man nicht alles? Im übrigen wäre es im Sinne der Legasthenie diskriminierend und könnte vielleicht zum Ausschluss führen. Nur mal so als Gedankengang.

http://bvl-legasthenie.de/sites/bvl-legasthenie.de/files/documents/file/Pressebeitrag_Juli_2011.pdf



Konnte leider nicht anders, Meinung von einem Maurer!

Unterstellst du mir hier gerade Diskriminierung? Wirklich? Legasthenie äußert sich zudem nicht indem man genau ein! Wort falsch schreibt und dann eine Silbe oder einen Buchstaben anhängt. Ich würde nie jemanden diskriminieren wenn er auch nur den Anschein einer LRS zeigen würde. Deine Unterstellung ist daher unter aller Sau. Ich weiß auch nicht was das für eine "computer-/software-/technischen Betrachtungsschwäche" ist, die du da herbeizauberst und du du dich überhaupt genötigt fühlst eine Abhandlung darüber zu schreiben. Wenn überhaupt kannst du das auch über eine PN regeln. Es ging um einen unnötigen Fehler, der zwar Mundart ist aber in der geschriebenen Sprache nicht vorkommt

Bei „ebend“ oder „ebent“ handelt es sich um eine regionale Aussprachevariante von eben (besonders Raum Berlin / Brandenburg) oder auch um eine scherzhaft falsche Aussprache, um dem Wort mehr Nachdruck zu verleihen. Im Schriftdeutschen gilt nur die Schreibweise „eben“ als korrekt.
http://www.korrekturen.de/beliebte_fehler/ebend.shtml


"Ich habe fertig"

DanyW
2014-03-24, 00:10:59
Offtopic, habs daher nachträglich gelöscht..;).

DanyW
2014-03-24, 12:51:14
Im Gegensatz zu AMD hat Nvidia nicht ihre Kunden monatelang mit beschissener D3D-Performance bis Mantle hingehalten bzw. verarscht.
Ist es nicht eher so, dass man die Performance nachgeliefert hat, würde bald behaupten die PCGHler haben sich damit schon beschäftigt?

http://www.pcgameshardware.de/Battlefield-4-PC-238749/Videos/Battlefield-4-Performance-DirectX-11-versus-DirectX-111-1108669/

Denke, die haben sich eher wegen dem dann zu engen Zeitplan, mehr auf Mantle konzentriert um den Launchtermin mit aller Gewalt einzuhalten. Etwas rigoros aber nachzuvollziehen um dieses "Paperlaunchgelaber" gering zu halten?

Die fps der 290x unter DX sollten nachgeliefert werden? Hat jemand das Heft der PCGH zu Hand? :weg:

Blediator16
2014-03-24, 13:16:35
Die Perf. der NV Karten war genauso beschissen bis Mantle rauskam. Das hat er dezent vergessen zu erwähnen :D

schreiber
2014-03-24, 13:31:22
Unter Windows8 war die Performance bei BF4 von Anfang an deutlich besser als bei Windows 7 bei nvidia. An der Windows7-Performance drehen sie jetzt wohl nachträglich. Aber das wars.

DanyW
2014-03-24, 13:35:32
Unter Windows8 war die Performance bei BF4 von Anfang an deutlich besser als bei Windows 7 bei nvidia. An der Windows7-Performance drehen sie jetzt wohl nachträglich. Aber das wars.
Was könnte man dort themenbedingt technologisch hinbiegen? Bzw. wie setzt man das auch für Windows 7 um?

Kartenlehrling
2014-03-24, 13:35:39
Grid 2.Das mit von AMD gebauten Techniken.(HDAO,Forward+Global Illumination etc)


Also wenn jemand Grid2 als vorzeige Spiel nimmt dann ist es Intel, aber bestimmt nicht AMD.

Nicht ohne grund gibts zwei Regeler in der Option die nur von Intels irisPro aktiviert werden kann.

Blediator16
2014-03-24, 13:45:49
Unter Windows8 war die Performance bei BF4 von Anfang an deutlich besser als bei Windows 7 bei nvidia. An der Windows7-Performance drehen sie jetzt wohl nachträglich. Aber das wars.

Dann hab ich wohl was verpasst. Wo kann ich das nachsehen, dass es von Anfang an so war.

DanyW
2014-03-24, 13:52:52
Dann hab ich wohl was verpasst. Wo kann ich das nachsehen, dass es von Anfang an so war.
http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Test-Benchmarks-Grafikkarten-1095050/
http://www.pcgameshardware.de/PCGH-Extreme-Forum-Brands-217997/News/BF4-Win-81-schneller-als-Win-7-Titanfall-Beta-angespielt-Arctic-Cooling-Hybrid-II-vorgestellt-heisse-Themen-im-Community-Wochenrueckblick-1109666/

Als Battlefield 4 noch offiziell in der Beta-Phase steckte, fielen uns bei Benchmark-Vergleichen auf, dass das Spiel auf Systemen mit Windows 8.1 etwas flüssiger als auf Setups mit Windows 7 läuft - natürlich nur dann, wenn die verbaute Hardware identisch ist. Ein erneuter Vergleich einige Wochen nach dem Release von Battlefield 4 hat abermals bestätigt: Windows 8.1 sorgt für eine höhere Leistung.

Woran liegt das?

derF
2014-03-24, 13:53:52
http://www.hardocp.com/article/2013/11/24/battlefield_4_windows_7_vs_81_performance_review/5
Are there gameplay experience advantages under Windows 8.1 versus Windows 7 in BF4? The answer is a, "Big YES."

und in der Beta wars auch schon so.

Und "der" Performanceschub bei nVidia D3D kam doch auch mit einem Spielpatch (zufällig der gleiche der Mantle implementiert hat, soweit ich mich erinnern kann) und nich mit einem Treiber.

DanyW
2014-03-24, 13:58:32
Und nich mit einem Treiber.
Ist die Frage, was die schon wussten bezüglich Mantle? Treiber kanns dann nicht gewesen sein.

Blediator16
2014-03-24, 14:40:22
http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Test-Benchmarks-Grafikkarten-1095050/
http://www.pcgameshardware.de/PCGH-Extreme-Forum-Brands-217997/News/BF4-Win-81-schneller-als-Win-7-Titanfall-Beta-angespielt-Arctic-Cooling-Hybrid-II-vorgestellt-heisse-Themen-im-Community-Wochenrueckblick-1109666/



Woran liegt das?

Wo ist da die Nvidia bitte so viel schneller unter DX als noch beim Mantle Test? Die sind hier unter win8.1 genau so schnell:freak:

DanyW
2014-03-24, 15:13:02
Wo ist da die Nvidia bitte so viel schneller unter DX als noch beim Mantle Test? Die sind hier unter win8.1 genau so schnell:freak:
Ich dachte es ging darum das "Win8 von Anfang an schneller als 7" ist. Die PCGH schreiben das jedenfalls. Mit Mantle hatten die Links nichts zu tun, sondern 7 vs 8 und vermeintlich gewachsene Perfomancevorteile für Nvidia. Oder was meinst du?

http://www.pcgameshardware.de/Battlefield-4-PC-238749/Specials/Battlefield-4-CPU-Test-Windows-8-1091767/ (war da noch dieser Bug relevant?).

Blediator16
2014-03-24, 15:25:38
Ich dachte es ging darum das "Win8 von Anfang an schneller als 7" ist. Die PCGH schreiben das jedenfalls. Mit Mantle hatten die Links nichts zu tun, sondern 7 vs 8 und vermeintlich gewachsene Perfomancevorteile für Nvidia. Oder was meinst du?

http://www.pcgameshardware.de/Battlefield-4-PC-238749/Specials/Battlefield-4-CPU-Test-Windows-8-1091767/ (war da noch dieser Bug relevant?).

Ja das war eher ausser Frage. Es gibt hier erstmal darum, dass Dildo meinte AMD hätte monatelang ne beschissene D3D Leistung bei BF4 abgeliefert. Dabei waren sie gleichauf und erst mit dem Mantlepatch wurde NV ebenfalls schneller. Nicht in dem Umfang wie AMD mit Mantle, aber ähnlich.

aufkrawall
2014-03-24, 15:56:10
Du irrst dich. Bestell dir die Hardware und überzeug dich selbst.

-/\-CruNcher-/\-
2014-03-24, 16:24:03
Also wenn jemand Grid2 als vorzeige Spiel nimmt dann ist es Intel, aber bestimmt nicht AMD.

Nicht ohne grund gibts zwei Regeler in der Option die nur von Intels irisPro aktiviert werden kann.

Grid 2 (Ego Engine) überrascht mich auch bombe wenn ich die Performance/Qualität auf Bay Trail sehe :)

HOT
2014-03-24, 16:46:41
Wenn 4GHz+ 4770er oder gar 4930er zum testen genommen werden hat man mit Mantle auch keine großen Vorteile bei BF4.

Loeschzwerg
2014-03-24, 16:47:49
Wurde das hier schon gepostet?

http://www.computerbase.de/2014-03/neues-zum-amd-catalyst-und-mantle-unter-linux/

Auch in Bezug auf AMDs eigene 3D-API Mantle gab es Neuigkeiten für Linux-Anwender auf der GDC 2014 zu vernehmen. Demnach erforscht AMD die Möglichkeit von Mantle unter Linux, hat derzeit aber noch keinen Code dazu geschrieben. Das Engagement für Mantle unter Linux sei eine Frage der Kapazitäten, bisher sei aber noch nichts spruchreif.

Damit die rückt die "flächendeckende" API erst einmal wieder ein gutes Stück in die Ferne.

aufkrawall
2014-03-24, 16:50:25
Wär eh Selbstmord. Man kann froh sein, wenn es OGL-Ports von AAA-Titeln gibt.

Blediator16
2014-03-24, 16:53:32
Wurde das hier schon gepostet?

http://www.computerbase.de/2014-03/neues-zum-amd-catalyst-und-mantle-unter-linux/



Damit die rückt die "flächendeckende" API erst einmal wieder ein gutes Stück in die Ferne.

Wenn es DX12 Ferne ist, dann haben die Leute damit ja wohl scheinbar keine Probleme. Wird ja bereits als Rettung propagiert :D

Unicous
2014-03-24, 16:54:58
@Loeschzwerg

Wenn man sich die Artikel von Phoronix anschaut sieht es sogar noch ein wenig düsterer aus. im Grunde genommen sagen sie zu allem, wir haben keine Kohle/freie Kapazitäten und Entwickler/Coder/Programmer/whatever-Stunden kosten Geld.

Kein Geld-> keine Dokumentation für Linux Treiber( det. change logs, kein Mantle, stockende Treiberentwicklung etc., keine Presse-Samples für Phoronix.

Schaffe89
2014-03-24, 17:18:48
Was treibt Nvidia eigentlich derzeit?

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-DirectX-11-Treiber-besser-als-AMDs-Mantle-1114673/

Was soll das bedeuten? Kann mir das jetzt jemand erklären?
Versucht Nvidia jetzt durch normale Treiberpflege und Benchmarks im GPU Limit die User darüber hinwegzutäuschen was Mantle bringt?

dargo
2014-03-24, 17:30:00
Was treibt Nvidia eigentlich derzeit?

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-DirectX-11-Treiber-besser-als-AMDs-Mantle-1114673/

Was soll das bedeuten? Kann mir das jetzt jemand erklären?
Versucht Nvidia jetzt durch normale Treiberpflege und Benchmarks im GPU Limit die User darüber hinwegzutäuschen was Mantle bringt?
Ist doch schon alt. :)

Und ja in Thief macht Nvidia das definitiv. Da wird entweder eine höhere Auflösung als 1600p verwendet oder SSAA hinzugeschaltet. In Star Swarm wirds schon etwas komplizierter. Das Problem am aktuellen Star Swarm... es ist 6 Minuten lang und ein sehr großer Teil der Demo liegt im sehr hohen fps-Bereich. Ergo gehe ich erstmal in diesen Szenen vom starken GPU-Limit aus. Um ganz auf Nummer sicher zu gehen müsste ich hier allerdings paar Gegentests anstellen. Mal schauen ob ich heute dazu Lust habe.

Edit:
;D ;D ;D

Netter Versuch von Nvidia die Leute zu veräppeln. Ein einziger Gegentest hat mir schon gereicht.

DirectX:
Star Swarm Demo mit Haswell @3,7Ghz 4C/8T, DDR3-1600, HD7970 @1050/1500Mhz = 30,18 avg.fps
Star Swarm Demo mit Haswell @2,0Ghz 4C/8T, DDR3-1600, HD7970 @1050/1500Mhz = 26,85 avg.fps

Ich denke dem ist nichts hinzuzufügen. :D

Loeschzwerg
2014-03-24, 17:40:33
Wär eh Selbstmord. Man kann froh sein, wenn es OGL-Ports von AAA-Titeln gibt.

Ja, wurde aber halt gerne als schlagendes Argument für Mantle und von einfachen Portierungen gesehen. Dürfte sich damit erledigt haben.

@Unicous: So sieht es leider aus. Viele gute Ideen von AMD scheiterten schon daran und ich habe wenig Hoffnung für TressFX und TrueAudio, denn diese Dinge benötigen ebenfalls viel Support seitens AMD. Momentan gilt die volle Aufmerksamkeit Mantle unter Windows und damit dürften die Ressourcen gut ausgeschöpft sein.

Zumindest bei TrueAudio würde ich mir eine breite Unterstützung wünschen und es ist auch der Punkt bei dem man noch am einfachsten Fortschritte erzielen kann.

Knuddelbearli
2014-03-24, 17:46:19
Einerseits würde AMD was anderes machen? Andererseits scheint NV der Arsch auf Grundeis zu gehen

Unicous
2014-03-24, 18:18:27
@Unicous: So sieht es leider aus. Viele gute Ideen von AMD scheiterten schon daran und ich habe wenig Hoffnung für TressFX und TrueAudio, denn diese Dinge benötigen ebenfalls viel Support seitens AMD. Momentan gilt die volle Aufmerksamkeit Mantle unter Windows und damit dürften die Ressourcen gut ausgeschöpft sein.

Zumindest bei TrueAudio würde ich mir eine breite Unterstützung wünschen und es ist auch der Punkt bei dem man noch am einfachsten Fortschritte erzielen kann.

Wie ich ja bereits vor ein paar Tagen herausgefunden habe, wird Lichdom neben True Audio auch TressFX nutzen und Anfang des Jahres wurde ja erst Version 2.0 vorgestellt.
Ob sich dann Hairworks oder Ähnliches durchsetzt ist völlig Wumpe Hauptsache es bleibt "offen" für alle IHVs.

True Audio hatte mal wieder einen beschissen Start, weil die Thief-Macher es nicht hinbekommen haben, etwas Sinnvolles damit zu veranstalten. Dennoch mache ich mir keine Sorgen. XO und PS4 haben auch Tensilica DSPs, AAA-Portierungen können also davon auch profitieren.

Je mehr Studios sich für Mantle interessieren, desto höher steigt auch die Wahrscheinlichkeit, dass jemand auch noch ein paar Code-Schnipsel zur Weiterentwicklung beiträgt. Nur weil AMD seine Ressourcen weit fächert, heißt das ja nicht, dass andere keine Ressourcen dafür zur Verfügung stellen wollen. Siehe DICE, die ja auch ganz heiß darauf sind. Und siehe Crytek die nicht nur auf Linux portieren, sondern auch Mantle offiziell unterstützen.

Viele Ideen von AMD scheiterten nicht nur an der Kohle und AMDs geteilter Aufmerksamkeit, sie scheiterten auch an Intel, Nvidia, Microsoft und Co. Aber da dürfen die sich alle in einen Kreis setzten und gegenseitig an die Nase fassen.


Ich habe auch gerade in einer PM gelesen, dass AMD die ganzen Source Codes verteilt.

Open Source Versus The “Black Box”

“We have our AMD Gaming Evolved program, and we make code like TressFX available to developers, so they get the source code,” Skynner explains. “It gives them the power in their hands to create experiences. Our competition has more of a ‘black box’ method of doing that. We think that open exchange between ourselves and ISVs [independent software vendors] helps us all learn and adapt and expand what we can do.”

“Another example is the variable refresh technology [G-Sync] that’s been announced. We have a different approach [that] doesn’t require proprietary hardware. It’s free of charge essentially.”

By the way, Free-Sync is a technology AMD isn’t quite ready to debut publicly, but they’ve promised to give me a closer look and explain the technology in depth over the next few weeks.
http://www.forbes.com/sites/jasonevangelho/2014/03/19/exclusive-amds-matt-skynner-talks-new-crytek-partnership-mantles-beacon-of-leadership/

Und anscheinend wollen sie in den kommenden Wochen auch noch etwas mehr über FreeSync berichten.
Wenn also AMD vllt. ein nettes Paket für die Developer schnürt, ähnlich vllt. Nvidia GameWorks, können die das genauso in ihre Projekte einbringen. Das ist natürlich Spekulation meinerseits, aber der Kommentar von Skinner lässt das meines Erachtens schon zu.

DanyW
2014-03-24, 18:40:57
Viele Ideen von AMD scheiterten nicht nur an der Kohle und AMDs geteilter Aufmerksamkeit, sie scheiterten auch an Intel, Nvidia, Microsoft und Co.
Ahja, eigentlich scheitert die Umsetzung der eigenen Ideen an einem selbst oder sind nicht so umsetzbar wie man sich das vorstellt. Andere dafür verantwortlich zu machen wäre sicherlich möglich wenn sich absolute Monopole dahinter verbergen, aber obs so ist:

http://www.pcgameshardware.de/Komplett-PC-Hardware-217554/News/AMD-will-bald-keine-High-End-Prozessoren-mehr-bauen-Das-kann-ich-einfach-nicht-glauben-Die-PCGH-Redaktionskolumne-1020402/

"Das Gerücht um den Entwicklungsstopp von AMDs High-End-CPUs hat im PCGH-Forum und sicher auch in anderen Foren hohe Wellen geschlagen. Ich selbst war sehr erschrocken, als ich die erste Meldung dazu gelesen habe. Denn ich setze seit 1998 Prozessoren von AMD ein. Angefangen habe ich mit dem K6-2 im Jahr 1998, darauf folgte ein Duron Mitte 2000 und schließlich ein Athlon 64. Die AMD-Serie wurde durch eine kurze Intel-Phase unterbrochen, aber inzwischen wird mein Spiele-PC seit einigen Jahren wieder von einer AMD-CPU angetrieben - genauer: von einem AMD Phenom II X6 1090T. Ich empfinde die sechs Kerne als sehr nützlich, gerade wenn man mehrere Tasks im Hintergrund laufen lässt.

Ich persönlich will also nicht an dieses Gerücht glauben. Hinzu kommt, dass AMD sowieso leistungsstarke Prozessoren für den Server-Markt entwickeln muss und diese Einnahmequelle sicher nicht fallen lässt. Der Entwicklungsschritt von der Server-CPUs zum Desktop-Pendant ist klein. Allerdings hat AMD auch APUs für den Servermarkt angekündigt, das könnte das Gerücht um den Entwicklungsstopp befeuern. Hier kann ich aber auch nur spekulieren: Ob die kommenden APUs ausreichend Leistung für Server liefern werden und ob AMDs Kunden diese dann auch kaufen wollen, wird erst die Zukunft zeigen.

Manchmal ist es auch einfach nur eine blöde Idee oder der Markt einfach noch nicht reif und will es zudem garnicht. Aber ich will mich da nicht zu weit aus dem Fenster lehnen. :rolleyes:

Man kann so sicherlich auch Ressourcen und viel Geld an einem solchen Ideenpool verpulvern. Natürlich muss man sehen wo und wie man in welchem Markt bleibt, das ist klar. Da kann man sich auch mal vertun.

Unicous
2014-03-24, 18:53:49
Ähm, ja danke für diesen philosophischen Beitrag.

Ist zwar jetzt weit hergeholt, aber Galileo Galilei hatte auch ne tolle Idee. Ich denke wir wissen alle was aus ihm geworden ist.

Es ist leider nicht immer so einfach wie du es darstellst. Man ist nicht "immer" für das eigene Versagen verantwortlich. Ich wüsste auch nicht, was ein random PCGH-Artikel ohne Link jetzt zum Thema beiträgt, indem es um AMDs Prozessorstrategie geht. Mantle läuft unabhängig vom verwendeten (x86)-Prozessor, daher sehe ich hier nicht den Zusammenhang.

Und natürlich ist man auch oft höchst selbst schuld. AMD haut viele gute Ideen heraus und die verpuffen, weil dann eben nichts Substantielles kommt oder sie keine Kohle reinpumpen. Weil sie keine Kohle haben.
Wenn AMD Kohle übrige hätte, würden sie sicherlich auch Nvidia mehr Paroli bieten, wenn es um proprietär vs. offener Standard geht.
FreeSync ist ja auch so ein Sache. Da wird gesagt, hier geht doch auch ohne zusätzliche Hardware. Aber es folgt dann nichts. (Der Forbes-Artikel behauptet ja, da komme was in den kommenden Wochen.)
Aber das ist dann auch wieder nicht genug. Bei Mantle klotzen sie eigentlich ordentlich ran. Da wird PR und Marketing-Geld in die Hand genommen usw.
Die Prioritäten die AMD setzt sind eben undurchsichtig zumal sie ja immer noch in einer kompletten Unternehmensumstrukturierung stecken.

DanyW
2014-03-24, 19:07:59
Mantle ist der richtige Schritt zu, auf den Markt den man bedienen kann, würde "ich" behaupten und den man jetzt auch braucht um Aufmerksamkeit zu erlangen. Dann muss man sich aber auch im Klaren sein, dass man damit Riesen weckt. Das tapfere Schneiderlein (um den philosphischen Gedanken weiterzuführen) war witzig genug.

AMD eine Zeit lang eben nicht. Wenn man ein Unternehmen von etwa 7,xmrd. Marktwert auf 2,6mrd drückt hat man kein Geld. Vielleicht waren da ja auch viele blöde Ideen daran Schuld, für die niemand etwas kann. Und der Absatzmarkt natürlich auch (also die Kundschaft die die Ideen mittragen muss), aber unter dem Verlust leiden alle.

Wir machen kein Highend mehr!
Wir konzentrieren uns auf andere Märkte! etc. etc.

Mantle ist hoffentlich was anderes und richtig so. Es braucht wie TrueAudio Zeit die man jetzt nicht mehr hat. Das war aber vorher klar, deshalb sollte man dann nicht in Diskussionen versuchen, bei anderen zu suchen oder diese verantwortlich machen, sondern muss ranklotzen. Hast'e ja selbst geschrieben. AMDs Position hat sich seit Jahren nicht verändert. Vielleicht hat man zu lange an etwas festgehalten das nicht existent ist, oder nicht mehr existiert.

Zu der PR Abteilung sage ich nichts, aber auch das muss reifen...bei dem Rest dito, ich finds nur blöd wenn man andere verantwortlich machen will. Mehr wollte ich nicht sagen.

So jetzt lass ich euch mit dem Thema wieder allein. :)

Schaffe89
2014-03-24, 19:10:22
Netter Versuch von Nvidia die Leute zu veräppeln. Ein einziger Gegentest hat mir schon gereicht.

DirectX:
Star Swarm Demo mit Haswell @3,7Ghz 4C/8T, DDR3-1600, HD7970 @1050/1500Mhz = 30,18 avg.fps
Star Swarm Demo mit Haswell @2,0Ghz 4C/8T, DDR3-1600, HD7970 @1050/1500Mhz = 26,85 avg.fps

Ich denke dem ist nichts hinzuzufügen.

Daraus schließt du jetzt was und inwiefern?

aufkrawall
2014-03-24, 19:15:58
Er denkt halt, dass hauptsächlich ein GPU-Limit vorliegt.
Ich wär mir aber nicht so sicher, ob durch krasse Overhead-Limitierung die CPU-Leistung linear steigen muss.

drum02
2014-03-24, 19:25:32
Was treibt Nvidia eigentlich derzeit?

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-DirectX-11-Treiber-besser-als-AMDs-Mantle-1114673/

Was soll das bedeuten? Kann mir das jetzt jemand erklären?
Versucht Nvidia jetzt durch normale Treiberpflege und Benchmarks im GPU Limit die User darüber hinwegzutäuschen was Mantle bringt?

Sieh an sieh an...was denn nun plötzlich alles möglich wäre, sogar ohne Low Level API und DX12...Sachen gibts. Schade nur dass immer erst der Underdog aufzeigen muss, was möglich wäre.

dargo
2014-03-24, 19:29:26
Daraus schließt du jetzt was und inwiefern?
85% mehr CPU-Takt schlagen über die gesamten 6 Minuten im Durchschnitt mit lächerlichen 12% mehr Frames durch, ergo hochgradig gpu-limitiert. Gut... ich hätte natürlich bei den 2Ghz CPU-Takt auch die Speicherbandbreite entsprechend senken sollen. Das wird aber nicht viel ändern. Ob da jetzt 12% oder 15% durchschlagen ist bei dem hohen Taktunterschied auch egal. Ich würde allerdings Star Swarm nicht als einen Benchmark empfehlen wenn es um exakte Reproduzierbarkeit geht. Die einzelnen Abläufe scheinen nicht immer exakt gleich stattzufinden. Eine andere Schlussfolgerung ist leider nicht drin wenn ich mit Mantle einmal 47,x avg.fps und einmal 44,x avg.fps mit gleichen Hardwaresettings sehe.

Was ich auch merkwürdig finde... ich erreiche mit einer HD7970GE 30 avg.fps. Wie kann dann laut der Nvidia-Folie eine R9 290X nur ~31 avg.fps erreichen? Das ergibt irgendwie keinen Sinn. Könnte das einer freundlicherweise mit seiner R9 290X @Standard unter DirectX überprüfen? Am besten wäre es natürlich mit ähnlicher CPU wie meiner.

Er denkt halt, dass hauptsächlich ein GPU-Limit vorliegt.
Ich wär mir aber nicht so sicher, ob durch krasse Overhead-Limitierung die CPU-Leistung linear steigen muss.
Mach doch einfach einen simplen Test. Jage dein System mit der einen GTX670 durch Star Swarm durch und nenne mir den tiefsten Framewert den du während der gesamten Demo siehst.

aufkrawall
2014-03-24, 19:30:46
Wo steht denn, um welche Art Run es sich handelt?

Unicous
2014-03-24, 19:34:26
Was macht ihr euch denn über Nvidias Marketing Folien so einen Kopf?

Wir wissen so gut wie nichts über das Test-System, den AMD Treiber (ein Schelm der die Nutzung des 14.1. unterstellt:rolleyes:). Es wurde unter Windows 7 getestet, warum auch immer. Sonst ist Nvidia immer darauf bedacht, festzustellen, was sie für Fortschritte unter Win 8.x gemacht haben. Das ist das Gleiche wie bei AMD.

Einfach das Gebluber links liegen lassen. Schon schlimm genug, dass Nvidia damit einige "Fachmagazine" geködert hat, die das relativ unreflektiert wiedergeben.


edit:

Sie haben anscheinend den 14.2 genommen. War wohl keine Zeit mehr, den neuen, mittlerweile 6 Tage alten Treiber zu testen. ;)

DanyW
2014-03-24, 19:38:55
Geblubber...:deal:!

N0Thing
2014-03-24, 19:41:31
Ist zwar jetzt weit hergeholt, aber Galileo Galilei hatte auch ne tolle Idee. Ich denke wir wissen alle was aus ihm geworden ist.

Ja, das ist so weit hergeholt, daß nicht mal klar wird, was du mit dieser Analogie überhaupt aussagen willst. :D

dargo
2014-03-24, 19:41:49
Wo steht denn, um welche Art Run es sich handelt?
Also ich verwende die Standard-Settings.
48289

Ich gehe jetzt mal davon aus, dass NV das gleiche tut. Alles andere wäre ziemlich sinnfrei.

Unicous
2014-03-24, 19:49:06
Ja, das ist so weit hergeholt, daß nicht mal klar wird, was du mit dieser Analogie überhaupt aussagen willst. :D


Es geht es darum, dass eine Institution o.ä. mit Macht einen richtigen Gedanken im Keim ersticken kann.

Demirug
2014-03-24, 19:54:56
Ich gehe jetzt mal davon aus, dass NV das gleiche tut. Alles andere wäre ziemlich sinnfrei.

Es werden grundsätzlich die Settings benutzt wo man selbst am besten dasteht. Das sollte doch inzwischen jeder wissen. Und genau diese Settings werden dann auch im Review Guide vorgeschlagen. Das macht aber grundsätzlich jeder so.

Jetzt mal ab von Star Swarm und Thief. Der Vergleich zwischen den einzelnen DX Calls ist IMHO viel interessanter. Dafür könnte man wahrscheinlich auch noch relativ einfach einen Benchmark zusammen zimmern um das mal zu überprüfen.

Über Faktor 8 bei einem Drawcall gegenüber dem Catalyst ist schon eine Ansage. Möglicherweise wird hier massives offloading auf einen zweiten Thread betrieben. Ich bin gerade am überlegen ob man sich da irgendwo einhängen kann um das zu überprüfen.

DanyW
2014-03-24, 20:00:18
Es geht es darum, dass eine Institution o.ä. mit Macht einen richtigen Gedanken im Keim ersticken kann.
Also nee, dass liest sich jetzt nicht nur blöd, sondern ist auch Schwachsinn. Welche Institution sollte das sein? Die DX 12 Entwicklung in der AMD jetzt nach Mantleerscheinen und auch vorher eng eingebunden war und ist, die Kronosgroup? Oder die eigene schleppende Entwicklung von Linuxtreibern. Das Fallenlassen vom weitreichenden Opensourcegedanken? Das willentliche Aufgeben von wichtigen Marktsegmenten zugunsten der APU-Entwicklung, in der AMD Fahrt aufgenommen hat, jetzt langsam Fortschritte verzeichen kann (Dank der Konsolendeal's), aber eben noch der wirkliche gewinnträchtige Umsatz fehlt, bzw. die Prognosen etwas überschwenglich euphorisch ausgedrückt wurden.

Der Ideenpool bei AMD ist genauso lebhaft und facettenreich existent wie bei anderen Firmen, es ist was das Management draus macht. Der Ing hat Ideen genug. Da gibt es in Entwicklungsabteilungen keine Institution die das verhindern würde und könnte, sondern das nennt sich "Buget".

Galileo, überleg mal was daraus geworden ist...! Wenn wir das in einer technologischen Diskussion interpretieren, ein riesen Ding. Obwohls hier garnicht her gehört. Hat aber lange gedauert weil keiner zuhören wollte, weil der Anstoss gefehlt hat.

blaidd
2014-03-24, 20:01:38
Was ich auch merkwürdig finde... ich erreiche mit einer HD7970GE 30 avg.fps. Wie kann dann laut der Nvidia-Folie eine R9 290X nur ~31 avg.fps erreichen? Das ergibt irgendwie keinen Sinn. Könnte das einer freundlicherweise mit seiner R9 290X @Standard unter DirectX überprüfen? Am besten wäre es natürlich mit ähnlicher CPU wie meiner.

Mach doch einfach einen simplen Test. Jage dein System mit der einen GTX670 durch Star Swarm durch und nenne mir den tiefsten Framewert den du während der gesamten Demo siehst.

Die Folie ist praktisch wertlos. Da stehen keine näheren Informationen zum System oder gar den Settings. Nvidia hätte z.B. auch das Temporal-AA von Starswarm abschalten (frisst unter DX11 deutlich mehr Leistung als unter Mantle) und in 4K oder 3 x 4K oder was weiß ich benchen können. Dann limitiert auch in Starswarm wahrscheinlich die GPU.

Thief wurde jedenfalls schon mal ziemlich sicher nicht in 1080p gemessen (Frameraten zu niedrig).

Jetzt mal ab von Star Swarm und Thief. Der Vergleich zwischen den einzelnen DX Calls ist IMHO viel interessanter. Dafür könnte man wahrscheinlich auch noch relativ einfach einen Benchmark zusammen zimmern um das mal zu überprüfen.

Über Faktor 8 bei einem Drawcall gegenüber dem Catalyst ist schon eine Ansage. Möglicherweise wird hier massives offloading auf einen zweiten Thread betrieben. Ich bin gerade am überlegen ob man sich da irgendwo einhängen kann um das zu überprüfen.

Yay! :up: Da wär ich absolut dafür.

dargo
2014-03-24, 20:11:47
Es werden grundsätzlich die Settings benutzt wo man selbst am besten dasteht. Das sollte doch inzwischen jeder wissen. Und genau diese Settings werden dann auch im Review Guide vorgeschlagen. Das macht aber grundsätzlich jeder so.

Du meinst also NV würde noch nicht mal das Preset Extreme verwenden sondern ein anderes? Für wie dämlich hält NV eigentlich die User? :|

Nur mal so als Info am Rande... mit 2Ghz an der CPU hatte ich ja @Extreme 26,85 avg.fps, mit dem Preset Low sind es 80,xx avg.fps.

Die Folie ist praktisch wertlos. Da stehen keine näheren Informationen zum System oder gar den Settings.

Ein paar Infos gibt es ja... i7-3930K, 8GB Ram und Win7 x64. Zu Settings fehlt leider alles.


Nvidia hätte z.B. auch das Temporal-AA von Starswarm abschalten (frisst unter DX11 deutlich mehr Leistung als unter Mantle) und in 4K oder 3 x 4K oder was weiß ich benchen können. Dann limitiert auch in Starswarm wahrscheinlich die GPU.

Du wirst lachen. Nicht nur Full-HD ist schon hochgradig über die 6 Minuten gpu-limitiert. Nein... selbst mit dem Preset @Low (da wird zusätzlich in nur 720p gerendert) ist dies der Fall über die gesamten 6 Minuten. Es gibt nur einzelne Szenen im Benchmark die extrem an der CPU hängen. Durch die lange Benchdauer wird das aber schön dank der Glättung bei den avgs. kaschiert. Ich sag nur @2Ghz und DX min. 5,xxfps... max. ~80fps. Das ist eine riesen Framespanne wo Limits völlig in die eine und andere Richtung ausschlagen können.


Thief wurde jedenfalls schon mal ziemlich sicher nicht in 1080p gemessen (Frameraten zu niedrig).

Weiß ich... dadurch, dass der intergrierter Benchmark verwendet wird (anders lässt sich Mantle nicht benchmarken) kann man gut mit anderen Reviews vergleichen.

Unicous
2014-03-24, 20:14:40
@DanyW

Ich weiß ja nicht, ob du immer nur die Hälfte eines Posts liest und dann auf die Teile antwortest, die du blöd oder schwachsinnig hälst, wenn du aber meinen vorherigen Post nochmals liest und nur für dich schreibe ich Gebluber nochmals mit einem b (Flüchtigkeitsfehler prangere ich übrigens nicht an:rolleyes:). Deine persönliche Rechtsschreibfehde mit mir tut hier nichts zur Sache.

Nur für dich zitiere ich mich nochmals:

Viele Ideen von AMD scheiterten nicht nur an der Kohle und AMDs geteilter Aufmerksamkeit, sie scheiterten auch an Intel, Nvidia, Microsoft und Co. Aber da dürfen die sich alle in einen Kreis setzten und gegenseitig an die Nase fassen.

Jeder hat sein Päckchen zu schleppen. Auch AMD hat schon Sachen torpediert wo man sich nur an den Kopf fassen kann. Keiner der Beteiligten ist unschuldig. Das war alles was ich sagen wollte. Traurig dass du dich an solchen Sachen aufhängst.

N0Thing
2014-03-24, 20:16:47
Es geht es darum, dass eine Institution o.ä. mit Macht einen richtigen Gedanken im Keim ersticken kann.

Ist bei Galileo Galilei nur nicht der Fall gewesen, ihm wurde unter anderem durch seine Freundschaft zu Urban VIII. mehr zugestanden als anderen Philosophen seiner Zeit, sein Modell wurde nicht verboten, sonder die Bitte geäußert, es als Theorie neben das bestehenden Weltbild zu stellen. Obwohl öffentlich in einer weiteren Schrift Urban VIII. als Dummkopf dargestellt hat, war sein folgender Hausarrest im Vergleich zu dem, was z.B. heute in China, oder damals in Rom/Italien ein Hausarrest bedeutet der reinste Urlaub. ;)

Sorry für OT, mich stört es einfach, wenn Galileo Galilei in einem Kontext benutzt wird, der nicht zutreffend ist.

Unicous
2014-03-24, 20:18:26
Gut dann nimm halt Giordano Bruno, wenn du es ein wenig drastischer brauchst.:rolleyes:

Entschuldige. Nächstens benutze ich dann eine Auto-Analogie falls dich das mehr anspricht.

DanyW
2014-03-24, 20:18:51
Ich bin gerade am überlegen ob man sich da irgendwo einhängen kann um das zu überprüfen.

Hatte Nvidia nicht gebenüber der Presse vom möglichen Faktor 9-10 vs Faktor 8 bei Mantle gesprochen? Oder war das unter openGL..? Auf das unabhängige Testergebnis wäre ich gespannt. Herstellerpräsentationsfolien sind ja immer auf das visuelle Wahrnehmungsoptimum reduziert, ist eben auch viel PR dabei, was nicht passt naja, darüber kann man später reden.

PS: Ja, war wohl openGL gemeint, aber sogar über Faktor 10...http://www.golem.de/news/mantle-api-direct3d-und-opengl-sollen-viel-schneller-werden-1402-104860.html

DanyW
2014-03-24, 20:21:13
@DanyW
Geblubber. Darauf antworte ich nicht mehr. Man wirft nicht mit Steinen wenn man im Glashaus sitzt. Wir sind alle Menschen. Fehler passieren, AMD, Intel, Nvidia, dir und mir und auch anderen.

N0Thing
2014-03-24, 20:23:56
Gut dann nimm halt Giordano Bruno, wenn du es ein wenig drastischer brauchst.:rolleyes:

Entschuldige. Nächstens benutze ich dann eine Auto-Analogie falls dich das mehr anspricht.

Lieber wäre mir gar keine Analogie, immerhin hast du nicht verstanden, warum ich mir überhaupt die Mühe gemacht habe, den Text zu verfassen. Also lassen wir es lieber, da freuen sich auch die anderen Leser dieses Threads.

Lord_X
2014-03-24, 20:31:49
Nvidia setzt auf effizienteres DirectX 11 statt Mantle

http://pics.computerbase.de/5/6/2/9/7/5.png

http://www.computerbase.de/2014-03/nvidia-setzt-auf-effizienteres-directx-11-statt-mantle/

Unicous
2014-03-24, 20:34:28
Geblubber. Darauf antworte ich nicht mehr. Man wirft nicht mit Steinen wenn man im Glashaus sitzt. Wir sind alle Menschen. Fehler passieren, AMD, Intel, Nvidia, dir und mir und auch anderen.

Wie oft willst du das denn jetzt noch editieren?

DanyW
2014-03-24, 20:36:23
Nvidia setzt auf effizienteres DirectX 11 statt Mantle
Ja schon bekannt @dildo4u #4949 dieser Thread S.248 ...;)

aufkrawall
2014-03-24, 20:37:39
Muss dieser Unicous denn wirklich jeden Fred mit seinem persönlichen Müll vollspammen...

Unicous
2014-03-24, 20:38:52
Muss dieser Unicous denn wirklich jeden Fred mit seinem persönlichen Müll vollspammen...

Einfach melden, diesen Spinner.

Knuddelbearli
2014-03-24, 20:41:07
wie oft wollt ihr den Mist noch posten? bist jetzt mindestens der 4te eher schon der 5te ...
Und das das massivstes Cherry Picking ist sieht man ja schön an Thief.

1.) Ist Mantle Effekt mit Treiber nicht möglich ( Der "Fehler" liegt bei der API da kann der Treiber machen was er will )
2.) Es ist NV ( Ja Ok bei Intel und AMD wäre es das selbe aber bei NV fallen die Leute halt immer auf die PR rein bei den anderen ist das nicht so extrem )
3.) Massivstes Cherry Picking siehe Thief, und das da auf einmal nut Mantle ist und kein AMD Dx Balken. Dann würde es halt noch extremer auffallen. Dazu ist auch Star Swarm extrem schwankend würde mich nicht wundern wenn NV da den besten Run nimmt und bei AMD den schlechtesten. Dazu bekommt man auch Star Swarm ins GPU Limit.
4.) Leider muss AMD Prioritäten setzten da nicht genug Entwickler / Geld. Das da dann Dx leidet da eh 99,9% der Leute mantle nutzen werden ist kacke aber ist leider so. Kauft mehr AMD dann kann sich AMD auch wieder mehr leisten :freak:

Insgesamt bleibt nur zu sagen Typische PR Folie. Und das die News Seiten das einfach so übernehmen ohne es überhaupt zu Hinterfragen Zeigt nur das News keine News mehr sind sondern zu 99,9% nur als Werbeplattform herhaltet ( Gilt wie bereits mehrmals gesagt natürlich auch für Intel und AMD )

dargo
2014-03-24, 20:49:16
Nvidia setzt auf effizienteres DirectX 11 statt Mantle

http://pics.computerbase.de/5/6/2/9/7/5.png

http://www.computerbase.de/2014-03/nvidia-setzt-auf-effizienteres-directx-11-statt-mantle/
Guten Morgen. :tongue: Verfolge mal die letzten Posts/Seiten. ;)

AwesomeSauce
2014-03-24, 21:03:55
1.) Ist Mantle Effekt mit Treiber nicht möglich ( Der "Fehler" liegt bei der API da kann der Treiber machen was er will )
Ich wette, du kannst noch nicht mal erklären, was "Mantle Effekt" oder der "Fehler" sein soll. Sei doch bitte genauer, wenn du schon solche Pauschalaussagen lieferst...
2.) Es ist NV ( Ja Ok bei Intel und AMD wäre es das selbe aber bei NV fallen die Leute halt immer auf die PR rein bei den anderen ist das nicht so extrem )

Erstaunlich, was für eine Traumwelt sich manche aufbauen, wo persönliche Vorurteile zu Realität werden. In diesem Forum kann sich jeder seinen Senf zu irgendwelcher PR-Folie denken, niemand schluckt das Zeugs ohne zu kauen runter.

fondness
2014-03-24, 21:07:54
Das ganze Marketingkonstrukt scheitert ja schon an der Logik. Wenn das alles auch mit DX11 möglich wäre, wozu dann DX12 Nvidia? Das lustige ist ja das NV einerseits sagt wie effizient DX12 nicht ist ggü. DX11 und andererseits so tut als könnte man die Effizienz auch mit DX11 erreichen.

Nächste Frage: Warum erst jetzt dieser angebliche gigantische Performance-Boost? Da werden über Jahre enorme Ressourcen in die Treiberentwicklung hinein gebuttert um vielleicht ein paar Prozent vor der Konkurrenz zu liegen aber plötzlich soll NV über einen einfachen Treiber Mantle-Effizienz erreichen? Wers glaub. Ganz davon abgesehen das die Benchmarks ganz offensichtlich GPU-Limitiert sind und damit eigentlich schon klar sein sollte was Sache ist.

Aber solche Marketingfolien mit der Ankündigung eines neuen Treiber der irgendwann kommen soll reicht offensichtlich schon aus das viele Leute glauben Mantle ist überflüssig, damit hat sich das ganze für NV schon mehr als ausgezahlt, man will schließlich Zeit gewinnen bis DX12, das in Wahrheit eh nichts anderes ist wie Mantle für alle.

blaidd
2014-03-24, 21:15:03
In diesem Forum kann sich jeder seinen Senf zu irgendwelcher PR-Folie denken, niemand schluckt das Zeugs ohne zu kauen runter.

Ach nein? Ich glaube, ich habe von vielen überzeugten Menschen gelesen, dass Direct X 12 vollständig auf Direct X 11 Hardware läuft. Auch wenn sich das etwas bescheuert anhört, wenn man sich das mal auf der Zunge zergehen lässt ;-)

"DX12-Ready" (mit Anführungszeichen(!)) my Ass. Das ist genauso jämmerlich wie "HD-Ready".

AwesomeSauce
2014-03-24, 21:24:59
Was hat das jetzt genau mit besagter PR-Folie zu tun? Beide IHVs haben DX12-Support für die aktuelleren Generationen angekündigt, aussondern kannst du hier also niemanden. Zudem ist die Informationslage auch nicht die beste, was D3D12 und erforderliche Hardware-Features anbelangt.

"DX12-Ready" (mit Anführungszeichen(!)) my Ass. Das ist genauso jämmerlich wie "HD-Ready".
Afaik haben sich weder NV noch AMD zu erweiterten Funktionen von D3D12, welche zusätzliche Hardware benötigen, geäussert. Du bist also etwas vorschnell mit deiner Verurteilung.

Knuddelbearli
2014-03-24, 21:40:34
Ach nein? Ich glaube, ich habe von vielen überzeugten Menschen gelesen, dass Direct X 12 vollständig auf Direct X 11 Hardware läuft. Auch wenn sich das etwas bescheuert anhört, wenn man sich das mal auf der Zunge zergehen lässt ;-)


Das Spiel muss aber trotzdem von Grund auf auf Dx12 ausgelegt sein, sofern also NV nicht gerade jedes Spiel komplett auseinandernimmt und Dx12 fähig zusammensetzt ;-)

blaidd
2014-03-24, 21:40:45
Afaik haben sich weder NV noch AMD zu erweiterten Funktionen von D3D12, welche zusätzliche Hardware benötigen, geäussert. Du bist also etwas vorschnell mit deiner Verurteilung.

Ich wette um einen Kasten Bier. Hätte ich auch schon gemacht, bevor man das hier hat lesen (http://www.pcgameshardware.de/DirectX-12-Software-255525/News/DirectX-12-Features-neue-Hardware-1114714/) können:

Ich glaube, ich hab meine Meinung zu der informationsarmen DX12-Präsentation auch mehrfach gepostet...

Nix für ungut, aber zu glauben, Microsoft würde ein bis zwei Jahre die DX-Entwicklung vorantreiben, nur um den jetzigen Standard zu erfüllen, erscheint mir einfach nicht schlüssig gedacht.

blaidd
2014-03-24, 21:45:34
Ich wette um einen Kasten Bier. Hätte ich auch schon gemacht, bevor man das hier hat lesen (http://www.pcgameshardware.de/DirectX-12-Software-255525/News/DirectX-12-Features-neue-Hardware-1114714/) können:

Ich glaube, ich hab meine Meinung zu der informationsarmen DX12-Präsentation auch mehrfach gepostet...

Nix für ungut, aber zu glauben, Microsoft würde ein bis zwei Jahre die DX-Entwicklung vorantreiben, nur um den jetzigen Standard zu erfüllen, erscheint mir einfach nicht schlüssig gedacht.

Das Spiel muss aber trotzdem von Grund auf auf Dx12 ausgelegt sein, sofern also NV nicht gerade jedes Spiel komplett auseinandernimmt und Dx12 fähig zusammensetzt ;-)

Das kommt natürlich noch dazu. Also bekommen wir mit DX11-Hardware einen Geschwindigkeitsboost, so denn die Entwickler damit belästigt werden können, es in ihre Software mit aufzunehmen und später (vgl.: DX11) ein paar neue Grafikfeatures, sollten wir DX12-Hardware besitzen.

So aufgeschlüsselt klingt es natürlich nicht mehr ganz so enthusiastisch, wie aus anderen Quellen, aber es enthält mehr Informationsgehalt. Ob die Informationen stimmen, kann ich aber nicht sagen. Das ist im Prinzip nur das, was man zwischen den Zeilen der PR-Sprache entschlüsseln konnte.

[Edit:] Crap. Sorry für den Doppelpost. Dieser verdammte "Ändern"-Button ist nach links ausgewichen.

mrck
2014-03-24, 21:46:52
Das lustige ist ja das NV einerseits sagt wie effizient DX12 nicht ist ggü. DX11 und andererseits so tut als könnte man die Effizienz auch mit DX11 erreichen.


Wo haben sie das behauptet?

Knuddelbearli
2014-03-24, 21:48:17
Mantle = Dx12 Boost
und Nv sagt man ist besser als Mantle

fondness
2014-03-24, 21:48:45
Wo haben sie das behauptet?

Was genau?

Demirug
2014-03-24, 21:51:57
Das ganze Marketingkonstrukt scheitert ja schon an der Logik. Wenn das alles auch mit DX11 möglich wäre, wozu dann DX12 Nvidia? Das lustige ist ja das NV einerseits sagt wie effizient DX12 nicht ist ggü. DX11 und andererseits so tut als könnte man die Effizienz auch mit DX11 erreichen.

Der Trick besteht IMHO darin den Overhead auf einen anderen Thread zu verschieben. Das kann so lange Funktionieren wie ein Spiel eben nicht alle Cores voll auslastet. Das ist vorallem dann interesant wenn ein Spiel wie unter DX 11 fast üblich alle DX Calls nur von einem Thread aus macht und dieser dann auch noch der kritische Pfad ist. Irgendwann kommt aber der Punkt wo eben kein freier Core mehr da ist und dann braucht man wirklich eine API welche weniger Overhead hat.

Nächste Frage: Warum erst jetzt dieser angebliche gigantische Performance-Boost? Da werden über Jahre enorme Ressourcen in die Treiberentwicklung hinein gebuttert um vielleicht ein paar Prozent vor der Konkurrenz zu liegen aber plötzlich soll NV über einen einfachen Treiber Mantle-Effizienz erreichen? Wers glaub. Ganz davon abgesehen das die Benchmarks ganz offensichtlich GPU-Limitiert sind und damit eigentlich schon klar sein sollte was Sache ist.

Ist eigentlich recht einfach. Gehen wir einmal davon aus das der CPU Overhead bei nvidia schon immer etwas kleiner war. Dann hatte man im CPU Limit ja sowieso schon gewonnen. Entsprechend war interessanter die die Resourcen in Optimierungen für das GPU Limit zu stecken. Wenn aber AMD dank Mantle nun nicht mehr so schnell ins CPU Limit rennt muss man sich eben was einfallen lassen und Resourcen verschieben. Man muss ja nur schneller als die Konkurrenz sein.

blaidd
2014-03-24, 21:58:12
Ist eigentlich recht einfach. Gehen wir einmal davon aus das der CPU Overhead bei nvidia schon immer etwas kleiner war. Dann hatte man im CPU Limit ja sowieso schon gewonnen. Entsprechend war interessanter die die Resourcen in Optimierungen für das GPU Limit zu stecken. Wenn aber AMD dank Mantle nun nicht mehr so schnell ins CPU Limit rennt muss man sich eben was einfallen lassen und Resourcen verschieben. Man muss ja nur schneller als die Konkurrenz sein.

Das ist eigentlich ganz clever gedacht. Im Prinzip heißt dass ja nichts anderes, als das GPU-Limit zu verschieben. Das dürfte nicht mal schwer fallen. Ist Gameworks nicht sogar mindestens teilweise Vendor-unabhängig (siehe CoD: Ghosts, Witcher 3)? Erhöht Nvidia also die GPU-Last drastisch auf allen Grafikkarten, ist Mantle mehr oder minder für die Katz...hmm :cool:

fondness
2014-03-24, 21:59:41
Der Trick besteht IMHO darin den Overhead auf einen anderen Thread zu verschieben. Das kann so lange Funktionieren wie ein Spiel eben nicht alle Cores voll auslastet. Das ist vorallem dann interesant wenn ein Spiel wie unter DX 11 fast üblich alle DX Calls nur von einem Thread aus macht und dieser dann auch noch der kritische Pfad ist. Irgendwann kommt aber der Punkt wo eben kein freier Core mehr da ist und dann braucht man wirklich eine API welche weniger Overhead hat.


Wenn es so wäre macht natürlich der von NV für die Benchmarks verwendetet 6 Core Chip mit 12 Threads Sinn. Würde allerdings auch bedeuten das es mit einem weit höher verbreiteten Quad-Core bei modernen Multi-Core-Engines schon wieder anders aussehen kann.


Ist eigentlich recht einfach. Gehen wir einmal davon aus das der CPU Overhead bei nvidia schon immer etwas kleiner war. Dann hatte man im CPU Limit ja sowieso schon gewonnen. Entsprechend war interessanter die die Resourcen in Optimierungen für das GPU Limit zu stecken. Wenn aber AMD dank Mantle nun nicht mehr so schnell ins CPU Limit rennt muss man sich eben was einfallen lassen und Resourcen verschieben. Man muss ja nur schneller als die Konkurrenz sein.

Das man Ressourcen in die Richtung verschoben hat glaube ich gerne, NV muss irgendwie regieren. Das es demzufolge kleinere Verbesserungen geben wird glaube ich auch gerne. Das hier plötzlich Quantensprünge möglich sind glaube ich allerdings nicht. Bis jetzt waren auch bei Benchmarks im CPU-Limit alle Karten wie eine Perlenkette aufgereiht, ich sehe da nirgends eine auch nur messbaren Vorteil für NV (bis auf das eh schon erwähnte BF4).

boxleitnerb
2014-03-24, 22:01:38
@blaidd:
So war das glaube ich nicht gemeint. Ressourcen = Manpower. Davon, dass die GPU-Last dann ansteigt, lese ich da nichts raus.

blaidd
2014-03-24, 22:03:48
@blaidd:
So war das glaube ich nicht gemeint. Ressourcen = Manpower. Davon, dass die GPU-Last dann ansteigt, lese ich da nichts raus.

Das wäre aber aus Sicht von Nvidia ein schlauer Schritt.. ;)

Man müsste sich gar nicht mit diesem ganzen Optimierungs-Gedöns rumärgern, sondern einfach durchwegs die GPU-Last erhöhen. Das ist deutlich einfacher. :)

Unicous
2014-03-24, 22:04:16
Verstehe ich das richtig: Nvidia macht ne Bad Bank für den API Overhead auf.

Jeder andere würde das Cheaten nennen.;D

blaidd
2014-03-24, 22:05:26
Verstehe ich das richtig: Nvidia macht ne Bad Bank für den API Overhead auf.

Jeder andere würde das Cheaten nennen.;D

Du kriegst ja bessere Zinsen Grafik dafür. ;-)

dargo
2014-03-24, 22:05:30
Ist eigentlich recht einfach. Gehen wir einmal davon aus das der CPU Overhead bei nvidia schon immer etwas kleiner war. Dann hatte man im CPU Limit ja sowieso schon gewonnen.
Und wie kommst du darauf? Bisher konnte ich keinen Test sehen wo NV im absoluten CPU-Limit unter DX11.0 nennenswert schneller ist als AMD. Der letzte Test bei CB und Thief gibt das zb. her, beide IHVs auf dem gleichen Niveau. Wenn du andere Ergebnisse kennst sind sie sehr willkommen. :)

Das einzige was im Raum steht ist die angeblich bessere DX11.1 Performance in BF4 von NV. Das versuche ich gerade hier nachzustellen weil mich vor allem interessiert in welchen Regionen wir uns hier befinden sollte es stimmen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=552042

Lustigerweise halten sich die Nvidia-Nutzer ziemlich zurück. Ich will aber nicht zu früh den Teufel an die Wand malen. Schließlich ist erst ein Tag seit meiner Anfrage vergangen. Schauen wir mal wie das nach einer Woche aussieht.

Apropo CPU-Overhead beim Nvidiatreiber... schon vergessen wie Nvidia mit weniger als 4 Threads im CPU-Limit bei einigen Games abkackt?

DanyW
2014-03-24, 22:10:11
Ich wette um einen Kasten Bier.

Wenn man gewinnt, wette ich auch mit...;).

Man müsste wissen wo jetzt der Stand der Anwendungs-Entwicklung bei D3D Effekten definitiv und verglichen in Spielen angekommen ist. Nvidia war nicht immer Vorreiter was das umsetzen angeht, sicherlich, aber zu sagen die hätten z.B. den Entwicklungsprozess behindert, naja. Die haben eher auf andere Pferdchen gesetzt.

Wir haben ja schon immer davon geträumt wenn wir neuste (Dx-fähige) Hardeware kaufen, die auch oder mehrmals von AMD stammte, dass man dann schnellstens auch entsprechende Effekte visuell auf dem Screen wahrnehmen kann. Aber Pustekuchen, die gabs manchmal über zwei Generationen (Refresh's inbegriffen) nichts zu sehen, ausser schöne Karton's mit beklebten oder übergeklebten Hersteller-Gütesiegeln von allen Herstellern. DX9 war viel schöner, alles andere eben zu neu und aufwendig. Logisch Entwicklung dauert eben und kostet Ressourcen.

Wenn NV mit Dx11 Optimierungen ala Dx12 fähige Verbesserungen erzwingen kann ist das doch positiv? AMD kann mit Mantle vielleicht noch etwas zulegen, hat aber Dx12 auch nicht verpöhnt, sondern so wie ich es verstanden habe sehr begrüßt. Der Katalysator des Ganzen war und wird Mantle bleiben müssen, sonst legt sich MS auf die "faule Haut". Ist ja nicht so als wenn Dx umsonst vom Himmel fällt.

Vielmehr wird es auch mit der kommenden API neue, noch nicht bekannte Features geben, die auch neue GPUs voraussetzen werden. Der Kern von DX12 - die hardwarenähere Programmierung - wird aber auch auf aktueller Hardware verfügbar sein.

Aber was sollte sich an Vorgehensweisen der Vergangenheit ändern, wer neue Feature will bekommt sie dann auch. Davon zu träumen wir bleiben in der Hardwareentwicklung stehen, dass würde ja grundlegende Prinzipien über den Haufen werfen. Das diese vollständigen Dx12 Effekte irgendwann (2015) mit jetziger Hardware nicht voll umsetzbar sein werden, würde mich nicht stören. Aber diese Stagnation wird/ist endlich durchbrochen...

Unicous
2014-03-24, 22:10:35
Du kriegst ja bessere Zinsen Grafik dafür. ;-)

Ja, aber das als die beste Erfindung seit geschnitten Brot zu verkaufen finde ich ganz schön frech.

"It's magic". Ihr braucht nur ne fette CPU dafür.

Es ist sozusagen der umgekehrte "Dual Core Bug".

Wehe das stimmt und du hast keinerlei Verbesserung bei einer CPU die vllt. nur 2 Kerne (und max. 4 Threads hat. Bei Steam sind es 47%)

blaidd
2014-03-24, 22:20:12
Und wie kommst du darauf? Bisher konnte ich keinen Test sehen wo NV im absoluten CPU-Limit unter DX11.0 nennenswert schneller ist als AMD.

Das ist mir aber auch schon mindestens drei Mal beim Benchen aufgefallen. Das erste Mal bei Battlefield 4, dann irgendwas anderes, und auch in Thief.

Macht ja auch Sinn. AMD hat eine neue Technik und Nvidia versucht dranzubleiben. Durch ihre (meiner Meinung als AMD-User) deutlich bessere Treiber-Abteilung und Ressourcen schaffen sie das auch. Zumindest bis zu einem gewissen Grad.

Ich würde mal gern eine vollständig auf Mantle ausgelegte Demo oder so etwas sehen, ich schätze, dass da optisch und technisch deutlich mehr drin ist als bei DX11 (und sei es durch die CPU, da wird immerhin einiges frei). Schaun wir mal auf Juni und die neue Ruby-Demo. ;)

Demirug
2014-03-24, 22:23:25
Und wie kommst du darauf? Bisher konnte ich keinen Test sehen wo NV im absoluten CPU-Limit unter DX11.0 nennenswert schneller ist als AMD. Der letzte Test bei CB und Thief gibt das zb. her, beide IHVs auf dem gleichen Niveau. Wenn du andere Ergebnisse kennst sind sie sehr willkommen. :)

Das einzige was im Raum steht ist die angeblich bessere DX11.1 Performance in BF4 von NV. Das versuche ich gerade hier nachzustellen weil mich vor allem interessiert in welchen Regionen wir uns hier befinden sollte es stimmen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=552042

Was ist den an "Gehen wir einmal davon aus" so schwer zu verstehen? Das ist eine Arbeitsthese und nvidia selbst geht wohl auch davon aus. Wenn sie eben der Meinung waren das sie bei den üblichen Tests welche bei den Review gemacht werden bisher keinen Nachteil auf der CPU Seite haben erklärt das warum dort keine Energie investiert wurde. Nun haben sie da aber ein Problem.

Apropo CPU-Overhead beim Nvidiatreiber... schon vergessen wie Nvidia mit weniger als 4 Threads im CPU-Limit bei einigen Games abkackt?

Was für meine Theorie spricht das sie den Overhead auf andere Threads verschieben. Ich sagte ja auch wenn kein Core mehr frei ist auf den man schieben kann war es das. Dann funktioniert so ein Trick nicht mehr.

blaidd
2014-03-24, 22:24:45
Wenn man gewinnt, wette ich auch mit...;).

Man müsste wissen wo jetzt der Stand der Anwendungs-Entwicklung bei D3D Effekten definitiv und verglichen in Spielen angekommen ist. Nvidia war nicht immer Vorreiter was das umsetzen angeht, sicherlich, aber zu sagen die hätten z.B. den Entwicklungsprozess behindert, naja. Die haben eher auf andere Pferdchen gesetzt.

@DanyW: Nein, behindert hat Nvidia die Entwicklung sicher nicht. Dazu muss man ja nur mal die ganzen neuen Techniken, die sie in den letzten Jahren so gebracht haben, ins Auge fassen. Und, ich habe das deutliche Gefühl, sie werden von Mal zu Mal weniger proprietär. (FXAA, HBAO, Fur, [Teile von] Gameworks, etc.)

fondness
2014-03-24, 22:26:05
Das ist mir aber auch schon mindestens drei Mal beim Benchen aufgefallen. Das erste Mal bei Battlefield 4, dann irgendwas anderes, und auch in Thief.


In Thief nehmen sich die Karten im CPU-Limit unter D3D null:
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/#diagramm-thief-1280-720-fxaa-16xaf

blaidd
2014-03-24, 22:28:19
In Thief nehmen sich die Karten im CPU-Limit unter D3D null:
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/#diagramm-thief-1280-720-fxaa-16xaf

Nix für ungut, aber ich bench lieber selbst :)

fondness
2014-03-24, 22:29:28
Nix für ungut, aber ich bench lieber selbst :)

Dann immer her damit. :)

dargo
2014-03-24, 22:32:48
Das ist mir aber auch schon mindestens drei Mal beim Benchen aufgefallen. Das erste Mal bei Battlefield 4, dann irgendwas anderes, und auch in Thief.

Macht ja auch Sinn. AMD hat eine neue Technik und Nvidia versucht dranzubleiben. Durch ihre (meiner Meinung als AMD-User) deutlich bessere Treiber-Abteilung und Ressourcen schaffen sie das auch. Zumindest bis zu einem gewissen Grad.

Ich spreche nicht von wenigen Prozenten, diese konnte ich früher auch schon messen (was nicht heißen muss, dass es heute in den getesteten Szenen immer noch so sein muss, schließlich kommen immer neue Treiber), sondern vom nennenswerten Vorteil. Zudem kann ich es nicht nachvollziehen wie du/ihr in Thief einen Vorteil für NV messen kannst/könnt wenn bei CB beide IHVs auf dem selben Niveau liegen. Wer macht jetzt was falsch? Viel falsch machen kann man eigentlich in einem intergrierten Benchmark nicht.

PS: ich kann da leider Thief nicht selbst nachstellen da ich das Game nicht habe.

Knuddelbearli
2014-03-24, 22:35:50
Der Trick besteht IMHO darin den Overhead auf einen anderen Thread zu verschieben. Das kann so lange Funktionieren wie ein Spiel eben nicht alle Cores voll auslastet. Das ist vorallem dann interesant wenn ein Spiel wie unter DX 11 fast üblich alle DX Calls nur von einem Thread aus macht und dieser dann auch noch der kritische Pfad ist. Irgendwann kommt aber der Punkt wo eben kein freier Core mehr da ist und dann braucht man wirklich eine API welche weniger Overhead hat.




Naja müsste aber für jedes Spiel einzeln angepasst werden. Und ist sicher nicht wenig Arbeit. würde also für den Spieler noch weniger bringen als Mantle. Und wenn es so einfach wäre wieso wird das nicht schon gemacht? Wieso setzt EA da lieber auf eine neue API von AMD die nur 25% Marktmacht haben?
Am Geld lag es ja sicher nicht die paar Mio. die da geflossen sind reicht ja gerade so für die Bf4 Kopien die AMD verteilt hat.

blaidd
2014-03-24, 22:37:16
Dann immer her damit. :)

Ich glaube, Mittwoch kommt das Heft ;)

Zudem kann ich es nicht nachvollziehen wie du/ihr in Thief einen Vorteil für NV messen kannst/könnt wenn bei CB beide IHVs auf dem selben Niveau liegen. Wer macht jetzt was falsch? Viel falsch machen kann man eigentlich in einem intergrierten Benchmark nicht.

PS: ich kann da leider Thief nicht selbst nachstellen da ich das Game nicht habe.

Ich hab den Prozessor noch runtergezogen... Dann fällt's irgendwann auf ;)

Allerdings auch die katastophal schlechte DX-Performance, wenn es denn mal in die andere Richtung geht :)

[EDIT:] Ich hatte tatsächlich so meine Bedenken, ob ich mir nicht eine Zigatte abholen dürfte, weil der Test so schlecht für DX aussieht. Betrachtungsweise ;-)
[EDIT2:] Dass ich Demirug miß- (nicht unbedingt falsch) verstanden habe, ist mir übrigens aufgefallen. Keine Korrektur nötig :tongue:

-/\-CruNcher-/\-
2014-03-24, 22:42:13
In Thief nehmen sich die Karten im CPU-Limit unter D3D null:
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/#diagramm-thief-1280-720-fxaa-16xaf

Computerbase *cough* *cough* test ;)
Pcgameshardware *cough* cough test ;)
Ht4u test = so la la richtung sehr gut :)

Mit den Daten von Computerbase und PCGH kann man selten was anfangen aber die Daten von HT4U sind relativ nice, vor allem die Übersicht ist grandios :)

Iruwen
2014-03-24, 22:44:09
Naja müsste aber für jedes Spiel einzeln angepasst werden.
Warum sollte es? Das findet soweit ich Demirugs Theorie verstehe auf einer Ebene unterhalb des Spiels statt.

dargo
2014-03-24, 22:50:16
Was für meine Theorie spricht das sie den Overhead auf andere Threads verschieben. Ich sagte ja auch wenn kein Core mehr frei ist auf den man schieben kann war es das. Dann funktioniert so ein Trick nicht mehr.
Hmm... :uponder:

Hast du hier tatsächlich gerade den Grund für das Abkacken vom Nvidiatreiber bei weniger als 4 Threads erkannt? Deine Erklärung klingt zumindest schlüssig. Das würde auch erklären warum es nicht jedes Game betrifft. Nehmen wir mal an Game X nutzt 3 Threads, so kann Nvidia den Overhead bsw. einen großen Teil davon noch auf den vierten Thread auslagern der eh vor sich hin idlet. Nutzt Game Y 4 Threads hat Nvidia beim Quadcore ohne HT ein Problem. Wobei... dagegen würde wieder folgendes sprechen. Ich kenne bisher kein Game wo Nvidia bei einem Quadcore stärker schwächelt. Das könnte allerdings wiederum daran liegen, dass es noch kein Game gibt welches 4 Threads vollständig auslastet (wo wir wieder bei den Limitierungen von DX11 wären). Eventuell bekommt Nvidia mit ihrer jetzigen "Treiberpolitik" bei einer 4 Thread-CPU erst Probleme wenn die ersten Gameengines kommen die 4+ Threads nutzen? Schwieriges Thema... muss ich mir wohl genauer durch den Kopf gehen lassen. :)

Demirug
2014-03-24, 22:51:48
Naja müsste aber für jedes Spiel einzeln angepasst werden. Und ist sicher nicht wenig Arbeit. würde also für den Spieler noch weniger bringen als Mantle. Und wenn es so einfach wäre wieso wird das nicht schon gemacht?

Nein, das ist generisch. Ich hatte mal ein Techpaper von Microsoft in dem es darum ging mit genau dieser Technik im WDDM 1.X Model den Overhead von DirectX 9 in einen anderen Thread zu verschieben. Man hat es dann aber doch nicht gemacht weil man der Ansicht war das man in DX9 da keine Arbeit investieren will.

Ich habe nicht gesagt das es einfach ist. Es erfordert schon etwas Aufwand und bei beschränkten Ressourcen muss man halt abwägen was am meisten bringt.

Wieso setzt EA da lieber auf eine neue API von AMD die nur 25% Marktmacht haben?
Am Geld lag es ja sicher nicht die paar Mio. die da geflossen sind reicht ja gerade so für die Bf4 Kopien die AMD verteilt hat.

Ich glaube zu dem Thema wie solche Deals ablaufen habe ich schon genug geschrieben.

-/\-CruNcher-/\-
2014-03-24, 23:01:04
@Demirug
Das würde aber nicht ihre jetzigen improvements erklären mit dem kompletten Driver Cleanup und die Beschränkung ab Fermi ich denke ja man ist eher einige Kompromisse losgeworden die UDA zwangsweise ja mit sich bringt :)

Ganz einfach gesagt Frühjahrsputz bin mal gespannt wie sich das vieleicht noch in regression Bugs und Engine workarounds die darauf abzielten äussern wird.

mrck
2014-03-24, 23:02:34
Was genau?


Na das hier:


und andererseits so tut als könnte man die Effizienz auch mit DX11 erreichen

Demirug
2014-03-24, 23:11:02
@Demirug
Das würde aber nicht ihre jetzigen improvements erklären mit dem kompletten Driver Cleanup und die Beschränkung ab Fermi ich denke ja man ist eher einige Kompromisse losgeworden die UDA zwangsweise ja mit sich bringt :)

Dieses Offloading ist zum Beispiel eine Sache die mit UDA IMHO nicht besonders gut zu machen ist. Das ein allgemeiner Cleanup sicherlich auch etwas bringt werde ich sicherlich nicht abstreiten aber die Faktoren die nvidia angibt erschienen mir zu hoch als das es nur daran liegen könnte.

Angiesan
2014-03-25, 08:22:03
Danke Für die mögliche Erklärung Demi!

Ich habe aber gelesen, dass der "Bug" bei NV ja verschwunden sein soll und nun gleich auf ist mit AMD, sprich in der neuen Treibergeneration die wir heute schon nutzen geben sich AMD und NV nichts mehr bei der Thread bzw Kern-Skalierung.
Der hier oft zitierte Bug mit weniger wie 4 Kernen ist weg bzw bei AMD auch da;)

Es könnte jetzt natürlich genau so sein, wie es schon angesprochen wurde, das man es nun von 4 auf 6 bzw von 8 auf 12 Threads ausgeweitet hat, dann würden aber wirklich nur User einer 6+ Kernmaschine davon einen Nutzen ziehen.
Ich bin mal gespannt ob das jemand misst oder ob die Testsysteme auf einmal alle auf Ivy E laufen werden.

dargo
2014-03-25, 09:01:56
Ich habe aber gelesen, dass der "Bug" bei NV ja verschwunden sein soll und nun gleich auf ist mit AMD, sprich in der neuen Treibergeneration die wir heute schon nutzen geben sich AMD und NV nichts mehr bei der Thread bzw Kern-Skalierung.
Der hier oft zitierte Bug mit weniger wie 4 Kernen ist weg bzw bei AMD auch da;)

Quelle? Tests? :)

DanyW
2014-03-25, 12:52:05
Ich würde mal behaupten das ist reine PR, fast unglaublich.

http://www.pcmasters.de/system/photos/8489/feature/DirectX-11-API-Enhancements.jpg?1395613967

http://www.pcmasters.de/news/13379808-nvidia-neuer-directx-11-treiber-besser-als-amds-mantle-api.html

Ätznatron
2014-03-25, 12:55:45
Ich würde mal behaupten das ist reine PR, fast unglaublich.

http://www.pcmasters.de/system/photos/8489/feature/DirectX-11-API-Enhancements.jpg?1395613967

http://www.pcmasters.de/news/13379808-nvidia-neuer-directx-11-treiber-besser-als-amds-mantle-api.html

Meinste wirklich?

DanyW
2014-03-25, 12:58:22
Meinste wirklich?
Würde AMD denn die Möglichkeiten von Dx11 so vernachlässigen wollen? Kann ich mir bald nicht vorstellen. Zudem wurde wohl mit dem 14.2 verglichen hatte der nicht das Lüftersteuerungsproblem? http://www.pcgameshardware.de/AMD-Catalyst-Grafikkarte-255517/News/AMD-Catalyst-Treiber-Lueftersteuerung-Ueberhitzung-1113025/

Ätznatron
2014-03-25, 13:19:45
Würde AMD denn die Möglichkeiten von Dx11 so vernachlässigen wollen? Kann ich mir bald nicht vorstellen. Zudem wurde wohl mit dem 14.2 verglichen hatte der nicht das Lüftersteuerungsproblem? http://www.pcgameshardware.de/AMD-Catalyst-Grafikkarte-255517/News/AMD-Catalyst-Treiber-Lueftersteuerung-Ueberhitzung-1113025/

Das ist reines Marketing.

nVidia kommt gerade so rüber, als sei im DX11-Treiber nur ein Code-Dreizeiler nötig gewesen, um dessen wahres Leistungspotentiel innerhalb weniger Tage zu entfesseln.

Wenn man so was sieht, stellt sich fast schon die Frage, warum dann noch DX12?!

nVidia ist zum Getriebenen geworden und muss einfach irgendwie reagieren, das erklärt diese Folien mit dem zweifelhaften Inhalt.

Und man nimmt sogar in Kauf, wegen der offensichtlich sehr dürftigen bisherigen Treiberprogrammierung und -optimierung verspottet zu werden.

Angiesan
2014-03-25, 13:23:08
Quelle? Tests? :)
Wurde in einer der letzten PCGH getestet und man konnte gut sehen das AMD und NV da gleich auf sind müsste nachher mal gucken welche Ausgabe das war habe ich jetzt nicht im Kopf.
Von mir kommt da heute auch noch was und soviel kann ich jetzt schon sagen
Mantle verschiebt das CPU Limit aber nur weil das auf AMD auch notwendig ist ;-) zumindest bei Thief mit Tahiti ist das eindeutig!

DanyW
2014-03-25, 13:27:10
@Ätznatron
Wäre die Frage ob NV "Code-Dreizeiler" vor Mantlelaunch möglich gewesen wäre.

@Angiesan
Danke für die Info.

dargo
2014-03-25, 13:30:13
Wurde in einer der letzten PCGH getestet und man konnte gut sehen das AMD und NV da gleich auf sind müsste nachher mal gucken welche Ausgabe das war habe ich jetzt nicht im Kopf.
Von mir kommt da heute auch noch was und soviel kann ich jetzt schon sagen

Vorsicht!

Es sind nicht alle Games davon betroffen. Wurden auch tatsächlich die kritischen Games im Test verwendet?


Mantle verschiebt das CPU Limit aber nur weil das auf AMD auch notwendig ist ;-) zumindest bei Thief mit Tahiti ist das eindeutig!
Ergibt für mich momentan leider wenig Sinn nach dem Test von CB.
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/

Ätznatron
2014-03-25, 13:31:59
@Ätznatron
Wäre die Frage ob NV "Code-Dreizeiler" vor Mantlelaunch möglich gewesen wäre.

@Angiesan
Danke für die Info.

An DX11 hat sich ja nichts geändert. Und Mantle wird dafür nicht gebraucht.

Also denke ich schon, dass er viel eher möglich gewesen wäre.

Angiesan
2014-03-25, 13:37:26
Vorsicht!

Es sind nicht alle Games davon betroffen. Wurden auch tatsächlich die kritischen Games im Test verwendet?


Ergibt für mich momentan leider wenig Sinn nach dem Test von CB.
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/

Wart mal ab, ich habe mit der 79er von 1000-1200MHz getestet bzw bin gerade dran und mit einer GTX 780 gegengetestet ich komme ohne SSAA mit beiden Karten in das "gleiche" CPU Limit die 79er mit 1200 MHz hat fast genau die gleichen FPS wie die GTX 780 @1006 MHZ (Standard-Takt ) und OC @1202 MHz.
Da liegen noch keine 2% dazwischen.
Die Skalierung der 79er ist fast linear bis zum CPU Limit ;-) erst #Mantle hebt dann das Limit auf Geforce Niveau. aber die Skalierung geht in den Keller bei den höchsten Übertaktungen 1100-1200 MHz , klares Zeichen für einsetzendes CPU Limit. Wir haben ja die gleiche CPU (1230 V3) kannst Du ja wenn ich es fertig habe gegen testen.

Nachtrag:
Für die Testreihen nutzen wir unser Grafikkarten-Testsystem. Für AMD-GPUs ist der Catalyst 14.3 Beta 1.0 installiert, bei Nvidia der GeForce 335.23. Als Betriebssystem setzen wir auf Windows 7.

Ich teste auf Win 8.1 wenn auch mit den gleichen Treibern.

Demirug
2014-03-25, 13:40:47
Der Windows XP Support läuft ja in wenigen Tagen aus. Ich vermute mal das nvidia dann auch keine neuen Treiber mehr liefern wird. Das bedeutet auch das man bei den Treibern keine Rücksciht mehr auf XDDM nehmen muss. Gerade was Multithreading angeht stellt das eine enorme Erleichterung da.

DanyW
2014-03-25, 13:53:11
@Demirug
Danke für den Hinweis, der Treiber/die Version wurde von Nvidia ja auch nicht bezeichnet.

@Ätznatron
WQHL zertifiziert? Siehe @Demirug Hinweis. Eine Betaversion wäre ja möglich gewesen, aber ob erwünscht? Eher fraglich.

@Angiesan
Wo seh ich die Testergebnisse dann, Entschuldige bin neu..;).

Angiesan
2014-03-25, 13:57:47
@Demirug
Danke für den Hinweis, der Treiber/die Version wurde von Nvidia ja auch nicht bezeichnet.

@Ätznatron
WQHL zertifiziert? Siehe @Demirug Hinweis. Eine Betaversion wäre ja möglich gewesen, aber ob erwünscht? Eher fraglich.

@Angiesan
Wo seh ich Testergebnisse dann, Entschuldige bin neu..;).
Arbeite noch daran...... post die dann hier

Ätznatron
2014-03-25, 14:04:20
@Ätznatron
WQHL zertifiziert? Siehe @Demirug Hinweis. Eine Betaversion wäre ja möglich gewesen, aber ob erwünscht? Eher fraglich.



Hätte MS sich quergestellt? Unwahrscheinlich.

Den Grund sehe ich eher darin, dass die Befürchtung bestand\besteht, den Absatz eigener neuer Produkte zu gefährden.

DanyW
2014-03-25, 14:38:18
Hätte MS sich quergestellt? Unwahrscheinlich.

Denke ich nicht!

Ein GPU Hersteller dürfte wenn er irgendwo einen treiberbedingten Leistungszuwachs findet, eher davon profitieren und mehr seiner Produkte abzusetzen. Ob neu oder alt, dass kann der einfache Verbraucher/Interessent kaum auseinanderhalten, wäre ja dann bei diesem Push egal.

Neue Produkte stehen für Nvidia erstmal nicht an, jedenfall keine "grundlegenden Architekturänderungen", ggf. ein Dx11.2 Update, dass zaubert man zudem nicht aus dem Handgelenk. Full Dx12 schließe ich persönlich vor 2015 aus. Zumal vieles ja softwareseitig möglich sein soll. Ältere Hardware wie Fermi etc. ist trotzdem abverkauft.

Selbst Microsoft hätte hardwarebedingt nichts davon gehabt, dass kommt selbst im Mobilebereich erstmal alles von NV. AMD hätte auch von dem treiberbedingten Leistungszuwachs profitiert soweit auf GCN anwendbar.

Hier stellt sich eher die Frage wer das Ganze dann wie und warum behindert hat? Mantle könnte die einfache Umgehung dieser (Hinderungs-) Mechanismen sein. Sieh dir mal das jahrelange Konzept zur Linux Treiberpolitik an. Und was da von MS für eine Meinung vertreten wurde.

Glaser war selbst zehn Jahre lang bei Microsoft in Diensten, bevor er vor fünf Jahren sein eigenes Unternehmen gründete. Seiner Meinung nach könnten auch andere kleine Firmen von Störmanövern Microsofts berichten, würden aus Angst vor dem Quasi-Monopolisten aber lieber schweigen. „Microsoft behindert durch seine Marktdominanz die Entwicklung in der Software-Industrie", schloß Glaser seine Ausführungen.

Als Denkanstoss, "Kritisiere du mal einen deinen lukrativen Geschäftspartner, mal sehen was dann passiert"? Zudem, bei einer Marktlage die dann in den roten Zahlen enden würde, dass leistet sich niemand.

-/\-CruNcher-/\-
2014-03-25, 14:50:50
Vorsicht!

Es sind nicht alle Games davon betroffen. Wurden auch tatsächlich die kritischen Games im Test verwendet?


Ergibt für mich momentan leider wenig Sinn nach dem Test von CB.
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/

Wenn interessiert das wenn die Api Funktionen beschleunigt wurden profetieren da alle Engines die sie nutzen das ist total Game unabhängig, da können selbst die Browser nochmal profetieren :).

Und nur das scaling is mal wieder typisch Nvidia übertrieben aber sie zeigen ja selbst das sie auch drawbacks haben bei einigen funktionen dort werden sie wohl wieder Kompromisse eingehen weil auf der anderen seite mehr rauskommt und die verluste nicht erheblich sind als wie die Gewinne auf der anderen Seite und somit noch ein overall + raus kommt für die meisten Game Szenarios.
Das werden sie schon sehr genau getestet haben bevor sie diese Entscheidung getroffen haben mit den momentanen Engines.

Ätznatron
2014-03-25, 14:55:42
[...]



Fakt ist, dass plötzlich innerhalb weniger Tage die tollsten Leistungssteigerungen möglich sein sollen.

Und diese Möglichkeiten hat man die ganzen Jahre übersehen?

Das halte ich für unwahrscheinlich. Oder es stellt den nVidia-Treiberverantwortlichen ein verdammt schlechtes Zeugnis aus.

Zumindest ein Beta-Treiber wäre immer möglich gewesen (und das noch ohne offensichtlich all zu großen Entwicklungsaufwand).

dargo
2014-03-25, 14:56:57
Wart mal ab, ich habe mit der 79er von 1000-1200MHz getestet bzw bin gerade dran und mit einer GTX 780 gegengetestet ich komme ohne SSAA mit beiden Karten in das "gleiche" CPU Limit die 79er mit 1200 MHz hat fast genau die gleichen FPS wie die GTX 780 @1006 MHZ (Standard-Takt ) und OC @1202 MHz.
Da liegen noch keine 2% dazwischen.

Ich kann dir überhaupt nicht mehr folgen oder habe den Faden verloren. Du bestätigst hier gerade das was ich gesagt habe. Nämlich... NV und AMD liegen im CPU-Limit bei Thief auf gleichem Niveau. Also das selbe Ergebnis wie bei CB. Weiter oben hast du dem noch widersprochen. :confused:

Edit:
Oder beziehst du dich hier ausschließlich auf die Treiberproblematik mit weniger als 4 Threads? Du hast leider auch die Sache mit Thief zitiert.

-/\-CruNcher-/\-
2014-03-25, 15:00:40
Wie gesagt man passt sich dem Auslauf von XP an und killed alle alten Architekturen aus dem Treiber, wenn ich es richtig verstehe, da fällt schon was bei ab und der letzt releasede Treiber vor dem "Nvidia Architektur Frühjahrsputz" wird quasi Automatisch der Legacy Treiber :)

Nvidia brauch sich nur noch momentan auf Fermi,Kepler und Maxwell konzentrieren die ganzen anderen sachen fallen weg :)

Wir sollten auch zumindestens eine gewisse space footprint reduktion sehen, auf die bin ich sehr gespannt (vor allem nachdem wie das ganze explodiert ist mit den PP Shader sachen und später noch mit Shadowplay) :)

Es kann aber gut sein das durch diese Radikalkur plötzlich neue Bugs auftretten werden die durchs WHQL rutschen und wie gesagt workarounds in Applikationen die Nvidia nicht getestet hat könnten wieder betroffen werden und updates erfordern.

Das ist ja hier mal kein kleiner change wie üblich :)

DanyW
2014-03-25, 15:04:31
.Und diese Möglichkeiten hat man die ganzen Jahre übersehen?
Du hast eine völlig falsche Vorstellung...

http://www.heise.de/newsticker/meldung/Microsoft-hat-Vorkaufsrecht-fuer-Nvidia-Anteile-1256452.html

Da hält jemand schön die Füße still.

http://www.nvidia.de/object/io_1254238796216.html

Wenn man dann noch überlegt was der GK110 für ein Abkömmling ist, kommt man selbst drauf.

Danke für deine Aufmerksamkeit :D, weiter bei Thema.

StefanV
2014-03-25, 15:06:27
Nvidia brauch sich nur noch momentan auf Fermi,Kepler und Maxwell konzentrieren :)Tun sie das nicht schon lange bzw schleppen die alten Architekturen (zu denen auch Fermi gehört!) einfach mit??

Ist ja nicht so, dass es keine Vermutungen/Berichte in Foren in diese Richtung geben würde, dass der Support von 'alten Chips' bei nV nicht mehr so dolle ist, wenn 'was neues' vorgestellt wird...

-/\-CruNcher-/\-
2014-03-25, 15:16:53
Der support des Treibers was alte Architekturen angeht ist Second to none Nvidia waren die ersten mit UDA aber wie Demirug schon sagte es behindert auch, nur brauchen sie keinen extra Legacy Treiber machen nur mit dem neuen werden die alten Architekturen nicht mehr supportet werden das geht hier ziemlich Automatisch.
Wer weiss ob man so nicht sogar in Zukunft noch weiter optimieren kann das kommt dann alles auch dem DX 12 Treiber zu gute vieleicht portet man auch gerade die Ergebnisse des DX 12 treibers back :)

Aber ich mach mich schon auf Workflow probleme gefasst, diese Situation ist ja ziemlich einzigartig wer weiss was alles schief läuft bzw wie sich das verhalten des Treibers verändert.

Vor allen sehr viele Indie sachen könnten betroffen werden also schlaue Köpfe die an Nvidias Treiber (Shader Compiler) vorbeiarbeiten um gewisse Probleme ihrer implementationen zu vermeiden, aber die sind das mit vielen Treiber updates schon gewohnt ;)

mrck
2014-03-25, 15:31:53
Fakt ist, dass plötzlich innerhalb weniger Tage die tollsten Leistungssteigerungen möglich sein sollen.



Wieso Tage? Dir ist schon klar, dass an so nem neuen Treiberzweig Monate dran gearbeitet werden kann? Der ist sicher nicht in ein paar Tagen fertig.

mkh79
2014-03-25, 15:34:56
Du hast eine völlig falsche Vorstellung...

http://www.heise.de/newsticker/meldung/Microsoft-hat-Vorkaufsrecht-fuer-Nvidia-Anteile-1256452.html

Da hält jemand schön die Füße still.

http://www.nvidia.de/object/io_1254238796216.html

Wenn man dann noch überlegt was der GK110 für ein Abkömmling ist, kommt man selbst drauf.

Danke für deine Aufmerksamkeit :D, weiter bei Thema.

Ich stehe da jetzt auf dem Schlauch. :redface:
Inwiefern ist das eine Antwort darauf, dass man scheinbar derartiges Optimierungspotential bisher übersehen haben könnte?

kruemelmonster
2014-03-25, 15:41:16
Tun sie das nicht schon lange bzw schleppen die alten Architekturen (zu denen auch Fermi gehört!) einfach mit??

Ist ja nicht so, dass es keine Vermutungen/Berichte in Foren in diese Richtung geben würde, dass der Support von 'alten Chips' bei nV nicht mehr so dolle ist, wenn 'was neues' vorgestellt wird...

Meine Fr...Güte, wie oft soll die GeForce 4 Geschichte noch aus dem Sarg gezerrt werden? Zumal der Performanceverlust damals iirc (!) durch einen Bugfix für die anisotrope Filterung verursacht wurde, der eben fps kostete.

Falls du auf etwas anderes anspielen solltest Link plz or shut up.

Btw hat AMD weit vor NV die Unterstützung für DX9 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=460124) und 10 Karten abgekündigt...

-/\-CruNcher-/\-
2014-03-25, 15:41:37
Wieso Tage? Dir ist schon klar, dass an so nem neuen Treiberzweig Monate dran gearbeitet werden kann? Der ist sicher nicht in ein paar Tagen fertig.

Jep man kann sich ziemlich sicher sein das das In Vorbereitung der Entwicklung des DX12 treibers geschieht, diese Umstellung wird sicher schon länger geplannt und durchgeführt.

Die sollten alle Automatisch Legacy werden

GeForce 300 Series
GeForce GT 340, GeForce GT 330, GeForce GT 320, GeForce 315, GeForce 310
GeForce 200 Series
GeForce GTX 295, GeForce GTX 285, GeForce GTX 280, GeForce GTX 275, GeForce GTX 260, GeForce GTS 250, GeForce GTS 240, GeForce GT 230, GeForce GT 240, GeForce GT 220, GeForce G210, GeForce 210, GeForce 205
GeForce 100 Series
GeForce GT 140, GeForce GT 130, GeForce GT 120, GeForce G100
GeForce 9 Series
GeForce 9800 GX2, GeForce 9800 GTX/GTX , GeForce 9800 GT, GeForce 9600 GT, GeForce 9600 GSO, GeForce 9600 GSO 512, GeForce 9600 GS, GeForce 9500 GT, GeForce 9500 GS, GeForce 9400 GT, GeForce 9400, GeForce 9300 GS, GeForce 9300 GE, GeForce 9300 SE, GeForce 9300, GeForce 9200, GeForce 9100
GeForce 8 Series
GeForce 8800 Ultra, GeForce 8800 GTX, GeForce 8800 GTS 512, GeForce 8800 GTS, GeForce 8800 GT, GeForce 8800 GS, GeForce 8600 GTS, GeForce 8600 GT, GeForce 8600 GS, GeForce 8500 GT, GeForce 8400 GS, GeForce 8400 SE, GeForce 8400, GeForce 8300 GS, GeForce 8300, GeForce 8200, GeForce 8200 /nForce 730a, GeForce 8100 /nForce 720a
ION (Desktops)
ION
ION LE (Desktops)
ION LE


Und der neue Treiber wird wohl hier fortgeführt


GeForce 700 Series
GeForce GTX TITAN Black, GeForce GTX TITAN, GeForce GTX 780 Ti, GeForce GTX 780, GeForce GTX 770, GeForce GTX 760, GeForce GTX 760 Ti (OEM), GeForce GTX 750 Ti, GeForce GTX 750, GeForce GTX 745
GeForce 600 Series
GeForce GTX 690, GeForce GTX 680, GeForce GTX 670, GeForce GTX 660 Ti, GeForce GTX 660, GeForce GTX 650 Ti BOOST, GeForce GTX 650 Ti, GeForce GTX 650, GeForce GTX 645, GeForce GT 645, GeForce GT 640, GeForce GT 630, GeForce GT 620, GeForce GT 610, GeForce 605
GeForce 500 Series
GeForce GTX 590, GeForce GTX 580, GeForce GTX 570, GeForce GTX 560 Ti, GeForce GTX 560 SE, GeForce GTX 560, GeForce GTX 555, GeForce GTX 550 Ti, GeForce GT 545, GeForce GT 530, GeForce GT 520, GeForce 510
GeForce 400 Series
GeForce GTX 480, GeForce GTX 470, GeForce GTX 465, GeForce GTX 460 SE v2, GeForce GTX 460 SE, GeForce GTX 460, GeForce GTS 450, GeForce GT 440, GeForce GT 430, GeForce GT 420, GeForce 405


2 Arch Generationen + Maxwell voraussichtllich nur WDDM


Das sollte dann der zweite Architektur Legacy zweig sein nach dem Forceware 61.77 (2007) (XDDM)

Voraussichtlich letzter WHQL für diese Platformen GeForce 340.xx WHQL (2014) (XDDM/WDDM)

Der nächste wird höchstwahrscheinlich 343.xx WHQL mit dem neuen Zweig Richtung DX12 (2014-xxxx) (WDDM only) also die dritte Windows UDA Generation

DanyW
2014-03-25, 16:07:57
Inwiefern ist das eine Antwort darauf, dass man scheinbar derartiges Optimierungspotential bisher übersehen haben könnte?
Das hat man meiner Meinung nach nicht übersehen! Man darf es jetzt sagen! Weil sich jemand angepi**t fühlt und es ist nicht NV. :cool: Die haben nur gesagt Dx muss jetzt im Gamingbereich schneller werden, naja, dann macht doch sagen die anderen! Wer bliebe denn jetzt noch der das erstmal auf Windowsbasirenden Plattformen schneller haben wollte, AMD+NV? Ich sag mal, ja!

N0Thing
2014-03-25, 16:17:42
Denke mal der Titanfall Ready könnte der Letzt WHQL für diese Platformen gewesen sein GeForce 335.23 WHQL (2014) (XDDM/WDDM)

Nein, Nvidia hat angekündigt, daß noch ein 340.xx Treiber nach bisherigem Schema kommen wird und ab der Treiberreihe 343.xx oder 345.xx (weiß ich gerade nicht auswendig, dürfte aber auch keine Rolle spielen), gibt es dann Performance-Optimierungen nur noch für die neuen Architekturen.

-/\-CruNcher-/\-
2014-03-25, 16:20:23
Interessant dann wollen sie vieleicht vorher doch noch Betas zum Testen releasen würde sinn machen bei so einem Radikalen Schnitt umso mehr :D

Ätznatron
2014-03-25, 16:23:56
Wieso Tage? Dir ist schon klar, dass an so nem neuen Treiberzweig Monate dran gearbeitet werden kann? Der ist sicher nicht in ein paar Tagen fertig.

Wie lange gibt es DX11?

Da sind das doch vergleichsweise wirklich nur Tage....

DanyW
2014-03-25, 16:27:46
Die Maßnahmen sollen ab dem GeForce-Treiber der 343-Generation in Kraft treten – aktuell ist Version 335.23. Einen Treiber mit der Versionsnummer „340“ wird es dagegen noch für alle Grafikkarten bis hin zur GeForce 8000 geben. Dieser soll die Unterstützung bis zum 1. April 2016 gewährleisten. Fehler in diesem Treiber werden bis dahin weiterhin von Nvidia beseitigt, Verbesserungen oder Optimierungen schaffen es hingegen nicht mehr in das Paket.
http://www.computerbase.de/2014-03/nvidia-treiber-bald-nur-noch-bis-zur-gtx-400-kompatibel/

mrck
2014-03-25, 16:27:50
Wie lange gibt es DX11?

Da sind das doch vergleichsweise wirklich nur Tage....


Es spielt keine Rolle wie lange es DX11 gibt, sondern wie lange an dem Treiberzweig gearbeitet wird. Und das sind ganz gewiss keine Tage sondern Wochen oder vermutlich eher Monate. Kann auch sein das sie durch DX12 oder Mantle angestachelt ein paar Ideen aufgreifen, die sich auch positiv auf den DX11 Overhead auswirken.

Exxtreme
2014-03-25, 16:40:32
Was für meine Theorie spricht das sie den Overhead auf andere Threads verschieben. Ich sagte ja auch wenn kein Core mehr frei ist auf den man schieben kann war es das. Dann funktioniert so ein Trick nicht mehr.
Kann man sowas einen API-Overhead wirklich einfach in einen Thread auslagern? Grad bei sowas kann ich mir abartige Abhängigkeiten zwischen den Threads vorstellen und es dann zu "Thread x muss auf Thread y warten"-Situationen kommt.

Ätznatron
2014-03-25, 17:08:52
Es spielt keine Rolle wie lange es DX11 gibt, sondern wie lange an dem Treiberzweig gearbeitet wird. Und das sind ganz gewiss keine Tage sondern Wochen oder vermutlich eher Monate. Kann auch sein das sie durch DX12 oder Mantle angestachelt ein paar Ideen aufgreifen, die sich auch positiv auf den DX11 Overhead auswirken.

Warum wird denn erst seit kurzem an diesem Treiberzweig gearbeitet? War nVidia die Jahre davor blind?

Darum geht es. Ob die Enwicklung nun Wochen, Tage, oder Stunden dauert, ist da völlig belanglos.

Man hätte es viel eher haben können (es sei denn, an Verschwörungstheorien bzgl. Microsoft ist etwas dran).

PS: Es sei denn, der Thread Scheduler von Win 8 ist dem von Win 7 so überlegen, dass sich Optimieren erst seit Win 8 wirklich lohnt.

oids
2014-03-25, 17:20:46
Na ja-solange kein Druck da war hat man sich halt ausgeruht

-ist ja meistens so!:wink:

Iruwen
2014-03-25, 17:29:46
Warum wird denn erst seit kurzem an diesem Treiberzweig gearbeitet? War nVidia die Jahre davor blind?

AMD ist dann wohl immer noch blind und/oder kommt gar nicht erst auf die Idee. Wird schon seine Gründe haben.

mkh79
2014-03-25, 17:34:02
Das hat man meiner Meinung nach nicht übersehen! Man darf es jetzt sagen! Weil sich jemand angepi**t fühlt und es ist nicht NV. :cool: Die haben nur gesagt Dx muss jetzt im Gamingbereich schneller werden, naja, dann macht doch sagen die anderen! Wer bliebe denn jetzt noch der das erstmal auf Windowsbasirenden Plattformen schneller haben wollte, AMD+NV? Ich sag mal, ja!

Ah, vielen Dank für die Erläuterung, jetzt verstehe ich, was du meinst.
Es stellt sich für mich aber jetzt die Frage, welchen Nutzen MS gehabt haben könnte, da als Bremse zu wirken...

DanyW
2014-03-25, 18:07:36
Es stellt sich für mich aber jetzt die Frage, welchen Nutzen MS gehabt haben könnte, da als Bremse zu wirken...
Jetzt lässt du dich aber füttern, hoffentlich bist du nicht aus der MS PR Abteilung...;). Zur Zeit hab ich 2,5 Promille und eine Rechtschutzversicherung. Ich weise dich mal auf diesen "Fehler" hin...http://www.zdnet.de/88142315/microsoft-mail-uber-directx-ausstieg-war-ein-fehler/. Zeit gewinnen, nennt man das. Würde behaupten AMD hat das zu lange gedauert, oder aber zuviel gekostet. Viele Vorstellungen seitens MS sind wohl gefloppt, da kommt das gute alte DX doch ganz gelegen, oder? Zumal, wenn jemand auch noch stänkert.

Ätznatron
2014-03-25, 18:31:53
AMD ist dann wohl immer noch blind und/oder kommt gar nicht erst auf die Idee. Wird schon seine Gründe haben.

Na, dann ist ja alles gut... :rolleyes:

Iruwen
2014-03-25, 18:43:17
Trollen funktioniert immer in beide Richtungen.

kruemelmonster
2014-03-25, 18:46:00
Warum wird denn erst seit kurzem an diesem Treiberzweig gearbeitet? War nVidia die Jahre davor blind?

Darum geht es. Ob die Enwicklung nun Wochen, Tage, oder Stunden dauert, ist da völlig belanglos.

Man hätte es viel eher haben können (es sei denn, an Verschwörungstheorien bzgl. Microsoft ist etwas dran).

Man hätte von AMD auch schon seit Jahren die Unterstützung von Driver Command Lists erwarten können. :rolleyes:
Stattdessen haben sie wohl Überbleibsel ihrer DCL-Entwicklung zusammen mit Ansätzen bzw Ideen von DX12 und ner ordentlichen Portion Eigencode vermengt und das Kind dann Mantle genannt.
NV wird nun im Prinzip nichts anderes machen, nur das deren DCL-Implementierung seit einiger Zeit fertig und im Treiber ist, und sie an DX gebunden sind und so weniger Raum für crazy shit haben werden.

Und da die Forza 5 DX12 Techdemo genauso wie der zugehörige DX12-Treiber von NV kaum plötzlich vom Himmel gefallen sein werden, lässt sich wohl annehmen dass spätestens seit der Mantle-Ankündigung dran gearbeitet wird und die aktuelle Treiberankündigung wohl auf Ressourcenumverteilung im Treiberteam zurückzuführen ist.

Disclaimer: mein Name ist Hase, ich weiß von nix. Aber die einfachen Erklärungen sind oft die besten. :biggrin:

Blediator16
2014-03-25, 20:30:46
Man hätte von AMD auch schon seit Jahren die Unterstützung von Driver Command Lists erwarten können. :rolleyes:
Stattdessen haben sie wohl Überbleibsel ihrer DCL-Entwicklung zusammen mit Ansätzen bzw Ideen von DX12 und ner ordentlichen Portion Eigencode vermengt und das Kind dann Mantle genannt.
NV wird nun im Prinzip nichts anderes machen, nur das deren DCL-Implementierung seit einiger Zeit fertig und im Treiber ist, und sie an DX gebunden sind und so weniger Raum für crazy shit haben werden.

Und da die Forza 5 DX12 Techdemo genauso wie der zugehörige DX12-Treiber von NV kaum plötzlich vom Himmel gefallen sein werden, lässt sich wohl annehmen dass spätestens seit der Mantle-Ankündigung dran gearbeitet wird und die aktuelle Treiberankündigung wohl auf Ressourcenumverteilung im Treiberteam zurückzuführen ist.

Disclaimer: mein Name ist Hase, ich weiß von nix. Aber die einfachen Erklärungen sind oft die besten. :biggrin:

Weisst das ist wie mit Dx 11 und dx 11.1/11.2. Wenn es soweit ist, dann gehe ich mal davon aus, dass AMD etwas parat haben wird oder wo siehst du den krassen Unterschied zu NV in nicht Mantle Spielen.

StefanV
2014-03-26, 09:01:04
Meine Fr...Güte, wie oft soll die GeForce 4 Geschichte noch aus dem Sarg gezerrt werden?
FYI: Ich bezog mich in meinem Posting auf Fermi Karten. Aber gut, die ganzen Forenpostings, die über Probleme mit Fermis und neueren Treibern berichten, sind ja alle falsch...

Ailuros
2014-03-26, 10:41:04
Trollen funktioniert immer in beide Richtungen.

....und da es in letzter Zeit schon fast einer Epidemie aehnelt:

Ich hab gestern nicht nachgezaehlt wie vielen ich allein hier im Technologie Forum von beiden Fraktionen Urlaub verpasst habe. Wer will kann versuchen weiterzutrollen, aber es wird keine weiteren Vorwarnungen geben.

mkh79
2014-03-26, 13:09:32
Jetzt lässt du dich aber füttern, hoffentlich bist du nicht aus der MS PR Abteilung...;). Zur Zeit hab ich 2,5 Promille und eine Rechtschutzversicherung. Ich weise dich mal auf diesen "Fehler" hin...http://www.zdnet.de/88142315/microsoft-mail-uber-directx-ausstieg-war-ein-fehler/. Zeit gewinnen, nennt man das. Würde behaupten AMD hat das zu lange gedauert, oder aber zuviel gekostet. Viele Vorstellungen seitens MS sind wohl gefloppt, da kommt das gute alte DX doch ganz gelegen, oder? Zumal, wenn jemand auch noch stänkert.
Hmm,ok, ich verstehe ungefähr, was du meinst.
Aber da warte ich eher nochmal ab mit der Meinungsbildung, ob nvidias Folien da nicht vielleicht ein bisschen viel PR sind.
Wäre ja jetzt auch nicht das erste Mal :D

kruemelmonster
2014-03-26, 15:44:23
FYI: Ich bezog mich in meinem Posting auf Fermi Karten. Aber gut, die ganzen Forenpostings, die über Probleme mit Fermis und neueren Treibern berichten, sind ja alle falsch...

Sie sind nicht falsch, aber man muß schon etwas aufpassen beim lesen.

Die Probleme hatten eine spezifische Ursache deren Erkennung und Behebung etwas länger gedauert hat, seit einigen Treibern scheint wieder alles korrekt zu laufen.
Aber noch wichtiger: es war fast ausschließlich der kleine Fermi GF1x4 betroffen, die älteren GF1x0 Karten liefen auch mit Problemtreibern sauber.

Jetzt fehlt mir noch nur die Theorie dass NV absichtlich einen seiner Bestseller verbuggt hat damit die enttäuschten Besitzer sich eine neue NV Karte kaufen... :rolleyes:

fondness
2014-03-27, 11:52:08
Das neue AIDA kann ein paar Mantle Features auslesen:
http://www.pcper.com/news/General-Tech/AIDA64-Version-430-Released

Iruwen
2014-03-27, 12:07:57
Hieß das erste Aida dann Everest und jetzt wieder Aida? :confused:

MiamiNice
2014-03-27, 13:27:04
Hieß das erste Aida dann Everest und jetzt wieder Aida? :confused:

Jop

AIDA32 wurde von dem Ungarn Tamas Miklos entwickelt und mehrere Jahre lang als Freeware angeboten. Im März 2004[3] wurde die Entwicklung von AIDA32 gestoppt, das Programm umbenannt und unter dem neuen Namen EVEREST kostenpflichtig von der kanadischen Firma Lavalys vermarktet, während die Entwicklung weiterhin in Ungarn stattfand.[4] Das Programm Everest konnte System- und Übertaktungsinformationen sowie Hardwareeigenschaften anzeigen und verfügte über ein Diagnosemenü, um Hardwareprobleme anzeigen und lösen zu können.
Im Oktober 2010 erschien AIDA64 als Weiterentwicklung und EVEREST wurde eingestellt. Im November 2010[5] übernahm die neu formierte FinalWire Ltd. mit Sitz in Ungarn und unter Führung von Tamas Miklos alle Softwarerechte an EVEREST und führt nun die Produktpalette unter dem Namen AIDA64 fort.

Raff
2014-03-28, 09:24:43
Zurück bei Papi sozusagen. :D

MfG,
Raff

Knuddelbearli
2014-03-28, 12:24:04
und jedesmal durfte man neu zahlen ...
gibt leider keine / kaum Alternativen für eine Logitech g15

Screemer
2014-03-28, 13:00:15
HWiNFO (http://www.hwinfo.com/)?

captain_drink
2014-03-30, 20:15:28
HWiNFO (http://www.hwinfo.com/)?

Kann ich empfehlen, ist auch mit der G15 sowie dem RTSS kompatibel.

d2kx
2014-03-31, 16:52:33
Battlefield 4 Update

MANTLE
-Mantle now requires Catalyst 14.2 or later drivers.
-Fixed multiple crashes.
-Fixed memory leak when switching between windowed and full screen.
-Optimized memory management which can reduce amount of performance stalls when video memory is overcommitted.
-Improved performance when vsync is used.
-Fixed bug with offset mouse cursor when using full screen and horizontal windows taskbar.
-Multi-GPU: Added initial support for frame pacing for smoother frame rate in full screen mode, enabled by default. Can be disabled in console / User.cfg with “RenderDevice.FramePacingMethod 0”.
-Multi-GPU: Fixed black screen when starting on machine with multiple GPUs where the weakest GPU has the display attached to it.
-Multi-GPU: Fixed intermittent crash when switching between windowed and full screen mode when having multiple GPUs

horn 12
2014-03-31, 17:57:22
@d2kx

Wird es am 08 April wohl auch den WHQL Treiber für Mantle geben, sprich 14.4 WHQL inkl. Frame Pacing 2.0
Weisst du eventuell Genaueres /diesbezüglich ?

StefanV
2014-03-31, 18:52:21
14.4, den 13.4 gabs letztes Jahr ;)

d2kx
2014-03-31, 19:58:28
@d2kx

Wird es am 08 April wohl auch den WHQL Treiber für Mantle geben, sprich 13.4 WHQL inkl. Frame Pacing 2.0
Weisst du eventuell Genaueres /diesbezüglich ?

Am 8. April erscheint kein WHQL-Treiber, nur ein neuer HWE-Treiber für die R9 295X2. Außerdem hängt das aus bekannten Gründen immer ein wenig von Microsoft ab. Der Catalyst 14.4 WHQL (13.351) entspricht weitestgehend dem Catalyst 14.3 Beta, mit Ausnahme einiger kleinerer Verbesserungen für Dual- und Quad-CrossFire und ist daher für Enthusiasten und Single-GPU-User eher uninterssant. Vor allem im Hinblick auf den anstehenden 14.100 (Beta)...

horn 12
2014-03-31, 20:51:13
Danke, und die defekte Lüftersteuerung sollte mit 14.100 (Beta) behoben sein?
Wann kann man bitte mit dem Neuen Beta rechnen?
Was sollte der Neue Beta beinhalten, weisst du bitte was Handfestes ?

tb
2014-04-04, 15:01:39
http://www.slideshare.net/DevCentralAMD/rendering-battlefield-4-with-mantle-by-johan-andersson-amd-at-gdc14

Knuddelbearli
2014-04-04, 15:17:44
da sieht man mal wieder wie doof AMD ist

anstatt mit +120% min fps werben sie mit den 58% average ...

Unicous
2014-04-04, 15:29:47
Das Ding ist doch eh vom letzten Jahr und meines Erachtens auch schon verfügbar gewesen.

samm
2014-04-04, 19:56:44
Nope, das ist vom Datum her und scheint mir inhaltlich (Frame-Pacing, Erkenntnisse zum RAM-Verbrauch) schon relativ aktuell.

Nightspider
2014-04-04, 20:21:36
Wenn einer Zeit und Lust hat zusammenzufassen warum so viel VRAM bei Mantle verschleudert wird, wäre das nett. ^^

aufkrawall
2014-04-04, 20:26:36
Hatte Demirug auf einer nicht weit zurückliegenden Seite schon kurz beantwortet.

Unicous
2014-04-04, 20:26:43
@samm

Es ist die Präsentation von Andersson auf der GDC. Habe mich von dem APU13 verwirren lassen. Die wurde mE dennoch schon hier verlinkt.

Siehe:

http://de.slideshare.net/DICEStudio/rendering-battlefield-4-with-mantle

vom 20.3.

Und Andersson hatte sie glaube ich auch auf dem DICE- oder EA-Blog geuploadet.

CountDoku
2014-04-05, 00:34:23
Also laut diesen Mantle Benches http://www.pcgameshardware.de/Battlefield-4-PC-238749/Specials/Battlefield-4-Naval-Strike-Benchmark-Test-1115642/ gewinnt nVidia unter Windows 8.1 doch einiges. Von Mantle her gesehen bleibt nicht viel übrig. Und wer käuft sich ne High End Karte und einen AMD Prozessor? Ich mach das nicht.

nVidia gewinnt unter DirectX 11.1 verdammt viel. Ich hoffe das wird mal klargestellt unter den Verkaufsempfehlungen. Dabei wollte doch AMD den Titan mit Mantle vernichten. Besonders die GTX770 gewinnt viele Frames unter Windows 8.1. (steht vor einer 7970 GHZ) Dabei ist die GTX770 nur mit wenig MHZ am Laufen. 1200 wäre normal.

Iruwen
2014-04-05, 00:53:59
Guck ich mir das falsche Bild an? Ich seh da keinen großen Zuwachs und die 290X vorne, trotz ultrafixer CPU.

CountDoku
2014-04-05, 00:56:54
Gibst du mir Recht wenn ich sage eine 7970 GHZ loost gegen eine GTX 770 Standard Takt ab oder nicht? Hab ich was auf den Augen? 1200MHZ sollte für eine 770 normal sein. Und wir reden hier von einer normalen 770. In den Benches. Das kann kein AMD Freund schön reden.

Iruwen
2014-04-05, 01:07:26
Ich seh da einfach nichts von "einiges", geschweige denn "verdammt viel", weder bei DX11.1 noch bei Mantle. Wäre die CPU lahmer würde nicht nur der Vorsprung für Mantle größer sondern vermutlich genauso der für DX11.1. Die limitiert da einfach nicht.

CountDoku
2014-04-05, 01:09:10
nVidia steht vor Mantle. AMD wollte nVidia in diesem Game "vernichten" laut Marketing. Jetzt diese Benches anschauen und staunen.

Ja vielleicht mit Kaverie. Aber ich würde nie einen AMD Prozessor kaufen und dazu eine High End Karte.

Und der Wundertreiber kommt noch. Microsoft und nVidia arbeiten Hand in Hand nach der Mantle Ankündigung.

N0Thing
2014-04-05, 01:19:05
Beim Mantle-Benchmark steht AMD (290x) vor Nvidia (780Ti). Ob Mantle die 7970 auch noch vor die GTX 770 bringt, muß man testen wenn die 7970 offiziellen Mantle-Support bekommt.

CountDoku
2014-04-05, 01:20:46
Die gtx 770 ist mit 1050? MHZ gebencht. Das ist sehr selten. 1200 MHZ wären normal. Das dauerhaft. Und selbst so steht die GTX 770 vor der viel gelobten 7970GHZ AMD Mantle Karte. Und warten wir mal den Wundertreiber ab. Ich traue nVidia mehr als AMD. AMD ist Pleite die müssen so Marketinggags bringen. nVidia arbeitet mit Microsoft sehr eng zusammen. Besonders seit dem Mantle Stunt.

@nothing die GTX 770 ist vor der 7970GHZ MIT! MANTLE.

N0Thing
2014-04-05, 01:23:54
Alle Redaktionen, die sich die Mühe machen die Karten in realistischen Szenarien zu testen (vorheizen, etc.) und nicht nur die Vorteile des Boosts mitnehmen, sind da anderer Meinung.

Aber ich merke es schon, ich streue nur weiteres Trollfutter aus...

CountDoku
2014-04-05, 01:28:17
Die GTX 770 wird mit lächerlichen 1050 irgendwas gebencht. 1200MHZ wären normal. Noch grösserer Abstand zur 7970GHZ im Vorzeigegame Battlefield 4. Eine klare Niederlage für AMD. Um das Klarzustellen. AMD verliert gegen nVidia. Windows 8 gewinnt gegen AMD mit Mantle. Und keiner käuft sich ne High End Karte und nen schlappen Prozessor. Das hätte AMD gerne wird aber nie passieren. Das ist normale Denkweise und kein Getrolle.

StefanV
2014-04-05, 01:31:17
Gibst du mir Recht wenn ich sage eine 7970 GHZ loost gegen eine GTX 770 Standard Takt ab oder nicht? Hab ich was auf den Augen? 1200MHZ sollte für eine 770 normal sein. Und wir reden hier von einer normalen 770. In den Benches. Das kann kein AMD Freund schön reden.
1. Nö, beide in etwa gleich lahm...
2. Nö, definitiv nicht.
3. Wie kommst du darauf??
Die gtx 770 ist mit 1050? MHZ gebencht. Das ist sehr selten. 1200 MHZ wären normal.
Äh, Bullshit! (http://www.nvidia.com/gtx-700-graphics-cards/gtx-770/)

Musst jetzt sein, immerhin ist der Link unwiderlegbar ;)

CountDoku
2014-04-05, 01:35:04
Erstmal ist meine GTX 770 schneller als ne 7970GHZ die mir doch eher in diesem Game aufgeschwatzt wurde. Ich sehe meine Karte Boostet DAUERHAFT 1200MHZ und ist nochmal schneller. Nur um das mal klar zu stellen. Was sollte mich zu AMD hinziehen?

NICHTS Mantle ist ein FLOP. Ich hab Windows 8.1.

Und meine GTX ist leiser und weniger Stromschleudernd. Einfach besser. Gameworks und PhysX sind für mich ein Kaufgrund. Ich will Innovationen in GRAFIK! Ich freue mich schon auf Witcher 3.

N0Thing
2014-04-05, 01:37:46
1200MHz sind nicht normal und es hat sich seit 10 Minuten nichts daran geändert, daß die 7970 noch keinen offiziellen Mantle-Support hat.

Die R9 290x platziert sich mit Mantle vor der teureren 780Ti, eine Niederlage für AMD ist also Wunschdenken.

CountDoku
2014-04-05, 01:41:10
Doch der Mantle Support ist gegeben bei der 7970GHZ siehe Frames. Erzähl keinen Scheiss. Mister Schlauberger.

Vergleiche einfach mal 7970GHZ DirectX Frames mit Mantle Frames.

N0Thing
2014-04-05, 01:43:50
Erstmal ist meine GTX 770 schneller als ne 7970GHZ die mir doch eher in diesem Game aufgeschwatzt wurde.

Warum solltest du überhaupt ein Sidegrade erwägen? Macht doch keinen Sinn, falls du nicht nur trollen willst.

Und eine GTX 770 ist nicht generell schneller als eine 7970: Link (http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_ti_gk110_complete_review/index44.php?dummy=&advancedFilter=false&prod%5B%5D=AMD+Radeon+HD+7970+GHz+%5B1050+MHz%5D&prod%5B%5D=NVIDIA+GeForce+GTX+770+%5B1084+MHz%5D&filter%5B0%5D%5B%5D=1680&filter%5B0%5D%5B%5D=1920&filter%5B0%5D%5B%5D=2560&filter%5B2%5D%5B%5D=1&filter%5B2%5D%5B%5D=2&filter%5B2%5D%5B%5D=2+x+2+SSAA&filter%5B2%5D%5B%5D=2x2+SSAA&filter%5B2%5D%5B%5D=4&filter%5B2%5D%5B%5D=8&filter%5B2%5D%5B%5D=SSAA&filter%5B3%5D%5B%5D=16&aa=all)

Doch der Mantle Support ist gegeben bei der 7970GHZ siehe Frames.


Aber nicht offiziell.

CountDoku
2014-04-05, 01:45:14
Hallo? Ich glaub du bist besoffen. Es gibt einen DirectX - Mantle Vergleich. Mehr gibts da nicht zu sagen. Mantle zieht den Kürzeren. Den Link kann jeder sehen. PCGH sag ich nur.

Blediator16
2014-04-05, 01:54:13
Nur noch eine Frage der Zeit bis er wieder gebannt wird.

CountDoku
2014-04-05, 01:55:23
Achso? Ich hab die Wahrheit gesagt. Wird nichts an den Benches ändern. Wer sagt das ich gebannt wurde? Ich glaube nicht.

Man sollte mal von dem Produktdenken abkommen. Peace meine unbekannten Freunde.

Die wollen alle nur unser bestes. Das ist unser Geld und unsere Stimme in der Urne. Alle 4 Jahre. Politmarionetten

Hübie
2014-04-05, 02:30:26
Erstmal ist meine GTX 770 schneller als ne 7970GHZ die mir doch eher in diesem Game aufgeschwatzt wurde. Ich sehe meine Karte Boostet DAUERHAFT 1200MHZ und ist nochmal schneller. Nur um das mal klar zu stellen. Was sollte mich zu AMD hinziehen?

NICHTS Mantle ist ein FLOP. Ich hab Windows 8.1.

Und meine GTX ist leiser und weniger Stromschleudernd. Einfach besser. Gameworks und PhysX sind für mich ein Kaufgrund. Ich will Innovationen in GRAFIK! Ich freue mich schon auf Witcher 3.

Das ist ja noch schlechterer Diskussionsstil als LZ damals hinlegte :freak:

PCGH is offenbar nicht in der Lage deren Problem mit den DLCs mal eben zu googlen. Dann hätten die nämlich herausgefunden dass es lediglich ein paar registry-Einträge sind und schon kann man munter D3D11.1 vs. Mantle benchen. Ist doch echt keine Kunst. :rolleyes:

Gibt's eigentlich ne "Mantle-Liste"??

Swp2000
2014-04-05, 15:28:12
Ich muss gestehen das ich mich mit dem Thema Mantle noch nicht sehr befasst habe. Ich weiß nur, das dies wohl der Name für einen überarbeiteten Treiber ist.
Wird nun jeder neu erscheinende Catalyst Treiber ein Mantle Treiber beinhalten oder gibt es hier dann 2 verschiedene zur Auswahl? Letzteres wäre ja eher uninteressant.

schreiber
2014-04-05, 15:30:28
Ist immer mit drin. Das Spiel muss allerdings Mantle auch unterstützen. Ist eine neue Grafik-API, Ersatz für Directx. Bislang gibts nur Battlefield 4 und das neue Thief.

aufkrawall
2014-04-05, 15:33:49
Ersatz für Direct3D. ;)

dargo
2014-04-05, 15:43:14
Ich muss gestehen das ich mich mit dem Thema Mantle noch nicht sehr befasst habe. Ich weiß nur, das dies wohl der Name für einen überarbeiteten Treiber ist.

Mantle ist eine neue, effizientere API.


Wird nun jeder neu erscheinende Catalyst Treiber ein Mantle Treiber beinhalten oder gibt es hier dann 2 verschiedene zur Auswahl? Letzteres wäre ja eher uninteressant.
Jeder neue Grafiktreiber wird auch Mantle-Support bieten. Alles andere wäre sinnfrei.

dildo4u
2014-04-07, 19:10:13
Nvidia's neuer Treiber ist da +32% im CPU Limit

http://abload.de/img/bf4pfuyo.png


http://www.computerbase.de/2014-04/nvidia-geforce-337.50-benchmark-test-wundertreiber/3/

foenfrisur
2014-04-07, 19:14:49
in gewisser weise als nvidia-konter passt ja auch deren "wunder"-treiber gegen mantle.

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Test-sGeforce-Treiber-33750-gegen-Mantle-1116527/

wen wundert hier was...ein knieschuss?

mfg

edit:
zu lahm....aber die ergebnisse sehen bei pcgh etwas anders und ernüchternder aus.

dildo4u
2014-04-07, 19:18:36
PCGH hat im Singleplayer getestet wo die CPU Last nicht hoch genug ist dafür haben sie 16% bei Crysis 3 gemessen was gar nicht von Nvidia angegeben wurde.

foenfrisur
2014-04-07, 19:43:05
stimmt...
single-player ist mal wieder blödsinn, wenn es um ein cpu-limit geht...

schön wäre es ja, wenn AMD zusätzlich auch nochmal so einen "wunder"-treiber gegen die cpu-last bringen würde.

mfg

dargo
2014-04-07, 19:46:35
stimmt...
single-player ist mal wieder blödsinn, wenn es um ein cpu-limit geht...

Blödsinn nicht unbedingt, man sollte halt nur entsprechend den CPU-Takt senken wenn man denn im CPU-Limit testen will. ;)

Botcruscher
2014-04-07, 19:46:38
1280x720... Da tippe ich eher auf eine Mischung aus Anomalie und Bug. Ohne CPU-Limit würde Mantle unter 1080 nicht zulegen. Der Wundertreiber zeigt da schon nichts mehr.

dildo4u
2014-04-07, 19:51:09
Blaire hat 27% in 1080p(Ultra) gemessen passt zu den 720p CB Werten,der Unterschied ist das er ohne MSAA getestet hat was bei CB ein GPU Limit erzeugt.

http://abload.de/img/bf4_r3356bu58.png

http://abload.de/img/bf4_3370zuk8.png

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10170731&postcount=24

Botcruscher
2014-04-07, 19:58:02
Er hat auch einen 6 Kerner. Da hat NV mal ein paar Käfer eliminiert und besser auf mehr Kerne verteilt. Der Rest sind die üblichen Optimierungen.

dildo4u
2014-04-07, 20:29:33
Er hat auch einen 6 Kerner. Da hat NV mal ein paar Käfer eliminiert und besser auf mehr Kerne verteilt. Der Rest sind die üblichen Optimierungen.
CB hat mit einem 4770 gebencht und im CPU Limt vergleichbare Werte.

Schaffe89
2014-04-07, 21:13:58
Ist schon ein sehr guter Treiber seitens Nvidia und die Mantle Euphorie ist verpufft :D

gedi
2014-04-07, 21:43:44
Im Schnitt 4% bringen AMD natürlich mächtig ins wanken - zudem lies das Fazit auf CB :/

aufkrawall
2014-04-07, 21:50:33
Mit einem I7 hat man mit Mantle nun keinen Vorteil mehr im CPU-Limit und im GPU-Limit keult die 780 Ti mit OC eine 290X (1,2 vs 1,1Ghz, sind realistische Werte).
Wer sich nicht mit dem zweitbesten zufrieden geben will, wird da nicht zur AMD-Lösung greifen.

gedi
2014-04-07, 22:09:09
Mit einem AC geht auch (m)eine weit über 1.2Ghz und muss sich gewiss nicht vor einer TI verstecken ;)

Leider ist bei AMD die Kühlung ausschlaggebend. Ich habe mir eine 2. 290x, auch von MSI - allerdings ne Gaming - zugelegt und dieses ist wohl die schlechteste Custom-Lösung überhaupt!

aufkrawall
2014-04-07, 22:15:38
Kannst du im passenden Thread posten, warum?
Habe die 780 Ti Gaming und bin zufrieden mit der. Müffelt und fiept etwas, aber macht ansonsten sehr viel Spaß.

snutzer
2014-04-07, 22:33:05
Ähm ging es hier früher nicht mal um Frametimes? Wie sind die bei dem neuen Nvidia Treiber? Gleichmässiger?

Botcruscher
2014-04-07, 22:38:08
Mit einem I7 hat man mit Mantle nun keinen Vorteil mehr im CPU-Limit

Deswegen schreien auch alle bei dem Treiber nach schnellen CPU während Mantle bei 1,8 GHz AMD Gurken so richtig explodiert. Ohne massiv CPU Power gibt es überhaupt keinen Zuwachs. Die Story mit der Overheadreduzierung zieht einfach nicht. Der Schnitt liegt selbst bei CB bei wenigen Prozent. DX12/Mantle sind ganz andere Kaliber.

aufkrawall
2014-04-07, 22:49:16
Das bestreitet doch keiner. Trotzdem ist es mit meinem 2500k OC sehr gut spielbar.
Wenn du zu ner 400€ GPU nen APU-Krüppel packen willst, bitte. Wer ne AMD-CPU zum Spielen kauft, ist eh selbst schuld.

Zu den Frametimes:
Kann keine Ruckler mit der 780 Ti feststellen: Wie man sieht, werd ich auf dem zweiten Bild beschossen. Trotzdem gibts da keine Spikes:
http://abload.de/thumb/screenshotwin32-000376ukd.png (http://abload.de/image.php?img=screenshotwin32-000376ukd.png) http://abload.de/thumb/screenshotwin32-0004dyuzo.png (http://abload.de/image.php?img=screenshotwin32-0004dyuzo.png)

Ob es auf anderen Maps genau so aussieht, weiß ich nicht. Ich spiele immer mit fps-Limiter.

Knuddelbearli
2014-04-07, 23:15:47
Nur denkst du zu kurz. Bei mantle und hoffentlich auch DX12 hat der Entwickler auf einmal mehr als doppelt soviel CPU Ressourcen frei für echte Spielephysik oder besserer KI.

Das aktuelle Mantle ist höchstens Interessant zu sehen wieviel es im absoluten CPU limit bringt damit man einschätzen kann wieviel Leistung für anderes dann frei wird.

Und wieso du immer wieder, deine, 780TI hier im Thread ins Spiele bringen musst entschiesst sich sowieso meinen Verständnis

aufkrawall
2014-04-07, 23:25:32
Dann solltest du vielleicht mal dein Kurzzeitgedächtnis überprüfen lassen, snutzer hat nach den Frametimes mit dem neuen NV-Treiber gefragt.
Dass mit Mantle jetzt schon mehr ginge, musst du mir auch nicht erklären. Das ist aber überhaupt nicht die Frage.
Die Konsolen werden den Content vorgeben und bisher hat noch kein Mantle-Spiel irgendwelche Goodies gebracht.
Das ist jetzt ne reine Luftnummer bzw. Krücke bis DX12 für lahme CPUs (Edit: Einzige Ausnahme vielleicht Star Citizen und auch da wird man mit schneller CPU und D3D nicht verhungern).

Bei CB DX11.1 mit dem neuen Treiber schneller als Mantle im CPU-Limit.
Ne größere Blamage hätte es nicht geben können.

Ja, ich weiß, dass es ein 4770k ist. Der erfreut sich aber auch ziemlicher Beliebtheit...

gedi
2014-04-07, 23:44:09
Auch dir empfehle ich eindringlich das Lesen des Fazits. So oder so kann imo von einer Blamage nicht die Rede sein, oder glaubst du inständig dass so ein NV-Treiber ohne Mantle im Bereich des Möglichen gewesen wäre - imo wohl kaum?! BF4 ist bei beiden IHVs mit ENTSPRECHENDER (;)) Hardware im CPU-Limit flüssig wiederzugeben - was will Man(n) mehr?

aufkrawall
2014-04-07, 23:54:11
Das eine hat doch nichts mit dem anderen zu tun. :confused:
Es ist aber einfach nur der Oberhammer, dass die neue, stark auf CPU-Performance abzielende API Mantle, die schon im Vergleich zu NV D3D11.1 relativ viel brachte, nun wiederrum durch D3D11.1 mit bestimmer CPU und neuem Treiber (leicht) überholt wird.
Und das, bis jetzt, völlig ohne Nebenwirkungen.

Das kann AMD so nicht geplant haben. Vielleicht schrauben sie jetzt bei StarSwarm an der GPU-Performance. Da scheinen sie (wieder mal) Defizite zu haben. Bei mir verfestigt sich der Eindruck, AMD haben ihre GPUs einfach per Software nicht so gut im Griff wie NV.

fondness
2014-04-08, 00:10:01
Ne größere Blamage hätte es nicht geben können.



Ja was für eine Blamage. Man bekommt als AMD-User gratis eine neue API die bereits jetzt im Beta Stadion bei den ersten Implementierungen den CPU-Overhead massiv reduziert, die Perf/Watt deutlich erhöht und beinahe perfekte Frametimes ausspuckt. Mit der Cryengine und der Frostbite-Engine hat man praktisch die zwei führenden Engines der heutigen Zeit im Boot. Es werden noch viele Spiele folgen die auch andere Wege gehen werden, Stichwort zB APU-Optimierungen oder AFR-loses Crossfire. Es gibt wahrlich schlimmeres.

gedi
2014-04-08, 00:13:02
Lass es mich so formulieren: Ich wette jemand mit einem X6 oder Bulli (oder Default-I5/7 ....) wird an einer R9 mehr Freude haben, als an einer equivalenten NV-GPU.

Aber für dich als ex-mGpu-User sollte imo von Interesse sein, dass mit Mantle die AFR-Bremse aufgehoben ist (sofern es der Publisher es will, bzw. ressourcentechnisch verantworten kann.

Zuletzt möchte ich noch anmerken, dass du dir meinen letzten Post nochmals zur Gemüte ziehen solltest, denn sonst kommt es auch in diesem Fred wie beinahe in jedem im übertragenen Sinne zu der Aussage, dass die gefahrenen Autos von AMD- oder
NV Mitarbeitern sowieso die besseren, tolleren.... sind.

Lurtz
2014-04-08, 08:07:11
Ja was für eine Blamage. Man bekommt als AMD-User gratis eine neue API die bereits jetzt im Beta Stadion bei den ersten Implementierungen den CPU-Overhead massiv reduziert, die Perf/Watt deutlich erhöht und beinahe perfekte Frametimes ausspuckt. Mit der Cryengine und der Frostbite-Engine hat man praktisch die zwei führenden Engines der heutigen Zeit im Boot. Es werden noch viele Spiele folgen die auch andere Wege gehen werden, Stichwort zB APU-Optimierungen oder AFR-loses Crossfire. Es gibt wahrlich schlimmeres.
Was macht sie denn führend, die Technik?
Was die Verbreitung angeht, verkauft ein Assassin's Creed mit Anvil Next wahrscheinlich so viel wie drei Crysis-Titel...

Botcruscher
2014-04-08, 09:15:15
Das bestreitet doch keiner. Trotzdem ist es mit meinem 2500k OC sehr gut spielbar.
Wenn du zu ner 400€ GPU nen APU-Krüppel packen willst, bitte. Wer ne AMD-CPU zum Spielen kauft, ist eh selbst schuld.

Du hast den Zweck von Mantle und DX12 nicht verstanden. Die skalieren durch weniger Overhead nach unten. NV hat den bestehenden Overhead optimiert und skaliert damit nach oben.
Kurz: DX/Mantle bringen Leistung; der Treiber bedient sich nur an bisher ungenutztem.
Das ist ein fundamentaler Unterschied bei Spielen die wirklich CPUs zum Frühstück fressen. Ein Cities in Motion 2 nimmt die 4T@4,8GHz meines 2500K ganz gerne. Das skaliert einfach abartig. Der große Knall kommt mit dem Ableben der alten Konsolen. Stell dir mal BF4 mit one/ps4 Leistung als Minimum vor.

Exxtreme
2014-04-08, 09:27:31
Das bestreitet doch keiner. Trotzdem ist es mit meinem 2500k OC sehr gut spielbar.
Wenn du zu ner 400€ GPU nen APU-Krüppel packen willst, bitte. Wer ne AMD-CPU zum Spielen kauft, ist eh selbst schuld.

Also ich habe einen Vishera und bin mir sicher, dass der neue Treiber von Nvidia mit dieser CPU sehr gut harmonieren wird aufgrund vieler Kerne, auf die man den Overhead auslagern kann. :D

Wie dem auch sei, die Mantle-Lösung halte ich für besser da sie den Overhead an sich reduziert und ihn nicht irgendwo auslagert.

aufkrawall
2014-04-08, 09:45:58
Du hast den Zweck von Mantle und DX12 nicht verstanden. Die skalieren durch weniger Overhead nach unten.
Komm mir nicht so, wenn du ernstgenommen werden willst. Ich habe nirgendswo den Sinn einer API angezweifelt, die massiv den Overhead reduziert...

Exxtreme, dann hau doch mal ein paar Benchmarks in 720p raus. Hat der vier Module?

del_4901
2014-04-08, 10:00:35
@aufkrawall: Wenn du jedes mal nach release eines games 3 bis 6 Monate warten kannst bis Nvidia im Treiber alles 'angepasst' hat, dann kann man sich das auch schoen reden.

Und bei der Gelegenheit wuerde ich auch gleich mal testen wie weit die Latenz zwischen Maus-Input und Monitor-Ausgabe angestiegen ist.

aufkrawall
2014-04-08, 10:02:36
Du willst mir jetzt nicht erzählen, dass man als AMD-Kunde bei BF4 besser dran war?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10171282&postcount=186

del_4901
2014-04-08, 10:06:39
Du willst mir jetzt nicht erzählen, dass man als AMD-Kunde bei BF4 besser dran war?Als Entwickler mit Sicherheit.

Knuddelbearli
2014-04-08, 10:19:12
Dann solltest du vielleicht mal dein Kurzzeitgedächtnis überprüfen lassen, snutzer hat nach den Frametimes mit dem neuen NV-Treiber gefragt.


Nope eben nicht, zuerst hast du die 780TI gelobt.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10171609#post10171609
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10171626#post10171626

Kannste ja gerne machen aber in einem NV Thread bitte. da war ja nichtmal ein Threadtitel passender Vergleich dabei -.-

Iruwen
2014-04-08, 10:26:04
Wenn es um Mantle geht muss man zwangsläufig mit D3D vergleichen, und da ist NV nunmal die Referenz.

M4xw0lf
2014-04-08, 10:26:18
Und bei der Gelegenheit wuerde ich auch gleich mal testen wie weit die Latenz zwischen Maus-Input und Monitor-Ausgabe angestiegen ist.
Was erwartest du was man da zu sehen bekommt?

fondness
2014-04-08, 10:29:01
Wenn es um Mantle geht muss man zwangsläufig mit D3D vergleichen, und da ist NV nunmal die Referenz.

Ja toller Vergleich der Frametimes mit Framelimiter. Über den Input-Lag reden wir mal lieber nicht.

Demirug
2014-04-08, 10:30:24
Und bei der Gelegenheit wuerde ich auch gleich mal testen wie weit die Latenz zwischen Maus-Input und Monitor-Ausgabe angestiegen ist.

Ich sehe wir vermuten das gleiche. Ich würde auf einen zusätzlichen Frame tippen.

del_4901
2014-04-08, 10:30:53
Was erwartest du was man da zu sehen bekommt?
Einen signifikanten Anstieg? Messt doch einfach mal nach. LED an die Maustaste löten und dann mit dem Monitor zusammen mit einer Hochgeschwindigkeits-Kamera aufzeichnen.

fondness
2014-04-08, 10:32:39
Der Vorteil für NV ist, dass man den Input-Lag deutlich schwieriger messen und vergleichen kann wie fps oder Frametimes. Das macht es aber nicht besser.

del_4901
2014-04-08, 10:46:25
Ich sehe wir vermuten das gleiche. Ich würde auf einen zusätzlichen Frame tippen.
Im besten Fall ist es ein Nullsummenspiel, warscheinlicher ist es aber durchaus schlechter. Ich wuerde auch auf einen zusätzlichen Frame tippen.

M4xw0lf
2014-04-08, 10:49:28
Einen signifikanten Anstieg? Messt doch einfach mal nach. LED an die Maustaste löten und dann mit dem Monitor zusammen mit einer Hochgeschwindigkeits-Kamera aufzeichnen.
Ah. (Das war übrigens eine ernstgemeinte Frage, keine rhetorische ;))

Ich sehe wir vermuten das gleiche. Ich würde auf einen zusätzlichen Frame tippen.
Im besten Fall ist es ein Nullsummenspiel, warscheinlicher ist es aber durchaus schlechter. Ich wuerde auch auf einen zusätzlichen Frame tippen.
Könnt ihr das für Dummies näher erläutern? Zusätzlicher Frame wo und wozu?

Knuddelbearli
2014-04-08, 10:59:13
1 zusätzliche Frame an Verzögerung zwischen Maus und Bildausgabe, und damit man den Berechnungsprozess optimieren kann um eben diese Mehrleistung zu bekommen

del_4901
2014-04-08, 10:59:43
Könnt ihr das für Dummies näher erläutern? Zusätzlicher Frame wo und wozu?Miss erstmal nach, wenn die Resultate da sind koennen wir das anhand der Daten nochmal genauer eroertern und auch spezifischer werden.

M4xw0lf
2014-04-08, 11:01:03
Ich kann leider nicht nachmessen, da ich weder highspeed-Kamera, noch Led, noch eine Nvidia-Karte besitze. ;)

klutob
2014-04-08, 11:07:11
Miss erstmal nach, wenn die Resultate da sind koennen wir das anhand der Daten nochmal genauer eroertern und auch spezifischer werden.
Kann man dies durch das Festsetzen des Pre-Render Limits umschiffen, oder ignoriert das der Treiber deiner Meinung nach?
So könnte man ja einen Benchmark Vergleich Pre-Render Limit = 1 Frame <337.50 vs 337.50 vs 337.50@Default durchführen und feststellen, wieviel der besseren Performance einer eventuellen, höheren Latenz geschuldet ist.

del_4901
2014-04-08, 11:14:02
Kann man dies durch das Festsetzen des Pre-Render Limits umschiffen, oder ignoriert das der Treiber deiner Meinung nach?
So könnte man ja einen Benchmark Vergleich Pre-Render Limit = 1 Frame <337.50 vs 337.50 vs 337.50@Default durchführen und feststellen, wieviel der besseren Performance einer eventuellen, höheren Latenz geschuldet ist.
Die einzig sichere Methode das zu messen ist ohne externen Einfluss. Man kann versuchen mit 2 StopUhren (eine externe und eine als OSD). Dann braucht man nur eine Kamera mit kurzer Belichtungszeit. Aber selbst da nimmt man ja wieder Einfluss auf das Rendering.

Knuddelbearli
2014-04-08, 11:18:20
Naja man nimmt bei jeder FPS Messung Einfluss aufs Rendering ...

mironicus
2014-04-08, 11:18:52
Der neue NVidia-Treiber wird auch nichts daran ändern, dass NVidia-Besitzer bis Ende 2015 auf DirectX 12 warten müssen, um die gleichen Vorteile in eingeschränkter Weise zu erhalten, die Mantle jetzt bietet, dann aber noch weiter warten müssen, dass DX12-Spiele überhaupt erscheinen während es bis dahin schon viele Mantle-Titel geben wird (Spiele die auf Engines beruhen die Mantle Support haben) und AMD alle Benchmarklisten anführt...

Mit Mantle laufen Spiele selbst auf kleineren Karten "runder" und auf günstigeren CPUs, höhere Mindestframeraten, weniger Einbrüche... nur Vorteile.

Iruwen
2014-04-08, 11:20:10
Erstmal abwarten wann und welche Titel es überhaupt gibt bevor der Freudentropfen in die Hose geht.

Angiesan
2014-04-08, 11:21:24
Das hatte die PCGH doch in der letzten Ausgabe getestet, vielleicht ist Raff so gnädig und wiederholt den Test noch mal mit dem neuen Treiber, eine interessante Sache würde mich jetzt brennend interessieren.
Die haben das genau so gemacht wie AlphaTier es beschrieben hat ...LED, Highspeedaufnahme und festgestellt das es bei den alten Treibern keinen signifikanten Unterschiede gegeben hat, dass könnte sich natürlich mit dem neuen geändert haben ;-)

Botcruscher
2014-04-08, 13:03:32
Miss erstmal nach, wenn die Resultate da sind koennen wir das anhand der Daten nochmal genauer eroertern und auch spezifischer werden.
Nehmen wir mal es gäbe diesen einen Frame, wo kommt da der Leistungszuwachs her? Steigt durch die Latenz die Auslastung?

Knuddelbearli
2014-04-08, 13:04:27
Nein du musst es anders rum sehen, durch den einen Frame hätte der Treiber Zeit alles passend umzuordnen bzw auszulagern usw.

Botcruscher
2014-04-08, 13:05:54
OK du hast es besser ausgedrückt. Damit erklärt sich auch der Gewinn bei stärkeren Prozessoren.

Exxtreme
2014-04-08, 13:14:02
Nein du musst es anders rum sehen, durch den einen Frame hat der Treiber Zeit alles passend umzuordnen bzw auszulagern usw.
Ich glaube nicht, dass das die Begründung ist. Macht auch keinen Sinn. Der Treiber scheint nur dann Geschwindigkeitsvorteile zu haben so lange man nicht alle Kerne der CPU voll auslastet. Das zeigen auch die Benchmarks der PCGH. Die haben mal eine lahme CPU mit wenigen Kernen genommen und da tut sich praktisch nichts.

HarryHirsch
2014-04-08, 13:17:42
Dann dürften diese Optimierungen bei zukünftigen Spielen (Konsolenports) ja nicht viel bringen?

mrck
2014-04-08, 13:27:57
Ich glaube nicht, dass das die Begründung ist. Macht auch keinen Sinn. Der Treiber scheint nur dann Geschwindigkeitsvorteile zu haben so lange man nicht alle Kerne der CPU voll auslastet. Das zeigen auch die Benchmarks der PCGH. Die haben mal eine lahme CPU mit wenigen Kernen genommen und da tut sich praktisch nichts.


Das stimmt nicht, der Treiber bringt selbst bei maximaler CPU Auslastung mehr Leistung. Ich sehe auch keine bessere CPU Auslastung bei nicht voll ausgelasteter CPU, trotzdem sind Verbesserungen im zweistelligen Prozentbereich zu verzeichnen.

Knuddelbearli
2014-04-08, 13:31:28
Ich glaube nicht, dass das die Begründung ist. Macht auch keinen Sinn. Der Treiber scheint nur dann Geschwindigkeitsvorteile zu haben so lange man nicht alle Kerne der CPU voll auslastet. Das zeigen auch die Benchmarks der PCGH. Die haben mal eine lahme CPU mit wenigen Kernen genommen und da tut sich praktisch nichts.


und wo widersprechen wir uns da? Den Verwaltungsaufwand zu splitten und aufzuteilen ist nunmal nicht gratis und das da ein höherer Lag dazukommen KÖNNTE ist sicher nicht weit hergeholt

Exxtreme
2014-04-08, 14:09:05
Das stimmt nicht, der Treiber bringt selbst bei maximaler CPU Auslastung mehr Leistung. Ich sehe auch keine bessere CPU Auslastung bei nicht voll ausgelasteter CPU, trotzdem sind Verbesserungen im zweistelligen Prozentbereich zu verzeichnen.
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Test-sGeforce-Treiber-33750-gegen-Mantle-1116527/

Wobei es da einen Nachtrag gibt, der sich auf andere Seiten bezieht.
und wo widersprechen wir uns da? Den Verwaltungsaufwand zu splitten und aufzuteilen ist nunmal nicht gratis und das da ein höherer Lag dazukommen KÖNNTE ist sicher nicht weit hergeholt
Diesen Verwaltungsaufwand hätte man auch mit schnellen Prozessoren und da wäre er auch nicht gratis. Und das würde den Vorteil der "Optimierung" genauso wieder zunichte machen.

mironicus
2014-04-08, 14:11:02
Erstmal abwarten wann und welche Titel es überhaupt gibt bevor der Freudentropfen in die Hose geht.

Nicht ohne Grund ist dieser Thread übervölkert mit neidischen NVidia-Fans, die jegliche Euphorie im Keim zu ersticken versuchen. :freak:

mrck
2014-04-08, 14:12:04
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Test-sGeforce-Treiber-33750-gegen-Mantle-1116527/



Was genau möchtest du mir sagen oder zeigen? Kernvergleiche sind dort jedenfalls nirgends zu sehen, oder Auslastungstests.

Ich brauche keine Tests, da ich es selber getestet habe und weiß man man testet.

Iruwen
2014-04-08, 14:34:13
Nicht ohne Grund ist dieser Thread übervölkert mit neidischen NVidia-Fans, die jegliche Euphorie im Keim zu ersticken versuchen. :freak:
Nicht ohne Grund ist dieser Thread übervölkert mit euphorischen AMD-Fans, die jegliche Kritik im Keim zu ersticken versuchen.

Exxtreme
2014-04-08, 14:52:38
Was genau möchtest du mir sagen oder zeigen? Kernvergleiche sind dort jedenfalls nirgends zu sehen, oder Auslastungstests.

Ich brauche keine Tests, da ich es selber getestet habe und weiß man man testet.
Ich will damit zeigen, dass die PCGH hier einen recht betagten Prozessor genommen hat und sich die auf den Folien versprochenen Steigerungen nicht zeigen.

Von daher ist das IMHO zunächst mit Vorsicht zu geniessen und an eine "Umsortierung" und "Optimierung" innerhalb eines zusätzlichen Frames glaube ich nicht. Ich wüsste auch nicht wie man sowas programmatisch lösen sollte. Vielleicht stimmt das was Demirug mal schrieb, dass sie den API-Overhead in einen eigenen Thread auslagern.