PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mantle - AMD Low-Level-API als Alternative zu DirectX


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

Knuddelbearli
2013-09-29, 15:44:07
Dachte da eher an neue CF / SLI Modi ohne MR und Lag

da braucht es auch kein Vodoo dazu

aufkrawall
2013-09-29, 15:55:17
Welche Modi sollen das sein?
Weißt du, wie kompatibel SFR wäre, wenn die Hardware es denn unterstützen würde? Schon AFR spackt gerne rum.
mGPU-AA scheitert am AA.

S940
2013-09-29, 16:28:43
Mantle ist kein Voodoo ;)
Das nicht, aber bei DICE sollen sie gute Voodoo-Programmierer haben :biggrin:

Exxtreme
2013-09-29, 16:33:28
Dachte da eher an neue CF / SLI Modi ohne MR und Lag

da braucht es auch kein Vodoo dazu
Die Mikroruckler bei CF/SLI haben andere Ursachen. Ein API kann da nichts ausrichten.

StefanV
2013-09-29, 16:45:42
Die Mikroruckler bei CF/SLI haben andere Ursachen. Ein API kann da nichts ausrichten.
Laut Skysnake (und wohl auch anderen), geht das sehr wohl...


Wobei ich momentan davon ausgehen würde, dass der Unterschied in der Performance sehr stark von der verwendeten CPU abhängt. Momentan würde ich einfach mal davon ausgehen, dass Besitzer von High End CPUs weniger von Mantle haben als FX83x0 Besitzer oder eben Besitzer von Low- bis Mid Range CPUs...

Ich denke, dass Mantle als erstes die CPU Last senken wird und auch die GPU Programmierung verbessern wird. Gibt ja einige Aussagen von z.B. Alpha Tier, was gerade bei D3D 'nen bisserl doof gelöst ist.

Gipsel
2013-09-29, 16:58:27
Jo, CTM war echt unterste Ebene, hatte auch noch CAL-PDFs gelesen, da gings dann um R6xx. Aber CAL-Ebene sollte eigentlich reichen. Da ist dann immerhin eine Abstraktionsschicht darüber. Das reicht aber trotzdem noch dafür:

Sollte also low-level genug sein. Architekturübersiucht:

http://www.abload.de/img/cal1p9sem.png

Frage ist jetzt, ob Mantle gleich pure AMD IL (plus Grafikfunktionen) ist, oder ob sie noch was schönes hochsprachenähnliches darüber eingezogen haben, eben ne Art OpenCL für Grafik. Aber keine Ahnung in dem Fall ...

Was man festhalten kann ist, dass man wohl schon mit wenigstens einer IL-Schicht rechnen kann. CTM wäre total pures Assembler, falls sie dann mal GCN umstellen sollten, wärs unpraktisch.

Ne IL wäre dann auch eine Einstiegsmöglichkeit für Nvidia. In obigen Bildchen müssten die quasi "nur" einen Ersatz für den CAL-compiler bauen, also Input AMD IL, Output Nvidia-Assembler.

Aber eigentlich war das alles bisher auch schon klar, da hat die CAL+CTM-Recherche nicht viel gebracht.
Wie man die Shader-Kernel schreibt, ist eher nebensächlich. Das geht ja bei Mantle wahlweise auch per HLSL. Der Focus bei Mantle wird es sein, wie man sich aus den verschiedenen Shadern seine Grafikpipeline bastelt, man wird mehr Kontrolle (und damit Freiheiten) haben, wie genau was aufeinanderfolgt (oder parallel läuft), welche Daten wo und wie genau abgelegt werden, wie synchronisiert wird usw. Der wichtige Part ist eigentlich der ganze Verwaltungsoverhead, den man mit Mantle auf einer tieferen Ebene in Angriff nehmen kann. Man wird mehr oder weniger direkt auf die Commandbuffer und Taskqueues der GPU Zugriff erhalten (eventuell auch auf's Scheduling/Workdistribution und die Priorisierung?). Die Frage ist nur, ob man das direkt mit dem GCN-Binärformat verheiratet, oder ob es dafür ebenfalls eine Art IL geben wird, die der Mantle-Treiber dann erst in die binäre Darstellung übersetzt (was Möglichkeiten für andere GPU-Hersteller öffnen könnte, je nachdem wie abstrahiert das ist).
Und CAL fehlen in der Beziehung doch deutlich ein paar Möglichkeiten.
Die Mikroruckler bei CF/SLI haben andere Ursachen. Ein API kann da nichts ausrichten.Die API nicht, aber wenn man dem Entwickler die nötige Kontrolle an die Hand gibt, kann das Game das selber machen. Das sollte sehr wohl gehen.

S940
2013-09-29, 16:59:24
Laut Skysnake (und wohl auch anderen), geht das sehr wohl...


Wobei ich momentan davon ausgehen würde, dass der Unterschied in der Performance sehr stark von der verwendeten CPU abhängt. Momentan würde ich einfach mal davon ausgehen, dass Besitzer von High End CPUs weniger von Mantle haben als FX83x0 Besitzer oder eben Besitzer von Low- bis Mid Range CPUs...

Ich denke, dass Mantle als erstes die CPU Last senken wird und auch die GPU Programmierung verbessern wird. Gibt ja einige Aussagen von z.B. Alpha Tier, was gerade bei D3D 'nen bisserl doof gelöst ist.

Zur Performance gabs auf neogaf nen netten (groben) Test:

There are instanced where it could help tremendously, but game would have to be designed specifically with that in mind.

Btw i've just made draw call performance test in CryEngine SDK, quite surprising results :)
Video - http://youtu.be/GrSpm2AZWVU (draw calls are listed as DP 3rd row from the top)

Results, not from video, but a little more precise testing:
300 draw calls - 105 fps
2100 draw calls - 104 fps
3000 draw calls - 103 fps
4000 draw calls - 101 fps
5000 draw calls - 91 fps
6000 draw calls - 83 fps
7000 draw calls - 75 fps
9000 draw calls - 65 fps
13000 draw calls - 49 fps
17000 draw calls - 41 fps
20000 draw calls - 37 fps
on stock i5 2500k and GTX 560. Dunno if my GPU has anything to do with it, but recording with FRAPS havent affected fps in any meaningful way. http://www.neogaf.com/forum/showpost.php?p=83775657&postcount=397

Wenn man das Versprechen von AMD/Dice über die 9x soviel Drawcalls für bare Münze nimmt, dann hätte man also bei ~17000 Drawcalls 104 statt 41 fps (Rechnung: Die 2100 Drawcalls bei 104 fps mal 9 -> 18900 Drawcalls)

Wär ja schon nett ... schon Faktor 5 würde reichen, da man bei 3000/4000 Drawcalls auch noch über 100 fps ist.

aufkrawall
2013-09-29, 17:02:07
Die API nicht, aber wenn man dem Entwickler die nötige Kontrolle an die Hand gibt, kann das Game das selber machen. Das sollte sehr wohl gehen.
Ist die Frage, ob das sinnvoll wäre. Dice, Crytek und Epic würden das sicher angehen. Aber andere?
Die Ruckler sind auch gar nicht mehr so das eigentliche Problem, sondern der Lag. Und wie will man den lösen?

Gipsel
2013-09-29, 17:07:03
Ist die Frage, ob das sinnvoll wäre. Dice, Crytek und Epic würden das sicher angehen. Aber andere?
Die Ruckler sind auch gar nicht mehr so das eigentliche Problem, sondern der Lag. Und wie will man den lösen?Das Lag mußt Du ebenfalls über das Engine-Design niedrig halten. Der Treiber kann das prinzipiell nicht verringern (höchstens erhöhen), aber ein Zugriff auf tieferer Ebene kann dem Entwickler dabei helfen.

aufkrawall
2013-09-29, 17:10:13
Schon, aber mit AFR kann man doch den 1 Frame-Lag pro weiterer GPU trotzdem nicht umgehen (ohne relativ deutliche Kosten)?

Demirug
2013-09-29, 17:10:20
Die API nicht, aber wenn man dem Entwickler die nötige Kontrolle an die Hand gibt, kann das Game das selber machen. Das sollte sehr wohl gehen.

Aber nur wenn die Hardware überhaupt die Möglichkeiten dazu hat. Und wenn sie diese hätte ist anzunehmen das man das Problem schon längst im Treiber gefixed hätte.

Zur Performance gabs auf neogaf nen netten (groben) Test:
http://www.neogaf.com/forum/showpost.php?p=83775657&postcount=397

Wenn man das Versprechen von AMD/Dice über die 9x soviel Drawcalls für bare Münze nimmt, dann hätte man also bei ~17000 Drawcalls 104 statt 41 fps (Rechnung: Die 2100 Drawcalls bei 104 fps mal 9 -> 18900 Drawcalls)

Wär ja schon nett ... schon Faktor 5 würde reichen, da man bei 3000/4000 Drawcalls auch noch über 100 fps ist.

Das ist ein ziemlich dämlicher Test. Wenn man den Overhead einer API analysieren will darf man nur die nackte API benutzten. Sobald man eine Engine benutzt kommt noch jede Menge zusätzlicher Overhead dazu.

Gipsel
2013-09-29, 17:13:06
Aber nur wenn die Hardware überhaupt die Möglichkeiten dazu hat. Und wenn sie diese hätte ist anzunehmen das man das Problem schon längst im Treiber gefixed hätte.Na was glaubst Du denn, was das Framepacing/-metering im Treiber macht? :rolleyes:
Und unter Entwicklerkontrolle läßt sich da vermutlich manchmal noch die eine oder andere übrig gebliebene Klippe umschiffen (weil der Engine prinzipiell mehr Informationen zur Verfügung stehen). Und mit einem low-level-Zugriff an DX vorbei, kannst Du vermutlich auch diese VSync-Geschichten unter voller Kontrolle des Games flexibler handhaben, wie eben auch auf Konsolen.

-/\-CruNcher-/\-
2013-09-29, 17:19:48
Selbst die Drawcalls zu Profilen erzeugt doch schon overhead ;)

Und wenn ich mir die testscene da anschaue bezieht sich sein test ja quasi nur auf den triangles count ?

Heutzutage ist doch der Shader overhead viel interessanter und den sieht man nicht über die drawcalls ;)

Exxtreme
2013-09-29, 17:25:34
Laut Skysnake (und wohl auch anderen), geht das sehr wohl...

Weder die Hardware noch die Software können hellsehen. Daran wird es schon scheitern. Und wenn es so einfach wäre dann hätte man es längst in den Treibern gefixt gehabt.

samm
2013-09-29, 17:30:00
Ist die Frage, ob das sinnvoll wäre. Dice, Crytek und Epic würden das sicher angehen. Aber andere?Wäre schon mal super, wenn alle drei das in ihren Engines entsprechend anbieten würden - damit wäre direkt ein grosser Teil grafisch anspruchsvoller Games abgedeckt :)
Die Ruckler sind auch gar nicht mehr so das eigentliche Problem, sondern der Lag. Und wie will man den lösen?Stimme zu. Gerade für kommende VR-Spielereien wird das Bedürfnis aber merklich steigern, die diversen fixen Lag-Quellen in Engines anzugehen (MGPU ist nicht der grösste Übeltäter in dem Bereich, sondern einfach der, der sich für single GPU user automatisch erledigt ;) )

aufkrawall
2013-09-29, 17:35:34
Wäre schon mal super, wenn alle drei das in ihren Engines entsprechend anbieten würden - damit wäre direkt ein grosser Teil grafisch anspruchsvoller Games abgedeckt :)

Wo wäre der Fortschritt zu heute? ;)
Bei vielen modernen DX11-Spielen wie TR, Hitman oder Crysis 3, sehen die Frametimes bei 2-Way SLI meist ziemlich gut aus.


Stimme zu. Gerade für kommende VR-Spielereien wird das Bedürfnis aber merklich steigern, die diversen fixen Lag-Quellen in Engines anzugehen (MGPU ist vielleicht nicht mal der grösste Übeltäter in dem Bereich).
Für VR kommt man wohl um mGPU nur schwer herum, um nicht wegen den fps schon aufs Klo rennen zu müssen.

del_4901
2013-09-29, 17:43:25
Da gibt es dann eine GPU auf jedes Auge. ;)

Botcruscher
2013-09-29, 17:49:47
Damit hätte sich die Problematik dann ganz erledigt.:D

Demirug
2013-09-29, 17:53:17
Damit hätte sich die Problematik dann ganz erledigt.:D

Selbst dafür muss die Hardware in der Lage den Framewechsel zu synchronisieren. Zu mindestens früher hat sich nvidia dieses Feature mal teuer bezahlen lassen.

S940
2013-09-29, 19:30:31
Wie man die Shader-Kernel schreibt, ist eher nebensächlich. Das geht ja bei Mantle wahlweise auch per HLSL. Der Focus bei Mantle wird es sein, wie man sich aus den verschiedenen Shadern seine Grafikpipeline bastelt, man wird mehr Kontrolle (und damit Freiheiten) haben, wie genau was aufeinanderfolgt (oder parallel läuft), welche Daten wo und wie genau abgelegt werden, wie synchronisiert wird usw. Der wichtige Part ist eigentlich der ganze Verwaltungsoverhead, den man mit Mantle auf einer tieferen Ebene in Angriff nehmen kann. Man wird mehr oder weniger direkt auf die Commandbuffer und Taskqueues der GPU Zugriff erhalten (eventuell auch auf's Scheduling/Workdistribution und die Priorisierung?). Die Frage ist nur, ob man das direkt mit dem GCN-Binärformat verheiratet, oder ob es dafür ebenfalls eine Art IL geben wird, die der Mantle-Treiber dann erst in die binäre Darstellung übersetzt (was Möglichkeiten für andere GPU-Hersteller öffnen könnte, je nachdem wie abstrahiert das ist).
Und CAL fehlen in der Beziehung doch deutlich ein paar Möglichkeiten.

Ich geh eigentlich von ner IL aus, direktes Binärformat wäre ja CTM, kann ich mir nicht wirklich vorstellen, dass sie das nochmal machen, nachdem sies schon selbst vorher gegen CAL ersetzt hatten.
Was fehlt der AMD IL denn noch? Gibt mittlerweile die HSAIL, die scheint nicht großartig in Grafikrichtung erweitert worden zu sein, aber man spricht von Extensions:
http://www.abload.de/img/slide-23-1024xuu6f.jpg

Also vielleicht Mantle als herstellerspezifische Extension, wär das sinnvoll?


Das ist ein ziemlich dämlicher Test. Wenn man den Overhead einer API analysieren will darf man nur die nackte API benutzten. Sobald man eine Engine benutzt kommt noch jede Menge zusätzlicher Overhead dazu.Also im ersten Moment stimm ich Dir zu, im zweiten muss ich aber die Frage stellen ob Engines die Drawcall-Rate wirklich so stark beeinflussen können, das es signifikant wird.
Da wurde doch schon bei DX10 mit Microsoft gefeilscht, dass sie die DrawCalls erhöhen konnte, da sie so wichtig sind. Kann mir also aus meiner naive Sicht nicht so gut vorstellen, dass ne Engine weitere DrawCall-Limits einbauen sollte.

Aber wenn Du jetzt sagst: "Doch, glaub mir", dann glaub ich Dir ;-)

(del676)
2013-09-29, 19:30:45
Gibts schon eine Aussage bezueglich Mantle und Crossfire?

Gipsel
2013-09-29, 19:39:22
Was fehlt der AMD IL denn noch?Die ist nur dafür da, Shader zu schreiben. Wie man die aufruft, das Management der Resourcen und der ganze Kram ist kein Teil der IL (dafür hat man die CAL/Stream-API genutzt, die aber zu eingeschränkt ist). Die IL ist einfach keine API, sie ist eine Sprache für Shadercode (praktisch DX-ASM + Erweiterungen).

S940
2013-09-29, 21:00:54
Oki, Danke :)

Psychopat
2013-09-29, 23:03:35
Frage von jemandem der keine Ahnung hat:
Wann limitieren denn typischerweise die Drawcalls? Eher bei hohen FPS oder bei niedrigen FPS?

Also falls sich diese Frage beantworten lässt, habe ich mit mehr Drawcalls eher höhere Min FPS oder höhere Max FPS?

(del676)
2013-09-29, 23:07:43
Die Drawcalls hast du immer. Aber eher hoehere minFPS, da die meist ja wegen CPU Limits einsetzen. Weniger CPU Last -> hoeher CPU Limit.

Schaffe89
2013-09-30, 09:36:45
Ist das Problem nicht eher vielmehr, dass die GPU Arbeit von der CPU zugeteilt bekommen muss?
Was bringt mir die Einsparung der Drawcalls wenn die CPU/RAM schlichtweg zu lahm ist/sind die Daten über den Bus rüberzuschaufeln und die GPU schon wieder arbeiten könnte?

Die Drawcalls sind doch seit Jahren unter Direct 3D immer weniger geworden.
Hat da AMD mit Huma evtl. Vorteile?

Bei vielen modernen DX11-Spielen wie TR, Hitman oder Crysis 3, sehen die Frametimes bei 2-Way SLI meist ziemlich gut aus.



Ja wenn du mit Fake FCAT misst, dann bekommst du tolle Frametimes, aber die Display vs Ingame Zeit würde die tollen Werte wieder verhageln.

boxleitnerb
2013-09-30, 10:19:14
Das ist reine Spekulation. Crysis 3 z.B. läuft mit 2-way SLI selbst mit ca. 40 fps noch sehr angenehm. Da ist nichts von irgendwelchen Unregelmäßigkeiten zu spüren. Bei anderen Spielen wie FC3 oder Skyrim sieht das ganz anders aus.

Flusher
2013-09-30, 13:44:49
Als Laie zu dem Thema APIs mal ne Frage: Mantle = Näher an der Hardware = Aufwändiger zu coden? :confused:

Meinem Verständnis nach wird doch gerade deswegen in "höheren" Programmiersprachen geschrieben, damit man die gleiche Grütze nicht in x tausenden Zeilen Assembler schreiben muss.

Bedeutet Mantle also für die Entwickler auch mehr "Codeaufwand" ?

Iruwen
2013-09-30, 14:54:27
Damit dürfte Nvidia auch die (meisten?) 11.1 Features in BF4 nutzen können.
Können sie offenbar auch so: http://nvidia.custhelp.com/app/answers/detail/a_id/3196/~/fermi-and-kepler-directx-api-support

AintCoolName
2013-09-30, 15:10:12
Bedeutet Mantle also für die Entwickler auch mehr "Codeaufwand" ?

Natürlich, aber nicht wegen Assembler Programmierung, das muss man natürlich nicht machen um die Mantel API zu nutzen, sondern weil man zwei API Supporten muss(DX und Mantel).

CompuJoe
2013-09-30, 15:31:35
Natürlich, aber nicht wegen Assembler Programmierung, das muss man natürlich nicht machen um die Mantel API zu nutzen, sondern weil man zwei API Supporten muss(DX und Mantel).

Mussten sie bisher auch, und da waren es sogar 3 (PC(DX), PS3, XB360), jedenfalls bei Multiplatformtiteln

aufkrawall
2013-09-30, 15:31:56
Ja wenn du mit Fake FCAT misst, dann bekommst du tolle Frametimes, aber die Display vs Ingame Zeit würde die tollen Werte wieder verhageln.
Ja klar, jeder von uns misst mit dem (ganz bösen) FCAT, weil wir ja auch alle +1k€ Hardware dafür anschaffen...
Ich brauch auch nix messen bzw. das macht mein Körper automatisch beim Zocken und dessen Ergebnisse decken sich mit Fraps.

S940
2013-09-30, 16:12:46
Natürlich, aber nicht wegen Assembler Programmierung, das muss man natürlich nicht machen um die Mantel API zu nutzen, sondern weil man zwei API Supporten muss(DX und Mantel).
Doch der Aufwand ist auch höher, weil die API ja "tiefer" liegt. Da muss man sich um mehr Kinderkram kümmern. Der Vorteil ist, dass man das manchmal will ... deswegen war der Spruch auf einer Seite "More with more". Mehr Aufwand, aber auch mehr Nutzen.

-/\-CruNcher-/\-
2013-09-30, 17:37:57
Können sie offenbar auch so: http://nvidia.custhelp.com/app/answers/detail/a_id/3196/~/fermi-and-kepler-directx-api-support

Man kann es für gut oder schlecht heisen aber Nvidia trift immer solche interessanten Entscheidungen wenn sie etwas nicht akzeptieren lassen sie es einfach weg oder implementieren es je nach den (nach ihrer sicht) spezifischen Verwendungszweck den sie beim User sehen Low end/High end Desktop/Laptop.
Ich weiss nicht ob dieses verhalten gut oder schlecht zu bewerten ist weil alles das was Nvidia weggelassen hat durch die Bank weg AMD immer voll unterstützte und ihre GPU troztdem billiger und im gleichen level in einigen teilen sogar besser ist da werden wenig unterschiede zwischen Usern gemacht und immer überall alls implementiert selten das gekürtzt wird was im Desktop ist ist zu 99% eigentlich immer in den Laptop GPUs zu finden und bei Low und High end gibt es auch nicht feature unterschiede.
Nvidia entscheidet einfach mal für jeden User das er gewisse features nicht brauch , sieht man es von der Effizienz her ist es vieleicht richtig das zu tun und zu sagen Geforce ist ne Gaming GPU da will keiner volle Direct2D Hardwarebeschleunigung als beispiel.
Aber sieht man sich dann den Preis Unterschied und Performance an kommt man doch ins grübeln was das immer soll seitens Nvidia. Hat Nvidia einen wirklichen Die transistor Vorsprung durch diese taktik, müssen sie so minutiös mit allen features kalkulieren und was sagt das über ihre Effizienz aus ?

dargo
2013-09-30, 17:55:04
Bedeutet Mantle also für die Entwickler auch mehr "Codeaufwand" ?
Sicherlich wenn AMD sich Mantle in BF4 paar Millionen Dollar kosten lässt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9940308&postcount=966

Simon
2013-09-30, 17:57:54
Sicherlich wenn AMD sich Mantle in BF4 paar Millionen Dollar kosten lässt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9940308&postcount=966
Da geht es eher um ein Never Settle Bundle sowie die Demo-Hardware. Von Mantle steht da nix.

dargo
2013-09-30, 18:00:45
Jetzt wo du es sagst. Da gehts wohl eher um das ganze inkl. Spielepaket.

Simon
2013-09-30, 18:12:31
Jetzt wo du es sagst. Da gehts wohl eher um das ganze inkl. Spielepaket.
Wobei AMD sicherlich auch Ingenieure bei DICE arbeiten hat ;)

S940
2013-09-30, 19:45:01
AMD verrät etwas zur Mantle-, True-Audio- und Steambox-Strategie | Planet 3DNow! (http://www.planet3dnow.de/cms/?p=3941&preview=true)

Orginal:

We ask AMD: Why will Mantle be different? (http://vr-zone.com/articles/mantling-alliances-ritchie-corpus-amd-interview/58215.html)

Also in 1-2 Jahren offen, aber bisschen komische Erklärung, dass jeder seine eigene Mantel-Version entwickeln könnte ...

Ronny145
2013-09-30, 19:52:07
VRZ: Any timeline to Mantle’s SDK being made public?

It could be as early as sometime next year or maybe the year after.



Dauert ja noch ewig bis es ein SDK gibt. Ist also eine Dice exklusive Sache derzeit. Bis andere Spiele darauf aufbauen dürfte es Jahre dauern.

Simon
2013-09-30, 19:52:17
VRZ: Any timeline to Mantle’s SDK being made public?

It could be as early as sometime next year or maybe the year after.
Bei AMD's bisheriger Execution wird das also eher Summer 2014. Schade.

Ronny145
2013-09-30, 19:53:08
Bei AMD's bisheriger Execution wird das also eher Summer 2014. Schade.


Eher 2015.

Simon
2013-09-30, 19:54:46
Eher 2015.
Ach, sei doch mal optmistisch wie ich ;D

S940
2013-09-30, 20:04:47
Ist also eine Dice exklusive Sache derzeit.
Also unter exklusiv versteh ich, dass es nur ein einziger hat. Aber da steht doch deutlich, dass auch noch andere Studios herumbasteln, Dice ist nur am weitesten.

We also solicited feedback from a lot of other partners that we haven’t announced yet. At this stage, Battlefield 4 and FrostBite 3 are the closest to deliver something today.

RLZ
2013-09-30, 20:05:33
Dauert ja noch ewig bis es ein SDK gibt. Ist also eine Dice exklusive Sache derzeit. Bis andere Spiele darauf aufbauen dürfte es Jahre dauern.

a)
We also solicited feedback from a lot of other partners that we haven’t announced yet. At this stage, Battlefield 4 and FrostBite 3 are the closest to deliver something today.

b) Ich bin sicher, dass jemand der zur Zielgruppe gehört und nett darum bittet auch Zugriff bekommt. Momentan ist es aber die bessere Strategie sich auf weniger Partner zu konzentrieren.

StefanV
2013-09-30, 20:29:49
Genau. Also die, die eh 'ne Engine basteln (also z.B. Dice, Square Enix, Crytek)...

Man hat ja auch nicht unendliche Resourcen. Und den 'Ottonormal Indy Programmierer' wird das sicher nicht interessieren. Für das nächste Lego Spiel braucht man wohl auch kein Mantle...

Ronny145
2013-09-30, 20:56:29
Also unter exklusiv versteh ich, dass es nur ein einziger hat. Aber da steht doch deutlich, dass auch noch andere Studios herumbasteln, Dice ist nur am weitesten.


Es steht nur ausgesuchten zur Verfügung, eine breite Unterstütztung oder gar als DX11 Ersatz ist somit nicht denkbar. Alle die nicht als AMD Partner auftreten fallen dann wohl schon im Voraus raus. Die Antwort klingt schon fast so, als wenn noch gar nicht entschieden wurde, ob es jemals public werden wird. AMD wird wohl erstmal weiter den exklusiven Weg gehen und einige wenige Partner ins Boot holen.

samm
2013-09-30, 20:58:20
Braucht man ein öffentlich erhältliches SDK, um etwas auf Mantle zu entwickeln? Offensichtlich ist die Antwort "Nein", sonst hätte ja DICE nichts tun können. Ich denke eher, das heisst, bis dahin kriegt man Zugriff auf die nötigen Ressourcen einfach nur direkt von AMD als Dev, die andern erwähnten - wenn auch nicht namentlich - Partner z.B. oder alle Studios, die lowlevel-Zugriff für die Konsolenhardware brauchen.
Laut der Antwort vom PR-Menschen ist das aber eher eine Sache des Software-Stadiums (derzeit wohl noch in Entwicklung, bestenfalls Beta), damit nicht jeder über Bugs und Probleme rummotzt, sondern noch live und im Zusammenspiel mit kompetenten und dran interessierten Menschen ein sauberes SDK entwickelt werden kann.

S940
2013-09-30, 21:08:33
Es steht nur ausgesuchten zur Verfügung, eine breite Unterstütztung oder gar als DX11 Ersatz ist somit nicht denkbar. Das wars doch noch nie, schon auf Seite 1 war doch das entsprechende AMD-Zitat:

Mantle is not for every developer. It is a low-level graphics API designed to drive the GPU in the most efficient manner. This level of access requires a bit more development effort than existing APIs to reap the rewards it provides.

AMD remains committed to support DirectX and OpenGL and to keep optimizing our drivers for those APIs. Mantle is an option that some developers may choose, but it does not affect those that wish to keep using existing APIs.

Ronny145
2013-09-30, 21:09:44
Offensichtlich ist die Antwort "Nein", sonst hätte ja DICE nichts tun können.


Die bekommen alle erforderlichen Infos logischerweise auch so von AMD.

Armaq
2013-09-30, 21:28:17
Es ist ein Riesenaufwand das zu machen und AMD wird das schon ne gute Weile planen und durchführen. Wozu sollten sie sowas für 10% machen? Bei einem Spiel mit 30 Fps hätten wir dann 33 - YAY. Ich gehe davon aus, dass der Impact bei 50% liegt.

dargo
2013-09-30, 21:40:46
Ich gehe davon aus, dass der Impact bei 50% liegt.
Lassen wir mal die 50% im Raum stehen. Auf was bezieht sich das aber genau? CPU-Limit, GPU-Limit, gar Beides? Wenn der höchste Zugewinn nur im CPU-Limit erreicht wird wäre das ein netter Push für die AMD CPUs um gegen Intel anzutreten. :D

Ronny145
2013-09-30, 22:05:08
Das wars doch noch nie, schon auf Seite 1 war doch das entsprechende AMD-Zitat:


Not for every developer war nicht zwangsläufig so gemeint das nur auserwählte Zugriff haben. Jetzt ist es klar. Problem ist jetzt auch, dass nicht involvierte Devs ohne SDK nicht wirklich was zu Mantle sagen können, was echt Schade ist. AMD wird sich wohl zukünftig auf größere AMD Partner beschränken.

gnahr
2013-09-30, 22:32:06
naja, 50% zugewinn vielleicht in den köpfen der berauschten end-anwender.
das ist schon ne beleidigung was hier spekuliert wird, was directX angeblich verschenken könnte.

S940
2013-09-30, 22:36:21
Not for every developer war nicht zwangsläufig so gemeint das nur auserwählte Zugriff haben. Naja, wens interessiert, der kann sicherlich bei AMD anfragen. Wieso sollten sie z.B. Carmack oder sonstwen aussperren? Offiziell ist es auf alle Fälle.

Jetzt ist es klar. Problem ist jetzt auch, dass nicht involvierte Devs ohne SDK nicht wirklich was zu Mantle sagen können, was echt Schade ist.Naja, das ist jetzt aber mal auch keine bahnbrechende Neuerkenntnis. Über was man nicht kennt kann man schlecht reden. Das ist immer und überall so.
AMD wird sich wohl zukünftig auf größere AMD Partner beschränken. Jein ... halt auf die, dies interessiert. Interessant ists eigentlich nur für die Hardcore-Engine-Bastler. Soviele gibts davon sowieso nicht.

naja, 50% zugewinn vielleicht in den köpfen der berauschten end-anwender.
das ist schon ne beleidigung was hier spekuliert wird, was directX angeblich verschenken könnte.
Naja, als einzige Zahl stehen halt die max. 9fachen DrawCalls im Raum.

StefanV
2013-09-30, 23:17:33
Not for every developer war nicht zwangsläufig so gemeint das nur auserwählte Zugriff haben.
Genau, es war so gemeint, dass nur die besten der besten in der Lage sein werden, daraus einen Nutzen zu ziehen. Bzw dass diese Schnittstelle nichts für 'Ottonormalschreiber' ist.


Jetzt ist es klar. Problem ist jetzt auch, dass nicht involvierte Devs ohne SDK nicht wirklich was zu Mantle sagen können, was echt Schade ist. AMD wird sich wohl zukünftig auf größere AMD Partner beschränken.
Naja, noch ist nicht klar, wie das jetzt genau ablief, was AMD gemacht hat und so weiter.

Ich würde sagen, dass AMD die wichtigsten Leute mal angestuppst hat *ey, du, ja du, wir habn da was. Hassu intresse? aber psst*

Und das sind halt die ganz großen. Ich würde mal annehmen, dass auch ein Chris Roberts über Mantle bescheid weiß, dass die leute bei Crytek darüber wissen und noch einige ganz große...
Aber eben nur die, wo 'ne Engine selbst haben, die auch häufiger mal benutzt wird. Wie eben Dice mit der Frostbite. Ich gehe auch mal davon aus, dass Square Enix mit zu den 'Mantle Partnern' gehören könnte...
naja, 50% zugewinn vielleicht in den köpfen der berauschten end-anwender.
das ist schon ne beleidigung was hier spekuliert wird, was directX angeblich verschenken könnte.
Nein, nicht in den Träumen, eher unter bestimmten Situationen...

Und das ist eben der Punkt: Mantle kann wenig bis gar nix bringen. Aber auch gewaltig viel. Je nach Situation eben. Ich würde jetzt nicht ausschließen wollen, dass man in extremen Situationen solche Dinge wie: D3D 9fps, Mantle 60fps provozieren kann.

Aber das wird sicher nicht der Schnitt sein, der wird eher bei sowas um die 10-20% sein, je nach Situation (und wohl auch CPU) mehr oder weniger...

gnahr
2013-09-30, 23:18:52
boah, und wenn man die kantenlänge eines würfels verdoppelt, verachtfacht sich das volumen.
wollen wir diese ziffer nicht noch ein wenig weiter multiplizieren und euphorie streuen?

die andeutung über "im cpu oder gpu-limit" ist da wesentlich fruchtbarer.
vielleicht bringt die geschichte ja auch ganz andere effekte mit sich... angucken kann man es sich auf jeden fall, vielleicht lernen andere vendoren mit guten ideen ja was drauß. :)

Brillus
2013-10-01, 00:00:58
boah, und wenn man die kantenlänge eines würfels verdoppelt, verachtfacht sich das volumen.
wollen wir diese ziffer nicht noch ein wenig weiter multiplizieren und euphorie streuen?

die andeutung über "im cpu oder gpu-limit" ist da wesentlich fruchtbarer.
vielleicht bringt die geschichte ja auch ganz andere effekte mit sich... angucken kann man es sich auf jeden fall, vielleicht lernen andere vendoren mit guten ideen ja was drauß. :)

Was ich so bisschen rausgelesen habe war auch das man besser die Drawcall Paralelisieren kann als mit anderen apis (STichwort CPU-Limit)

Liszca
2013-10-01, 02:23:35
boah, und wenn man die kantenlänge eines würfels verdoppelt, verachtfacht sich das volumen.
wollen wir diese ziffer nicht noch ein wenig weiter multiplizieren und euphorie streuen?
[...]

Besser könnte man mir Mantle garnicht andrehen, wie war das nochmal mit den 9x sovielen drawcalls ...;D

S940
2013-10-01, 19:03:21
AMD arbeitet an APU mit ARM-Kernen für den Mobilmarkt | Planet 3DNow! (http://www.planet3dnow.de/cms/4002-amd-arbeitet-an-apu-mit-arm-kernen-fur-den-mobilmarkt/).

3DC-Thread hier:
3DCenter Forum - AMD/ATI - 64 Bit Arm SoC mit GCN Grafik (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9941927&posted=1#post9941927).

Nachdem das jetzt (gerüchtemäßig) klar ist, geh ich davon aus, dass Mantle für Linux (Android) auch kommt. Alles andere wäre selten dämlich.

BF4 auf nem Tablet .. wieso nicht :freak:

RLZ
2013-10-01, 19:06:48
Macht Sinn.
Das erste was man macht, wenn man in einen hart umkämpften Markt einsteigt, ist eine neue API einzuführen.

S940
2013-10-01, 19:12:34
Macht Sinn.
Das erste was man macht, wenn man in einen hart umkämpften Markt einsteigt, ist eine neue API einzuführen.
Absolut ... einen bereits aufgeteilten Markt wartet auf keinen neuen Mitbewerber, da muss man was anbieten, was die anderen nicht haben.

Landläufig unter "Alleinstellungsmerkmal" bekannt :biggrin:

Armaq
2013-10-01, 20:20:56
Lassen wir mal die 50% im Raum stehen. Auf was bezieht sich das aber genau? CPU-Limit, GPU-Limit, gar Beides? Wenn der höchste Zugewinn nur im CPU-Limit erreicht wird wäre das ein netter Push für die AMD CPUs um gegen Intel anzutreten. :D
Natürlich auf die FPS im Spiel bei einem vorher/nacher Vergleich. Natürlich wissen wir, dass bei einem CPU-Limit nicht unbedingt etwas passieren muss. Du hast das ja hinreichend getestet.

Wenn man sich erste Ergebnisse in BF4 Beta ansieht, dann brauchen wir Mantle vll. sogar für GPU und CPU Limits?

Edit: 2x25% sind leider keine 50%. ;)

samm
2013-10-01, 21:03:28
Derzeit kann man doch nichts Definitives dazu sagen, ausser vermuten, dass Mehrleistung auch mit höherer Einheitenauslastung eingeht, und das wiederum kommt mit höherem Verbrauch und Rennen ins auslastungsabhängige Powerlimit. Die Prozentzahlen sind deswegen illusorisch imo, und derzeit ohne den Hauch eines Implementationsbeispiels sowieso.

(del676)
2013-10-01, 21:34:40
Nachdem ich mir die BF4 Beta jetzt angesehen habe, muss ich sagen, schade AMD. Schade dass ihr soviel Energie und Geld in so ein Drecksspiel gesteckt habt. Aber dem Mainstreamkunden gefaellts sicher.

M4xw0lf
2013-10-01, 21:40:04
Nachdem ich mir die BF4 Beta jetzt angesehen habe, muss ich sagen, schade AMD. Schade dass ihr soviel Energie und Geld in so ein Drecksspiel gesteckt habt. Aber dem Mainstreamkunden gefaellts sicher.
Na dann hat AMD wohl doch nix falsch gemacht, nä ;)

Blediator16
2013-10-01, 21:42:06
Nachdem ich mir die BF4 Beta jetzt angesehen habe, muss ich sagen, schade AMD. Schade dass ihr soviel Energie und Geld in so ein Drecksspiel gesteckt habt. Aber dem Mainstreamkunden gefaellts sicher.

Gibts eine Alternative?

(del676)
2013-10-01, 21:45:54
Um ehrlich zu sein? BF3 war schon schlecht, aber es ist das bessere Spiel. ;)
Egal. Ich brauch jedenfalls kein Mantle in naher Zukunft.

S940
2013-10-01, 22:22:37
Nachdem ich mir die BF4 Beta jetzt angesehen habe, muss ich sagen, schade AMD. Schade dass ihr soviel Energie und Geld in so ein Drecksspiel gesteckt habt. Aber dem Mainstreamkunden gefaellts sicher.
Öhh . Du verwechselst da was .. sie haben Geld in die Frostbite3-Engine gesteckt, nicht in BF4 ;-)
Mit der Engine kommen noch runde 10 Spiele oder so ... machs also nicht an einem Titel fest ;-)

Edit: Laut der Folie:
http://www.planet3dnow.de/cms/wp-content/gallery/mantel/11amd-gpu14.png

Sogar 15+ Spiele.

(del676)
2013-10-01, 22:41:09
Ich weiss. BF4 waere das einzige gewesen, welches mit eventuell intressiert haette.

novl
2013-10-01, 23:01:24
Ich weiss. BF4 waere das einzige gewesen, welches mit eventuell intressiert haette.

Ganzschön weinerlich anhand einer Beta mit einer Map über ein ganzes Spiel zu urteilen. :rolleyes:
Das erinnert mich ja fast an 4Players.

(del676)
2013-10-01, 23:29:07
Und? Die Engine ist scheisse. Da aendert sich mit anderen Maps auch nichts.

Sorry wenn ich konsequent bin, und kein Rueckgrat eines Regenwurms habe.

just4FunTA
2013-10-01, 23:37:14
Nachdem ich mir die BF4 Beta jetzt angesehen habe, muss ich sagen, schade AMD. Schade dass ihr soviel Energie und Geld in so ein Drecksspiel gesteckt habt. Aber dem Mainstreamkunden gefaellts sicher.

warum ist es dir zu kompliziert geworden? :D

Liszca
2013-10-02, 01:02:08
Wenn man sich erste Ergebnisse in BF4 Beta ansieht, dann brauchen wir Mantle vll. sogar für GPU und CPU Limits?

Ähm das war bei BF 3 exakt gleich, den ein oder anderen Fehler ließ sich wieder erkennen.

Bei mir das total willkürliche schwanken frametimes zwischen 23ms bis 160ms. Die kurve gleicht mehr einer Aufzeichnung eines erdbebens.

r-or
2013-10-02, 01:29:23
Sorry wenn ich konsequent bin, und kein Rueckgrat eines Regenwurms habe.
Das war auch mein erster Gedanke, sobald ich deine Signatur gelesen habe





:rolleyes:
Trotzdem stimme ich zu, dass BF4 nicht aus spielerischer Sicht interessant ist.

Felixxz2
2013-10-02, 02:19:18
Schon jemand gepostet dass BF4 bei der GPU14 auf einer 290X in 5760x1080 bei vermutlich 60fps, aber zumindest sehr flüssig lief?
Laut PCGH Benches würde eine Titan das mit ~30fps packen bei Ultra+4xMSAA. Settings sind nat leider unbekannt.

@Ulukay
Sorry für Ot aber was macht BF4 zu so einem schlechten Spiel? Habs noch nich gezockt ;)

Al-CAlifAX
2013-10-02, 08:24:03
Ne ne GlideGL zeiten braucht keiner mehr. vor allem hat mal jemand dran gedacht wer dann die features setzt. nur amd. oder glaubt irgendwer daran das nvidias features die amd nicht kann mantle beherrschen wird. mitnichten. ergo müssten alle hersteller eine gcn kopie herstellen. das wäre wie als hätte intel nie amd64 zugelassen obwohl sie x86 besitzen und lizenzen verteilen. sowas braucht niemand. kurzfristig freuen sich hier kleingeister über doppelte framerates. auf dauer macht es das komplette geschäft kaputt. hier hoffe ich das nvidia geld in die hand nimmt um nvapi zu pushen und auch des ein oder andere spiel exclusiv mit doppelten frames zu haben. ich find schon physix mist obwohl ich nvidia gpu habe. aber weils kein standard ist wirds kaum eingesetzt.

amd war mir schon immer suspekt da die schon öfters so komische sachen durchziehen und dann immer von offen reden oder fehlenden features. kann sich noch wer an hl2 und die FP24 minimum geschichte errinnern? ich hatte ne Geforce FX karte mit der anfangs kein anständiges spielen möglich war weil hl2 fp32 nutze. dadurch wurden FX karten sau langsam weil der schnelle part fp16 war. wie froh ich war als jemand das in hl2 gefixt hat. dann lief des auch auf fx karten toll und sah net schlechter aus.

tressfx als letztes beispiel war auch lustig. wieder sowas "offenes" was auf amd karten optimiert ist. wie gesagt phyix ist da net besser. gott sei dank hatte ich genug power und einige patches sio das tr gut lief auch mit tressfx.

egal von welchem hersteller. features die ne karte kann, okay. dann muss der andere nachziehen mit der nächsten. features die halb offen sind um zu suggerieren das der andere lame ist sind shit. und features die anderen komplett vorenthalten werden wie physix gehören ganz abgeschafft.

benchmarks sind in zukunft ansicht nicht mehr bewertungsfähig. man müsste nun immer D3D testen und am ende dann mantle ohne die anderen hersteller. im grunde wie bei gilde damals. nvidia sollte den tanz net mitmachen. den verlieren sie.

das von entwicklern zu hören ist das man nun so toll für multiplatform entwickeln kann. bullshit. wo sind denn die wii u version eurer spiele. hier gehts nur darum für 1 hersteller und zwar amd zu entwickeln. da ist nix mehr multiplatform. konsolen verkommen so zu pcs mit gamepad und anderem betriebssystem. demnächst mischt dann noch das steamos mit. konsolen ohne amd apu sterben aus. der pc verkommt zur konsole wenn sich mantle extrem durchsetzt ist es auch fraglich ob es noch D3D optimierungen geben wird oder nur ports und fertig. wie solche aussehen hat man ja schon gesehen.

ich kauf mir trotzdem keine amd karte. hab amd genug unterstützt durch den kauf einer wii u und bald einer ps4. das muss reichen. aufm pc will ich standards sehen und keine propäriteren mist. wenn in 3 jahren nvidia keine gpus mehr herstellt wird der pc zur entwicklungshure und es gibt nur noch konsolen für mich. den eiertanz mache ich net mit. hab kein problem wenn amd mal gute gpus bringt. aber mit ner GCN api ist des für mich wie cheating und sowas unterstütze ich net. wie gesagt glide braucht keiner mehr.

und wenn frostbite 3 schlecht D3D optimiert ist dann wirds auch kein kauf von mass effect 4, dragon age 3 usw. für PC sondern nur für konsole. die spiele sind ja sicherlich trotzdem toll.

in diesem sinne. heil mantle oder so. :P

(del676)
2013-10-02, 08:25:24
@Ulukay
Sorry für Ot aber was macht BF4 zu so einem schlechten Spiel? Habs noch nich gezockt ;)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9942181&postcount=1210

PCGH_Carsten
2013-10-02, 09:29:21
Schon jemand gepostet dass BF4 bei der GPU14 auf einer 290X in 5760x1080 bei vermutlich 60fps, aber zumindest sehr flüssig lief?
Laut PCGH Benches würde eine Titan das mit ~30fps packen bei Ultra+4xMSAA. Settings sind nat leider unbekannt.
BF4 auf dem GPU14-Techday lief in unbekannten Settings, zudem vergleichst du hier Single- und Multiplayer. Das sollte man bei Quer-durch-den-Garten-Vergleichen mindestens berücksichtigen.

Felixxz2
2013-10-02, 15:03:56
@Ulukay
Also das gabs ja alles schon in BF3 und ist Kinderkramkritik. Naja jedem das seine.

@PCGHCarsten

Schon klar, deswegen schrieb ich ja auch "Settings unbekannt". Ahh, Mantle brennt mir unter den Fingern :D

Rumbah
2013-10-02, 16:44:42
tressfx als letztes beispiel war auch lustig. wieder sowas "offenes" was auf amd karten optimiert ist. wie gesagt phyix ist da net besser. gott sei dank hatte ich genug power und einige patches sio das tr gut lief auch mit tressfx.
Naja, TressFX ist doch ein gutes Beispiel für offen, denn es werden nur normale Direct X Features benutzt und es läuft auch auf einer Nvidia Karte. Physix hingegen läuft nur auf Nvidia Karten und gar nicht auf AMD Karten. Nur kastriert auf der CPU.

Aber ja, Mantle ist da ähnlich wie CUDA, da hat Nvidia AMD ja auch ne Lizenz angeboten. Aber es ist aber nunmal so nah an der Hardware, dass man dann auf ähnliche Architekturen setzen muss.

(del676)
2013-10-02, 18:08:37
Kinderkramkritik?
Wenn du dich einmal um 360° drehst (IM KELLER), blitzen 5-6 Flares auf, die dir die Sicht nehmen?
KINDERkramkritik?

Gipsel
2013-10-02, 18:43:28
Kinderkramkritik?
Wenn du dich einmal um 360° drehst (IM KELLER), blitzen 5-6 Flares auf, die dir die Sicht nehmen?
KINDERkramkritik?Das hat genau Null mit Mantle zu tun, ist also OT.

HarryHirsch
2013-10-02, 22:29:08
Und? Die Engine ist scheisse. Da aendert sich mit anderen Maps auch nichts.

Sorry wenn ich konsequent bin, und kein Rueckgrat eines Regenwurms habe.

Was hat die Engine mit dem content zu tun? Oder denkst du das neue Mass Effect oder Dragon Age sieht genau so aus?

Wichtig ist doch erst mal nur das die engine bei ~15 Spielen zum Einsatz kommt.
Ob die devs zu einer integrierten Jacke dann nein sagen wird sich zeigen.
AMD hat sich auf jeden Fall schon mal warm angezogen. :freak:

Kann auch sein das es ein zweiter Bulldozer wird. :D

Felixxz2
2013-10-02, 23:53:04
Kinderkramkritik?
Wenn du dich einmal um 360° drehst (IM KELLER), blitzen 5-6 Flares auf, die dir die Sicht nehmen?
KINDERkramkritik?

Ja es ist einfach Kinderkram und dabei noch nichtmal wahr. Solche Aussagen wie "Die Engine ist scheiße und ich hab Recht weil ich nicht das Rückrat eines Regenwurms habe" sind absoluter Käse und eben auch OT. Wenn dir das Game nicht gefällt, dann kaufs nicht. Hier gehts um Mantle und die reine Technik, ob dir das Game oder die Lenseflares nicht gefallen, interessiert keinen.

john carmack
2013-10-02, 23:53:38
Stimmt es das Nvidia auch an einer eigenen API arbeitet?

maximus_hertus
2013-10-03, 00:10:53
Eine nV-API? Abgesehen von der Red Hat Kooperation ist imo nichts bekannt.

S940
2013-10-03, 00:34:03
Es gibt schon ne sog. "NVAPI (https://developer.nvidia.com/nvapi)", aber kA was die genau macht. Laut Info auf der Hauptseite:
NVAPI

What is NVAPI, and Why Do You Need It?

NVAPI is NVIDIA's core software development kit that allows direct access to NVIDIA GPUs and drivers on all windows platforms. NVAPI provides support for categories of operations (https://developer.nvidia.com/nvapi#categories) that range beyond the scope of those found in familiar graphics APIs such as DirectX and OpenGL.
Initially exposed only to OEMs and game developer tools, NVAPI is now available for download to all developers interested in building Windows applications on NVIDIA GPUs.

NVAPI NDA Customers

NVAPI comes in two "flavors": the public version, available below, and a more extensive version available to registered developers under NDA. Registered developers can log in here, (https://nvdeveloper.nvidia.com/) or contact your NVIDIA account manager to make sure you have the latest NDA edition of NVAPI.

Hört sich eigentlich nicht so unterschiedlich von Mantle an, aber wer weiss schon, was da wo genau drinsteckt..

HarryHirsch
2013-10-03, 00:49:46
Auf den ersten Blick hat diese NVAPI nicht viel gemein mit Mantl.

Hardware nahe Programmierung? Konsolen-Unterstützung? "GPUs die nicht durch ihre Stromaufnahme gebremst werden." :freak:
Das ist wohl so wie das veraltete CAL von ATI. ;)

ENKORE
2013-10-03, 01:05:01
Ein kurzer Blick in das ZIP verrät mir, dass das eher eine API zum Steuern des Treibers ist als eine Rendering-API. Damit könnte man sich quasi sein eigenes "nVidia Control Center" bauen.

Ist natürlich wenig interessant, letztlich auch da Windows-only.

Blediator16
2013-10-03, 01:12:59
Ein kurzer Blick in das ZIP verrät mir, dass das eher eine API zum Steuern des Treibers ist als eine Rendering-API. Damit könnte man sich quasi sein eigenes "nVidia Control Center" bauen.

Ist natürlich wenig interessant, letztlich auch da Windows-only.

Im Grunde macht der NV Inspector das ja bereits. Ein erweitertes Panel.

Coda
2013-10-03, 13:11:08
NVAPI gibt's schon ewig, das ist keine Grafik-API.

Blackhand
2013-10-03, 13:20:51
Bisher wurde immer nur auf dem Performancevorteil von Mantle herumgeritten. Was mich aber auch mal sehr interessieren würde: Könnte man damit denn endlich mal gescheites AA besser implementieren oder allgemein mal die BQ steigern irgendwie. Da müsste es ja auch mehr Möglichkeiten geben.

S940
2013-10-03, 14:33:26
NVAPI gibt's schon ewig, das ist keine Grafik-API.Ah gut, danke für die Info. War mir wg. der NDA-Version nicht sicher.

@Blackhand:
Ist sicherlich auch möglich. Bei ner Low-Level-API kann man machen was man will, man muss nur (viel) dafür programmieren. Hängt von den Engine-Leuten ab, ob sie den Aufwand für Feature X für sinnvoll erachten, oder nicht. (Hardwarelimits darf es natürlich auch nicht geben).

del_4901
2013-10-03, 15:17:02
Bisher wurde immer nur auf dem Performancevorteil von Mantle herumgeritten. Was mich aber auch mal sehr interessieren würde: Könnte man damit denn endlich mal gescheites AA besser implementieren oder allgemein mal die BQ steigern irgendwie. Da müsste es ja auch mehr Möglichkeiten geben.
Ohne eine APi Dokumentation zur Hand zu haben wird niemand genaueres sagen koennen. Und die Wenigen welche eine zur Hand haben werden wohl kaum sich im 3dCenter Forum rumtreiben und was sagen duerfen. ;)

NVAPI gibt's schon ewig, das ist keine Grafik-API.
Och menno, spoiler doch nicht alles! Ich hab mich so schoen amuesiert, wie die Fanboys zum letzten Strohhalm gegriffen haben.

dlux
2013-10-03, 15:50:50
Och menno, spoiler doch nicht alles! Ich hab mich so schoen amuesiert, wie die Fanboys zum letzten Strohhalm gegriffen haben.
:devil:

Iruwen
2013-10-03, 16:15:34
Den ersten Benches nach zu urteilen hat AMD selbst in BF4 Mantle schon bitter nötig, also haben die Fanboys bisher nicht viel zu zittern.

Windi
2013-10-03, 16:33:04
Wie ist das eigentlich mit den ganzen unterschiedlichen Grafikarchitekturen?
Bei AMD und NV müsste man wohl mindestens 3 verschiedene Architekturen unterstützen. Dazu kommen dann noch 2 Verschiedene von Intel, für die die auf ihrem Notebook zocken wollen.

Das ist wohl zu aufwendig und man nimmt dann lieber wieder DirectX.
Einzig bei GCN2.0 könnte es Sinn machen, da beide Konsolen dies auch unterstützen. Nur bis die Entwickler wirklich viel Erfahrungen auf den Konsolen gesammelt haben, gibt es wahrscheinlich schon längst GCN3.0. Auch sitzt auf der Grafikkarte kein Konsolen-SoC, so das man nicht einfach den gesamten Code übernehmen kann, ohne ihn zu überarbeiten.

Hört sich irgendwie nach verdammt viel Arbeit an?!

Iruwen
2013-10-03, 16:48:27
AMD scheint OGL nicht sonderlich zu interessieren. Haben die nicht neulich erst einen OGL 4.3 Betatreiber veröffentlicht wo NV schon länger bei 4.4 ist?

samm
2013-10-03, 17:01:19
Ja. Aber um das mal richtig zu pushen, müssten mehr und andere Games wieder auf OpenGL setzen - könnte aber künftig wieder der Fall sein, da Linux mehr an Attraktivität gewinnt, Windows sei dank :biggrin:

Knuddelbearli
2013-10-03, 17:27:58
Ein kurzer Blick in das ZIP verrät mir, dass das eher eine API zum Steuern des Treibers ist als eine Rendering-API. Damit könnte man sich quasi sein eigenes "nVidia Control Center" bauen.

Ist natürlich wenig interessant, letztlich auch da Windows-only.

Jau NVAPI ist eine Schnittstelle für NV Inspector und andere Tools

=Floi=
2013-10-03, 17:38:22
AMD scheint OGL nicht sonderlich zu interessieren. Haben die nicht neulich erst einen OGL 4.3 Betatreiber veröffentlicht wo NV schon länger bei 4.4 ist?

die haben damals aber alles neu programmiert und seitdem läuft es wesentlich besser. OGL war auch auf ati ab da ganz gut und performant.
die neueste version ist eh nicht nötig, solange es gut läuft!

Ailuros
2013-10-03, 19:13:38
Ein Technologie orientierte Debatte fuehrt Ihr Herren schon seit einige Beitraegen nicht mehr. Ich erinnere daran dass das Technologie-forum nicht das Wald- und Wiesen Spam bzw. Trollforum ist dass manche Dichter hier vielleicht gewoehnt sind. Bitte streng sachlich zum Thema.

Schaffe89
2013-10-03, 21:44:20
Den ersten Benches nach zu urteilen hat AMD selbst in BF4 Mantle schon bitter nötig,

Wo siehst du das denn? Die Karten liegen jeweils gleichauf mit dem preislichen Gegner, HD 7970ghz genau auf GTX 770 Niveau.

ENKORE
2013-10-03, 23:09:27
die haben damals aber alles neu programmiert und seitdem läuft es wesentlich besser. OGL war auch auf ati ab da ganz gut und performant.
die neueste version ist eh nicht nötig, solange es gut läuft!

Welche Version nötig ist kommt halt mal auf die Anwendung an. Die meisten professionellen Grafikanwendungen werden aber eh eher gemächlich entwickelt, SolidWorks '12 kommt z.B. noch mit OpenGL 2 zurecht (natürlich nur auf zertifizierten Pro-Karte/Treiber-Kombinationen, aber das is ja klar)

LadyWhirlwind
2013-10-04, 00:28:55
Ja. Aber um das mal richtig zu pushen, müssten mehr und andere Games wieder auf OpenGL setzen - könnte aber künftig wieder der Fall sein, da Linux mehr an Attraktivität gewinnt, Windows sei dank :biggrin:

Ich könnte mir gut vorstellen das wenn Mantle ein Erfolg ist, viele Entwickler nur noch für OpenGL und Mantle entwickeln.

Wieso redet ihr eigentlich immer von Linux und vergesst das für Entwickler viel Interessantere OS X?

Edit: Der neue MacPro kommt ja mit AMD-Karten, ob es bald Programme (unter OS X) geben wird, die statt auf OpenGL auf Mantle setzen?

Coda
2013-10-04, 01:39:23
Ich könnte mir gut vorstellen das wenn Mantle ein Erfolg ist, viele Entwickler nur noch für OpenGL und Mantle entwickeln.
Was hat das eine denn mit dem anderen zu tun?

S940
2013-10-04, 11:04:33
Was hat das eine denn mit dem anderen zu tun?Na das ist ne einfache Frage: Beides sind Grafik-APIs :biggrin:
(aber natürlich ist der Rest unterschiedlich ^^)

Coda
2013-10-04, 11:39:45
Das hat sich auf das dafür entwicklen bezogen.

M4xw0lf
2013-10-04, 11:54:13
Das hat sich auf das dafür entwicklen bezogen.
Wie sieht das bei euch aus mit dem Programmieren für Mantle? Oder ist das alles top secret? ;)

S940
2013-10-04, 12:52:21
Das hat sich auf das dafür entwicklen bezogen.Achso, Du meinst was der Mantle Erfolg mit der Programmierung auf OpenGL zu tun hat? Ja da müßte man dann als Grund Nvidias Logan mit Keplertechnik bemühen. Da gibts under Android kein DX, Nvidia pusht unter Linux sowieso schon OpenGL, für die anderen Mobile-Chips braucht mans auch .. ergo kann man sich DX nur für Nvidia unter Windows dann auch sparen. Um 5 Ecken macht die Argumentation also halbwegs Sinn. Zumindest solange die Entwicklerstudios nicht komplett auf die ganze Portierungsarbeit verzichten und exklusiv auf Mantle und AMD setzen.

Je kleiner das Engineteam ist, desto wahrscheinlicher ist, dass es sich entweder auf OpenGL oder Mantle konzentrieren wird. Aber gibts sowas überhaupt, kleine Engine-Teams aus der 2. Reihe?
Wie sieht das bei euch aus mit dem Programmieren für Mantle? Oder ist das alles top secret? ;)
Na wenn er was sagen dürfte, hätt' er das sicherlich schon gemacht. Aus allen AMD-Kanälen heißt es nur Warten bis zum Entwicklertreff im November, sonst nix.

Ailuros
2013-10-04, 13:23:35
Achso, Du meinst was der Mantle Erfolg mit der Programmierung auf OpenGL zu tun hat? Ja da müßte man dann als Grund Nvidias Logan mit Keplertechnik bemühen. Da gibts under Android kein DX, Nvidia pusht unter Linux sowieso schon OpenGL, für die anderen Mobile-Chips braucht mans auch .. ergo kann man sich DX nur für Nvidia unter Windows dann auch sparen. Um 5 Ecken macht die Argumentation also halbwegs Sinn. Zumindest solange die Entwicklerstudios nicht komplett auf die ganze Portierungsarbeit verzichten und exklusiv auf Mantle und AMD setzen.

Fuer alles Android wohl eher OpenGL_ES.

Coda
2013-10-04, 18:09:29
Achso, Du meinst was der Mantle Erfolg mit der Programmierung auf OpenGL zu tun hat? Ja da müßte man dann als Grund Nvidias Logan mit Keplertechnik bemühen. Da gibts under Android kein DX, Nvidia pusht unter Linux sowieso schon OpenGL, für die anderen Mobile-Chips braucht mans auch .. ergo kann man sich DX nur für Nvidia unter Windows dann auch sparen. Um 5 Ecken macht die Argumentation also halbwegs Sinn. Zumindest solange die Entwicklerstudios nicht komplett auf die ganze Portierungsarbeit verzichten und exklusiv auf Mantle und AMD setzen.
Und Intel?

Sorry, aber OpenGL ist einfach keine Option, wenn man nicht ausschließlich NVIDIA unterstützen will. Und es gibt auch noch genügend alte AMD-Karten.

S940
2013-10-04, 18:34:46
Und Intel?
Die können doch auch OpenGL:
http://www.geeks3d.com/20130403/intel-hd-graphics-driver-v9-18-10-3071-available-for-windows-new-opengl-extensions-and-opencl-1-2-support/

Oder meinst Du da wie bei AMD auch das Alteisen?

Klar, das gibts immer ... aber bis Mantle mal verbreitet ist, gibts das nicht mehr. Mittelfristig wäre Mantle+OpenGL aber sicher ne Option um >90% des Marktes abzudecken, wobei die restlichen 10% sind sowieso nicht spieletauglich wären ;-)

Wer will auf nem alten InOrder-Atom überhaupt irgendwas spielen?

Demirug
2013-10-04, 23:00:36
Was Coda meint ist das OpenGL unter Windows das reinste Minenfeld ist. Dabei nimmt die Anzahl der Minen von Nvidia über AMD zu Intel kontinuierlich zu. Bei Intel darf man eigentlich nicht mal atmen ohne das eine hoch geht.

Die korrekte Lösung ist immer System APIs zu abstrahieren und dann für jedes System die optimale API für die Aufgabe zu benutzten. Das kann man sich nur sparen wenn man sich 110% sicher ist niemals auf eine anderen Plattform gehen zu wollen.

Alles andere ist in der Regel keine nüchtere logische Entscheidung sondern eine emotionale oder ideologische.

Coda
2013-10-04, 23:09:51
Meiner Erfahrung nach ist die API am Ende eh das kleinste Problem. Zumindest in Relation gesehen.

Lunica
2013-10-05, 02:41:05
Es gibt genug Spiele die hervorragend mit DX11/DX9 klarkommen und sehr gut im Bezug zur Hardware laufen.

Hier mal ein Beispiel von Nvidia dies alleine durch Batch Optimierung erreicht wurde.

Real World Performance
• 353 batches/frame @ 16% 1.4GHz CPU: 26fps
• 326 batches/frame @ 18% 1.4GHz CPU: 25fps
• 467 batches/frame @ 20% 1.4GHz CPU: 25fps
• 450 batches/frame @ 21% 1.4GHz CPU: 25fps
• 700 batches/frame @ 100% (!) 1.5GHz CPU: 50fps
• 1000 batches/frame @ 100% (!) 1.5GHz CPU: 40fps
• 414 batches/frame @ 20% (?) 2.2GHz CPU: 27fps
• 263 batches/frame @ 20% (?) 3.0GHz CPU: 18fps
• 718 batches/frame @ 20% (?) 3.0GHz CPU: 21fps

Viele Entwickler müssen eben besser optimieren oder sich mit der Materie näher beschäftigen.
Dazu gibt es nun ja auch FCAT von Nvidia.
"FCAT is quite simply the frame interval analysis tool we have long wanted. It is the tool that will enable us to analyze stuttering, micro-stuttering".
Wie viele schon bemerkt haben betrifft dies je nach Spiel / Engine auch Single GPUs.


Mantle steigert von alleine nicht die Leistung.

dlux
2013-10-05, 10:00:53
Viele Entwickler müssen eben besser optimieren oder sich mit der Materie näher beschäftigen.
Willst du damit sagen, dass der DX11-Renderer der Frostbite 3 Engine nicht hochoptimiert ist und der Mantle-Renderer nur aus diesem Grund einen gewaltigen Leistungsschub mit sich bringen wird und kann?

Ich bleibe erst mal bei BF3 und kaufe mir auch zukünftig garantiert keine AMD Grafikkarte.
Na dann.

:ass:

john carmack
2013-10-05, 13:28:59
Auch wenn es keine offiziellen Tests, bzw. eindeutigen "Spezifikationen" gibt.

In wie weit denkt ihr wird sich Mantle auf die AMD CPU´s auswirken?

Wurde auf der Mantle Präsentation nicht auch davon gesprochen das die CPU´s auch davon profitieren werden?

-/\-CruNcher-/\-
2013-10-05, 14:25:51
Ja sicher der Overhead wird reduziert die cycles effizienter genutzt natürlich tut sich das am Ende auf die anderen Engine berreiche auswirken wo die CPU dringend benötigt wird.
Deswegen ist AMD ja auch TrueAudio nicht so wichtig in den Rebrands obwohl die ja höher angesetz werden als die 260er 290er werden sie von der entlastung weniger benötigen da geht es nur um die anderen features ;)

Natürlich ist jede direkte Hardware Entlasstung ein segen im Gesamtbild für den PC aber unter wirtschaftlichen aspekten eben was anderes, da kommt dan die Prozentskala zum Einsatz und X = Gewinn Y = Kosten werden erstmal verglichen (erbsen zählen ist angesagt) ;)
Genauso läufts zum Teil bei der Komerzielen Engine Entwicklung selbst (dauert zu lang) brauchen wir nicht nächstes release wir müssen die deadlines halten (kosten pro entwickler reduzieren) ;)

S940
2013-10-05, 15:48:39
Auch wenn es keine offiziellen Tests, bzw. eindeutigen "Spezifikationen" gibt.

In wie weit denkt ihr wird sich Mantle auf die AMD CPU´s auswirken?

Wurde auf der Mantle Präsentation nicht auch davon gesprochen das die CPUs auch davon profitieren werden?
Jo auf der Folie hier:

http://www.abload.de/img/25amd-gpu146tbc6.png

Gipsel
2013-10-05, 16:35:26
Crosspost:
[immy;9946952']Das vollständige interview mit den xbone Entwicklern wurde veröffentlicht. Erklärt nun einiges mehr, was vorher rausgeschnitten wurde. http://www.eurogamer.net/articles/digitalfoundry-the-complete-xbox-one-interview
gibt auch ein paar nette Infos und Bestätigungen.
we took that opportunity with Xbox One and with our customised command processor we've created extensions on top of D3D which fit very nicely into the D3D model and this is something that we'd like to integrate back into mainline 3D on the PC too - this small, very low-level, very efficient object-orientated submission of your draw [and state] commands.Sieht sich MS schon von Mantle unter Druck, so daß da jetzt was passiert? :D

Kann ja nur gut sein für den PC-Bereich.

samm
2013-10-05, 16:50:37
"Extensions on top of D3D" und "very low-level" widersprechen sich irgendwie - aber sonst: Konkurrenz belebt das Geschäft, gut, das zu sehen :)

Coda
2013-10-05, 17:34:03
"Extensions on top of D3D" und "very low-level" widersprechen sich irgendwie
Nö.

Direct3D ist zwar eine Abstraktion aber lange nicht so high level wie manche hier denken.

=Floi=
2013-10-05, 20:55:25
warum gibt es eigentlich keine reaktion von nv oder intel darauf? kein schlechtreden ist ja im grunde sogar eine zustimmung. werkelt etwar nv schon seit längerer zeit an einem treiber für mantle?
den intel gpus würde ein 30% boot auch gut tun.

S940
2013-10-05, 21:13:44
warum gibt es eigentlich keine reaktion von nv oder intel darauf? kein schlechtreden ist ja im grunde sogar eine zustimmung. werkelt etwar nv schon seit längerer zeit an einem treiber für mantle?
den intel gpus würde ein 30% boot auch gut tun.
Denen wirds so gehen wie uns, sie wissen zu wenig als das sie ne qualifizierte Meinung haben könnten.
Die erwarte ich frühestens nach den ersten Mantle <> DX-Benches mit BF4 im Dezember. Je deutlicher die ausfallen, desto größer wird der Druck werden.

Menace
2013-10-05, 21:21:00
Rechnet sich das für Nvidia überhaupt? Bzw. für die Spieleentwickler? Da die Mantle-Programmierung schon allein wegen der Konsolen vornehmen (müssen?), wird der PC-Markt dankend mitgenommen. Aber warum sollten die nochmals extra für Nvidia beginnen? Langeweile?

HarryHirsch
2013-10-06, 00:05:13
Sichi. Bei den 5% die AMD aktuell hat.

schreiber
2013-10-06, 00:17:53
Nö.

Direct3D ist zwar eine Abstraktion aber lange nicht so high level wie manche hier denken.
Aber es scheint ja noch eine Menge Spielraum zu geben, um noch näher an der Hardware zu sein?!

StefanV
2013-10-06, 00:33:24
Sichi. Bei den 5% die AMD aktuell hat.
Du meinst 95%, oder? ;)
Weil den XBoner und die PS4 darfst nicht vergessen ;)

Aber es scheint ja noch eine Menge Spielraum zu geben, um noch näher an der Hardware zu sein?!
Das Problem bei D3D ist, dass die Hardware mehr kann als D3D und M$ einige Updates nicht für Windows 7 (Vista) freigegeben hat...

Sprich: AMD geht die Entwicklung von D3D nicht schnell genug, da sie aber in beiden Konsolen drin sind, haben sie die Möglichkeit eine eigene API zu etablieren.

Iruwen
2013-10-06, 01:03:15
Du meinst 95%, oder? ;)
Weil den XBoner und die PS4 darfst nicht vergessen ;)
Falls ungestüm Menace genatwortet hat ergibt das gerade mal gar keinen Sinn.

Coda
2013-10-06, 02:34:45
XBoner und die PS4 darfst nicht vergessen ;)
hahaha m$ xboner lulz roflol

Das Problem bei D3D ist, dass die Hardware mehr kann als D3D und M$ einige Updates nicht für Windows 7 (Vista) freigegeben hat...

Sprich: AMD geht die Entwicklung von D3D nicht schnell genug, da sie aber in beiden Konsolen drin sind, haben sie die Möglichkeit eine eigene API zu etablieren.
Drei mal polemisches Halbwissen in zwei Absätzen. Wieder mal 100 Punkte auf dem Bullshit-O-Meter.

HarryHirsch
2013-10-06, 02:39:03
Ich hätte auch mit 3%, dem bisschen oder mit dem nix antworten können.
Aktuell hat dieses AMD einfach nicht mehr. Es wird also nach wie vor DX10/11 verwendet, auch ohne Zutun von NV.

Quote is missing :(

S940
2013-10-06, 09:14:45
Ich hätte auch mit 3%, dem bisschen oder mit dem nix antworten können.
Ja und Du hättest auch gar nichts antworten können und der Themenbezug wäre ähnlich gut gewesen. :freak:

Nur mal als Erinnerung: Wir sind hier im Technologieunterforum. Unbelegte Spam-Posts haben hier nichts zu suchen, dafür gibts die Spielwiese. Für glaskugelige Kaffesatzleserei und nebulöse Auspiezien steht außerdem das Spekuforum bereit.

Im diesem Sinne: Schönen Sonntag.

dargo
2013-10-06, 10:31:34
Ich hätte auch mit 3%, dem bisschen oder mit dem nix antworten können.
Aktuell hat dieses AMD einfach nicht mehr. Es wird also nach wie vor DX10/11 verwendet, auch ohne Zutun von NV.

Das DX10 kannst du streichen. So wie es aussieht wird bei neueren Games DX11.0 Mindestvoraussetzung sein.

fondness
2013-10-06, 12:06:35
Das DX10 kannst du streichen. So wie es aussieht wird bei neueren Games DX11.0 Mindestvoraussetzung sein.

Langfristig wird mit hoher Wahrscheinlichkeit sogar DX11.2 Mindestvoraussetzung sein. Denn es war schon immer so das die Konsolen das Tech-Level bestimmten.

schreiber
2013-10-06, 12:11:24
Langfristig wird mit hoher Wahrscheinlichkeit sogar DX11.2 Mindestvoraussetzung sein. Denn es war schon immer so das die Konsolen das Tech-Level bestimmten.
Nö, das bleibt DX11.0, weil die Hardware-Basis dafür viel größer ist, außerdem ist Win8 gefloppt, das macht DX11.2 noch uninteressanter als Mindestvoraussetzung.

dargo
2013-10-06, 12:25:09
Nö, das bleibt DX11.0, weil die Hardware-Basis dafür viel größer ist, außerdem ist Win8 gefloppt, das macht DX11.2 noch uninteressanter als Mindestvoraussetzung.
Was ist gefloppt?

Es gab für Gamer einfach keinen Grund auf Win8 zu gehen. Spätestens wenn NV neue GPUs bringt gehen die meisten Gamer auf Win8 sollte die CPU-Entlastung tatsächlich einiges bringen. Das muss sich aber erst zeigen.

Iruwen
2013-10-06, 12:53:21
Es gab für Gamer einfach keinen Grund auf Win8 zu gehen. Spätestens wenn NV neue GPUs bringt gehen die meisten Gamer auf Win8 sollte die CPU-Entlastung tatsächlich einiges bringen. Das muss sich aber erst zeigen.
Ich denke du überschätzt die Zielgruppe. "Die meisten Gamer" werden gar nichts tun, denen ist das eher komplett egal, die kaufen bedarfsorientiert und/oder von der Stange. Wir sind nur ein paar Geeks.

dargo
2013-10-06, 12:55:13
Abwarten bis Ende 2014, Anfang 2015.

aufkrawall
2013-10-06, 12:57:10
Bei vielen Spielen hat man auch 11.1 zur CPU-Entlastung gar nicht nötig.
Der MP der BF-Teile ist da fast schon ein Sonderfall. Erstmal sollen mehr Spiele konsequent vier Kerne richtig auslasten. Was da bei Hitman oder dem ganzen DX9-Kram abgeht, ist nicht feierlich.

schreiber
2013-10-06, 12:58:11
Außerdem dauerts noch ein Jahr, bis nvidia mit der nächsten Generation ankommt und dann muss sich diese Hardware erstmal verbreiten. Da ist an "Mindestvoraussetzung" gar nicht zu denken für die nächsten Jahre. Auch würde man mit einem Techlevel 11.2 ja die ganze derzeitige Produktlinie von nvidia ausschließen. Davon kann man als AMD-Fanboy träumen, erwarten würde ich es nicht.

fondness
2013-10-06, 13:26:49
Nö, das bleibt DX11.0, weil die Hardware-Basis dafür viel größer ist, außerdem ist Win8 gefloppt, das macht DX11.2 noch uninteressanter als Mindestvoraussetzung.

Kannst du lesen? Ich habe geschrieben langfristig. Alles andere macht auch keinen Sinn, die Konsolen werden wie immer das Mindestlevel der nächsten Jahre bestimmen, auch wenn du es nicht wahr haben willst. Die paar Kepler-Karten werden in ein paar Jahren längst keine Rolle mehr spielen, ähnlich wie die ganzen PS2.0x-Karten damals keine Rolle mehr spielten.

dargo
2013-10-06, 14:27:38
Bei vielen Spielen hat man auch 11.1 zur CPU-Entlastung gar nicht nötig.

Du betrachtest ältere Spiele. Ich rede von Spielen die erst noch kommen. Und ja... Szenen in extremen Schläuchen erzeugen keine so hohe CPU-Last wie Open-World @ zb. die GTA-Serie oder Watch Dogs.

aufkrawall
2013-10-06, 14:31:57
Du betrachtest ältere Spiele. Ich rede von Spielen die erst noch kommen. Und ja... Szenen in extremen Schläuchen erzeugen keine so hohe CPU-Last wie Open-World @ zb. die GTA-Serie oder Watch Dogs.
Ich habs nicht so mit dem Hellsehen...
Wie scheiße GTA und Watch Dogs laufen werden, wird man erst noch sehen. Und vor allen Dingen, ob der Hunger für das Gebotene gerechtfertigt sein wird. Bei Crysis 3 geht das in Ordnung.

StefanV
2013-10-06, 16:46:54
Langfristig wird mit hoher Wahrscheinlichkeit sogar DX11.2 Mindestvoraussetzung sein. Denn es war schon immer so das die Konsolen das Tech-Level bestimmten.
Nee, das geht nicht, weil D3D11.2 Windows 8 voraussetzt...

schreiber
2013-10-06, 17:21:06
ähnlich wie die ganzen PS2.0x-Karten damals keine Rolle mehr spielten.
Das hat viele Jahre gedauert. AMD hat damals die Technologiebremse gespielt und darauf wurde auch Rücksicht genommen. Paar Keplerkarten? nvidia ist Marktführer im Desktop-Bereich.

gnahr
2013-10-06, 17:29:20
windows8 ist nicht der springende punkt. microsoft hat doch schon länger gesagt, sie wollen hin zu nem 2jahres-zyklus. es kommt also win9 noch ehe viel zeit vergangen ist.

Iruwen
2013-10-06, 18:17:38
Dadurch stirbt Windows 7 trotzdem nicht plötzlich aus. Das System ist für normale Anwender einfach schon nahezu perfekt. Wobei das von Windows XP auch viele behauptet haben (und behaupten), Windows 7 fühlt sich aber in vielen Punkten um Längen besser an. Mal sehen was noch kommt.

PS: wollte MS nicht von den großen Versionssprüngen weg und hin zu inkrementellen Updates wie bei Mac OS?

S940
2013-10-06, 18:38:43
Jungs: Das ist hier weder der DX noch der Windows Thread.

Matrix316
2013-10-06, 20:23:24
Der Vorteil einer eigenen API ist natürlich auch, dass es für die Spiele egal sein könnte ob man Windows XP, Vista, 7, 8 oder 8.1 hat. Dass Windows 8 ein exklusives DX bekommt ist ja noch lächerlicher, als dass das neue Office Vista nicht mehr unterstützt, oder so. Jetzt müssten sich nur AMD und Nvidia zusammentun und sich auf einen Standard einigen.

Demirug
2013-10-06, 20:45:04
Der Vorteil einer eigenen API ist natürlich auch, dass es für die Spiele egal sein könnte ob man Windows XP, Vista, 7, 8 oder 8.1 hat. Dass Windows 8 ein exklusives DX bekommt ist ja noch lächerlicher, als dass das neue Office Vista nicht mehr unterstützt, oder so.

Gerade bei Grafiktreibern muss es immer noch mit dem Treiber model des Systems harmonieren. Ich gehe davon aus das es Mantle Treiber erst ab Windows 7 aufwärts geben wird.

Jetzt müssten sich nur AMD und Nvidia zusammentun und sich auf einen Standard einigen.

Wenn man bedenkt wie lange es gedauert hat bis sie mal bereit waren bei DX ein gemeinsames Featureset zu akzeptieren. Und selbst das läuft inzwischen schon wieder auseinander weil wieder optionale Sache hinzugefügt werden.

Dann müsste man auch noch Intel mit an den Tisch bekommen und Microsoft davon überzeugen das die entsprechenden Treiber als Teil des OS ausgeliefert und aktualisiert werden.

Matrix316
2013-10-06, 20:49:59
1. Die Treiber für die Hardware für das OS machen ja NVidia und ATI. Ob eine GTX Titan unter Windows XP läuft oder nicht, liegt ja nicht an Microsoft, oder?

2. Ach Intel würde ich in Bezug auf Spiele überhaupt nicht berücksichtigen. Wer spielen will, soll sich gefälligst eine spezielle Grafikkarte kaufen. Und wer unbedingt auf einem Notebook spielen will, für den gibt es auch von AMD und Nvidia Lösungen. Intel soll sich auf die CPU und Chipsätze konzentrieren und fertig. Jedenfalls meine Meinung. Die sollen lieber für mehr SATA3 und USB3 und billige Thunderbolt Controller für Mainboards sorgen.

Demirug
2013-10-06, 20:59:31
1. Die Treiber für die Hardware für das OS machen ja NVidia und ATI. Ob eine GTX Titan unter Windows XP läuft oder nicht, liegt ja nicht an Microsoft, oder?

Die Entscheidung liegt natürlich bei den IHV. Nur ist es eben sehr unwahrscheinlich das noch Treiber für Systeme programmiert werden welche vom OS Entwickler keinen Support mehr bekommen. Kosten/Nutzen Analyse.

2. Ach Intel würde ich in Bezug auf Spiele überhaupt nicht berücksichtigen. Wer spielen will, soll sich gefälligst eine spezielle Grafikkarte kaufen. Und wer unbedingt auf einem Notebook spielen will, für den gibt es auch von AMD und Nvidia Lösungen. Intel soll sich auf die CPU und Chipsätze konzentrieren und fertig. Jedenfalls meine Meinung. Die sollen lieber für mehr SATA3 und USB3 und billige Thunderbolt Controller für Mainboards sorgen.

Ach PCs würde ich im Bezug auf Spiele überhaupt nicht berücksichtigen. Wer spielen will soll sich gefälligst eine Spielkonsole kaufen. ;)

Wenn eine Menge Leute auf ihren Notebooks mit verdammten Intel-GPUs Spiele kaufen muss man die dummerweise auch irgendwie Supporten.

Matrix316
2013-10-06, 21:13:34
Integrierte Graphik und Spiele hat noch NIE zusammengepasst, und es muss auch IMO nicht.

Man käuft sich auch keinen Polo Blue Motion um dann damit 250 fahren zu wollen.

Exxtreme
2013-10-06, 21:28:10
Integrierte Graphik und Spiele hat noch NIE zusammengepasst, und es muss auch IMO nicht.

Man käuft sich auch keinen Polo Blue Motion um dann damit 250 fahren zu wollen.
"Nichts ist beständiger als ein Provisorium."

Die Leute spielen mit Intel-Grafik also sorgt man dafür, dass es läuft. Und nein, ich kann Intel-Grafikchips nicht ausstehen. Was deren Treiber für BSODs auch im Office-Betrieb werfen das ist nicht mehr feierlich.

Iruwen
2013-10-06, 21:31:02
Integrierte Graphik und Spiele hat noch NIE zusammengepasst, und es muss auch IMO nicht.
Man käuft sich auch keinen Polo Blue Motion um dann damit 250 fahren zu wollen.

Da geht die Reise aber nunmal hin, ob dir das nun passt oder nicht. Und Intel wird da auch Fortschritte machen, die Treiber sind schon wesentlich besser geworden und die Leistung ist nur eine Frage der Zeit. Für AMD und die APUs siehts ähnlich aus. Nur NV hat (noch) nichts in petto.

PS: klingt aber als würdest du weinen wenn dich ein 500PS Polo in deinem Porsche abzieht.

Windi
2013-10-06, 21:36:14
Es interessiert nicht wer wie viel Geld für Hardware ausgibt, sondern wer die Spiele kauft.

Ich kenne mittlerer weile etliche die am Notebook spielen und bei Steam kann jeder selbst nachschauen was für alte Möhren noch verwendet werden.

Ein Publisher kann sich gar nicht mehr leisten den Low-End-Markt zu vernachlässigen, der ist einfach viel zu groß geworden. Und bis die Notebooks, die zum spielen genutzt werden, die PS4/Xone eingeholt haben, werden noch einige Jahre vergehen. Nicht umsonst nutzt die PC Version von FIFA14 die alte Engine.

Iruwen
2013-10-06, 21:57:13
http://store.steampowered.com/hwsurvey/videocard/
Das sind z.B. die vielen DotA Spieler.

Matrix316
2013-10-06, 22:05:04
Da geht die Reise aber nunmal hin, ob dir das nun passt oder nicht. Und Intel wird da auch Fortschritte machen, die Treiber sind schon wesentlich besser geworden und die Leistung ist nur eine Frage der Zeit. Für AMD und die APUs siehts ähnlich aus. Nur NV hat (noch) nichts in petto.

PS: klingt aber als würdest du weinen wenn dich ein 500PS Polo in deinem Porsche abzieht.
Ein Polo mit 500PS darf ruhig schneller als ein Ferrari sein.

Aber man sollte nicht den Anspruch haben mit einem 75 PS Polo auf der Rennstrecke mit Ferraris mithalten zu wollen und den Rennveranstalter bitten, die Ferraris künstlich zu limitieren, nur damit der Polo mithalten kann...

Damit der PC und Computer sich weiterentwickeln, brauchen wir Spiele, die auch Hardware fordern. Aber der PC Bereich im Speziellen sollte lieber zusammenhalten als sich gegenseitig zu zerfleischen, gerade in Hinblick auf die Konsolen und mobile Geräte.

Dass Microsoft lieber seine XBOX supportet als Windows, was Spiele betrifft, sollte ja klar sein. Nur kann NVidia und AMD ihre Grafikkarten nicht für Konsolen verkaufen und auch nicht in Notebooks (jedenfalls die schnelleren) sondern die brauchen einen PCIe Steckplatz.

BlacKi
2013-10-07, 00:08:00
muss AMD Mantle bringen weil AMD sich aus dem enthusiasten bereich zurückzieht und nur noch APU´s fokusieren will?
wird man bald keine schnellen cpus zum zocken mehr benötigen?
(in anlehnung an die folie inder steht das die matle architektur CPU´s auslastung reduziert)

Ronny145
2013-10-07, 00:48:43
Was deren Treiber für BSODs auch im Office-Betrieb werfen das ist nicht mehr feierlich.


Ich hatte noch nie einen. Bei dem riesen Marktanteil wären die Foren wären voll mit BSOD Meldungen wenn dem so wäre.

Felixxz2
2013-10-07, 01:32:04
Mantle bringt doch nur beim Gamen was. Schnelle CPUs werden aber nicht zum Zocken verkauft, sondern für hauptsächlich für den Profimarkt und eben als Gimick für Normalo PCs.

Außerdem beschleunigt Mantle ja auch GPUs und läuft ja auch auf Intel CPUs. Von den eigenen CPUs ham sie kein Wort gesagt.

ENKORE
2013-10-07, 02:13:50
Ich hatte noch nie einen. Bei dem riesen Marktanteil wären die Foren wären voll mit BSOD Meldungen wenn dem so wäre.

Macht mich gerade auch stutzig, die Treiber von Intel sind meiner Erfahrung nach auf beiden Plattformen (Linux & Windows) sehr stabil.

gnahr
2013-10-07, 08:03:04
Schnelle CPUs werden aber nicht zum Zocken verkauft, sondern für hauptsächlich für den Profimarkt und eben als Gimick für Normalo PCs.
ne, das kann man so nicht stehen lassen. egal ob celeron oder i3, zumindest bei intel ist alles gleich pfeilschnell, nur eben mit ner preislich entsprechenden kernzahl ausgestattet.
wenn du aber jetzt "Bulldozer @5ghz-steroide" vs a5-apu meinst, könnte man drüber reden. da sind ja ganz andere architekturunterschiede inkludiert.
die treiberlast hab ich noch nie als problematisch gesehen, aber mir hat auch noch kein hersteller versprochen sie per verschwindibus-zauber zu beseitigen.

Pirx
2013-10-07, 09:38:35
ne, das kann man so nicht stehen lassen. egal ob celeron oder i3, zumindest bei intel ist alles gleich pfeilschnell, nur eben mit ner preislich entsprechenden kernzahl ausgestattet.
...
Aber auch das kann man so nicht stehen lassen - die Abspeckungen der Celeron und Pentium-Varianten zeigen sich schon, wenn man mal etwas mehr, als einen Editor startet. Bei den Features ist es auch so, daß bei AMD sogut wie alle CPUs alle möglichen Features haben. Bei Intel gibt es da immer wieder nicht nachvollziehbare "Lücken".

BlacKi
2013-10-08, 00:36:15
Mantle bringt doch nur beim Gamen was. Schnelle CPUs werden aber nicht zum Zocken verkauft, sondern für hauptsächlich für den Profimarkt und eben als Gimick für Normalo PCs.

Außerdem beschleunigt Mantle ja auch GPUs und läuft ja auch auf Intel CPUs. Von den eigenen CPUs ham sie kein Wort gesagt.

ich nehme crysis 3 als beispiel für zukünftige spiele. derzeit gibt es keine cpu die crysis mit 144fps+ selbst unter low darstellen kann. und selbst wenn es eine gäbe, dann wäre es eine 500euro+ cpu.

jetzt kommt amd mit mantle + AMD sagt wir ziehen uns aus dem 300euro+ CPU segment zurück.

wird man mit mantle eine 100-150euro cpu sinnvoll mit einer r9 290x paaren können? wird mantle da eine rollen spielen können?

oder anders formuliert, wird AMD nicht seine eigenen produkte als referenz zur neuen enthusiasten GPU empfehlen, sondern z.b. eine intel cpu???

Steffko
2013-10-08, 01:07:02
Die Frage ist... wer braucht 144fps beim Zocken? :D

BlacKi
2013-10-08, 01:53:36
Die Frage ist... wer braucht 144fps beim Zocken? :D
ich strebe es an wenn es möglich ist, denn mein monitor kann sie darstellen.
für die meisten anderen ist die zukunftstauglichkeit ein besseres argument.

zumanderen war es nur eine übertreibung, nimm die FX prozessoren amd mal weg, was bleibt übrig? 4 kernprozessoren die kaum leistung haben aber eine gpu die nicht wirklich zum zocken reichen. die haben bei crysis wohl probleme die 40 fps zu halten, und das ist doch echt nicht für gaming geeignet.

es sei denn Mantle kann es richten.

Steffko
2013-10-08, 13:09:06
Nur warum sollte man die FX CPUs wegnehmen? Wenn man Intel alle Core i-xxxx, Pentium und Celerons wegnimmt, bleiben auch nur noch die gurkigen Atoms übrig :freak:

Blackhand
2013-10-08, 13:43:52
Hohe fps haben durchaus ihre Berechtigung und im hohen fps Bereich limitieren die CPUs auch schon viel eher. Wenn man jetzt also sowohl die CPU-Last senkt als auch 8 Cores/Threads ausnutzen kann, dann könnte man dieses Limit weiter nach oben schieben. Das kann ich nur begrüßen

Hayab
2013-10-08, 23:59:25
Mantle auf XP das waere doch was. ;D
Moeglich waere es wahrscheinlich, rentabel eher nicht.

Wenn aus Mantle tatsaechlich etwas wird, dann koennen die linux kernel Devs die Ueberlegenheit ihren kernel-modul-schnittstellen gegenueber der Windowstreiber in direkten Vergleich stellen, vorausgesetzt beide werden mit gleicher Sorgfalt entwickelt.

Bisher ware die Linuxtreiber ein von ATI sehr lahm, bei NV ist man da ein wenig weiter aber unter windows waren die gleichen 3D Anwendungen selbst unter OpenGL schneller.

Haette man vergleichbare Treiber waere der schlankere und effizientere OS Kernel doch ein Vorteil.;D Es gab Zeiten da hab ich meine Linux und *BSD kernel selbst konfiguriert und gebaut, das hat damals auf den lahmen CPUs doch paar Prozent mehr Speed gebracht.

BlacKi
2013-10-09, 00:19:26
Nur warum sollte man die FX CPUs wegnehmen? Wenn man Intel alle Core i-xxxx, Pentium und Celerons wegnimmt, bleiben auch nur noch die gurkigen Atoms übrig :freak:
"Die oftmals gut informierten Kollegen von VR-Zone.com berichten unter Berufung auf AMD-Dokumente für den OEM-Markt, dass das Unternehmen die FX-Prozessoren einstellen wird. Die Produkte seien im Performance-Bereich nicht konkurrenzfähig, weswegen der Prozessorhersteller den Fokus ausschließlich auf seine Accelerated Processing Units (APUs) richten möchte."
http://www.hardware-infos.com/news/4728/zukuenftig-keine-amd-fx-prozessoren-mehr.html

Mantle auf XP das waere doch was. ;D
Moeglich waere es wahrscheinlich, rentabel eher nicht.


meiner meinung nach ist xp einfach nur noch crabshit. ein system das sämtliche viren und trojaner des gesammten netzes in sich aufsaugt.ich kann dem betriebsystem nichtmehr abgewinnen, auch wenn ich es fast ein jahrzehnt genutzt habe

del_4901
2013-10-09, 00:30:35
XP ist sehr beliebt in Asien

schreiber
2013-10-09, 00:33:14
XP ist sehr beliebt in Asien
Ja, aber werden die auch ab nächsten Jahr das OS selbst patchen und Treiber dafür weiterentwickeln?

Blackhand
2013-10-09, 07:31:49
"Die oftmals gut informierten Kollegen von VR-Zone.com berichten unter Berufung auf AMD-Dokumente für den OEM-Markt, dass das Unternehmen die FX-Prozessoren einstellen wird. Die Produkte seien im Performance-Bereich nicht konkurrenzfähig, weswegen der Prozessorhersteller den Fokus ausschließlich auf seine Accelerated Processing Units (APUs) richten möchte."
http://www.hardware-infos.com/news/4728/zukuenftig-keine-amd-fx-prozessoren-mehr.html


meiner meinung nach ist xp einfach nur noch crabshit. ein system das sämtliche viren und trojaner des gesammten netzes in sich aufsaugt.ich kann dem betriebsystem nichtmehr abgewinnen, auch wenn ich es fast ein jahrzehnt genutzt habe

Macht sogar Sinn, die FX-Prozessoren einzustellen. Wenn sich OpenCL-beschleunigte Software durchsetzt und die APUs mittels (nicht zwingend) Mantle ihre Rechenkraft den dGPUs auch für Spiele zur Seite stellen können, dann sind pure FX-Prozessoren sowieso uninteressant. Möglicherweise deixelt AMD dann sogar noch was am PCIe-Interface bei ihren APUs, damit das besser geht und weniger Mikroruckler entstehen.

Dass WinXP son Virenfänger ist, halte ich allerdings für total überzogen und sehe dich da mal eher als Opfer der Antiviren-Propaganda. Ich könnte auch ohne Updates noch jahrelang mit einem XP leben. Virenprobleme hatte ich mit oder ohne Updates nie bei diesem System und das ohne Antivirsoftware.

EDIT: Dass Mantle für XP kommt kann ich mir überhaupt nicht vorstellen. Theoretisch bestimmt möglich umzusetzen, aber ich könnte mir vorstellen, dass nichtmal ein Spiel mit Mantlesupport auf den Markt kommt, was unter XP läuft. Die werden bestimmt alle mindestens Vista voraussetzen neben eventuell Linux höchstens. Dazu ist WinXP x64 auch noch die totale Nische und fürs ernste Spielen ist vor allem in naher Zukunft ein 64bit-System Pflicht m.E.

Loeschzwerg
2013-10-09, 07:45:19
Solange AMD den Server bereich mit den Opterons nicht aufgibt bleibt auch der FX für den Desktop/Workstation eine Option. Siehe hierzu Sockel 2011 von Intel ;)

Blackhand
2013-10-09, 07:57:25
Spricht denn was dagegen, dass AMD auch im Serversegment nur noch mit APUs antritt?

Und könnte Mantle in diesem Zusammenhang auch theoretisch eine Alternative für OpenCL/Directcompute sein? Für maßgeschneiderte Serverlösungen, wo die Software entsprechend angepasst wird, könnte ja möglicherweise etwas gehen.

ilibilly
2013-10-09, 10:28:13
Bin mal gespannt ob man mit mantle und dem neuen verfahren ohne crossbridge,ein dual gpu stting ohne microruckler zum laufen bringt,hoffe amd hat sich diese problematik angenommen.
Frame pacing ist ja der erste schritt,vielleicht haben sie hinsichtlich hawai hardwaretechnisch ebenfalls was optimiert.

Windi
2013-10-09, 11:02:29
Wie ist das eigentlich mit SLI und Crossfire?

Wenn die Entwickler das nicht berücksichtigen, (zu kleine Zielgruppe) dann lassen die Latenzen zwischen den einzelnen Karten das ganze System doch zusammenbrechen, oder?

Also nur noch Single-(Chip/Karten)-Lösungen mit Mantle.

HOT
2013-10-09, 11:31:30
Die 32Bit-Ära soll endlich mal zu Ende gehen, bitte kein Mantle für XP mehr...

Iruwen
2013-10-09, 13:38:23
XP 64 Bit! :D

L.ED
2013-10-09, 13:40:40
AMD wird wenn denn nur den Namen FX bis auf weiteres beerdigen und das es in Zukunft nur noch sog. APUs von ihnen geben wird, war schon beim Start von Bulldozer klar!? Gemeint, das stand so von Anfang an bereits in der Roadmap das mit Excavator es auch wieder einen einheitlichen Sockel auf dem Desktop geben würde, nebst keine CPU mehr ohne GPU Anteil da HSA (https://de.wikipedia.org/wiki/Heterogeneous_System_Architecture) das Ziel!

Und Performance CPUs wird es auch weiterhin von AMD geben, das steht völlig außer frage und allein HSA dafür schon Pate (da steckt enormes Potential)! :wink:

y33H@
2013-10-09, 14:10:58
Zeig doch mal diese Roadmap.

ENKORE
2013-10-09, 15:43:23
XP 64 Bit! :D

...war ein Server 2003 (NT 5.2), also anderer Kernel als XP (5.1).

——

APU in Servern ergibt wenig Sinn. Bei den meisten Arten von Servern limitiert fast immer der I/O und eine GPU kann selber keinen I/O machen, im Gegenteil, belastet sie die I/O Schnittstellen des Prozessors zusätzlich.

Lediglich bei speziellen Anwendungen könnte ich mir da Vorteile vorstellen, etwa bei Servern, die viel rechnen müssen - etwa für Thumbnails, Videos skalieren und/oder transkodieren etc. - also im wesentlichen im Streaming-Segment. Das könnte sehr langfristig die Betriebskosten von Streaming wieder senken und dezentraleres Streaming für kleinere Medienanbieter wieder attraktiv machen.

Coda
2013-10-09, 15:45:10
Das ist praktisch kein Unterschied.

ENKORE
2013-10-09, 15:47:08
War halt nen nachträglicher "Einwurf" seitens Microsoft um was 64-bittiges an Client-OS zu haben. Die Softwareunterstützung für XP64 war ja eh immer mies, klassische (Microsoft-) Totgeburt... :D

L.ED
2013-10-09, 15:47:12
Das finde ich doch jetzt nicht mehr, :frown: wobei ich mich eher frage ob das ein Troll-versuch sein soll (da wenn ich mich recht entsinne jemand von der PCGHW Redaktion)?

Denn das ergibt sich schon aus dem Kontext heraus da mit Excavator gleichsam eine neue Plattform devinitiv/spätestens eingeführt werden wird und alles anders gehende nicht nur vor diesem Hintergrund, totaler Nonsens wäre! Davon ab das weder Endanwender, noch AMD oder die Softwareentwickler mit der Momentanen Situation glücklich.

Coda
2013-10-09, 15:50:40
War halt nen nachträglicher "Einwurf" seitens Microsoft um was 64-bittiges an Client-OS zu haben. Die Softwareunterstützung für XP64 war ja eh immer mies, klassische (Microsoft-) Totgeburt... :D
Was war daran "mies"? Sämtliche 32-Bit-Software funktioniert darauf wie gewohnt. Oder meinst du Treiber?

S940
2013-10-09, 15:53:13
Ach da es sowieso nicht mehr ums Thema geht, schließ ich mich mal der OT-Diskussion an:
Ich geh mittlerweile zu 80% davon aus, dass die BD-Arch tot ist. Die Indizien werden einfach immer mehr.

maximus_hertus
2013-10-09, 15:59:04
Afaik gibts beim Opteron nur ein Piledriver-Update, ergo nichts großes. Der Desktop hat dieses Jahr seinen 5 GHz-Chip bekommen und damit hat es sich mit den Bulli-Updates (ohne APUs) in diesem Winter / Frühling 14.

Es gibt afair keine offizielle Roadmap mehr, die einen Opteron / FX jenseits des Piledrivers listet. Ergo kann es bedeuten, dass "jetzt" Schluss ist oder AMD sich alles offen lässt und kurzfristig Infos / Hardware raus gibt.

Coda
2013-10-09, 16:02:57
Ach da es sowieso nicht mehr ums Thema geht, schließ ich mich mal der OT-Diskussion an:
Ich geh mittlerweile zu 80% davon aus, dass die BD-Arch tot ist. Die Indizien werden einfach immer mehr.
Was wollen sie denn sonst benutzen? Komplett aus dem High-End-Segment aussteigen?

L.ED
2013-10-09, 16:02:59
Was ist den die sog. Bulldozer Architektur(?), das war schon immer eine aus fehlenden Ressourcen heraus gedrungene Übergangsnummer von daher auch Baumaschinen als Namensgeber. Und so OT ist es btw. gar nicht weil es Mantle dafür zwar nicht brauchen täte (für HSA), aber im Nachgang betrachtet ist das auch nur ein logischer und Konsequenter weiterer Schritt, wobei mich dieser ebenso überrascht hatte (keine Frage).

y33H@
2013-10-09, 16:22:21
wobei ich mich eher frage ob das ein Troll-versuch sein soll (da wenn ich mich recht entsinne jemand von der PCGHW Redaktion)?Aha, PCGH = Trolle ... wie gut, dass ich da nicht arbeite ^^

Denn das ergibt sich schon aus dem Kontext heraus da mit Excavator gleichsam eine neue Plattform devinitiv/spätestens eingeführt werden wird und alles anders gehende nicht nur vor diesem Hintergrund, totaler Nonsens wäre! Davon ab das weder Endanwender, noch AMD oder die Softwareentwickler mit der Momentanen Situation glücklich.Mir ist keine Roadmap bekannt, die dies zeigt, zumal AMD viele Planungen umgeworfen hat.

Raff
2013-10-09, 16:24:26
Aha, PCGH = Trolle ... wie gut, dass ich da nicht arbeite ^^

Troll? Hier! :freak: Voll troll.

MfG,
Raff

M4xw0lf
2013-10-09, 16:51:20
Was wollen sie denn sonst benutzen? Komplett aus dem High-End-Segment aussteigen?
De facto sind sie das doch seit Jahren.

S940
2013-10-09, 17:02:39
Was wollen sie denn sonst benutzen? Komplett aus dem High-End-Segment aussteigen?
Klar, wer braucht schon High-End? Das Marktvolumen ist woanders und solange AMD noch bei jedem zweiten High-End-PC durch die Grafikkarte mitverdient .. reicht das auch noch.

Die Zukunft schätze ich ne Ebene tiefer ein. Anstatt Jaguar+Bulldozer gibts ARM+Jaguar. Mehr CPU-Linien kann sich AMD mit ~10k-Mitarbeiter auch gar nicht leisten.

Aus Jaguar kann man sicher noch ein paar Mhz rausquetschen, eventuell noch Finfets dazu und es reicht fürs obere Mittelklassesegment. Für die noch fehlenden GHz halt noch ein paar Kerne dazu, sind ja klein und kosten fast nix. Ein hier angesehener Programmierer meinte letztens, dass er gerne 32 Jaguar-Kerne hätte ^^

32 wären bei ner APU vielleicht noch etwas viel, selbst in 20nm (inkl. 512 Shader) aber 16 Kerne .. bestehend aus 4 Jaguar-Quadmodulen wären drin. ~3,0 Ghz sollten bei gleichem Verbrauch drin sein ( 20nm Finfets sollen ja insgesamt +50% besser als 28nm werden). Insgesamt sollte man dann mit dem Rest (GPU, IMC, etc), bei den üblichen 100-120W landen.

L.ED
2013-10-09, 17:04:21
Das wurde eben vorsätzlich und wissentlich aus dem eigentlich gemeinten Kontext gerissen! :mad: Denn es meinte das wer im redaktionellen Teil betreffs Hardware arbeitet (das könnte hier nun jedes HW Blatt sein), solche Fragen nicht stellen sondern Wissen sollte (meine Meinung). Und wenn trotzdem dann solche aufkommen, kann man schon in Versuchung geraten an solches zu Denken oder nicht? Wie dem auch sei hab mich dann halt falsch erinnert und dann ist doch auch alles gut und genug OT. ^^

PS: Möglicherweise Erinnere auch in einem anderem Punkt falsch, meine aber fest mal gelesen zu haben das erst mit Excavator der erste Meilenstein komplett durch sei. Vor dem momentanen Hintergründen wäre es aber auch nicht weiter gewichtig da auch so sehr klar sein sollte wohin die Reise geht!?

Denn die gründende Idee von dem was nun in HSA münden und am Ende weitergeführt werden wird ist schon sehr alt. Ich glaube man dachte schon in den 70zigern über solches nach nur die Technische-umsetzung bzw. auch Notwendigkeit erst dieser Tage soweit fortgeschritten. Von daher auch nicht verwunderlich das selbst Intel etwas überrascht wirkt von dieser Entwicklung. Das es also nun tatsächlich auf absehbar soweit sein wird und gerade AMD das auch auf die Beine bekommt. Das sie genau das vor hatten und früher oder später auch schaffen würden müsste ihnen spätestens seit dem Kauf von ATI klar gewesen sein? Dennoch planten sie wohl erst mit ein paar Generationen später damit, so sieht es jedenfalls aus? Das sie es mit ihren Fertigungsvorteil (auf ein weiteres), noch vor Stichtag in die Reihe bekommen werden davon gehe allerdings aus, obgleich es mal wieder Spannender werden wird. :smile:

fondness
2013-10-09, 19:57:59
EA/DICE hat wohl für einige Zeit einen Exklusivdeal mit Mantle:

Sure, DICE and EA are on board, but the rest of the industry didn’t appear to be on board.

There seems to be a very good reason for that. According to Forbes, DICE and EA have a “timed exclusivity agreement from a PR standpoint.” However, AMD told Forbes that several more developers should be announced in November, at AMD’s APU 13 conference.

EA currently has more than 15 Frostbite games in development, with Mantle support. These include big titles like new instalments of NFS, Command and Conquer, Mass Effect and Mirror’s Edge.

http://www.fudzilla.com/home/item/32771-the-real-reason-behind-apparent-lack-of-mantle-devs

ilibilly
2013-10-09, 20:06:43
Mantel könnte wirklich das Machtgefüge zugunsten AMD verschieben
Ich erwarte da schon 20% mehr Speed als unter dx11
Dann reicht wohl auch keine Titan Ultra zum kontern

dargo
2013-10-09, 20:29:08
EA/DICE hat wohl für einige Zeit einen Exklusivdeal mit Mantle:



http://www.fudzilla.com/home/item/32771-the-real-reason-behind-apparent-lack-of-mantle-devs
Weißt du was ich an der ganzen Geschichte lustig finde? Obwohl... eigentlich ist es schon eher zum heulen. Da wirbt man mit Mantle auch in NfS Rivals und dann setzt man einen 30fps Lock Ingame. :crazy: :uattack4:

samm
2013-10-09, 20:35:16
EA/DICE hat wohl für einige Zeit einen ExklusivPRdeal mit Mantle:fixed it ;)

Da wirbt man mit Mantle auch in NfS Rivals und dann setzt man einen 30fps Lock Ingame.Tragisch! Ich bin versucht zu sagen "EA halt"... ok, was heisst versucht, ich sag es :biggrin:

Demirug
2013-10-09, 20:49:24
Also bisher gibt es drei Aussagen

- Es wird Mantle Support in Frostbite geben.
- Es wird einen BF4 Patch geben.
- Eine reihe von kommenden EA spielen benutzt Frostbite

Daraus kann man nun nicht logisch Schlussfolgern das jedes Frostbite Spiel Mantle benutzen wird. Zum einen können die Spiele durchaus eine Frostbite Version benutzen die kein Mantle unterstützt. Nein es gibt nicht nur Frostbite 2 und 3. Zum anderen ist völlig unklar in wie weit zusätzliche Anpassungen im Spiel selbst notwendig sind. Solange also keine diesbezüglichen Aussagen gemacht werden kann man derzeit nur bei BF4 sicher sein.

ndrs
2013-10-09, 21:36:55
EA/DICE hat wohl für einige Zeit einen Exklusivdeal mit Mantle:
Welchen Sinn sollte soetwas haben? AMD schneidet sich ins eigene Fleisch, wenn andere Spiele Mantle nicht unterstützen dürfen. Und will EA etwa werben mit: "Hey, seht her! Unsere Spiele laufen mit AMD schneller als mit nVidia!" ??? Ich versteh's nicht.

S940
2013-10-09, 22:27:58
Welchen Sinn sollte soetwas haben? AMD schneidet sich ins eigene Fleisch, wenn andere Spiele Mantle nicht unterstützen dürfen. Und will EA etwa werben mit: "Hey, seht her! Unsere Spiele laufen mit AMD schneller als mit nVidia!" ??? Ich versteh's nicht.
Ach Fuad ... wahrscheinlich ist es schlicht so, dass Dice als enger Entwicklungsparner nur der Alpha-Tester ist und die anderen das erst bekommen, wenns halbwegs läuft.

Auf der Mantle-Dice-Präsentation stand auch, dass BF4 das "Pilotprojekt" sei. MMn ne eindeutige Bezeichnung.

Davon abgesehen arbeiten die Dice-Leute schon seit 2 Jahren mit AMD daran. Bis andere Studios damit auch nen Titel / ne Engine rausbringen dauert es so oder so.

Ich wills nicht ausschließen, dass es vielleicht nich doch nen "Exklusivdeal" gibt, aber halbfertige Sachen hätten die anderen Studios sowieso nicht interessiert.

Hayab
2013-10-09, 22:37:01
AMD und Superperformante Treiber:freak:

Im grunde wird es so laufen, dass DICE DX11 kuenstlich abbremsen muss um die Vorteile von Mantle zu presentieren.
Vielleicht ist aber AMD nicht so bleod und macht aus Mantle eine halbwegs offene systemuebergreifende API.
Am wahrscheinlichsten ist, dass es wider so ein Marketingbluff ala OpenCL ist.

Blediator16
2013-10-09, 22:40:57
Es ist eigentlich wie immer. AMD ist eigentlich Scheisse und kann auch so nix gescheit von daher sind wir uns jetzt alle einig: AMD Treiber sind Müll und NV wird bei BF4 in Dx11 künstlich gebremst. Aus die Maus. Galileo Mysterie Team braucht doch nicht mehr kommen Hayab hat das Geheimnis bereits ausgeplaudert.

S940
2013-10-09, 22:52:15
AMD und Superperformante Treiber:freak:
Les mal nochmal die Folien durch was da über die Treiber gesagt wird... superperformant steht da nicht dabei.

Hayab
2013-10-09, 23:05:15
Es ist eigentlich wie immer. AMD ist eigentlich Scheisse und kann auch so nix gescheit von daher sind wir uns jetzt alle einig: AMD Treiber sind Müll und NV wird bei BF4 in Dx11 künstlich gebremst. Aus die Maus. Galileo Mysterie Team braucht doch nicht mehr kommen Hayab hat das Geheimnis bereits ausgeplaudert.

Ich verstehe deinen Zynismus, allerdings ich bin kein NV Fanboy, mich kotzt nur der primitve AMD/ATI Marketing mit jeder neuer Hardwarerelease immer mehr an.

fondness
2013-10-09, 23:09:21
Ich verstehe deinen Zynismus, allerdings ich bin kein NV Fanboy, mich kotzt nur der primitve AMD/ATI Marketing mit jeder neuer Hardwarerelease immer mehr an.

Aha, was genau war den primitiv? AMD schafft es mittlerweile seit Wochen einen enormen Hype um ihre Produkte zu generieren. Super primitiv. :freak:
Teilweise echt lächerlich, was kommt denn von NV außer heiße Luft und abstürzende Treiber?^^

gnahr
2013-10-09, 23:22:33
Aha, was genau war den primitiv? AMD schafft es mittlerweile seit Wochen einen enormen Hype um ihre Produkte zu generieren.
mir wurde mal gesagt, dass dies das technik-unterforum ist. deinen hype-train bitte auf gleis 4 parken, der hat nicht den hauch eines bezuges.

sie haben exklusivpartner für ihre ach so tolle api... nuff said. die vorstellung gegenüber der öffentlichkeit erfolgt nur mit laber-rabarber-folien und nicht dem hauch eines details. sie verkaufen die abschaffung der cross-fire-bridge als fortschritt... die stehen sowas von in der bringschuld und pflicht endlich mal abzuliefern, sonst gibts ganz zurecht auf den sack für den massenmord an unschuldigen bäumen die wegen der papierverschwendung beim drüber schreiben ohne was zu wissen geopfert wurden. es gibt ja noch nicht mal ein rumortes datum zwecks "exposing the naked truth". es wär die krönung wenn alle details erst mit der heißen nadel beim community-patch-day im dezember eingeflochten werden.

Hayab
2013-10-09, 23:23:53
Aha, was genau war den primitiv? AMD schafft es mittlerweile seit Wochen einen enormen Hype um ihre Produkte zu generieren. Super primitiv. :freak:
Teilweise echt lächerlich, was kommt denn von NV außer heiße Luft und abstürzende Treiber?^^
Weil ausser dem Hype wird es danach nichts mehr geben.

fondness
2013-10-09, 23:50:14
Weil ausser dem Hype wird es danach nichts mehr geben.

Und woher kommt die Weisheit? Es werden offenbar einige Mantle-Spiele erscheinen und es wurden auch bereits 4 Spiele mit True-Audio-Unterstützung angekündigt. Wirkt für mich eher so als wären viele NV-User mit ihrer überteuerten Hardware mittlerweile etwas enttäuscht, da sich NV nur noch auf Tegra konzentriert, während AMD immer mehr Einfluss im Gaming gewinnt.

-/\-CruNcher-/\-
2013-10-09, 23:57:03
Aha, was genau war den primitiv? AMD schafft es mittlerweile seit Wochen einen enormen Hype um ihre Produkte zu generieren. Super primitiv. :freak:
Teilweise echt lächerlich, was kommt denn von NV außer heiße Luft und abstürzende Treiber?^^

Ja mit der Hilfe von EX Nvidia Mitarbeitern schaffen sie das, die zum Teil die selbe strategie fahren wie damals bei Nvidia ;)

Maxwell Abwarten dann ist AMDs vorsprung in Mainstream Compute vorbei und andere Chip punkte werden interessant, wo AMD nicht gerade rosig darsteht abgesehen von ihrer neuen True Audio und Mantle Strategie ;)

maximus_hertus
2013-10-09, 23:57:39
Weil ausser dem Hype wird es danach nichts mehr geben.

Das weißt du woher? Möchtest du, dass es "nur" beim Hype bleibt oder wie kommst du auf deine Meinung?

ENKORE
2013-10-10, 00:14:58
Was war daran "mies"? Sämtliche 32-Bit-Software funktioniert darauf wie gewohnt. Oder meinst du Treiber?

Ich meine Treiber und natürlich 64-Bit Anwendungssoftware. Dafür kaufte man schließlich XP64... und um vor Viren/Trojanern sicherer zu sein. Von der Anwendungssoftware gab es jedenfalls zu keinem Zeitpunkt sonderlich viel, was 64-bittig war und XP64 unterstützte...

BlacKi
2013-10-10, 01:27:09
Weil ausser dem Hype wird es danach nichts mehr geben.
genau wie bei apple, sony@playstation usw.

ich traue mantle selbst nur etwas mehr performance zu. könnte aber auch sein das es wie mit den performancetreibern aus der vergangenheit einfach durch reduktion von grafikelementen gepushed wird.

man muss sehen wie es kommen wird.

Iruwen
2013-10-10, 11:38:36
Und woher kommt die Weisheit? Es werden offenbar einige Mantle-Spiele erscheinen und es wurden auch bereits 4 Spiele mit True-Audio-Unterstützung angekündigt. Wirkt für mich eher so als wären viele NV-User mit ihrer überteuerten Hardware mittlerweile etwas enttäuscht, da sich NV nur noch auf Tegra konzentriert, während AMD immer mehr Einfluss im Gaming gewinnt.
Solange es noch mehr PhysX Spiele gibt Ball flachhalten, sonst wirkt die Argumentation fadenscheinig :tongue:

aufkrawall
2013-10-10, 11:43:30
Ich meine Treiber und natürlich 64-Bit Anwendungssoftware. Dafür kaufte man schließlich XP64... und um vor Viren/Trojanern sicherer zu sein. Von der Anwendungssoftware gab es jedenfalls zu keinem Zeitpunkt sonderlich viel, was 64-bittig war und XP64 unterstützte...
Eh, man hat XP x64 garantiert nicht wegen der Sicherheit gekauft (besseres DEP für x64 Prozesse ist jetzt nicht der große Bringer und der Patchguard ist im Vergleich zu Win 8 auch ziemlich lückenhaft).
War wohl eher interessant im Server- oder wissenschaftlichen Bereich. Läuft heute noch an manchen Unis.

Ailuros
2013-10-10, 11:59:53
mir wurde mal gesagt, dass dies das technik-unterforum ist. deinen hype-train bitte auf gleis 4 parken, der hat nicht den hauch eines bezuges.


Tatsaechlich; und ich hab leider seinen Beitrag auch zu spaet gesehen und es wurde zu oft darauf geantwortet dass man irgend etwas anrichten konnte. Es muss offensichtlich weh tun es mal zu versuchen sachlich in einer Debatte zu bleiben.

Gaestle
2013-10-10, 15:56:09
Wurde eigentlich schon geklärt, ob Mantle auch speziell bei AMD-CPUs Vorteile bringen soll?
Also abseits der versprochenen gesteigerten Parallelisierung.

sqrt[-1]
2013-10-10, 18:49:13
Das Problem bei OpenGL ist das dort die khronos group das sagen hat. In dem entsprechenden Gremium sind die Entwickler von CAD Software viel stark und blockieren damit eigentlich dringend notwendige Änderungen schon seit Jahren.Das stimmt einfach nicht.
Richtlinien zur Weiterentwicklung von OpenGL werden allein von wenigen Promotoren festgelegt und ratifiziert. Das sind fast ausnahmslos Hardwareentwickler.
Regulaehre Khronos-Teilnehmer haben meist ueberhaupt nichts mit dem Entscheidungsprozess ueber OpenGL zu tun. Es stimmt einfach nicht das konservative Softwareentwickler den Entwicklungsprozess haemmen.

OpenGL ist deutlich leistungsfaehiger als das neuste/zukuenftige D3D, was lustiger Weise auch nur exklusiv fuer Windows8 ist. Mit der Ressourcen-Bindung ueber Speicheradressen und indirekten Zeichnungsbefehlen ist real eine vielfache Effizienzsteigerung gegenueber D3D erreichbar und das konnte ich/wir auch selbst bestaetigen.

Coda
2013-10-10, 19:04:38
;9953398']OpenGL ist deutlich leistungsfaehiger als das neuste/zukuenftige D3D
Nö.

;9953398']Mit der Ressourcen-Bindung ueber Speicheradressen und indirekten Zeichnungsbefehlen ist real eine vielfache Effizienzsteigerung gegenueber D3D erreichbar und das konnte ich/wir auch selbst bestaetigen.
DrawIndirect gibt's seit DX11, also schon 4 Jahre. ARB_Draw_Indirect kam erst zwei Jahre danach.

Resource binding über Speicheradressen ist ja ganz nett, aber das sorgt jetzt nicht für eine unfassbar viel höhere Performance.

sqrt[-1]
2013-10-10, 19:17:38
Nö.


DrawIndirect gibt's seit DX11, also schon 4 Jahre. ARB_Draw_Indirect kam erst zwei Jahre danach.Aendert nichts an meiner Aussage.

Resource binding über Speicheradressen ist ja ganz nett, aber das sorgt jetzt nicht für eine unfassbar viel höhere Performance.Pfft? Was fuer ein Szenario hast du denn bitte gemessen? Hmm?
Fuer sehr hohe Objektzahlen mit hoher Treiberlast (entsprechend des Diskussionsthemas) haben nicht nur wir einen mehr als vierfach hoeheren Durchsatz gegenueber einen jahrelang optimierten Renderpfad erreicht.

Gipsel
2013-10-10, 19:28:43
;9953436']Aendert nichts an meiner Aussage.

Pfft? Was fuer ein Szenario hast du denn bitte gemessen? Hmm?
Fuer sehr hohe Objektzahlen mit hoher Treiberlast (entsprechend des Diskussionsthemas) haben nicht nur wir einen mehr als vierfach hoeheren Durchsatz gegenueber einen jahrelang optimierten Renderpfad erreicht.
Wer seid ihr denn?

Daß weniger Statechanges vermutlich helfen, stellt ja keiner in Abrede. Aber das Zeug ist ja auch nicht Core-OpenGL sondern eine Extension, nicht? Da kann man sich also auch nicht unbedingt drauf verlassen, daß das geht.

sqrt[-1]
2013-10-10, 19:51:07
Wer seid ihr denn?Bekannte Macher fuer interaktive Grafikdarstellung. Will mich hier nicht profilieren.
Bindunglose Ressourcen sind zum Teil schon integriert und das geht auch sehr bald weiter so.

Badner1972
2013-10-10, 19:56:00
Wann sind denn genauere Info´s über Mantle verfügbar? Hab die Debatte hier nicht immer aufm Schirm...sind da zum Launch der 290´er mehr Details angekündigt?

Gipsel
2013-10-10, 20:16:34
;9953477']Bekannte Macher fuer interaktive Grafikdarstellung. Will mich hier nicht profilieren.Wenn Du die Firma nennst, profilierst Du Dich damit noch lange nicht ;). Aber wenn Du das vorhin schon als schlecht verstecktes Autoritätsargument angebracht hast, denn jetzt nun mal Butter bei die Fische!
;9953477']Bindunglose Ressourcen sind zum Teil schon integriert und das geht auch sehr bald weiter so.Was ist da "zum Teil" schon integriert und was heißt das eigentlich? Und daß es bei MS und DX auch weitergeht, dürfte ebenfalls kein Geheimnis sein.

Wann sind denn genauere Info´s über Mantle verfügbar? Hab die Debatte hier nicht immer aufm Schirm...sind da zum Launch der 290´er mehr Details angekündigt?
Im Dezember zum BF4-Update dürfte es ein wenig mehr Neues geben. Was willst Du denn Genaueres wissen, als der Anderson von Dice bei der Präsentation erzählt hat?

S940
2013-10-10, 20:35:48
Im Dezember zum BF4-Update dürfte es ein wenig mehr Neues geben. Was willst Du denn Genaueres wissen, als der Anderson von Dice bei der Präsentation erzählt hat?Na erstmal kommt die APU13 im November mit Mantle-Infos wurde doch schon auf Seite 1 genannt.

del_4901
2013-10-10, 21:02:35
Bindless resources kann ich ja noch verstehen, das bringt wirklich was. Wobei das Gro schon mit ConstantBuffer partial Updates erschlagen werden kann.

Aber wofuer braucht man bitteschoen DrawIndirect? Ausser Sprite DoF splatting faellt mir ja grade kein Use Case ein.
Particle Culling ist evtl. ein weiterer Use Case, aber damit nimmt man nur Druck vom FrontEnd und nicht von der APi.

-/\-CruNcher-/\-
2013-10-11, 00:14:31
;9953477']Bekannte Macher fuer interaktive Grafikdarstellung. Will mich hier nicht profilieren.
Bindunglose Ressourcen sind zum Teil schon integriert und das geht auch sehr bald weiter so.

Game Developer sollte wegfallen,da die ja schon kritisiert wurden bleibt doch nur CAD und oder 3D Modeling :)
Als verfechter von OpenGL ist das ja dann auch noch logischer, da der umstieg zu Direct3D ja eher nur gezwungenermasen in diesem Berreich statgefunden hat ;)

Gipsel
2013-10-11, 02:20:22
Na erstmal kommt die APU13 im November mit Mantle-Infos wurde doch schon auf Seite 1 genannt.
Stimmt. Hatte ich komplett verdrängt.

S940
2013-10-12, 13:29:10
Hab die 2 Folien hier in der 2 Jahre alten alten BF3-Präsenation gefunden, liefert die geschilderte Utopie eventuell Anhaltspunkte für Mantle?

http://www.abload.de/img/slide-33-1024dfun4.jpg

http://www.abload.de/img/slide-34-1024hxu2o.jpg
?

Quelle:
http://de.slideshare.net/DICEStudio/directx-11-rendering-in-battlefield-3

Demirug
2013-10-12, 14:29:09
Man darf wohl davon ausgehen das Mantle das DX11 Featureset vollständig unterstützt. Parrallel Dispatch ist ja ein DX11 Feature. Es wurde nur immer in den Treibern vernachlässigt. Ich muss gestehen ich habe schon länger nicht mehr nachgemessen ob es besser geworden ist.

Ein Hauptproblem damals war das man versucht hat so viel Treiibercode wie möglich für XP und Vista+ gemeinsam zu verwenden. Dadurch konnten einige Vorteile welche das neue Treibermodel bot nicht richtig genutzt werden.

Die primäre Frage bei Mantle ist eigentlich wie direkt man an die Commandbuffers ran darf. Ein interessanter Aspekt dabei wird auch ob durch einen zu direkten Zugriff Mantle möglicherweise neue Sicherheitslöcher aufreisen könnte.

del_4901
2013-10-12, 15:44:53
Man darf wohl davon ausgehen das Mantle das DX11 Featureset vollständig unterstützt. Parrallel Dispatch ist ja ein DX11 Feature. Es wurde nur immer in den Treibern vernachlässigt. Ich muss gestehen ich habe schon länger nicht mehr nachgemessen ob es besser geworden ist.

Ein Hauptproblem damals war das man versucht hat so viel Treiibercode wie möglich für XP und Vista+ gemeinsam zu verwenden. Dadurch konnten einige Vorteile welche das neue Treibermodel bot nicht richtig genutzt werden.

Die primäre Frage bei Mantle ist eigentlich wie direkt man an die Commandbuffers ran darf. Ein interessanter Aspekt dabei wird auch ob durch einen zu direkten Zugriff Mantle möglicherweise neue Sicherheitslöcher aufreisen könnte.Das Problem von parallel dispatch ist commandbuffer validation und addess patching/merging das muss auf dem immediate context gemacht werden. Das design von MS ist ein grosser fail. Das lässt sich einfach nicht so auf die Hardware mappen. Das neue Treibermodell hilft dabei nicht wirklich. Es abstrahiert das data management weg aber genau das will man ja parallelisieren.

Demirug
2013-10-12, 16:30:30
Das Problem von parallel dispatch ist commandbuffer validation und addess patching/merging das muss auf dem immediate context gemacht werden. Das design von MS ist ein grosser fail. Das lässt sich einfach nicht so auf die Hardware mappen. Das neue Treibermodell hilft dabei nicht wirklich. Es abstrahiert das data management weg aber genau das will man ja parallelisieren.

Ganz so einfach ist das nicht. Ich habe damals noch als DirectX MVP relative frühe Entwürfe für DirectX 11 und die dazu gehörigen Änderungen im WDDM bekommen.

Damals war vorgesehen das eine DX 11 GPU zusammen mit der CPU einen gemeinsamen großen virtuellen Adressraum bilden sollten. Dadurch wäre das Address Patching/Merging schon mal entfallen. Die Command Buffer sollten nach dem neuen Model dann vollständig vom User Space Treiber in einem Speicherbereich der von GPU und CPU erreicht werden kann erzeugt werden. GPUs sollten dann Fehler im Commandbuffer auf Hardwarebene abfangen. Im Verlauf sind die IHVs dann aber zurückgerudert. Primär weil ihnen der Speichercontroller auf der GPU dafür zu aufwendig wurde.

del_4901
2013-10-12, 16:37:04
Ganz so einfach ist das nicht. Ich habe damals noch als DirectX MVP relative frühe Entwürfe für DirectX 11 und die dazu gehörigen Änderungen im WDDM bekommen.

Damals war vorgesehen das eine DX 11 GPU zusammen mit der CPU einen gemeinsamen großen virtuellen Adressraum bilden sollten. Dadurch wäre das Address Patching/Merging schon mal entfallen. Die Command Buffer sollten nach dem neuen Model dann vollständig vom User Space Treiber in einem Speicherbereich der von GPU und CPU erreicht werden kann erzeugt werden. GPUs sollten dann Fehler im Commandbuffer auf Hardwarebene abfangen. Im Verlauf sind die IHVs dann aber zurückgerudert. Primär weil ihnen der Speichercontroller auf der GPU dafür zu aufwendig wurde.
WDDM erlaubt es speicherbereiche auszulagern, der Treiber muss dann sicherstellen, dass alles vorhanden ist bevor der Comandbuffer abgesetzt wird und notfalls das OS informieren. Das merging entfaellt warscheinlich nicht, weil das sehr HW spezifisch ist. Es ist einfach eine Commandbuffer Optimierung.

Demirug
2013-10-12, 17:25:06
WDDM erlaubt es speicherbereiche auszulagern, der Treiber muss dann sicherstellen, dass alles vorhanden ist bevor der Comandbuffer abgesetzt wird und notfalls das OS informieren. Das merging entfaellt warscheinlich nicht, weil das sehr HW spezifisch ist. Es ist einfach eine Commandbuffer Optimierung.

Das Auslagern meine ich nicht. Letzten Endes ging es darum das Commandbuffer vollständig vom User Space Treiber (in beliebigen Threads) gebaut werden hätten können. Der Kernelteil hätten dann nur noch die Buffer ohne weitere Änderungen an die GPU zur Ausfürung übergeben sollen.

del_4901
2013-10-12, 21:46:48
Das Auslagern meine ich nicht. Letzten Endes ging es darum das Commandbuffer vollständig vom User Space Treiber (in beliebigen Threads) gebaut werden hätten können. Der Kernelteil hätten dann nur noch die Buffer ohne weitere Änderungen an die GPU zur Ausfürung übergeben sollen.Das machen die Treiber bereits, das habe ich nicht in Frage gestellt. Der Treiber weis aber nicht wann der deferred Commandbuffer gebraucht wird. Letztenendes passiert ein grossteil der arbeit immernoch auf dem immediate context.
Das koennte man zwar alles 'relaxen' aber MS will das wohl nicht, so wird am ende alles doppelt und dreifach validiert und gepatcht. Der Kernel selber macht eigentlich nur Memorymanagment.

-/\-CruNcher-/\-
2013-10-13, 01:46:44
Hmm das ist eine harte aussage von Boris Vorontsov


Okay, it's another one epic fail from amd, modified water do not work at all because of shaders. Tested on radeon 4850 and 10.7 catalyst as i understood. If i change dxsdk version to lower - no issues, but 1.3 times slower ssao/reflections/shadows. Amd do something to pure assembled shaders made by me when they recompiled by d3dx9_43 compiler. Just one single shader with almost all code disabled do work, i can get wrong instructions, modify them to different and it will work, but activating other part of code produce same results and there is no way to do anything in assembly. I can only guess how much bugs amd users have with latest gta4 mod as it also compiled to _43 version (latest). I strongly advice to stay away from this company.


Auf der anderen seite ;)


Only for the interest in mantle technology and see what its capable of, too many questions but looks interesting.

Locuza
2013-10-13, 02:08:49
Und was haben die Probleme davor mit dem Thema zu tun?

4850, cat 10.7, gta mod , wtf?

S940
2013-10-13, 11:35:35
Und was haben die Probleme davor mit dem Thema zu tun? Frag ich mich auch gerade .. ist das hier jetzt der Treiber-Bug-Thread?

Um was fürs Thema zu schreiben, auch wenns ne Wiederholung ist:
Der Mantle-Treiber ist "dünn", die Bugwahrscheinlich nimmt damit stark ab, der Entwickler hat die volle Kontrolle.

Gipsel
2013-10-13, 12:03:14
Und wo steht das überhaupt (Link?). Ein paar der Formulierungen scheinen nicht gerade von großem Sachverstand zu zeugen, wie z.B. die Verwunderung/Bestürzung daß mit den Shader nochmal was passiert. Das muß so sein, da das DX-Assembly (ist hardwareunabhängig) natürlich nicht so auf GPUs ausgeführt werden kann, sondern immer noch für die jeweilige GPU kompiliert werden muß. Aber so wie sich das anhört, ändert sich vielleicht auch das DX-Assembly, wenn er die HLSL-Shader mit einer neueren Version des MS-Shadercompilers (d3dx9_43) kompiliert (das kann durchaus passieren). Damit hat AMD aber genau Null zu tun, das Ding kommt von MS. AMD kompiliert nur das DX-ASM zur ISA.
Und wie relevant ist überhaupt ein Problem, daß ein mehr als drei Jahre alter Treiber auf einer noch älteren Hardware-Generation eventuell (vermutlich aber nicht) hatte?

-/\-CruNcher-/\-
2013-10-13, 13:31:46
@Gipsel

Situation Analyze:

http://enbdev.com/enbseries/forum/viewtopic.php?f=2&t=2454&start=70#p39737

Situation Update:


Graphic mod ENBSeries / patch ENBoost 0.229

Added parallax for water, it use alpha channel of normal maps, check if your favorite water mod is updated or edit it textures yourself. White alpha (by default for non alpha textures) means no parallax.
Did temporary workaround for critical AMD drivers bug when water enabled, at cost of performance of other effects. Very noticable with old videocards like gf9600 with not much shader processing units and almost invisible on dx11 generation videocards.

http://enbdev.com/enbseries/forum/viewtopic.php?f=2&t=2457&#p39758

samm
2013-10-13, 14:52:35
Ok zusammengefasst: Irgendein fett rot gebrochen Englisch schreibender Shader-Bastler kriegt auf einer HD 4xxx mit Treiber 10.4 irgendeinen Wasser-Shader für Skyrim nicht wie gewünscht zum Laufen, ausser er benutzt ein altes DX SDK (vielleicht so alt wie die Grafikkarte und der Treiber? Just a guess...)

Daraus folgt für Mantle... genau was?

S940
2013-10-13, 15:00:41
Und wo steht das überhaupt (Link?). Ein paar der Formulierungen scheinen nicht gerade von großem Sachverstand zu zeugen, wie z.B. die Verwunderung/Bestürzung daß mit den Shader nochmal was passiert. Das muß so sein, da das DX-Assembly (ist hardwareunabhängig) natürlich nicht so auf GPUs ausgeführt werden kann, sondern immer noch für die jeweilige GPU kompiliert werden muß. Aber so wie sich das anhört, ändert sich vielleicht auch das DX-Assembly, wenn er die HLSL-Shader mit einer neueren Version des MS-Shadercompilers (d3dx9_43) kompiliert (das kann durchaus passieren). Damit hat AMD aber genau Null zu tun, das Ding kommt von MS. AMD kompiliert nur das DX-ASM zur ISA.
Und wie relevant ist überhaupt ein Problem, daß ein mehr als drei Jahre alter Treiber auf einer noch älteren Hardware-Generation eventuell (vermutlich aber nicht) hatte?
Aktuelle Meldung ist, dass es auf der HD4-Serie geht, aber auf der 6er nicht:
From bug reports 0.229 stFrom bug reports 0.229 still not work for radeon 6xxx users, so somehow it's fine only for 4xxx or for hardware setup used for testing. I'll try then another workaround soon.http://enbdev.com/index_en.html

Ich nehme mal an, dass er das nun auch noch für VLIW4 compilieren muss ^^

Daraus folgt für Mantle... genau was? Nix, aber wir hatten gute Unterhaltung ^^

-/\-CruNcher-/\-
2013-10-13, 15:57:11
Bei ATI/AMD sind diese Interoperability issues einfach extreme bei Nvidia stellt das kein großes problem dar.
Wer darin als Entwickler keinen nachteil sieht dann weiss ich es nicht mehr aber die meisten Entwickler sind ja eh verblendet "alte Hardware was interessiert mich die, wir haben unsere deadline und Mindestanforderungen" und schon haben wir die bugs bei release ;)
Es ist quasi ein Armutszeugnis das ATI/AMD ihre eigene architektur überhaupt so früh ändern musste, wer darin kein versagen sieht dann weiss ich nicht aber back on topic mit Mantle wird alles gut ;) .

Skusi
2013-10-13, 16:12:15
Lieber einen Mantle mit derlei "Bugs", als gar nichts.

Menace
2013-10-13, 16:30:45
Es ist quasi ein Armutszeugnis das ATI/AMD ihre eigene architektur überhaupt so früh ändern musste, wer darin kein versagen sieht dann weiss ich nicht aber back on topic mit Mantle wird alles gut ;) .

Ich verstehe ja davon so gut wir gar nichts, deshalb meiner Frage. AMD/ATI hat momentan eine GPU, die doch bei GPGPU-Anwendungen (nutze ich unter Photoshop, vor allem Capture One 7 Pro und Boinc) im Vergleich zu NVidia gar nicht so schlecht ist (wenn ich ht4u.com-Testergebnisse vergleiche). Warum war die Änderung ihr Architektur nun schlecht? Dass sie nicht mehr möglichst lange schlechter als nvidia sind? Ich bin doch etwas verwirrt. :confused:

samm
2013-10-13, 16:51:28
Warum war die Änderung ihr Architektur nun schlecht? Dass sie nicht mehr möglichst lange schlechter als nvidia sind?Zwei mögliche Antworten:
1. Weil sie es von Anfang an hätten richtig machen müssen, weil sie ja Propheten sind, welche Art Architektur sich eines Tages als effizienter handzuhaben herausstellen wird.
2. Weil jede Änderung der Architektur das Risiko birgt, dass wir armen Softwareentwickler Programme neu kompilieren, oder gar, Gott bewahre, algorithmisch neu optimieren müssen

Bei ATI/AMD sind diese Interoperability issues einfach extreme bei Nvidia stellt das kein großes problem dar.Okay, auch mit dieser nun endlich auf den Punkt gebrachten Kritik sehe ich immer noch nicht, was der Zusammenhang mit Mantle ist. Stellt ja keine Architekturänderung dar. Oder befürchtest du, dass nun AMD, um Kompatibilität mit Mantle zu wahren, künftige Generationen ihrer Hardware auf architekturielle Kompatibilität auslegen müssen? Das wäre doch nach deiner Argumentation sogar gerade gut!