PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mantle - AMD Low-Level-API als Alternative zu DirectX


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

Skysnake
2014-01-12, 14:33:38
Das habe ich bereits mit DirectX geschaft. Allerdings mit nVidia Karten.


Ja wir reden hier eher von GPU Abstürzen und möglicherweiße Bluescreens.
Und wo ist das Problem dabei?

Schonmal mit CUDA und OpenCL gearbeitet? Gerade mit CUDA kannste ohne Probleme den PC komplett abschießen, so das nur noch nen Powerreset hilft....

Und auch bei OpenCL kannste das schaffen, wenn du scheise baust. Hab mich damit schon oft genug rumärgern müssen... Ich kann dir sagen, das ist GANZ TOLL, wenn du remote auf ner Kiste arbeiten musst, die aber kein IMB hat zum remote powercyclen und du dann anrufen musst, damit jemand zur Kiste geht und die neu startet... NOT :down:

Es ist aber schon eine Kunst mit dem was ich das sehe im GPU Limit zu enden. Oder meint er damit das man den 60 FPS Limiter erreicht hat? Ich bin auch nicht ganz sicher was sie bei den Batches zählen. Aber wenn das Draw Calls sind dann muss man schon was ganz komisches machen um bei 7000 Einheiten auf ~50000 zu kommen. Eigentlich geht das nur wenn man jeden Beam einzeln rendert. Das macht aber selbst wenn der Overhead sehr klein ist keinen Sinn. Ich hoffe sie veröffentlichen die Demo mal das man sich mal anschauen kann was sie da eigentlich machen.
Ist das nicht eigentlich das, was man an sich machen will? Also KI usw alles parallel ablaufen lassen, alles haut parallel seine Anweisungen an die GPU raus, und die kommt dennoch effizient damit klar? Damit lässt man halt die CPU überhaupt nicht mehr blockieren. Die Frage ist dann halt, wie effizient das Ganze noch ist.
Die GPU müsste sich ja dann darum kümmern, was überhaupt noch sichtbar ist usw usw usw. Stelle mir das schon ziemlich anspruchsvoll vor.

Die Demo würde ich aber eh mit Vorsicht genießen. Wird da überhaupt LOD genutzt? Sieht für mich nicht zwingend danach aus. Auch besteht natürlich die Frage, ob überhuapt Dinge, die außerhalb des Sichtbereichs liegen verworfen werden. Wenn man sich den FPS-Counter so anschaut, könnte man auf die Idee kommen, dass da immer alles gerendert wird, ganz gleich wie weit weg und ob sichtbar oder nicht.

Demirug
2014-01-12, 14:47:32
Und wo ist das Problem dabei?

Schonmal mit CUDA und OpenCL gearbeitet? Gerade mit CUDA kannste ohne Probleme den PC komplett abschießen, so das nur noch nen Powerreset hilft....

Und auch bei OpenCL kannste das schaffen, wenn du scheise baust. Hab mich damit schon oft genug rumärgern müssen... Ich kann dir sagen, das ist GANZ TOLL, wenn du remote auf ner Kiste arbeiten musst, die aber kein IMB hat zum remote powercyclen und du dann anrufen musst, damit jemand zur Kiste geht und die neu startet... NOT :down:

Windows oder Linux?

Das Problem ist das unter Windows dir Microsoft eigentlich das WHQL wieder entziehen kann wenn dein Treiber Komponenten enthält welche einen Frezze herbeiführen können. Ein weiteres Problem von Mantle könnte vielleicht sein das es das Sicherheitsmodel von Windows unterläuft. Dafür müsste man aber eben sehen wie die Speicherverwaltung dort organisiert ist.


Ist das nicht eigentlich das, was man an sich machen will? Also KI usw alles parallel ablaufen lassen, alles haut parallel seine Anweisungen an die GPU raus, und die kommt dennoch effizient damit klar? Damit lässt man halt die CPU überhaupt nicht mehr blockieren. Die Frage ist dann halt, wie effizient das Ganze noch ist.
Die GPU müsste sich ja dann darum kümmern, was überhaupt noch sichtbar ist usw usw usw. Stelle mir das schon ziemlich anspruchsvoll vor.

Die Demo würde ich aber eh mit Vorsicht genießen. Wird da überhaupt LOD genutzt? Sieht für mich nicht zwingend danach aus. Auch besteht natürlich die Frage, ob überhuapt Dinge, die außerhalb des Sichtbereichs liegen verworfen werden. Wenn man sich den FPS-Counter so anschaut, könnte man auf die Idee kommen, dass da immer alles gerendert wird, ganz gleich wie weit weg und ob sichtbar oder nicht.

Ich bin nicht sicher aber ich denke die KI usw läuft auf der CPU.

Da der Batch Counter sich verändert scheint man mindestens frustum culling zu machen. Aber ja ich habe auch den Verdacht das hier ansonsten mit brute Force gearbeitet wird.

Gipsel
2014-01-12, 15:12:25
Da der Batch Counter sich verändert scheint man mindestens frustum culling zu machen. Aber ja ich habe auch den Verdacht das hier ansonsten mit brute Force gearbeitet wird.Da werden doch ständig neue Einheiten gepawnt, andere werden zerstört und außerdem wird noch jeder Schuß als eigenes Objekt gehandhabt. Ist doch klar, daß sich da der Batchcount ändert, auch unabhängig vom Culling.

Skysnake
2014-01-12, 15:24:44
Windows oder Linux?

Das Problem ist das unter Windows dir Microsoft eigentlich das WHQL wieder entziehen kann wenn dein Treiber Komponenten enthält welche einen Frezze herbeiführen können. Ein weiteres Problem von Mantle könnte vielleicht sein das es das Sicherheitsmodel von Windows unterläuft. Dafür müsste man aber eben sehen wie die Speicherverwaltung dort organisiert ist.

CUDA war unter Linux, unter Windows gabs die Probleme meines Wissens nach aber auch.

OpenCL lief unter AMD und Windows.

Aber nagel mich bitte nicht fest, ob das noch immer aktuell so ist bei OpenCL und AMD+Windows. Ist schon ne Weile her, und ich hab da auch einfach scheise gebaut :ugly:

Aber das passiert ja eben, wenn man Software entwickelt. Man baut manchmal scheise.

Demirug
2014-01-12, 15:43:00
Da werden doch ständig neue Einheiten gepawnt, andere werden zerstört und außerdem wird noch jeder Schuß als eigenes Objekt gehandhabt. Ist doch klar, daß sich da der Batchcount ändert, auch unabhängig vom Culling.

Die Änderungen lagen im Bereich von ~2500 (an der einen Stelle an der man nur ein Schiff sieht) bis hoch über 50000 (sehr viele Schiffe aber auch sehr klein)

CUDA war unter Linux, unter Windows gabs die Probleme meines Wissens nach aber auch.

OpenCL lief unter AMD und Windows.

Aber nagel mich bitte nicht fest, ob das noch immer aktuell so ist bei OpenCL und AMD+Windows. Ist schon ne Weile her, und ich hab da auch einfach scheise gebaut :ugly:

Aber das passiert ja eben, wenn man Software entwickelt. Man baut manchmal scheise.

Kein Widerspruch.

In den WHQL Guides steht halt nur das bei einem Frezze der Treiber nur die GPU neu starten soll.

Skysnake
2014-01-12, 18:55:01
Wie gesagt, frag mich bitte nicht, wies aktuell aussieht, aber ganz unproblematisch ist das eben ohne Mantle schon heute nicht.

Im Prinzip ist es auch kein Problem. Dann schmiert halt das Ding ab. Besser als wenn man unberechtige Zugriffe gestatten würde...

tb
2014-01-13, 22:53:53
Also hier funktioniert zumindest der Framecounter von Fraps/Arschbrenner/DXTory oder was das immer sein soll.
http://www.pcgameshardware.de/Battlefield-4-PC-238749/Videos/AMD-Mantle-Battlefield-4-Demo-Video-1103895/


Nein tut er nicht (kann er auch gar nicht).

tb
2014-01-14, 00:02:27
Die Mikroruckler bei CF/SLI haben andere Ursachen. Ein API kann da nichts ausrichten.

Falsch. DirectX ist vom Model/Konzept her nicht auf meherer GPUs ausgelegt, deshalb sind "Umwege" über die SLI/CrossFire Checkbox + Profile im Treiber notwendig.

uweskw
2014-01-14, 01:01:24
Falsch. DirectX ist vom Model/Konzept her nicht auf meherer GPUs ausgelegt, deshalb sind "Umwege" über die SLI/CrossFire Checkbox + Profile im Treiber notwendig.

Gibts das irgendwie Informationen die auch ein Laie versteht?
Oder ist das nur eine plumpe Behauptung?

Greetz
U.S.

tb
2014-01-14, 01:56:16
Gibts das irgendwie Informationen die auch ein Laie versteht?
Oder ist das nur eine plumpe Behauptung?

Greetz
U.S.

Einfach ausgedrückt, einfach mal bei AMD Crossfire und bei NVIDIA SLI im Treiber abschalten (Häckchen raus) - und dann ein Spiel finden, welches trotzdem 2 oder mehr Grafikkarten verwendet (für das Rendering, nicht für PhysX!) - da dürfe es sehr sehr schlecht aussehen - warum wohl? Entweder sind sämtliche Entwickler unfähig - oder die vorhandenen Grafikschnittstellen sind eventuell nicht dazu in der Lage, dies vernünftig umzusetzen...

N0Thing
2014-01-14, 03:01:56
Oder kein Entwickler macht sich die Mühe eine eigene Lösung zu entwickeln, weil nichtmal 1% der Anwender ein Multi-GPU-Setup hat und man für diese kleine Menge nicht selber für den Support zuständig sein möchte. Außerdem kümmern sich schon immer Nvidia und AMD selber um den Support, warum sollte ein Entwickler überhaupt auf die Idee kommen, was eigenes auf die Beine zu stellen?

Du magst recht haben mit deiner Aussage, aber dein Beispiel ist weder ein Beweis noch ein Beleg, noch ein guter Grund.

Trap
2014-01-14, 08:41:22
Oder kein Entwickler macht sich die Mühe eine eigene Lösung zu entwickeln, weil nichtmal 1% der Anwender ein Multi-GPU-Setup hat
Das stimmt nur wenn man iGPUs ignoriert.

Demirug
2014-01-14, 09:12:17
Verstehe die Diskussion jetzt nicht. Im Gegensatz zu Mantle ist die DirectX Dokumentation öffentlich. Es kann also jeder selbst nachschauen das es dort keine Unterstützung für GPU übergreifende Sachen gibt. Der multi GPU support beschränkt sich darauf das man eine zweite GPU eben für einen zweiten Monitor oder für reine Rechenaufgaben nutzen kann.

Seit Windows 8.1 ist es nun im Prinzip möglich das eine iGPU mit einer dedizierten Ressourcen gemeinsam nutzen kann. Ich bin allerdings nicht sicher ob das nur für die Treiber oder auch für Anwendungen freigegeben ist. Zudem muss die Synchronisation aktiv von der CPU gemacht werden womit es fürs rendern eigentlich nicht wirklich brauchbar ist.

Skysnake
2014-01-15, 16:28:09
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Mantle-Techdemo-Star-Swarm-Screenshots-1105009/

SEHR beeindruckend.

DX: 8-16 FPS mit gleichen Grafikeinstellungen ohne Motion-Blur ~80FPS
Mantle:40-60 FPS

Der Unterschied ist schon sehr heftig!

Zu der Demo git es aber was Neues zu sagen, wenn man sich den FPS-Counter so anschaut, scheint man zumindest Objekte, die nicht in Sicht sind, raus zu nehmen. Schiffe, oder zumindest die Geschosse hauen aber wohl voll rein.

Was mich auch sehr erstaunt ist die Tatsache, wie viel Leistung Motion-Blur kostet unter DX. Das ist ja abartig!

Wenn man sich das aber so anschaut, darf/muss man davon ausgehen, das man in der Mantle-Version von Games "einfach" die Regler weiter aufziehen kann als mit der DX-version. DAs würde bedeuten, dass der Nutzer entweder mehr FPS, oder halt eine oppulentere Optik bei gleichen FPS bekommt. Das ist an sich erfreulich, da die Leute somit die gleichen Games an sich bekommen.

Blediator16
2014-01-15, 16:32:50
Im Video sagt sie "some high end graphics options". Es gibt wohl mehr als nur Motion Blur.
http://www.engadget.com/2014/01/14/oxide-star-swarm-real-time-strategy-mantle-demo/

Video in besserer Qualität.

Skysnake
2014-01-15, 16:53:12
Ja, das sagt Sie, aber zumindest in dem Video, macht Sie dann nur "Motion-Blur" aus.

Alle anderen Einstellungen bleiben wohl gleich.

Da gehts wohl drum, das man selbst ohne Motion-Blur wohl nicht in allen Situationen entsprechende FPS erreichen kann und daher noch weiter runter muss. Man sieht diese Situationen hier nur eben nicht.

EDIT:
Was man aber wohl ziemlich sicher festhalten kann ist, das man bzgl Mantle nicht unrealistisch auf die Kacke gehauen hat. Nach dem Video könnte man ja durchaus von bis zu ~5x so viel FPS sprechen. Man beschränkt sich aber auf 3x. Das sollte man mal btw auch löblich erwähnen.

grobi
2014-01-15, 17:00:38
Ja, das sagt Sie, aber zumindest in dem Video, macht Sie dann nur "Motion-Blur" aus.

Alle anderen Einstellungen bleiben wohl gleich.

Da gehts wohl drum, das man selbst ohne Motion-Blur wohl nicht in allen Situationen entsprechende FPS erreichen kann und daher noch weiter runter muss. Man sieht diese Situationen hier nur eben nicht.

EDIT:
Was man aber wohl ziemlich sicher festhalten kann ist, das man bzgl Mantle nicht unrealistisch auf die Kacke gehauen hat. Nach dem Video könnte man ja durchaus von bis zu ~5x so viel FPS sprechen. Man beschränkt sich aber auf 3x. Das sollte man mal btw auch löblich erwähnen.


Ich hoffe dann auch mal endlich das der Mantletreiber auch mal kommt. Es ist ja nicht mehr auszuhalten. ;D

Skysnake
2014-01-15, 17:03:56
Ja, ich bin auch schon ganz wuschig :ugly:

dargo
2014-01-15, 17:22:26
Ich hoffe dann auch mal endlich das der Mantletreiber auch mal kommt. Es ist ja nicht mehr auszuhalten. ;D
Und was bringt dir der Treiber ohne entsprechende Software? :tongue: Ich sag nur... locker bleiben. :cool:


Was mich auch sehr erstaunt ist die Tatsache, wie viel Leistung Motion-Blur kostet unter DX. Das ist ja abartig!

Um ehrlich zu sein bin ich hier etwas verwirrt. Ich dachte bisher MB würde nur auf Kosten der Grafikkarte gehen. :confused: Wie dem auch sei... der Leistungseinbruch mit MB unter DX verwundert mich allerdings auch sehr. Kann es sein, dass man hier besonders hochwertiges MB verwendet welches demzufolge auch extrem teuer ist? Da gibt es doch bestimmt verschiedene Qualitätstufen beim MB oder?

Blediator16
2014-01-15, 17:34:07
Sie sagt Motion Blur Multi Sampling wer weiß was das genau ist.

fondness
2014-01-15, 17:40:56
Auch nicht unwichtig:

Oxide Games, die Entwickler der für Strategiespiele gedachten Engine Nitrous, haben nun auch ein Video zur Engine-Demo Star Swarm veröffentlicht. Dieser soll in den nächsten Tagen auf Steam veröffentlicht werden und zeigt sich hier in Version 0.95. Nitrous unterstützt neben DirectX auch Mantle, im Video kommt eine "Unknown Mantle GPU" sowie ein Core i7-980X mit 3,33 GHz zum Einsatz. Drei Spiele mit der Nitrous-Engine sollen bereits in der Entwicklung sein - Galactic Civilizations 3 dürfte eines davon sein. Beim Umschalten von Mantle auf DirectX gehen die Frameraten von 20 bis 70 auf 8 bis 22 Fps deutlich herrunter, sofern Spezialeffekte wie Motion Blur aktiviert sind. Um eine bessere Fps-Leistung auch unter DirectX zu erzielen, müssen diese Effekte teilweise deaktiviert werden. Mantle als Renderpfad erlaubt in diesem Fall also eine bessere Grafik mit spielbaren Fps.

N0Thing
2014-01-15, 17:49:57
Sie sagt Motion Blur Multi Sampling wer weiß was das genau ist.

Klingt nach MSAA + Matschfilter. Vielleicht die AMD- / Mantle-Alternative zu TXAA?

dargo
2014-01-15, 17:52:25
Klingt nach MSAA + Matschfilter. Vielleicht die AMD- / Mantle-Alternative zu TXAA?
Das klingt aber noch kurioser... seit wann verursacht MSAA CPU-Last? :|

samm
2014-01-15, 18:13:19
Auch nicht unwichtig:Falsche Vermutung bezüglich Galactic Civilizations III: http://forums.elementalgame.com/451041/page/1/#3430480

Klingt nach MSAA + Matschfilter. Vielleicht die AMD- / Mantle-Alternative zu TXAA?Wäre lustig, wenn eine blurrende AA Technik nun spezifisch als Blur vermarktet wird statt als AA^^ Ich vermute aber eher was Spannenderes wie Interpolation, womit man sich zwar 1 Frame Lag einfängt, aber würde besser zur "filmmässigen" Rendertechnik passen.

Das klingt aber noch kurioser... seit wann verursacht MSAA CPU-Last? :|Wieso sollte MSAA CPU-Last erzeugen, das wird so nirgends gesagt oder gezeigt. Einzig, dass die Implementation davon unter DX performancemässig nichts taugt.

Detail aus dem Anhang zu den "up to 45%" in Battlefield: APU aber anhand der Settings wohl eher nicht im CPU-Limit:
http://i.imgur.com/8tf2zwH.png

dargo
2014-01-15, 18:21:27
Wieso sollte MSAA CPU-Last erzeugen, das wird so nirgends gesagt oder gezeigt. Einzig, dass die Implementation davon unter DX performancemässig nichts taugt.

Nach meinem Verständnis kostet MSAA ausschließlich GPU-Zeit. Und in der Regel ist MSAA unter DX gar nicht mal so teuer wie dieses Video der Nitrous Engine uns zeigen möchte. Außer vielleicht bei DF-Rendering. Zudem habe ich es immer noch so verstanden, dass Mantle die meiste Leistung im CPU-Limit herausholt. Deshalb nochmal meine Frage... was hat das alles mit MSAA zu tun? Da komme ich nicht mit. :freak:

N0Thing
2014-01-15, 18:33:09
Deshalb nochmal meine Frage... was hat das alles mit MSAA zu tun? Da komme ich nicht mit. :freak:

Ich hab auf Blediators Kommentar hin spekuliert, daß die Kombination von Motion Blur und Multi Sampling vielleicht was in Richtung TXAA sein könnte:

Sie sagt Motion Blur Multi Sampling wer weiß was das genau ist.


Kann natürlich auch eine Art der Motion Blur Berechnung sein, die besonders schönes und / oder genaues Blur berechnet. Das fände ich aber a) langweilig, sollte b) in der Regel auf der GPU berechnet werden und c) ich mag in den meisten Fällen kein Motion Blur, das habe ich schon durch den Monitor und meine Augen. ;)

Iruwen
2014-01-15, 18:33:58
Ich wollt grad sagen, das schaltet man doch eh immer zuerst ab.

Dawn on Titan
2014-01-15, 18:47:02
Jetzt stelle man sich vor die 45% in BF4 treten nur bei max. Motion Blur auf. Das wäre irgendwie sehr enttäuschend.

Gipsel
2014-01-15, 18:51:56
Die rendern eventuell einfach alle Objekte mehrmals an über die Frametime interpolierten Positionen ("temporal multisampling" :eek:) statt alte Frames zu benutzen (wäre zumindest eine Erklärung, warum es so teuer ist und auch CPU-Zeit kostet). So ganz naiv würde ich eigentlich erwarten, daß ein auf Bewegungsvektoren (per Pixel, durch alle Shaderstages geschleift) basierender Motionblur in einem Postfilter (der natürlich die Z-Werte beachtet) sowohl besser aussehen als auch effizienter wäre. Obwohl die Laufzeit von so einem Teil erstmal schlecht vorhersagbar und sehr variabel sein kann (kaum Blur=>schnell, viel Blur =>langsam, außerdem potentiell viel Divergenz der Wavefronts), also auf den zweiten Gedanken vielleicht doch keine gute Wahl ist. Aber meine persönliche Meinung ist eigentlich, daß Motionblur oft sowieso völlig übertrieben (viel zu stark) eingesetzt wird.

Kriton
2014-01-15, 19:10:02
Auch wenn Mantle viel hinsichtlich des CPU/GPU Overhead bringen mag wird eine hardwarebezogenere Programmierung definitiv auch etwas im "reinen" GPU-Bereich bringen.
Vielleicht wurden die Auswirkungen auf die GPU-Berechnungen hier im Forum mit Blick auf den genannten Overhead unterschätzt, weil dieser mal so hervorgehoben wurde?

basix
2014-01-15, 19:20:03
Kleiner Denkanstoss: Sind die +45% in Battlefield 4 nun nur die 290X oder mit iGPU des 7850K?

;)

Skysnake
2014-01-15, 19:20:49
Nach meinem Verständnis kostet MSAA ausschließlich GPU-Zeit. Und in der Regel ist MSAA unter DX gar nicht mal so teuer wie dieses Video der Nitrous Engine uns zeigen möchte. Außer vielleicht bei DF-Rendering. Zudem habe ich es immer noch so verstanden, dass Mantle die meiste Leistung im CPU-Limit herausholt. Deshalb nochmal meine Frage... was hat das alles mit MSAA zu tun? Da komme ich nicht mit. :freak:
"die meiste Leistung im XY"

Das sind so Bullshit-Bingo Aussagen. Damit kannste im Prinzip nichts anfangen. Klar wird im CPU limit der Vorteil am größten sein. Wenn die GPU eh schon am idlen ist, dann ist ja klar, dass da mehr Potenzial da ist, als wenn man eh schafft die GPU schon recht gut aus zu lasten.

Die Frage ist halt, wie gut kann man überhaupt die GPU auslasten mit DX???

Man sieht zwar im Afterburner usw ne schöne Prozentangabe, aber die ist an sich nicht wirklich vielsagend.

Das sieht man ja auch immer wieder schön daran, wie wenig ne GPU unter Gameinglast meist aus der Dose nuckelt im Vergleich zu hochoptimierten Computeanwendungen, die die GPU wirklich richtig auslasten....

Wenn man mit Mantle schafft diese "Lücken" zu stopfen, dann kann man auch im GPU"-Limit" noch einiges raus holen.

Und ja, ich glaube da ist einiges noch drin.

fondness
2014-01-15, 19:24:33
Kleiner Denkanstoss: Sind die +45% in Battlefield 4 nun nur die 290X oder mit iGPU des 7850K?

;)

Die 290X, siehe die anderen Fußnoten.
Wenn die iGPU verwendet wurde wird keine diskrete GPU aufgeführt.

dargo
2014-01-15, 19:27:54
Detail aus dem Anhang zu den "up to 45%" in Battlefield: APU aber anhand der Settings wohl eher nicht im CPU-Limit:
http://i.imgur.com/8tf2zwH.png
Schwer zu sagen... einerseits habe ich mit meiner HD7970 @1050/1500Mhz in Full-HD und max. Details (wobei ich kein FXAA nutze, das kostet aber praktisch nichts und PP steht bei mir @Low) zu keiner Sekunde im SP 38fps (weit davon entfernt) gesehen und hier wurde sogar eine R9 290X verwendet. Andererseits ist der SP was CPU-Last angeht recht anspruchslos. Kann kaum glauben, dass ein Kaveri 7850K da unter DX11 auf 38fps einbrechen soll. Schwer einzuschätzen was AMD da getestet hat. MP wird es wohl wegen schlechter Reproduzierbarkeit nicht gewesen sein.

Aber immerhin weiß ich jetzt, dass es ein Vergleich zwischen Mantle und DX11.1 und nicht Mantle vs. DX11.0 ist.

"die meiste Leistung im XY"

Das sind so Bullshit-Bingo Aussagen. Damit kannste im Prinzip nichts anfangen. Klar wird im CPU limit der Vorteil am größten sein. Wenn die GPU eh schon am idlen ist, dann ist ja klar, dass da mehr Potenzial da ist, als wenn man eh schafft die GPU schon recht gut aus zu lasten.

Die Frage ist halt, wie gut kann man überhaupt die GPU auslasten mit DX???

Man sieht zwar im Afterburner usw ne schöne Prozentangabe, aber die ist an sich nicht wirklich vielsagend.

Das sieht man ja auch immer wieder schön daran, wie wenig ne GPU unter Gameinglast meist aus der Dose nuckelt im Vergleich zu hochoptimierten Computeanwendungen, die die GPU wirklich richtig auslasten....

Da bin ich voll bei dir. Gleiches gilt für den Taskmanager @CPU-Auslastung.


Wenn man mit Mantle schafft diese "Lücken" zu stopfen, dann kann man auch im GPU"-Limit" noch einiges raus holen.

Und ja, ich glaube da ist einiges noch drin.
Hätte nichts dagegen. Das würde Mantle noch stärker in gutes Licht rücken.

Wenn ich mir das so durch den Kopf gehen lasse dann sollten wir eventuell nicht mehr nur von CPU- und GPU-Limits sprechen sondern zusätzlich von API-Limits. :freak: Und je nach Szenario wird halt die CPU oder GPU zu x% durch die API gebremst.

uweskw
2014-01-15, 19:36:13
.....
Was mich auch sehr erstaunt ist die Tatsache, wie viel Leistung Motion-Blur kostet unter DX. Das ist ja abartig!
......


Komisch, im Schalter aktiviert sie Motion-Blur, was aber tatsächlich passiert ist dass es zig-mal mehr Sterne gibt (min1:19) der Unit-count sich jedoch nicht verändert.

greetz
U.S.

basix
2014-01-15, 19:36:23
Die 290X, siehe die anderen Fußnoten.
Wenn die iGPU verwendet wurde wird keine diskrete GPU aufgeführt.

Ich meinte ob beide ZUSAMMEN im Crossfire benutzt wurden. Mantle soll doch gerade auch da grosse Vorteile bieten. Aus den andern Fussnoten lese ich heraus, dass NUR die iGPU verwendet wurde.

Andererseits steht dort zwar "...290X discrete graphics card is performing..."

Szudri
2014-01-15, 19:39:59
Komisch, im Schalter aktiviert sie Motion-Blur, was aber tatsächlich passiert ist dass es zig-mal mehr Sterne gibt (min1:19) der Unit-count sich jedoch nicht verändert.

greetz
U.S.

Vermutlich weil da ein AA Filter noch mit drin hängt. Siehst du auch daran, dass ohne den Filter die Laser immer Mal wieder verschwinden an deiner besagten Stelle und die dann erst sichtbar werden.

Da müsste Mal ein 3D-Profi was zu sagen :)

Edit: Sind das überhaupt Laser die blauen dinger da, die immer wieder verschwinden als dort die Kamera linksherum gedreht wird? Könnten auch weit entfernte Objekte (:D) sein.

Hübie
2014-01-15, 19:40:53
Ich wollt grad sagen, das schaltet man doch eh immer zuerst ab.

Nicht mit Mantle :naughty:
Ich warte dennoch gespannt. Langsam kommen ja auch Fakten ans Tageslicht (wenn auch noch wage).

Iruwen
2014-01-15, 19:53:53
Doch schon, weils

oft sowieso völlig übertrieben (viel zu stark) eingesetzt wird.

blaidd
2014-01-15, 19:54:55
Kann es sein, dass man hier besonders hochwertiges MB verwendet welches demzufolge auch extrem teuer ist? Da gibt es doch bestimmt verschiedene Qualitätstufen beim MB oder?

Bei der Demonstration auf der APU13 (http://www.youtube.com/watch?v=QIWyf8Hyjbg&feature=player_detailpage#t=1650) wurde gesagt, dass für den Effekt (an anderer Stelle "Film Quality"-Motion-Blur genannt) Teile der Szene mehrfach gerendert werden:

dargo
2014-01-15, 20:01:01
Bei der Demonstration auf der APU13 (http://www.youtube.com/watch?v=QIWyf8Hyjbg&feature=player_detailpage#t=1650) wurde gesagt, dass für den Effekt (an anderer Stelle "Film Quality"-Motion-Blur genannt) Teile der Szene mehrfach gerendert werden:
Ah... stimmt. Das hatte ich völlig vergessen. Das wäre dann doch was feines. In vielen Games finde ich die MB-Implementierung billig. Billig in Form der visuellen Darstellung (gleiches gilt übrigens fürs DoF). Wird Zeit, dass sich das endlich ändert. Da bin ich mal auf diese Demo jetzt doch schon gespannt wenn sie für alle zugänglich ist.

uweskw
2014-01-15, 20:16:22
Escheint dass mit Motion Blur hier auch das LOD verändert wird. Bei 1:19, wenn sie es wieder aktiviert, gibt es nicht nur ein vielfaches an Sternen. Bei den weiter entfernten Einheiten wird ein Teil des Schiffs blau.

Greetz
U.S.

gedi
2014-01-15, 22:17:54
Falsche Vermutung bezüglich Galactic Civilizations III: http://forums.elementalgame.com/451041/page/1/#3430480

Wäre lustig, wenn eine blurrende AA Technik nun spezifisch als Blur vermarktet wird statt als AA^^ Ich vermute aber eher was Spannenderes wie Interpolation, womit man sich zwar 1 Frame Lag einfängt, aber würde besser zur "filmmässigen" Rendertechnik passen.

Wieso sollte MSAA CPU-Last erzeugen, das wird so nirgends gesagt oder gezeigt. Einzig, dass die Implementation davon unter DX performancemässig nichts taugt.

Detail aus dem Anhang zu den "up to 45%" in Battlefield: APU aber anhand der Settings wohl eher nicht im CPU-Limit:
http://i.imgur.com/8tf2zwH.png

Leider doch (sofern in 1080p die Skalierung lediglich 100% betrug) ;)

[dzp]Viper
2014-01-15, 22:25:25
Ah... stimmt. Das hatte ich völlig vergessen. Das wäre dann doch was feines. In vielen Games finde ich die MB-Implementierung billig. Billig in Form der visuellen Darstellung (gleiches gilt übrigens fürs DoF). Wird Zeit, dass sich das endlich ändert. Da bin ich mal auf diese Demo jetzt doch schon gespannt wenn sie für alle zugänglich ist.
Gab es das nicht schon in einer ähnlichen Form in Crysis 3? Mir ist so?

Coda
2014-01-16, 05:45:41
Nö, ist alles postprocess motionblur. Ohne Hardware für 5D-Rasterisierung ist alles andere auch viel zu teuer.

Botcruscher
2014-01-16, 10:40:46
Mir fehlt die Ankündigung von Homeworld 3.:freak::biggrin:

PS: Motion-Blur in Filmen ist eine Krankheit, erzeugt durch die miese Bildwiederholungsrate. Der Mist wird nicht ohne Grund vom Hirn so gut wie möglich ausgeblendet.

misterh
2014-01-16, 20:31:41
http://www.computerbase.de/news/2014-01/catalyst-13.35-beta-mit-mantle-und-hsa-ende-januar/

Nightspider
2014-01-16, 21:19:16
Wenn selbst der AMD Mantle Treiber als Beta erst Ende Januar erscheint kann man DICE ja fast keinen Vowurf machen mit Mantle so lange zu brauchen.
Ohne Treiber hätte ja eh nix funktioniert.

grobi
2014-01-16, 21:22:28
Man das nervt langsam. Ich glaube auch langsam das AMD den Treiber im Dezember eh nicht fertig hatte. :freak:

schreiber
2014-01-16, 21:31:51
Muss nicht erst der Treiber fertig sein und dann die Mantle-Implementierung des Games?! Ich ahne fürchterliches.

Wässerchen
2014-01-16, 21:46:05
Näheres weiß man doch nicht... wenn Dice ohnehin mehr Zeit benötigte, dabei AMD mehr Zeit in den Treiber investieren kann, wieso soll man dies dann nicht nutzen, seitens AMD... bringt doch ohnehin nichts, wenn Dice es noch nicht implementiert hat.

Gipsel
2014-01-16, 21:53:42
Der Mantle-Treiber macht doch kaum was, da kann also auch viel weniger schiefgehen. Nur warum sollte AMD den öffentlich zur Verfügung stellen, wann es dafür sowieso noch nichts gibt? Oxide oder DICE haben den natürlich schon. Und wenn die mit ihrer Demo bzw. dem BF4-Patch rauskommen, wird AMD den schon öffentlich anbieten.

Demirug
2014-01-16, 21:59:55
Als Entwickler bekommt man Treiber durchaus direkt von den Treiberentwicklern. Das ist für Dice und Co also erst mal kein Problem. Man muss mal abwarten wie der Mantle Support im Treiber wirklich aussieht. Ich habe ja in der Dezember Version durchaus Dinge gesehen die ausreichen könnten um Mantle damit zu benutzen wenn ein weitere Teil Bestandteil des Spiels selbst ist. Das hat AMD in der Vergangenheit auch schon mal gemacht.

Nightspider
2014-01-22, 19:39:52
Ganz langsam geht es ja auf Ende Januar zu. Langsam könnte DICE wengistens mal ein Release-Termin veröffentlichen.

Zumindest hieß es doch noch vor einer Woche das der Mantle-Patch für BF4 bis Ende Januar erscheinen soll. Oder war 2015 gemeint?^^

dargo
2014-01-22, 19:41:35
Ende Januar ist spätestens nächste Woche Freitag. :rolleyes:

Skysnake
2014-01-22, 19:53:33
SO langsam könnte man aber wirklich nen Termin mal nennen....

Da hat er schon recht.

grobi
2014-01-22, 19:57:18
Es könnte sich ja auch noch verschieben. So auf März vielleicht.....:P

novl
2014-01-22, 20:28:42
Es ist allgemein kein gutes Zeichen, dass weder von AMD noch von Dice neue Infos zu diesem Thema veröffentlicht werden. Ich schätze die können Januar auch nicht halten.

samm
2014-01-22, 21:51:04
Es wird halt überall auf kleiner Flamme gehyped, sowas hier:

https://twitter.com/gwihlidal
https://twitter.com/honk_dice
http://forums.elementalgame.com/451041/page/1/

Mal sehen, ob der 13.35er-Beta irgendwas in den Releasenotes haben wird. MMn ist "der Mantletreiber" erstmal irrelevant, wird schon rechtzeitig für die ersten Anwendungen zur Verfügung stehen.

del_4901
2014-01-22, 22:00:49
Ich sehe der ganzen Sache sehr gelassen entgegen. Es wird eh wieder Fanboylager Kriege geben, egal wie/wann es kommt.

Hübie
2014-01-22, 22:06:43
Na irgendwie wäre ich auch angepisst wenn ich 1000 Euro nVidia in den Arsch geblasen hätte und dann von einer 350-Euro-AMD-Karte dank Mantle abgezogen werde. Aber statt Microsoft zu verklagen klagt man das Leid und sein Neid in Foren ;D Wie will man sonst noch den Kauf im grünen Lager rechtfertigen?
Aber gut. Da es nix verwertbares gibt, Mr. Andersson, sehe ich der Sache ebenfalls gelassen entgegen :smile:

mironicus
2014-01-22, 22:08:09
SO langsam könnte man aber wirklich nen Termin mal nennen....

Da hat er schon recht.

Es ist nicht schön ständig an unerfüllte Bedürfnisse denken zu müssen. :mad:

Ich denke nicht mehr daran. Wenn es kommt, dann kommt es.

Aber die Fanboy-Kriege sind immer amüsant. Daran kann man sich immer schön laben. Darauf freue ich mich bereits. :)

del_4901
2014-01-22, 22:24:52
Na irgendwie wäre ich auch angepisst wenn ich 1000 Euro nVidia in den Arsch geblasen hätte und dann von einer 350-Euro-AMD-Karte dank Mantle abgezogen werde. Aber statt Microsoft zu verklagen klagt man das Leid und sein Neid in Foren ;D Wie will man sonst noch den Kauf im grünen Lager rechtfertigen?
Aber gut. Da es nix verwertbares gibt, Mr. Andersson, sehe ich der Sache ebenfalls gelassen entgegen :smile:
Stell dir vor, du hättest 4 von denen gekauft, dann währe die Entäuschung erst richtig gross. Immer schön positiv denken, denn das Leben könnte schlimmer sein. Und Anderen geht es bestimmt schlechter.

Nightspider
2014-01-22, 23:00:38
Na irgendwie wäre ich auch angepisst wenn ich 1000 Euro nVidia in den Arsch geblasen hätte und dann von einer 350-Euro-AMD-Karte dank Mantle abgezogen werde. Aber statt Microsoft zu verklagen klagt man das Leid und sein Neid in Foren ;D Wie will man sonst noch den Kauf im grünen Lager rechtfertigen?
Aber gut. Da es nix verwertbares gibt, Mr. Andersson, sehe ich der Sache ebenfalls gelassen entgegen :smile:

Abgesehen davon, das die Käufer einer 1000$ Titan schon seit bald einem Jahr damit zocken, kostet eine schnellere 780ti nur noch etwas über 550 Euro.

Der Vergleich hinkt also etwas. Oder gehst du davon aus, das die Titan-Käufer damals davon ausgegangen sind, das ihre Karte für immer die schnellste bleiben wird? :freak:

HarryHirsch
2014-01-22, 23:42:03
Na irgendwie wäre ich auch angepisst wenn ich 1000 Euro nVidia in den Arsch geblasen hätte und dann von einer 350-Euro-AMD-Karte dank Mantle abgezogen werde. Aber statt Microsoft zu verklagen klagt man das Leid und sein Neid in Foren ;D Wie will man sonst noch den Kauf im grünen Lager rechtfertigen?
Aber gut. Da es nix verwertbares gibt, Mr. Andersson, sehe ich der Sache ebenfalls gelassen entgegen :smile:


Ist das nich der aus der Matrix? :uconf2:

gedi
2014-01-22, 23:48:40
Abgesehen davon, das die Käufer einer 1000$ Titan schon seit bald einem Jahr damit zocken, kostet eine schnellere 780ti nur noch etwas über 550 Euro.

Der Vergleich hinkt also etwas. Oder gehst du davon aus, das die Titan-Käufer damals davon ausgegangen sind, das ihre Karte für immer die schnellste bleiben wird? :freak:

Ähm ja - bis zur 12Gig 880Ultra Titan, welche dann angemessene 2000 Teuronen + kosten muss.

HarryHirsch
2014-01-22, 23:58:50
Angemessen, ja. :freak:
Jeder andere GPU-Hersteller, mit diesem Marktanteil, würde sicher ähnliche Preise aufrufen.

Botcruscher
2014-01-23, 00:11:55
Die Titankäufer brauchen sich nicht über den Geschmack von NVs Zehen beschweren. Gebückt und den Arsch hingehalten haben sie sich selber. Der nächste geht noch tiefer und kostet 2000€.
Es wird halt überall auf kleiner Flamme gehyped, sowas hier:
Marketing halt.

Nightspider
2014-01-23, 00:18:41
Die Preise werden sich den Verkaufszahlen anpassen.
Nur ein winziger Bruchteil würde 1000 Euro für einen billigen GM104 zahlen.

Abgesehen davon haben Titan-Käufer sicherlich keine Geldprobleme.

Unterm Strich könnte Mantle sogar die NV Preise senken, wenn eine 290 für 300 Euro eine Titan Black Edition (1000 Euro) verprügeln wird.

TrueAudio könnte in einem Jahr auch schon ein weiterer (kleiner) Kaufgrund sein. Potential hat TrueAudio genug dank den DSPs in den Konsolen.

Hübie
2014-01-23, 02:26:40
Abgesehen davon, das die Käufer einer 1000$ Titan schon seit bald einem Jahr damit zocken, kostet eine schnellere 780ti nur noch etwas über 550 Euro.

Der Vergleich hinkt also etwas. Oder gehst du davon aus, das die Titan-Käufer damals davon ausgegangen sind, das ihre Karte für immer die schnellste bleiben wird? :freak:

[ ] Ich habe nicht verstanden wie Hübie das meinte

Bitte Kreuz da setzen ;)

Ich bin nach wie vor tierisch neugierig da eine Alternative zu D3D faktisch seit etwa einem Jahrzehnt nicht mehr existiert. Damit meine ich natürlich nicht OGL bzw. nur indirekt.
Der impact ist für einen Laien wie mich also nur schwer abzuschätzen.

gnahr
2014-01-23, 06:53:05
Ich bin nach wie vor tierisch neugierig da eine Alternative zu D3D faktisch seit etwa einem Jahrzehnt nicht mehr existiert.
geht es schon wieder los, dass mantle zur "alternative" er klärt wird obwohl es nur ne kleine, teure erweiterung als pr-stunt sein soll? das traut sich nichtmal das marketing zu sagen und hier wird es ständig eingestreut von leuten die aus der nase gezogene vergleiche von karten mit "verhauen" zusammenfasser...

Felixxz2
2014-01-23, 07:43:31
20 Spiele sind halt echt ein PR Stunt.....

gnahr
2014-01-23, 08:00:24
klingt nach physix... ach du meinst nur angekündigt oder erwähnt von den entwicklern (informell)? duke nukem style?
goil und damit können hersteller also schon zum kartenrelease werben. ihr nehmt euch gerade das recht je mal wieder ne beschwerde über das verhalten irgendeines herstellers abzuliefern mit der speichelleckerei.

Gipsel
2014-01-23, 09:24:29
Nur mal so als Erinnerung: Wir sind hier im Technologie-Forum. Bleibt mit der unpassenden Wortwahl und den Fanboy-Reflexen bitte woanders.

Danke.

Skysnake
2014-01-23, 09:57:16
klingt nach physix... ach du meinst nur angekündigt oder erwähnt von den entwicklern (informell)? duke nukem style?
goil und damit können hersteller also schon zum kartenrelease werben. ihr nehmt euch gerade das recht je mal wieder ne beschwerde über das verhalten irgendeines herstellers abzuliefern mit der speichelleckerei.
Naja, an sich ist die genaue Zahl egal.

Interessiert ein Lemmings Reloaded in der Beziehung? NOT
Interessiert ein Plants vs Zombies 3D in der Beziehung? NOT
Interessiert ein BF4/5 in der Beziehung? YES!
Interessiert ein StarCitizen in der Beziehung? YES!!!! OMFG!!!
Interessiert ein Thief Relaoded in der Beziehung? YES

Du verlierst in der Beziehung aus den Augen, das es sich dabei nicht um irgendwelche 0815 Spiele handelt, sondern um richtige Blockbuster, die so mancher komplett exklusiv zockt. Also NUR das Game und sonst fast nichts anderes.

Das sind Hardwareseller Games, für die die Leute extra aufrüsten.

Gerade StarCitizen ist so OMFG wichtig. Schau dir mal an, wie da die Leute Geld reinblasen wie die Blöden. :freak: Das ist nicht mehr normal. Sowas ist nen richtiger Game-Changer. Wenn jetzt noch ProjectCars dazu kommt, dann wirds ganz ganz bitter für nVidia.

Die Auswirkungen, die diese Spiele (SC&PC) haben auf die Gameingindustrie kann man noch gar nicht abschätzen. Das sind Games vom Kaliber eines WOW oder StarCraft. Die werden den Markt umkrempeln, und gerade SC hat das Potenzial Spieler für Jahre an sich zu fesseln und zwar so, dass sie gar keine anderen Spiele mehr kaufen.

Der Impactfaktor ist heftig. Bei PC sieht das ähnlich aus, auch wenn bei weitem nicht in dem Umfang. Man kann aber davon ausgehen, das PC, wenn es denn mal fertig ist, die Verkäufe von anderen Rennspielen sehr negativ beeinflussen wird.

Arcanoxer
2014-01-23, 12:25:32
Ein Monat nach mein letzten posting in den thread schaue ich mal wieder vorbei um zu sehen was sache im roten Mantle Lager ist.

...und AMD hat immer noch nichts vorzuweisen, noch nicht mal ein Termin. :ulol2:

Villeicht wird das ja zu anfang April etwas?
01.04. oder so. *shrug*

maximus_hertus
2014-01-23, 13:16:40
...und AMD hat immer noch nichts vorzuweisen, noch nicht mal ein Termin. :ulol2:


Doch, von AMDs Seite gibts einen Beta-Treiber im Januar und den WHQL noch in Q1 (2014). Was DICE macht oder releast (oder auch nicht releast ^^) ist Sache von EA/DICE.

Loeschzwerg
2014-01-23, 13:22:52
Beta Treiber + Techdemo (DX vs OGL vs Mantle) wäre ein Anfang. Wann soll die Starswarm Demo kommen?

fondness
2014-01-23, 13:29:47
Ebenfalls im Januar, genau wie BF4.

Iruwen
2014-01-23, 13:30:34
Die Auswirkungen, die diese Spiele (SC&PC) haben auf die Gameingindustrie kann man noch gar nicht abschätzen. Das sind Games vom Kaliber eines WOW oder StarCraft. Die werden den Markt umkrempeln, und gerade SC hat das Potenzial Spieler für Jahre an sich zu fesseln und zwar so, dass sie gar keine anderen Spiele mehr kaufen.

Ich denke du übertreibst da etwas. Ich habe auch schon einiges in SC investiert (zuviel), aber das Spiel wird dem Hype niemals gerecht werden. 37 Millionen Vorfinanzierung sind beeindruckend, aber es sind letztlich auch "nur" 370000 User die eben teilweise Unsummen investieren. Die Zielgruppe ist so fanatisch wie limitiert. Vermutlich viele gut betuchte Nostalgiker. Und bis das Spiel erscheint fließt noch sehr, sehr viel Wasser den Rhein hinunter.
BF4 hatte einen denkbar schlechten Start, viele Stammspieler haben aufgehört (vielleicht haben sie zum Ausgleich viele CoDler gewonnen, kA), und Thief müssen sie erstmal nicht ruinieren. Das Spiel lebt auch hauptsächlich vom Hype der Fans vergangener Titel, das ist ein ganz schmaler Grat. Auch PC ist m.E. kein Massenphänomen.
Außerdem sollte man beachten, dass die Mehrperformance nur eine echte Rolle spielen wird wenn es für das Spiel auch erforderlich ist, also kompetitiv und nicht schon 60 FPS+ auf Midrange Hardware.

Loeschzwerg
2014-01-23, 13:41:40
@fodness: THX. Dann hat meine, übergangsweise angedachte, 290 wenigstens Futter :)

@Iruwen: Sehe ich auch so. BF4 ist in meinem Bekanntenkreis schon fast kein Thema mehr, was bei BF3 ganz anders war. Aber das muss jetzt nicht auf die Masse zutreffen, ist lediglich meine Beobachtung. Thief sehe ich ganz kritisch, gerade wegen vorgegebenen Sprungzielen (sofern das noch aktuell ist).

Akkarin
2014-01-23, 13:48:36
klingt nach physix... ach du meinst nur angekündigt oder erwähnt von den entwicklern (informell)? duke nukem style?
goil und damit können hersteller also schon zum kartenrelease werben. ihr nehmt euch gerade das recht je mal wieder ne beschwerde über das verhalten irgendeines herstellers abzuliefern mit der speichelleckerei.

Bei SC, Thief, BF 4 und Sniper Elite wurde es offiziell angekündigt, man kann also ziemlich sicher davon ausgehen dass es genutzt wird.

Oxid mach verdammt viel Werbung für, ist ihmo wahrscheinlich dass viele/die meisten Spiele die drauf beruhen Mantle haben werden.

Bei den 20+ Frostbite spielen wurde es verdammt oft erwähnt, auch von EA/Dice und AMD Marketing. Eigentlich kann man auch hier davon Ausgehn dass es "offiziell" ist. Zumal AMD wohl ziemlich druck machen wird das es auch passiert.

Wies mit Project Cars aussieht weiß ich tbh nicht.

Das ganze ist schon ein wenig größer als eine Inoffizielle Aussage von irgend nem random Entwickler. Vermutlich gibs eh Verträge mit AMD so dass nicht so leicht zurückgerudert werden kann.

mironicus
2014-01-23, 15:03:00
GTA V mit Mantle-Support wäre was. :)

kruemelmonster
2014-01-23, 15:06:05
Sowas ist nen richtiger Game-Changer.
...
Der Impactfaktor ist heftig.

Ich dachte immer du wärst gar nicht so der Zocker, aber wie ich sehe beherrscht du das BS-Buzzword-Bingo-Spiel ganz gut. :wink:

Warum sollte Mantle einen dermaßen großen Einfluß haben? Es ist ne Extrawurst für alle GCN-Kunden um die CPU-Last zu drücken. Das ist natürlich ganz im Sinne AMDs mit ihrer APU und HSA-Strategie, die FX-Besitzer frohlocken ebenfalls.
Jetzt schaue dir mal hier (http://store.steampowered.com/hwsurvey) die Anteile der 7000er AMD-Karten sowie der AMD-CPUs allgemein an, bedenke den Mehraufwand in der Programmierung (Zeit, Geld, Skills) und dann erzähl mir nochmal was von einem Game-Changer.

Sonst ist bei dir immer alles kompliziert und 1000 Sachen können schiefgehen, aber stellt AMD eine neue Luftschloss-API mit unbewiesenen Eigenschaften vor die sich seit (boshaft betrachtet, es hieß mal Ende Nov13) 2 Monaten verzögert, ja dann ist es ein Game-Changer (BS-Bingo at its best) und NV muß sich warm anziehen...

Nightspider
2014-01-23, 15:25:54
Da macht PhysX wahrscheinlich sogar mehr Arbeit bei manchen Portierungen.
Die Low-Level-Programmierung kann man ja zu großen Teilen von den Konsolen 1:1 kopieren.
Die GPU-Architektur ist schließlich gleich. Der größte Unterschied wird fehlendes HUMA/HSA bei dedizierten GPUs sein.

Mantle würde ich nie mit PhysX vergleichen. Ich kenne sogar viele Leute mit Nvidia-Karten die nicht mal PhysX aktivieren, weil es immer zu viel Leistung frisst. Von Mantle hingegen profitiert jeder Kleinst-PC mit AMD GPU.

Ebenfalls ermöglicht die freiwerdende CPU-Leistung bei PC-Portierungen die Leistung in andere optische oder interaktive Schmankerl zu investieren. Womöglich haben die PC-Portierungen mit Mantle bald deutlich bessere Partikeleffekte.

Skysnake
2014-01-23, 15:36:43
Ist doch mit StarCraft 2 das gleiche in Grün. Wer StarCraft 2 zockt, macht um jedwede AMD GPU lieber nen riesen Bogen.

ProjectCars siehts ja genau so aus aktuell. Da fährt nVidia auch noch deutlich besser.

Deswegen sagte ich ja ausdrücklich, wenn PC noch dazu kommt, siehts böse aus.

Denn auf was wartet man noch wirklich groß?

Nen Witcher3 und dann?

Welche Spiele gibts denn noch, die wirklich heis ersehnt werden, wie ein Daikatana oder DukeNukem früher? Oder auch nen UT?

Da ist doch auf breiter Flur eher weniger zu sehen, und wenn kommts eher aus der Indie Ecke. Star Wars 1331 (?) war noch nen Kandidat für nen richtig fettes Game gewesen, dass die Leute ewig bindet, aber das ist auch tot.

Bleibt noch XRebirth oder wie das heist, wow und noch paar MMORPGs, wobei die nicht so der Hardwarekiller sind.

Du kannst aber gern noch paar Spiele nennen, die nen extrem breites Publikum ansprechen und vor allem auch an sich binden können.

Und nein, Hitman, TombRaider, Bioshock und AssinsCread nehm ich da mal raus. Aus den Serien ist die Luft wohl raus bzgl den MEGA-Blockbustern. Genauso DeadSpace und MassEffect.

COD ist auch ziemlich tot/ausgelutscht. Das neue SplinterCell könnte noch nen kracher werden, aber das muss man schauen.

Aus den Sportspielen wie Fifa, NFL und NBA ist auch die Luft raus. Vor allem für den PC.

Und bei den Rennspielen seh ich neben ProjectCars nicht mehr viel Luft für andere Games. Dieses neue Destruction Game sieht noch ganz nett und vielversprechend aus, genau wie nen paar Indie-Games, aber die werden nicht die Marktdurchdringung haben.

Wie gesagt/angedeutet, so wirklich viele wirklich heftig wichtige Spiele gibt es nicht mehr wirklich, die die Menschen über Monate oder gar Jahre an sich binden.

StarCraft2 ist zum Beispiel auch nicht mehr mit StarCraft zu vergleichen. Dennoch verkauft man mit so ner klaren Überlegenheit in einem wichtigen und viel gespielten Game Hardware.

Ich weiß echt nicht, was daran Bullshit-Bingo sein soll :tongue:

Also, was gibts denn an Games, die wirklich richtig große Gamermassen ansprechen und nicht Witcher3 oder die anderen von mir genannten Games sind? Potenzial ein HArdware"killer" zu sein sollte natürlich vorhanden sein. Nen neues AngryBirds, PlantsvsZombies usw gelten daher nicht wirklich, genau wie nen großteil der Indie-Games, die btw meiner Meinung nach EA, Ubisoft usw noch ziemlich große Bauchschmerzen machen werden.

Wer kauft denn sich noch nen drölften NFS Remake, der auch noch immer schlechter wird, wenn er auch ProjectCars zocken kann???

EDIT:
Btw jetzt hab ich glatt einen Punkt vergessen.

Was willste eigentlich mit AMD-CPUs? Das ist doch erstmal total unabhängig davon! Ganz im Gegenteil. Wenn dadurch nen alter E8400 oder vergleichbares auch noch reicht, dann ist das doch klasse, und für Inteluser auch nen gewinn. Das frei werdende Geld steckt man doch gern in ne schnellere GPU oder freut sich über nen schönes Essen mit der Frau/Freundin.

Und bzgl API.
Wenns nur ne API wäre, wäre das ziemlich bumsfallara. Der Punkt ist die Integration in große Engines. Eine hat man schon, und SC ist ziemlich einzigartig. Damit bekommste Mantle relativ frei Haus. Der Knackpunkt wird halt, wie sich die Unreal-Engine schlägt. Wenn die auch rüber zieht, wirste keine große Engine mehr ohne Mantle haben. Da ist es dann völlig egal, wie gut/schlecht es ist. Das ist dann ein Checklisten-Feature.

Die Sache steht und fällt natürlich mit der Frostbite-Engine. Wenn die das nicht gebacken bekommen stirbt das Ding wahrscheinlich. SC allein kann das nicht packen, das so zu pushen. Ich würde jetzt aber nicht davon ausgehen, dass ausgerechnet DIE das verkacken, und andere hinbekommen. Das wäre schon ein EXTREMES! Armutszeugnis. Das Ding selbst mit entwickelt, und dann bei der Implementierung in die eigene Engine es verkacken, während es die Konkurrenz schafft :ugly: Und wenn dies nicht schafft, ist eh sabbat.

Botcruscher
2014-01-23, 16:26:48
StarCraft 2 läuft doch auf jeder Gurke?!

Unreal-Engine. Ist da noch was von Epic? Die sind für mich gefühlt schon seit UT3 tot. Ein paar kleinere Projekte aus dem Indiee holen da noch was raus. Nach ID kräht auch kein Hahn mehr.

Mantle macht eigentlich nur ein Punkt interessant: Der enorme Overhead von Direct X. Womöglich wird MS doch mal munter. W8 sollte als Warnung ja reichen. Valve lässt grüßen...

Skysnake
2014-01-23, 16:41:37
Also wenn ich mir da so die Tests in Erinnerung rufe, dann habe ich da bei fetten Schlachten aber einen komplett anderen Eindruck.

Da taugt ne nVidia GPU deutlich besser, und von Intel vs AMD bei den CPUs fangen wir lieber erst gar nicht an :ugly:

M4xw0lf
2014-01-23, 16:47:00
Vermutlich hast du Tests mit MSAA im Kopf, das nicht offiziell vom Spiel unterstützt wird. Das läuft grottig bei AMD.

dargo
2014-01-23, 16:49:38
Mantle macht eigentlich nur ein Punkt interessant: Der enorme Overhead von Direct X. Womöglich wird MS doch mal munter. W8 sollte als Warnung ja reichen.
Das ist ein ganz anderes Thema warum das neue Windows am Desktop eher schlecht ankam. Gerade Gamer die mehr Leistung aus ihren CPUs herausholen wollen sollten Win8 wegen DX11.x nutzen.

Botcruscher
2014-01-23, 16:58:44
Hab ich auch nicht behauptet. Mantle ist einfach eine weitere Bedrohung für den Monopolisten. DX wird derweil vom Vor zum Nachteil. Mit etwas Pech sehen wir auch noch eine Low Level API von NV. Da wird da Markt dann schon in "Exklusivtitel" und den Rest aufgeteilt. Physx lässt grüßen. Davon hab ich als Kunde fast nur Nachteile.

Skysnake
2014-01-23, 16:59:05
Ich mein jetzt die zwei Tests:
http://www.pcgameshardware.de/Haswell-Codename-255592/Tests/Haswell-Test-Core-i7-4770K-Core-i5-4670K-Core-i5-4570-1071762/2/
http://www.pcgameshardware.de/Starcraft-2-Wings-of-Liberty-PC-18348/Tests/Technik-Test-Starcraft-2-mit-12-Grafikkarten-Update-Kantenglaettung-fuer-Geforce-und-Radeon-765867/

Eigentlich war ich der Meinung, das es zur HD7k und GTX600er Serie auch nen GPU Test gegeben hat, aber den finde ich nicht mehr.

dargo
2014-01-23, 17:14:19
Hab ich auch nicht behauptet. Mantle ist einfach eine weitere Bedrohung für den Monopolisten. DX wird derweil vom Vor zum Nachteil. Mit etwas Pech sehen wir auch noch eine Low Level API von NV. Da wird da Markt dann schon in "Exklusivtitel" und den Rest aufgeteilt. Physx lässt grüßen. Davon hab ich als Kunde fast nur Nachteile.
Die Situation wäre schon etwas anders. Selbst wenn NV eigene API bringen würde und DX weiter existiert könntest du auf DX zurückgreifen. Exklusiv ist was anderes. Exklusiv wäre wenn NV-User Mantlespiele gar nicht spielen könnten. Ähnlich also der Situation bei NV mit GPU-PhysX und Usern mit AMD-Graka.

N0Thing
2014-01-23, 17:40:20
Mantle würde ich nie mit PhysX vergleichen.
Da macht PhysX wahrscheinlich sogar mehr Arbeit bei manchen Portierungen.

Warum machst du es dann? Und auch noch im gleichen Beitrag? :D



Ich mein jetzt die zwei Tests:
http://www.pcgameshardware.de/Haswell-Codename-255592/Tests/Haswell-Test-Core-i7-4770K-Core-i5-4670K-Core-i5-4570-1071762/2/
http://www.pcgameshardware.de/Starcraft-2-Wings-of-Liberty-PC-18348/Tests/Technik-Test-Starcraft-2-mit-12-Grafikkarten-Update-Kantenglaettung-fuer-Geforce-und-Radeon-765867/

Eigentlich war ich der Meinung, das es zur HD7k und GTX600er Serie auch nen GPU Test gegeben hat, aber den finde ich nicht mehr.

In den Tests wird deutlich, daß damals AMD und Nvidia gleich auf lagen, wenn kein Treiber-MSAA erzwungen wird.

Botcruscher
2014-01-23, 18:09:53
Exklusiv wäre wenn NV-User Mantlespiele gar nicht spielen könnten.

Deswegen stehen da Anführungszeichen. Kein Entwickler wird auf Kunden verzichten. Deswegen wird es auf der Konkurrenz trotzdem mies laufen. NV legt ja mit dem twimtbp ganz gut vor.

kruemelmonster
2014-01-23, 19:06:20
...viele Spieleaufzählungen...

Und? Am PC stechen auf lange Sicht nur genügsame Spiele wie Dota2 oder WoW mit einer großen Nutzerbasis heraus. All die hochglanzpolierten Shooter und Rennspiele haben gar nicht die Halbwertzeit und/oder die Nutzerbasis um einer API, die lediglich die neueste HW nur eines IHV unterstützt, sowas wie den Status eines Game-Changers zu ermöglichen.


Btw jetzt hab ich glatt einen Punkt vergessen.

Was willste eigentlich mit AMD-CPUs? Das ist doch erstmal total unabhängig davon! Ganz im Gegenteil. Wenn dadurch nen alter E8400 oder vergleichbares auch noch reicht, dann ist das doch klasse, und für Inteluser auch nen gewinn.

Wer noch mit nem E8400 zockt, der hat auch seine Grafikkarte schon mehrere Jahre nicht aufgerüstet, ergo kein Mantle und kein Argument.
Ab einem ~4 GHz Nehalem oder Sandy hängt man doch eher selten im (schmerzhaften Bereich eines) CPU-Limit, ergo wenig zu erwartende Steigerung durch Mantle. Beweisen oder widerlegen lässt sich dieser Punkt mangels Demo ja leider nicht.
Was dann bleibt sind die AMD-CPUs, alle anderen haben genug CPU-Power oder eh kein Mantle.

Skysnake
2014-01-23, 19:53:49
Wer noch mit nem E8400 zockt, der hat auch seine Grafikkarte schon mehrere Jahre nicht aufgerüstet, ergo kein Mantle und kein Argument.
Ab einem ~4 GHz Nehalem oder Sandy hängt man doch eher selten im (schmerzhaften Bereich eines) CPU-Limit, ergo wenig zu erwartende Steigerung durch Mantle. Beweisen oder widerlegen lässt sich dieser Punkt mangels Demo ja leider nicht.
Was dann bleibt sind die AMD-CPUs, alle anderen haben genug CPU-Power oder eh kein Mantle.
Doch genau deswegen! ist es ein Argument pro Mantle. Denn irgendwann muss jeder aufrüsten, und wenn er statt dem gesamten System nur die GPU austauschen muss, dann ist das ein gewichtiges Argument.

Zum Rest:
WoW und DOTA2 sind nicht wegen ihren geringen Leistungsanforderungen so lange beliebt, sondern weil es fesselnde Spiele sind.

Und WoW ist ein GANZ schlechtes Beispiel für ein Game, das "geringe Anforderungen" hat. WoW ist nen ziemliches Biest, oder war es zumindest bis vor 2 Jahren noch im 40 und dann später 25er Raid. Da hats wirklich ne vernünftige CPU und auch GPU gebraucht, sonst konntest das voll vergessen. Effekte usw runter drehen war ja nicht, sonst hat man die Raidkilling Effekte zu spät gesehen :mad: Ich sag nur Mimiron 25er Hero... Das war die HÖLLE! Und so gabs genug Bosse... Also ganz schlechtes Beispiel.

Und bzgl ProjectCArs usw.
Wie war denn das mit Crysis usw? ;)

Das holt man auch heute noch gern raus, und es war eben ein Game, wegen dem sehr sehr sehr viele Leute aufgerüstet haben, und PC hat dazu meiner Meinung nach wirklich auch das Potenzial. Was man da sieht ist einfach ein komplett anderes lvl als alles was es bisher zu sehen gab in Rennspielen.

Zudem hat das Game schon ne ziemlich große Nutzerbasis und wird gehyped wie blöd. Das reicht für den Anfang, und bis das erste Interesse stark nachlässt, sollte spätestens VR auch fertig sein, was nochmal nen richtigen zweiten Frühling geben wird.

Wenn dann noch ne gute Fahrphysik dazu kommt, selbst wenn als Addon/Mod, dann hat das Ding potenzial für nen neues GP-Legends. Wobei ich da erstmal keine Hoffnungen für den Anfang habe, soll ja soweit ich das verfolgt habe eher Arcadelastig sein, zumindest im Vergleich zu GPL.

Und GPL braucht so langsam wirklich mal nen Nachfolger :ugly:

dargo
2014-01-23, 20:01:42
Wer noch mit nem E8400 zockt, der hat auch seine Grafikkarte schon mehrere Jahre nicht aufgerüstet, ergo kein Mantle und kein Argument.
Ab einem ~4 GHz Nehalem oder Sandy hängt man doch eher selten im (schmerzhaften Bereich eines) CPU-Limit, ergo wenig zu erwartende Steigerung durch Mantle.
Wie ich diese Verallgemeinerungen wieder liebe.

Ich weiß ja nicht welchen Maßstab du dir legst. Ich möchte aber möglichst mit 60+ fps spielen. Erstens gibt es keine 4Ghz Nehalem/Sandys (der "08/15" User versteht nichts vom OC und tut es auch nicht). Zweitens hatte ich in Crysis 3 trotz DX11 mit einem 3,7Ghz Lynnfield (also schon OC) 32fps in einer stark cpu-limitierten Szene (Grassimulation), trotz 1920x1080 SMAA T2x/16xAF. Ja selbst mein neuer 3,7Ghz Haswell mit 4C/8T schafft in dieser Szene keine 60fps. Und das trotz perfekten Multithreading in dieser Szene.

Also hört bitte endlich mit diesem Bullshit auf... aktuelle CPUs würden genug Leistung in Spielen liefern.

kruemelmonster
2014-01-23, 21:39:31
Doch genau deswegen! ist es ein Argument pro Mantle. Denn irgendwann muss jeder aufrüsten, und wenn er statt dem gesamten System nur die GPU austauschen muss, dann ist das ein gewichtiges Argument.

Auch mit einer 290X kannst du mit einem E8400 nicht mehr vernünftig zocken. Mantle ist kein Argument fürs nicht aufrüsten.


Zum Rest:
WoW und DOTA2 sind nicht wegen ihren geringen Leistungsanforderungen so lange beliebt, sondern weil es fesselnde Spiele sind.

Nicht nur deswegen, natürlich. Aber nur weil es geringe Anforderungen hat (und eine leidensfähige Userbasis) und auf "jeder Krücke" läuft hat es eine dermaßen große Userbasis.

Wir brauchen uns hier auch nicht über einzelne Titel unterhalten. Deine Aussage war "Sowas ist nen richtiger Game-Changer". Die 3dfx Voodoo Karten waren ein Game Changer für die Grafikkartenindustrie. iTunes war ein GC für den digitalen Musikvertrieb, Steam für den digitalen Spielevertrieb. Mantle ist bisher noch nichts außer noch nicht erschienen. Wenn es erscheint wird es nur von einem Bruchteil des PC-Marktes, welcher nur ein Teil des gesamten Spielmarktes ist, genutzt werden können.

Wie ich diese Verallgemeinerungen wieder liebe.

Ich weiß ja nicht welchen Maßstab du dir legst. Ich möchte aber möglichst mit 60+ fps spielen. Erstens gibt es keine 4Ghz Nehalem/Sandys (der "08/15" User versteht nichts vom OC und tut es auch nicht).

Ja es war verallgemeinert, aber ich wollte keinen Roman für jede Konstellation schreiben. Und extra für dich hab ich noch die Klammer hinzugefügt, hat wohl nicht gereicht. :redface:
Mein 2600k läuft ohne OC standardmäßig mit 3,8 GHz AllCore Turbo, ein 2700k kommt auf 3,9 GHz. Damit ist man schonmal aus dem gröbsten raus, mit OC wirds dann halt noch angenehmer. Vllt reichts noch nicht für 60 fps immer und überall (auch wenn ich das gerne hätte), aber deswegen schrieb ich auch vom schmerzhaften Bereich eines CPU-Limit.


Zweitens hatte ich in Crysis 3 trotz DX11 mit einem 3,7Ghz Lynnfield (also schon OC) 32fps in einer stark cpu-limitierten Szene (Grassimulation), trotz 1920x1080 SMAA T2x/16xAF. Ja selbst mein neuer 3,7Ghz Haswell mit 4C/8T schafft in dieser Szene keine 60fps. Und das trotz perfekten Multithreading in dieser Szene.

Also hört bitte endlich mit diesem Bullshit auf... aktuelle CPUs würden genug Leistung in Spielen liefern.

Ich weiß dass sie das nicht tun, darüber sind wir uns einig. Ich renn aber auch nicht umher und verkünde eine Revolution (nicht auf dich bezogen) nur weil die FXe von ihrer Achillesferse befreit werden und unsere(*) min fps vllt von 45 auf 50 hüpfen.

(*) Dein 8T Haswell hat 20% Taktrückstand auf meinen 3 Jahre alten 2600k @ 4.5 GHz, das gleicht sich ungefähr aus. Mit einem Ivy-E @ 4.5 Ghz würde es in deiner Testszene mit Sicherheit anders aussehen, und dann ist es imho sehr fraglich was Mantle da zusätzlich noch reißen könnte.

Mantle wird bestimmt ein netter Bonus, aber durch ein paar min fps mehr imo bestimmt kein Game-Changer. Für AMDs HSA vllt, aber da fehlt wieder die Nutzerbasis.

gedi
2014-01-23, 22:33:19
Also es gibt schon so ein paar Games, in denen du selbst mit einer 4.5-Sandy ins CPU-Limit rauschst. Pcars fällt mir da ein, oder aber Sleeping Dogs (trotz 4xSSAA!). Sehr krass sind natürlich die alten Konsorten wie Shift 1 usw., welche leider aber wohl kein Mantle-Patch mehr erwarten dürften :(

dargo
2014-01-23, 22:39:36
Ja... pCars ist da extrem. Allerdings sollte man dabei immer berücksichtigen, dass es noch Alpha/Beta-Software ist. Da kann sich u.U. noch viel ändern. Wobei ich mich bei pCars immer wieder frage was dieser Blödsinn mit DX9 noch soll? Vorallem wenn das Game höchstwahrscheinlich erst 2015 final sein wird.

kruemelmonster
2014-01-23, 23:01:04
Also es gibt schon so ein paar Games, in denen du selbst mit einer 4.5-Sandy ins CPU-Limit rauschst. Pcars fällt mir da ein, oder aber Sleeping Dogs (trotz 4xSSAA!). Sehr krass sind natürlich die alten Konsorten wie Shift 1 usw., welche leider aber wohl kein Mantle-Patch mehr erwarten dürften :(

Shift 1 & 2 drückt die 4.5er Sandy schon weg, aber sowas wie pCars bei Regen mit vollem Startfeld macht natürlich Kleinholz aus der CPU...<20 fps :freak:

Nur: selbst falls Mantle auf IPC-starken Systemen die bekanntgegebenen 45% erreichen sollte gurke ich dann immer noch mit <30 fps über den Asphalt.
Für einen 4.5er HSW wäre es dann mit <25 und <35 fps auch kein gravierender Unterschied.

Und: selbst falls dieser theoretische Idealfall dann eintreten würde stellt sich die Frage warum das nicht mittels Techdemo promoted wird um die unentschlossenen Käufer zu AMD zu bringen?

Gipsel
2014-01-24, 01:03:58
Solche Prozentzahlen kann man nicht verallgemeinern. Wenn in der von Dir erwähnten Szene wirklich die Drawcall-Performance limitiert, kann es im Einzelfall auch Steigerungen wie bei dieser StarSwarm-Demo geben, also z.B. Faktor 3.

Hübie
2014-01-24, 02:27:17
Deswegen sollte man da ja auch erst mal drauf pusten. Es gibt eine viel zu imense Anzahl an Konfigurationen um da einfach 20 oder 45% zu propagieren.
Meine Prognose steht: Auf highend im Idealfall 10-15 % mehr. Auf kleineren System dann schon mehr (vielleicht die 20-45%). Und in der Vergangenheit haben wir doch alle gelernt dass man dem Marketing hiesiger IHVs nicht draufen darf, oder? ;)
Allerdings erhoffe ich mir halt dass es sowas wie CPU-Limits im Praxisbetrieb nicht mehr geben wird.

Gruß Hübie

disap.ed
2014-01-24, 08:01:33
Ja... pCars ist da extrem. Allerdings sollte man dabei immer berücksichtigen, dass es noch Alpha/Beta-Software ist. Da kann sich u.U. noch viel ändern. Wobei ich mich bei pCars immer wieder frage was dieser Blödsinn mit DX9 noch soll? Vorallem wenn das Game höchstwahrscheinlich erst 2015 final sein wird.

Der offizielle DX9-Support soll wohl fallen, zumindest war damals davon die Rede als man den Switch von PS360 auf PS4/XBone diskutierte. Vielleicht lassen sie ihn auch mit den Features die fertig sind drinnen, kann ich nicht mit Sicherheit sagen.

Liszca
2014-01-24, 12:11:56
... Es gibt eine viel zu imense Anzahl an Konfigurationen um da einfach 20 oder 45% zu propagieren. ...

So viele konfigurationen sehe ich da nun auch wieder nicht, es sei denn du willst wirklich jeden GCN chip gleich als komplett andere konfiguration sehen.

dargo
2014-01-24, 12:12:23
Deswegen sollte man da ja auch erst mal drauf pusten. Es gibt eine viel zu imense Anzahl an Konfigurationen um da einfach 20 oder 45% zu propagieren.
Meine Prognose steht: Auf highend im Idealfall 10-15 % mehr. Auf kleineren System dann schon mehr (vielleicht die 20-45%).
Im Moment kann ich eher auf deine Prognose pusten denn offensichtlich verstehst du immer noch nicht das Verhalten der Limits in Games. Nicht persönlich nehmen. :) Jemand der eine High-End CPU verwendet hat in der Regel auch eine High-End Grafikkarte (manche sogar zwei davon).

Ein kleines Beispiel zum nachdenken.

Du hast eine CPU und Grafikkarte mit je 100% Leistung. Hast eine Szene im Spiel X die stark im CPU-Limit liegt. Inwiefern ändert sich dieses starke CPU-Limit wenn du ein anderes System verwendest bei dem die CPU und Grafikkarte jeweils nur 50% vom ersten System leisten?


Allerdings erhoffe ich mir halt dass es sowas wie CPU-Limits im Praxisbetrieb nicht mehr geben wird.

Sowas wird es nie geben. Man verschiebt die Limits mit Mantle nur für einen Zeitraum X etwas. Sobald damit CPU-Zeit frei wird kann ein Entwickler wieder mehr in Spiele einbauen. Physik zb. ist in Spielen heute immer noch recht simpel gestaltet. Zudem lässt sich die Grafikkartenleistung über Jahre einfacher steigern als CPU-Leistung.

Intel konnte bsw. die Pro/Mhz Leistung beim Haswell gegenüber Lynnfield um ca. 33% (in Crysis 3 verglichen) steigern. Die beiden CPUs trennen ca. 4 Jahre. Schau dir an um wieviel % in dieser Zeit die Grafikkartenleistung gesteigert wurde. Um fair zu bleiben kann du auch gerne das ganze taktbereinigt machen. September 2009 war das schnellste eine HD5870 oder GTX285 @Single-GPU.

samm
2014-01-25, 15:38:54
Aus einem Slideshare vom November von AMD / Nixxes zu Thief:
http://www.slideshare.net/DevCentralAMD/gs4151-developing-thief-with-new-amd-technology-by-jurjen-katsman

S. 16: Eine Andeutung, dass vielleicht kein AFR genutzt wird, sondern Custom-Lösung mit Mantle für Crossfire? Vermutung wegen S. 18 dann, wo es heisst, dass es wünschbar wäre, wenn "all GPUs busy all the time"

S. 21: Mantle verbessert die Performance bezüglich CPU und GPU

S. 22: Neben Verbesserungen in Bezug auf draw call dispatching wird die Nutzung von command buffers in den Vordergrund gestellt

S. 23: Etwas Spannendes bezüglich Optimierung zur Laufzeit, deren Ergebnisse dann abgespeichert werden, s.d. es das nächste Mal von Anfang an besser läuft :confused: Vielleicht kann jemand mit Ahnung von Game-Engines das etwas erläutern...

Daneben dann zum Zusammenhang mit Konsolen (dort benutzte Optimierungen können mit Mantle ähnlich gemacht werden) und über die erhöhte Verantwortung aber eben auch Kontrolle durch die Devs (statt Treiber).

dargo
2014-01-25, 17:32:14
Aus einem Slideshare vom November von AMD / Nixxes zu Thief:
http://www.slideshare.net/DevCentralAMD/gs4151-developing-thief-with-new-amd-technology-by-jurjen-katsman

S. 16: Eine Andeutung, dass vielleicht kein AFR genutzt wird, sondern Custom-Lösung mit Mantle für Crossfire? Vermutung wegen S. 18 dann, wo es heisst, dass es wünschbar wäre, wenn "all GPUs busy all the time"

S. 21: Mantle verbessert die Performance bezüglich CPU und GPU

S. 22: Neben Verbesserungen in Bezug auf draw call dispatching wird die Nutzung von command buffers in den Vordergrund gestellt

S. 23: Etwas Spannendes bezüglich Optimierung zur Laufzeit, deren Ergebnisse dann abgespeichert werden, s.d. es das nächste Mal von Anfang an besser läuft :confused: Vielleicht kann jemand mit Ahnung von Game-Engines das etwas erläutern...

Daneben dann zum Zusammenhang mit Konsolen (dort benutzte Optimierungen können mit Mantle ähnlich gemacht werden) und über die erhöhte Verantwortung aber eben auch Kontrolle durch die Devs (statt Treiber).
Hier steht das auch nochmal im letzten Punkt mit mehr Leistung in GPU-Limits.
47773

Und die bessere Kontrolle über die CPU-Threads gefällt mir auch.
47774

Skysnake
2014-01-25, 19:39:09
S. 23: Etwas Spannendes bezüglich Optimierung zur Laufzeit, deren Ergebnisse dann abgespeichert werden, s.d. es das nächste Mal von Anfang an besser läuft :confused: Vielleicht kann jemand mit Ahnung von Game-Engines das etwas erläutern...

Damit ist sowas wie das hier wohl gemeint:http://www.redhat.com/magazine/011sep05/features/gcc/
Einfach mal unter "Profiling" nachschauen.

Man lässt das Zeug durchlaufen, und sammelt eben Informationen über das Verhalten des Programms und benutzt diese Informationen dann wiederum dafür, bei nem erneuten Compilerun bessere Ergebnisse zu bekommen.

Ist halt immer die Frage, wie aufwändig man das Profiling macht. Normal wird da alles profielt, und dann ist das Zeug echt langsam, trotz! Hardwareunterstützung des Profilings.

GPUs haben sowas auch direkt in Hardware, zumindest bei AMD. Bei nVidia weiß ich es grad gar nicht.

Ich weiß wirklich nicht, ob ich auf dem Holzweg bin, aber wenn ich das immer so lese, was es so an Infos über Mantle gibt, dann komme ich immer wieder zu dem Eindruck, das Mantle die CUs als kleinste Funktionseinheit nimmt. Also Quasi ne 40 CU GPU so wie 40 GPUs bei DX.

Dann wäre es auch relativ scheis egal, ob man jetzt die iGPU+dGPU benutzt, oder nur eine dGPU, oder auch zwei dGPUs, wobei die eventuell sogar unterschiedlich sind (in gewissen Rahmen).

Man würde halt nen Task bestimmen, und welche Ressourcen man dafür braucht, und dann eben den Job in die ACE-queues ballern und fertig.

An sich hat GCN alles in Hardware da, um sowas effizient zu unterstützen.

So würde die Aussage auf den Folien bezüglich "Pipeline" auch Sinn machen.

captain_drink
2014-01-25, 22:52:33
http://de.slideshare.net/CassEveritt/beyond-porting

Ist das schon bekannt? Laut Nvidia soll es mit OpenGL bereits möglich sein, den Overhead im CPU-Limit ähnlich stark zu reduzieren wie es mit Mantle möglich sein soll.

del_4901
2014-01-25, 23:58:28
:popcorn: Let the fight begin :D

Iruwen
2014-01-26, 00:25:39
Du verstehst das doch, fass mal für Normalsterbliche zusammen :D

del_4901
2014-01-26, 00:29:03
Du verstehst das doch, fass mal für Normalsterbliche zusammen :D
Alles zu seiner Zeit. :D

grobi
2014-01-26, 00:35:04
Es könnte auch eine Luftnummer von Nvidia sein.
Wenn man denn den Overhead auch unter Open GL senken kann. Wieso hat es dann noch keiner gemacht?

mfg grobi

del_4901
2014-01-26, 00:40:57
Bindless Multi Draw Indirect hilft zwar schon viel, schleppt aber immer noch alten Ballast mit sich rum.

Knuddelbearli
2014-01-26, 09:07:27
Wenn das heisst das NV Open GL als Open Standard pusht soll es mir recht sein ansonsten wohl reine Schadensbegrenzung

Skysnake
2014-01-26, 09:19:21
Der offene Standard hilft aber auch nur, wenn es sich dabei nicht um herstellerexklusive Erweiterungen handelt.

AlphaTier/Coda, ihr kennt euch da doch bestimmt gut aus mit den aktuellsten OGL-Versionen.

Ist das allgemein in OGL drin, oder wieder irgendwas nVidia spezifisches?

gnahr
2014-01-26, 09:55:49
wohl reine Schadensbegrenzung
viel schlimmer, reines buzzwording. als ob das thema jetzt auf einmal relevant würde...
hoffentlich bleiben die pr-stunts zu dem thema wenigstens so klein, dass sie sich weiterhin in dem einen thema hier abspielen und nicht noch aufgesplittet werden müssen.

Knuddelbearli
2014-01-26, 10:06:26
Skysnake natürlich meine ich mit offenen Standard auch ohne herstellerspezifische Extension

HOT
2014-01-26, 11:45:26
Skysnake natürlich meine ich mit offenen Standard auch ohne herstellerspezifische Extension
Ich glaub aber nicht, dass das NV meinte, mit der Aussage, dass man das mit OpenGL auch lösen könnte ;).

Botcruscher
2014-01-26, 11:56:41
Wir lassen uns alle mal überraschen. Ich wünsche mir etwas Herstellerunabhängiges mit Substanz... :D

Demirug
2014-01-26, 12:01:05
Die angesprochenen Extensions sind alle ARB also nicht IHV spezifisch. Hier geht es aber nur indirekt um Overhead. Das ganze ist ein weitere Vortrag aus der Reihe "Batch, Batch Batch".

Dawn on Titan
2014-01-26, 13:22:32
Mantle muss ein Hammer sein, wenn NV bereit ist OpenCl zu pushen und nicht CUDA.

Flusher
2014-01-26, 13:24:03
BF4 Mantle Patch angeblich auf Februar verschoben

https://twitter.com/antal120/status/427045152654249984/photo/1

Ganon
2014-01-26, 14:10:20
Mantle muss ein Hammer sein, wenn NV bereit ist OpenCl zu pushen und nicht CUDA.

OpenGL. Das hat nur indirekt was mit OpenCL zu tun ;)

Locuza
2014-01-26, 14:14:56
BF4 Mantle Patch angeblich auf Februar verschoben

Streichen wir mal das angeblich und freuen uns über das erste Mantle-Game:
Thief. :P

Effe
2014-01-26, 14:33:46
Wenn ob der Probleme bei BF4 sogar ein DLC hinten angestellt wird (potentielle Einnahmen), dann ist Mantle (kostenlos) wohl noch einfacher verschiebbar und spielt nur die zweite Geige.
Insofern, keine Überraschung.

Ich freue mich auch auf Thief, habe noch einen Never Settle Key dafür :).

aufkrawall
2014-01-26, 14:34:27
Was aber nichts daran ändert, dass es diesen Monat den Treiber damit + besseres Framepacing geben sollte.
Paar Tage sind ja noch.

Blediator16
2014-01-26, 14:45:17
Wer nimmt den EA Support denn überhaupt ernst.

Arcanoxer
2014-01-26, 14:59:59
BF4 Mantle Patch angeblich auf Februar verschoben

https://twitter.com/antal120/status/427045152654249984/photo/1
Oh Wunder, noch weiter nach hinten verschoben.
Ich bin ja dafür das der thread wieder ins Spekulationsforum kommt. :freak:

schreiber
2014-01-26, 15:01:10
Streichen wir mal das angeblich und freuen uns über das erste Mantle-Game:
Thief. :P
Ja, also März kanns nicht mehr werden, weil Thief Ende Februar kommt. Immerhin. ^^

N0Thing
2014-01-26, 15:35:59
Ja, also März kanns nicht mehr werden, weil Thief Ende Februar kommt. Immerhin. ^^

Direkt mit Mantle-Support, oder wird es auch da nachgeliefert?

ShadowXX
2014-01-26, 15:37:17
Ja, also März kanns nicht mehr werden, weil Thief Ende Februar kommt. Immerhin. ^^
Wobei allerdings auch keiner gesagt hat das Thief sofort bei Release schon Mantle-Support hat. Kann durchaus sein das der ebenfalls erst nachgereicht w ird....und dann kommt vielleicht doch BF4 als erstes Mantle-Game.

Blediator16
2014-01-26, 15:42:55
Oh Wunder, noch weiter nach hinten verschoben.
Ich bin ja dafür das der thread wieder ins Spekulationsforum kommt. :freak:

Was interessiert dich das eigentlich. Es sollte wohl jeder wissen, dass dir keine AMD Karte ins Haus kommt daher wirst du von Mantle sowieso nichts haben.

Arcanoxer
2014-01-26, 15:58:35
Was interessiert dich das eigentlich. Es sollte wohl jeder wissen, dass dir keine AMD Karte ins Haus kommt daher wirst du von Mantle sowieso nichts haben.
Was hat denn das mir mir zu tun, wenn AMD es nicht auf die Reihe bekommt seine Verkaufsfördernden features fertigzustellen?

Davon abgesehen würde ich auch mal wieder eine AMD GPU verbauen, wenn die Performance unter Linux nicht so unterirdisch sein würde.

Sorry wenn ich mich nicht von Versprechen und Papier Features beeindrucken lasse. :(

fondness
2014-01-26, 16:27:43
Wobei allerdings auch keiner gesagt hat das Thief sofort bei Release schon Mantle-Support hat.

Doch das wurde sogar ausdrücklich gesagt.

N0Thing
2014-01-26, 16:47:39
Prima, dann wird man ja wirklich spätestens in einem Monat ein paar handfeste Daten zu Mantle haben. Bin weiterhin gespannt auf die Ergebnisse abseits von "up to..." Ankündigungen.

aufkrawall
2014-01-26, 16:57:50
Prima, dann wird man ja wirklich spätestens in einem Monat ein paar handfeste Daten zu Mantle haben.
Zu hoffen wäre es. Als garantiert würd ich es auch nicht hinnehmen.

Schnitzl
2014-01-26, 16:59:52
Nun, Thief kann sich ja verschieben :P
Läuft ja mal wieder grandios für AMD...

Schaffe89
2014-01-26, 17:16:54
War auch nicht anders zu erwarten. Alles was AMD anfasst verschiebt sich.
Wenn das weiter so geht, wird der Impact von Mantle recht gering, BF4 ist ja jetzt schon recht alt.
Dass es Februar wird, wurde doch schon mitte Dezember von einem Entwickler gesagt.

dargo
2014-01-26, 17:33:42
Wenn das weiter so geht, wird der Impact von Mantle recht gering, BF4 ist ja jetzt schon recht alt.

Was bitte? BF4 lebt vom MP! Und dadurch wird es auch mindestens bis Winter 2015 am Leben erhalten.

Gaestle
2014-01-26, 19:18:01
Streichen wir mal das angeblich und freuen uns über das erste Mantle-Game:
Thief. :P


Aber wenn man sich die Ingame-Previews ansieht, fällt es mir als Laien schwer, bei Thief die technische Notwendigkeit für Mantle zu erkennen. Mir gefällt es zwar gut, aber so ein besonders außergewöhnlicher Grafikbombast scheint Thief ja nicht zu sein.

Bislang wurden ja nur PS4-Version gezeigt, aber ich erwarte nicht mehr als vielleicht bessere Texturen, mehr AntiAliasing und vielleicht noch Tesselation für die PC-Version. Aber es ist dennoch nach wie vor die UE3.

Mir ist ehrlich gesagt nicht klar, was Mantle da bringen könnte, außer Marketing-Beihilfen.

Knuddelbearli
2014-01-26, 19:33:37
Nur weill es auf einer R9 290X so schon gut läuft ist es unnötig?

Beschränktes Weltbild sag ich da mal 99% der Käufer haben deutlich schwächere GPUs, die merhehit sogar nichtmal überhaupt eine mit R9 Leistung

dargo
2014-01-26, 19:34:16
Mir ist ehrlich gesagt nicht klar, was Mantle da bringen könnte, außer Marketing-Beihilfen.
Mehr Performance? :uconf2:

Warum geht man immer nur vom eigenen potenten System aus? Es soll auch Spieler da draußen geben die nicht jedes Jahr neue Hardware kaufen.

Edit:
Zu langsam... danke Knuddelbearli.

Flusher
2014-01-26, 19:36:14
Was hat denn das mir mir zu tun, wenn AMD es nicht auf die Reihe bekommt seine Verkaufsfördernden features fertigzustellen?

Davon abgesehen würde ich auch mal wieder eine AMD GPU verbauen, wenn die Performance unter Linux nicht so unterirdisch sein würde.

Sorry wenn ich mich nicht von Versprechen und Papier Features beeindrucken lasse. :(

Was kann denn AMD dafür, dass EA Bugfield 4 nicht in den Griff bekommt?

Gaestle
2014-01-26, 19:58:47
Mehr Performance? :uconf2:

Warum geht man immer nur vom eigenen potenten System aus? Es soll auch Spieler da draußen geben die nicht jedes Jahr neue Hardware kaufen.

Edit:
Zu langsam... danke Knuddelbearli.

Zur Info: Mein Sys ist 6 Jahre alt mit 260GTX. Also nix da mit R9 290x oder potentes System.

Ansonsten: THIEF sieht IMHO (bislang) weder vorne noch hinten so aus, als dass es ohne extreme Auflösungen und superhohe AntiAliasing-Level z.B. eine Mittelklasse GraKa überfordern könnte.
BTW: Die R9 290x wurde mit 10 Megapixel in Thief gezeigt (5 Monitore mit je 1080p).

Dazu ist die UE3 (auf der basiert Thief) recht alt. Wie viel wird man wohl als Studio reinvestieren (können), um Mantle auf so einer alten Engine zu realisieren? Was kann damit überhaupt erreicht werden?

So oder so denke ich nicht, dass Mantle in Thief das volle Potential von Mantle zeigen wird bzw. überhaupt zeigen kann. Wenn dann wird Thief wohl eher ein Vorzeigedingens für TrueAudio sein.

Aber ich erwarte eben nicht, dass Thief das Potential von Mantle in Sachen besserer Grafik und/oder besserer Effizienz zeigt.

Mir ist deshalb eben nicht klar, was Mantle da bringen könnte, außer Marketing-Beihilfen.

aufkrawall
2014-01-26, 20:16:25
Auf den Folien gabs was zu Compute zu sehen. Damit kriegt man bestimmt auch die UE3 (modifiziert) dazu, ordentlich was zu verbraten.
Da Mantle ja auf die Vorteile dort von GCN abzielt, könnte das mit D3D schon deutlich teurer sein.

dargo
2014-01-26, 20:16:34
Hast du schon mal die Systemanforderungen von Thief 4 gesehen?
http://www.game-debate.com/games/index.php?g_id=831&game=Thief%202014

Da werden 8 Core/Thread CPUs empfohlen. Er riecht also zumindest auf den ersten Blick nach hoher CPU-Last. Da kommt Mantle wie gerufen. ;)

fondness
2014-01-26, 20:58:44
Also da ist mittlerweile schon ziemlich lächerlich. Wenn die schon nicht fähig sind einem Termin vorauszusagen sollen sie es besser ganz bleiben lassen und es bei "when its done" belassen.

http://imagizer.imageshack.us/v2/xq90/834/r60e.jpg (https://imageshack.com/i/n6r60ej)

Mal sehen was da nächste Woche kommt oder auch nicht. Jedenfalls konnte man den geplanten Termin vergangene Woche wohl wieder nicht halten.

Blediator16
2014-01-26, 21:22:35
Den Screenshot hatten wir schon. EA Support kann man in der Pfeife rauchen. Der ganze Support ist wahrscheinlich nach Indien outsourced mit westlich klingenden Vornamen.

Hayab
2014-01-27, 01:28:40
So langsam befuerchte ich dass Mantle release fuer normal Sterbliche erst mit dem naechsten Hardwarerefresh der 290-er zusammenfallen wird.

Naja zumindest scheint es AMD mit Mantle ernst zu sein, nicht so wie mit OpenCL fuer das es immer noch keine nennenswerte Anwendungen gibt.

N0Thing
2014-01-27, 03:12:31
Den Screenshot hatten wir schon. EA Support kann man in der Pfeife rauchen. Der ganze Support ist wahrscheinlich nach Indien outsourced mit westlich klingenden Vornamen.

Und selbst wenn dem so wäre, viel Zeit bleibt nicht mehr für einen Release im Januar.


So langsam befuerchte ich dass Mantle release fuer normal Sterbliche erst mit dem naechsten Hardwarerefresh der 290-er zusammenfallen wird.


So lange wird es wohl kaum dauern, eine Verzögerung von einem ganzen Jahr wäre mehr als unwahrscheinlich.

Menace
2014-01-27, 06:45:23
Naja zumindest scheint es AMD mit Mantle ernst zu sein, nicht so wie mit OpenCL fuer das es immer noch keine nennenswerte Anwendungen gibt.

Offtopic:

Ich verstehe diese Aussage nicht ganz. Ich nutze, wenn ich mich nicht täusche, zumindest in Capture One Pro 7 und Boinc täglich und stundenweise OpenCl. Ich hoffe, dass zumindest C1 auch HSA Unterstützung bekommt.

Loeschzwerg
2014-01-27, 07:18:30
Hast du schon mal die Systemanforderungen von Thief 4 gesehen?
http://www.game-debate.com/games/index.php?g_id=831&game=Thief%202014

Da werden 8 Core/Thread CPUs empfohlen. Er riecht also zumindest auf den ersten Blick nach hoher CPU-Last. Da kommt Mantle wie gerufen. ;)

Minimalanforderungen bei CPU von Dualcore auf ne 8 Thread CPU... Ergo wird das Spiel auf dem Dualcore absolut unspielbar sein oder wie? In meinen Augen passt da was nicht zusammen und bis jetzt hat Thief nix gezeigt wo wirklich CPU Leistung benötigt werden würde.

Aber schauen wir mal was daraus wird.

dargo
2014-01-27, 08:06:25
Ja... die minimalen Anforderungen klingen etwas seltsam. Wobei... auf diese Anforderungen habe ich noch nie Wert gelegt. Eventuell reicht das gerade so um sich mit 20-30fps in den meisten Szenen durchzuruckeln. Auf der anderen Seite weiß ich auch nicht so recht was der Entwickler da alles eingebaut hat, dass 8 Threads empfohlen werden (wobei der Takt immerhin recht klein ist, die Intel-CPU auch nicht die neueste). Eventuell paar nette Physikspielchen? Wir werden es bald erfahren.

Loeschzwerg
2014-01-27, 08:12:52
Über eine starke AI würde ich mich freuen und da könnte man auch ordentlich CPU Power lassen, aber steht halt im Widerspruch zur Dualcore CPU.

Ich kann mir höchstens vorstellen dass Thief mit 8 threads umgehen kann, bedingt durch PS4/XBone.

fondness
2014-01-27, 08:56:45
Naja zumindest scheint es AMD mit Mantle ernst zu sein, nicht so wie mit OpenCL fuer das es immer noch keine nennenswerte Anwendungen gibt.

Ähm lol, es gibt so einige OpenCL-Anwendungen die auch Dank AMD OpenCL-Unterstützung genießen.

http://imagizer.imageshack.us/v2/1280x1024q90/18/uw3d.jpg (https://imageshack.com/i/0iuw3dj)
http://imagizer.imageshack.us/v2/1280x1024q90/23/bhiw.jpg (https://imageshack.com/i/0nbhiwj)

ShadowXX
2014-01-27, 10:35:04
Doch das wurde sogar ausdrücklich gesagt.
Na dann zeigt mir mal einen Link wo direkt gesagt wird das Thief beim Release 100% Mantle-Support an Board haben wird (nicht TrueAudio, Mantle!).

Über eine starke AI würde ich mich freuen und da könnte man auch ordentlich CPU Power lassen, aber steht halt im Widerspruch zur Dualcore CPU.

Ich kann mir höchstens vorstellen dass Thief mit 8 threads umgehen kann, bedingt durch PS4/XBone.
Genau letzteres. Die Engine ist so ausgelegt das Sie mit 8 Threads umgehen kann....d.h. aber noch lange nicht, dass hochpotenten CPUs auch wirklich vorteile davon haben, oder dann nur gelangweilt rumidlen.

Hübie
2014-01-27, 10:45:06
Im Moment kann ich eher auf deine Prognose pusten denn offensichtlich verstehst du immer noch nicht das Verhalten der Limits in Games. Nicht persönlich nehmen. :) Jemand der eine High-End CPU verwendet hat in der Regel auch eine High-End Grafikkarte (manche sogar zwei davon).

Ein kleines Beispiel zum nachdenken.

So langsam komme ich dahinter ;) Man lernt ja nie aus :tongue:

Du hast eine CPU und Grafikkarte mit je 100% Leistung. Hast eine Szene im Spiel X die stark im CPU-Limit liegt. Inwiefern ändert sich dieses starke CPU-Limit wenn du ein anderes System verwendest bei dem die CPU und Grafikkarte jeweils nur 50% vom ersten System leisten?

Das "Problem" ist ja, dass heutige CPUs und Grafikkarten so heftige Last- und Taktwechsel haben dass du es gar nicht so statisch darstellen kannst. Ich sehe im Marktplatz vom Luxx o.ä. oft Systeme die nicht harmonieren. Ein 6-core-i7 mit einer 7950 oder wie bei mir ein 4-core-i5 mit GTX-770-SLi. Meine CPU läuft oft mit maximalem Takt (4500 MHz bzw. 4800 auf einem Kern). Ich erreiche öfter mal unschöne CPU-Limits.


Sowas wird es nie geben. Man verschiebt die Limits mit Mantle nur für einen Zeitraum X etwas. Sobald damit CPU-Zeit frei wird kann ein Entwickler wieder mehr in Spiele einbauen. Physik zb. ist in Spielen heute immer noch recht simpel gestaltet. Zudem lässt sich die Grafikkartenleistung über Jahre einfacher steigern als CPU-Leistung.

Aktueller content scheint ja mit mantle locker ohne CPU-Limit zu gehen so lang eine halbwegs potente Graka drin ist (>Tahiti). Was in Zukunft ist können wir ja nun fleißig spekulieren. Aber sicher wird man da mehr draus machen wenn das Potenzial da ist. Sonst ists totes Kapital.

Intel konnte bsw. die Pro/Mhz Leistung beim Haswell gegenüber Lynnfield um ca. 33% (in Crysis 3 verglichen) steigern. Die beiden CPUs trennen ca. 4 Jahre. Schau dir an um wieviel % in dieser Zeit die Grafikkartenleistung gesteigert wurde. Um fair zu bleiben kann du auch gerne das ganze taktbereinigt machen. September 2009 war das schnellste eine HD5870 oder GTX285 @Single-GPU.

Fairerweise muss man aber auch dazu sagen dass du die CPUs nicht mehr auf einen Takt festnageln kannst, was bei GPUs (über Umwege) noch geht. EIST kann man einschränken aber nicht mehr abschalten. Die Taktung ist fest im SA integriert. Schalte ich Turbo aus verliere ich ne Menge Leistung (ist also praxisfern).

Von mantle erwarte ich also dass man selbst ein SLi/CFx-Gespann ohne (oder deutlich weniger störende) CPU-Limits permanent auslasten kann. Übrigens ein interessantes Thema: Was ist mit mGPU bei mantle? Wird das out of the box gehen? Wird man als Dev da spezielle Anpassungen machen müssen?


Edit: Ohne jetzt flamen zu wollen: Die Liste der CUDA-Apps ist wesentlich interessanter, da nützlicher: http://www.nvidia.com/content/tesla/pdf/gpu-accelerated-applications-for-hpc.pdf

Das ist jahrelange harte Arbeit u.a. von Mr. Estes, Mr. Millington sowie deren Teams und Kooperationspartner. Da sind Dinge bei wie Tsunami-Warnsysteme und Simulationen auf Basis derer Daten. Auch Hollywood setzt fast ausschließlich darauf.
Bis OpenCL dahin kommt dauert das noch eine ganze Weile und nVidia wird diese Märkte / Kunden nicht kampflos überlassen. Ich denke auch nach wie vor dass eines der größten Probleme bei offenen Lösungen ist, dass alles (zu) lange dauert und niemand da ist der das letzte Wort hat um zu sagen: SO machen wir es.

Gipsel
2014-01-27, 11:00:46
Übrigens ein interessantes Thema: Was ist mit mGPU bei mantle? Wird das out of the box gehen? Wird man als Dev da spezielle Anpassungen machen müssen?Der Entwickler muß es selber implementieren. Potentieller Vorteil: Er kann sich eventuell was Besseres überlegen als AFR, was für einige Sachen doch suboptimal ist, also das Ganze besser auf die Engine anpassen. Nachteil: Vielleicht macht er das nicht und spart den Aufwand für die 0,x% der Kunden, die das nutzen.

Hübie
2014-01-27, 11:11:50
0,03 % von etwa 80 Mio Spielern in Europa sind auch 2.4 Mio 24.000. Deren Hass willst du glaub ich nicht haben :freak:
Aber danke für die Antwort. Noch anschließend: Wie aufwändig ist dass denn eigentlich? Stelle mir das schon recht schwierig vor...

Gipsel
2014-01-27, 11:14:23
0,03 % von etwa 80 Mio Spielern in Europa sind auch 2.4 Mio. Deren Hass willst du glaub ich nicht haben :freak:Das sind nur 24.000 ;).

Noch anschließend: Wie aufwändig ist dass denn eigentlich? Stelle mir das schon recht schwierig vor...Kommt drauf an. Im Prinzip muß das nicht so viel Aufwand sein (für AFR die Drawcalls für aufeinanderfolgende Frames auf verschiedene GPUs schicken, Speicherallozierungen im VRAM auf beiden Karten duplizieren, und am Ende den Transfer des fertigen Frames zur Masterkarte starten). Man muß nur mal drüber nachdenken, wo die Stolpersteine liegen, ob was Anderes eventuell besser wäre (z.B. ein SFR-System, das die Drawcalls für ein Frame auf die verschiedenen GPUs aufteilt und die am Ende zu einem Bild kombiniert und auch besser mit unterschiedlichen GPUs klarkommt; das kann recht kompliziert werden) und das dann implementieren (und testen).

Hübie
2014-01-27, 11:17:50
X-D X-D JETZT hab ich mich aber blamiert! Kann nicht mal calc benutzen. Ich editiers und du sagst es nicht weiter, ja? ;D

btw: ich habs sogar drei mal gerechnet weils mir so komisch vor kam ;D Hahahaa... Humor ist wenn man trotzdem lacht.

y33H@
2014-01-27, 11:31:59
BF4 Mantle Patch angeblich auf Februar verschoben

https://twitter.com/antal120/status/427045152654249984/photo/1Für den Mantle-Patch (und für Star Sworm) braucht es eh den Catalyst, ohne läuft nichts. Kommen soll der im Januar ...

dargo
2014-01-27, 11:32:23
Das "Problem" ist ja, dass heutige CPUs und Grafikkarten so heftige Last- und Taktwechsel haben dass du es gar nicht so statisch darstellen kannst.

Am Desktop sind das Peanuts. Am Beispiel von bsw. einem i5-4570 reden wir beim Turbo von lächerlichen ~6%. Gleiches gilt für das Gebooste bei einigen Grafikkarten. Im Mobilebereich kann es schon etwas anders aussehen. Da sind größere Taktunterschiede sobald alle Cores belastet werden durchaus drin.


Ich sehe im Marktplatz vom Luxx o.ä. oft Systeme die nicht harmonieren. Ein 6-core-i7 mit einer 7950 oder wie bei mir ein 4-core-i5 mit GTX-770-SLi. Meine CPU läuft oft mit maximalem Takt (4500 MHz bzw. 4800 auf einem Kern). Ich erreiche öfter mal unschöne CPU-Limits.

"Weniger gut ausgewogene Systeme" wird es immer wieder geben. Und, dass man mit zwei schnellen GPUs öfter im CPU-Limit landet ist auch völlig normal. Gerade wenn man 60+fps anpeilt und nicht die SSAA Keule schwingt. Limits gibts immer... auch mit 120+fps.

Hübie
2014-01-27, 11:45:59
Ich schwinge sämtliche Keulen die ich nutzen kann :freak: Hast du denn schon mit und ohne Turbo getestet?

dargo
2014-01-27, 11:46:47
Hast du denn schon mit und ohne Turbo getestet?
Was soll ich da testen?

Menace
2014-01-27, 12:11:13
Edit: Ohne jetzt flamen zu wollen: Die Liste der CUDA-Apps ist wesentlich interessanter, da nützlicher: http://www.nvidia.com/content/tesla/pdf/gpu-accelerated-applications-for-hpc.pdf


Doch geflame, da der Nutzen abhängig ist, von den persönlichen Präferenzen. ;)

Nightspider
2014-01-27, 12:29:18
Mal etwas ganz Anderes, was hier glaube überhaupt noch nicht erwähnt wurde.
Einige meinen ja das ein i7 oder aktuelle AMD CPUs mit Mantle hoffnungslos unterfordert sein werden. Allerdings kam noch keiner auf die Idee das DICE auch gleichzeitig GPU Last auf die CPU auslagern kann, zB. für das Postprocessing. Bei der PS3 wurde das doch dauernd gemacht. Warum sollte DICE dann nicht eine Option einbauen, mit der es möglich ist einen gewissen Teil der GPU Last auf die CPU auszulagern? Wenn ich mich nicht irre kann man auch diverse Motion Blurr Effekte, PostAA gut auf die CPU auslagern. Damit könnte man, so stelle ich mir das vor, auch nochmal 10-20% an GPU Leistung herausholen.

Falls etwas dagegen spricht lasse mich gern aufklären aber ich wüsste nicht, warum das nicht sinnvoll wäre.

dargo
2014-01-27, 12:31:14
PCIe könnte dagegen sprechen.

dreas
2014-01-27, 13:12:09
So langsam befuerchte ich dass Mantle release fuer normal Sterbliche erst mit dem naechsten Hardwarerefresh der 290-er zusammenfallen wird.

so wirds wohl werden. der geneigte mantle-user hat auch immer noch die wahl, welcher teil des ganzen für eventuelle abstürze zuständig ist:

client, server, treiber, api?:D

das wird grossartig(y)

Gipsel
2014-01-27, 13:28:34
so wirds wohl werden. der geneigte mantle-user hat auch immer noch die wahl, welcher teil des ganzen für eventuelle abstürze zuständig ist:

client, server, treiber, api?:D

das wird grossartig(y)
Das ist doch Quatsch.
Es gibt keinerlei Grund dafür, auf eine 290er Revision zu warten, vor allem, weil es mit allen GCN-GPUS läuft. DICE hat halt bei BF4 Mist gebaut, shit happens.

Und was die Abstürze angeht, wird es einen ganz klaren Trend geben: Da der Mantle-Treiber selber nicht so viel macht (und was er macht ist straight forward), werden Abstürze zum absolut überwiegenden Teil auf das Konto des Spiels gehen (solange es kein Hardware-Defekt gibt). Und eine API selber kann gar nicht für Crashes verantwortlich sein, das geht per Definition nicht.

Hübie
2014-01-27, 13:34:44
@menace: Wieso sollte ich ein persönliches Interesse an CUDA-Apps haben? :| Das sind viele Sachen die dem Allgemeinwohl dienen und oftmals in Kooperation entwickelt wurden. Das hat nichts mit meinen Präferenzen zu tun. Aber wie immer wird die erbärmliche Pfänboikeule geschwungen statt zu argumentieren.
@nightspider: Warum soll ich etwas fertig gerendertes an die CPU senden, dort prozessieren und anschließend wieder an die GPU zur Ausgabe schicken?

Lightning
2014-01-27, 13:48:15
@nightspider: Warum soll ich etwas fertig gerendertes an die CPU senden, dort prozessieren und anschließend wieder an die GPU zur Ausgabe schicken?

Um mit überschüssiger CPU-Leistung die GPU zu unterstützen, hat er doch erklärt. Bei der PS3 wurde das tatsächlich so gemacht. Da war aber auch das Verhältnis zwischen GPU-/CPU-Leistung ein ganz anderes, ob sich das heute auf dem PC groß lohnen würde, sei also mal dahingestellt.

Hübie
2014-01-27, 14:34:03
Ich wollte damit andeuten dass man lieber etwas weniger Leistung in kauf nimmt als Daten hin und her zu schieben. Kostet Latenz und Energie.

ndrs
2014-01-27, 14:56:01
Oder die Ausgabe erfolgt direkt über die IGP, wenn das Bild eh schonmal bei der CPU ist :D
HUMA und so

Gaestle
2014-01-27, 15:41:36
Hast du schon mal die Systemanforderungen von Thief 4 gesehen?
http://www.game-debate.com/games/index.php?g_id=831&game=Thief%202014

Da werden 8 Core/Thread CPUs empfohlen. Er riecht also zumindest auf den ersten Blick nach hoher CPU-Last. Da kommt Mantle wie gerufen. ;)

Ja, aber nur in mittleren Geschwindigkeitsbereichen (2,8GHz bzw. 2,67GHz). Die GraKas sind ja auch eher Mittelklasse der letzten Generation (GTX 660). Ist doch gut für AMD, wenn eine aktuelle 8-Kern-CPU empfohlen wird, die nur halb so teuer ist, wie das ebenfalls empfohlene Intel-Pendant. Für irgendwas muss die Marketing-Kohle ja geflossen sein.

Wie viele Kerne nutzt denn die UE3 so?

Wir werden sehen. Meine Entwartungen habe ich ja nun kundgegeben.

y33H@
2014-01-27, 16:18:09
Die UE3 gibt's in vielen (modifizierten) Versionen, eine halbwegs aktuelle skaliert auch noch von vier auf sechs Kerne.

Menace
2014-01-27, 16:33:33
@menace: Wieso sollte ich ein persönliches Interesse an CUDA-Apps haben? :| Das sind viele Sachen die dem Allgemeinwohl dienen und oftmals in Kooperation entwickelt wurden. Das hat nichts mit meinen Präferenzen zu tun. Aber wie immer wird die erbärmliche Pfänboikeule geschwungen statt zu argumentieren.

Leider wieder offtopic:

Oder die Fanboykeule der Fanboykeule. Aber ich glaube, wir reden aneinander vorbei. Für das Allgemeinwohl ist das ja völlig ok (und da darf gerne Cuda auch genutzt werden), aber ich bevorzuge freie Auswahl für meine Anwendungen und die gibt es Dank OpenCl für alle für mich wichtigen Anwendungen (und ich arbeite damit); somit bin ich nicht auf einen Hersteller gebunden (auch nvidia kann OpenCl). Meine Präferenzen müssen nicht Deine oder die eines Betriebs sein. Ich persönlich finde die Cuda-Entwicklung gut, weil es z.B. auch AMD zum Handeln zwingt.

aufkrawall
2014-01-27, 17:15:03
Die neue madVR-Version setzt auch auf OpenCL, was auf NV bescheiden läuft.

Blediator16
2014-01-27, 17:19:23
http://www.overclock.net/t/1462472/swe-amd-mantle-for-bf-4-may-be-further-delayed#post_21667053

y33H@
2014-01-27, 17:38:54
Immerhin kommt der Treiber *hrhr*

Demirug
2014-01-27, 18:57:22
Bei Toshiba war heute kurz ein 13.35 Treiber auf der Seite. Wurde jedoch leider wieder entfernt bevor ich zuschlagen konnte. Versuche gerade anderweitig daran zu kommen.

fondness
2014-01-27, 18:58:29
Okay also war der ein Fake von vorhin und alles ist im Plan für einen Januar-Launch von BF4-Mantle?!

Blediator16
2014-01-27, 18:59:57
Von Fake kann man nicht sprechen. Wie schon gesagt dieser "EA Support" ist der EA Supportchat mit inkompetenten Leuten, die von nichts ne ahnung haben.

del_4901
2014-01-27, 19:12:30
Bei Toshiba war heute kurz ein 13.35 Treiber auf der Seite. Wurde jedoch leider wieder entfernt bevor ich zuschlagen konnte. Versuche gerade anderweitig daran zu kommen.
NaNaNaNa, da will wohl einer dll exports einsehen...? Viel Glueck, hrhrhr. ;)

Demirug
2014-01-27, 19:14:16
Okay also war der ein Fake von vorhin und alles ist im Plan für einen Januar-Launch von BF4-Mantle?!

Schwer zu sagen. Ich habe den Treiber noch nicht. Habe bisher nur die Info bekommen das er angeblich vom Dezember ist und auch nur für mobile GPUs. So wie es aussieht bekomme ich in aber noch heute. Ich kann dann jedoch nur schauen ob sich im Vergleich zu den letzten Treiber irgendwas an den enthaltenen Komponenten geändert hat.

NaNaNaNa, da will wohl einer dll exports einsehen...? Viel Glueck, hrhrhr. ;)

Ja, da sind schon im letzten eine Menge lustige HSA Sachen aufgetaucht. Ja, da sind schon im letzten eine Menge lustige HSA Sachen aufgetaucht. Ich gehe eigentlich sogar davon aus das Mantle eine DLL oder LIB ist welche darauf aufsetzte und dann ein Teil des Spiels ist. Wenn ich damit Recht habe wird man im Treiber gar kein Mantle finden.

Ich habe das hier im Thread aber schon mal angedeutet.

RainingBlood
2014-01-27, 19:33:25
Bei Toshiba war heute kurz ein 13.35 Treiber auf der Seite. Wurde jedoch leider wieder entfernt bevor ich zuschlagen konnte. Versuche gerade anderweitig daran zu kommen.

ist jetzt wieder downloadbar.

fondness
2014-01-27, 19:40:46
Schwer zu sagen. Ich habe den Treiber noch nicht. Habe bisher nur die Info bekommen das er angeblich vom Dezember ist und auch nur für mobile GPUs. So wie es aussieht bekomme ich in aber noch heute. Ich kann dann jedoch nur schauen ob sich im Vergleich zu den letzten Treiber irgendwas an den enthaltenen Komponenten geändert hat.


Na dann muss man eben noch bis nächste Woche warten bis der richtige Treiber kommt, ich würde sowieso keine inoffiziellen Treiber von Toshiba installieren wo keine weiß von wo und wann der genau ist.

Demirug
2014-01-27, 19:48:18
Na dann muss man eben noch bis nächste Woche warten bis der richtige Treiber kommt, ich würde sowieso keine inoffiziellen Treiber von Toshiba installieren wo keine weiß von wo und wann der genau ist.

Habe ich gesagt das ich ihn Installiere? Ich schaue mir immer nur an welche Dateien enthalten sind und welche interfaces die DLLs unterstützen.

So wie es ausschaut ist dieser Treiber noch hinter dem 13.30 und eher mit dem letzten WHQL Treiber vergleichbar.

Skysnake
2014-01-27, 20:51:23
Das sind nur 24.000 ;).

Kommt drauf an. Im Prinzip muß das nicht so viel Aufwand sein (für AFR die Drawcalls für aufeinanderfolgende Frames auf verschiedene GPUs schicken, Speicherallozierungen im VRAM auf beiden Karten duplizieren, und am Ende den Transfer des fertigen Frames zur Masterkarte starten). Man muß nur mal drüber nachdenken, wo die Stolpersteine liegen, ob was Anderes eventuell besser wäre (z.B. ein SFR-System, das die Drawcalls für ein Frame auf die verschiedenen GPUs aufteilt und die am Ende zu einem Bild kombiniert und auch besser mit unterschiedlichen GPUs klarkommt; das kann recht kompliziert werden) und das dann implementieren (und testen).
Naja, kommt drauf an. Wenn man eine CU als fundamentale Einheit ansieht, dann könnte der Multi-GPU-Support insbesondere bei assymmetrischen GPUs deutlich einfacher werden.

gedi
2014-01-27, 21:24:42
Habe ich gesagt das ich ihn Installiere? Ich schaue mir immer nur an welche Dateien enthalten sind und welche interfaces die DLLs unterstützen.

So wie es ausschaut ist dieser Treiber noch hinter dem 13.30 und eher mit dem letzten WHQL Treiber vergleichbar.

Der Schein trügt. D3D und OGL sind neuer als beim 13.300 und damit auch neuer als beim 13.12WHQL. Ob es jetzt DER Mantle-Treiber ist - keine Ahnung :)

fondness
2014-01-27, 21:36:33
Nein dich trügt der Schein. :D
Die Dateien sind von Mitte Dezember und damit relativ alt.

gedi
2014-01-27, 21:40:48
Ich verweise einfach auf entsprechenden Thread: http://forums.guru3d.com/showthread.php?t=386049&page=2

Demirug
2014-01-27, 21:50:36
Ich verweise einfach auf entsprechenden Thread: http://forums.guru3d.com/showthread.php?t=386049&page=2

Ich habe beide Driver hier:

Der 13.30 von der AMD Seite wurde am 9.1 gebaut. Der 13.35 von Toshiba am 11.12. Zudem fehlt in dem 13.35 das ganze HSA Zeug was im 13.30 schon drin war.

Gipsel
2014-01-27, 22:01:39
Naja, kommt drauf an. Wenn man eine CU als fundamentale Einheit ansieht, dann könnte der Multi-GPU-Support insbesondere bei assymmetrischen GPUs deutlich einfacher werden.
Nur hat halt nicht jede CU einen eigenen Command-Processor, sondern nur jede GPU. ;)

gedi
2014-01-28, 00:18:12
Ich habe beide Driver hier:

Der 13.30 von der AMD Seite wurde am 9.1 gebaut. Der 13.35 von Toshiba am 11.12. Zudem fehlt in dem 13.35 das ganze HSA Zeug was im 13.30 schon drin war.

Was ja nichts an der Tatsache ändert ...

Ich bin jetzt nicht über die verbaute Hardware in Toshiba-Notebooks informiert, aber vielleicht wurde der Treiber diesbezüglich dementsprechend abgespeckt?

ShadowXX
2014-01-28, 08:46:08
Was ja nichts an der Tatsache ändert ...

Du schnallst es nicht, oder? Der Toshiba Treiber ist älter und hat weniger Features drinne, akzeptiere es.


Ich bin jetzt nicht über die verbaute Hardware in Toshiba-Notebooks informiert, aber vielleicht wurde der Treiber diesbezüglich dementsprechend abgespeckt?
AMD baut sicher keinen extra Treiber für Toshiba-Notebooks....

fondness
2014-01-28, 13:24:05
Okay, sowohl Roy Taylor, Corporate Vice President Global Channel Sales bei AMD, als auch Johan Andersson, Technical Director von Frostbite haben eine erneute Verschiebung für den Mantle BF4-Patch über Twitter dementiert.

Loeschzwerg
2014-01-28, 14:03:24
Noch 3 Tage und paar Std. übrig ^^

Schaffe89
2014-01-28, 14:06:11
Scheint wirklich noch diesen Monat zu kommen...., das kommt jetzt aber unexpected, vielleicht ein Marketinggeniestreich?:freak:

y33H@
2014-01-28, 14:17:56
Für BF4 wurde ein Patch für Ende Januar bzw Anfang Februar angekündigt, evtl am kommenden WE.

grobi
2014-01-28, 14:37:10
Ich hoffe mal die lassen sich nicht bis zum letzten Tag zeit.

novl
2014-01-28, 14:53:20
Okay, sowohl Roy Taylor, Corporate Vice President Global Channel Sales bei AMD, als auch Johan Andersson, Technical Director von Frostbite haben eine erneute Verschiebung für den Mantle BF4-Patch über Twitter dementiert.

Niemand hat die Absicht eine Mauer zu errichten.

ShadowXX
2014-01-28, 15:20:33
Okay, sowohl Roy Taylor, Corporate Vice President Global Channel Sales bei AMD, als auch Johan Andersson, Technical Director von Frostbite haben eine erneute Verschiebung für den Mantle BF4-Patch über Twitter dementiert.
Niemand hat die Absicht eine Mauer zu errichten.
Keiner von uns weiß was für AMD und DICE denn das interne Veröffentlichungsdatum ist...d.h. selbst wenn das ganze erst im März erscheint haben Sie die Wahrheit gesagt wenn Ihre interne Roadmap dies so aufzeigt und dies interne Datum länger nicht geändert wurde.

Die "Wahrheit" kommt immer etwas auf den Standpunkt an....das hat uns schon ObiWan vor langer Zeit gelehrt:biggrin:;)

fondness
2014-01-28, 15:27:50
Andersson wurde zweimal explizit gefragt ob etwas dran ist das der Patch auf Februar verschoben wurde, die Antwort war Nein.

http://imagizer.imageshack.us/v2/xq90/199/9vqm.png (https://imageshack.com/i/5j9vqmp)

Laut Roy Tayler kommt der Patch wie angekündigt, das lässt nicht viel Interpretationsspielraum. Lange ist es eh nicht mehr hin.

Knuddelbearli
2014-01-28, 15:40:50
er wurde eben wegen Februar gefragt ;-) wenn es dann März kommt hat er die Wahrheit gesagt ^^

novl
2014-01-28, 15:44:00
er wurde eben wegen Februar gefragt ;-) wenn es dann März kommt hat er die Wahrheit gesagt ^^

Good point. ;D

Palpatin
2014-01-28, 16:01:19
Er kommt 100% definitiv vor dem 29. Februar :weg:.

N0Thing
2014-01-28, 16:58:12
Scheint wirklich noch diesen Monat zu kommen...., das kommt jetzt aber unexpected, vielleicht ein Marketinggeniestreich?:freak:

Mantle zum Release der R290(x) wäre gutes Marketing gewesen. Erst passend zum Release von BF4 wohl noch besser. Alles was danach gekommen ist und kommen wird ist Schadensbegrenzung.

dargo
2014-01-28, 17:06:34
Mantle zum Release der R290(x) wäre gutes Marketing gewesen.

Inwiefern?

Mantleunterstützung gibts ab sowas:
http://geizhals.at/de/?cat=gra16_512&xf=1440_HD+7730#xf_top

Zudem hätte man zuviel Potenzial auf einmal verschossen. Hawaii konnte ganz gut mit der schnellsten NV-Graka mithalten. Man hat sogar NV dazu gezwungen einen beim Vram abgespeckten GK110, dafür aber schnelleren, nachzuliefern. Und das zum wesentlich günstigeren Preis als Titan. Zudem gabs genug Preissenkungen im restlichen Portfolio. Und das alles ohne Mantle. ;)


Erst passend zum Release von BF4 wohl noch besser.

Da wäre ich mir aus heutiger Sicht gar nicht mal so sicher. Mantle in BF4 wäre unter den ganzen Spielbugs wohl völlig untergegangen.


Alles was danach gekommen ist und kommen wird ist Schadensbegrenzung.
Welche Schadensbegrenzung? :|

Blediator16
2014-01-28, 17:23:15
Die Karten sind in einigen Teilen der Erde ausverkauft. Wahrscheinlich ist da der Schaden enstanden :D

blaidd
2014-01-28, 20:15:34
Hab noch ein paar Infos zum "Film Quality"-Motion Blur in Star Swarm gefunden, da ist tatsächlich eine Art AA mit am Werk:


We’ve probably barely scratched the surface on different things we can try. One of the things we did in the Star Swarm demo, we implemented a film-quality motion blur. There are two reasons for that. One, we were doing a fast-paced game, so we wanted to make sure that when objects were in motion, they felt like they were in motion. For some games, that’s not necessarily appropriate, but for this demo, it made a big difference. The other reason we do that, we also get something called temporal anti-aliasing out of it. That allows us to get a better-quality anti-alias than what you typically see with low levels of MSAA. You get this neat double bonus.

Not only does it reduce the jagged edges, it also reduces the shimmering. You’ll notice, in a lot of games, when there’s a level of complexity in an object, it’ll tend to shimmer. When you try to rasterize a triangle on the screen, you can only pick one pixel. What we do is spread that pixel out a bit. While it may give a slightly softer look, from our view it’s much cleaner. While you may not notice it as much in a first-person game, except for objects that are off in the distance, when you look at something like an RTS, you have tons of stuff on the screen, all at varying frequencies and levels. Part of the reason why we started researching that was because we wanted a cleaner look to strategy and RTS. There’s going to be a lot of impact there in terms of visual quality.

Auch interessant:
One of the things we think is neat is that both AMD and Intel are shipping a GPU alongside their CPUs at the same time now. Part of what I think is going to be interesting for the future is that game developers will start looking at, “Well, if I have a discrete card, and I’ve also got this integrated GPU compute, how can I use both of them at the same time?” That’s going to be interesting. The integrated GPU could become a new math coprocessor or something else. We could run physics simulations. We could run particle fluid simulations. A lot of things could be done with that added chip. It’s going to be an interesting time for gamers.


Quelle (http://9kdps.com/threads/deep-dive-into-star-swarm-demo.3898/)

gedi
2014-01-28, 20:27:14
Du schnallst es nicht, oder? Der Toshiba Treiber ist älter und hat weniger Features drinne, akzeptiere es.


AMD baut sicher keinen extra Treiber für Toshiba-Notebooks....

Halt mal die Füße still. Den Unterton halte ich für nicht angemessen!

Trotzdem bist du im Recht:

straight from Robert Hallock at AMD (Thracks):

"Update: The "Mantle" driver reported by WCCFTech and other websites does not actually contain any libraries for Mantle. As of today, the driver's code is more than 6 weeks old and generates irrelevant performance.

Mantle remains on track for January, and you'll be sure to hear the story straight from us this month."

dargo
2014-01-28, 20:39:52
@blaidd

Lese ich da temporales Antialiasing heraus? Ich hoffe bloß das Gesamtbild wirkt dadurch nicht zu weich. Naja... wir werden sehen wie gut die Augen der Entwickler sind. ;) Zur Not muss etwas Lumasharpen her. :tongue:

aufkrawall
2014-01-28, 20:42:48
...das aber über die Config des Spiels gehen muss. :cool:

dargo
2014-01-28, 20:43:05
Logo... :cool:, Crytek hats auch hinbekommen. :D

blaidd
2014-01-28, 21:12:01
@blaidd

Lese ich da temporales Antialiasing heraus? Ich hoffe bloß das Gesamtbild wirkt dadurch nicht zu weich. Naja... wir werden sehen wie gut die Augen der Entwickler sind. ;) Zur Not muss etwas Lumasharpen her. :tongue:

So wie Kipp das erklärt, klingt das ein wenig wie das "Smudge"-Tool von Photoshop. Aber anscheinend meint er Temporal-AA.

à pros pros: Hab ich im 13.35 "Mantalyst" ;-) gefunden:

(CLI.Aspect.Radeon3D.Graphics.Dashboard.dll)

Mehrmals drüber gestolpert: Temporal-AA?!

Offset Ascii

00247980 Doub
00247990 les.the.effectiv
002479A0 e.anti-aliasing.
002479B0 image.quality.le
002479C0 vel,.by.alternat
002479D0 ing.the.sample.p
002479E0 attern.every.oth
002479F0 er.frame.



Dynamic VSync? Free-Sync?

Offset Ascii

00247720 Impr
00247730 oves.the.frame.r
00247740 ate.of.games.whe
00247750 n.vertical.sync.
00247760 is.enabled.and.t
00247770 he.frame.rate.is
00247780 .less.than.the.r
00247790 efresh.rate

(CLI.Aspect.DeviceProperty.Graphics.Dashboard.Shared.dll)

DOWNSAMPLING???!!

Offset Ascii

0000F040 Using.
0000F050 the.Custom.Resol
0000F060 utions.Feature}{

Offset Ascii

000CBD40 CreatedCustomRes
000CBD50 olutionTooltip.

Offset Ascii

00141EF0 CustomResFea
00141F00 ture.CustomRes_I
00141F10 sEnabled

Offset Ascii

001421D0 CreateNewCustom
001421E0 Res_Command.Remo
001421F0 veCustomRes_Comm
00142200 and.HorizontalRe
00142210 s_.VerticalRes_.
00142220 ResolutionMin_.R
00142230 esolutionMax_.Re
00142240 freshRateMin_.Re
00142250 freshRateMax_.Re
00142260 freshRate_.HTota
00142270 l_.HDisplay_.HFr
00142280 ontPorch_.POLARI
00142290 TY.HPolarity_.HS
001422A0 yncWidth_.VTotal
001422B0 _.VDisplay_.VFro
001422C0 ntPorch_.VPolari
001422D0 ty_.VSyncWidth_.
001422E0 PixelClock_.MODE
001422F0 SCANTYPE.ScanTyp
00142300 e_.TIMINGSTANDAR
00142310 D.TimingStandard
00142320 _.MODESTATE.Mode
00142330 State_.PixelCloc
00142340 kMin_.PixelClock
00142350 Max_.GlobalRefre
00142360 shRate_.IsExpand
00142370 ed_.Recalculate_
00142380 .get_ModeDetails
00142390 .get_HorizontalR
001423A0 es.set_Horizonta
001423B0 lRes.get_Vertica
001423C0 lRes.set_Vertica
001423D0 lRes.get_Resolut
001423E0 ionMin.set_Resol
001423F0 utionMin.get_Res
00142400 olutionMax.set_R
00142410 esolutionMax.get

[...usw...]


Kann das mal jemand mit maximaler Ahnung nachchecken? ;-)

gedi
2014-01-28, 21:17:04
wenn es stimmen würde, dann wäre es der Über-Horny

dargo
2014-01-28, 21:20:36
wenn es stimmen würde, dann wäre es der Über-Horny
Aber gewiss. ;D

Lyka
2014-01-28, 21:23:47
naja, haben ja noch 3 Tage... ich würde mich freuen, wenn der Mantle zeitnah kickt.

Rebell
2014-01-28, 21:34:13
Temporal AA, Dynamic Vsync, Downsampling. So langsam wird´s wieder interessant :) Bitte noch Crossfire verbessern

blaidd
2014-01-28, 21:42:09
Bitte noch Crossfire verbessern

Ein verbessertes Frame Pacing ist doch angeblich schon drin ;) Catalyst 13.35 (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Mantle-und-True-Audio-ab-Catalyst-141-Beta-Treiber-neues-Nitrous-Video-1104642/)

Hab kein mGPU-Setup (mehr), deshalb kann ich's nicht nachprüfen...

samm
2014-01-28, 22:07:19
Reality Check:
Mehrmals drüber gestolpert: Temporal-AA?!

Offset Ascii

00247980 Doub
00247990 les.the.effectiv
002479A0 e.anti-aliasing.
002479B0 image.quality.le
002479C0 vel,.by.alternat
002479D0 ing.the.sample.p
002479E0 attern.every.oth
002479F0 er.frame.
Überbleibsel des alten Temporal AA


Dynamic VSync? Free-Sync?

Offset Ascii

00247720 Impr
00247730 oves.the.frame.r
00247740 ate.of.games.whe
00247750 n.vertical.sync.
00247760 is.enabled.and.t
00247770 he.frame.rate.is
00247780 .less.than.the.r
00247790 efresh.rate

(CLI.Aspect.DeviceProperty.Graphics.Dashboard.Shared.dll)Triple Buffering.

DOWNSAMPLING???!!

Offset Ascii

0000F040 Using.
0000F050 the.Custom.Resol
0000F060 utions.Feature}{

Offset Ascii

000CBD40 CreatedCustomRes
000CBD50 olutionTooltip.

Offset Ascii

00141EF0 CustomResFea
00141F00 ture.CustomRes_I
00141F10 sEnabled

[...usw...]

Die normalen Catalyst Custom Resolutions
Kann das mal jemand mit maximaler Ahnung nachchecken? ;-)Done. Zwar keine maximale Ahnung, aber immerhin - sollte ich mich irgendwo irren, freue ich mich natürlich, aber gerade beim Triple Buffering bin ich 100% sicher, dass es der normale Catalyst-Text zum Open-GL-TB ist.

blaidd
2014-01-28, 22:10:53
Reality Check:Überbleibsel des alten Temporal AA

Triple Buffering.
Die normalen Catalyst Custom Resolutions
Done. Zwar keine maximale Ahnung, aber immerhin.

Crap ;) Hab ich fast schon befürchtet... Aber naja.:rolleyes:

Raff
2014-01-28, 22:30:07
Bitte noch Crossfire verbessern

Bitte nicht noch mehr Ressourcen mit Unfug verschwenden. :naughty:

MfG,
Raff

grobi
2014-01-28, 22:36:24
Ich befürchte der Treiber kommt noch im Januar und BF4 wird noch nicht dafür gepatcht. :freak:

Rebell
2014-01-28, 22:39:59
ah, da weiß jemand dass Mantle MultiGPU überflüssig macht? ;D

blaidd
2014-01-28, 22:57:06
Tatsächlich könnte mGPU mit Mantle überhaupt erst mal wieder richtig funktionieren. :D

Im Moment ist es einfach nur lästig. Fette Single-GPU läuft einfach besser. Als ich mir vor Jahren mit wenig Background-Info eine zweite HD 5870 in den Rechner gepflanzt habe, weil ich gute Erinnerungen an mein seeliges Voodoo-2-SLI-Gespann hatte und ähnliches erwartet habe, hab ich mich ein halbes Jahr geärgert und dann eine HD 7970 gekauft. :rolleyes:

mGPU kommt mir nach jetzigem Stand nur in Form einer zusätzlichen PhysX-Sklavin ins Gehäuse ;)

Mal sehen, ob die Entwickler neben dem Extra-Aufwand für Mantle (der sich wohl in Grenzen hält) auch noch für mehrere Grafikkarten optimieren wollen. Meine Einschätzung: Erst wenn (falls) Mantle ein halbwegs ordentlicher Erfolg wird.

Dann könnte man sich das auch wirklich noch mal überlegen. Oder die iGPU zusätzlich nutzen. Siehe das Zitat von Kipp (Oxide Games), dass ich vorhin gepostet hatte.


One of the things we think is neat is that both AMD and Intel are shipping a GPU alongside their CPUs at the same time now. Part of what I think is going to be interesting for the future is that game developers will start looking at, “Well, if I have a discrete card, and I’ve also got this integrated GPU compute, how can I use both of them at the same time?” That’s going to be interesting. The integrated GPU could become a new math coprocessor or something else. We could run physics simulations. We could run particle fluid simulations. A lot of things could be done with that added chip. It’s going to be an interesting time for gamers.

gedi
2014-01-28, 23:05:19
Och, CFX funktioniert eigentlich mittlerweile recht problemlos. Da hat sich treiberseitig doch sehr viel getan.

Zwecks dem Zitat: Funktioniert die Berechnung für Physik usw. nur ausschließlich auf AMD iGPUs oder würde dies auch mit einer Intel HDxxxx funktionieren? Dies geht aus dem Zitat so gar nicht hervor.

blaidd
2014-01-28, 23:42:37
Naja, die letzten paar Mal, als ich es ausprobiert habe (letztes mal am Samstag) war es noch nicht so überzeugend. Das gibt aber auch für Nvidias...

Das sollte meines Erachtens auch auf einer iGPU von Intel funktionieren. Eventuell wären dann aber Anpassungen nötig. Mir wär's jedenfalls recht, meine PhysX-Fermi wird heißer als meine dGPU :freak:

gedi
2014-01-28, 23:53:34
Humm. Ich erwarte diesbezüglich aber böses. Das klingt für mich sehr nach Enduro-Desaster, wodurch ich mich genötigt fühlte von einem Schenker-NB auf ein Alienware umzusatteln. Die Bildausgabe wird dann wohl über die entsprechenden Anschlüsse des Mobos realisiert?!

Aus Erfahrung behaupte ich: Das kann nicht gutgehen ...

fondness
2014-01-29, 08:26:08
Das hat überhaupt nichts mit Enduro zu tun. Die CPU berechnet jetzt auch schon die Physik, der einzige Unterschied wäre das man dafür die effizientere iGPU nutzt und damit die CPU entlastet.

Noch ein neues Video zur Starswarm-Demo:

1pApUuT3NcI

Gaestle
2014-01-29, 09:04:10
Die CPU berechnet jetzt auch schon die Physik, der einzige Unterschied wäre das man dafür die effizientere iGPU nutzt und damit die CPU entlastet.


Zumal die iGPU derzeit komplett brachliegen könnte, wenn in Games eine separate Grafikkarte genutzt wird.

Über OpenCL könnte man das sicher auch IHV-übergreifend machen, also sowohl für AMD als auch für Intel.

Ich mag die Idee auch. Zu irgendwas sollte die iGPU ja genutzt werden, wenn ich sie schon mit der CPU mitgekauft habe. Ich fände es außerdem gut, wenn die nun inzwischen ein paar Jahre alten Pläne/Ideen weiter realisiert würden, dass der 2D-Desktop auch immer auf der iGPU laufen würde und die GraKa dann kommplett ausgeschaltet wäre.

Hat aber nix mit Mantle zu tun.

dargo
2014-01-29, 10:35:21
Zwecks dem Zitat: Funktioniert die Berechnung für Physik usw. nur ausschließlich auf AMD iGPUs oder würde dies auch mit einer Intel HDxxxx funktionieren? Dies geht aus dem Zitat so gar nicht hervor.
Ich denke schon. HSA gibts erst mit Kaveri. Zumindest wäre es wohl erst mit HSA sinnvoll denke ich (Vorsicht Halbwissen).

Flusher
2014-01-29, 10:59:07
Zumal die iGPU derzeit komplett brachliegen könnte, wenn in Games eine separate Grafikkarte genutzt wird.

Über OpenCL könnte man das sicher auch IHV-übergreifend machen, also sowohl für AMD als auch für Intel.

Ich mag die Idee auch. Zu irgendwas sollte die iGPU ja genutzt werden, wenn ich sie schon mit der CPU mitgekauft habe. Ich fände es außerdem gut, wenn die nun inzwischen ein paar Jahre alten Pläne/Ideen weiter realisiert würden, dass der 2D-Desktop auch immer auf der iGPU laufen würde und die GraKa dann kommplett ausgeschaltet wäre.

Hat aber nix mit Mantle zu tun.

Was soll das bringen? Selbst HighEnd dGPUs verbrauchen im Idle mittlerweile weit unter 20 W. Das Einsparungspotential ist dort eher gering.

mustrum
2014-01-29, 11:06:32
Och, CFX funktioniert eigentlich mittlerweile recht problemlos. Da hat sich treiberseitig doch sehr viel getan.

Zwecks dem Zitat: Funktioniert die Berechnung für Physik usw. nur ausschließlich auf AMD iGPUs oder würde dies auch mit einer Intel HDxxxx funktionieren? Dies geht aus dem Zitat so gar nicht hervor.

Hängt davon ab was man spielt. Wer die 0815 COD Blockbuster spielt wird sich über gutte Xfireperformance freuen können.

Wer gerne MMO's oder Indiegames zockt hat praktisch keinen Support.

Da ich mit 5920x1080er Auflösung zocke wäre Xfire manchmal eine tolle Sache, nur gehts immer dann wenn mans braucht nicht. Deshalb muss bei mir immer eine Topend Single GPU her.

Bei meinem letzten multiGPU Versuch hat mir vor allem wegen mangelhaftem Framepacing die Freude genommen. 80 FPS sind sinnlos wenn es ruckelt wie 20 FPS.

Knuddelbearli
2014-01-29, 11:32:24
Was soll das bringen? Selbst HighEnd dGPUs verbrauchen im Idle mittlerweile weit unter 20 W. Das Einsparungspotential ist dort eher gering.


20W sind dann mal eben eine Verdreifachung bei einem abgestimmten System mit Kaveri oder Haswell.

und 20W * 5 STd * 300 Tage * 0,35€/1000 sind trotzdem mal eben 11€ die für nichts verschwendet werden. Bei last hat man zumindest einen Gegenwert dafür

Botcruscher
2014-01-29, 12:05:59
Zumal die Karten ja nicht im Idle bei 20W bleiben. Das können auch gut mal 70 sein. Huhu AMD.:uwave:

Flusher
2014-01-29, 14:12:33
20W sind dann mal eben eine Verdreifachung bei einem abgestimmten System mit Kaveri oder Haswell.

und 20W * 5 STd * 300 Tage * 0,35€/1000 sind trotzdem mal eben 11€ die für nichts verschwendet werden. Bei last hat man zumindest einen Gegenwert dafür

a) Milchmädchenrechnung
b) ich sagte "weit unter 20W" - eine Titan verbraucht im Idle rund 11W
c) In der Regel haben die Leute keine Titan im PC stecken sondern eher was vom Schlage 7770 oder 650 TI.
d) eine iGPU läuft auch nicht von Luft und Liebe - ihre 5 W wird auch sie fressen

Zumal die Karten ja nicht im Idle bei 20W bleiben. Das können auch gut mal 70 sein. Huhu AMD.

Nur weil AMD es nicht auf die Reihe bekommt die Powerstates richtig skalieren zu lassen, muss man das nicht auf die Allgemeinheit beziehen.


Bestenfalls kann man also mit der Nutzung der iGPU also rund 5 W im Idle einsparen. Das lohnt sich sowohl von den nötigen Hardware-Modifikation, als auch von den Software-Änderungen her nicht.

Knuddelbearli
2014-01-29, 15:33:45
Wieso huhu AMD? Wo ist da NV besser?

dazu noch Multimonitor wo spätestens bei 3 Monitoren die Karten beider IHVs über 50W sind

Flusher
2014-01-29, 15:38:11
Wieso huhu AMD? Wo ist da NV besser?

dazu noch Multimonitor wo spätestens bei 3 Monitoren die Karten beider IHVs über 50W sind

Hat das eigentlich mal jemand nachgemessen wie das bei den APUs aussieht?

Knuddelbearli
2014-01-29, 15:40:12
a) Milchmädchenrechnung
nö sogar sehr freundlich gerechnet gibt genug Leute wo es deutlich merh als 5 Std sind, hier im Forum werden es aber bei nur sehr wenigen weniger als 5 Std sein.


b) ich sagte "weit unter 20W" - eine Titan verbraucht im Idle rund 11W


Energie für nix verschwendet bleibt verschwendet Geldersparniss ist ja nur Bonus


c) In der Regel haben die Leute keine Titan im PC stecken sondern eher was vom Schlage 7770 oder 650 TI.


siehe Antwort dafür + soviel weniger brauchen kleine Grafikkarten im idle auch nicht.


d) eine iGPU läuft auch nicht von Luft und Liebe - ihre 5 W wird auch sie fressen


Das sind eher 1-2W
Eine 7770 braucht bei HT4U 9W
Eine 7750 eher noch weniger
ein Kaveri mit 7750 bei CB benötigt 7W mehr




Bestenfalls kann man also mit der Nutzung der iGPU also rund 5 W im Idle einsparen. Das lohnt sich sowohl von den nötigen Hardware-Modifikation, als auch von den Software-Änderungen her nicht.

Wie gesagt das sind eher 1-2W, und es hat auch sonst einige Vorteile. Keine Probleme mit Lüfterlautstärke im idle zB. und man muss sich vor dem kauf schonmal um 1 Sache weniger kümmern.

gedi
2014-01-29, 18:15:15
Der Mantalyst kommt laut Twitter entweder am 30. oder 31.1

dargo
2014-01-29, 18:33:45
Hört sich gut an. =) Wann sollte nochmal diese Star Swarm-Demo kommen?

Locuza
2014-01-29, 18:35:12
Januar...
Und welcher Twitter-Kanal hat das gesagt?

fondness
2014-01-29, 18:51:04
Terry Makedon ‏aka CatalystMaker. Ob sich das alles noch im Januar ausgeht^^
Von der Starswarm-Demo heißt es offiziell nur Q1, aber Entwickler haben den Januar angekündigt mal sehen.

Simon
2014-01-29, 19:02:52
Der Mantalyst kommt laut Twitter entweder am 30. oder 31.1
In welcher Zeitzone? :biggrin:

StefanV
2014-01-30, 00:48:57
Vermutlich PST...