PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mantle - AMD Low-Level-API als Alternative zu DirectX


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

Locuza
2013-12-13, 18:19:33
@ Arcanoxer

Los definiere mal Vaporware und so und wo AMD die Kriterien erfüllt und so?!

grobi
2013-12-13, 18:20:20
Vapoware und so?!
Sie versprechen ein das blaue vom Himmel, nur damit sich ihre GPU's besser verkaufen.

Fakten? Fehlanzeige!


Was haben sie denn behauptet?
Du solltest das vielleicht mal nicht überdramatisieren.

aufkrawall
2013-12-13, 18:20:54
Sollte Mantle nicht ursprüglich Anfang/Mitte Dezember kommen?

Knuddelbearli
2013-12-13, 18:24:51
Also ich wüsste jetzt nicht das überhaupt ein Datum / Monat genannt wurde außer das BF4 das erste Spiel ist.

Und so verbuggt wie da mom noch die Dx Version ist sollte man eh auf min 1 weiteres Spiel warten bevor man sich eine Meinung bildet

Locuza
2013-12-13, 18:25:24
Bei der 290X Vorstellung hieß es nur Dezember bei BF4.
Bei der Developer Summit dann etwas konkreter, late december.

Zwischendurch hat Johan Hoffnung gemacht, indem er gesagt hat das Mantle sogar im November erscheint.

oids
2013-12-13, 18:26:11
Die Rede war von Ende Dezember

Arcanoxer
2013-12-13, 18:31:36
@ Arcanoxer

Los definiere mal Vaporware und so und wo AMD die Kriterien erfüllt und so?!
"Los" gehe ich gleich, weil heute Freitag ist und ich was besseres zu tun habe. ;)

Ich bin aber mal nicht so: http://de.wikipedia.org/wiki/Vaporware

Der Begriff vapor kommt aus dem Englischen und bedeutet „Dampf“. Deutsche Umschreibungen sind „nichts als heiße Luft“ oder „viel Lärm um nichts“.

Locuza
2013-12-13, 18:35:07
Und was hängt noch mit der Definition zusammen?
Warum denn heiße Luft und Lärm um nichts?
Weil der Release ständig verschoben wird oder gar nie über die Bühne geht.

Und was verspricht AMD denn?
Sie versprechen das Ende Dezember ein BF4 Patch kommt (Wo ich aufgrund des Bug Festivals vom Spiel und AMDs Händchen selber nicht sicher bin, ob der Termin gehalten werden kann) und das die Titan gegenüber der 290(X), dank Mantle bei BF4 lächerlich aussehen wird.

Und was davon ist nicht eingetroffen?
Ah richtig, der verdammte Termin um das ganze als Vaporware zu bezeichnen oder die Ergebnisse als enttäuschend abzustempeln ist noch NICHT vorüber.

maximus_hertus
2013-12-13, 18:36:50
"Los" gehe ich gleich, weil heute Freitag ist und ich was besseres zu tun habe. ;)

Ich bin aber mal nicht so: http://de.wikipedia.org/wiki/Vaporware

Der Begriff vapor kommt aus dem Englischen und bedeutet „Dampf“. Deutsche Umschreibungen sind „nichts als heiße Luft“ oder „viel Lärm um nichts“.

Was ist mit PhysX? Vaporware?
Steam Machines / OS? Vaporware?
G-Sync? Vaporware?

Black-Scorpion
2013-12-13, 20:29:49
"Los" gehe ich gleich, weil heute Freitag ist und ich was besseres zu tun habe. ;)

Ich bin aber mal nicht so: http://de.wikipedia.org/wiki/Vaporware

Der Begriff vapor kommt aus dem Englischen und bedeutet „Dampf“. Deutsche Umschreibungen sind „nichts als heiße Luft“ oder „viel Lärm um nichts“.
Also auf deutsch nichts anderes wie deine Beiträge auf der Seite?
Heiße Luft und nichts dahinter.

dargo
2013-12-13, 20:37:52
Ich finde diese Ungeduld mancher hier langsam krankhaft. Und seltsamerweise sind es eher User bei denen der Biasmeter eher Richtung NV ausschlägt. :freak:

samm
2013-12-13, 20:46:54
Die unerklärliche Ungeduld gibt es auch auf AMD-Fanatiker-Seite, siehe horn's Grafikkarten-Kauf-/Nichtkauf-/AMD-Hassliebe.

Was mich als interessierten Grafikprogrammierung-Laien und potentiellen "Betroffenen" der kommenden Mantle-Implementationen mehr stört, ist, dass es hier das Technologieforum ist, und es in den letzten Seiten so ungefähr gar nicht über Technologie geht, sondern Spekulation und Bashing/Konter. Wenn es wenigstens konkrete technologische Abwägungen wären, siehe sebbbi und Lauritzen auf b3d, aber so ist das Lesen dieses Threads hier einfach nur nervig.

kruemelmonster
2013-12-13, 21:01:54
Was ist mit PhysX? Vaporware?
Steam Machines / OS? Vaporware?
G-Sync? Vaporware?

Nein, nein und nein.

PhysX ist seit Jahren auf dem Markt, die ersten Steam Machines werden ausgeliefert und G-Sync darf zumindest schonmal unabhängig beäugt werden.

Allgemein ist der Begriff Vaporware im Zusammenhang mit Mantle schon Quark. Der Duke hat lange Zeit zu Recht den Titel Vaporware getragen da er angekündigt wurde aber ewig und 3 Tage nicht erschienen ist; er ist quasi DIE Definition von Vaporware.

Mantle wurde für Dezember angekündigt, und solange ich noch nicht mit dem Neujahrskater zu tun hab liegt noch alles im Zeitplan.

gnahr
2013-12-13, 21:31:12
naja, eigentlich wurde mantle nicht "angekündigt", sondern "versprochen". :P

M4xw0lf
2013-12-13, 21:36:05
Oh gnahr ist hier. Spätestens jetzt ist es Zeit um mal ordentlich durchzuwischen durch die letzten Seiten.

Iruwen
2013-12-15, 16:29:48
Selbst wenn der BF4 Mantle Patch doch nicht mehr im Dezember kommen sollte ist es wohl im Interesse aller wenn das Spiel erstmal generell stabil läuft bevor man sich über sowas Gedanken macht.

Air Force One
2013-12-15, 19:27:42
Ich erwarte von Mantle erst mal nicht viel.
Ich hoffe erst das es evtl. eine brauchbare Alternative zu DX wird oder zumindest mehr für CF taugt. Nutze ich zwar nicht, aber das sind so meine Erwartungen.
Mehr Leistung ~10% wäre schon "nett".
Auf einen Käulenschlag ins Gesicht mit über 30% mehr an Performance wäre natürlich Hammer, aber seit der Bulldozer geschichte, muss man bei AMD so etwas mit Vorsicht aufnehmen.

Blediator16
2013-12-15, 19:56:33
Ich erwarte von Mantle erst mal nicht viel.
Ich hoffe erst das es evtl. eine brauchbare Alternative zu DX wird oder zumindest mehr für CF taugt. Nutze ich zwar nicht, aber das sind so meine Erwartungen.
Mehr Leistung ~10% wäre schon "nett".
Auf einen Käulenschlag ins Gesicht mit über 30% mehr an Performance wäre natürlich Hammer, aber seit der Bulldozer geschichte, muss man bei AMD so etwas mit Vorsicht aufnehmen.

Dann müsste man bei so einigen Firmen im IT Bereicht nichts mehr geben auf ihre Versprechen.

BlacKi
2013-12-15, 20:30:15
Ich finde diese Ungeduld mancher hier langsam krankhaft. Und seltsamerweise sind es eher User bei denen der Biasmeter eher Richtung NV ausschlägt. :freak:

es kommt halt einfach nix, nichtmal ne info das der termin gehalten oder nicht gehalten werden kann.

es wächst solangsam bei mir der verdacht das man gras über die sache wachsen lassen will... auch wenn ich nvidia user bin wünsche ich mir schon das mantle rauskommt, einfach deshalb weil die sache eben doch interessant ist.

BlacKi
2013-12-15, 20:32:50
Selbst wenn der BF4 Mantle Patch doch nicht mehr im Dezember kommen sollte ist es wohl im Interesse aller wenn das Spiel erstmal generell stabil läuft bevor man sich über sowas Gedanken macht.

ja, schon richtig, aber es sind nunmal nicht dieselben entwickler die sich um mantle und bf4 kümmern. sollen die leute die sich um mantle kümmern nur däumchen drehen???

Hübie
2013-12-16, 00:37:59
Ich finde diese Ungeduld mancher hier langsam krankhaft. Und seltsamerweise sind es eher User bei denen der Biasmeter eher Richtung NV ausschlägt. :freak:

Ja weil "wir" Angst haben dass "ihr" dann besser seid:rolleyes: Realität ist dass was du in deinem Kopf zurecht legst...

Blediator16
2013-12-16, 00:59:07
Ja weil "wir" Angst haben dass "ihr" dann besser seid:rolleyes: Realität ist dass was du in deinem Kopf zurecht legst...

Dennoch muss man sich fragen wieso sich im speziellen Leute ständig negativ zu Wort melden, die von Mantle direkt nichts haben, weil sie einfach keine AMD Karte ihr eigen nennen :P

aufkrawall
2013-12-16, 01:11:22
Und andersrum wird ein Schuh draus.

Cubitus
2013-12-16, 02:02:11
Dennoch muss man sich fragen wieso sich im speziellen Leute ständig negativ zu Wort melden, die von Mantle direkt nichts haben, weil sie einfach keine AMD Karte ihr eigen nennen :P

Ja wir wollen einfach überzeugt werden! :D

Und AMDS Ankündigung ist bis jetzt eine Art Papier-Tiger.
Nur das diesmal zuerst angekündigt wurde und das Papier später gedruckt wird. Und der reale Tiger muss erst wohl noch gezeugt werden.. ;D

Hübie
2013-12-16, 02:04:42
Dennoch muss man sich fragen wieso sich im speziellen Leute ständig negativ zu Wort melden, die von Mantle direkt nichts haben, weil sie einfach keine AMD Karte ihr eigen nennen :P

Damit wir bashen können: "Ätschie Bätschie, AMD bekommt gar nix hin Luzers! nVidea Rulez mit ihren Uber-PhysX was sofort lief und CUDA nicht MAntle Man!!!11" :rolleyes:

Schon mal daran gedacht dass es für potenzielle Käufer ein Argument wäre zu wechseln? :P

Coda
2013-12-16, 02:24:14
Mantle existiert nicht nur auf dem Papier. DICE hat wohl gerade nur andere Probleme.

Hübie
2013-12-16, 04:24:45
Na das kannst du laut sagen! Der Teufel steckt eben oft im Detail...

Und "hier draussen" existiert es nur auf Papier. Gibt ja nicht mal einen breiten Beta-Test, was entweder bedeutet das Ding läuft oder man hat keine Resourcen dafür frei.

Flusher
2013-12-16, 10:08:58
Wieso beklagt ihr euch eigentlich die ganze Zeit über AMD? Dice ist doch Entwickler von BF4 - AMD stellt nur die Technologie und den Support zur verfügung. Afaik hat Dice aktuell alle Hände voll zu tun mit Bugfixing von BF4 - wenn dadurch der Mantle-Patch sich verspätet, kann AMD beim besten Willen nichts dafür.

Iruwen
2013-12-16, 10:35:23
ja, schon richtig, aber es sind nunmal nicht dieselben entwickler die sich um mantle und bf4 kümmern. sollen die leute die sich um mantle kümmern nur däumchen drehen???
Hab ich das gesagt? Außerdem, auch wenn Frostbite mittlerweile von einem anderen Department bei EA entwickelt wird ist Andersson/DICE offenbar direkt an Mantle beteiligt, und diejenigen die die Bugs fixen die zu den Abstürzen führen werden auch diejenigen sein die am Mantle Patch arbeiten, so viele Entwickler die am Programmkern arbeiten gibts halt nicht. Zumal DICE parallel auch noch an anderen Projekten arbeitet die laut EA nicht auf hold gesetzt wurden.

/e: http://www.gamespot.com/articles/will-ea-release-a-new-battlefield-game-in-2014/1100-6416590/
Müsste man Pachter ernstnehmen oder ist der der Peter Zwegat der Analysten und will einfach nur ins Fernsehen? Der Name taucht ständig irgendwo auf. Will EA auch das noch von CoD kopieren und abwechselnd Teams mit BF beauftragen? I.e. jedes zweite BF wird scheiße?

Demirug
2013-12-16, 12:10:22
Hab ich das gesagt? Außerdem, auch wenn Frostbite mittlerweile von einem anderen Department bei EA entwickelt wird ist Andersson/DICE offenbar direkt an Mantle beteiligt, und diejenigen die die Bugs fixen die zu den Abstürzen führen werden auch diejenigen sein die am Mantle Patch arbeiten, so viele Entwickler die am Programmkern arbeiten gibts halt nicht. Zumal DICE parallel auch noch an anderen Projekten arbeitet die laut EA nicht auf hold gesetzt wurden.

Frostbite wird nach wie vor von DICE entwickelt. Der Unterschied ist nur das die Entwickler vorher Teil des BF Teams waren und nun ein eigenes Team sind.

ShadowXX
2013-12-16, 13:18:17
Ja wir wollen einfach überzeugt werden! :D

Nicht nur die nV User wollen überzeugt werden, sondern auch die ATI-User.....und da sehe ich wirklich das ATI/AMDs PR zwar super angefangen hat (Mantle-Ankündigung + Folien), aber dann extremst nachgelassen hat (nur die Ankündigung des BF4 Patches, der vielleicht noch dieses Jahr kommt).

Um die Leute mit sowas abzuholen, hätteen Sie auch gleich zumindest eine Demo von irgendwas haben müssen was die überlegenheit Mantles gegenüber DX demonstriert....+ eine frei verfügbare Audio-Demo (zum selbstausführen auf dem PC)....dass würde dann vielleicht auch reine "bis jetzt"-nV Käufer dazu bringen mal über ne ATI nachzudenken.

Das jetzt bekräftigt momentan eher alle die ATI/AMD abschätzig gegenüber stehen.

nV lacht sich doch momentan ganze Bäume und nicht nur Äste ab....


Und AMDS Ankündigung ist bis jetzt eine Art Papier-Tiger.
Nur das diesmal zuerst angekündigt wurde und das Papier später gedruckt wird. Und der reale Tiger muss erst wohl noch gezeugt werden.. ;D
Das trifft es ganz gut....

Hübie
2013-12-16, 14:05:25
Full ack, ShadowXX. Demos wären wirklich ein gewichtiges Argument.

Locuza
2013-12-16, 14:07:54
@ Demirug

Johan sieht das Team eig. nicht mehr als DICE an:

https://twitter.com/repi/status/410451568740139009

fondness
2013-12-16, 14:41:03
Full ack, ShadowXX. Demos wären wirklich ein gewichtiges Argument.

Und was sollen Demos machen? Mantle ist eine API und kein Feature.
Mantle bringt das was der Entwickler daraus macht, deshalb gibt es da auch keine Demos.
Eine Demo mit den Drawcalls wurde im übrigen bereits demonstriert.
Sobald das erste Spiel mit Mantle erscheint wird man sehen was Mantel in diesem Spiel, und zwar nur in diesem Spiel bringt.
Mantle war von Anfang an nicht vor Dezember geplant. Und selbst wenn es sich etwas verspätet weil DICE andere Sorgen hat wäre das kein Beibruch - außer vielleicht für NV-Fans. :rolleyes:

dargo
2013-12-16, 14:48:29
@fondness

Ein kleiner Tipp... hör auf die üblichen Verdächtigen zu füttern, die raffen es immer noch nicht. ;) Oder trollen aus Langerweile. :freak:

Demirug
2013-12-16, 15:05:53
@ Demirug

Johan sieht das Team eig. nicht mehr als DICE an:

https://twitter.com/repi/status/410451568740139009

Ist eine reine Definitionsfrage. Die Aussage von Anderson ist hier so zu verstehen das "DICE" für die Spiele und sie für die Engine zuständig sind. Im Gegensatz zu früher wo beide Teams noch etwas stärker durchmischt waren. Was aber nichts daran ändert das alle die an Frostbite in Schweden arbeiten nach wie vor bei DICE angestellt sind.

Das ist an den anderen Standorten aber ähnlich gelösst.

Iruwen
2013-12-16, 15:10:16
Frostbite wird nach wie vor von DICE entwickelt. Der Unterschied ist nur das die Entwickler vorher Teil des BF Teams waren und nun ein eigenes Team sind.
Das klingt aber nicht so.
https://twitter.com/bionicbeagle/status/400885252932911104

/e: plus das was Locuza sagt. Das sind schon sehr explizite Aussagen, da gibts nicht viel zu definieren.

gnahr
2013-12-16, 16:02:36
Und was sollen Demos machen? Mantle ist eine API und kein Feature.
Mantle bringt das was der Entwickler daraus macht, deshalb gibt es da auch keine Demos.
und warum kann man dann sich auf sachen festnageln "drawcalls over 9000!!!" ohne überhaupt was auf den tisch zu klopfen?
wollen wir in zukunft mehr verkaufsargumente wie "wir glauben dass wir nächstes jahr per patch die leistung steigern wollen."? bei der boost-thematik wird immer wild rumgeprangert und wenn hier der hersteller alles kräftig in den skat-drückt ist das auf einmal das problem der kunden...

ShadowXX
2013-12-16, 16:07:37
Und was sollen Demos machen? Mantle ist eine API und kein Feature.

DX11 oder DX10 waren auch nur APIs....trotzdem haben nV und ATI Demos dafür rausgehauen. Selbst von Dingen die vorher schon möglich waren, nur eben nicht so schnell oder effizient.


Mantle bringt das was der Entwickler daraus macht, deshalb gibt es da auch keine Demos.

Genau...und deshalb wäre eine Demo von etwas was mit DX nicht möglich wäre...bzw. nur viel langsamer oder weniger detailliert....eine tolle Sache für das Marketing von ATI/AMD.


Eine Demo mit den Drawcalls wurde im übrigen bereits demonstriert.

Ja...ohne Live-Feed...davon abgesehen das der da alles vorführen könnte, kann sowieso keiner prüfen. Das ist wie mit der Lichdom Demo auf Youtube (die nebenbei nichts darüber aussagt wie es sich denn auf den ATI-Karten anhören wird).
Damit die Leute zum kaufen animiert werden muss man sowas zuhause auf seinem Rechner ausführen können. Live!

außer vielleicht für NV-Fans. :rolleyes:
Jetzt hört endlich mal mit dem Schwachsinnigen nV vs. ATI auf....ich hab seit Jahren ATI-Karten in meinem System.

Radeonfreak
2013-12-16, 16:17:11
Man könnte je eventuell eine Demo zeigen wo man umschalten kann. Szene mit DX und das selbe dann mit Mantle.:uponder:

Als Vergleich.

maximus_hertus
2013-12-16, 16:26:39
Und das bringt was? Erst unabhängige Tests sind relevant, alles andere ist nur Marketing Geblubber. Und so "ärgerlich" es auch ist, Mantle wurde für den Dezember in Aussicht gestellt (in Form eines BF4 Patches).

Noch haben sie 2 Wochen, in denen sie "on Track" sind.

Mantle wird das ein oder andere Game ein Stück beschleunigen und gut ist. Ob es nun eine Demo gibt oder nicht spielt doch für die Performance der Mantle Games @ 2014 keine Rolle....

Abgesehen davon sind die R9 290(X) Karten sowieso erst ab Januar zu kaufen (also Custom Design, Referenz geht gar nicht, es sei denn man packt sofort einen Wasserkühler drauf).

Und bis die Karte da sind, gibts erste Mantle Benches ;)

gnahr
2013-12-16, 16:42:59
Ob es nun eine Demo gibt oder nicht spielt doch für die Performance der Mantle Games @ 2014 keine Rolle....
doch, es zeigt ja wie leicht oder eben auch nicht die portierung ist. wenn es sau schwer ist (was ja angedeutet wurde mit "ist nicht für jeden" und der langen wartezeit) verliert es an gewicht, weil es eben nur für gekaufte prestigeprojekte taugt. siehe bf4 was ja maßstäbe im verkacken gerade setzt.
das heißt auch in zukunft bekommst du das "feature" nur an ausgewählten stellen. begehrte überraschungstitel (wie etwa metro damals) scheiden aus.
suuuper sache... :frown:

ShadowXX
2013-12-16, 16:44:13
Und das bringt was? Erst unabhängige Tests sind relevant, alles andere ist nur Marketing Geblubber. Und so "ärgerlich" es auch ist, Mantle wurde für den Dezember in Aussicht gestellt (in Form eines BF4 Patches).

Noch haben sie 2 Wochen, in denen sie "on Track" sind.

Mantle wird das ein oder andere Game ein Stück beschleunigen und gut ist. Ob es nun eine Demo gibt oder nicht spielt doch für die Performance der Mantle Games @ 2014 keine Rolle....

Abgesehen davon sind die R9 290(X) Karten sowieso erst ab Januar zu kaufen (also Custom Design, Referenz geht gar nicht, es sei denn man packt sofort einen Wasserkühler drauf).

Und bis die Karte da sind, gibts erste Mantle Benches ;)
Darum gehts doch gar nicht. Es ist einfach ein Marketing-Gau aus Marketing-Sicht. Die Karte kann etwas besser als die davor, aber man kann es nicht zeigen....man weiß nicht mal genau wann man es denn irgendwann zeigen kann. Und wenn es ganz schlecht kommt ist die erste BF4-Mantle-Version noch buggier als BF4 schon so....dann ist das ganze eine Marketing-SuperGau.

Da wäre es schon nicht schlecht, wenn man vorher eine Demo gehabt hätte, die Demonstriert das das ganze sehr gut läuft wenn ordentlich Programmiert.

Aber redet das Fehlen von Demos (die es sonst immer gab zum Kartenrelease) ruhig schön.....ich bleibe dabei das ATI/AMD noch wesentlich mehr Karten verkaufen würden, wenn es was vorzeigbares gäbe, selbst wenn es nur Demos sind. Stellt euch doch mal die theoretischen Testberichte vor, die schwärmen was die Karten alles mit den Mantle-Demos zeigen (wenn welche zum Start dagewesen wären).

maximus_hertus
2013-12-16, 17:00:23
.....ich bleibe dabei das ATI/AMD noch wesentlich mehr Karten verkaufen würden, wenn es was vorzeigbares gäbe, selbst wenn es nur Demos sind. Stellt euch doch mal die theoretischen Testberichte vor, die schwärmen was die Karten alles mit den Mantle-Demos zeigen (wenn welche zum Start dagewesen wären).

Negativ, AMD könnte nur dann deutlich(!) mehr Karten verkaufen, wenn sie GeForce heißen würden. Oder sie halbieren den (nVidia) Preis (z.B. die 290X für ca. 300 Euro). Ansonsten hat AMD in Deutschland nicht so viel "zu melden".

Abgesehen davon sind die Lager ja nicht soooo voll, was die 290er angeht. Ergo hat man wohl fast alles verkauft, was da war.

Kritischer sehe ich das Fehlen von True Audio bei den 270er-Karten. Das ist problematisch, der 150-200 Euro Markt ist DER Gamer-Massenmarkt und da wäre es schön, *alle* Features zu haben.

Hübie
2013-12-16, 17:37:57
Und was sollen Demos machen? Mantle ist eine API und kein Feature.
Mantle bringt das was der Entwickler daraus macht, deshalb gibt es da auch keine Demos.
Eine Demo mit den Drawcalls wurde im übrigen bereits demonstriert.
Sobald das erste Spiel mit Mantle erscheint wird man sehen was Mantel in diesem Spiel, und zwar nur in diesem Spiel bringt.
Mantle war von Anfang an nicht vor Dezember geplant. Und selbst wenn es sich etwas verspätet weil DICE andere Sorgen hat wäre das kein Beibruch - außer vielleicht für NV-Fans. :rolleyes:

Dann waren also die ganzen API-Demos der letzten Jahre unsinnig? Mit einer API gehen features einher, aber wohl nicht in deiner Welt. Schön dass du alles auf AMD vs. nVidia reduzierst. Spricht ja für ein hohes Niveau bei einer Diskussionsgrundlage. :facepalm:

@fondness

Ein kleiner Tipp... hör auf die üblichen Verdächtigen zu füttern, die raffen es immer noch nicht. ;) Oder trollen aus Langerweile. :freak:

Wer hier gerade trollt ist doch offensichtlich oder:confused::rolleyes:

Man könnte je eventuell eine Demo zeigen wo man umschalten kann. Szene mit DX und das selbe dann mit Mantle.:uponder:

Als Vergleich.

Alles andere wäre auch sinnbefreit, meinst du nicht ;)

Gipsel
2013-12-16, 18:13:43
Was mich als interessierten Grafikprogrammierung-Laien und potentiellen "Betroffenen" der kommenden Mantle-Implementationen mehr stört, ist, dass es hier das Technologieforum ist, und es in den letzten Seiten so ungefähr gar nicht über Technologie geht, sondern Spekulation und Bashing/Konter. Wenn es wenigstens konkrete technologische Abwägungen wären, siehe sebbbi und Lauritzen auf b3d, aber so ist das Lesen dieses Threads hier einfach nur nervig.
Volle Zustimmung der Moderation.
Ich bitte dringend darum, daß man in einer dem Unterforum (Technologie) angemessenen Form wieder auf das Thema kommt.

Danke.

Botcruscher
2013-12-16, 18:24:03
Marketingsupergau...

Na was haben wir denn für Fakten? CPU Entlastung in unbekannter Höhe und etwas einfachere Entwicklung. Angekündigt für irgendwann Dezember. Bei so enormen Vorteilen scheint der Bedarf nach Mantle mit der Besitz einer Geforce exponentiell zu wachsen.
Der Rest kauft die Karten derweil wegen dem exzellenten Preis/Leistungsverhältnis. Ob zum spielen oder mining, AMD kommt kaum mit liefern hinterher.
Der Marketinggau wäre eher ein Absturz der Coins. Dank der begrenzten Menge und noch schlechterem Real(falsch)geld[10% Abgabe schon bei IWF und den Großbanken hoffähig] wird sich da nichts so schnell ändern.

PS: Wie weit würde sich Mantle eigentlich auf Mining auswirken? Bei der geringen CPU last vermutlich eher überhaupt nicht aber direkter Zugriff könnte noch etwas Effizienz bringen?

G3cko
2013-12-16, 19:30:14
und warum kann man dann sich auf sachen festnageln "drawcalls over 9000!!!" ohne überhaupt was auf den tisch zu klopfen?
wollen wir in zukunft mehr verkaufsargumente wie "wir glauben dass wir nächstes jahr per patch die leistung steigern wollen."? bei der boost-thematik wird immer wild rumgeprangert und wenn hier der hersteller alles kräftig in den skat-drückt ist das auf einmal das problem der kunden...

Bei physX ist es doch noch mehr ein Pseudoargument. Kaum ein Spiel unterstützt es. Die AAA-Titel sowieso nicht.
Mantle hingegen verspricht da deutlich mehr Potenzial. Auch sollte man ersteinmal Abwarten bis das erste richtige Next-Gen Game kommt. Solange X360 und PS3 an Board sind ist es das nun mal nicht. Und für die alten Kamellen reicht auch eine 7870 für alles.

@über mir. Mining mit GPUs rechnet sich nicht. Einfach mal den c't Artikel lesen.

aufkrawall
2013-12-16, 19:58:23
Bei physX ist es doch noch mehr ein Pseudoargument. Kaum ein Spiel unterstützt es. Die AAA-Titel sowieso nicht.
Ja, Metro und CoD sind voll die Nischenprodukte...

Hab ja nichts dagegen, die Sinnhaftigkeit von PhysX anzuzweifeln, aber solche Stussaussagen brauchts dann auch nicht.

HOT
2013-12-16, 20:35:03
Mit neuen Engines wird PhysX hinfällig, man sieht das doch nur bei Unreal3-Enigne Spielen oder Ausnahmen wie Metro. Alle großen neuen Engine sind selbst GPGPU-fähig.

Blediator16
2013-12-16, 21:04:43
Mit neuen Engines wird PhysX hinfällig, man sieht das doch nur bei Unreal3-Enigne Spielen oder Ausnahmen wie Metro. Alle großen neuen Engine sind selbst GPGPU-fähig.

Das ist erstmal egal. Sobald Nvidia sich irgendwo einkauft gibts GPU Physx. Wer hätte gedacht, dass COD GPU Physx bekommt?

Skysnake
2013-12-16, 23:04:21
PS: Wie weit würde sich Mantle eigentlich auf Mining auswirken? Bei der geringen CPU last vermutlich eher überhaupt nicht aber direkter Zugriff könnte noch etwas Effizienz bringen?
Garnicht, weil das Eine mit dem Anderen rein gar nichts zu tun hat ;)

Botcruscher
2013-12-17, 00:01:13
Deswegen steht da ein Fragezeichen. Über Direkt X wird der Miner sicher nicht laufen.=)

kruemelmonster
2013-12-17, 01:55:21
Mit neuen Engines wird PhysX hinfällig, man sieht das doch nur bei Unreal3-Enigne Spielen oder Ausnahmen wie Metro. Alle großen neuen Engine sind selbst GPGPU-fähig.

GPGPU alleine macht aber noch keine Physikengine. Auch wenn der GPU-PhysX Aspekt irgendwann überflüssig sein mag wird man weiterhin eine Physikengine benötigen, ob nun spielespezifisch selbst geschrieben oder zugekauft wie Havok oder PhysX.

Von NV selber gab es vor iirc 1-2 Jahren die Aussage dass sie nicht sonderlich viele Spiele mit PhysX v2 erwarten und auch nicht fördern werden sondern sich hauptsächlich um die Entwicklung von PhysX v3 kümmern wollen. Sobald man das geschafft habe würden wir, die Spieler auch mehr GPU-PhysX Titel sehen, so damals die Aussage.
Bis heute ist v3 zwar noch nicht wirklich angekommen, dafür haben wir aber z.B. in Metro LL und Borderlands 2 v2 welches CPU-seitiges multithreading ganz gut beherrscht und hw-beschleunigt ne Menge Effekte darstellt, im mittlerweile dritten Batman mit GPU-PhysX gibts zusätzlich per APEX Modul erzeugten Rauch, das neueste CoD nutzt ebenfalls APEX Rauch sowie GPU-PhysX-beschleunigte Fellsimulation, The Bureau XCOM nutzt das ganze Portfolio von GPU-PhysX, und künftig stehen noch Witcher 3, Project Cars und Star Citizen auf dem Plan.

PhysX ist (schon bald/fast/eigentlich schon immer) tot? Man wecke mich wenn der Tag dann kommt, bis dahin nehm ich das Atmosphäre-Plus ggü kein PhysX gerne mit.

gnahr
2013-12-17, 01:59:13
Solange X360 und PS3 an Board sind ist es das nun mal nicht.
geht das schon wieder los? wir wissen doch mittlerweile (im gegensatz zur zeit als die präsentationen mit "wird alles super!!!" liefen), dass die neuen konsolen technologisch nix tieferes mit mantle zu tun haben.

Nazar
2013-12-17, 02:13:18
Mantle wird vermutlich nicht wie versprochen noch dieses Jahr erscheinen also ist das Vaporware? :eek: ;D
Oh.. Game XY ist nicht am 3 März erschienen sondern erst 2 Monate Später. VAPORWARE!? :freak:
Echt jetzt? :facepalm:
Zu dicht neben einer Explosion gestanden? :uexplode:
Spiele dürfen verschoben werden und sind keine Vaporware, aber wenn es für eine API, die nur von einem Hersteller kommt, nicht sofort, auf die Sekunde genau, eine Demo gibt, dann ist das Vaporware?
Lest ihr eigentlich eure "geistigen Ergüsse" auch mal quer oder überkommt es euch einfach so beim Schreiben?
Mal ehrlich, wie kommt ihr auf diesen Mist mit der Vaporware und nur bei AMD?
Wenn das kein Trollen sein soll, dann bitte mal mit Argumenten kommen (und bitte,BITTE.. WIKI ist KEIN Argument!)!

Wenn hier 2 Sachen wirklich sicher sind, dann dass 2-3 Leute absolute Trolle sind (und es noch sehr offensichtlich toll finden), die diesen Thread vergewaltigen (Vote 4 Zwangspause), und das es hier überhaupt nicht mehr um das eigentliche Thema geht (Dank der Trolle).

Könnte mal wieder das eigentliche Thema hier diskutiert werden?
DANKE!

Locuza
2013-12-17, 02:19:55
@ gnahr

Immerhin sind die Konsolen APIs, laut Johan, näher an Mantle dran, als DX.
Und alle 3 APIs sind auf die AMD Hardware zugeschnitten.
Insofern sollten die Schnittmengen durchaus helfen.

gnahr
2013-12-17, 02:43:58
Und alle 3 APIs sind auf die AMD Hardware zugeschnitten.
aber mantle kommt nicht von amd, sondern wird ihnen seitens dice übergeholfen.
nur weil aus a->c und b->c folgt, stehen a und b nicht notwendigerweise in einer direkten beziehung freund blase.
die schnittmenge ist, was dir deine fiktion momentan hergibt.

und wem das nicht reicht: man kann ja auch wieder zu den erwartungen kommen. da gehen die meinungen von "+-0% mehrleistung" bis 50% hoch weil niemand je öffentlich was sauber dokumentiertes gesehen hat. hm, was waren gleich noch mal die kriterien für papiertiger?...

HarryHirsch
2013-12-17, 02:47:42
Danke!

-Made the NVidia 331.82 driver version mandatory for all players.
-Disabled DirectX 11.1 on NVidia cards that have outdated drivers.

reicht schon.

Locuza
2013-12-17, 02:52:32
@ gnahr

Meinst du die 3 APIs sind grundlegend verschieden?
Wenn mir der Entwickler sagt, Mantle liegt näher an der PS4 API, als an DX, dann ist die Schnittmenge keine Fiktion, egal wie du das siehst, aber alle 3 APIs sind auf die selbe Hardware zugeschnitten, verwenden ähnliche Modelle und ich denke als Laie ist die Shader Language auch nicht großartig verschieden.

Mantle kommt von AMD und wurde in Zusammenarbeit mit DICE entwickelt und vermutlich noch weiterem Feedback.

Und was war damals mit DX10? Was gab es da an Mehrleistung gegenüber DX9?
Erst einmal gar keine.
Es kommt darauf an, was der Entwickler mit der Schnittstelle und den Möglichkeiten anfängt.
Klar gibt es dort keine feste Zahl, sondern nur einen möglichen Bereich von bis zu.

gnahr
2013-12-17, 03:33:28
Wenn mir der Entwickler sagt, Mantle liegt näher an der PS4 API, als an DX, dann ist die Schnittmenge keine Fiktion, egal wie du das siehst, aber alle 3 APIs sind auf die selbe Hardware zugeschnitten."liegt näher an" ist eine relativaussage. daraus folgt nicht notwendig, dass es "nah drann" liegt.
übrigens sind auf dieser abstrakten ebene auch so manche api auf nvidia zugeschnitten. dass sich die konsolen an alten chips von hersteller x bedienen ist in zeiten der resteverwertung und erst recht am beginn der lebenszeit von konsolen kein qualitätsargument. interessant würde das erst wenn die optimierung auf mehrjährige erfahrung zurückgreifen kann und das passiert, wenn die hardware fast völlig altbacken ist (*hust* xbox360 und ps3).
nochmal: die aktuellen konsolen sind so wenig enthusiast wie nie zuvor. wer sich mit der verwandschaft brüstet hofft nicht mehr viel zu erreichen und genau deshalb muss man auch der aussage "mantle ist nicht für jeden umsetzbar" so viel aufmerksamkeit schenken. es kann bei design kein mega-erfolg werden sondern zielt auf ein schmales segment.

dargo
2013-12-17, 06:25:00
Und was war damals mit DX10? Was gab es da an Mehrleistung gegenüber DX9?
Erst einmal gar keine.

Das stimmt so nicht. In Farcry 2 konnte ich im absoluten CPU-Limit unter DX10 bis zu +75% Leistung messen. Das Problem an DX10 war eher, dass die meisten deutlich sichtbare Effekte erwartet haben und nicht höhere Effizienz.

Hübie
2013-12-17, 06:53:26
Na aber seien wir mal ehrlich: D3D10 war nun wirklich kein großer Wurf. Bench mal in hohen Auflösung mit maximalen Details und vergleiche Performance pro BQ. Da bleibt nicht viel übrig. Das kann man auch nicht schön reden.

dargo
2013-12-17, 08:57:25
Na aber seien wir mal ehrlich: D3D10 war nun wirklich kein großer Wurf.

Doch... das war es. Gerade was Effizienz angeht.


Bench mal in hohen Auflösung mit maximalen Details und vergleiche Performance pro BQ. Da bleibt nicht viel übrig. Das kann man auch nicht schön reden.
Völlig sinnloser Vergleich. Du kannst auch jede High-End Graka mit DX9 erdrücken wenn du willst.

Iruwen
2013-12-17, 11:10:02
aber mantle kommt nicht von amd, sondern wird ihnen seitens dice übergeholfen.

AMD schreibt den Mantle Treiber und nicht DICE.

ShadowXX
2013-12-17, 11:20:28
AMD schreibt den Mantle Treiber und nicht DICE.
Tja....das ist vielleicht das Problem;D:wink:

dargo
2013-12-17, 11:31:09
Tja....das ist vielleicht das Problem;D:wink:
Weil DICE mit dem bugfreien (*hust*) Battlefield 4 gerade so glänzt. :rolleyes: Dein Getrolle ist sowas von armselig.

ShadowXX
2013-12-17, 11:38:37
Weil DICE mit dem bugfreien (*hust*) Battlefield 4 gerade so glänzt. :rolleyes: Dein Getrolle ist sowas von armselig.
Der einzige der hier wirklich armselig ist bist du, wie du die nicht vorhandene Taktik von AMD bis zum abwinken schönredest...

Coda
2013-12-17, 11:39:00
DX10 hat praktisch exakt das gleiche Interface wie DX11. Es fehlen im Wesentlichen nur Tesselation und Compute.

Die Adoption wurde durch die Konsolen und XP gebremst, an der API gab es wenig auszusetzen.

Locuza
2013-12-17, 11:49:06
"liegt näher an" ist eine relativaussage. daraus folgt nicht notwendig, dass es "nah drann" liegt.
[]
nochmal: die aktuellen konsolen sind so wenig enthusiast wie nie zuvor. wer sich mit der verwandschaft brüstet hofft nicht mehr viel zu erreichen und genau deshalb muss man auch der aussage "mantle ist nicht für jeden umsetzbar" so viel aufmerksamkeit schenken. es kann bei design kein mega-erfolg werden sondern zielt auf ein schmales segment.
Daraus folgt aber noch weniger, dass keine Teilmengen bestehen und die Ähnlichkeit reine Fiktion ist.
Es ist vollkommen egal wie stark die Konsolen ausfallen, die Hardware ist die gleiche, also fallen auch Optimierungen demenstprechend in die gleiche Kerbe.
Klar ist Mantle dennoch nicht für jedermann, ebenso wenig wie es ein Mega Erfolg werden könnte und DX ersetzen.
Es wäre schon Mega Toll, wenn andere IHVs mitmachen würden und die Entwickler die Wahl zwischen einer "low-level-api" haben und einer "high-level-api".
Sollen die Studios und Entwickler dann entscheiden, welchen Weg sie gehen wollen.
Da es bisher nur GCN exklusiv ist, sind die Aussichten natürlich beschränkt.


Das stimmt so nicht. In Farcry 2 konnte ich im absoluten CPU-Limit unter DX10 bis zu +75% Leistung messen. Das Problem an DX10 war eher, dass die meisten deutlich sichtbare Effekte erwartet haben und nicht höhere Effizienz.
Far Cry 2 kam aber auch etwas später. Das erst einmal war wichtig.
Ich glaube es gab mal einen Artikel von Demirug hier oder nur ein Beitrag, wo er gesagt hat das die User sich nicht auf die ersten DX10 Ergebnisse einschlagen sollten und erst einmal abwarten, bis die Entwickler wirklich angepasst damit programmieren.

dargo
2013-12-17, 12:24:34
Far Cry 2 kam aber auch etwas später. Das erst einmal war wichtig.

Das mag sein. War jedenfalls das einzige Spiel wo ich mich intensiv mit den Vergleichen DX10 vs. DX9 im CPU-Limit beschäftigt habe. Kann Coda bezüglich DX10 aber nur voll zustimmen. Diese API hatte kaum eine Chance sich wegen der Konsolen und vorallem dem verhassten Windows Vista durchzusetzen. Wäre Vista das was heute Windows 7 ist hätte es eventuell ganz anders ausgesehen.

fondness
2013-12-17, 13:18:04
Der einzige der hier wirklich armselig ist bist du, wie du die nicht vorhandene Taktik von AMD bis zum abwinken schönredest...

Die "Taktik" war offenbar gut genug, dass man einige bedeutende Spieleschmieden davon überzeugen konnte. Das Marketing war offenbar gut genug, dass praktisch jede Quelle ausführlich darüber berichtete und man die Diskussion über Monate am Kochen halten könnte. Das sich manche Leute hier an Demos aufhängen ist eigentlich an Lächerlichkeit nicht zu überbieten. Würde es Demos geben, würden dieselben Leute eben einen anderen Grund finden zum herum trollen. Also ich habe lieber Spiele und damit eine realen Vorteil, die andere dürfen sich ja gerne an Details aufhängen.

Hübie
2013-12-17, 15:50:17
Das mag sein. War jedenfalls das einzige Spiel wo ich mich intensiv mit den Vergleichen DX10 vs. DX9 im CPU-Limit beschäftigt habe. Kann Coda bezüglich DX10 aber nur voll zustimmen. Diese API hatte kaum eine Chance sich wegen der Konsolen und vorallem dem verhassten Windows Vista durchzusetzen. Wäre Vista das was heute Windows 7 ist hätte es eventuell ganz anders ausgesehen.

Was interessiert es den Spieler wie was im CPU-Limit agiert? Irgendwie kommst du immer mit CPU-Limit. Das ist doch sowas von wayne. Wenn ich mich richtig erinnere dann war die D3D10-Version von FC2 sogar langsamer als das D3D9-Pendant und konnte nicht mal viel bessere Optik bieten. D3D10 war eine gute Grundlage für D3D11. Nicht mehr und nicht weniger. Der Markt beweist meine Aussage ja.
Zwischen 10 und 11 gibt's aber noch wesentlich mehr Unterschiede (vor allem bis feature Level 11_2).

dargo
2013-12-17, 17:03:47
Was interessiert es den Spieler wie was im CPU-Limit agiert? Irgendwie kommst du immer mit CPU-Limit. Das ist doch sowas von wayne.
:facepalm:

kruemelmonster
2013-12-17, 17:13:37
Wenn ich mich richtig erinnere dann war die D3D10-Version von FC2 sogar langsamer als das D3D9-Pendant...
Nope, FC2 lief deutlich besser unter D3D10, auch im GPU-Limit. Quelle (http://www.hardocp.com/article/2008/12/01/farcry_2_dx9_vs_dx10_performance/1)

19x12 1xAA min max avg
4870 DX9 35 49 43
4870 DX10 36 63 48

GTX280 DX9 42 68 54
GTX280 DX10 45 73 58

...und konnte nicht mal viel bessere Optik bieten.

Das hatte aber nix mit der API zu tun sondern war eine Entwicklerentscheidung. Crysis 1, Company of Heroes oder Lost Planet boten bessere Grafik unter 10, Just Cause 2 gibts sogar ausschließlich für D3D10.

aufkrawall
2013-12-17, 17:29:36
DX10-Diskussion die xte. Überflüssig.

gnahr
2013-12-17, 17:34:35
Die "Taktik" war offenbar gut genug, dass man einige bedeutende Spieleschmieden davon überzeugen konnte.
ja, so überzeugend das intel UND nvidia abgelehnt haben und nur amd, die derzeit ja bereits bf4 mit geld tot geworfen haben.
sehr unglaubwürdig dass sie jemanden von etwas überzeugen können...

vielleicht ja ein klassischer marketing-fail. man kann nicht im sommer groß rumprotzen was man dickes noch in der hose hat, wenn es im winter auf einmal suuuper eng wird ob man überhaupt noch mal die shorts bis zu den knien runtergezogen bekommt. kann mich nicht erinnern dass die konkurrenten so ein unseriöses verhalten abgeliefert hat. ok, intel fällt es schwer so ne pr-story wie bulldozer zu fabrizieren und nvidia schafft es gar neue features bis zur open-conference vorstellung vor fachpersonal mit eigenen augen, ohren und messinstrumenten geheim zu halten.

was kann man erwarten? also grob 20% würden mich überraschen. aber keine ahnung ob ich dann baff bin, dass sie wegen so wenig so nen wind machen oder ein anderer zungenschlag davon.

Knuddelbearli
2013-12-17, 17:42:05
das gerade einer des grünen color wie du einer Firma vorwirft sich mit Geld einzukaufen rofl!

aufkrawall
2013-12-17, 17:46:18
das gerade einer des grünen color wie du einer Firma vorwirft sich mit Geld einzukaufen rofl!
Couleur. Es heißt die Couleur.

Locuza
2013-12-17, 18:01:01
@ gnahr

Mit wie vielen Dollar hat AMD BF4 tot beworfen?
Sie mussten wenn es nach der Logik geht, auch Star Citizen, Thief, Sniper Elite 3, Garden Warfare usw. mit Geld tot bewerfen, weil man kann ja niemanden einfach so überzeugen selbst wenn Johan gemeint hat, dass AMD ihn für die Mantle Implementierung nicht bezahlt hat, da es ein Wunsch der Entwickler war, aber für Geld lügen bekanntlich auch seriöse Personen.
Die Frostbite Engine bekommt zusätzlich noch einen OGL Renderer, aber den muss man wohl leider selber bezahlen. ;(

Begutachten wir mal deine Zeitrechnung:

25 September, Mantle Vorstellung --> Sommer
Ankündigung für Dezember.

13 November, Developer Summit --> Winter
Ankündigung für Ende Dezember.

Und naja, irgendwie habe ich vor dem 25 September auch nichts von Mantle oder TrueAudio gehört, obwohl die Hardware schon seit Bonaire implantiert ist.

gnahr
2013-12-17, 18:03:06
das gerade einer des grünen color wie du einer Firma vorwirft sich mit Geld einzukaufen rofl!
wenn mans nicht richtig macht und hinten nur mist bei raus kommt...
man stelle sich vor borderlands2 liefe mit gpu-physix nicht.
nun, bei bf4 ist es ja so gravierend, dass es nicht nur die leute trifft die das feature "mantle" erwarten einfach nicht bedient werden, sondern dass alle ne crappy software auf den deckel bekommen nach ner payed-alpha und payed-beta!

jedes feature sonst bekommt seine arschig kleine techdemo. ne sache bei nvidia die später nicht mehr so groß war wäre etwa die rocket sledge demo. aber nein, amd muss nicht. fondness würde sie wahrscheinlich auch für nen neuen aa/af-filtermodi ohne genaue hinweise zur arbeitsweise oder demo-bilder abfeiern. ganz anders bei nvidia, da werden fxaa und txaa in der luft zerrissen!

kruemelmonster
2013-12-17, 18:31:15
DX10-Diskussion die xte. Überflüssig.

Auch wenn es der falsche Thread für diese Diskussion ist, so zeigen Hübies Aussagen doch dass das Thema so überflüssig dann doch nicht ist.

jedes feature sonst bekommt seine arschig kleine techdemo

So siehts aus. Kann mir keiner erzählen dass es wahnsinning aufwändig ist ne Demo zu erstellen bei der unter D3D11 die fps unter der drawcall-Last zusammenbrechen während mittels Mantle alles paletti ist.

Was mich am meisten an Mantle interessiert ist wie die verkündete höhere Einheitenauslastung mit dem TDP-Budget der Karten und den erreichbaren Taktraten korreliert. (Das hats schon in der Vergangenheit gegeben dass neuere Treiber mit besserer Auslastung vorige OCs instabil haben werden lassen.) Höhere Last -> weniger TDP-Budget -> geringere Taktraten -> ein Teil des Mantle-Vorsprungs wird aufgefressen. Die Frage ist was danach an Leistungsplus noch übrig bleibt.

Eine Techdemo könnte da schon Ansätze liefern, wahrscheinlich gibts genau deswegen auch keine.

Pirx
2013-12-17, 18:32:21
wenn mans nicht richtig macht und hinten nur mist bei raus kommt...
man stelle sich vor borderlands2 liefe mit gpu-physix nicht.
nun, bei bf4 ist es ja so gravierend, dass es nicht nur die leute trifft die das feature "mantle" erwarten einfach nicht bedient werden, sondern dass alle ne crappy software auf den deckel bekommen nach ner payed-alpha und payed-beta!

jedes feature sonst bekommt seine arschig kleine techdemo. ne sache bei nvidia die später nicht mehr so groß war wäre etwa die rocket sledge demo. aber nein, amd muss nicht. fondness würde sie wahrscheinlich auch für nen neuen aa/af-filtermodi ohne genaue hinweise zur arbeitsweise oder demo-bilder abfeiern. ganz anders bei nvidia, da werden fxaa und txaa in der luft zerrissen!
Fakt ist aber nun mal, daß u.a. du auch diesen Thread zu einem AMD-Thema mit Intel- und nV-Müll zuspammst, was hier niemanden interessiert.

aufkrawall
2013-12-17, 19:09:48
Auch wenn es der falsche Thread für diese Diskussion ist, so zeigen Hübies Aussagen doch dass das Thema so überflüssig dann doch nicht ist.

Nur hat dieses Forum keinen Bildungsauftrag. ;)

Hübie
2013-12-17, 19:36:21
:facepalm:

http://abload.de/img/farcry2_benchozq7z.png (http://abload.de/image.php?img=farcry2_benchozq7z.png)

Ich untermauer mal die Relevanz von CPU-Benchmarks :rolleyes:

dargo
2013-12-17, 19:47:15
http://abload.de/img/farcry2_benchozq7z.png (http://abload.de/image.php?img=farcry2_benchozq7z.png)

Ich untermauer mal die Relevanz von CPU-Benchmarks :rolleyes:
Bitte informiere dich erstmal wie diverse Limits in Games zustande kommen (Situationen, Settings etc.) und dann komm nochmal wieder damit wir eine angemessene Diskussion führen können. Ich werde sicherlich nicht zum gefühlten hundersten Male bei Null anfangen. Irgendwelche bunten Diagramme ohne Hintergrundinfos führen garantiert nicht zum Ziel.

Edit:
Ich habe hier für dich eine Szene aus Crysis 3 (zweites Edit) nur um mal ein Beispiel aufzuzeigen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9825279&postcount=547

Denke mal nach was da passiert ist.

gnahr
2013-12-17, 19:47:24
Fakt ist aber nun mal, daß u.a.
... sich unbeteiligte leute reinhängen und sachen abwiegeln. es geht um die erwartung der auswirkungen eines features und auf einmal sind da ständig fünf die einem die pommes quer in den mund werfen wollen das sei "doch kein feature" oder "das muss so!" und was nicht alles.

wetten, wenn ich nun sage, dass mir noch niemand vom fach wirklich die auswirkungen von high-level und low-level über den daumen hinsichtlich aufwand und effizienz vorgerechnet hat sofort wieder jemand ankommt und meint "kann man nicht pauschalisieren für ne daumenzahl" oder "bf4 als promo ist nicht representativ, wenn es zu schlecht ausfällt" oder was nicht sonst alles.

captain_drink
2013-12-17, 19:49:09
Was mich am meisten an Mantle interessiert ist wie die verkündete höhere Einheitenauslastung mit dem TDP-Budget der Karten und den erreichbaren Taktraten korreliert. (Das hats schon in der Vergangenheit gegeben dass neuere Treiber mit besserer Auslastung vorige OCs instabil haben werden lassen.) Höhere Last -> weniger TDP-Budget -> geringere Taktraten -> ein Teil des Mantle-Vorsprungs wird aufgefressen. Die Frage ist was danach an Leistungsplus noch übrig bleibt.

Eine Techdemo könnte da schon Ansätze liefern, wahrscheinlich gibts genau deswegen auch keine.

Gut möglich, dass deswegen bei AMD immer noch die Köpfe rauchen. Die größere Abhängigkeit von TDP und Taktraten bei Powertune 2 (290/X) gg. der vorherigen Powertune-Implementierung könnte dazu führen, dass die nominell schnelleren R290/X gg. der übrigen R2xx-Reihe weniger von Mantle profitieren, wodurch die Marktposition der ersteren gg. den letzteren sicher nicht gestärkt werden würde.

StefanV
2013-12-17, 19:49:56
Können ma mal mit den ganzen Nebelkerzen und Nebenkriegsplätzen aufhören und zum Thema zurück kommen?

Hier sollte es eigentlich eher um Mantle gehen und nicht um irgendwelche 'aber meine Firma ist soo viel toller als wie deine' Schlammschlachten. Das könnt ihr im Grafikkartenteil machen, im Technikforum sollt man wenigstens versuchen beim Thema zu bleiben...

Loeschzwerg
2013-12-17, 19:51:32
Die "Taktik" war offenbar gut genug, dass man einige bedeutende Spieleschmieden davon überzeugen konnte. Das Marketing war offenbar gut genug, dass praktisch jede Quelle ausführlich darüber berichtete und man die Diskussion über Monate am Kochen halten könnte. Das sich manche Leute hier an Demos aufhängen ist eigentlich an Lächerlichkeit nicht zu überbieten. Würde es Demos geben, würden dieselben Leute eben einen anderen Grund finden zum herum trollen. Also ich habe lieber Spiele und damit eine realen Vorteil, die andere dürfen sich ja gerne an Details aufhängen.

Erst macht man den Leuten den Mund wässrig und dann lässt man sie verhungern... Ich kann das absolut nachvollziehen, gerade bei einem Thema was solche Wellen schlägt.

Es gibt Vorführungen zu True Audio, aber von Mantle hat man noch nichts gesehen. Wie kruemelmonster passend geschrieben hat, wenigstens eine kurze Demo mit fps Gegenüberstellung wäre drin gewesen.

Zwei identische Systeme mit AMD FX und 290X auf denen eine kurze BF4 Sequenz (1x D3D und 1x Mantle) inkl. Frame Counter läuft.

Die Leute wollen ganz einfach einen "Wert" sehen und wenn Mantle wirklich so viel besser ist wie angekündigt sollte sich das doch einfachst zeigen lassen.

Hübie
2013-12-17, 20:04:50
Bitte informiere dich erstmal wie diverse Limits in Games zustande kommen (Situationen, Settings etc.) und dann komm nochmal wieder damit wir eine angemessene Diskussion führen können. Ich werde sicherlich nicht zum gefühlten hundersten Male bei Null anfangen. Irgendwelche bunten Diagramme ohne Hintergrundinfos führen garantiert nicht zum Ziel.

Edit:
Ich habe hier für dich eine Szene aus Crysis 3 (zweites Edit) nur um mal ein Beispiel aufzuzeigen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9825279&postcount=547

Denke mal nach was da passiert ist.

Jetzt kommt der mit Crysis :facepalm: Und dieses von oben herab kannst du dir stecken. Das von mir gepostete war oben CPU-Limit und unten GPU. So was willst du da jetzt wissen? Das die CPU nicht parallel arbeitet und nicht genug Daten der GPU bereitstellen kann? Das Tahitis Frontend in deinem Beispiel versagt (Raster setup)?

dargo
2013-12-17, 20:13:00
Das von mir gepostete war oben CPU-Limit und unten GPU. So was willst du da jetzt wissen?
Zum Beispiel wie hoch die tatsächliche CPU-Last in der getesteten Szene war und wie repräsentativ diese eine Szene für das gesamte Spiel ist. Zudem fehlen Informationen zu der Leistung der Grafikkarte. Allzu stark scheint die ja nicht zu sein wenn sich die verschiedenen CPUs schon in 1280 kaum voneinander absetzen können. Oder die verwendete Testszene ist einfach schlecht gewählt (nichts los). Ich hoffe der Tester hat wenigstens ein Savegame und keine Timedemo genommen. Letzteres wäre der totale fail.

PS: was gefällt dir an der Crysis 3 Szene nicht? Etwa, dass dein Weltbild zerstört wird?

Hübie
2013-12-17, 20:27:10
Far Cry 2 bietet ja einen integrierten Benchmark der sehr anpassbar ist. Man kann da sogar KI aktivieren und deaktivieren, es gibt Physik-Effekte etc. Den fand ich schon sehr repräsentativ.

dargo
2013-12-17, 20:59:43
Far Cry 2 bietet ja einen integrierten Benchmark der sehr anpassbar ist. Man kann da sogar KI aktivieren und deaktivieren, es gibt Physik-Effekte etc. Den fand ich schon sehr repräsentativ.
Also doch nur eine Timedemo.

Der intergrierte Benchmark ist überhaupt nicht repräsentativ für das Spiel was CPU-Last angeht! Ich weiß gar nicht mehr wie oft ich gesagt habe (schon vor Jahren), dass Timedemos einfach Müll sind wenn man die CPU-Last "simulieren" will. Habe jetzt endlich mal den Test gefunden den du dir da zurechtgeschnitten hast damit ich auch mehr Informationen bekomme.
http://ht4u.net/reviews/2010/amd_phenom_ii_x6_1075_x4_970/index16.php

Immerhin wurde dort eine HD5870 genommen. Aber... in 800x600 erreicht der i5-750 176fps. In meinem Savegame @Farcry 2 komme ich mit 2332Mhz auf 50fps.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973305&postcount=2

Und ob das das Worst-Case-Szenario was CPU-Last in FC2 angeht ist kann ich dir noch nicht mal garantieren. Die CPU-Last ist also in meinem Savegame (also echter Spielszene) mehr als 3x so hoch wie in dieser Timedemo! Ich habe zwar paar Mhz weniger, dafür aber einen deutlich kleineren CPU-Multi (14 anstatt 20). Dadurch liegt die CPU trotz weniger Takt in etwa auf dem Niveau vom normalen i5-750 da die Flaschenhälse geringer ausfallen (Verhältnis zwischen CPU-Takt, Cache und Speicherbandbreite). Und wer weiß... eventuell würde diese CPU bei ht4u den einen oder anderen fps mehr liefern würden die wie ich in 640x480 testen. Das ist natürlich aber nur reine Spekulation. Was bleibt ist weniger als 1/3 CPU-Last im intergrierten Benchmark im Vergleich zu meiner Spielszene.

fondness
2013-12-17, 21:02:19
Erst macht man den Leuten den Mund wässrig und dann lässt man sie verhungern... Ich kann das absolut nachvollziehen, gerade bei einem Thema was solche Wellen schlägt.

Es gibt Vorführungen zu True Audio, aber von Mantle hat man noch nichts gesehen. Wie kruemelmonster passend geschrieben hat, wenigstens eine kurze Demo mit fps Gegenüberstellung wäre drin gewesen.

Zwei identische Systeme mit AMD FX und 290X auf denen eine kurze BF4 Sequenz (1x D3D und 1x Mantle) inkl. Frame Counter läuft.

Die Leute wollen ganz einfach einen "Wert" sehen und wenn Mantle wirklich so viel besser ist wie angekündigt sollte sich das doch einfachst zeigen lassen.


Das beste hebt man sich normalerweise für den Schluss auf. ;)
Und nur weil die Demo nicht öffentlich ist, heißt es nicht das sie nicht existiert, ganz im Gegenteil. Aussage von Chris Roberts:
Some of you may have seen that we announced our intention to support AMD’s Mantle with Star Citizen. We didn't do this because AMD sends us lots of high cards (although that doesn’t hurt). We are doing this because it increases the ability of a PC to get the most out of its incredibly powerful hardware. Going to the hardware without an huge inefficient API like DirectX allows us to radically increase the number of draw calls in a frame – At last week’s AMD developer conference Nitrous, which is a new company working on a next gen PC engine, demoed a scene with over 100,000 drawcalls per frame running at over 60 FPS through Mantle. To put that in context last gen stuff (and a bunch of PC games gated by DirectX) have been stuck around 2,000 - 3,000 drawcalls and next gen consoles (like PS4) can do 10,000 - 15,000 or so. We’re supporting Mantle to push PC graphics performance higher – it’s been gated too long by DirectX’s inefficiency and abstraction, which has only gotten worse as Microsoft becomes less interested in the PC as a gaming platform. I would love NVidia and Intel to have Mantle drivers (as the API is designed to be non GPU architecture specific) but if not we would support NVidia or Intel drivers that would allow us to get to the metal (GPU Hardware) efficiently and take advantage of parallelism in CPU cores (for efficient batching of data between the game and the GPU).

https://forums.robertsspaceindustries.com/discussion/76653/star-citizen-pc-ps4-and-consoles/p1

Szudri
2013-12-17, 21:13:07
Erst macht man den Leuten den Mund wässrig und dann lässt man sie verhungern... Ich kann das absolut nachvollziehen, gerade bei einem Thema was solche Wellen schlägt.

Es gibt Vorführungen zu True Audio, aber von Mantle hat man noch nichts gesehen. Wie kruemelmonster passend geschrieben hat, wenigstens eine kurze Demo mit fps Gegenüberstellung wäre drin gewesen.

Zwei identische Systeme mit AMD FX und 290X auf denen eine kurze BF4 Sequenz (1x D3D und 1x Mantle) inkl. Frame Counter läuft.

Die Leute wollen ganz einfach einen "Wert" sehen und wenn Mantle wirklich so viel besser ist wie angekündigt sollte sich das doch einfachst zeigen lassen.

Und dann? Selbst wenn in der Demo Mantle - Direct9/10/11 wegrocken würde, würden die einschlägigen Leute erstmal anfangen mit dem Totschlag-Argument "Demo kommt von AMD, ist doch klar dass die Mantle möglichst "gut" darstellen lassen wollen, also ist die Demo ein Furz Wert"...

Hab ich was vergessen? Es ist nicht so, dass dies einfach nur ein Feature ist, welches zB. coole Effekte ermöglicht etc.

Und nach dem derzeitgen Stand mit den ganzen Problemen mit BF4, wäre auch dort ein Vergleich angreifbar und kaum für außenstehende zu Verteidigen. Aber evtl. ist dass ja auch genau der Wunsch...

dargo
2013-12-17, 21:20:46
Und dann? Selbst wenn in der Demo Mantle - Direct9/10/11 wegrocken würde, würden die einschlägigen Leute erstmal anfangen mit dem Totschlag-Argument "Demo kommt von AMD, ist doch klar dass die Mantle möglichst "gut" darstellen lassen wollen, also ist die Demo ein Furz Wert"...

Hab ich was vergessen?
Nein... du liegst damit nämlich goldrichtig. ;)

Effe
2013-12-17, 21:40:58
Und dann? Selbst wenn in der Demo Mantle - Direct9/10/11 wegrocken würde, würden die einschlägigen Leute erstmal anfangen mit dem Totschlag-Argument "Demo kommt von AMD, ist doch klar dass die Mantle möglichst "gut" darstellen lassen wollen, also ist die Demo ein Furz Wert"...
Hab ich was vergessen?
Ja, die Bildqualität. Das bleibt immer noch als Letztes übrig.

Locuza
2013-12-17, 21:49:47
In wie fern könnte diese anders sein?

Screemer
2013-12-17, 22:32:11
würde es vergleichsdemos direkt von AMD geben, die unter mantle besser per formen als unter DX, dann würden die gleichen ein guter teil derer die hier nach demos schreien und von vapoware sprechen behaupten, dass das überhaupt nicht nachvollziehbar ist und amd bestimmt etwas gedreht hat. schon mal darüber nachgedacht? mantle bringt keine neuen Effekte und keinen grafischen Wow-effekt und ist mit einer demo ohne unabhängige Vergleichsmöglichkeiten gar nicht in zahlen fassbar.

€dit: Szudri hatte da den selben Gedanken...

Effe
2013-12-17, 22:32:59
Sie ändert sich ja nicht, darum ist NV im Zweifelsfall immer besser...

Edit: Ist das hier schon bekannt?
QIWyf8Hyjbg

Coda
2013-12-18, 01:09:35
Zwischen 10 und 11 gibt's aber noch wesentlich mehr Unterschiede (vor allem bis feature Level 11_2).
O'Rly? Und kannst du die Relevanz davon jetzt besser einschätzen als ich?

Wie sagt man bei uns: Da hast schon Recht auf deine Art.

Screemer
2013-12-18, 01:14:10
in dem vid wird von einer öffentlichen nitrous engine demo namens "StarSwarm" (http://www.youtube.com/watch?v=QIWyf8Hyjbg#t=1445) gesprochen. sie wird im q1 2014 released. sollte dem nicht so sein, dann können wir uns noch mal über gegebene versprechen unterhalten. die entwickler sind jetzt am zug.

außerdem gibts ne engine demo bei 26:00 (www.youtube.com/watch?v=QIWyf8Hyjbg#t=1560).

man sollte auch anmerken, dass das von der apu13 ist. das vid ist also schon gut einen monat alt. was da also sonst noch so gezeigt wurde kann keiner sagen. bin mal gespannt ob da noch das ein oder ander video kommen wird.

-/\-CruNcher-/\-
2013-12-18, 01:25:12
Abgefahrener Renderer :)

Nightspider
2013-12-18, 01:40:35
Folgende zwei Aussagen von dir sind schon etwas grenzwertig.

Na aber seien wir mal ehrlich: D3D10 war nun wirklich kein großer Wurf.


Was interessiert es den Spieler wie was im CPU-Limit agiert?

DX10 war ein wichtiger Schritt für die Zukunft der Spieleentwicklung. Vielleicht konnten wir zu Windows Vista Zeiten noch keine großen Vorteile daraus ziehen aber ohne DX10/11 wäre es gar nicht möglich einige der Spiele zu entwickeln, die heute auf den Markt sind.

Der CPU belastende Overhead war mit DX9 viel zu groß und die ganze Physik, die riesige Menge an Objekten wie zB. in einem BF4 wäre gar nicht möglich. Wahrscheinlich nicht mal ansatzweise.

Du fragst was den Spieler am CPU-Limit interessieren soll? Naja, hätte man nicht angefangen mit DX10 extrem die Effizienz zu verbessern, würden wird heute in absolut jedem modernen Spiel nur im CPU-Limit rumkrebsen, wahrscheinlich mit 10-20fps.

Unterm Strich kann man also sagen das DX10 damals noch nicht wichtig für die damaligen Spiele war. Historisch gesehen war es für die Entwicklung und den Fortschritt der Technik, sowie der Engines aber sehr wichtig. DX11 ist ja schließlich eine Weiterentwicklung und konnte auf dem zurückliegenden, großen Bruch dank DX10 Aufbauen und sich schließlich dank dem hervorragenden Win7 durchsetzen.

Skysnake
2013-12-18, 02:17:43
Sie ändert sich ja nicht, darum ist NV im Zweifelsfall immer besser...

Edit: Ist das hier schon bekannt?


Ich warte ja jetzt darauf, das von entsprechenden Leuten Aussagen wie:
*Das ist doch alles prerendert
oder
oder
oder


kommen. :rolleyes:

gnahr
2013-12-18, 02:38:39
mantle bringt keine neuen Effekte und keinen grafischen Wow-effekt und ist mit einer demo ohne unabhängige Vergleichsmöglichkeiten gar nicht in zahlen fassbar.
was meinst du denn mit "unabhängige vergleichsmöglichkeit"? ist das nur ne aufgeblasene fassung von "referenz"? da kommen nämlich leider alle schlagwörter vor. "unabhängig", "vergleichsmöglichkeit", fehlt nur noch "preis-leistungs-sieger" ;D

die behauptung man könne nicht 5-6 häufig eingesetzte funktionen zusammenpappen unter beiden architekturen und die eckzahlen der engines auf 2 oder 3 systemen gegeneinander halten, spricht dem thema irgendwie jeglichen sinn ab. die ganze sache wurde angestoßen weil sie uns es unter directx als problematisch verkaufen wollen, klingelt da endlich mal ne glocke?!

aufkrawall
2013-12-18, 02:38:50
Ich warte ja jetzt darauf, das von entsprechenden Leuten Aussagen wie:
*Das ist doch alles prerendert
oder
oder
oder


kommen. :rolleyes:
Nicht gesund, diese Erwartungshaltung.
Lässt einen als Fanboy der anderen Seite dastehen. Erst recht, wenn man sie dann noch als dreisten Flame-Spam in nem Extra-Post zur Schau stellt.

Kurz: Übel riechender Brainfart.

Screemer
2013-12-18, 03:51:57
was meinst du denn mit "unabhängige vergleichsmöglichkeit"? ist das nur ne aufgeblasene fassung von "referenz"? da kommen nämlich leider alle schlagwörter vor. "unabhängig", "vergleichsmöglichkeit", fehlt nur noch "preis-leistungs-sieger" ;D

die behauptung man könne nicht 5-6 häufig eingesetzte funktionen zusammenpappen unter beiden architekturen und die eckzahlen der engines auf 2 oder 3 systemen gegeneinander halten, spricht dem thema irgendwie jeglichen sinn ab. die ganze sache wurde angestoßen weil sie uns es unter directx als problematisch verkaufen wollen, klingelt da endlich mal ne glocke?!
lass deine polemik sein. niemand hat behauptet so etwas wäre nicht möglich. zum einen willst du 5-6 funktionen auf der anderen seite willst du nen engine-vergleich. sind für dich 5-6 funktionen ne engine? du bist der erste der schreit, wenn etwas nicht vergleichbar ist. vor allem wenn es von amd kommt. ich stell mir grad ne grafikdemo von amd vor, die unter mantle 20% schneller ist als unter dx (völlig egal unter welchen bedingungen gpu-/cpu-limit etc.), dann kommst du an und willst das von unabhängigen entwicklern sehen oder am besten sourcen die für jeden einsehbar sind, denn das ist von amd und da ist sich an der dx-version irgendwas gedreht. was hälst du davon, die leute mal machen zu lassen ohne gleich den teufel an die wand zu schreiben. die letzten 4 seiten in diesen thread waren sowas von dermaßen uninformativ und selbst soweit von spekulation entfernt, dass es kaum noch feierlich ist. angefangen hat es mit einem post von dir. die passende antwort darauf war folgendes:
Oh gnahr ist hier. Spätestens jetzt ist es Zeit um mal ordentlich durchzuwischen durch die letzten Seiten.
dem wäre 5 seiten lang nichts mehr hinzuzufügen gewesen. die ersten beiden informativen post war der mit dem vid und mein darauffolgender.

ich bin bei dir wirklich kurz davor meine gute erziehung sausen zu lassen und mir auch ne sperre einzufangen. du bist sowas von nervtötend.

Kurz: Übel riechender Brainfart.
du bist mittlerweile fast auf gnahrs level angekommen. glückwunsch dazu.

falls mich einer als fanboy hinstellen will. ich betreibe ne 580 und 7950. interesse weckt bei mir derzeit aber mehr das rote lager, denn da gibts ein paar sachen die mich in der nächsten zeit interessieren (trueaudio, mantle).

Loeschzwerg
2013-12-18, 07:41:57
Und dann? Selbst wenn in der Demo Mantle - Direct9/10/11 wegrocken würde, würden die einschlägigen Leute erstmal anfangen mit dem Totschlag-Argument "Demo kommt von AMD, ist doch klar dass die Mantle möglichst "gut" darstellen lassen wollen, also ist die Demo ein Furz Wert"...

Hab ich was vergessen? Es ist nicht so, dass dies einfach nur ein Feature ist, welches zB. coole Effekte ermöglicht etc.

Und nach dem derzeitgen Stand mit den ganzen Problemen mit BF4, wäre auch dort ein Vergleich angreifbar und kaum für außenstehende zu Verteidigen. Aber evtl. ist dass ja auch genau der Wunsch...

Es gibt immer ein paar Fanatiker die irgendwo einen Krümel finden, das hat aber nichts mit den Leuten zu tun die einfach mal etwas sehen und nicht nur "blöde" Sprüche lesen wollen. Es wurde schon viel zu viel angekündigt und dann kam nix dabei herum.
Um Effekte geht es hier doch nicht, eher um einen frühen Leistungsvergleich was möglich sein kann mit Mantle. Das hätte auch mit einer kurzen BF4 Sequenz funktioniert (inkl. Anzeige zu Calls/Batches).

würde es vergleichsdemos direkt von AMD geben, die unter mantle besser per formen als unter DX, dann würden die gleichen die hier nach demos schreien und von vapoware sprechen behaupten, dass das überhaupt nicht nachvollziehbar ist und amd bestimmt etwas gedreht hat. schon mal darüber nachgedacht? mantle bringt keine neuen Effekte und keinen grafischen Wow-effekt und ist mit einer demo ohne unabhängige Vergleichsmöglichkeiten gar nicht in zahlen fassbar.

€dit: Szudri hatte da den selben Gedanken...

Wie voreingenommen seid ihr hier eigentlich?! Ich glaub es hakt :freak: Jeder der also nur mal ein Quäntchen funktionierenden Code sehen will ist gleich böser NVler... :P

Aber nach dem Vid von der APU13 konnte man wenigstens etwas lauffähiges sehen inkl. schöner Präsentation.

Knuddelbearli
2013-12-18, 10:22:50
Nicht jeder aber nunmal die meisten ( bei denen man es ja vorher weiss )

zu dir erlaube ich mir kein Urteil ^^

Skysnake
2013-12-18, 10:25:14
Also bzgl der Demo sprechen wir mal morgen oder so. Ich will den Leuten ja nicht vorgreifen, die das Ding zerfleddern...

Nicht gesund, diese Erwartungshaltung.
Lässt einen als Fanboy der anderen Seite dastehen. Erst recht, wenn man sie dann noch als dreisten Flame-Spam in nem Extra-Post zur Schau stellt.

Kurz: Übel riechender Brainfart.
Aha, weil man erwartet, das es zu keiner sinnvollen Diskussion kommt, ist man also ein Fanboy :freak: Ähm... ja...

Siehst du eine sinnvolle Diskussion dazu? Also ich nicht.

Ich seh da nur schon die Anzeigen für: Da sieht man den Code nicht, also ist es nichts wert, sich anbahnen.

Dass die Demo in Q1 sogar mit Modfunktion kommen soll, wird mal schön übergangen. Aber ich erwarte nicht, dass sich dadurch irgend jemand von seinem "Vaporware"-Standpunkt abbringen lassen wird.

Die ganzen letzten Seiten sind außer dem Video total fürn Lokus. Null Informationsgehalt und 100% gehate und getrolle...

Eigentlich kannste den Thread bis 01.01 oder eher 06.01 dicht machen, weil da eh nichts kommen wird. Danach kann man dann von mir aus auch schimpfen wie nen Rohrspatz, wenn Sie den Patch nicht noch gebracht haben. DAVOR! ist es aber einfach nur lächerlich.

=Floi=
2013-12-18, 10:32:58
ohne wirkliche fakten und software kann man ja nur vermuten. :rolleyes:

Iruwen
2013-12-18, 10:44:05
Wenns wenigstens noch Vermutungen gäbe, das waren wieder mal drei Seiten ohne jeglichen Bezug zu Technologie, nur gegenseitige Fanboyvorwürfe. Je näher der Termin rückt, umso schlimmer wirds.

Skysnake
2013-12-18, 10:52:47
ohne wirkliche fakten und software kann man ja nur vermuten. :rolleyes:
Dann hält man halt man den Schnabel bzw die Finger still...

Ist das so schwer?

In 14 Tagen könnt ihr von mir aus Geifern so viel ihr wollt, wenn der Patch nicht raus ist, oder zumindest klarere Neuigkeiten gibt.

Loeschzwerg
2013-12-18, 11:06:02
zu dir erlaube ich mir kein Urteil ^^

Du kannst mich als Hardcore 3dfx'ler oder gestörten Graka Sammler abstempeln :D Nur gegen eine Abschiebung in die großen Lager wehre ich mich ;)

Es wurde zwar schon vor längere Zeit gepostet, hat aber im Zusammenhang mit dem Video wieder an Aktualität gewonnen:
http://www.hardware.fr/news/13450/apu13-oxide-fait-exploser-limite-cpu-avec-mantle.html

Wird die Starswarm Demo eigentlich mit Direct3D Support erscheinen oder bleibt es bei Mantle only?!

Screemer
2013-12-18, 15:04:53
dich hat ich jetzt nicht in die Riege der Demo-Schreier eingegliedert. Sorry. Vielleicht hätte ich lieber NV-Flamer schreiben sollen. habs mal umformuliert.

obs die starswarm demo auch mit dx geben wird konnte ich aus der Präsentation nicht raus hören.

Nach dem Video ist es hier merklich stiller geworden. gefällt mir.

dargo
2013-12-18, 15:31:28
Edit: Ist das hier schon bekannt?
http://youtu.be/QIWyf8Hyjbg
Ich kenne es noch nicht. Das hier sieht aber sehr vielversprechend aus.

47425

Den vorletzten Punkt finde ich recht interessant. Das könnte langfristig Intel unter Druck setzen. Hätte nichts dagegen, dass endlich 6-8 echte Cores bei Intel für deutlich kleineres Geld angeboten werden. Der erste und dritte Punkt klingen schon beinah unglaublich. :eek:

THEaaron
2013-12-18, 15:41:19
Nice. Da sieht man mal wie es die neuen Konsolen schaffen mit 1,6GHZ low profile CPUs so Spiele wie Ryse und Killzone zu stemmen.

Locuza
2013-12-18, 15:51:02
Den vorletzten Punkt finde ich recht interessant. Das könnte langfristig Intel unter Druck setzen. Hätte nichts dagegen, dass endlich 6-8 echte Cores bei Intel für deutlich kleineres Geld angeboten werden.
Und hier kommt der traurige Fakt zur Vorschau, dass AMD nur noch 2 Module anbietet.

Bulldozer kam mit bis zu 4 Modulen, die Spiele waren nicht so gut multithreaded, man hat viel Strom gesoffen für wenig Performance.
Jetzt hat man ein Konsolenmonopol, viele müssen ihre Engine auf modernes multithreading umstellen, man präsentiert Mantle womit man auch auf dem PC viel besser skalieren kann, Steamroller sieht wie ein sehr guter Schritt nach vorne aus, doch leider bietet man keine aktuellen CPUs mit mehr als 2 Modulen an und das ist schon eine traurige Ironie, vor allem da Intel auch mit Skylake nicht mehr als 4 Kerne im Mainstream anbieten wird.

Intel ist der einzige der 6-8 Kerne anbieten wird und wenn es mit Mantle noch ein nettes Speed-Up geben wird, freut sich vermutlich Intel bisschen mehr High-End CPUs für 500-1000 Dollar verticken zu können.

dargo
2013-12-18, 16:11:45
Intel ist der einzige der 6-8 Kerne anbieten wird und wenn es mit Mantle noch ein nettes Speed-Up geben wird, freut sich vermutlich Intel bisschen mehr High-End CPUs für 500-1000 Dollar verticken zu können.
Ich bin da eher anderer Meinung. Wenn die CPUs dank Mantle deutlich mehr Frames liefern können dann gibt es für den Gamer gar keinen Grund für 6-8 Kerne @Intel und den teuren S2011. Es sei denn irgendein Dev traut sich irgendwann wieder richtig "auf die Kacke zu hauen".

Nice. Da sieht man mal wie es die neuen Konsolen schaffen mit 1,6GHZ low profile CPUs so Spiele wie Ryse und Killzone zu stemmen.
Naja... ohne die tatsächliche CPU-Last in den beiden Games zu kennen ist so ne Aussage nicht viel wert. Besonders Ryse ist da kein Paradebeispiel für wo man sehr oft mit um die 20fps unterwegs ist und ich Szenen gesehen habe wo es teilweise Richtung 16fps ging. Ich meine wer tut sich sowas freiwillig am PC an? Ich weiß nicht wie ihr das seht aber ich möchte eher 60+fps haben. Mein absolutes Limit liegt bei ca. 50 min.fps. Dadrunter macht das Spielen zumindest mir keinen Spaß. Wobei ich hier bei Ryse natürlich nicht sagen kann was da limitiert... CPU oder GPU? Und Coda kann oder will sich dazu sicherlich nicht äußern. Ich meine aber in irgendeinem Post von Coda aufgeschnappt zu haben, dass er sich bei der XBox One mehr Cores (oder war das mehr Takt?) gewünscht hätte. Daraus schlußfolgere ich dann, dass der CPU in Ryse wohl die Puste ausgeht.

just4FunTA
2013-12-18, 16:38:23
Nice. Da sieht man mal wie es die neuen Konsolen schaffen mit 1,6GHZ low profile CPUs so Spiele wie Ryse und Killzone zu stemmen.die nutzen allerdings mantle nicht..

Locuza
2013-12-18, 16:41:20
Bisher liegt die Differenz bei einem 6-Kerner von Intel bei nahezu 0%.
Es gibt gerade für Gamer noch viel weniger Gründe auf die 2011 Plattform umzusteigen, als später mit Mantle, wenn durch die gute Skalierung dann die Differenz auch größer ausfällt.
Gut der Aufrüstungszwang ist vielleicht weiterhin gering, da die CPU dann kein Limit mehr darstellt.
Aber wir haben noch keine Ergebnisse und gerade bei Strategiespielen wäre ich gespannt, wie die größeren Intel CPUs abschneiden.

Coda hat sich mehr Kerne gewünscht und ich glaube generell hätten die Entwickler gerne etwas mehr Power bei der CPU gehabt, aber die Sache ist nun so wie sie ist.

Käsetoast
2013-12-18, 16:42:55
die nutzen allerdings mantle nicht..
Dafür nutzen sie halt dasselbe in grün ... naja vielleicht noch ein wenig grüner als Mantle... ;)

-/\-CruNcher-/\-
2013-12-18, 16:51:29
Ehh Oxide hat da eine 1A Techdemo präsentiert die so einige andere vor neid erblassen lässt und ihr redet von vaporware und fake, sagmal geht es noch ?

Arcanoxer
2013-12-19, 04:57:11
Kann es kaum abwarten zu sehen wie Battlefield 4 die nächsten Tage mit Mantle performt.

Geldmann3
2013-12-19, 08:44:28
Wow, mit Mantle kann der FX8350 mit einer doppelt so teuren Intel CPU mithalten. :eek:

dargo
2013-12-19, 09:58:21
Wow, mit Mantle kann der FX8350 mit einer doppelt so teuren Intel CPU mithalten. :eek:
Naja... nicht gleich übertreiben. ;)

Erstens kostet der i7-4770K keine 320€. Zweitens ist der Vergleich auch nicht ganz fair. AMD hat beim FX bsw. keine IGP intergriert was bei Intel auch bezahlt werden will. Zudem ist der i7-4770K auch alles andere als preiswert (und warum eigentlich kein i7-4770 non K?). Wenn, dann würde ich den FX-8350 mit dem Xeon E3-1230 v3 vergleichen und dann hast du nur noch ~45€ Unterschied.

Dennoch fände ich es sehr begrüßenswert wenn Intel etwas unter Druck gerät. Die haben schon viel zu lange "ne ruhige Kugel geschoben".

THEaaron
2013-12-19, 10:09:14
Naja... ohne die tatsächliche CPU-Last in den beiden Games zu kennen ist so ne Aussage nicht viel wert. Besonders Ryse ist da kein Paradebeispiel für wo man sehr oft mit um die 20fps unterwegs ist und ich Szenen gesehen habe wo es teilweise Richtung 16fps ging. Ich meine wer tut sich sowas freiwillig am PC an? Ich weiß nicht wie ihr das seht aber ich möchte eher 60+fps haben. Mein absolutes Limit liegt bei ca. 50 min.fps. Dadrunter macht das Spielen zumindest mir keinen Spaß. Wobei ich hier bei Ryse natürlich nicht sagen kann was da limitiert... CPU oder GPU? Und Coda kann oder will sich dazu sicherlich nicht äußern. Ich meine aber in irgendeinem Post von Coda aufgeschnappt zu haben, dass er sich bei der XBox One mehr Cores (oder war das mehr Takt?) gewünscht hätte. Daraus schlußfolgere ich dann, dass der CPU in Ryse wohl die Puste ausgeht.

Ach komm. Selbst BF4 stemmen die neuen Konsolen. Die Grafik ist an den entsprechenden Stellen natürlich schlechter, aber dennoch liegt die PS4 bei 64 Spielern bei rund 50-55FPS und das finde ich für so wenig CPU Power schon erstaunlich.

AFAIK sagte Coda, dass er lieber mehr Cores hätte als mehr Leistung. ;)

ShadowXX
2013-12-19, 10:27:59
Ehh Oxide hat da eine 1A Techdemo präsentiert die so einige andere vor neid erblassen lässt und ihr redet von vaporware und fake, sagmal geht es noch ?
Und warum kann man die nirgendwo runterladen?

M4xw0lf
2013-12-19, 10:30:55
Weil sie erst irgendwann Anfang 2014 veröffentlicht wird.

[dzp]Viper
2013-12-19, 10:32:50
Und warum kann man die nirgendwo runterladen?
Weil nicht jede Techdemo automatisch für die Öffentlichkeit ist? Unter den Firmen und den Entwicklern wird die sicher auch verteilt. Aber meist liegt der Code zu offenstlich da und das wäre zu "heiß" diesen direkt zu veröffentlichen.

Wie kommst du auf die Idee, dass jede existierende Tech-Demo auch gleich für Hinz und Kunz verfügbar sein muss? Das ist doch Quatsch.

Arcanoxer
2013-12-19, 10:37:10
Viper;10046484']Aber meist liegt der Code zu offenstlich da und das wäre zu "heiß" diesen direkt zu veröffentlichen.
Ich denk der Code ist offen?

Skysnake
2013-12-19, 10:40:39
Dann frag dich mal, wie der Code aussehen wird ;)

Kraut und Rüben sind da am Anfang nicht zwingend etwas ungewöhnliches. Das will man natürlich nicht raus geben, sondern erstmal aufräumen.

dargo
2013-12-19, 10:41:14
Ach komm. Selbst BF4 stemmen die neuen Konsolen. Die Grafik ist an den entsprechenden Stellen natürlich schlechter, aber dennoch liegt die PS4 bei 64 Spielern bei rund 50-55FPS und das finde ich für so wenig CPU Power schon erstaunlich.

Also ich sehe hier bis zu 38fps.
http://www.youtube.com/watch?v=ZGiHqR61O4I

Zudem...

One stone left unturned is a frame-rate analysis of Xbox One's multiplayer mode - there were network problems on the first day of our Stockholm visit, meaning we could only look at the campaign mode. The PS4 version clearly struggled though, and likewise, for fully saturated 64-player Conquest Large games what we get here is a frame-rate that falls far below 60fps. Flood Zone gives us the biggest drop, going down to 30fps while swimming through a submerged ground floor of a building, but the overall experience across a breadth of levels is predominantly between 40-50fps on both Xbox One and PS4. Much of this has to do with the destruction dynamic, where walking through the debris of a levelled skyscraper in the Siege on Shanghai stage gives us a constant 40fps, for example.

Even with the massively dialled down internal resolution on Microsoft's platform, it's telling that these frame-rate drops remain consistent across both sets of hardware, indicating the bottleneck may be in the utilisation their multi-core Jaguar CPUs. By comparison, the PS4 fares a little better based on our experiences; though the nature of Battlefield's multiplayer games is often too chaotic and variable for a fair, like-for-like tests to be feasible. Even so, the key takeaway here is that those looking for the most fluid experience will need to stick with smaller Team Deathmatch games.

http://www.eurogamer.net/articles/digitalfoundry-battlefield-4-next-gen-face-off

Auf der PS4 siehts auch nicht besser aus.
https://www.youtube.com/watch?v=dkjS4wLEQX0

Und solange mir kein DICE-Mitarbeiter bestätigt, dass die CPU-Last in BF4 bei den Konsolen genauso hoch ist wie am PC kann ich mir auch keinen richtigen Eindruck von den Jaguarkernen machen. Man kann bsw. mit dem LoD spielen um CPU-Last zu sparen. Und zu guter letzt ist der Mantlepatch noch gar nicht da. Ich habe jetzt schon mit einem "kleinen" Haswell-Xeon keine Schwierigkeiten. Bin fast durchgehend im selbst erstellten 80fps-Limit. Ab und zu fällts auf ~70fps runter.

PS: weiß einer zufällig ob bei den Frameanalysen das tatsächlich 64 Spieler Partien waren? Ich kann dazu keine Angaben finden, oder habs übersehen.

Edit:
Wie ich es mir dachte. Bei den Konsolenversionen wird am LoD/Objekten (Vegetation, Steine) gespart.

47432 47433

[dzp]Viper
2013-12-19, 10:44:13
Ich denk der Code ist offen?
Mantle ist aber nicht komplett offen.

Air Force One
2013-12-19, 10:56:00
Hmmmm ich dachte Mantle würde allein die CPU last senken?
also auch bei Intel...oder ist da irgendwie eine spezielle Hardware im Bulli drin?
Aldo eher Software oder? Müsste ja dann mit Anpassung auch mit Intel funktionieren...

Weis gerade nicht was ich davon halten soll.
Ich Frage mich auch wie der Verbrauch dann bei AMD ist, der Verbrauch war ja schon so schlecht, und mit guter Auslastung und ohne TDP limit dürfte dieser doch sogar explodieren?

dargo
2013-12-19, 11:08:21
Hmmmm ich dachte Mantle würde allein die CPU last senken?

Der Thief Entwickler sagt was anderes. Zudem finde ich die Formulierung "CPU-Last senken" ungeschickt. Die kann man nicht senken, die ist ja da. Was Mantle macht ist u.a. das CPU-Limit zu senken. Zb. durch Verringerung vom API-Overhead.


also auch bei Intel...oder ist da irgendwie eine spezielle Hardware im Bulli drin?
Aldo eher Software oder? Müsste ja dann mit Anpassung auch mit Intel funktionieren...

Ich erkläre mir das folgendermaßen... beim i7-4770 hast du ja 4 echte und 4 virtuelle Kerne. Bei AMD hast du 4 Module. Ein Modul kommt afaik auf ca. 80% der Leistung von 2 Kernen (man möge mich korrigieren wenn ich damit falsch liege, habe mich mit den AMD-Modulen nicht so beschäftigt). Das kannst du bei den virtuellen Kernen von Intel imho nie rausholen. Beim FX fehlt halt tatsächlich ein perfektes Multithreading in Games was hoffentlich bald Geschichte ist.

Air Force One
2013-12-19, 11:19:58
also würde das ganze nur bei neuen Games was taugen.
Ein Wrapper (nennt man das so?) wäre doch besser oder nicht? aber dann wohl zu ineffizient?

dargo
2013-12-19, 11:24:21
also würde das ganze nur bei neuen Games was taugen.

Naja... jetzt mal ehrlich, wozu brauchst du das für die alten Schinken? Zumindest bei dem was ich so spiele habe ich bei älteren Games mit der aktuellen CPU Leistung ohne Ende da die CPU-Last deutlich geringer als bei modernen Spielen ist. Und das trotz dem Makel, dass nur 2-3 Kerne ausgelastet werden.

Botcruscher
2013-12-19, 11:38:10
Du spielst die falschen Sachen. Homeworld 2 Complex ist so ein Fall. Das frisst dir einen 2500K auf 4,5GHz zum Frühstück. Die V9 ist gerade beta.
Trailer 8 (http://www.youtube.com/watch?v=Q_teupZDIaw)

Vergleichbares zu dem "alten" Schinken ist nicht existent!

Air Force One
2013-12-19, 11:40:10
OK falsch Formuliert..ich meinte da so etwas wie Starcraft 2.
Soll ja schlechter performen.

Mich interessiert aber wirklich ob der Verbrauch dann deutlich steigen wird. Hab hier im Forum gelesen das ein paar Boards die CPU abbremsen. weis nur nicht ob es an der Temp oder TDP lag.

Sollte Mantle gut verbreitet sein, wäre das für die Verbraucher eine WIN WIN Situation.

dargo
2013-12-19, 11:42:37
Weis gerade nicht was ich davon halten soll.
Ich Frage mich auch wie der Verbrauch dann bei AMD ist, der Verbrauch war ja schon so schlecht, und mit guter Auslastung und ohne TDP limit dürfte dieser doch sogar explodieren?
Schau nicht nur auf den FX-8350. Schau dir bsw. einen FX-6350 oder FX-8320 (111-126€) an. Bei denen dürfte die Verlustleistung schon etwas niedriger sein. Und es wäre doch schön wenn diese CPUs bsw. mit einem i7 Ivy in etwa gleichziehen würden. Klar... AMD hat halt den Nachteil der Fertigung. Intel ist da immer eine Größe voraus. Wenn beide in der selben Fertigung produzieren würden wäre ein Konkurrenzkampf viel interessanter.

Du spielst die falschen Sachen.

So falsch können die nicht sein wenn Frames auf CPU-Seite mehr als genug vorhanden sind. ;)


Homeworld 2 Complex ist so ein Fall. Das frisst dir einen 2500K auf 4,5GHz zum Frühstück. Die V9 ist gerade beta.
Trailer 8 (http://www.youtube.com/watch?v=Q_teupZDIaw)

Gut... das ist jetzt nicht mein Genre. Aber, dass ein 4,5Ghz i5 Sandy damit überfordert ist glaube ich nicht. Betasoftware würde ich eh nicht bewerten. Bestes Beispiel war vor kurzem die Beta von BF4. Welche API unterstützt das Game überhaupt? Wenn nur DX9 dann wundert mich gar nichts.

Aber gut, dass du dieses Genre ansprichst denn dafür ist nämlich die Nitrous-Engine von Oxide Games dank Mantlesupport wie geschaffen wenn ich mir die Präsentation so anschaue.


Mich interessiert aber wirklich ob der Verbrauch dann deutlich steigen wird.
Glaube ich nicht, und wenn dann nur minimal. Ich weiß noch nicht mal welchen Verbrauch du meinst. Wenn ich die Temps. meiner CPU bei Games betrachte dann liegt diese immer tiefer als beim neuesten Prime95. Von daher wird die CPU sicherlich nicht wärmer in Games als bei bsw. Prime.

Edit:
Mal ein kleines Beispiel zur Veranschaulichung.

Nehmen wir einfach mal eine Spielszene mit fiktiven Lastzuständen.

Spielszene X:
ohne Mantle = 80% CPU-Limit
mit Mantle = 60% CPU-Limit

Wenn deine CPU jetzt bsw. ohne Mantle 60°C warm war dann würde ich davon ausgehen, dass sich im Vergleich zum Mantlesupport nicht viel an der Temp. ändert da sich die Limits ja verschieben. Dh. deine Graka ackert stärker. Wo die Temps. nur ansteigen sind Szenen mit nahezu 100% CPU-Limit trotz Mantle. Aber wie gesagt... über Prime-Niveau glaube ich eh nicht.

Skysnake
2013-12-19, 12:03:09
Homeworld hat meines Wissens nach das gleiche Problem wie CitiesXL. Man nutzt nur einen Thread/Prozess. Das ist halt einfach nicht mehr zeitgemäß, und Single-Thread-Leistung stagniert seit einiger Zeit.

dargo
2013-12-19, 12:06:49
Homeworld hat meines Wissens nach das gleiche Problem wie CitiesXL. Man nutzt nur einen Thread/Prozess. Das ist halt einfach nicht mehr zeitgemäß, und Single-Thread-Leistung stagniert seit einiger Zeit.
Ach du sche... :eek: mit alten Schinken meinte ich natürlich nicht Steinzeitengines. :tongue:

Skysnake
2013-12-19, 12:11:53
Das Ding ist von 2003 ;)

Was erwartest du?

Hier gibts btw ne Demo (http://www.gamestar.de/spiele/homeworld-2/43236.html)

dargo
2013-12-19, 12:14:40
Das Ding ist von 2003 ;)

Was erwartest du?

Ja... Entschuldigung. :tongue:

Wenn ich lese, dass es erst eine Beta gibt dann gehe ich davon aus das Spiel kommt erst. :D

Gimmick
2013-12-19, 12:20:34
OK falsch Formuliert..ich meinte da so etwas wie Starcraft 2.
Soll ja schlechter performen.

Mich interessiert aber wirklich ob der Verbrauch dann deutlich steigen wird. Hab hier im Forum gelesen das ein paar Boards die CPU abbremsen. weis nur nicht ob es an der Temp oder TDP lag.

Sollte Mantle gut verbreitet sein, wäre das für die Verbraucher eine WIN WIN Situation.

Warum sollte der Verbrauch steigen? Wenn die CPU weniger zu tun hat und alle 8 Threads genutzt werden langweilt die soch doch eh im GPU Limit. War in der Demo aus der Präsentation ja auch so. Wie war das genau? Auf rund 2GHz runtergetaktet und immernoch GPU limitiert? ^^
Imo wird es so kommen, dass Spiele, die mantle nutzen, ziemlich unabhängig von der CPU laufen, man aber je nach Genre weiterhin kaum um einen Intel rum kommt. Je nach Spiel langweilt der sich dann halt.

dargo
2013-12-19, 12:32:10
War in der Demo aus der Präsentation ja auch so. Wie war das genau? Auf rund 2GHz runtergetaktet und immernoch GPU limitiert? ^^

Stimmt... das habe ich wieder vergessen. :freak:

Wobei sich die Entwickler wieder mehr trauen könnten die CPU-Last in neuen Games massig zu erhöhen. Aber solange NV kein Mantle supportet können wir das wohl vergessen. Mir ist es auch wurscht wie die API heißt... ob Mantle oder weiß der Geier was. Sollte Mantle wirklich so effizient sein wäre es das beste für alle wenn beide IHVs es nutzen würden.

Das positive an der Geschichte... jetzt kann die CPU anstatt 4 Jahre wohl um die 6-8 Jahre im Rechner verbleiben. :freak:

Air Force One
2013-12-19, 12:34:27
ahso, ich ging halt davon aus das es so wie AVX2 von Intel wäre. Nur halt für anderes Aufgabengebiet.

dargo
2013-12-19, 13:17:32
ahso, ich ging halt davon aus das es so wie AVX2 von Intel wäre.
Im Prinzip schon... zumindest was die erhöhte Temperatur angeht. Aber überlege mal wie wir AVX2 testen? Da laufen bei Prime bei mir alle 8 Threads dauerhaft @100%. Welches Game soll das durchgehend bieten? :freak: Ok... mit 4x GTX 780TI oder 4x R9 290X könnte es tatsächlich hier und da mal ne Szene geben wo das der Fall ist (vorrausgesetzt natürlich perfektes Multithreading der Software bei 8 Threads). :D Bei einer Graka eher nicht. ;) Da heißt es immer je nach Szene Wartezeit für die CPU oder GPU.

Air Force One
2013-12-19, 13:32:30
Ok stimmt, daran habe ich jetzt gar nicht gedacht. :redface:

Ob man Mantle auch in Anwendungssoftware Patchen kann? :upara:

Ok Spaß bei Seite.

Ich stelle mir Mantle gerade bei den APUs sehr vorteilhaft vor.
Gerade bei lowbudget "Gaming" Notebooks, oder?

PS: AVX2 hält ja schon teilweise Einzug in Anwendungssoftware, zumindest bei den Profis.

dargo
2013-12-19, 14:00:16
Ich stelle mir Mantle gerade bei den APUs sehr vorteilhaft vor.
Gerade bei lowbudget "Gaming" Notebooks, oder?

Jup... wobei ich die IGPs immer noch katastrophal finde was Leistung angeht, besonders bei Intel. Aber in "Gamer-Notebooks" zb. mit einer AMD Radeon™ HD 8870M mit knapp 1 TFLOPs ist eine effizientere API sicherlich willkommen. Besonders dann auch bei einer schwächeren CPU, was in Notebooks ja in der Regel auch üblich ist bei den niedrigen Taktraten.

fdk
2013-12-19, 14:32:14
Das positive an der Geschichte... jetzt kann die CPU anstatt 4 Jahre wohl um die 6-8 Jahre im Rechner verbleiben. :freak:

Solange es eine Randerscheinung ist wird es nichts am Aufrüstzyklus ändern. Auch die CPU-Performance der FX-CPUs wird Mantle nicht retten. Dazu gibt es zu viele Titel die an der Single Core Leistung hängen (Auch wenn das viele nicht wahrhaben wollen - siehe FX Thread & die Diskussion um Starcraft II).

dargo
2013-12-19, 14:50:29
Wie ich schon öfter gesagt habe. Solche alten Schinken und vorallem ineffiziente Engines interessieren mich absolut nicht. Ein Starcraft II ist für mich mehr eine Randerscheinung als Mantle und DX11.x. Ich kaufe mir eine CPU für die Gegenwart und Zukunft, nicht für die Vergangenheit.

Skysnake
2013-12-19, 15:08:48
Solange es eine Randerscheinung ist wird es nichts am Aufrüstzyklus ändern. Auch die CPU-Performance der FX-CPUs wird Mantle nicht retten. Dazu gibt es zu viele Titel die an der Single Core Leistung hängen (Auch wenn das viele nicht wahrhaben wollen - siehe FX Thread & die Diskussion um Starcraft II).
Und?

Titel wie Starcraft II sollte man einfach im Regal stehen lassen, genau wie ein paar der NFS Teile.

Software die an einem Thread hängt ist einfach nicht mehr zeitgemäß! Die Publisher werden sich aber weigern auch nur einen müden Cent in die Engines zu buttern, so lange der Mist auch weiterhin gekauft wird.

kruemelmonster
2013-12-19, 15:37:37
Titel wie Starcraft II sollte man einfach im Regal stehen lassen, genau wie ein paar der NFS Teile.

Starcraft spielt man oder eben nicht, kein Interessierter würde es wegen der Engine im Regal stehen lassen.


Software die an einem Thread hängt ist einfach nicht mehr zeitgemäß! Die Publisher werden sich aber weigern auch nur einen müden Cent in die Engines zu buttern, so lange der Mist auch weiterhin gekauft wird.

Wer sich als RTS-Fan einen IPC-schwachen Prozessor holt ist selbst schuld, das Genre geht traditionell sehr stark auf die CPU. Auch wirken mehr Threads nicht einfach Wunder wenn einzelne Aufgaben, auf die zwingend gewartet werden muss, dann doch mal etwas mehr ST-Leistung erfordern. Und CPU-Last kommt nicht nur durch Drawcalls zustande. ;)

Skysnake
2013-12-19, 15:55:32
Sorry, aber auch bei RTS kann man extrem viel parallelisieren, wenn man denn will. Genau das ist aber eben oft der springende Punkt. Die Publisher scheuen sich das zu machen, weil man dann ja was Neues machen müsste. So verwurstet man halt den alten Mist oft bis zum Erbrechen...

Man sieht aber auch sehr gut, das es durchaus RTS gibt, welche auch über viele Kerne skalieren.

Sorry, aber so lange nicht alle Cores einer CPU voll ausgelastet sind, haben es die Entwickler einfach verkackt, wenn die CPU limitiert und man dadurch niedrige FPS-Werte hat.

StefanV
2013-12-19, 15:57:32
Sorry, aber auch bei RTS kann man extrem viel parallelisieren
Ist es nicht so, dass man gerade bei RTS viel parallelisieren kann?
Sprich die ganze Wegfindung, KI usw??

Skysnake
2013-12-19, 16:06:24
Kommt darauf an, wie man es angeht, aber an sich ja klar, wenn man will kann man da viel parallelisieren, wobei die Frage auch da ist, ob man wirklich immer alles erneut rechnen muss, oder nicht auf bereits berechnetes zurückgreifen kann.

Je nachdem kann man da extrem viel einsparen.

N0Thing
2013-12-19, 17:43:55
Planetary Annihilation skaliert zumindest mit vier Kernen sehr gut. Mit weiteren vielleicht auch, aber ich hab nur einen Quadcore. ;)
Es sollte also für ein RTS kein Hexenwerk sein, mehr als einen Kern zu nutzen.

gnahr
2013-12-19, 18:06:04
so lange nicht alle Cores einer CPU voll ausgelastet sind, haben es die Entwickler einfach verkackt.
was skandiert man hier schon wieder? hat natürlich ultra viel mit mantle zu tun...

natürlich kann sich jemand so pseudo-schöngeistig über mangelnde auslastung künstlich aufregen, die kehrseite der medaillie würde bei skysnake ja nie zur sprache kommen. grenzertragsoptimierung ist nämlich ne tolle sache. was nützen den leuten 100% auslastung auf budget-cpus und crap-chips wenn die effekte dadurch immer noch lausig aussehen wie sie es auf den alten konsolen tun die mal als "next gen" verkauft wurden?
so lang es cpus und grafikchips auf dem markt gibt die das produkt mehr als ansprechend darstellen können braucht man dem bodensatz der leistungsgruppe nicht das mikrofon zu reichen. es gibt immer noch jemanden der noch mal 2 jahre ältere sachen hat und sich dann so betroffen echauffiert wie es hier geschiet.

fdk
2013-12-19, 18:15:54
Es geht nicht nur um Mainstreamtitel. Dort kann man durchaus erwarten, dass die engine vier cores ausreichend auslastet.

Aber ein Blick in die top 10 von steam zeigt, daß indie-titel immer wichtiger werden. Und bei Spielen wie KSP hat man da einfach komplett verloren. Zu erwarten das die des hier optimieren bringt da auch nix, da die des mit der Umsetzung der Spielidee komplett überfordert sind.

grobi
2013-12-19, 18:38:02
Ich hoffe das Mantle meiner 7870 bald beine unter BF4 macht, würde mich über das zuschalten der Kantenglättung ohne Leistungsverlust freuen.



Schau nicht nur auf den FX-8350. Schau dir bsw. einen FX-6350 oder FX-8320 (111-126€) an. Bei denen dürfte die Verlustleistung schon etwas niedriger sein. Und es wäre doch schön wenn diese CPUs bsw. mit einem i7 Ivy in etwa gleichziehen würden. Klar... AMD hat halt den Nachteil der Fertigung. Intel ist da immer eine Größe voraus. Wenn beide in der selben Fertigung produzieren würden wäre ein Konkurrenzkampf viel interessanter.



Ich denke sogar das Intel selbst in 45nm noch besser wäre. Siehe die alten Bloomfields. Die nicht mehr Verbrauchen wie ein Vishera und eine höhere Protaktleistung aufweisen. Leider hat AMD nicht die Möglichkeiten weder in der Fertigung noch im Design mitzuhalten.

mfg grobi

Hübie
2013-12-19, 18:46:02
O'Rly? Und kannst du die Relevanz davon jetzt besser einschätzen als ich?

Wie sagt man bei uns: Da hast schon Recht auf deine Art.

Ach, Mensch. Wie konnte ich nur etwas sagen. Verzeih mir oh großer Meister der Bestimmt was relevant ist und was nicht :rolleyes: Sind UAVs nicht relevant für die CE3 oder ist das mit deiner Aussage zu compute shader abgegolten?

Wie sagt man bei uns: Du bist schon etwas speziell, gell?

Folgende zwei Aussagen von dir sind schon etwas grenzwertig.

Was ist daran denn grenzwertig? Ich bezog mich damit nicht auf die technischen Aspekte, falls es dir nicht aufgefallen ist. Das war einfach kein großer Wurf, weil einfach Vistas Erfolg ausblieb und es keine Möglichkeit gab das in WinXP zu implementieren.

DX10 war ein wichtiger Schritt für die Zukunft der Spieleentwicklung. Vielleicht konnten wir zu Windows Vista Zeiten noch keine großen Vorteile daraus ziehen aber ohne DX10/11 wäre es gar nicht möglich einige der Spiele zu entwickeln, die heute auf den Markt sind.

Der CPU belastende Overhead war mit DX9 viel zu groß und die ganze Physik, die riesige Menge an Objekten wie zB. in einem BF4 wäre gar nicht möglich. Wahrscheinlich nicht mal ansatzweise.

Du fragst was den Spieler am CPU-Limit interessieren soll? Naja, hätte man nicht angefangen mit DX10 extrem die Effizienz zu verbessern, würden wird heute in absolut jedem modernen Spiel nur im CPU-Limit rumkrebsen, wahrscheinlich mit 10-20fps.

Unterm Strich kann man also sagen das DX10 damals noch nicht wichtig für die damaligen Spiele war. Historisch gesehen war es für die Entwicklung und den Fortschritt der Technik, sowie der Engines aber sehr wichtig. DX11 ist ja schließlich eine Weiterentwicklung und konnte auf dem zurückliegenden, großen Bruch dank DX10 Aufbauen und sich schließlich dank dem hervorragenden Win7 durchsetzen.

Danke für den Geschichtsunterricht. Dennoch finde ich interessant, dass so einige Devs die Schnauze voll haben und weder zu D3D10 noch 11 greifen wollen. Aber die müssen es ja (meistens).
D3D 11 hätte 10 sein müssen und das jetztige D3D11 schon viel weiter um massive Parallelisierung zu gestatten. Die Hardware kann schon so viel mehr als das was aktuell geboten wird...

Es gibt immer ein paar Fanatiker die irgendwo einen Krümel finden, das hat aber nichts mit den Leuten zu tun die einfach mal etwas sehen und nicht nur "blöde" Sprüche lesen wollen. Es wurde schon viel zu viel angekündigt und dann kam nix dabei herum.
Um Effekte geht es hier doch nicht, eher um einen frühen Leistungsvergleich was möglich sein kann mit Mantle. Das hätte auch mit einer kurzen BF4 Sequenz funktioniert (inkl. Anzeige zu Calls/Batches).



Wie voreingenommen seid ihr hier eigentlich?! Ich glaub es hakt :freak: Jeder der also nur mal ein Quäntchen funktionierenden Code sehen will ist gleich böser NVler... :P

Aber nach dem Vid von der APU13 konnte man wenigstens etwas lauffähiges sehen inkl. schöner Präsentation.

Ack. Ich werde wohl mal mein Profil ändern müssen und schreibe rein das ich AMD-Nutzer bin dann pissen mich die üblichen Verdächtigen auch nicht immer an wenn ich mal etwas von AMD fordere. :rolleyes:

@dargo: Die FC2/D3D10-Diskussion können wir genre per PN fortführen ;)

dargo
2013-12-19, 18:56:43
Ich denke sogar das Intel selbst in 45nm noch besser wäre. Siehe die alten Bloomfields. Die nicht mehr Verbrauchen wie ein Vishera und eine höhere Protaktleistung aufweisen.

Aber auch nur weil viele Games so miserabel über 4 Cores skalieren. In Crysis 3 kann ein FX-8350 bei der Grassimulation locker mit dem i5-3570 mithalten. Ivy Bridge ist auch schon in 22nm gefertigt.

Hübie
2013-12-19, 19:02:53
Das ist aber auch wieder nur ein Indiz für die Limitierungen der API. CryEngine über mantle wäre sicher mit einem guten Leistungsplus verbunden. Nutzt Chris Roberts' Star Citizen nicht die CE3? :|

grobi
2013-12-19, 19:06:09
Aber auch nur weil viele Games so miserabel über 4 Cores skalieren. In Crysis 3 kann ein FX-8350 bei der Grassimulation locker mit dem i5-3570 mithalten. Ivy Bridge ist auch schon in 22nm gefertigt.


Das ist aber jetzt schon ein bisschen Rosinenpickerei.
Ich selbst Nutze einen i7 920 auf 3.35 ghz Übertaktet und stecke bei BF4 einen Vishera in die Tasche. Wenn er da mithalten will muss er ordentlich Übertaktet werden. Ich wollte schon fast aus Basteldrang einen Vishera ausprobieren aber das wäre verschwendetes Geld.

Ich denke AMD wird eher mit High End Grafikkarten seinen weg machen und ihre CPU's in einer Nische betreiben.


mfg grobi

dargo
2013-12-19, 19:06:38
Das ist aber auch wieder nur ein Indiz für die Limitierungen der API.

Nicht wirklich.

Crytek realisiert die komplette Grassimulation über die CPU. Und das lässt sich wunderbar parallelisieren. Der FX-8350 kann auch nur bei dieser Grassimulation mit dem Ivy mithalten. Sobald es kein Gras mehr zu sehen gibt (zb. andere Missionen) nimmt das Multithreading über 8 Threads auch erheblich ab.


CryEngine über mantle wäre sicher mit einem guten Leistungsplus verbunden. Nutzt Chris Roberts' Star Citizen nicht die CE3? :|
Ja SC nutzt eine modifizierte CE3 und soll Mantle supporten.

Das ist aber jetzt schon ein bisschen Rosinenpickerei.

Ich wollte nur darauf hinweisen, dass die FX-CPUs gar nicht soo schlecht sind wenn viel parallelisiert wird. Und eben daran scheitert es momentan durchgehend in Games noch etwas. Man muss halt abwarten was Mantle hier bewirken kann. Gerade beim Multithreading erwarte ich hier große Zuwächse im Hinblick auf 8 Threads.


Ich selbst Nutze einen i7 920 auf 3.35 ghz Übertaktet und stecke bei BF4 einen Vishera in die Tasche.
Kann ich mir nicht vorstellen wenn in BF4 der FX-8350 schon beinah an den i5-4670K rankommt.

grobi
2013-12-19, 20:07:21
Kann ich mir nicht vorstellen wenn in BF4 der FX-8350 schon beinah an den i5-4670K rankommt.

Kannst du mir das mal zeigen?

Arcanoxer
2013-12-19, 20:17:40
Nutzt Chris Roberts' Star Citizen nicht die CE3? :|Leider, größte fehlentscheidung ever.

Jegliche Multiplatform-Fragen werden mit "wir können ja nicht, weil Cry Engine" abgeblockt.
Da Frage ich mich warum man sich für so eine schrott Engine entschieden hat.

Richard Garriot hat es richtig gemacht und benutzt für Shroud of the Avatar die Unity Engine.

dargo
2013-12-19, 20:24:01
Kannst du mir das mal zeigen?
Klaro. :)

47436

http://www.pcgameshardware.de/CPU-Hardware-154106/Tests/Xeon-E3-1230-v3-Test-1099616/

Allerdings bitte dabei eines beachten (ist mir erst beim genaueren Hinsehen aufgefallen). Diese Szene ist nicht vollständig im CPU-Limit. Zumindest nicht bei den avg.fps. Das sieht man sehr gut an den FX-CPUs. Bei den avgs. legt der FX-9370 nur 3% zu obwohl er 10% höher taktet. Die min.fps passen da schon eher. Wobei die min.fps gerade bei längeren Savegames wieder mit Vorsicht zu genießen sind. Das sieht man wunderbar an dem Xeon. Obwohl der OC-Xeon mit knapp 6% höher taktet liegen die min.fps gleichauf. Sowas ist nicht möglich. Hier spielt wie gesagt die Länge vom Savegame eine wesentliche Rolle, dann eine 100% sichere Reproduzierbarkeit. Und manchmal gibts auch leichte Schwankungen je nach Game und Szene.

Wenn man das alles berücksichtigt würde ich den FX-8350 in der PCGH-Szene eher beim i5-4430 bis i5-4570 einordnen. Der i5-4670K war wohl etwas zu hoch gegriffen.

fdk
2013-12-19, 21:37:03
Leider, größte fehlentscheidung ever.

Jegliche Multiplatform-Fragen werden mit "wir können ja nicht, weil Cry Engine" abgeblockt.
Da Frage ich mich warum man sich für so eine schrott Engine entschieden hat.

Richard Garriot hat es richtig gemacht und benutzt für Shroud of the Avatar die Unity Engine.
Und wie toll Unity3d ist kannst du dir bei Kerbal space program ansehen (/s). Wenn das der Fall gewesen wäre hätte ich nicht einmal die 30$ investiert.

@bf4 Benchmarks:
Der sp hat ziemlich genau 0 Anspruch an die CPU.

Skysnake
2013-12-19, 21:38:45
was skandiert man hier schon wieder? hat natürlich ultra viel mit mantle zu tun...

natürlich kann sich jemand so pseudo-schöngeistig über mangelnde auslastung künstlich aufregen, die kehrseite der medaillie würde bei skysnake ja nie zur sprache kommen. grenzertragsoptimierung ist nämlich ne tolle sache. was nützen den leuten 100% auslastung auf budget-cpus und crap-chips wenn die effekte dadurch immer noch lausig aussehen wie sie es auf den alten konsolen tun die mal als "next gen" verkauft wurden?
so lang es cpus und grafikchips auf dem markt gibt die das produkt mehr als ansprechend darstellen können braucht man dem bodensatz der leistungsgruppe nicht das mikrofon zu reichen. es gibt immer noch jemanden der noch mal 2 jahre ältere sachen hat und sich dann so betroffen echauffiert wie es hier geschiet.
Du laberst mal wieder einen Blödsinn sondersgleichen...

Wir sind in der Multi-Core-Zeit angekommen, und das nicht erst seit gestern... Die Steigerungen der IPC sind und werden auch in Zukunft sehr überschaubar bleiben. Wer da heutzutage, oder auch schon vor 2-4 Jahren Games raus gebracht hat, die selbst mit dem jeweiligen CPU-Topmodell @4GHz+, also Max-OC, nicht die 60 FPS packen wegen CPU-Limitierung, der macht etwas falsch, denn der Zug mit dem warten auf schnellere HArdware ist da einfach abgefahren, wenn man nicht parallelisiert. Die Single-Thread-Leistung steigt in dem Maße nicht mehr an, und wer sich darauf verlässt gehört einfach erschossen...

Wenn die schnellste CPU (Multi-Core) nicht schnell genug ist, dann ist das halt so, aber wenn man wegen nem sequenziellen Code langsam ist, hat es der Entwickler verkackt. Punkt.

Wir leben in 2013 und nicht in 1990...

dargo
2013-12-19, 22:15:25
@bf4 Benchmarks:
Der sp hat ziemlich genau 0 Anspruch an die CPU.
Das ist zwar richtig, dass die CPU-Last im SP recht gering ist. Das ändert aber nichts an der Tatsache, dass die FX-CPUs trotzdem gut skalieren. Wäre dem nicht so wäre der FX viel weiter hinter dem Intel-Haswell.

Du laberst mal wieder einen Blödsinn sondersgleichen...

Wir sind in der Multi-Core-Zeit angekommen, und das nicht erst seit gestern... Die Steigerungen der IPC sind und werden auch in Zukunft sehr überschaubar bleiben. Wer da heutzutage, oder auch schon vor 2-4 Jahren Games raus gebracht hat, die selbst mit dem jeweiligen CPU-Topmodell @4GHz+, also Max-OC, nicht die 60 FPS packen wegen CPU-Limitierung, der macht etwas falsch, denn der Zug mit dem warten auf schnellere HArdware ist da einfach abgefahren, wenn man nicht parallelisiert. Die Single-Thread-Leistung steigt in dem Maße nicht mehr an, und wer sich darauf verlässt gehört einfach erschossen...

Wenn die schnellste CPU (Multi-Core) nicht schnell genug ist, dann ist das halt so, aber wenn man wegen nem sequenziellen Code langsam ist, hat es der Entwickler verkackt. Punkt.

Wir leben in 2013 und nicht in 1990...
Absolute Zustimmung. (y)

Ich kanns verstehen, wenn ein Dev eine aktuelle Hig-End CPU ans Limit bringt weil er eventuell zuviel implementiert hat und somit die CPU praktisch überfordert ist. Wofür ich aber kein Verständis habe ist wenn die Frames zu niedrig sind und gleichzeitig ein Großteil der CPU einfach nur Däumchen dreht. Sowas ist echt Steinzeit.

samm
2013-12-19, 23:23:46
Leider, größte fehlentscheidung ever.

Jegliche Multiplatform-Fragen werden mit "wir können ja nicht, weil Cry Engine" abgeblockt.
Da Frage ich mich warum man sich für so eine schrott Engine entschieden hat.

Richard Garriot hat es richtig gemacht und benutzt für Shroud of the Avatar die Unity Engine.Ist das ein ironisches Posting? Es geht um maximale Ausreizung künftiger Hardware mit sämtlichen vorhandenen Features, das ist schlicht kein Unity-Territorium. Abgesehen davon, dass ich im Zusammenhang mit Unity bisher noch nichts von Mantle-Support gehört habe.

Auch all dies mal dahingestellt: da auch erst seit Kurzem fehlerfrei Sound wiedergegeben wird, weil es Probleme mit dem Threading gab, wäre sie zum Zeitpunkt des Auswählens sicher kein Kandidat für "Immersion"-Schlagwortbenutzer Roberts gewesen. Und von wegen GPU-Nutzung maximieren, CPU-Overhead minimieren, mal folgenden Unity-Promoshot ansehen: http://unity3d.com/profiles/unity3d/themes/unity/images/unity/performance/profiler-big.jpg

Auch wenn Dice für Battlefield keinen Mantle-Patch mehr bringen sollte diesen Monat, gibt es im Januar (oder war's einfach Anfang 2014?) die Nitrous Engine Demo, und daraus werden sich hoffentlich für Zweifler und Interessierte endlich konkretere Ergebnisse zeigen :)

StefanV
2013-12-19, 23:40:07
Sie ändert sich ja nicht, darum ist NV im Zweifelsfall immer besser...

Edit: Ist das hier schon bekannt?
http://youtu.be/QIWyf8Hyjbg
Sehr interessant, was die da sagen.

Insbesondere wie sehr sie auf Direct3D drauf kloppen ist interessant. Die lassen da ja wirklich kaum ein gutes Haar an D3D...
Das bezeichnen sie ganz frech als Schnittstelle aus den 90ern...

Auch, was sie da zu den Treibern und der ganzen ungenutzten CPU Power sagen, ist durchaus im Bereich von 'ziemlich übel'...
Das hat M$ aber wirklich verkackt bzw geschlafen, in diesem Punkt...

Hayab
2013-12-20, 00:06:36
Sehr interessant, was die da sagen.

Insbesondere wie sehr sie auf Direct3D drauf kloppen ist interessant. Die lassen da ja wirklich kaum ein gutes Haar an D3D...
Das bezeichnen sie ganz frech als Schnittstelle aus den 90ern...

Auch, was sie da zu den Treibern und der ganzen ungenutzten CPU Power sagen, ist durchaus im Bereich von 'ziemlich übel'...
Das hat M$ aber wirklich verkackt bzw geschlafen, in diesem Punkt...

MS hat wohl ganz andere Prioritaeten wie Gamingperformance.;D

Coda
2013-12-20, 01:27:12
Ach, Mensch. Wie konnte ich nur etwas sagen. Verzeih mir oh großer Meister der Bestimmt was relevant ist und was nicht :rolleyes: Sind UAVs nicht relevant für die CE3 oder ist das mit deiner Aussage zu compute shader abgegolten?
Sind sie vielleicht. Aber das ändert absolut gar nichts daran, dass man nicht D3D10 schlecht reden und im gleichen Satz D3D11 für toll erklären kann wenn das letztere zu 90% identisch und nur erweitert ist.

Das zeugt einfach von komplettem technischen Unverständnis. Eine Engine von D3D10 auf D3D11 umzustellen ohne weitere Features dauert ein paar Tage und ist primär "D3D10" mit "D3D11" zu ersetzen im Source. Die Performance wäre identisch.

Und deine Polemik kannst du dir sparen. Dunning-Kruger-Effekt in Reinstform. Das gilt im weiteren nicht nur für dich wenn ich die Posts von den anderen Spezialexperten hier mal wieder lese. Ich habe generell in letzter Zeit vermehrt das Gefühl hier das eine Expertenmeinung weder geschätzt noch gewürdigt wird.

Die Hardware kann schon so viel mehr als das was aktuell geboten wird...
Das "sehr viel mehr" ist maßlos übertrieben. Mit 11.2 ist bis auf Details alles verwendbar. Es gibt ein paar nervige Restriktionen mit Buffern und Compute, das gebe ich zu.

del_4901
2013-12-20, 02:00:41
:popcorn: (leider nur salzig... was wuerde ich nur fuer suesses popcorn geben???)

Nightspider
2013-12-20, 02:23:01
Leider, größte fehlentscheidung ever.

Jegliche Multiplatform-Fragen werden mit "wir können ja nicht, weil Cry Engine" abgeblockt.
Da Frage ich mich warum man sich für so eine schrott Engine entschieden hat.

Warum?

Stört dich jetzt, das SC vorerst nicht für Konsolen erscheint oder wie meinst du das?

Hübie
2013-12-20, 03:16:13
Sind sie vielleicht. Aber das ändert absolut gar nichts daran, dass man nicht D3D10 schlecht reden und im gleichen Satz D3D11 für toll erklären kann wenn das letztere zu 90% identisch und nur erweitert ist.

Das zeugt einfach von komplettem technischen Unverständnis. Eine Engine von D3D10 auf D3D11 umzustellen ohne weitere Features dauert ein paar Tage und ist primär "D3D10" mit "D3D11" zu ersetzen im Source. Die Performance wäre identisch.

Und deine Polemik kannst du dir sparen. Dunning-Kruger-Effekt in Reinstform. Das gilt im weiteren nicht nur für dich wenn ich die Posts von den anderen Spezialexperten hier mal wieder lese. Ich habe generell in letzter Zeit vermehrt das Gefühl hier das eine Expertenmeinung weder geschätzt noch gewürdigt wird.


Das "sehr viel mehr" ist maßlos übertrieben. Mit 11.2 ist bis auf Details alles verwendbar. Es gibt ein paar nervige Restriktionen mit Buffern und Compute, das gebe ich zu.

Offensichtlich hast du etwas missinterpretiert. Ich sagte das D3D10 kein großer Wurf war, was ich auf den Erfolg bezog. Technisch war es ggü 9.3 ein großer Schritt in die richtige Richtung. Streitet doch niemand ab. Aber es wurde auf dem Markt nicht breit eingesetzt und wenn es eingesetzt wurde hatte es auch nicht so viele bzw. massive Vorteile das jeder Spieler zu Vista greifen würde.
Eine Expertenmeinung weiß ich stets zu schätzen, nur nicht jede Art die rüber zu bringen.

@AlphaTier: Hast du nichts besseres zu tun? ;)

-/\-CruNcher-/\-
2013-12-20, 03:21:04
Sehr interessant, was die da sagen.

Insbesondere wie sehr sie auf Direct3D drauf kloppen ist interessant. Die lassen da ja wirklich kaum ein gutes Haar an D3D...
Das bezeichnen sie ganz frech als Schnittstelle aus den 90ern...

Auch, was sie da zu den Treibern und der ganzen ungenutzten CPU Power sagen, ist durchaus im Bereich von 'ziemlich übel'...
Das hat M$ aber wirklich verkackt bzw geschlafen, in diesem Punkt...

Ja und das können sie auch der eine hat daran mitgearbeitet im Board :)

Arcanoxer
2013-12-20, 05:49:08
Ist das ein ironisches Posting?
Nope

Auch wenn Dice für Battlefield keinen Mantle-Patch mehr bringen sollte diesen Monat, gibt es im Januar (oder war's einfach Anfang 2014?) die Nitrous Engine Demo, und daraus werden sich hoffentlich für Zweifler und Interessierte endlich konkretere Ergebnisse zeigen :)
Was ist bitte die Nitrous Engine? Interessiert doch kein schwein.
Wir wollen Real World Performance sehen.
Nicht irgend welche Fantasie Demos.

AMD so: Kunden verarscht, Mantle verschoben - leider Geil.

Hübie
2013-12-20, 07:21:08
So jetzt sitze ich an einer Tastatur und muss mich nicht mit touchpad begnügen. Daher greife ich das noch mal auf, Coda.

Also erst mal: Das ist keine Polemik mit Dunning-Kruger-Effekt sondern Heraustellung deiner Denunziation anderer Forenmitglieder (mich eingeschlossen). Das du dich nicht in einer Gemeinschaft bewegen kannst hast du uns schon oft genug bewiesen. Man muss erst Brain-Techlevel "11" haben damit du überhaupt argumentierst. Vorher kommt nur ein Du-bist-nicht-auf-meinem-Niveau-Geschwafel. Wenn du das in den Griff bekommst und nicht immer nur von oben herab redest, dann werden deine Äusserungen auch hoch geschätzt. Aber wahrscheinlich ist dein Interesse daran so gering (weil wir es nicht wert sind?) dass du eh weiter machst wie immer (ihr habt Recht, ich meine Ruhe) oder mich auf ignore setzt. Du hast ja immer die Wahl.

Zweitens: Hätte Microsoft in D3D10(von mir aus dann .1) alles was 11 jetzt hat mit implementiert wäre die Entwicklung vielleicht nicht so lang stagniert (bitte kein Konsolen-totschlag-Argument). Und da du sagst es sei zu 90% identisch wäre das offenbar auch kein allzu großer Aufwand gewesen. Immerhin hatte MS die Resourcen das schnell umzusetzen. Aber offensichtlich kümmert(e?) es die DirectX - Division einen Scheiß was die Hardware für Entwicklung macht bzw. was die Entwickler fordern. AMD hatte ja mal im Alleingang vorsorglich einen Tesselator in Hardware entwickelt und eingebaut der dann wohl nur brach lag, da Tesselation (warum auch immer) in der D3D10 API keine Relevanz hatte und dieser ist bis heute nich nutzbar, da wieder das Featureset von 11 nicht (in Hardware) vorliegt. Jetzt machen die im Alleingang eine API weil die den Devs Gehör verschaffen, wo MS ja offenbar nicht zuhört. Die interessiert scheinbar mehr der ultramobile-Markt und deren hauseigene Konsole (also crossplatforming).

Meine Aussage dass die Hardware so viel mehr schaffen könnte bezog sich nicht auf features sondern die Umsetzung der Leistung. Wenn ich überlege dass die popelige GPU der PS4/XBOne etwa dem PitcairnXT-Performance-Niveau entspricht, will ich gar nicht wissen was mit einer 290x/780Ti alles drin wäre. Von mGPU mal ganz zu schweigen. Mir ist klar dass es aufgrund der extremen Heterogenität ein elend langer Rattenschwanz ist, aber meiner Meinung nach muss man auch mal auf Abwärtskompatiblität scheißen! Wenn man es nicht übertreibt kaufen Spieler fleißiger als zuvor neue Hardware, weil die meisten Menschen eher Geld ausgeben würden statt ihr Hobby an den Nagel zu hängen. Ich führe da mal als positives Beispiel (man möge mir das wegen der Lage mit BF4 verzeihen) Frotbite 3 ins Feld. Skaliert gut mit (GPU&CPU-)Core-Anzahl, Takt, RAM und VRAM. Das ist die erste Nextgen Engine die endlich mal Kapital aus der Hardware schlägt was man hat.
Ich meine, du bist doch Programmierer, oder Axel? Bist du etwa mit DirectX zufrieden? Stellst du das nicht mal in Frage und kotzt es dich nicht mal an? Musst du nicht öfter mal Umwege gehen um das Ziel zu erreichen?

Mir brennen da mal ein paar Fragen unter den Fingernägeln (nicht nur speziell an dich gerichtet, aber es wäre treffend): Konnte D3D10 nicht auch schon DirectComputeShader übersetzen? Warum wird das weder genutzt noch groß erwähnt?
Warum bindet man Devs an Bedingungen um bestimmte Funktionen zu nutzen (z.B. UAV<->DXGI-Texturformat oder 8 C-Buffers pro PS)? Hat das technische Hintergründe bzw. ergeben sich daraus keine Nachteile (auch in Bezug auf Plattform-Portierungen)?
Wenn die CPU die GPU so ausbremst, warum hat man dann nicht schon früher angefangen das ganze zu entkoppeln - vor allem bei mGPU-Systemen? War das durch die rasante Entwicklung von GPUs nicht absehbar oder machbar?
Wer "macht" überhaupt diese Feature-Sets bzw. wer entscheidet was aufgenommen wird und was nicht? Das ist doch ein Gremium aus MS-Devs, Hardware-Designern und Spiele-Entwicklern oder? Entscheiden da BWLer?

So genug geschrieben.

Demirug
2013-12-20, 08:09:26
Das Featureset einer DirectX Version wird im wesentlichen von den IHV bestimmt denn diese müssen ja zusagen das sie es in Hardware umsetzten wollen und können. Microsoft hat dabei primär die Aufgabe dafür ein einheitliches Interface zu schaffen. Die Limitierungen und Restriktionen kommen ebenso von den IHV.

Mit DX 10 hat Microsoft ja vollständig mit der Abwärtskompatibilität gebrochen und die Quittung dafür war heftig. Fast alle Entwickler sind bei DX9 geblieben.

PS: Von Unity in einem Thread über Mantle zu sprechen ist etwas surrealistisch. .

Hübie
2013-12-20, 08:23:37
Das ging ja Hand in Hand mit dem Vista-Zwang, vermute ich mal. Umso weniger Verstehe ich dann die Geschichte mit dem Tesselator und der aktuellen Lage mit 11.1/11.2. :|

M4xw0lf
2013-12-20, 08:29:18
PS: Von Unity in einem Thread über Mantle zu sprechen ist etwas surrealistisch. .

So in etwa?

http://www.billerantik.de/gallery2/main.php/d/22691-1/03_Dali_Versuchung_45x37.jpg

Hmm nee... ich kapier noch nicht ganz, was gemeint war :uponder:

Geldmann3
2013-12-20, 08:37:23
Hier wird ja immer argumentiert, dass die Hardware den Konsolen so viel besser ausgenutzt werden würde, als auf dem PC. Bei der PS3 und XBox360 sieht es auch stark danach aus. Doch wenn ich mir die PS4 Version von Battlefield 4 und COD Ghosts ansehe, dann sieht das für mich als Leihen ziemlich exakt so aus, wie das was ich mit einer HD 7850 2GB hinbekommen könnte. Wenn man mit einer HD 7850 nicht sogar noch ein besseres LOD und Kantenglättung hinbekommt. Man muss sich auf der PS4 nur mal die Strommasten ansehen, es flimmert schrecklich, mit einer 7850 bekommt man die schon einigermaßen Glatt und hat auch sichtlich weniger Popups. Allerdings bewegt man sich dann wohl nur noch um die 30FPS.

gnahr
2013-12-20, 08:38:44
Absolute Zustimmung. (y)

Ich kanns verstehen, wenn ein Dev eine aktuelle Hig-End CPU ans Limit bringt weil er eventuell zuviel implementiert hat und somit die CPU praktisch überfordert ist. Wofür ich aber kein Verständis habe ist wenn die Frames zu niedrig sind und gleichzeitig ein Großteil der CPU einfach nur Däumchen dreht. Sowas ist echt Steinzeit.
darum ging es nicht. die aussage war "nicht 100% auf alle cores symmetrisch? fail!" und das ist genauso grütze. den spielern werden sachen wie tressFX als neu und toll verkauft und dabei sieht es einfach scheiße aus wenn da so major fails drinnen sind, wie haare die ein eigenes ladungsfeld haben und dann wie ne stahlbürste in die luft stehen. oder nehmen wir die konsolen, dass die ports wieder schrottige texturen anbieten ist in 2 jahren gesetzt.
die forderung noch mehr zeit in die technische ausarbeitung zu stecken ist schöngeistig, bringt aber in der breite keine verbesserung. dabei darf beim design von neuen engines ein großes auge gelegt werden aber nicht so spät im zyklus. vielleicht fehlt dem ein oder anderen raufbold der sinn für die anwendung wenn man ständig nur über server-anwendungen rumholzt. sorry, solche kompetenzlücken muss man ja auch mal eingestehen und zurückstecken.

Geldmann3
2013-12-20, 08:46:35
Also ich empfand TressFX ja als einen sehr schönen Effekt. Wenn man noch die paar clipping Fehler in den Griff bekommt, top!

(Ist mal jemanden aufgefallen, dass Haare in der Realität gar keine deutlichen Schatten auf der Schulter werfen? Besser als die Realität :wink: )

Was ich schrecklich finde, sind die ganzen Partikel und Rauch Effekte, die mit PhysX in Spiele gebracht werden, nur damit Nvidia etwas exklusives hat. Die werden so unrealistisch stark eingesetzt und laufen noch dazu auf der Konkurrenz Hardware höchstens in Software. Wasser und Fell Physik mit APEX Fur können allerdings ganz hübsch sein. Wenn an den richten Stellen eingesetzt. Es gibt natürlich auch Spiele, die die PhysX Partikel sinnvoll einsetzen.

gnahr
2013-12-20, 08:50:01
ok, einigen wir uns darauf dass es effekte gibt, sie eben aber halbgar gemacht auch sehr bescheiden ausfallen können.
trotzdem kann man beim erstellen nicht der umsetzung mit der höchsten auslastung geben, eben weil daran jede man-hour arbeitsleistung braucht um erst ein ansprechendes ergebniss zu erreichen.

dargo
2013-12-20, 08:51:13
darum ging es nicht. die aussage war "nicht 100% auf alle cores symmetrisch? fail!" und das ist genauso grütze.
Ich denke das erwartet auch niemand. In Games über 8 Threads zu 100% zu skalieren dürfte ein Ding der Unmöglichkeit sein (zumindest durchgehend... und damit meine ich natürlich nur im vollständigen CPU-Limit). Soweit sind wir noch lange nicht. Es geht darum, dass einfach noch viel zu viele Games kaum über 4 Threads skalieren. Es gibt sogar recht viele aktuelle Games die selbst bei 4 Threads noch weit von perfekter Skalierung sind. Ist natürlich irgendwo verständlich wenn diese Games auf relativ alten Engines basieren. Sowas ist dennoch nicht mehr zeitgemäß.

Zu dem Rest äußere ich mich nicht, der übliche Dünnschiss von dir.

Gipsel
2013-12-20, 08:58:32
So in etwa?

http://www.billerantik.de/gallery2/main.php/d/22691-1/03_Dali_Versuchung_45x37.jpg

Hmm nee... ich kapier noch nicht ganz, was gemeint war :uponder:
Unity spielt nicht nur nicht in der gleichen Liga wie andere moderne Engines, im Vergleich zu Mantle ist das noch nicht mal mehr die gleiche Sportart. :rolleyes:

gnahr
2013-12-20, 09:07:48
Ich denke das erwartet auch niemand.
...
Sorry, aber so lange nicht alle Cores einer CPU voll ausgelastet sind, haben es die Entwickler einfach verkackt.

noch fragen? aber beide müssen erstmal rumholzen und versuchen andere auf ner persönlichen ebene anzugehen wenn mal jemand sofort sagt "sorry, du hast da ne latte quer am zaun hängen, diese aussage über multi-core-ausnutzung ist der happy-case den es synthetisch gibt. dafür spielt man keine spiele."

Hübie
2013-12-20, 09:15:47
Unity spielt nicht nur nicht in der gleichen Liga wie andere moderne Engines, im Vergleich zu Mantle ist das noch nicht mal mehr die gleiche Sportart. :rolleyes:

Unity scheint doch den Fokus eh mehr auf Mobilgeräte zu legen, oder nicht? Ich kenne jedenfalls aus dem Stehgreif gerade kein Desktop-Spiel mit Unity Engine aber etliche auf dem Popelphone. Hatte neulich erst so einen Zeitvertreib wo man Dinge auseinander nehmen muss (Soundboxen, Tisch etc..).

Ich glaub Arcanoxer legt mehr Wert auf Multiplattform als wir es tun :wink:

Demirug
2013-12-20, 09:44:28
Das ging ja Hand in Hand mit dem Vista-Zwang, vermute ich mal. Umso weniger Verstehe ich dann die Geschichte mit dem Tesselator und der aktuellen Lage mit 11.1/11.2. :|

Der Vista Zwang war nur einen Nebenschauplatz. Das Problem war das man auch zwingend eine neue GPU brauchte. Da die meisten Leute aber an ihrem Rechner nicht rumschrauben war die Marktdurchdringung von DX10 GPUs sehr langsam.

Unity scheint doch den Fokus eh mehr auf Mobilgeräte zu legen, oder nicht? Ich kenne jedenfalls aus dem Stehgreif gerade kein Desktop-Spiel mit Unity Engine aber etliche auf dem Popelphone. Hatte neulich erst so einen Zeitvertreib wo man Dinge auseinander nehmen muss (Soundboxen, Tisch etc..).

Ja ohne den mobile boom wäre Unity auch heute noch eine Randerscheinung.

novl
2013-12-20, 10:14:26
Hier wird ja immer argumentiert, dass die Hardware den Konsolen so viel besser ausgenutzt werden würde, als auf dem PC. Bei der PS3 und XBox360 sieht es auch stark danach aus. Doch wenn ich mir die PS4 Version von Battlefield 4 und COD Ghosts ansehe, dann sieht das für mich als Leihen ziemlich exakt so aus, wie das was ich mit einer HD 7850 2GB hinbekommen könnte. Wenn man mit einer HD 7850 nicht sogar noch ein besseres LOD und Kantenglättung hinbekommt. Man muss sich auf der PS4 nur mal die Strommasten ansehen, es flimmert schrecklich, mit einer 7850 bekommt man die schon einigermaßen Glatt und hat auch sichtlich weniger Popups. Allerdings bewegt man sich dann wohl nur noch um die 30FPS.

Das hat X andere Gründe. Um mal nur einige Anzuführen:

BF4 und COD Ghosts wurden für folgende Plattformen portiert:

PS3, XBox 360, PS4, Xbox One, PC

Das da Optimierungen für einzelne Plattformen auf der Strecke bleiben ist klar.

Desweiteren schau dir einmal die Releasetitel der alten Generation an, Bsp: COD 3. (Augenkrebs) Da wid über die Jahre noch soviel optimiert und angepasst.

M4xw0lf
2013-12-20, 10:27:58
Unity spielt nicht nur nicht in der gleichen Liga wie andere moderne Engines, im Vergleich zu Mantle ist das noch nicht mal mehr die gleiche Sportart. :rolleyes:
Danke :wink:

Skysnake
2013-12-20, 10:36:21
darum ging es nicht. die aussage war "nicht 100% auf alle cores symmetrisch? fail!" und das ist genauso grütze. den spielern werden sachen wie tressFX als neu und toll verkauft und dabei sieht es einfach scheiße aus wenn da so major fails drinnen sind, wie haare die ein eigenes ladungsfeld haben und dann wie ne stahlbürste in die luft stehen. oder nehmen wir die konsolen, dass die ports wieder schrottige texturen anbieten ist in 2 jahren gesetzt.
die forderung noch mehr zeit in die technische ausarbeitung zu stecken ist schöngeistig, bringt aber in der breite keine verbesserung. dabei darf beim design von neuen engines ein großes auge gelegt werden aber nicht so spät im zyklus. vielleicht fehlt dem ein oder anderen raufbold der sinn für die anwendung wenn man ständig nur über server-anwendungen rumholzt. sorry, solche kompetenzlücken muss man ja auch mal eingestehen und zurückstecken.
Dir ist schon klar, dass eine gute Taskverwaltung es den Entwicklern auch deutlich einfacher machen kann mehr oder andere Effekte zu implementieren und mehr Ideen um zu setzen?

Wenn du nicht ständig am Leistungslimit rum kratzt, weil die zugrundelegende Engine nicht Grütze ist, dann können die Artists sich austoben. Es ist absolut beschissen, wenn die anfangen müssen auf Performanceaspekte in ihren Designs direkt rücksicht zu nehmen.

Und noch was allgemeines. So lange man genug Arbeit hat, ist es eigentlich nicht soo schwer 100% Auslastung zu erreichen. Man darf halt nicht statisch x Threads haben und gut ist.

Für was gibt es denn Batch-Systeme, Worker-Threads und Queue, Client-Server Ansätze und wofür gibt es überhaupt Divide and Conquer?

Man man man. Wenn man sich von Anfang an Gedanken macht, wie man etwas angeht, und vor allem eben Berücksichtigt! das man eben nicht unlimitierte Single-Thread-Leistung hat, dann ist das auch machbar. Die Leuts sind ja nicht doof. Die haben nur keine Zeit das auch um zu setzen, weil da ein paar Assis mit $.$ rumrennen... Und so lange die Leute die Games mit den beschissenen Engines noch kaufen, wird sich daran auch nichts ändern, und das auch zu Recht. Wenn sich die Leute melken lassen, dann soll man das auch machen.

...
noch fragen? aber beide müssen erstmal rumholzen und versuchen andere auf ner persönlichen ebene anzugehen wenn mal jemand sofort sagt "sorry, du hast da ne latte quer am zaun hängen, diese aussage über multi-core-ausnutzung ist der happy-case den es synthetisch gibt. dafür spielt man keine spiele."
Muss ich dir jetzt den Unterschied zwischen Skalierung und Auslastung erklären? :facepalm:

Nur weil ne CPU zu 100% Ausgelastet ist, skaliert das Zeug noch nicht zu 100%, was so nach Amdahl ja eh nicht möglich ist, aber lassen wir das mal :rolleyes:

Man braucht aber auch gar keine 100% Skalierung. Wenn ich mit der vollen Auslastung von 8 statt 4 Cores nur 10% (setze einen beliebigen Wert ein) schneller bin, dann ist das halt so, aber ich bin die 10% schnell. Wenn ich dadurch statt 50 FPS mit 55 rum renne, dann ist das zumimdest etwas. Und so schlecht skaliert normal nichts, wenn man sich von Anfang an Gedanken darüber macht.

Du willst oder kannst es einfach mal wieder nicht verstehen. Es ging rein um Spiele die <60 FPS auf der schnellsten CPU schaffen, dabei aber nur 1-2 Cores auslasten. Sowas ist heutzutage einfach ein Fail, denn Parallelität ist überall genug da. Man muss sie nur suchen...

Ich sag nur PCAM....

Iruwen
2013-12-20, 10:37:39
Das hat X andere Gründe. Um mal nur einige Anzuführen:

BF4 und COD Ghosts wurden für folgende Plattformen portiert:

PS3, XBox 360, PS4, Xbox One, PC

Das da Optimierungen für einzelne Plattformen auf der Strecke bleiben ist klar.

Desweiteren schau dir einmal die Releasetitel der alten Generation an, Bsp: COD 3. (Augenkrebs) Da wid über die Jahre noch soviel optimiert und angepasst.

Jo, in der dritten Spielegeneration schafft man es dann so langsam Titel zu produzieren die qualitativ wirklich überzeugen. Dann ist der PC allerdings auch schon wieder eine ganze Ecke weiter. Da muss man mal realistisch bleiben: klar ist Konsolenhardware effizienter nutzbar, aber das macht aus durchschnittlicher Hardware auch nichts anderes als gut genutzte durchschnittliche Hardware. Dafür bezahlt man für einen ordentlichen PC ja auch geringfügig mehr (wobei Konsolenspiele wiederum um einiges teurer sind). Ich würde die Plattformen gar nicht direkt vergleichen.

Air Force One
2013-12-20, 10:40:21
naja um ehrlich zu sein, möchte ich keine 100% Auslastung bei Games.
80-90℅ wären Klasse damit noch der Rest im Hintergrund laufen kann.

Jetzt merke ich, wenn man mit Mantle die Auslastung bei gleicher Qualität drücken kann, würde ich wohl auch denken warum denn die Software so scheiße unoptimiert ist.
Da könnte ja schon z.B eine HDD/SSD oder der RAM ja bereits limitieren. Oder habe ich da einen Denkfehler?

Würde ja dann auch Strom sparen, wenn die CPU mit niedrigen Takt schneller wäre.

dargo
2013-12-20, 10:46:31
naja um ehrlich zu sein, möchte ich keine 100% Auslastung bei Games.
80-90℅ wären Klasse damit noch der Rest im Hintergrund laufen kann.

Jetzt merke ich, wenn man mit Mantle die Auslastung bei gleicher Qualität drücken kann, würde ich wohl auch denken warum denn die Software so scheiße unoptimiert ist.
Da könnte ja schon z.B eine HDD/SSD oder der RAM ja bereits limitieren. Oder habe ich da einen Denkfehler?

Du hast da einen Denkfehler. Schau dir mal an wieviele Threads in Windows im Hintergrund laufen. Dann schau dir entsprechende Games an wo ein Quad quasi doppelt so viele Frames liefert als ein Dualcore. Dennoch merke ich nicht, dass da plötzlich in Windows was zäh läuft.

Skysnake
2013-12-20, 10:54:33
Da läuft ja mehr oder weniger auch nichts ;)

Das kannste total vernachlässigen. Was relevant sein kann, sind so Sachen wie Video-/Soundaufzeichnung/-streming und son Krempel.

Und AirForceOne, du musst zwei Fälle unterscheiden.

1. Spiele die nicht in der Lage sind alle Kerne überhaupt zu verwenden, also z.B. Single-/Dual-Thread-Engines
2. Spiele die zwar alle Cores auslasten, aber wegen dem DX Overhead und dem ganzen Treibergeraffel halt CPU limitiert sind, einfach weil Sie die Hardware ausreizen oder durch die Treiber limitiert werden.

Im 1. Fall bringt dir Mantle nichts, oder es wäre zumindest nicht nötig. Es ist ja noch Leistung vorhanden. Man nutzt Sie halt "nur" nicht.

Im 2. Fall kann Mantle etwas helfen, weil man den Overhead reduziert, und dann eben die CPU-Zeit frei ist für was anderes.

Was ja auch immer so eine Sache ist, ist wie man Sachen implementiert. Bussy-Waiting ist z.B. an sich ne verdammt bescheidene Idee an sich, manchmal macht es aber dennoch Sinn, weil man gewissen Limitierungen unterliegt. Wenn die Limitierung wegfällt und damit auch das Bussy-Waiting, kann man die Hardware viel Effizienter nutzen, und das ist jetzt nur mal ein Holzhammer-Beispiel.

Syncen kann einen um den Verstand bringen.

dargo
2013-12-20, 11:08:12
Da läuft ja mehr oder weniger auch nichts ;)

Schon klar. ;) Dennoch denke ich, dass dieses "nichts" die höchste Priorität hat was CPU-Zeit angeht.

Coda
2013-12-20, 11:32:45
Skysnake, es ist nicht so einfach legacy code mit Mio. Zeilen auf 100% Parallelität umzubauen. Das ist zugegebenermaßen auch in dem Code mit dem ich arbeite nicht abgeschlossen. Du tust so als wäre das ein triviales Problem, aber ich hab nicht erst einmal ne Race Condition ne Woche lang debuggt. Viel mehr als drei, vier Threads die miteinander agieren bekomm ich mit allen möglichen Timings nicht mehr auf die Reihe. Vor allem wenn es um Races geht wo es um nur um wenige Instructions geht die nicht korrekt synchronisiert sind ist es oft zum Haare raufen.

Ein System von mir hat 7 verschiedene, nichtblockierende asynchrone Codepfade + SIMD - zum Glück hat nicht alles miteinander reden müssen. Das wurde geshippt und es gab keine Crashes, aber nochmal will ich da nicht freiwillig durch.

Und selbst wenn der eigene Code vollständig parallel wäre hat man immer noch das Problem mit DirectX. Das skaliert selbst mit deferred contexts nicht sonderlich gut und außerdem kommt einem der Treiberthread quer. Womit wir zurück sind bei Mantle. Damit geht das nämlich ordentlich.

AwesomeSauce
2013-12-20, 11:35:22
Unity scheint doch den Fokus eh mehr auf Mobilgeräte zu legen, oder nicht? Ich kenne jedenfalls aus dem Stehgreif gerade kein Desktop-Spiel mit Unity Engine aber etliche auf dem Popelphone.
Sehr viele Indie-Titel verwenden die Unity-Engine. Kerbal-Space-Program, Rust, 7 Days to Die,...

Armaq
2013-12-20, 11:54:58
Skysnake, es ist nicht so einfach legacy code mit Mio. Zeilen auf 100% Parallelität umzubauen. Das ist zugegebenermaßen auch in dem Code mit dem ich arbeite nicht abgeschlossen. Du tust so als wäre das ein triviales Problem, aber ich hab nicht erst einmal ne Race Condition ne Woche lang debuggt. Viel mehr als drei, vier Threads die miteinander agieren bekomm ich mit allen möglichen Timings nicht mehr auf die Reihe. Vor allem wenn es um Races geht wo es um nur um wenige Instructions geht die nicht korrekt synchronisiert sind ist es oft zum Haare raufen.

Ein System von mir hat 7 verschiedene, nichtblockierende asynchrone Codepfade + SIMD - zum Glück hat nicht alles miteinander reden müssen. Das wurde geshippt und es gab keine Crashes, aber nochmal will ich da nicht freiwillig durch.

Und selbst wenn der eigene Code vollständig parallel wäre hat man immer noch das Problem mit DirectX. Das skaliert selbst mit deferred contexts nicht sonderlich gut und außerdem kommt einem der Treiberthread quer. Womit wir zurück sind bei Mantle. Damit geht das nämlich ordentlich.
Das finde ich jetzt interessant. Warum hilft Mantle bei der Parallelität so sehr? Das sagt AMD ja selbst.

StefanV
2013-12-20, 12:12:42
Schau dir dazu dieses Video an (http://www.planet3dnow.de/cms/6716-apu13-video-mantle-techdemo-praesentation-von-oxide-games/)

Es ist nicht so, dass da Mantle besonders hilft, es ist eher so, dass D3D (und der Treiber) besonders im Wege ist.

dargo
2013-12-20, 12:16:24
Und selbst wenn der eigene Code vollständig parallel wäre hat man immer noch das Problem mit DirectX. Das skaliert selbst mit deferred contexts nicht sonderlich gut und außerdem kommt einem der Treiberthread quer. Womit wir zurück sind bei Mantle. Damit geht das nämlich ordentlich.
Danke, genau das wollte ich hören. Hat man ja schon aus der Präsentation rausnehmen können.

Skysnake
2013-12-20, 12:23:54
Skysnake, es ist nicht so einfach legacy code mit Mio. Zeilen auf 100% Parallelität umzubauen.
Das habe ich auch nicht behauptet ;)

An bestehenden großen Projekten so was dran zu flantschen ist oft der reinste horror. Deswegen habe ich ja ausdrücklich gesagt, "wenn man was Neues macht". Und manche alte Engine ist halt einfach am Ende ihrer Zeit angekommen meiner Meinung nach. Da bedarf es einfach eines Resets. Mir ist klar, dass das Geld kostet, aber durch die Freiheiten die die Artists usw dadurch aber auch wieder bekommen, spart man auch wieder viel Geld ein und wird halt produktiver.


Das ist zugegebenermaßen auch in dem Code mit dem ich arbeite nicht abgeschlossen. Du tust so als wäre das ein triviales Problem, aber ich hab nicht erst einmal ne Race Condition ne Woche lang debuggt.

Das kenne ich nur zu gut. Die "tollsten" Fehler sind doch immer die, die nur alle Nase lang mal auftreten und man keine Ahnung hat, woher das Problem denn kommt. ;D Macht das aber nicht zum Teil auch den Reiz an dem Beruf aus? :wink:

Und dafür, dass du das Problem dann am Ende doch lösen konntest, bekommste doch auch sicherlich nen ganz erklägliches Sümmchen am Ende vom Monat.

Ihr lizensiert ja Eure Engine auch nicht für zwei Mark fünfzig. Da kann man auch nen "bischen" Arbeit rein stecken. Die Single-Thread Zeiten sind halt vorbei. Ich kann es absolut verstehen, das man auf Multithread eigentlich keinen Bock hat. Hab ich auch nicht an sich. Sequenzielle Programme sind VIEL angenehmer, aber die Zeiten sind halt vorbei, und man muss den Vorteil auch sehen. Wenn man nen guter paralleler Programmierer ist, bekommt man halt auch mehr Geld.


Viel mehr als drei, vier Threads die miteinander agieren bekomm ich mit allen möglichen Timings nicht mehr auf die Reihe. Vor allem wenn es um Races geht wo es um nur um wenige Instructions geht die nicht korrekt synchronisiert sind ist es oft zum Haare raufen.
Klar, das ist dann aber ja auch extrem Freingranular. Im normalfall würde ich erwarten, dass du allein schon min 4 Threads mit komplett unabhängigen Sachen füllen kannst. KI, Partikel usw usw.

Ich muss ja nicht zwigend genau 4/8/16 Threads haben, die alle gleich lang sind. Wenn einer halt echt lang braucht und nen Core ganz auslastet, und dann wieder 40, wie fast nichts machen, aber eben auch x Cores auslasten, dann ist das doch auch wieder ok.

Am Ende ist doch nur wichtig, das ich nicht an einem einzigen Thread hänge.


Ein System von mir hat 7 verschiedene, nichtblockierende asynchrone Codepfade + SIMD - zum Glück hat nicht alles miteinander reden müssen.

Da würdeste auch Wahnsinnig werden ;)


Das wurde geshippt und es gab keine Crashes, aber nochmal will ich da nicht freiwillig durch.
War es aber nicht ein tolles Gefühl als es dann funktioniert hat?


Und selbst wenn der eigene Code vollständig parallel wäre hat man immer noch das Problem mit DirectX. Das skaliert selbst mit deferred contexts nicht sonderlich gut und außerdem kommt einem der Treiberthread quer. Womit wir zurück sind bei Mantle. Damit geht das nämlich ordentlich.
Jup, deswegen habe ich den einen Teil oben auch Fett markiert. Ich kann mir wirklich gut vorstellen, das DX einem da oft ziemliche Prügel zwischen die Füße wirft. Mit DX habe ich noch nicht gearbeitet, aber mit OpenGL und QT wars immer so, dass die SAchen nicht Threadsafe waren, und man sehr schnell und einfach gesehen hat, das man da schnell in große Probleme rein rennt, wenn man wirklich die Sachen, die mit der Graphiks-API zu tun haben, parallelisieren will.

Kannste da meine Einschätzung bestätigen? Wirklich ernst gemeinte Frage.

Btw. das ist auch das was Mantle ja, soweit ich das verstanden habe, beheben will. Man soll deutlich paralleler arbeiten können. Ich vermute mal das eben alles Threadsafe sein wird.

Coda
2013-12-20, 12:50:21
Schau dir dazu dieses Video an (http://www.planet3dnow.de/cms/6716-apu13-video-mantle-techdemo-praesentation-von-oxide-games/)

Es ist nicht so, dass da Mantle besonders hilft, es ist eher so, dass D3D (und der Treiber) besonders im Wege ist.
Schieb es nicht immer auf Direct3D. Das ist mit OpenGL auch nicht anders. Und wäre es auch bei anderen APIs auf der Ebene nicht.

gnahr
2013-12-20, 13:18:31
Du tust so als wäre das ein triviales Problem.
viel schlimmer, er hat sich völlig von seinem ego einnehmen lassen und sprallt dem entsprechend mit dem schöngeistigen zeugs rum. frag mal nen studenten und dann jemand gestandenem aus der wirtschaft, da wird man exakt die selbe diskrepanz entdecken. und wo findet man jemanden aus der praxis? bei gearbox etwa:
hier ein artikel über die effektanwendung aus der praxis:
http://www.gearboxsoftware.com/community/articles/1121/inside-the-box-introducing-angel
es gibt noch viel mehr, das ist der jüngste von relevanz.

was ist der große unterschied zur theorie? man bastelt sich sachen zusammen um völlig neue effekte von hand zusammen ohne großartige studie ob es auf der hinterletzten gurke genau so gut "skaliert"...
und da ist auch der unterschied. das gesagte hat vielleicht beim entwurf einer engine beachtung zu finden, aber nicht in der praxis. sonst käme eben nur alle 3 jahre wieder schwung in die grafik richtung fotorealität, wenn ein standard über board geworfen wird und der nächste kommt.

del_4901
2013-12-20, 13:23:47
1. Spiele die nicht in der Lage sind alle Kerne überhaupt zu verwenden, also z.B. Single-/Dual-Thread-Engines
2. Spiele die zwar alle Cores auslasten, aber wegen dem DX Overhead und dem ganzen Treibergeraffel halt CPU limitiert sind, einfach weil Sie die Hardware ausreizen oder durch die Treiber limitiert werden.

Im 1. Fall bringt dir Mantle nichts, oder es wäre zumindest nicht nötig. Es ist ja noch Leistung vorhanden. Man nutzt Sie halt "nur" nicht.

Im 2. Fall kann Mantle etwas helfen, weil man den Overhead reduziert, und dann eben die CPU-Zeit frei ist für was anderes.

1. falsch
2. trivial

Schieb es nicht immer auf Direct3D. Das ist mit OpenGL auch nicht anders. Und wäre es auch bei anderen APIs auf der Ebene nicht.
Statefull ist in Zeiten wo Branchpredication einer der groessten Showstopper ist einfach nicht mehr zeitgemäß.

fondness
2013-12-20, 14:01:19
Hier gibt es die gesamte Präsentation in guter Qualität falls noch nicht bekannt:
http://www.planet3dnow.de/cms/6716-apu13-video-mantle-techdemo-praesentation-von-oxide-games/subpage-alle-folien/

Man betont vor allem auch den relativ geringen Aufwand für die Implementierung.

Skysnake
2013-12-20, 14:02:34
Was ist an 1. bitte "falsch" :ugly:

Nimm nen Spiel wie CitiesXL. Das ist einfach nicht mehr zeitgemäß.

fdk
2013-12-20, 14:45:40
Gibt es einen Grund warum du immer wieder auf CitiesXL herumreitest? Das Spiel ist mehr als vier Jahre alt und hat seinen Entwickler/Publisher auf dem Gewissen (Nischengenre, Fehleinschätzung der Akzeptanz des online-features auf subscription basis).
Wenn es nach dir ginge hätten die Entwickler wohl noch ein Jahr ohne Entlohnung angehängt um ihre komplette Codebasis umzukrempeln, oder wie kann ich mir das vorstellen?

tl;dr:
Manchmal ist es eben eine nicht optionale wirtschaftliche Restriktion. Sorry Sheldon.

Coda
2013-12-20, 15:42:22
Game code ist auch oft... speziell.

Skysnake
2013-12-20, 15:50:51
Gibt es einen Grund warum du immer wieder auf CitiesXL herumreitest? Das Spiel ist mehr als vier Jahre alt und hat seinen Entwickler/Publisher auf dem Gewissen (Nischengenre, Fehleinschätzung der Akzeptanz des online-features auf subscription basis).
Wenn es nach dir ginge hätten die Entwickler wohl noch ein Jahr ohne Entlohnung angehängt um ihre komplette Codebasis umzukrempeln, oder wie kann ich mir das vorstellen?

tl;dr:
Manchmal ist es eben eine nicht optionale wirtschaftliche Restriktion. Sorry Sheldon.
Weil ich es mir gekauft habe vor relativ kurzer Zeit in nem Steam-Deal, und an sich das Game ganz cool finde, aber die Tatsache, das es nur auf einem Core läuft ein echter Spaßkiller ist, weil das Ding eigentlich mehr Power braucht.

Gibt aber auch noch genug andere Games wo das der FAll ist.

Mir schwirren da z.B. ein oder zwei NFS Teile durch den Kopf, Blizzard-Games hängen auch tendenziell sehr sehr stark an einem Thread. Ich hab aktuell halt nur kein anderes Spiel da außer CitiesXL, welches mir bewusst auffällt in dieser SAche.

Und ich behaupte mal, wenn man den Entwicklern von Anfang an etwas mehr Zeit und Geld gegeben hätte, um das Spiel gescheit zu entwickeln mit ner moderneren Engine, dann wäre die Firma auch nicht gegen die Wand gefahren, denn das Spiel an sich ist sehr gut, nur die Umsetzung ist nicht wirklich brauchbar.

dargo
2013-12-20, 16:06:08
Weil ich es mir gekauft habe vor relativ kurzer Zeit in nem Steam-Deal, und an sich das Game ganz cool finde, aber die Tatsache, das es nur auf einem Core läuft ein echter Spaßkiller ist, weil das Ding eigentlich mehr Power braucht.

Gibt aber auch noch genug andere Games wo das der FAll ist.

Mir schwirren da z.B. ein oder zwei NFS Teile durch den Kopf, Blizzard-Games hängen auch tendenziell sehr sehr stark an einem Thread.
Das muss aber schon ein extrem alter NfS-Teil sein. Selbst das uralte ProStreet hat immerhin schon vom DC auf QC mit knapp +49% skaliert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973301&postcount=1

PS: und im Test war das noch nicht mal ein nativer Quad sondern ein doppelter Dualcore mit den bekannten Nachteilen.

gnahr
2013-12-20, 16:09:39
Das muss aber schon ein extrem alter NfS-Teil sein.
kein problem, es geht hier ja eh um reines cherrypicking.
das problem in der größenordnung kommt eben nur bei ner hand voll titeln von letzter woche vor.
halbwegs moderne engines haben schon nix mehr mit gemein, aber das hindert jemanden ja nicht beim durch-die-gegend-kritisieren.

Grey
2013-12-20, 19:44:08
Unity spielt nicht nur nicht in der gleichen Liga wie andere moderne Engines, im Vergleich zu Mantle ist das noch nicht mal mehr die gleiche Sportart. :rolleyes:




Ja ohne den mobile boom wäre Unity auch heute noch eine Randerscheinung.


Als ich genau das gleiche vor ein oder zwei Jahren im UnityDX11 Thread schrieb, da war der Aufschrei aber noch groß von eurer Seite. Mindestens von dir Demirug... :freak:

Demirug
2013-12-20, 20:30:45
Als ich genau das gleiche vor ein oder zwei Jahren im UnityDX11 Thread schrieb, da war der Aufschrei aber noch groß von eurer Seite. Mindestens von dir Demirug... :freak:

Ich habe damals primär kritisiert das Unity nicht besonders gut für die Entwicklung im Team ist. Das hat sich gebessert ist aber nach wie vor einer der Hauptkritikpunkte.

BlacKi
2013-12-20, 23:22:05
was mir in der youtubepräsentation gefallen hat war das eben deutlich die fps nicht mehr so cpu gebunden sein sollen. das die fps gleich wären ob nun die cpu 2 oder 4 ghz hat. wenn ich da richtig verstanden hab soll die gpu nicht mehr auf die cpu warten müssen.

Hübie
2013-12-21, 12:35:35
Mal so in die Runde gefragt: greifen beim multithreading i.d.R. alle beteiligten Threads auf den selben register bzw. Speicherbereich zu oder werden die Daten hin- und herkopiert? Startet man bei jedem (Zwischen-)Ergebnis immer einen neuen timer oder gilt der von Anfang bis Ende? Was macht denn ein Thread wenn das Ergebnis zum fortführen aus einem anderen thread noch nicht vorliegt? So eine race condition stelle ich mir schon ziemlich komplex vor, wenn es denn mehr als zwei Threads werden...

Ich versuche ansatzweise zu verstehen wie multithreading in einer pipeline halt abläuft, daher meine vielleicht laienhaften Fragen.

Skysnake
2013-12-21, 12:47:53
Wenn die Threads nicht auf die Daten eines anderen Threads zugreifen, kannste das wie unabhängige Programme interpretieren, die einfach durchlaufen und gut ist.

Wenn du Abhängigkeiten hast, musst du halt syncen z.B. über nen Mutex oder ne barrier.

Wenn du es nicht machst, dann läuft das Programm trotzdem, "nur" was raus kommt weiste halt nicht. Das kann dann die größte Grütze sein. Z.B. 2+3+2=4 oder solche Späße ;)

Coda
2013-12-21, 12:56:53
Mit atomic counters kann man auch wunderbar Abhängigkeiten lockless synchronisieren.

Schade, dass die Konsolen kein transactional memory haben.

Mal so in die Runde gefragt: greifen beim multithreading i.d.R. alle beteiligten Threads auf den selben register bzw. Speicherbereich zu oder werden die Daten hin- und herkopiert?
Gleicher Speicherraum. Man kann Daten natürlich manuell duplizieren.

fondness
2013-12-21, 13:19:28
Mal so in die Runde gefragt: greifen beim multithreading i.d.R. alle beteiligten Threads auf den selben register bzw. Speicherbereich zu oder werden die Daten hin- und herkopiert?

Natürlich kann jeder CPU-Kern auf den selben Speicherbereich zugreifen. Deshalb braucht es auch verschiedenen Sync-Techniken um die Datenkonsitenz sicherzustellen. Die bekanntesten sind Events, mutual exclusion, Semaphore, Critical Section, Spinlocks,...


Startet man bei jedem (Zwischen-)Ergebnis immer einen neuen timer oder gilt der von Anfang bis Ende?

Welcher Timer?


Was macht denn ein Thread wenn das Ergebnis zum fortführen aus einem anderen thread noch nicht vorliegt?

Er legt sich schlafen bzw. wird vom Scheduler schlafen gelegt. Mittels der Sync-Techniken wird er dann informiert sobald das Ergebnis vorliegt.
Wenn der Thread nicht mehr benötigt wird beendet er sich einfach selbst (fire and forget threads).


So eine race condition stelle ich mir schon ziemlich komplex vor, wenn es denn mehr als zwei Threads werden...


Das Problem an Race Conditions ist die zeitliche Abhängigkeit, dh man kann das Zeug praktisch nicht debuggen und es tritt willkürlich und unvorhersehbar auf. Toll vor allem auf embedded devices.

Hübie
2013-12-21, 14:22:12
Ich rede doch gar nicht von der CPU. Wir sind im mantle-Thread ;) Legt der scheduler in einer GPU den thread ebenfalls schlafen oder wird das softwareseitig gelöst?

Bekommen atomic counter dann wieder einen eigenen Buffer? Wenn ja, wo wird der "kreiert" (L2 $)?
Und was meint fondness jetzt genau mit zeitlicher Abhängigkeit? Das ein timer gestartet wird und innerhalb dieser Zeit der thread laufen muss?

Coda
2013-12-21, 14:42:32
Du verwirrst alle. Wenn man von Multithreading redet meint man in aller Regel die CPU.

Auf der GPU gibt es keine unabhängig laufenden Threads, höchstens mehrere Kernel die gleichzeitig laufen. Aber ob man die überhaupt synchroniseren könnte weiß ich gar nicht.

Hübie
2013-12-21, 15:09:23
Oh okay. Ich meinte auch die Kernel. Wusste nicht dass man das Kernel nennt. :frown: Und bevor ihr auf mich eindräscht bedenkt dass ich mich nur hobbiemäßig damit befasse ;)

Ein Kernel erzeugt aber mehrere threads, welche man syncen muss, richtig? Haben die feste Laufzeiten?

samm
2013-12-21, 15:18:34
Nein zu beiden Fragen ;)

niveaGTX
2013-12-21, 17:09:33
Ich denke AMD will durch Mantle nur die schwache AMD CPU-Leistung in Spielen kaschieren.
Damit es keiner merkt redet man natürlich über die GPU wo AMD noch stark ist.

Ich bin ja gespannt ob Maxwell und Volta überhaupt AMD CPUs unterstützen wird.
Vielleicht werden zukünftige Features "Unified Virtual Memory" nur mit Intel CPUs funktionieren?
Nvidia wird wohl kaum mit der AMD-CPU Sparte kooperieren.


--------------------------------
Auszug:

"The biggest feature for Maxwell is use of Unified Virtual Memory. Essentially, this allows both GPU and CPU to access the same virtual memory pool. This should result in higher speeds in a variety of applications, as you’re cutting out the middle-man when your GPU needs to access CPU memory, or vice versa. This sounds similar to what AMD is trying to do with HSA.

While we’ve known about Maxwell for a while, Nvidia gave us a peek at what comes after. Code-named Volta, this new architecture will focus on Stacked DRAM. This means that you can expect memory directly on the GPU die, thus increasing bandwidth significantly. How much more bandwidth? Roughly 1 TB/s. For comparison, the Titan only tops out at 288 GB/s.Or as Huang put it, you would be able to transfer an amount of data equivalent to a Blu-ray disc through the chip in 1/50 of a second."

""Three dimensional stacking", kurz 3DS, heißt Microns Vorschlag für den Bau von künftigen Speicherbausteinen. Dabei werden mehrere Speicherchips in ihrer losen Form, den Dies, übereinandergestapelt. Die Idee ist nicht neu und wird auch für Phase Change Memory erforscht.

Micron will aber nicht nur gleichförmige Dies übereinandermontieren, sondern auch das Problem der Ansteuerung lösen. Würden nur herkömmliche Dies gestapelt, bräuchte jedes Die eigene Datenleitungen, Taktgeber und Stromversorgung. Das soll bei 3DS nicht nötig sein, weil pro Stapel nur das Master-Die damit versorgt wird. Dieser Chip soll dann die anderen Slave-Dies kontrollieren.

Das bedingt allerdings auch ein neues Bussystem, das zudem schneller werden soll. Bisher gehen Speichercontroller von beispielsweise einem x86-Prozessor nicht davon aus, dass am Ende des Busses eigene Logik sitzt, die Speicherzugriffe verwaltet."
--------------------------------

Könnte durchaus sein das AMD zukünftig im CPU Segment raus fliegt.
Fokussieren sich ja nicht umsonst auf APUs.

Nightspider
2013-12-21, 17:11:19
Also entweder kommt Mantle am 24. oder erst nächstes Jahr. Zwischen dem 24. und 31. wird bestimmt auch bei DICE keiner arbeiten.^^

Geldmann3
2013-12-21, 17:12:57
While we’ve known about Maxwell for a while, Nvidia gave us a peek at what comes after. Code-named Volta, this new architecture will focus on Stacked DRAM. This means that you can expect memory directly on the GPU die, thus increasing bandwidth significantly. How much more bandwidth? Roughly 1 TB/s. For comparison, the Titan only tops out at 288 GB/s.Or as Huang put it, you would be able to transfer an amount of data equivalent to a Blu-ray disc through the chip in 1/50 of a second."

Pah! Mantle wird das verspotten.:lol:

oids
2013-12-21, 17:15:46
Golem berichten zu AMDs Mantle-API und deren Eignung zur Prozessoren-Beschleunigung: Die Swarm-Techdemo der kommenden Nitrous-Engine für NextGen-Strategiespiele soll stellenweise dreimal so schnell nach der Integration des Mantle-Codes laufen. Für eine Grafik-API hört sich dies erst einmal eher ungewöhnlich an – aber speziell Mantle zieht seinen eigentlichen Vorteil am ehesten aus der Vermeidung von CPU-Aufrufen, womit bei Mantle eine klare Steigerung der CPU-Performance durchaus realistisch ist und die Steigerung der Grafik-Performance fast in Richtung eines Nebeneffekts geht.

Beachtbar ist, daß nach der Mantle-Integration in die Nitrous-Engine ein FX-8350 eine Performance wie ein Core i7-4770K aufbieten konnte – und zwar primär dadurch, daß endlich dessen acht Rechenkerne richtig gut ausgenutzt werden, womit die niedrigere Pro/Kern-Power der AMD-CPU überdeckt werden kann. Die Mantle-verbesserte Nitrous-Engine liefert damit durchaus einen gewissen Vorgeschmack auf eine Spielegeneration, welche mit acht oder sogar mehr Rechenkernen etwas sinnvolles anfangen kann.

Quelle:3DCenter.org


http://www.golem.de/news/mantle-api-fx-8350-so-schnell-wie-core-i7-4770k-1312-103483.html

Geldmann3
2013-12-21, 17:17:37
Es wäre toll, wenn CPU Limits ein wenig aufgehoben werden würden. Dann könnte ich in ein paar Jahren einfach wieder eine neue GPU in meinen Rechner verbauen und ihn anschließend noch ein paar Jahre verwenden. Da die CPU's kaum noch Fortschritte machen, wäre das auch ein logischer Schritt.

niveaGTX
2013-12-21, 17:38:07
Es wäre toll, wenn CPU Limits ein wenig aufgehoben werden würden. Dann könnte ich in ein paar Jahren einfach wieder eine neue GPU in meinen Rechner verbauen und ihn anschließend noch ein paar Jahre verwenden. Da die CPU's kaum noch Fortschritte machen, wäre das auch ein logischer Schritt.

Ich würde selektierte 5-6 GHz Intel Quads bevorzugen die mit sehr wenig Saft laufen. An eine saubere effiziente endlose Multi-Core Skalierung so wie sich das AMD vorstellt glaube ich nicht. Also das wird es in Spielen nie geben.

Und zwar deswegen:
http://www.youtube.com/watch?v=WdRiZEwBhsM

und deswegen:
http://www.youtube.com/watch?v=ehyO7mxeU74

StefanV
2013-12-21, 17:47:46
Das erste Video isn 'Piece of Shit', weil der da eigentlich nicht wirklich was erklärt, außer 'ne Formel. Super. Warum hab ich mir das jetzt angeschaut?! Weiß auch nicht viel mehr als vorher...
Gut, er ist halt 'nen Redakteur und kein Programmierer, entsprechend hat man in dem Video auch nicht wirklich den EIndruck als ob er wirklich wüsste, wovon er spricht oder was erklären könnte...

Das Oxide Video (http://www.planet3dnow.de/cms/6716-apu13-video-mantle-techdemo-praesentation-von-oxide-games/) ist da um WELTEN interessanter. Aber auch entsprechend länger...

Außerdem: Wir sprechen hier nocht von 'a hundred processors/cores' sondern von einer Größe kleiner 10, atm. Auch 20 werden wir so schnell nicht sehen.

ABER: WARUM gibt es Multicore CPUs im Consumer Markt?!
Antwort: Weil man schlicht nicht in der Lage ist, den Takt zu erhöhen. In den letzten ~8 Jahren hat sich der Takt um 500-1000MHz gesteigert. Bei AMD.
Bei Intel: gar nicht.
Wenn man jetzt von den schnellsten Dual Core 2 ausgeht. Wenn man von den Dual Duos ausgeht, wie dem QX9770 (http://geizhals.at/de/intel-core-2-extreme-qx9770-a409883.html) sind es immerhin 300MHz (http://geizhals.at/de/intel-core-i7-4770k-bx80646i74770k-a928911.html)

Geldmann3
2013-12-21, 18:19:35
Und um wie viel Prozent ist die Singlecore Performance bei gleichen Takt gestiegen?

Gipsel
2013-12-21, 18:31:44
Auf der GPU gibt es keine unabhängig laufenden Threads, höchstens mehrere Kernel die gleichzeitig laufen. Aber ob man die überhaupt synchroniseren könnte weiß ich gar nicht.Du kannst die Wavefronts bzw. Warps als Threads der GPU ansehen. Die laufen unabhängig voneinander und ein später gestarteter kann auch früher gestartete überholen. Synchronisieren kann man die auch, sowohl lokal (wenn Mitglied der gleichen work/thread group), aber auch global (zumindest bei AMD, bei nV bin ich mir nicht so ganz sicher).

Locuza
2013-12-21, 18:49:25
Wird das nicht über den GDS abgewickelt?
Der ist ziemlich klein, kann man damit überhaupt etwas großartiges anfangen?

Kann man überhaupt mit dem GDS frei programmieren? Mit DX, OGL, per Extension oder vermutlich nur mit Mantle?

samm
2013-12-21, 18:51:52
Pah! Mantle wird das verspotten.:lol:Speicherbandbreite ist immer toll, neue Technologien diese zu erreichen auch - sehe nicht, was Mantle als Grafik-API da verspotten soll ;) So oder so würde ich auf den extra neu angemeldeten Troll-Gast (dessen Art zu Posten mich übrigens sehr an einen anderen... gern gesehenen Gast erinnert) nicht mal antworten.

Auch die Takt-/IPC-Diskussionen sind irgendwie ziemlich müssig hier. Das Spekulieren, was bisher von potentiellen Effekten, die Mantle auf das Grafikengine- und letztlich Spieledesign haben könnte, war schon wenig ergiebig, und da nun auch noch peripher betroffene Hardwaredesign-Fragen aufzubringen ist erst recht unpassend...

Eher API-bezogen: Auf B3D hat einer in die Runde geworfen, dass die Mantle-Methoden mit einem "gr"-Präfix beginnen. Eine Idee, woher der (https://twitter.com/fedyac/status/410091574136033281) die Einblicke in die API hat?

BlacKi
2013-12-21, 18:57:15
Es wäre toll, wenn CPU Limits ein wenig aufgehoben werden würden. Dann könnte ich in ein paar Jahren einfach wieder eine neue GPU in meinen Rechner verbauen und ihn anschließend noch ein paar Jahre verwenden. Da die CPU's kaum noch Fortschritte machen, wäre das auch ein logischer Schritt.

generell bin ich deiner meinung allerdings aus anderen gründen.

ich würde gerne einfach 144fps haben. ich kann bei crysis 3 3 titan verbaut haben, es scheitert einfach an der cpu, egal bei welcher. c 3 wird zwar nichtmehr mantle kompatibel gemacht, aber wenigstens die nächsten spiele sollten einfach nicht cpu limitiert werden.

ich finde bei das bei den prozessoren der größte stillstand herscht was technologie und fortschritt betrifft.

RLZ
2013-12-21, 19:04:53
Und zwar deswegen:
http://www.youtube.com/watch?v=WdRiZEwBhsM
Amdahls Law bitte nochmal RICHTIG lesen.

KThxBye

Nightspider
2013-12-21, 19:11:54
Auf jeden Fall werden wir in ~2 Jahren extrem viel Bandbreite (stacked VRAM) und in einigen Spielen extrem viel weniger CPU Last (durch Mantle) haben.

Bin mal gespannt was das für ein Grafiksprung ergeben wird.

Wenn zB. ein Battlefield 5 dadurch eine viel(!) bessere Zerstörbarkeit ermöglichen würde, wäre das genial. Nur der Netcode wird weiterhin ein Problem bleiben.

Gipsel
2013-12-21, 19:38:05
Wird das nicht über den GDS abgewickelt?Global atomics wären eine (auch bei nV verfügbare) Alternative mit etwas geringerer Performance (höhere Latenz). Da kann man sich auch was draus basteln.
Der ist ziemlich klein, kann man damit überhaupt etwas großartiges anfangen?Zur Synchronisation reicht es locker, und mit 64kB kann man im Notfall auch noch ein paar Daten etwas schneller als per L2 bzw. Speicher austauschen.
Kann man überhaupt mit dem GDS frei programmieren? Mit DX, OGL, per Extension oder vermutlich nur mit Mantle?Mit OpenCL Extension gibt es GDS-Nutzung bisher nur über die global atomic counters, soweit ich weiß. Prinzipiell wäre aber mehr möglich (bisher nur mehr oder weniger "intern" genutzt, die Tessfaktoren werden z.B. durch den GDS geroutet, wenn ich das jetzt nicht durcheinander bringe). Von der ISA der GPU her geht im Prinzip alles, was auch im LDS geht. Und der GDS unterstützt auch direkt Semaphoren mit den entsprechenden Instruktionen. Aber ich habe keine Ahnung, was AMD bei Mantle verfügbar macht (man müßte Platz im GDS allozieren können und dann in einer HLSL-Erweiterung noch entsprechende Instruktionen haben, um das anzusprechen).
Wo man etwas aufpassen müßte, wäre deadlocks zu vermeiden, denn die GPUs können (noch) keine Preemption (und wenn die nächste Generation das kann, heißt das noch lange nicht, daß man das unbedingt exzessiv nutzen sollte, weil das vermutlich lahm ist). Man kann also nur Wavefronts synchronisieren, die überhaupt gestartet sind ("schlafende" sind kein Problem, aber welche, die z.B. noch gar nicht laufen, weil kein Platz mehr im Shaderarray frei ist), wobei die Anzahl der laufenden Wavefronts eines Kernels von vielerlei Dingen abhängig ist. Nicht nur statisch von den benutzten Resourcen (Register, LDS, GDS) und der Anzahl der CUs, sondern auch von den sonst noch eventuell gleichzeitig laufenden Kernels (die ja ebenfalls Resourcen benötigen). Da benötigt man also eine etwas andere Strategie als typischerweise auf CPUs.

Skysnake
2013-12-21, 20:04:51
Du verwirrst alle. Wenn man von Multithreading redet meint man in aller Regel die CPU.

/sign

Auf der GPU gibt es keine unabhängig laufenden Threads, höchstens mehrere Kernel die gleichzeitig laufen. Aber ob man die überhaupt synchroniseren könnte weiß ich gar nicht.
Also bei CUDA/OpenCL schon. Halt auf Workgroupe/Wavefront-Basis, und daneben natürlich auf Kernelbasis. Innerhalb eines Kernels kann man ja immer alles syncen. Innerhalb eines Kernels nur innerhalb einer Workgroupe/Wavefront, also auf einem CU/SMX.
Wobei das ja mit OpenCL 2.0 auch nicht mehr stimmt, und auch teilweise mit CUDA5. Da kann man auch global in einem Kernel syncen, wobei es bei CUDA5 keinen Performancevorteil bringt, aber das ist ein anderes Thema. (aber das weiste sicherlich alles, nur für die anderen nochmals ;))

Wir reden hier ja aber über Graphiks! Und da haben wir halt OpenGL oder DX, und die kennen BEIDE! keine Konzepte dahingend, das man die GPU partitioniert und dann synct. Zumindest ist MIR!!! nichts dahingehend bekannt, dass die APIs diese Konzepte überhaupt kennen. Deswegen ist ja wohl auch einiges an Treiberoverhead da, um eben das zu mappen, und die Abhängigkeiten auf zu lösen.

Da seh ich auch Potenzial bzgl Mantle. Soweit ich die sperlichen Infos verstanden habe, soll man nämlich wohl die GPU partitionieren.

Ich denke AMD will durch Mantle nur die schwache AMD CPU-Leistung in Spielen kaschieren.
Damit es keiner merkt redet man natürlich über die GPU wo AMD noch stark ist.

Nein, Siehe oben.


Ich bin ja gespannt ob Maxwell und Volta überhaupt AMD CPUs unterstützen wird.
Vielleicht werden zukünftige Features "Unified Virtual Memory" nur mit Intel CPUs funktionieren?
Nvidia wird wohl kaum mit der AMD-CPU Sparte kooperieren.

Bullshit, das hat rein gar nichts mit Intel/AMD zu tun...


blalba

Könnte durchaus sein das AMD zukünftig im CPU Segment raus fliegt.
Fokussieren sich ja nicht umsonst auf APUs.
Das von Micron ist praktisch ein HMC derivat, mehr ist das nicht....

AMD fliegt nirgendswo einfach so raus. Wenn sind ihre Produkte einfach nicht konkurrenzfähig, aber das liegt rein an ihnen.

Ich würde selektierte 5-6 GHz Intel Quads bevorzugen die mit sehr wenig Saft laufen.

Ich würde es auch vorziehen Diamanten zu scheisen, aber leider ist das halt nicht so... :rolleyes:


An eine saubere effiziente endlose Multi-Core Skalierung so wie sich das AMD vorstellt glaube ich nicht. Also das wird es in Spielen nie geben.

Und zwar deswegen:
http://www.youtube.com/watch?v=WdRiZEwBhsM

und deswegen:
http://www.youtube.com/watch?v=ehyO7mxeU74
Das ist halt der übliche Tellerrandbullshit.

Er hat Amdahl richtig erklärt, nur hast du in realen Anwendungen meistens >90,0 % Parallelität. Du musst Sie halt nur suchen. Und der "Witz" ist ja, vor allem bei den Problemen, bei denen dir nen Single-Core oder auch nen Quad-Core nicht mehr ausreicht, da hast du einfach aus der Art der Probleme meist so eine hohe Parallelität das du irgendwo bei >99,9% rumeierst.
Zudem ist Amdahl halt "nur" die halbe Wahrheit. Es gibt halt auch noch Gustafson.

Und das zweite Video ist von der Wahl der Werte halt auch reine Propaganda. Sowas findeste im Normalfall einfach nie vor....

dargo
2013-12-21, 20:30:10
Und um wie viel Prozent ist die Singlecore Performance bei gleichen Takt gestiegen?
Man sollte hier aber auch etwas unterscheiden. Die deutlich höhere Pro/Mhz Leistung kommt zu einem sehr großen Teil dadurch zustande, dass man die größten Flaschenhälse bereits beseitigt hat. Da hätten wir den mittlerweile intergrierten Speichercontroller der ein wesentlicher Schritt war, der Wegfall vom Bus-Takt @FSB und die Angleichung vom Cachetakt an den CPU-Takt. Das sind schon einige große Schritte. Wenn man die erstmal gemacht hat was soll da als nächstes, großes noch kommen? Oder anders gefragt... wie will man bsw. einen Haswell noch deutlich schneller pro Takt machen?


ich finde bei das bei den prozessoren der größte stillstand herscht was technologie und fortschritt betrifft.
Sehe ich nicht ganz so. Den großen Stillstand kannst du auch der Software in die Schuhe schieben. Wir haben schon lange 8+ Core CPUs (auch wenn sie bei Intel sicherlich nicht billig sind). An der Software (Games) scheiterts aber.

Und dem Kunden kann es recht egal sein was da limitiert. Die Engine oder die DX-API. Sollte letzteres überwiegen kommt Mantle wie gerufen.

Geldmann3
2013-12-21, 20:39:44
Angenommen, wir könnten jetzt mit 5nm fertigen, würde die pro/Mhz Leistung dann nicht auch drastisch steigen?

Und wie viel Potential ist eigentlich noch bei den GPU's, wenn wir die Grenze der Miniaturisierung erreicht haben? Ich mache mir sorgen, es sieht so aus, als könnte man bei den GPU's in den nächsten 10 Jahren an eine Grenze stoßen, wie es vor ein paar Jahren mit den CPU's passiert ist.

Ich freue mich dennoch schon, auf die erste leistbare CPU mit 16 Threads. :biggrin: Also für unter 300€. Mehr gibt doch kein Normalo für eine CPU aus. Da ist bestimmt wieder AMD erster. Und wenn es erstmal nur dafür gut ist, um 16 Threads im Taskmanager bestaunen zu können.