PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mantle - AMD Low-Level-API als Alternative zu DirectX


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

dargo
2013-12-21, 20:44:52
Angenommen, wir könnten jetzt mit 5nm fertigen, würde die pro/Mhz Leistung dann nicht auch drastisch steigen?

Schau dir die Taktraten vom schnellsten Lynnfield in 45nm und schnellsten Haswell in 22nm an. Die Taktrate hat gerade mal um lächerliche 19% zugenommen. Sollte also deine Frage beantworten. In noch kleineren Fertigungstechnologien sehe ich nur einen einzigen Ausweg. In die Breite gehen, ergo mehr Cores.

Argh... Frage falsch verstanden.

Nun... hellsehen kann niemand. Wenn man aber sich anschaut wie effizient ein Haswell bereits ist sehe ich keine drastischen Pro/Mhz Leistungszuwächse.


Und wie viel Potential ist eigentlich noch bei den GPU's, wenn wir die Grenze der Miniaturisierung erreicht haben? Ich mache mir sorgen, es sieht so aus, als könnte man bei den GPU's in den nächsten 10 Jahren an eine Grenze stoßen, wie es vor ein paar Jahren mit den CPU's passiert ist.

Bei den GPUs sieht es nicht so problematisch aus. Da limitiert dich eigentlich nur die TDP. Mal von den üblichen Startschwierigkeiten bei kleineren Fertigungen abgesehen.

Hübie
2013-12-21, 20:54:05
Okay, ich habe offenbar immer noch Probleme mit der Terminologie. Ich bin verwirrt. Was ist denn jetzt ein Warp / eine wavefront? Ist das nicht ein Kernel der threads generiert?

@samm: Wenn du meine Fragen schon verneinst, dann erkläre mir doch bitte wie es richtig ist, oder setz einen link zu Lesestoff ;) Danke.

Ich fange übrigens gerade mit einem Buch von Hennessy und Patterson an (Rechnerorganisation und -entwurf). Kann man das gebrauchen?

samm
2013-12-21, 21:55:11
Ein Kernel erzeugt aber mehrere threads, welche man syncen muss, richtig? Haben die feste Laufzeiten?@samm: Wenn du meine Fragen schon verneinst, dann erkläre mir doch bitte wie es richtig ist, oder setz einen link zu Lesestoff ;) Danke.Aberaber richtig zu antworten ist Arbeit! ;) Ne, hast recht, es ist nicht hilfreich, einfach "Nein" hinzuschreiben. Anhand der Fragen und der vorhergenden habe ich einfach befürchtet, zu sehr grundsätzliche Begriffe und Konzepte auseinanderfriemeln zu müssen. Ich setze nun trotzdem einfach mal voraus, dass die im folgenden verwendeten Begriffe klar sind:

Zur ersten Frage: Ein Kernel ist eigentlich einfach eine Funktion - da gibt es keine notwendige Beziehung zur Erzeugung von Threads. Zum zweiten Teil der Frage: es gibt keinen Zwang, verschiedene Threads zu synchronisieren, das ist abhängig vom zu lösenden Problem und dem gewählten Ansatz. So ist es z.B. auch üblich, Threads einfach zu starten, und die führen dann ihre Aufgabe aus und beenden, ohne noch irgendwas mit andern Threads zu kommunizieren. Das alles ganz grundsätzlich gemeint, und unabhängig davon, ob man aus den Kerneln überhaupt Threads erzeugen kann.

Zur zweiten Frage: Feste Laufzeiten (also Thread- oder Algorithmen-Abbruch/Statusänderung nach einer gewissen Zeit) kann es je nach zu lösender Aufgabe, gewählter Implementierung oder HW-Umgebung geben, ist aber weder zwingend noch grundsätzlich üblich.

Jede meiner Aussagen oben kann man weiter differenzieren oder einschränken, aber es ist glaube ich auch so schon abstrakt genug um die entsprechenden "Nein"s auf die Fragen zu plausibilisieren.

Zum Buch von Hennessy und Patterson kann ich leider nichts sagen, kenne es nicht. Von der Beschreibung her, die ich auf die Schnelle im Internet gefunden habe: Vielleicht parallel dazu mal ganz konkret sich in Programmierung einarbeiten, da werden einem viele Begriffe und Konzepte schneller klar.

fondness
2013-12-21, 23:09:20
Ich fange übrigens gerade mit einem Buch von Hennessy und Patterson an (Rechnerorganisation und -entwurf). Kann man das gebrauchen?

Hennessy&Patterson ist die Primärliteratur schlechthin, wenn es um die Grundlagen des Chip-Designs geht. Allerdings würde ich das niemals in deutsch lesen. Weiterführend ist vor allem "Computer Architecture - A Quantitative Approach" zu empfehlen.

Coda
2013-12-21, 23:15:45
Du kannst die Wavefronts bzw. Warps als Threads der GPU ansehen. Die laufen unabhängig voneinander und ein später gestarteter kann auch früher gestartete überholen. Synchronisieren kann man die auch, sowohl lokal (wenn Mitglied der gleichen work/thread group), aber auch global (zumindest bei AMD, bei nV bin ich mir nicht so ganz sicher).
Das ist trotzdem ein anderes Konzept und vor allem ist es bei allen der gleiche Code.

Lange Rede kurzer Sinn, Parallelität ist bei der GPU nicht das Problem, die bekommt man automatisch. Nur Sachen zu finden die auch darauf laufen können ist die Herausforderung.

Und Synchronisierung ist auch ein wesentlich kleineres Problem, weil eben alle Threads das gleiche machen.

Skysnake
2013-12-22, 00:01:25
Ja, da ist eher das Problem, dass die Hardware einem gar nicht die Möglichkeit gibt die Syncs zu machen, die einem schon direkt ins Auge springen :( Naja, mit OpenCL 2.0 ändert sich das ja nun :biggrin:

Für Graphics APIs siehts da aber noch sehr sehr düster aus. Bis das in OpenGL oder DX Einzug hält, wird noch SEHR viel Wasser die Flüsse hinunter fließen. Wenns bis 2020 da was gibt, wäre ich schon zufrieden :freak:

Angenommen, wir könnten jetzt mit 5nm fertigen, würde die pro/Mhz Leistung dann nicht auch drastisch steigen?

Nö, die pro/MHz-Leistung ist ja durch deine Logik fest definiert.


Und wie viel Potential ist eigentlich noch bei den GPU's, wenn wir die Grenze der Miniaturisierung erreicht haben? Ich mache mir sorgen, es sieht so aus, als könnte man bei den GPU's in den nächsten 10 Jahren an eine Grenze stoßen, wie es vor ein paar Jahren mit den CPU's passiert ist.

10 Jahre wohl nicht, aber 20 Jahre wird sicherlich schwer.

GPUs lassen sich weiter skalieren als CPUs, einfach weil das Programmiermodell so manche Sachen einfach weg lässt, und dem Programmierer aufbürdet. Gerade Cachekohärenz ist auf GPUs halt nur sehr sehr sehr rudimentär vorhanden. Dadurch und viele andere Sachen kann man diese halt länger skalieren lassen. Das GPUs aber gegen natürliche Grenzen stoßen sieht man auch schon heute. GPUs leiden noch viel stärker an zu geringer Speicherbandbreite als die CPUs tun, und derartig riesige Caches wie bei CPUs kannste im Vergleich dazu auch nicht rein ballern.


Ich freue mich dennoch schon, auf die erste leistbare CPU mit 16 Threads. :biggrin: Also für unter 300€. Mehr gibt doch kein Normalo für eine CPU aus. Da ist bestimmt wieder AMD erster. Und wenn es erstmal nur dafür gut ist, um 16 Threads im Taskmanager bestaunen zu können.
16 ist langweilig. Vor zwei Jahren hab ich mal nen Westere-EX System mit 80 Threads gesehen im Windows-Tasgmanager, das sah sehr nice aus :biggrin: Leider haste bei XeonPhi keine GUI, ansonsten könnte ich da freudige 244 Threads bestaunen :freak:

@Gipsel:
Bzgl globaler Sync bei nVidia:
Die scheinen da wohl zu tricksen auch mit dynamic Parallelism usw. Ich konnte ja mit jemanden neulich quatschen, der auf der SC war, und sich einiges zu nVidia angeschaut hat. Gibt wohl untersuchungen, die zeigen, dass die CPU doch noch einiges macht bei dynammic Parallelism, und das es auch weniger bringt als man eigentlich erwarten würde. :confused:
Für mich hat sich das so angehört, als ob bei dynamic Parallelism wohl einiges über Software auf der Host-CPU läuft, und man quasi "nur" ne Softwareschicht/Abstraktion hat. Ich konnte leider nicht genauer drauf eingehen, aber so wirklich begeistert klang das alles nicht.

@Mantle:
Was man sich bzgl globalen Syncs halt noch überlegen könnte, GCN tut da ja EINIGES! ist, das man jede CU an sich als eigenständige "GPU" ansehen könnte vom Programmiermodell her. Dem Programmierer würde es dann obliegen die Aufgaben entsprechend zu verteilen. Syncen kann er ja, das ist mit GCN ja nicht mehr das Problem. So könnte man aber halt auch ohne Probleme iGPUs mit in die Berechnungen besser einbeziehen. Die Aufgaben werden ja entsprechend feingranular aufgeteilt. Wo das dann landet ist nicht mehr soooo wichtig. Die Abhängigkeiten müsste der Programmierer ja dann eh auflösen.

Coda du kannst da sicherlich etwas dazu sagen, inwieweit sich derartige Parallelität finden lassen würde. Ich hab leider einfach keine Erfahrung in DX und bei OpenGL weiß ich leider auch nicht genau, wie das mit den Drawlists dann intern funktioniert. Da fehlt mir einfach das Detailwissen. Vor allem mit Shadern habe ich nie gearbeitet. Die Vorlesung wollte ich zwar hören, aber irgendwo muss man auch mal nen Strich machen, sonst wird man nie fertig.... -_-

BlacKi
2013-12-22, 00:22:44
Sehe ich nicht ganz so. Den großen Stillstand kannst du auch der Software in die Schuhe schieben. Wir haben schon lange 8+ Core CPUs (auch wenn sie bei Intel sicherlich nicht billig sind). An der Software (Games) scheiterts aber.

Und dem Kunden kann es recht egal sein was da limitiert. Die Engine oder die DX-API. Sollte letzteres überwiegen kommt Mantle wie gerufen.

nun keine 20% mehr cpu leistung in 3 jahren ist fast stillstand. da gibts viele gründe dafür, such dir einen raus der für deine meinung passt, aber da gibts sicher noch andere^^

6kerne gibts bei intel schon lange -> keine bestätigte aussicht auf mehr kerne

8kerne bei amd gibts nun auch schon ne weile -> und derzeit gibts keine roadmap die hoffnung macht.

also wenn ich mir die auslastung in Crysis 3 ansehe sind es so 80% auslastung bei mir auch der amd 8kerner scheint gut ausgelastet zu sein.

meiner meinung nach mutet man den cpu´s einfach zuviel zu.

der einzigste lichtblick scheint mantle zu sein und ich hab noch keine 290

Geldmann3
2013-12-22, 02:25:00
Doch, 8/16 Kerne/Threads sind in Aussicht.
http://www.golem.de/news/serverprozessor-intel-broadwell-ep-mit-bis-zu-18-kernen-1312-103448.html

Ich hoffe in Zukunft funktioniert Mantle auch mit Nvidia High End/Performance GPU's. Wenn es sinnvoll ist, stehen die Chancen nicht schlecht und wenn nicht, gibt es eh keinen Grund für eine Portierung.

Coda
2013-12-22, 02:29:43
Lesen: Serverprozessor.

Auf der Consumer-Roadmap von Intel sind nur völlig überteuerte 6-Kern-CPUs.

-/\-CruNcher-/\-
2013-12-22, 03:34:19
Pah! Mantle wird das verspotten.:lol:

Nur mal so am rande

PCIE 3 max x16 = 15 GB x32 = max 31 GB ;)

Sollche Daten verarbeiten zu können ist toll wenn sie aber nicht auf einen schlag zur verfügung stehen ist es das weniger ;)

und wenn man nach Wikipedia geht müsste hier jeder Angst vor Nvidia UMA in der übersetzung Unified Memory Architecture haben ;)

http://de.wikipedia.org/wiki/Unified_Memory_Architecture

Die in Notebooks beliebte Shared-Memory-Grafik wird als Unified Memory Architecture bezeichnet. Dabei geht es jedoch um einen aus Platz- oder Kostengründen zusammengelegten Speicher und – im Gegensatz zum Uniform Memory Access – nicht um die gemeinsame Nutzung von Speicherinhalten.


Zumal offiziel heist es momentan nur das CUDA 6 den Unified Memory access supported von DirectX (Direct Compute) ect is nicht die Rede seitens Nvidia ;)

gnahr
2013-12-22, 09:52:39
Wenn es sinnvoll ist, stehen die Chancen nicht schlecht und wenn nicht, gibt es eh keinen Grund für eine Portierung.wenn mantle irgend ein totschlagargument hätte, hätten sowohl intel als auch nvidia nicht sofort dankend abgelehnt.
hier wird immer gleich im dreieck gesprungen... das erwartete feature "weniger softwareoverhead" (relativaussage!) resultiert auch gleich in die aussage "extrem wenig cpu-last" (absolutaussage). das viel vor ein paar beiträgen wortwörtlich und so überzüchtet kann man doch nicht rumhungern auf harte fakten.

dargo
2013-12-22, 11:47:58
Doch, 8/16 Kerne/Threads sind in Aussicht.
http://www.golem.de/news/serverprozessor-intel-broadwell-ep-mit-bis-zu-18-kernen-1312-103448.html

24 Threads CPU gibts schon länger. ;)
http://geizhals.at/de/intel-xeon-e5-2697-v2-bx80635e52697v2-a999055.html

Windi
2013-12-22, 11:58:08
Wie ist das eigentlich bei Intels Iris Pro APU?

Wenn ein Spiel mit Mantel keinen extra Cache (z.B. für den Framebuffer) erwartet, dann kann es den auch nicht nutzen?

Das wäre für alle APUs, die die geringe Bandbreite durch etwas extra Speicher erhöhen wollen, ein ziemliches Problem. Also auch für AMD, da deren APUs durch die geringen Bandbreiten von DDR3 (bald DDR4) deutlich ausgebremst werden.
Dann würde es wohl dabei bleiben:
APUs, fürs Office zu stark und für Spiele zu lahm. (Das ist ja nicht ganz AMDs Strategie.)

BlacKi
2013-12-22, 12:51:45
24 Threads CPU gibts schon länger. ;)
http://geizhals.at/de/intel-xeon-e5-2697-v2-bx80635e52697v2-a999055.html

ich pers ziehe bei 500-600 euro die reißleine, meist haben die prozessoren die teurer sind für mich eh keine mehrleistung in spielen. in der vergangenheit reichten sogar 300€ um einen der schnellsten cpu´s für spiele zu kaufen.

Doch, 8/16 Kerne/Threads sind in Aussicht.
http://www.golem.de/news/serverprozessor-intel-broadwell-ep-mit-bis-zu-18-kernen-1312-103448.html

Ich hoffe in Zukunft funktioniert Mantle auch mit Nvidia High End/Performance GPU's. Wenn es sinnvoll ist, stehen die Chancen nicht schlecht und wenn nicht, gibt es eh keinen Grund für eine Portierung.

hab selbst nochmal nachgeforscht, also haswell e soll bis zu 8 kerne besitzen. vermutlich gibts aber nur einen 8 kerner der dann aber 999€ kosten wird. die mehrleistung in spielen wird vermutlich nicht ansatzweiße rechtfertigen. aber es ist ein hoffnungsschimmer...

endlich ddr4 im quad *sabber*

dargo
2013-12-22, 12:55:29
ich pers ziehe bei 500-600 euro die reißleine, meist haben die prozessoren die teurer sind für mich eh keine mehrleistung in spielen. in der vergangenheit reichten sogar 300€ um einen der schnellsten cpu´s für spiele zu kaufen.

Habe auch nicht gesagt, dass so eine CPU für Spiele sinnvoll wäre. Selbst wenn sie nur 500€ kosten würde. :wink: Über 12 Cores bzw. sogar 24 Threads können wir uns in Games frühestens bei den nächsten Konsolen (um 2020) Gedanken machen. Auf diese muss man auch Rücksicht nehmen.


hab selbst nochmal nachgeforscht, also haswell e soll bis zu 8 kerne besitzen. vermutlich gibts aber nur einen 8 kerner der dann aber 999€ kosten wird. die mehrleistung in spielen wird vermutlich nicht ansatzweiße rechtfertigen. aber es ist ein hoffnungsschimmer...

endlich ddr4 im quad *sabber*
Wird völlig überbewertet. Die Speicherbandbreite ist kaum ein Flaschenhals bei Haswell. Mit bsw. DDR3-2400 @Dualchannel ist man bestens gerüstet. Klar... wenn die nächste CPU nochmals die Pro/Mhz Leistung steigern kann und du einen Octacore anpeilst dann ist zumindest schon mal Quadchannel begrüßenswert (den hast du aber auch jetzt schon beim S2011 mit DDR3).

Geldmann3
2013-12-22, 16:51:19
Also ich plane für meine nächste CPU, die etwa 2015-2017 ansteht mindestens 12 Threads. Hoffe sowas ist dann für unter 300€ zu haben und Spiele fangen dann langsam an etwas Profit daraus zu ziehen. Mantle kommt da sehr gelegen.

Angiesan
2013-12-22, 19:32:57
Na ich bleibe gespannt wann Dice bzw. Johan Andersson den Mantel des Schweigens öffnet und die Hosen runter lässt :-)

Da ich Langeweile hatte......... nicht böse sein liebes Foren-Mitglied aus Schweden ;-)

Geldmann3
2013-12-22, 21:58:52
Mit Glück sieht es am Ende so aus:
+ CPU Limit
+ 10% mehr Performance, auch am jetzigen GPU Limit.

gnahr
2013-12-22, 22:17:05
wegen 10% den aufriss nennst du glück?

Menace
2013-12-22, 22:52:16
wegen 10% den aufriss nennst du glück?


Für den AMD Kunden für lau? Warum nicht. Und der Rest kann erleichtert sein. Win-win-Situation. :rolleyes:

niveaGTX
2013-12-22, 23:13:01
Battlefield 4 und Black Flag konnten mich weder im Playstation 4 noch Xbox 1 Benchmark überzeugen.
Entspricht ziemlich genau einem halbwegs vernünftigen Entry-Gaming-PC von 2012.

Ich bin schon gespannt was Mantle in Battlefield 4 bringt.

Meine nächste GPU wird zwar wieder eine NIVEA :D aber dennoch interessieren mich auch Benchmarks der Konkurrenz.

registrierter Gast
2013-12-22, 23:39:23
Für den AMD Kunden für lau? Warum nicht. Und der Rest kann erleichtert sein. Win-win-Situation. :rolleyes:
Für 10% mehr wird wohl kein Engine Hersteller anfangen zusätzlich zu entwickeln. Da muss es schon einen echten Mehrwert geben.

Geldmann3
2013-12-23, 00:48:57
Ich habe ja geschrieben, "am jetzigen GPU Limit", und dass das CPU Limit praktisch wegfällt. Leute die jetzt eine High End CPU und GPU haben, profitieren zwar nur etwa 10%, doch in mehreren Jahren muss dann keine neue CPU angeschafft werden, sondern es genügt eine neue GPU. So muss man sich zum Zocken in Zukunft seltener einen neuen Rechner kaufen, als einfach eine potente GPU. So wie man sich bisher zum Sound-Editing eine neue Soundkarte anschafft, kann man sich dann zum Zocken eine neue Grafikkarte anschaffen und muss weniger Rücksicht auf die alte CPU nehmen.

So würden Leute mit einer veralteten CPU aber aktuellen GPU in Zukunft nicht nur 10% Performance gewinnen, sondern sagen wir 40%. Dann ist der Mehrwert durchaus vorhanden, sowie der Anreiz für große Entwickler Spiele auf aktuellen technischen Stand für den PC zu entwickeln höher, da die Zielgruppe-> mit für das Spiel potenter Hardware<- größer ist.

Optimal wäre es, wenn auch Nvidia Mantle implementiert.

Coda
2013-12-23, 01:15:35
Wie ist das eigentlich bei Intels Iris Pro APU?

Wenn ein Spiel mit Mantel keinen extra Cache (z.B. für den Framebuffer) erwartet, dann kann es den auch nicht nutzen?

Das wäre für alle APUs, die die geringe Bandbreite durch etwas extra Speicher erhöhen wollen, ein ziemliches Problem. Also auch für AMD, da deren APUs durch die geringen Bandbreiten von DDR3 (bald DDR4) deutlich ausgebremst werden.
Dann würde es wohl dabei bleiben:
APUs, fürs Office zu stark und für Spiele zu lahm. (Das ist ja nicht ganz AMDs Strategie.)
Nein. Die 128MB sind stink normaler L4-Cache für GPU und CPU. Software weiß gar nichts davon.

Windi
2013-12-23, 09:32:01
Nein. Die 128MB sind stink normaler L4-Cache für GPU und CPU. Software weiß gar nichts davon.
OK, das ist ja schon einmal eine gute Nachricht.

Sonst hätte AMD sich mit Mantel die gesamte Zukunft der Spiele fähigen APUs zerschossen.

dargo
2013-12-23, 10:01:43
Sonst hätte AMD sich mit Mantel die gesamte Zukunft der Spiele fähigen APUs zerschossen.
Was haben die schon zu bieten? Die schnellsten APUs sind absolute Low-End Produkte. Ein AMD A10-6790K mit HD 8670D hat gerade mal 384 Shader die zudem recht niedrig getaktet sind. Dann hängt das Ding an 128Bit DDR3. :freak: Interessanter wäre das erst mit Quadchannel und am besten gleich DDR4 (ersteres würde die Kosten der Bretter aber wohl in die Höhe schießen). Wobei richtig interessant werden APUs erst mit stacked Memory. Dann hätte man wenigstens den größten Flaschenhals beseitigt. Das ist aber noch Zukunftsmusik. Und ich möchte gar nicht wissen wie weit die dedizierten GPUs dann sind. Bis dahin haben wir auch schon PCIe 4.0, wenn nicht sogar erste Pläne für PCIe 5.0.

Hübie
2013-12-23, 10:05:07
Na ich bleibe gespannt wann Dice bzw. Johan Andersson den Mantel des Schweigens öffnet und die Hosen runter lässt :-)

Da ich Langeweile hatte......... nicht böse sein liebes Foren-Mitglied aus Schweden ;-)

;D Riecht nach ban... Aber die Metaffer ist nicht schlecht. Mr. Andersson öffnet den Mantel :freak:

Mal so gefragt: Was müsste nVidia denn anpassen um mantle zu unterstützen? Den Treiber(-part) komplett neu schreiben? Es gibt ja afaik kein Lizensierungsmodell für Mantle. Hat Microsoft sich eigentlich schon in irgendeiner Art und Weise dazu geäussert? Kann mir schwer vorstellen dass die doof da sitzen und sich das alles in Ruhe ansehen.:confused:

fondness
2013-12-23, 10:09:28
Da das SDK noch nicht öffentlich ist kann das niemand sagen der kein NDA hat. Man kann allerdings wohl davon ausgehen, dass Mantle die GCN-GPUs entsprechend Hardwarenahe ansprechen wird, dh man müsste wohl nicht nur die Mantle-API für NV-Support erweitern, sondern auch die Spielen bräuchten womöglich einen extra "NV-Mantle-Pfad". NV selbst müsste den (angepassten) Mantle Code über den Treiber auf ihre Hardware abstahieren.

dargo
2013-12-23, 10:12:00
Hat Microsoft sich eigentlich schon in irgendeiner Art und Weise dazu geäussert? Kann mir schwer vorstellen dass die doof da sitzen und sich das alles in Ruhe ansehen.:confused:
Man muss sich halt ernsthaft fragen wie wichtig MS PC-Gaming noch ist seitdem die ihre XBox-Sparte betreiben.

oids
2013-12-23, 10:18:19
Man muss sich halt ernsthaft fragen wie wichtig MS PC-Gaming noch ist seitdem die ihre XBox-Sparte betreiben.


http://winfuture.de/news,78726.html

mironicus
2013-12-23, 10:32:32
Nachdem die neuen Konsolen jetzt alle x86-Prozessoren und PC-Grafikkarten von AMD besitzen, ist es doch klar, dass der normale Spiele-PC auch davon profitiert.

Windi
2013-12-23, 11:06:42
Was haben die schon zu bieten? Die schnellsten APUs sind absolute Low-End Produkte. Ein AMD A10-6790K mit HD 8670D hat gerade mal 384 Shader die zudem recht niedrig getaktet sind.
Mehr Rechenleistung lohnt sich bei der geringen Bandbreite halt nicht.

Nur wenn AMD bei ihren APUs davon wegkommen will (fürs Office zu schnell für Spiele zu lahm), dann müssen sie etwas an der Bandbreite machen.
Das man Quadchannel DDR4 und Stacked RAM vorerst vergessen kann, hast du ja selbst geschrieben.
Eine Lösung wäre halt der extra Cache. Der wird dann auch mit jedem Fertigungsfortschritt billiger. Da die Auflösung bei den Konsolen und den meisten Notebooks wohl bei maximal FullHD stagnieren wird und man deswegen nicht ständig mehr Cache verbauen muss.

Wichtig war mir hier nur, das das Ganze zusammen mit Mantel funktioniert. Und das tut es anscheinend.

Angiesan
2013-12-23, 12:47:35
wegen 10% den aufriss nennst du glück?
Naja wenn man die Abstände im Grakamarkt betrachtet sind 10 % im Highendbereich gleich mal 100-200 Euro je nach Hersteller und das ist schon nicht schlecht.
Wenn eine 7970/R9 280 (heutige Performanceklasse) auf GTX 780 Leistungsniveau rauskommt jeweils unübertaktet was will man mehr?

Grüße

Lowkey
2013-12-23, 13:31:59
... bei einer handvoll Spiele, die man nicht spielt, weil man sie nicht mag und weil sie 60 Euro kosten. Wenn sie dann man für nen 10er weggehen, dann hat man meist schon bessere Hardware ;D

Conner_Ray
2013-12-23, 14:02:18
... bei einer handvoll Spiele, die man nicht spielt, weil man sie nicht mag und weil sie 60 Euro kosten. Wenn sie dann man für nen 10er weggehen, dann hat man meist schon bessere Hardware ;D
redest du von PhysX? ;9 :D

gnahr
2013-12-23, 14:12:58
Naja wenn man die Abstände im Grakamarkt betrachtet sind 10 % im Highendbereich gleich mal 100-200 Euro je nach Hersteller und das ist schon nicht schlecht.
es bleibt aber eine aufwändige (!) optimierung von hand von der nur dieser kleine, ausgewählte teil was hat, der die nötige hardware hat UND händisch einen modifizierten loader sich besorgen und ausführen kann.
balkanisierung des spiele-markts, keine lustige vorstellung.

Skysnake
2013-12-23, 14:22:10
Was redest du jetzt schon wieder von "modifizierten loader"?

Du ziehst dir wieder mal irgend nen scheis aus den Fingern. Muss das eigentlich fortlaufend sein?

gnahr
2013-12-23, 14:47:43
musst du sein? fäkalsprache disqualifiziert.
verleugnest du jetzt die herstelleraussage, dass sie "im Dezember" entsprechende Spiele über separate EXE-Dateien für Mantle und DirectX versorgen wollten? erhebliche fehlerquellen für das system existieren also zweifellos selbst noch beim launcher.

Skysnake
2013-12-23, 14:55:28
Ok, für dich ist ne simple exe also nen "modifizierter loader". Warum nennst du die Sache dann nicht beim Namen, anstatt umschweifende Begrifflichkeiten zu verwenden? Vielleicht weils damit dramatischer wirkt?

Und vor allem, wie startest du an deinem PC normal nen Spiel? Präkognition? Wir werden alle sterben, weil es ne zweite EXE gibt... Ich frage mich echt, wie du Uplay und dergleichen überlebst...

Ich glaub wir alle wissen inzwischen dass du Mantle für den letzten und vor allem überflüssigsten Dreck des Universums hälst. Die Meinung ist mehr als ausreichend Kund getan. Das muss nicht auf jeder neuen Seite wiederholt zu werden...

Wart doch einfach mal bis zum Patch, oder zumindest 01.01.2014 ab. Dann kannste von mir aus nen ganzen Tag so viel Geifern wie du willst, aber aktuell ist es einfach nur noch nerfig, weil du wie ne Schallplatte mit Hänger bist...

ndrs
2013-12-23, 15:03:48
weil du wie ne Schallplatte mit Hänger bist...
Ne Schallplatte kann man immerhin ausschalten :)

gnahr
2013-12-23, 15:06:00
Wart doch einfach mal bis zum 01.01.2014 ab.
wo kommt dieses datum her? angekündigt war "Dezember 2013" und bis jetzt liegt keine gegenteilige aussage oder dementi vor...

Iruwen
2013-12-23, 15:19:50
balkanisierung des spiele-markts, keine lustige vorstellung.

Interessante Verwendung des Begriffs :D

Menace
2013-12-23, 15:22:37
Ich verfolge die Trivia hier ja nicht, aber bist Du, gnahr, eigentlich Lovesuckz? :confused:

Wenn im Dezember nichts kommt, darfst Du kritisieren, dass am Dezember nichts kam. Wenn bis März nichts kommt ist die Ankündigung bisher eine Frechheit und wenn es nur 10% bringt, dann dürfen sich sämtliche nvidia-intel-Jünger freuen, dass sie ihre Finanzen in die richtigen Kanäle gestopft haben.

Wer von Balkanisierung spricht ohne intel oder nvidia (CUDA, PhysX) zu kritisieren gibt sich ja noch nicht mal den Anschein einer Neutralität hin. Bei Zeit könnte man ja mal den Grund des religiösen Eifers für das Gebashe nennen.

dargo
2013-12-23, 15:57:28
Mehr Rechenleistung lohnt sich bei der geringen Bandbreite halt nicht.

Bingo. :)

Zumal die TDP noch nicht mal limitiert, trotz "nur" 32nm. In einem Desktop-PC hätte man imho locker mit 150-180W TDP fürs untere Performance-Segment kommen können.


Das man Quadchannel DDR4 und Stacked RAM vorerst vergessen kann, hast du ja selbst geschrieben.

Wobei ich mich gerade frage wieviel teurer ein Brett mit Quadchannel-Support bei AMD tatsächlich wäre? Intel schafft es immerhin beim S2011 auch. Ich bin mir ziemlich sicher, dass AMD für so ein Brett keine 150€ verlangen müsste. Intel kann es sich ja bei der jetzigen Marktsituation erlauben.

Mit QC und DDR3-2400 (was trotz hohem Takt recht günstig ist) hätte man immerhin 76,8GB Speicherbandbreite. Das wäre imo für eine doppelte HD 8670D ausreichend.

http://winfuture.de/news,78726.html
Oha... woher die Wende? Naja... wir werden in den nächsten Jahren sehen müssen was daraus wird. Wobei ich weniger Spiele von MS meine als viel mehr den Support für Windows. Zb. in Form von noch effizienterer DX-API.

... bei einer handvoll Spiele, die man nicht spielt, weil man sie nicht mag und weil sie 60 Euro kosten. Wenn sie dann man für nen 10er weggehen, dann hat man meist schon bessere Hardware ;D
Ich weiß ja nicht wo du so einkaufst. Aber für 60€ bekomme ich immer zwei ganz neue Games. Wartet man wenige Monate sind es schon drei Games.

Ne Schallplatte kann man immerhin ausschalten :)
;D

wo kommt dieses datum her? angekündigt war "Dezember 2013" und bis jetzt liegt keine gegenteilige aussage oder dementi vor...
Bist du echt so schwer von Begriff? Wann endet wohl Dezember 2013? :freak:

Edit:
Apropo stacked Ram.
http://www.pcgameshardware.de/RAM-Hardware-154108/News/Partnerschaft-AMD-SK-Hynix-Entwicklung-3D-DRAM-HBM-verkuendet-1101960/

Scheint wohl nicht mehr so lange zu dauern. (y)

Flusher
2013-12-23, 17:59:11
Bingo. :)

Zumal die TDP noch nicht mal limitiert, trotz "nur" 32nm. In einem Desktop-PC hätte man imho locker mit 150-180W TDP fürs untere Performance-Segment kommen können.



Ein OEM-Kühler soll das wegkühlen?


Wobei ich mich gerade frage wieviel teurer ein Brett mit Quadchannel-Support bei AMD tatsächlich wäre? Intel schafft es immerhin beim S2011 auch. Ich bin mir ziemlich sicher, dass AMD für so ein Brett keine 150€ verlangen müsste. Intel kann es sich ja bei der jetzigen Marktsituation erlauben.


Vergleichst du gerade ernsthaft eine Low-Budget-Plattform mit einer Ultra-High-End-Plattform?



Mit QC und DDR3-2400 (was trotz hohem Takt recht günstig ist) hätte man immerhin 76,8GB Speicherbandbreite. Das wäre imo für eine doppelte HD 8670D ausreichend.



Wer soll sowas kaufen? OEMs sicher nicht

StefanV
2013-12-23, 18:20:13
Bingo. :)

Zumal die TDP noch nicht mal limitiert, trotz "nur" 32nm. In einem Desktop-PC hätte man imho locker mit 150-180W TDP fürs untere Performance-Segment kommen können.
Die Frage ist halt, wie viel teurer das die Boards machen würde...
Daher bleibt man wohl lieber bei ~125W TDP.
Auch das Problem mit den Kühlern, was auch angesprochen wurde, besteht...
Und das Pinout natürlich...

Letztendlich wäre eine Möglichkeit vielleicht mit 2,5-3V Versorgungsspannung zu arbeiten und noch 'nen Regler in die CPU/aufs Package zu integrieren...


Wobei ich mich gerade frage wieviel teurer ein Brett mit Quadchannel-Support bei AMD tatsächlich wäre? Intel schafft es immerhin beim S2011 auch. Ich bin mir ziemlich sicher, dass AMD für so ein Brett keine 150€ verlangen müsste. Intel kann es sich ja bei der jetzigen Marktsituation erlauben.
Dürfte wohl vom Layout abhängen. Das größte Problem ist IMO schlicht die Größe der Module, siehe LGA2011.
Wenn sich bei DDR-4 SDRAM nicht viel an den Slots ändert, müsste man hier entweder auf SO-DIMMs gehen oder man würde sehr viel Platz verschwenden...

Ich denke, dass eine links/rechts Anordnung nicht soo viel teurer werden würde...

ndrs
2013-12-23, 18:21:06
Ein OEM-Kühler soll das wegkühlen?

Schafft man bei GPUs doch auch. Und wenn es eh einen neuen Sockel gibt, kann man auch noch ein paar mehr Löcher für ne stabile Kühlerhalterung vorsehen.

Vergleichst du gerade ernsthaft eine Low-Budget-Plattform mit einer Ultra-High-End-Plattform?

Wenn die APU 180W verbraucht ist es sicher keine Low-Budget-Plattform mehr.

dargo
2013-12-23, 18:35:15
Ein OEM-Kühler soll das wegkühlen?

Wo soll das Problem sein? Die ~150W der PS4 sind auch günstig kühlbar und das mit mickrigem Volumen.


Vergleichst du gerade ernsthaft eine Low-Budget-Plattform mit einer Ultra-High-End-Plattform?

S2011 ist nicht nur wegen Quad Channel so viel teurer. Das Ding stellt 40 PCIe Lanes zur Verfügung. Und natürlich lässt sich Intel diese Plattform vergolden. Mir gehts nur um QC.


Wer soll sowas kaufen?
Gamer mit kleinem Budget zum Bleistift.

Die Frage ist halt, wie viel teurer das die Boards machen würde...
Daher bleibt man wohl lieber bei ~125W TDP.

Sind das jetzt 125W TDP? Ich lese immer was von 100W. :confused:
http://geizhals.at/de/amd-a10-6800k-black-edition-ad680kwohlbox-a950987.html

Ach... Mist, du meinst die TDP vom Brett.


Dürfte wohl vom Layout abhängen. Das größte Problem ist IMO schlicht die Größe der Module, siehe LGA2011.
Wenn sich bei DDR-4 SDRAM nicht viel an den Slots ändert, müsste man hier entweder auf SO-DIMMs gehen oder man würde sehr viel Platz verschwenden...

Ich denke, dass eine links/rechts Anordnung nicht soo viel teurer werden würde...
Sind für Quad-Channel wirklich 8 Slots unbedingt nötig? Ich bin jetzt von 4 Slots ausgegangen. Schließlich geht Dual-Channel ja auch mit nur 2 Slots.

Botcruscher
2013-12-23, 19:25:14
redest du von PhysX? ;9 :D
Bei Umsetzungen wie bei BL2 ist verzichten gleich die bessere Wahl. Was man da vorgesetzt bekommt passt nicht mal zur Comicgrafik.:freak:
Scheint wohl nicht mehr so lange zu dauern. (y)
Dein Wort in Gottes Ohr.
Mal so gefragt: Was müsste nVidia denn anpassen um mantle zu unterstützen? Den Treiber(-part) komplett neu schreiben? Es gibt ja afaik kein Lizensierungsmodell für Mantle. Hat Microsoft sich eigentlich schon in irgendeiner Art und Weise dazu geäussert? Kann mir schwer vorstellen dass die doof da sitzen und sich das alles in Ruhe ansehen.:confused:

Lass erst mal die Entwicklersoftware frei zugänglich sein. Mit dem Treiber wird man auch nicht so weit kommen. Da wird man wohl eher schon sehr tief bei der Hardware anfangen müssen.

dargo
2013-12-23, 19:32:19
Dein Wort in Gottes Ohr.

Dieser Speicher wird gemeinhin auch als High-Bandwith Memory (HBM) bezeichnet und soll kurz vor der Spezifizierung durch die JEDEC stehen. Dies hat AMD zum Anlass genommen, eine Partnerschaft mit SK Hynix einzugehen, um den Standard gemeinsam voranzutreiben. Dabei soll neben HBM noch eine zweite Variante als Hauptspeicher konzipiert werden, welcher nicht ganz so schnell, dafür aber noch sparsamer arbeitet und kostengünstiger hergestellt werden kann. Weiter heißt es, dass SK Hynix bereits Muster anfertige und AMD bereit sei, mit seinen Abnehmern zu arbeiten.

Klingt für mich nicht gerade so als ob es noch Jahre dauern sollte. Wenn alles glatt läuft, wieviel "Vorlaufzeit" braucht man? 6-12 Monate?

StefanV
2013-12-23, 20:24:21
Sind das jetzt 125W TDP? Ich lese immer was von 100W. :confused:
AFAIR geht man mit FM2+ wieder auf 125W TDP, für die CPU.


Sind für Quad-Channel wirklich 8 Slots unbedingt nötig? Ich bin jetzt von 4 Slots ausgegangen. Schließlich geht Dual-Channel ja auch mit nur 2 Slots.
Nein, 4 Slots reichen. Aber schau dir mal 'nen LGA2011 µATX Board wie von Asrock (http://geizhals.at/de/asrock-x79-extreme4-m-90-mxgj70-a0uayz-a693019.html), ASUS (http://geizhals.at/de/asus-rampage-iv-gene-90-mibhm0-g0eay00z-a722773.html) oder MSI (http://geizhals.at/de/msi-x79ma-gd45-7738-010r-a700071.html) an.
Dann verstehst, was ich meine :)

Sprich: Du hast da kaum Platz für irgendwas, alles ist vollgekloppt bis zum Rand - sehr unschön, das ganze.

fdk
2013-12-23, 20:31:17
Bingo. :)

Zumal die TDP noch nicht mal limitiert, trotz "nur" 32nm. In einem Desktop-PC hätte man imho locker mit 150-180W TDP fürs untere Performance-Segment kommen können.
Mit QC und DDR3-2400 (was trotz hohem Takt recht günstig ist) hätte man immerhin 76,8GB Speicherbandbreite. Das wäre imo für eine doppelte HD 8670D ausreichend.

Es hat schon seine Gründe (Rechteckig, Grün und mit George Washington bedruckt) warum auch Systeme die an der Speicherbandbreite kränkeln in der Regel mit einem Riegel ausgeliefert werden. Für ein OEM-System da auf quad-channel zu hoffen ist Realitätsfern.

Edit:
Apropo stacked Ram.
http://www.pcgameshardware.de/RAM-Hardware-154108/News/Partnerschaft-AMD-SK-Hynix-Entwicklung-3D-DRAM-HBM-verkuendet-1101960/

Scheint wohl nicht mehr so lange zu dauern. (y)
Ohne Intel eine Totgeburt. Niedrige Volumen -> teuer in der Herstellung -> wird nicht angenommen.
Wo soll das Problem sein? Die ~150W der PS4 sind auch günstig kühlbar und das mit mickrigem Volumen.

In einem System was während seiner Lebenszeit neunstellig verkauft werden soll und in dessen Entwurf entsprechend viel Aufwand geflossen ist. Das Konzept was du dir gerade vorstellst ist eine Konsole mit Hardware von der Stange nachzubauen. Das kann nur schiefgehen und wird dabei prohibitiv teuer. Egal ob mit oder ohne Mantle.

BlacKi
2013-12-23, 20:34:29
Gamer mit kleinem Budget zum Bleistift.



ich geb dir recht, soviel wird qc alleine nicht kosten. wird vermutlich billiger als extra cache in entsprechender größe.

aber wenn wir die ps4 hernehmen, scheint es wohl einfach billiger zu sein ddr5 zu verbauen als die bandbreite zu erhöhen.

letztendlich besteht aber wohl kein markt dafür, oder es gibt probleme dir wir nicht kennen.

dargo
2013-12-23, 21:04:20
Nein, 4 Slots reichen. Aber schau dir mal 'nen LGA2011 µATX Board wie von Asrock (http://geizhals.at/de/asrock-x79-extreme4-m-90-mxgj70-a0uayz-a693019.html), ASUS (http://geizhals.at/de/asus-rampage-iv-gene-90-mibhm0-g0eay00z-a722773.html) oder MSI (http://geizhals.at/de/msi-x79ma-gd45-7738-010r-a700071.html) an.
Dann verstehst, was ich meine :)

Sprich: Du hast da kaum Platz für irgendwas, alles ist vollgekloppt bis zum Rand - sehr unschön, das ganze.
Naja... der X79 ist aber auch ein schlechter Vergleich, vor allem µATX. Das Ding hat unheimlich viele Features Onboard, da ist es kein Wunder, dass das µATX zugepflastert ist.


Ohne Intel eine Totgeburt. Niedrige Volumen -> teuer in der Herstellung -> wird nicht angenommen.

Als ob Intel kein Interesse an stacked Ram hätte... lol.


In einem System was während seiner Lebenszeit neunstellig verkauft werden soll und in dessen Entwurf entsprechend viel Aufwand geflossen ist.
Was willst du mir damit sagen? Das Ding ist möglichst günstig produziert und dennoch schafft man es ohne großen Aufwand auf relativ kleinen Raum auf Temperatur zu halten. Das ist in einem Desktop-Gehäuse erst recht kein Problem.


letztendlich besteht aber wohl kein markt dafür, oder es gibt probleme dir wir nicht kennen.
Das wird wohl der Hauptgrund sein. Gibt ja genug Alternativen.

StefanV
2013-12-24, 01:27:00
Naja... der X79 ist aber auch ein schlechter Vergleich, vor allem µATX. Das Ding hat unheimlich viele Features Onboard, da ist es kein Wunder, dass das µATX zugepflastert ist.
Das ist schon recht schön geredet. Sorry, aber das ist in diesem Falle völlig egal.
Schau dir einfach mal an, wie zugenagelt der 'obere Bereich', in dem die CPU sitzt, ist. Da hast sowas von keinen Platz da irgendwas unter zu bekommen. Und auch hast keine Chance ein sehr Kompaktes Layout wie dieses (http://geizhals.at/de/gigabyte-ga-f2a88xm-ds2-a997670.html) hin zu bekommen.

Flusher
2013-12-24, 17:40:15
Gamer mit kleinem Budget zum Bleistift.


Genau - statt jetzt 100 € für Board, 100€ für CPU und 100€ für eine Grafikkarte auszugeben, bezahlt er für ein System mit einer Quad-Channel DDR4 APU 150€ für die APU und 150 € für das Brett.

Du Unterschätzt den Mehraufwand für eine grösser dimensionierte Stromversorgung der APU und das ungleich kompliziertere Platinenlayout für ein Quadchannel DDR4 Interface.

Im übrigen frage ich mich die ganze Zeit, wieso hier von allen DDR4 als "lecker" und "geil" bezeichnet wird. DDR4 wird primär niedrigere Versorgungsspannungen bieten. Bis da merkbare (und bezahlbare) Unterschiede bei der Speicherbandbreite entstehen, können noch locker 2 weitere Jahre ins Land gehen.



Was willst du mir damit sagen? Das Ding ist möglichst günstig produziert und dennoch schafft man es ohne großen Aufwand auf relativ kleinen Raum auf Temperatur zu halten. Das ist in einem Desktop-Gehäuse erst recht kein Problem.


Wenn ich daran denke welche Probleme ich hatte die geschätzten 140 W meines auf 4,1 GHz übertakteten QX9770 mit Luft wegzukühlen, dann glaube ich kaum, dass es da wirklich massentaugliche Lösungen von der Stange gibt - du muss eine spezielle Kühlerkonstruktion in einem speziellen Gehäuse verbaut werden, damit das funktioniert - höchstens in einer Steammachine o.ä. möglich.

BlacKi
2013-12-24, 19:19:32
Genau - statt jetzt 100 € für Board, 100€ für CPU und 100€ für eine Grafikkarte auszugeben, bezahlt er für ein System mit einer Quad-Channel DDR4 APU 150€ für die APU und 150 € für das Brett.


in serie sicherlich nicht. das quadchannel selbst wird vl 20-30euro extra kosten (wenn du dir mal die x79 boards ansiehst, merkst du das soviel extra dabei ist)

ddr4 muss ja nicht zwingend sein, aber bei 128bit und ddr3 ist die spielbarkeit viel zu stark eingeschränkt.


Wenn ich daran denke welche Probleme ich hatte die geschätzten 140 W meines auf 4,1 GHz übertakteten QX9770 mit Luft wegzukühlen, dann glaube ich kaum, dass es da wirklich massentaugliche Lösungen von der Stange gibt - du muss eine spezielle Kühlerkonstruktion in einem speziellen Gehäuse verbaut werden, damit das funktioniert - höchstens in einer Steammachine o.ä. möglich.
ein fx 9590 hat eine standard tdp von sagenhaften 220watt. man kann den auch noch luftkühlen mit normalen kühlern aus dem zubehör. also sollten 180watt durchaus machbar sein.

dargo
2013-12-24, 19:51:02
Im übrigen frage ich mich die ganze Zeit, wieso hier von allen DDR4 als "lecker" und "geil" bezeichnet wird. DDR4 wird primär niedrigere Versorgungsspannungen bieten. Bis da merkbare (und bezahlbare) Unterschiede bei der Speicherbandbreite entstehen, können noch locker 2 weitere Jahre ins Land gehen.

Schon mal gesehen was 8GB DDR3-3000 momentan kosten?
http://geizhals.at/de/avexir-core-series-led-blau-dimm-kit-8gb-avd3uh30001204g-2ci-a1004502.html

DDR4 soll mit 1600Mhz anfangen (DDR4-3200) und 8GB sollen angeblich für 90$ zu haben sein.
http://www.pcgameshardware.de/RAM-Hardware-154108/News/Crucial-Markteinfuehrung-DDR4-2013-2014-1098532/

Wenn das nichts ist....


Wenn ich daran denke welche Probleme ich hatte die geschätzten 140 W meines auf 4,1 GHz übertakteten QX9770 mit Luft wegzukühlen, dann glaube ich kaum, dass es da wirklich massentaugliche Lösungen von der Stange gibt
Was ist das denn für ein Vergleich?

Der QX9770 hat eine Die-Size von 214mm², die APU der PS4 348mm². Zudem... hat die APU der PS4 überhaupt eine Daukappe? Und als letzteres... wie kommst du auf die 140W? Selbst gemessen? Ich frage bloß weil der QX9770 schon bei 3,2Ghz mit 136W TDP spezifiziert ist.

Flusher
2013-12-24, 23:21:33
Schon mal gesehen was 8GB DDR3-3000 momentan kosten?
http://geizhals.at/de/avexir-core-series-led-blau-dimm-kit-8gb-avd3uh30001204g-2ci-a1004502.html

DDR4 soll mit 1600Mhz anfangen (DDR4-3200) und 8GB sollen angeblich für 90$ zu haben sein.
http://www.pcgameshardware.de/RAM-Hardware-154108/News/Crucial-Markteinfuehrung-DDR4-2013-2014-1098532/

Wenn das nichts ist....



Glaub ich erst, wenn es soweit ist. Die Vergangenheit hat gezeigt, dass die deutlich schnelleren Taktraten erst zwei bis drei Quartale nach Einführung der neuen DDR-Technologie zu vergleichbaren Preisen zur Verfügung standen.


Und als letzteres... wie kommst du auf die 140W? Selbst gemessen? Ich frage bloß weil der QX9770 schon bei 3,2Ghz mit 136W TDP spezifiziert ist.
[/quote]

Es waren bei mir rund 140 W real auf 4,1 GHz und 1,32 V VCore. (Gesamtsystem ohne Laufwerke und sonstigem Schnickschnak gemessen)

So einen Hitzkopf bei halbwegs annehmbarer Lautstärke zu kühlen ist ohne hohem monetären Aufwand sehr schwierig.


Wir kommen aber wieder mal vom Thema ab - hier wird über Mantle diskutiert, und nicht über potentielle APUs mit Quadchannel Interface, DDR4 und 180 W TDP.

Hübie
2013-12-25, 03:23:35
Da das SDK noch nicht öffentlich ist kann das niemand sagen der kein NDA hat. Man kann allerdings wohl davon ausgehen, dass Mantle die GCN-GPUs entsprechend Hardwarenahe ansprechen wird, dh man müsste wohl nicht nur die Mantle-API für NV-Support erweitern, sondern auch die Spielen bräuchten womöglich einen extra "NV-Mantle-Pfad". NV selbst müsste den (angepassten) Mantle Code über den Treiber auf ihre Hardware abstahieren.

Na ja. Unser Mister Andersson meinte dass BF4 bzw. Frosbite 3.0 ein komplett eigenständiges render-backend für mantle habe. Was das konkret bedeutet weiß ich nicht. Vielleicht kann er ja mal ein paar Worte dazu sagen.

Man muss sich halt ernsthaft fragen wie wichtig MS PC-Gaming noch ist seitdem die ihre XBox-Sparte betreiben.

Angesichts neuester Meldungen und der Tatsache das wir jetzt "flächendeckend" x86 haben sollte sich deren Interesse, zumindest theoretisch, jetzt steigern.

Demirug
2013-12-25, 12:22:06
Na ja. Unser Mister Andersson meinte dass BF4 bzw. Frosbite 3.0 ein komplett eigenständiges render-backend für mantle habe. Was das konkret bedeutet weiß ich nicht. Vielleicht kann er ja mal ein paar Worte dazu sagen.

Das bedeutet nur das sie den Codeteil welcher für die eigentliche GPU Ansteuerung verwenden für Mantle komplett eigenständig ist. Es gibt genauso jeweils ein Backend für die verschiedenen Konsolen und DirectX. Das ist wohl auch der Grund warum Mantle eine eigene Exe braucht weil sie ein dynamisches austauschen des Backends nicht vorgesehen haben.

Angesichts neuester Meldungen und der Tatsache das wir jetzt "flächendeckend" x86 haben sollte sich deren Interesse, zumindest theoretisch, jetzt steigern.

Da heute kaum noch in Assembler programmiert wird ist der Befehlssatz der CPU relative egal. Ich bin mir auch nicht sicher ob hier Desktop Spiele im Vordergrund stehen oder es primär mehr um Core games für Phone und Pads geht. Die dann eben auch auf demDesktop und möglicherweiße auch auf der XBox One im Windows RT modus laufen können. Software verkauft Hardware und der Windows Store ist nicht unbedingt gut gefüllt. Ich habe jetzt die aktuellen Zahlen nicht zur Hand aber bei iOS und Android lag beim letzten Mal als ich geschaut habe der größte Anteil bei den Spielen. Aber auch dort haben wir den Trend von Casual zu Core.

Hübie
2013-12-25, 13:31:52
Na ja ich wollte auch eigentlich mich eher auf die Plattform beziehen. Die PS4 und XBone sind ja nichts weiter als stink normale PCs nur dass halt mehr in einem Chip gewandert ist. Aber die haben auch PCI-Express, SATA, x86-CPU mit (fast) allen modernen Befehlssätzen und halt eine GCN-GPU wie es sie schon seit geraumer Zeit am Markt gibt. Also sind (Ab-) Wandlungen wohl wesentlich einfacher da die Tools schon eine recht hohe Leistung bzw. einen recht hohen Umfang haben dürften. Allerdings sitze ich ja nicht wie du oder einige andere hier an der Quelle bzw. am Pool um das reell beurteilen zu können. Das sind halt nur Schlußfolgerungen die ich (und auch einige andere) ziehen.
Aber natürlich magst du auch damit Recht haben, dass MS eben die Bereiche schneller verschmelzen will / kann. Da ich aber, entgegen des Trends, wenig Interesse am mobilen Markt habe (vor allem was zocken angeht), verlasse ich mich da eher auf Prognosen anderer Leute.

In dem Sinne frohes Fest und fette Geschenke euch allen :smile:

ps: 24.12. und immer noch keine offizielle Ankündigung zu Mantle & Co.

samm
2013-12-25, 14:45:58
ps: 24.12. und immer noch keine offizielle Ankündigung zu Mantle & Co.25.12. :P

Würde auch keine baldige Ankündigung erwarten. BF4 wird wohl "done when it's done" sein nach der Bugfix-Orgie, die Nitrous-Techdemo mit dem Mod-Support (wie auch immer der aussehen wird) angekündigt für Januar, Thief kommt afair im Februar.

Nakai
2013-12-25, 15:36:55
Kommt wohl erst nächsten Jahres. Würde auch zu AMDs Kaveri passen. Würde mich nicht wundern, wenn AMD BF4 mit Mantle mit/für Kabini/Kaveri promotet.


mfg

dargo
2013-12-25, 16:23:00
Kommt wohl erst nächsten Jahres. Würde auch zu AMDs Kaveri passen. Würde mich nicht wundern, wenn AMD BF4 mit Mantle mit/für Kabini/Kaveri promotet.

Ich verstehe nicht so ganz was AMD direkt mit dem Mantle-Patch von BF4 zu tun hat? Wenn sich Mantle für BF4 verspätet dann liegt das doch wohl nur an DICE! Bei dem Bughaufen den sie da produziert haben verwundert eine mögliche Verspätung, zumindest mich, überhaupt nicht.

4Fighting
2013-12-25, 16:44:22
Was ich nicht ganz verstehe(ich muss auch sagen ich verfolge den Thread nicht regelmäßig), sollte Mantle nicht bereits im November fertig sein ?:confused:

Zumindest hat DICE ja im November behauptet, dass sie 2 Monate für die Adaption benötigt hätten:

Andersson said creating a Mantle version of the Frostbite 3 engine took them about two months to complete

Ich habe auch kein Dementi zu seiner Aussage gefunden...

Demirug
2013-12-25, 17:03:00
Ich verstehe nicht so ganz was AMD direkt mit dem Mantle-Patch von BF4 zu tun hat? Wenn sich Mantle für BF4 verspätet dann liegt das doch wohl nur an DICE! Bei dem Bughaufen den sie da produziert haben verwundert eine mögliche Verspätung, zumindest mich, überhaupt nicht.

Die Gründe können vielfältig sein und es gibt mindestens 2 für die AMD verantwortlich wäre. Zum einen könnten die Treiber noch nicht stabil genug sein. Zum anderen könnten die Tools auch noch nicht gut genug sein um Fehler schnell zu finden. In wie weit Anderson und sein Team bei den BF4 Bugs überhaupt involviert sind ist dann auch noch eine Frage. Dazu müsste man wissen wie viele der Bugs überhaupt auf den Grafikkern zurück zu führen sind.

captain_drink
2013-12-25, 17:12:31
Was ich nicht ganz verstehe(ich muss auch sagen ich verfolge den Thread nicht regelmäßig), sollte Mantle nicht bereits im November fertig sein ?:confused:

Zumindest hat DICE ja im November behauptet, dass sie 2 Monate für die Adaption benötigt hätten:



Ich habe auch kein Dementi zu seiner Aussage gefunden...

Damit war ja nur die Integration von Mantle in die FB 3 gemeint. Über deren Integration in den sonstigen Code von BF 4 wurde hingegen noch keine Aussage getroffen, so dass über die dafür nötige Zeit nur spekuliert werden kann.

dargo
2013-12-25, 17:13:58
Die Gründe können vielfältig sein und es gibt mindestens 2 für die AMD verantwortlich wäre. Zum einen könnten die Treiber noch nicht stabil genug sein. Zum anderen könnten die Tools auch noch nicht gut genug sein um Fehler schnell zu finden. In wie weit Anderson und sein Team bei den BF4 Bugs überhaupt involviert sind ist dann auch noch eine Frage. Dazu müsste man wissen wie viele der Bugs überhaupt auf den Grafikkern zurück zu führen sind.
Stimmt. :)

Skysnake
2013-12-25, 18:31:32
Da heute kaum noch in Assembler programmiert wird ist der Befehlssatz der CPU relative egal.

Also das würde ich nicht unterschreiben. SSE und meines Wissens ja sogar AVX werden durchaus standardmäßig verwendet. Klar wird heute normal nichts mehr komplett in Assembler gemacht, aber inline Assembler findet sich durchaus öfters in kommerziellem Code.

Meist sind es ja auch nur ein paar kritische Bereiche, bei denen sich das auch wirklich lohnt das zu optimieren. Und wenn man da nur einen Befehlssatz, oder maximal zwei unterstützen muss, dann ist das schon angenehmer.

Demirug
2013-12-25, 19:10:29
Also das würde ich nicht unterschreiben. SSE und meines Wissens ja sogar AVX werden durchaus standardmäßig verwendet. Klar wird heute normal nichts mehr komplett in Assembler gemacht, aber inline Assembler findet sich durchaus öfters in kommerziellem Code.

Meist sind es ja auch nur ein paar kritische Bereiche, bei denen sich das auch wirklich lohnt das zu optimieren. Und wenn man da nur einen Befehlssatz, oder maximal zwei unterstützen muss, dann ist das schon angenehmer.

Ich sagte ja auch auch "kaum noch" und nicht "gar nicht mehr". In der Regel ist es weitaus weniger Assembler Code als Plattformcode aufgrund unterschiedlicher APIs.

Hübie
2013-12-25, 19:17:01
25.12. :P

Würde auch keine baldige Ankündigung erwarten. BF4 wird wohl "done when it's done" sein nach der Bugfix-Orgie, die Nitrous-Techdemo mit dem Mod-Support (wie auch immer der aussehen wird) angekündigt für Januar, Thief kommt afair im Februar.

War verpeilt :D Ich finde ja auch dass die erst mal das game hinbekommen sollten, aber ich glaube dass das Engine-Team relativ unabhängig von dem BF4-Team agiert.
Das eine ist ja eher verbuggter content, das andere halt die (grafische) Technik. Und letztere funktioniert ja bis auf Kleinigkeiten ganz solide.

aufkrawall
2013-12-25, 19:18:27
Für Mantle-Benchmarks muss wohl zwangsweise auf FCAT zurückgegriffen werden?

Hübie
2013-12-25, 19:20:10
Wieso das? BF4 hat einen ingame-counter.

aufkrawall
2013-12-25, 19:22:22
Und wer garantiert, dass der keinen Mist erzählt?
Zumal Frametimes auch interessant wären. So ziemlich jede D3D-Anwendung mit Vierkernskalierung mikroruckelt.

Hübie
2013-12-25, 19:31:29
Okay, deine Paranoia wieder :freak: Der zählt afaik zwar auch nur die buffer-swap oder flip queues aber sollte der FCAT-Messung jedenfalls net so nachstehen um das Spielgefühl zu vertuschen. Wenns bei mir unter 45 fps im SLi wandert wirds hässlich.
Das wäre halt ein FCAT-Fall... Aber sonst. Hm - glaube nicht.

Demirug
2013-12-25, 19:42:31
Da müsste aber erst mal jemand ein FCAT Overlay plugin für Mantle schreiben. Und solange AMD die Dokumentation nicht rausrückt sehe ich da schwarz.

Hübie
2013-12-25, 19:50:50
Öhm. FCAT misst doch im Prinzip nur dass, was durch das DVI-Kabel geht. Dafür brauchts doch keine Anpassung, oder bin ich jetzt auf dem Holzweg?

Demirug
2013-12-25, 20:09:38
Damit es richtig funktioniert brauchst du am Rand einen farbigen Streifen der sich bei jedem Frame ändert. Dieser wird mit einem entsprechenden Plugin erzeugt.

Hübie
2013-12-25, 20:11:07
Ach ja :freak: Sonst bringts ja net so viel... Aber das sollte doch schnell gemacht sein. Kann man das net auch auf der Seite des "Aufnahmegerätes" machen? Also jeden einzelnen incoming frame markieren und farblich kodieren? :|

Iruwen
2013-12-25, 21:51:17
Guck dir nochmal an wie FCAT funktioniert, dann sollte sich die Frage von selbst erledigen :D

Hübie
2013-12-25, 22:24:46
Hab das vor Monaten mal gelesen, aber mein Hirn filtert Dinge die ich nicht benötige raus ;D Wahrscheinlich wird ein frame schon im Buffer am Rand kodiert. Kenne ja farbliche Kodierungen noch aus mirc-Zeiten :D

gedi
2013-12-26, 00:13:41
Wahrscheinlich sehr dumme Frage, aber brauche ich für eine LL-API überhaupt einen angepassten Treiber?

Und die BQ-Features sind via CCC wohl immer noch explizit für die DX-Api und mit abstrichen OGL zuständig?

Demirug
2013-12-26, 00:43:46
Wahrscheinlich sehr dumme Frage, aber brauche ich für eine LL-API überhaupt einen angepassten Treiber?

Was meinst du mit angepassten Treiber? Optimierungen für einzelne Spiele? Eher nicht da das ja im Code des Spiels selbst passieren muss.

Und die BQ-Features sind via CCC wohl immer noch explizit für die DX-Api und mit abstrichen OGL zuständig?

Es ist sehr unwahrscheinlich das man bei der Verwendung von Mantle über CCC noch etwas einstellen kann. Texturfilter sind vielleicht noch machbar aber beim AA sehe ich schwarz da dafür einiges vom Treiber gemacht werden muss.Ein solcher Eingriff wäre aber bei einer LowLevel API Gift da die Daten plötzlich nicht mehr so im Speicher liegen wie es das Spiel erwartet.

gedi
2013-12-26, 01:03:00
Dass ich der Hardware " berichten" muss, dass sie denn Mantle im Bedarfsfall unterstützt - ja. Aber sonstige Anpassungen, wie z.B. bestimmte Profile ( u.a. auch für mGPU) sind doch für eine LL-Api ad adsurdum (?) - oder liege ich hier völlig falsch?

moBi
2013-12-26, 01:33:16
Aus den Folien geht hervor, dass man sich sein mGPU erst selber bauen muss, Profile wird es also nicht von AMD geben. Der Treiber scheint nur noch dafür zuständig zu sein, ein schön strukturiertes Interface für die Hardwarefunktionen zu bieten.

Ein sehr netter Nebeneffekt dürfte auch sein, dass mit Mantle aktivierten Spielen die Ära von Treiberproblemen beendet ist.

Screemer
2013-12-26, 01:35:31
eine immer angebotene downlsampling-option wäre für mantle und den entsprechenden treiber aber doch denkbar, oder?

Demirug
2013-12-26, 01:51:17
Ein sehr netter Nebeneffekt dürfte auch sein, dass mit Mantle aktivierten Spielen die Ära von Treiberproblemen beendet ist.

Im Gegenzug kann der Treiber aber auch nicht mehr mögliche Fehler im Spiel gerade biegen. Das könnte interessant werden wenn die zweite Generation von Mantle GPUs kommt mit Abweichungen bei der Soft Kompatibilität.

eine immer angebotene downlsampling-option wäre für mantle und den entsprechenden treiber aber doch denkbar, oder?

Eher nicht. Dafür müsste der Treiber Dinge tun welche das Spiel nicht erwartet und deswegen dann möglicherweiße Fehler produziert.

Exxtreme
2013-12-26, 01:57:18
eine immer angebotene downlsampling-option wäre für mantle und den entsprechenden treiber aber doch denkbar, oder?
Das Spiel müsste das Downsampling machen.

gedi
2013-12-26, 02:24:53
Wenn dafür lediglich eine Anpassung der cfg notwendig wäre - very nice :)

aufkrawall
2013-12-26, 02:53:54
Unterschied zu Status Quo wäre welcher?

gedi
2013-12-26, 03:01:23
Wenn sich, im (meinem erdachten) Idealfall die Software nach der Hardware richtet, dann erübrigt sich diese Frage.

=Floi=
2013-12-26, 14:37:57
warum bringen die eigentlich kein sdk für alle?

fondness
2013-12-26, 14:40:45
Weil es aktuell höchstens "beta" ist, das kommt wenn es fertig ist.

Screemer
2013-12-26, 15:13:12
hieß doch bei der Vorstellung, dass da vor mitte Ende 2014 nix für die Allgemeinheit gibt.

Coda
2013-12-26, 16:09:33
warum bringen die eigentlich kein sdk für alle?
With great power comes great responsibility

Hübie
2013-12-26, 18:07:18
So, oder so ähnlich drückte sich Mr. Andersson aus. Faulheit wird hier also gleich mehrfach abgrstraft.

RainingBlood
2013-12-26, 20:07:01
langsam könnten die mal den Mantle des Schweigens lüften und Auskunft über den Entwicklungsstand geben.

4Fighting
2013-12-26, 20:24:58
langsam könnten die mal den Mantle des Schweigens lüften und Auskunft über den Entwicklungsstand geben.

;D

Wird schon seine Gründe haben, warum man nichts zu dem angekündigten Killer-Feature, was bis Ende Dezember kommen soll, nichts sagt.

Wenn es sich verspätet, soll man es einfach frühzeitig kommunizieren....da kommt dann am 2.1.14 : "Huch, wir brauchen noch 2 Monate. Mensch, das kam plötzlich"

Schaffe89
2013-12-26, 20:29:58
Für Mantle-Benchmarks muss wohl zwangsweise auf FCAT zurückgegriffen werden?

Die Messmethodik von FCAT ist unzureichend, ansonsten gäbe es bei perfekten FCAT Ergebnissen unter SLI keine µruckler bei im ~40 FPS Bereich.
FCAT kann man in der Pfeife rauchen, nur meine bescheidene Meinung.

aufkrawall
2013-12-26, 21:22:32
Willst du diese sinnlose Diskussion nicht lieber im richtigen Thread weiterführen?

Schaffe89
2013-12-26, 23:14:15
Man kann mittlerweile davon ausgehen, dass Dice den Dezembertermin nicht halten kann.
Kann aber auch sein, dass AMD mit den Treibern noch nicht soweit ist, halte ich aber für unwahrscheinlich, soviel ändert sich am Treiber da nicht.

Willst du diese sinnlose Diskussion nicht lieber im richtigen Thread weiterführen?

Mit jemanden wie mit dir zu diskutieren ist müßig, da du alle Entwicklungen von Nvidia pauschal als gut betrachtest und die von AMD pauschal als negativ.
Diskussion hat da keinen Erfolg.

FCAT erfasst keine Ingame vs. Output Time, für mich heißt das dass dieses Verfahren unzureichend ist und nicht die Realität abbildet.
Bewiesen ist das unter anderem mit Rucklern die in ~40 FPS Regionen und auch höher durch SLI oder CF auftreten, FCAT aber sagt alles sei bestens.

Übrigens sichtbare Ruckler, daher ist das Messverfahren unzureichend, genauso wie AMD ganz am Anfang gesagt hat, dass das nicht alles sei um ein ruckelfreies Bild darzustellen, da hilft auch G-sync nicht weiter, sondern nur eine Engine welche so etwas verhindert.

Unter anderem entweder das was Steam OS plant oder Mantle.
Die Crysis Entwickler können das alles ohne V-sync oder irgendwelche Postmittelchen sehr gut darstellen und das unter Direct X. Hab erst gestern wieder Crysis 1 angeworfen und war von der Tearingfreiheit sehr beeindruckt.
Crysis 3 macht das noch besser, ergo sehe ich da einen Zusammenhang zwischen mantle und ruckeln im Allgemeinen.

Und erteile G-sync auf lange Sicht eine Abfuhr, bis ein Hersteller kommt, welcher das Verfahren führ beide Hersteller anbietet, in der gleichen Hoffnung dass Mantle eine Brücke zwischen der Windows Welt und der Steam OS Welt schlagen kann und für AMD und Nvidia läuft.

fondness
2013-12-26, 23:20:34
Letzte Info von Andersson - und das ist noch nicht lange her - ist nach wie vor Ende Dezember. Da noch niemand der involvierten Personen etwas von einer Verschiebung berichtet hat, gehe ich davon aus, dass der Termin hält.

Schaffe89
2013-12-26, 23:24:28
Niemals hält der, dafür lege ich meine Hand ins Feuer.
Wenn ich in ein paar Tagen einer Spielbare Version von Mantle bringen kann, dann würde ich bereits seit ein paar Wochen die Werbetrommel rühren wie sowas wie:

AMD sagt: "Mantle is Coming in a few Days"

Oder weiß der Kuckuck.

Kann aber auch sein, dass AMD den Release komplett Dice überlässt und dazu gar nix mehr sagt, sondern nur Werte sprechen lässt.
Kann ich mir aber nicht vorstellen.

Skysnake
2013-12-26, 23:41:24
Ich sagte ja auch auch "kaum noch" und nicht "gar nicht mehr". In der Regel ist es weitaus weniger Assembler Code als Plattformcode aufgrund unterschiedlicher APIs.
Dann warst du sehr missverstädlich. Das kam nämlich so rüber als ob überhaupt nur noch wenig Assembler verwendet wird, also viel Software ganz ohne auskommt, statt nur mit prozentual gesehen wenig Assembler.

Das sind halt zwei grundlegend verschiedene paar Schuhe ;)

Demirug
2013-12-27, 00:11:55
Dann warst du sehr missverstädlich. Das kam nämlich so rüber als ob überhaupt nur noch wenig Assembler verwendet wird, also viel Software ganz ohne auskommt, statt nur mit prozentual gesehen wenig Assembler.

Das sind halt zwei grundlegend verschiedene paar Schuhe ;)

Wenn wir von Software im allgemeinen reden dann wirst du in dem Code der in den letzten Jahren so geschrieben wurde nur sehr wenig Assembler finden. In den meisten Programmen keine einzige Zeile. Aus Performance Sicht ist es fast unmöglich geworden einen modernen C/C++ Compiler zu schlagen. Und für SSE gibt es ja inzwischen Compiler Erweiterungen damit man da in einer C artigen Syntax programmieren kann. Der Compiler übernimmt dann die Register Belegung etc.

Auf dem PC gibt es einfach keinen guten Grund mehr Assembler zu verwenden. Auf anderem Systemen macht man es nur noch wenn man an die Grenzen der jeweiligen Compiler kommt.

Davon ab nimmt der Anteil von Software die C/C++ und ähnlichen sprachen programmiert wird sowieso ab. Wäre nicht iOS mit Obj-C so populär wäre es noch deutlicher. Sogar bei den Konsolen gibt es inzwischen vermehrt Überlegungen auf eine hörher Eben zu wechseln um die Komplexität besser in den Griff zu bekomm

Nakai
2013-12-27, 00:58:59
With great power comes great responsibility

;D;D;D

...ich find den Film zwar richtig mies, aber es hat seinen Grund, warum AMD seit einiger Zeit auf "offene" Standards setzen will. Mit Mantle liegt man etwas weit daneben...

Ich befürchte wirklich, dass die meisten Mantle vollkommen missverstehen. Es wurde doch gesagt, dass viel neu-Implementiert werden müsste. Wahrscheinlich mehr, als den Meisten lieb ist, weswegen Mantle noch mehr Zeit benötigt. Wenn nicht viele basischen Features bereitgestellt werden, wird Mantle ein PR-Crash sondergleichen. Deswegen lieber noch etwas warten...

HarryHirsch
2013-12-27, 01:04:26
Und der OpenCL Support ist aus versehen?

Wenn es um offene Sachen geht kann man AMD wohl kaum einen Vorwurf machen.

StefanV
2013-12-27, 01:06:40
...ich find den Film zwar richtig mies, aber es hat seinen Grund, warum AMD seit einiger Zeit auf "offene" Standards setzen will. Mit Mantle liegt man etwas weit daneben...
Das Problem ist aber, dass die ganzen Forentrolle Offene Standards wenig bis gar nicht honorieren aber dann solchen Unsinn wie PhysX feiern. Daher macht AMD jetzt auch hierbei mit, wobei man nicht solch eine Spielerei wie PhysX erfindet sondern gleich eine neue API für sich selbst...

Eigentlich ists traurig, dass es in den Foren so ist, dass man Proprietären Dreck feiert und offene Bemühungen weitgehend ignoriert und somit die Hersteller dazu zwing/überredet selbst irgendeinen Proprietären Müll auf den Markt zu schmeißen...

Flusher
2013-12-27, 01:16:03
Mantle soll doch gar nicht AMD-only sein. Hat AMD doch mehrmals betont, dass man die API auch anderen Herstellern zur Verfügung stellen will, sofern Interesse besteht. In welchem Lizenzrahmen wurde halt bisher nicht gesagt, ist aber auch nicht verwerflich, wenn man bedenkt das Mantle noch in den Kinderschuhen steckt.

AwesomeSauce
2013-12-27, 01:18:03
Genau, AMD wird zu proprietären Lösungen gezwungen, weil in den Foren offene Standards nicht genügend honoriert werden :freak: Was für eine verkorkste Weltanschauung muss man haben, damit man AMD immer in der Opferrolle sehen kann?:confused:

LadyWhirlwind
2013-12-27, 01:32:10
Der potentielle Konkurenzvorteil bei Mantle ist zu gross als das man den aus der Hand geben möchte. Zumindest Lizenzgebühren werden die kassieren wollen.

HarryHirsch
2013-12-27, 01:34:35
Lizenzgebühren? :freak:

Nakai
2013-12-27, 01:36:30
Und der OpenCL Support ist aus versehen?

Wenn es um offene Sachen geht kann man AMD wohl kaum einen Vorwurf machen.

Ich habe selber in OpenCL programmiert, nicht nur zum Spaß...und AMDs Support ist ziemlich gut. Leider machen in bestimmten Bereichen der eigene Support einen Strich durch die Rechnung(Treibersupport). Ich mache AMD keinen Vorwurf. Man ist derzeit ziemlich am Boden und offene Standards sind immer gut.
Macht also Sinn, dass man sowas wie OpenCL unterstützt. ;)

Das Problem ist aber, dass die ganzen Forentrolle Offene Standards wenig bis gar nicht honorieren aber dann solchen Unsinn wie PhysX feiern. Daher macht AMD jetzt auch hierbei mit, wobei man nicht solch eine Spielerei wie PhysX erfindet sondern gleich eine neue API für sich selbst...

Eigentlich ists traurig, dass es in den Foren so ist, dass man Proprietären Dreck feiert und offene Bemühungen weitgehend ignoriert und somit die Hersteller dazu zwing/überredet selbst irgendeinen Proprietären Müll auf den Markt zu schmeißen...

Ich stimme dir schon zu, aber es sind immer zwei Seiten zu beachten.

Die Leute haben eh keine Ahnung, wie irgendetwas funktioniert. Mit dem Halbwissen, wo mancherorts rumgeschlagen wird, kann man Bibliotheken füllen. Da kann man viele Leute wirklich verstehen, wenn sie den :facepalm: einfach mal verwenden, oder irgendwelche schlaksige Antworten bringen.

Ein normal Sterblicher hat doch eh keine Ahnung. Der ist froh, wenn er ein paar Begriffe versteht. Wenn Unternehmen proprietäre Standards bringen, sind sie meisten eh in der Lage, diese Standards zu unterstützen. Proprietäre Standards sind vom Featureset fortschrittlicher und konsistenter, also stabiler.
Offene Standards hinken hinterher und sind meistens instabiler, vor allem, weil es von allen Marktteilnehmern irgendwie unterstützt und implementiert werden müsste. Außerdem sind proprietäre Standards eh viel marketing-affiner.

...hin oder her...AMD setzt nicht aus Spaß eher auf offene Standards, doch bringt man hin und wieder einige nette Sachen, wie TressFX oder gar Mantle. Jetzt warten wir auf die Umsetzung, welche noch etwas auf sich warten lassen wird...

Mantle soll doch gar nicht AMD-only sein. Hat AMD doch mehrmals betont, dass man die API auch anderen Herstellern zur Verfügung stellen will, sofern Interesse besteht. In welchem Lizenzrahmen wurde halt bisher nicht gesagt, ist aber auch nicht verwerflich, wenn man bedenkt das Mantle noch in den Kinderschuhen steckt.

Wenn Mantle überhaupt aus den Kinderschuhen rauskommt...Mantle wird garantiert nicht so einfach offen sein...

Genau, AMD wird zu proprietären Lösungen gezwungen, weil in den Foren offene Standards nicht genügend honoriert werden :freak: Was für eine verkorkste Weltanschauung muss man haben, damit man AMD immer in der Opferrolle sehen kann?:confused:

AMD ist derzeit der völlige Underdog. Mir ist egal, wie etwas interpretiert wird. Die meisten Leute in Foren oder sonstwo werden doch eh nie mit irgendwas in Kontakt kommen, damit die irgendetwas nachvollziehen können. Was in Foren ankommt ist doch eh fast nur Marketing und Publicity.

Oder haben die meisten Leute hier schon etwas komplexere Kernels geschrieben oder gar Shader in OpenGL oder DX implementiert? Ich habe zwar selber nicht den Masterplan, aber ich frage mich manchmal schon, was einige Leute zu bestimmten Aussagen bewegt. :freak:

StefanV
2013-12-27, 02:02:54
Ich stimme dir schon zu, aber es sind immer zwei Seiten zu beachten.
Neee, in diesem Falle nicht.
Denn die Leute bei AMD werden auch in die Foren schauen (müssen) und auch was bei Facebook abgeht.

Und wenn sich abzeichnet, dass die Leute da PhysX toll finden, weil das ein alleinstellungsmerkmal ist, wird diese Information an das Produktmanagment weitergeleit, das dann ggF weitere Schritte einleitet...



Die Leute haben eh keine Ahnung, wie irgendetwas funktioniert. Mit dem Halbwissen, wo mancherorts rumgeschlagen wird, kann man Bibliotheken füllen. Da kann man viele Leute wirklich verstehen, wenn sie den :facepalm: einfach mal verwenden, oder irgendwelche schlaksige Antworten bringen.
Das ist schon richtig, was du hier sagst. Insbesondere bei Netzteilen fällt es besonders auf, was dort teilweise empfohlen wird.
Sowas wie 750W bei 'ner 'normalen' Grafikkarte, weil is halt so. (Also NICHT 'ne 290X sondern eher was kleineres wie 'ne 770/270X)...
550W sind maximal was für Systeme mit ohne Grafikkarte...


Dennoch: Selbst dem unwissensten PC-User sollte klar sein, dass etwas, was nur auf einem von beiden funktioniert, letztendlich schlecht ist. Gut, da diese Leute meist eh Gläubige an eine bestimmte Firma sind, merken die das nicht...


...hin oder her...AMD setzt nicht aus Spaß eher auf offene Standards, doch bringt man hin und wieder einige nette Sachen, wie TressFX oder gar Mantle. Jetzt warten wir auf die Umsetzung, welche noch etwas auf sich warten lassen wird...
Dennoch ist das Problem, dass es eher so scheint als ob der Tenor in den Foren zu PhysX positiv ist und zu TressFX eher negativ - obwohl das eine nur auf Hardware eines Herstellers lauffähig ist, während das andere von allen genutzt werden kann. Sowas ist einfach mal echt doof.

Ob die das nu

=Floi=
2013-12-27, 03:10:28
nur kannst du einfach nicht feature und deren implementierung auseinanderhalten.

StefanV
2013-12-27, 03:42:04
Was willst du damit sagen?!

Der Punkt ist schlicht, dass Proprietäres Zeugs einfach mal scheiße ist. Aber das ganze von vielen Leuten als toll/super angesehen wird.

boxleitnerb
2013-12-27, 09:17:15
Das stimmt nicht. Es kommt auf die Umstände an. Wenn eine offene Lösung nicht aus den Puschen kommt, ist eine proprietäre Lösung durchaus zu begrüßen. Dieser Zustand muss ja nicht für immer gelten, das vergessen viele leider.

Skysnake
2013-12-27, 12:19:19
JEDE! aber auch wirklich JEDE! Firma, die nen propritären Konkurrenten zu nem offenen Standard hat, wird aber immer versuchen den offenen Standard so viele Prügel zwischen die Füße zu schmeisen wie es nur geht...

Oder als was soll man bitte verstehen, dass die neuen nVidia GPUs gar kein OpenCL mehr offiziell unterstützen?

Wenn du dann wie bei GPUs im Prinzip auch nur zwei große Marktteilnehmer hast in einem Marktsegment (Desktop), dann wird der offene Standard es halt schwer haben...

Das hat immer was von Hexenjagd in solchen Fällen. Das Urteil steht schon fest und egal was passiert, das Urteil wird noch weiter zementiert...

Wenn nVidia CUDA mehr supported, weil OpenCL "nicht in die Pushen kommt", dann zementiert man GENAU diesen Zustand durch das eigene Handeln. Selbsterfüllende Profezeiung und so...

Kurz um, Boxleitnerb, deine Ausführung dazu ist einfach Banane, weil du eben vergisst, das nVidia gar kein Interesse daran hat bzgl OpenCL auch nur einen Finger zu rühren. Man hat quasi den Gegner im eigenen Team mit nVidia...

Geldmann3
2013-12-27, 12:34:19
Jippiii, höchstens noch 4 Tage, dann zeigt Mantle seine wahre Größe und alle werden erzittern.

RLZ
2013-12-27, 12:58:28
Jippiii, höchstens noch 4 Tage, dann zeigt Mantle seine wahre Größe und alle werden erzittern.
Falls es länger dauert, hätten wir die weltweit erste Verzögerung eines Softwareprojektes. Die Gärtner würde ich direkt feuern. :eek:

Schaffe89
2013-12-27, 14:31:15
Also ich hab die Nacht durchzecht in irgendwo auf einer Teschechischen Siete gelesen, dass Dice plant den Release von der Mantle API für Battlefield auf Februar zu verschieben.

Der Grund dafür sind die Bugs in Battlefield 4 und aufgrund dessen wurden alle anderen Projekte gestoppt.
Mantle entpuppt sich für AMD langsam als Lachnummer.

Falls es länger dauert, hätten wir die weltweit erste Verzögerung eines Softwareprojektes. Die Gärtner würde ich direkt feuern.

Jepp^^...nur kann AMD das jetzt wieder ausbaden.
Wenn ich AMD wäre hätte ich von Anfang an gesagt " when it´s done", sozusagen der Duke Nukem Style.

Hübie
2013-12-27, 17:04:26
JEDE! aber auch wirklich JEDE! Firma, die nen propritären Konkurrenten zu nem offenen Standard hat, wird aber immer versuchen den offenen Standard so viele Prügel zwischen die Füße zu schmeisen wie es nur geht...

Oder als was soll man bitte verstehen, dass die neuen nVidia GPUs gar kein OpenCL mehr offiziell unterstützen?

Wenn du dann wie bei GPUs im Prinzip auch nur zwei große Marktteilnehmer hast in einem Marktsegment (Desktop), dann wird der offene Standard es halt schwer haben...

Das hat immer was von Hexenjagd in solchen Fällen. Das Urteil steht schon fest und egal was passiert, das Urteil wird noch weiter zementiert...

Wenn nVidia CUDA mehr supported, weil OpenCL "nicht in die Pushen kommt", dann zementiert man GENAU diesen Zustand durch das eigene Handeln. Selbsterfüllende Profezeiung und so...

Kurz um, Boxleitnerb, deine Ausführung dazu ist einfach Banane, weil du eben vergisst, das nVidia gar kein Interesse daran hat bzgl OpenCL auch nur einen Finger zu rühren. Man hat quasi den Gegner im eigenen Team mit nVidia...

Und wie ist das mit Intel und OpenCL (KC = OCL 1.2)? Kommt da zeitnah 2.0 SDK? nVidia veröffentlicht ja demnächst CUDA 5.0 (vermutlich mit Maxwell).
Ich glaube dass Problem ist dass bei offenen Standards alles lange braucht eh es steht und genutzt werden kann.

b2t: Wo wurde doch gleich gesagt dass eine 290x mit Mantle die Titan lächerlich aussehen lassen würde? :|
Man sollte den Mund imo nur so voll nehmen wie man kauen kann :redface:

Schade. Denn wenn es wirklich erst Februar wird, sinkt A) das Interesse (vorerst) und B) kurbelt es keine Verkäufe an. Als C-Punkt könnte man anführen dass man Kunden verärgert. Hat AMD sich nicht den besten Partner ins Boot geholt bzw. hat DICE zu vorschnell mit AMD paktiert. Betafailed 4 hat seinen Ruf halt weg.

Blediator16
2013-12-27, 17:21:31
Und wie ist das mit Intel und OpenCL (KC = OCL 1.2)? Kommt da zeitnah 2.0 SDK? nVidia veröffentlicht ja demnächst CUDA 5.0 (vermutlich mit Maxwell).
Ich glaube dass Problem ist dass bei offenen Standards alles lange braucht eh es steht und genutzt werden kann.

b2t: Wo wurde doch gleich gesagt dass eine 290x mit Mantle die Titan lächerlich aussehen lassen würde? :|
Man sollte den Mund imo nur so voll nehmen wie man kauen kann :redface:

Schade. Denn wenn es wirklich erst Februar wird, sinkt A) das Interesse (vorerst) und B) kurbelt es keine Verkäufe an. Als C-Punkt könnte man anführen dass man Kunden verärgert. Hat AMD sich nicht den besten Partner ins Boot geholt bzw. hat DICE zu vorschnell mit AMD paktiert. Betafailed 4 hat seinen Ruf halt weg.

Im Grunde kann man sich und allen anderen viel erzählen wenn der Tag lang ist. Wenn man sich selbst und andere stresst hat man scheinbar nichts besseres zutun.

Hübie
2013-12-27, 17:25:15
Wie meinst du das, Blediator16?

boxleitnerb
2013-12-27, 17:26:33
JEDE! aber auch wirklich JEDE! Firma, die nen propritären Konkurrenten zu nem offenen Standard hat, wird aber immer versuchen den offenen Standard so viele Prügel zwischen die Füße zu schmeisen wie es nur geht...

Oder als was soll man bitte verstehen, dass die neuen nVidia GPUs gar kein OpenCL mehr offiziell unterstützen?

Wenn du dann wie bei GPUs im Prinzip auch nur zwei große Marktteilnehmer hast in einem Marktsegment (Desktop), dann wird der offene Standard es halt schwer haben...

Das hat immer was von Hexenjagd in solchen Fällen. Das Urteil steht schon fest und egal was passiert, das Urteil wird noch weiter zementiert...

Wenn nVidia CUDA mehr supported, weil OpenCL "nicht in die Pushen kommt", dann zementiert man GENAU diesen Zustand durch das eigene Handeln. Selbsterfüllende Profezeiung und so...

Kurz um, Boxleitnerb, deine Ausführung dazu ist einfach Banane, weil du eben vergisst, das nVidia gar kein Interesse daran hat bzgl OpenCL auch nur einen Finger zu rühren. Man hat quasi den Gegner im eigenen Team mit nVidia...

Beruhig dich doch erstmal und akzeptiere, dass es Fälle gibt, in denen etwas Proprietäres zunächst (!!!) besser ist als gar nichts. Es ging übrigens um PhysX, falls du das verpasst haben solltest. Wir alle wissen, dass hier größtenteils die Konsolen Schuld waren und die Technikbremse gespielt haben. Wie sich das jetzt mit PS4 und XB1 weiterentwickelt, muss man sehen. Bis hierhin finde/fand ich PhysX toll.

Von solchen Absolutaussagen wie deiner halte ich gar nichts. Es kommt immer auf den Einzelfall an. OpenCL hatte viele Jahre Zeit, die AMD-Physikdemo die gezeigt wurde ist jetzt glaube ich 7 Jahre alt...schnarch.
Aber gut, die ganze Diskussion ist eh für die Katz, schließlich hat StefanV ja offen zugegeben, dass er proprietäre Alleinstellungsmerkmale bei Nvidia scheiße und bei AMD gut findet. Auf so einer Basis kann man gar nicht diskutieren.

Um auf Mantle zurückzukommen:
Das finde ich genau wie PhysX eine gute Sache im Prinzip. Die Adoption könnte durch die alleinige Ausrichtung auf GCN und Unterstützung nur von AMD (und nicht NV und Intel) im Moment langsamer vonstatten gehen als man sich das wünschen würde, aber es gibt ja nunmal nichts Vergleichbares. OpenGL wird ja gar nicht mehr wirklich verwendet in Spielen und DirectX lässt ja offenbar hier und da zu wünschen übrig, sonst hätte man Mantle nicht konzipiert.

fondness
2013-12-27, 17:30:56
Falls es länger dauert, hätten wir die weltweit erste Verzögerung eines Softwareprojektes. Die Gärtner würde ich direkt feuern. :eek:

Sehe ich auch so. Die üblichen Verdächtigen werden zwar darüber her fallen, aber im Endeffekt ändern es gar nichts ob das erste Mantle-Spiel jetzt ein paar Wochen früher oder später kommt. AMD kann daran ohnehin nichts beeinflussen. Im Februar soll im übrigen auch Thief erscheinen.

Ailuros
2013-12-27, 17:44:56
Aber gut, die ganze Diskussion ist eh für die Katz, schließlich hat StefanV ja offen zugegeben, dass er proprietäre Alleinstellungsmerkmale bei Nvidia scheiße und bei AMD gut findet. Auf so einer Basis kann man gar nicht diskutieren.

Die Diskussion war schon seit etlichen Seiten (wenn nicht von Anfang an) fast nutzlos weil eben sehr wenig auf technologischem Nivaeu diskuttiert wurde. Mich hat es mehr als einmal gejuckt den Thread dicht zu machen, aber am Ende des Tages sind die meisten von uns auch nicht mehr als einen solchen Sandkasten wert anscheinend. Ein "Technologie" - Subforum ist dieses schon seit langem nicht mehr.

Sonst zum eigentlichen Thema und der Mantle Verspaetung: ist zwar ziemlich nebensaechlich aber AMD haette sich einfach sparen koennen den Termin anzugeben aber wenn es wirklich 2 Monate sind ist es auch kein Weltuntergang. Ich frag mich ledliglich als Beobachter ob sich manche ueber die "Einfachheit" von Mantle nicht doch vielleicht unterschaetzt haben und dass ist dann natuerlich dann schon Material ueber das ich gerne lesen wuerde.

Hübie
2013-12-27, 18:35:36
Ja, gut. Was willst auch groß technisch spekulieren? Die die was wissen wollen bzw dürfen nix sagen und die, die was sagen wissen nix. Ich selber habe nur wenig Ahnung wie so was dann im low-level-Format auch noch aussehen soll, weil ich einfach kein Programmierer bin und auch nie sein will.
Ich bin aber immer gerne bereit mir technische Ausführungen durchzulesen, aber wie gesagt schreibt hier keiner mehr was. Also flamen, trollen oder sabbeln wir halt.

StefanV
2013-12-27, 18:41:16
Beruhig dich doch erstmal und akzeptiere, dass es Fälle gibt, in denen etwas Proprietäres zunächst (!!!) besser ist als gar nichts.
Nein, ist es nicht. Es ist einfach bullshit, PUNKT.

Das ganze geht dann nur Richtung Sandkasten: 'Ätschibätsch, hab was, das du nicht hast *bäh* :O'
Und auf dieser Grundlage wird dann diskutiert.

Und gerade bei nVidia siehst du ja, dass sie gerade 'nen Intel pullen und ihre 'Marktmacht' versuchen zu missbrauchen.
Nichts anderes macht man gerade mit CUDA, nur mit dem Unterschied, dass das wohl weniger erfolgreich ist, Intel sei dank...

Letzendlich wird es wohl auf drei Proprietäre Low Level Schnittstellen hinauslaufen: EIne für AMD; eine für Intel, eine für nVidia. Ist zwar scheiße, wenn sie sich aber halbwegs an Mantle orientieren, sollte das auch halbwegs OK sein.
Die großen Engines werden dann eh alle drei Pfade (+D3D als Fallback) nutzen, die kleineren Buden werden weiter bei D3D bleiben...

Hübie
2013-12-27, 18:52:23
Ganz Hollywood setzt auf CUDA, weil die einfach schnell entwickeln und vor allem direkte Ansprechpartner haben die sogar bei denen mit im Studio bzw. am Set sitzen. Das ist halt ein Produkt was du verkaufst. Da ist die Hardware reine Nebensache.
Ich hab übrigens ne Einladung zum Citrix Special Event wo man Grid fleißig promoten möchte :freak:

StefanV
2013-12-27, 19:11:22
Und du findest es gut/toll, dass sie auf CUDA setzen statt auf OpenCL?

Nakai
2013-12-27, 19:45:10
Und du findest es gut/toll, dass sie auf CUDA setzen statt auf OpenCL?

CUDA und OpenCL sind relativ äquivalent, ja. Nur ist CUDA technologisch schon ein oder fast zwei Schritte weiter. Mit OpenCL 2.0 siehts wieder anders aus, es ändert aber nichts, dass ein proprietäre Schnittstelle stabiler und effektiver ist.

Nvidia liefert mit und für CUDA einen super Support, was man nicht vergessen sollte.

Im Grunde ist es vielen Leuten egal was sie benutzen, nur hockt sich niemand hin und entwickelt etwas Kostenintensives ohne jeglichen Support. DAS wäre fatal.

Hübie
2013-12-27, 19:59:30
Und du findest es gut/toll, dass sie auf CUDA setzen statt auf OpenCL?

Ja. Denn so entwickeln die deutlich kosteneffizienter, schneller und flexibler. Wo ist der Nachteil? HP oder andere stellen die Plattform und nVidia die Schnittstelle samt Entwickler-Support auf breiter Ebene. Was stinkt dir da denn so? Denkst du AMD würde etwas günstiger anbieten? Wenn OpenCL 2.0 verfügbar ist hat nVidia schon wieder weiter an der Schraube gedreht. Das ist ja dass was ich oben sagte: vermutlich liegt hier der Hund begraben.
Bitte argumentiere jetzt mal anhand von Fakten und nicht fiktiven Gebilden von wegen Monopol oder sowas. Und bleiben wir mal in Hollywood ;)

Blediator16
2013-12-27, 20:13:15
Ist es den Leuten nicht irgendwie selbst überlassen das zu nutzen, was sie wollen? Wenn Hollywood CUDA basierte Techniken nutzen, dann wirds wohl irgendwo einen Grund geben. Wenn sie in den nächsten Jahren auf etwas anderes setzen, dann wird es wohl seinen Grund geben.

Hübie
2013-12-27, 20:19:35
Korrekt. Ein Grund ist halt das Featureset und die Zuverlässigkeit. Findet Nemo wurde, wenn ich mich noch richtig erinnere auf 8 R200 gerendert, die auf zwei PCBs verteilt waren mit OpenGL-Beschleunigung gerendert. Damals war halt noch nix mit compute-shader etc. ;D Das hat eeeewig gedauert.
Heute bist du als Author oder Regisseur in der Lage noch am Set dass was auf dem green screen kommt on the fly zu editieren und zu rendern. Die arbeiten an realtime editing sind auch im Gange. Wer den Trend verpennt hat halt das Nachsehen.

Skysnake
2013-12-27, 20:59:49
CUDA und OpenCL sind relativ äquivalent, ja. Nur ist CUDA technologisch schon ein oder fast zwei Schritte weiter. Mit OpenCL 2.0 siehts wieder anders aus, es ändert aber nichts, dass ein proprietäre Schnittstelle stabiler und effektiver ist.

Bitte was?

Mit OpenCL 2.0 ist CUDA hinten dran.

Zudem darf man eben nie aus den Augen verlieren, das man OpenCL sehr schnell um alle Features von CUDA erweitern könnte, wenn nVidia sich hier kooperationsbereit zeigen würde.


Nvidia liefert mit und für CUDA einen super Support, was man nicht vergessen sollte.

CUDA hat vor allem den Vorteil einer bestehenden Basis. Eine bestehende CodeBasis schmeist man nur ungern wieder weg. Vor allem, wenn einer von zwei Herstellern sich auch noch aktiv gegen openCL stellt.

Wenn nVidia sich heute hinstellen würde und sagen würde, Sie würden OpenCL zu 100% unterstützen wie CUDA, dann würde man so viel Abgänge zu OpenCL sehen, das man mit den Ohren schlackert.


Im Grunde ist es vielen Leuten egal was sie benutzen, nur hockt sich niemand hin und entwickelt etwas Kostenintensives ohne jeglichen Support. DAS wäre fatal.
Für OpenCL gibt es genau so den Support wie für CUDA. Das "Problem" ist da halt eher, das man Programmierer hat,die CUDA können und CUDA als Code-Basis. Da bleibt man halt gern bei.

Ist es den Leuten nicht irgendwie selbst überlassen das zu nutzen, was sie wollen? Wenn Hollywood CUDA basierte Techniken nutzen, dann wirds wohl irgendwo einen Grund geben. Wenn sie in den nächsten Jahren auf etwas anderes setzen, dann wird es wohl seinen Grund geben.
Klar kann man es den Leuten selbst überlassen, man sollte/darf aber nicht propritäre Standards damit verteidigen und rechtfertigen, weil die offenen nicht genau so weit sind, wobei OpenCL 2.0 ja wie gesagt weiter ist als CUDA.

Nakai
2013-12-27, 21:27:15
Bitte was?

Mit OpenCL 2.0 ist CUDA hinten dran.

Zudem darf man eben nie aus den Augen verlieren, das man OpenCL sehr schnell um alle Features von CUDA erweitern könnte, wenn nVidia sich hier kooperationsbereit zeigen würde.


Wo ist den OpenCL 2.0? Ich derzeit keine Produkte die OpenCL2.0 unterstützen.
Außerdem sind die OpenCL 2.0 Specifications noch nicht fertig. Guck dir mal das Dokument an, da fehlt noch einiges.

Klar, ich weiß was du meinst. Ich erwarte mir von OpenCL 2.0 auch einiges. ;)
Aber CUDA 6.0 steht auch vor der Tür.

AMD unterstützt mit GCN ja wohl auch globale Synchronisation, nur findet man das bis jetzt nicht in Software.

Ich glaube auch, dass AMD OpenCL 2.0 mit einem Treiberupdate in ihre bestehendes Portfolio integrieren wird.

Wenn nVidia sich heute hinstellen würde und sagen würde, Sie würden OpenCL zu 100% unterstützen wie CUDA, dann würde man so viel Abgänge zu OpenCL sehen, das man mit den Ohren schlackert.


Was in CUDA ist, bleibt in CUDA. Aber ein zusätzlicher OpenCL-Support würde auf langer Sicht NVidia einige Käufe abgraben. Außerdem würde es theoretisch überall laufen.

StefanV
2013-12-27, 21:29:57
man sollte/darf aber nicht propritäre Standards damit verteidigen und rechtfertigen, weil die offenen nicht genau so weit sind, wobei OpenCL 2.0 ja wie gesagt weiter ist als CUDA.
Genau das ist der Punkt. Denn durch nicht offene Schnittstellen/Standards hat man letztendlich NUR Nachteile und spielt nur einem bestimmten Hersteller in die Hände. Insbesondere wenn er nicht willens ist, den Offenen Standard zu unterstützen.

Und genau DAS ist hier ja definitiv der Fall! Dass nVidia kein OpenCL bei aktuellsten GPUs unterstützt, ist einfach kein Vorteil und/oder gut. Es ist einfach schlecht für uns alle.

Kriton
2013-12-27, 21:43:21
Das stimmt nicht. Es kommt auf die Umstände an. Wenn eine offene Lösung nicht aus den Puschen kommt, ist eine proprietäre Lösung durchaus zu begrüßen. Dieser Zustand muss ja nicht für immer gelten, das vergessen viele leider.

Man kann seinen proprietären Kram auch auch offen gestalten. Bei TressFX ist doch genau dies der Fall?

boxleitnerb
2013-12-27, 21:48:35
STefan, wo ist dann deine Kritik an Mantle? Ist ja laut AMD auch nicht offen.
Ich meine nach wie vor, dass man hier mitnichten pauschalisieren kann. DirectX hat es trotz Glide geschafft, doch Glide war die ersten 1-2 Jahre ne schöne Sache. Wo wären wir heute, wenn es dann DirectX nicht geschafft hätte ggü. OpenGL?
Bei OpenCL allgemein stimme ich euch tendenziell zu, bei PhysX z.B. aber überhaupt nicht. Es kommt mMn immer darauf an, wie das Umfeld ist.

Man kann seinen proprietären Kram auch auch offen gestalten. Bei TressFX ist doch genau dies der Fall?

Klar kann man. Aber der Vergleich hinkt etwas, denn PhysX ist viel älter als TressFX. Dass in einem geänderten Umfeld hier ein anderer Ansatz gemacht wird, verwundert nicht. Ich sage ja immer, dass PhysX für mich eine temporäre gute Lösung ist, Betonung auf temporär. Denn bis jetzt gab/gibt es nichts Vergleichbares, und das liegt meines Erachtens nach nicht an PhysX sondern an den Konsolen. Ich sage auch immer "etwas ist besser als nichts" und da stehe ich voll dahinter. Diese Situation muss nicht auf Ewigkeit so sein. 2014 und spätestens 2015 werden hier denke ich Veränderungen bringen, hauptsächlich wegen PS4 und XB1.

Kriton
2013-12-27, 21:52:53
Wenn ich lese wie Nvidia mit GameWorks AMD das Wasser abgräbt frage ich mich ob AMD eine Wahl hat hinsichtlich Mantle. Es geht dabei ja nicht nur darum ob beispielsweise Arkham bei Nvidia mit 150 statt 120 FPS läuft, sondern auch ob das Game in Benchmark Parcours genutzt wird oder nicht und damit eine stärkere Wirkung eintritt. Vielleicht tauscht man das ja gegen PhysX (Ähnlich wie SSE gegen X64)?

|MatMan|
2013-12-27, 21:59:30
Dass nVidia kein OpenCL bei aktuellsten GPUs unterstützt, ist einfach kein Vorteil und/oder gut. Es ist einfach schlecht für uns alle.
Welche aktuellen GPUs unterstützen denn kein OpenCL mehr? Bei Anandtech (http://www.anandtech.com/show/7492/the-geforce-gtx-780-ti-review/14) sehe ich OpenCL Benchmarks einer GTX 780 Ti?!

Ansonsten muss man meiner Meinung nach zu einer API auch sehen, was alles es noch drumherum gibt. Bei CUDA gibt es z.B. CUBLAS, CUFFT, CUSparse und ne Bibliothek für nen Zufallsgenerator mit dazu - natürlich extrem optimiert. Das erleichtert das Software entwickeln erheblich, neben dem ausgereiften Debugger. Die API ist einfach nicht alles, sondern der Support drumherum.

Von AMD hätte ich mir bei OpenCL einfach mehr Einsatz erwartet. So läuft man CUDA immernoch hinterher. Ich bin ja mal gespannt auf OpenCL 2.0.

Hübie
2013-12-27, 22:04:30
TressFX ist etwas anderes. Das ist mehr eine Idee die sich bekannter Techniken bedient.
Und wenn nVidia soviel Resourcen in OpenCL stecken würden, dann würden die es nicht auf der anderen Seite in dem Maße vergütet bekommen wie es aktuell der Fall ist. Zu verschenken hat keiner was und soviel investiert AMD auch nicht. Die haben einfach keine Kapazitäten für eine eigene Schnittstelle.
Wenn OpenCL 2.0 verfügbar ist sind die Vorteile wohl wieder dahingeschmolzen bzw. eher für Nischen interessant.

Mantle kommt mir noch wie eine Randerscheinung vor, die in ein paar Jahren vielleicht als ein nettes "feature" in einigen games erachtet wird. Auch aus Performance-Sicht erwarte ich da jetzt keine Wunder.
Vielleicht täusche ich mich aber auch...

fondness
2013-12-27, 22:48:27
Klar kann man. Aber der Vergleich hinkt etwas, denn PhysX ist viel älter als TressFX. Dass in einem geänderten Umfeld hier ein anderer Ansatz gemacht wird, verwundert nicht. Ich sage ja immer, dass PhysX für mich eine temporäre gute Lösung ist, Betonung auf temporär. Denn bis jetzt gab/gibt es nichts Vergleichbares, und das liegt meines Erachtens nach nicht an PhysX sondern an den Konsolen. Ich sage auch immer "etwas ist besser als nichts" und da stehe ich voll dahinter. Diese Situation muss nicht auf Ewigkeit so sein. 2014 und spätestens 2015 werden hier denke ich Veränderungen bringen, hauptsächlich wegen PS4 und XB1.

Es wäre für NV ein leichtes PhysX wie TessFX auf die DirectCompute-Schnittstelle zu portieren um es dadurch wie TessFX von allen D3D11-fähigen GPus ausführen zu können. Was das mit den Alter zu tun hat erschließt sich mir nicht. NV will das schlicht und einfach nicht.

TressFX ist etwas anderes. Das ist mehr eine Idee die sich bekannter Techniken bedient.

Das musst du jetzt aber genauer erklären. :)

Blediator16
2013-12-27, 22:49:09
Es wäre für NV ein leichtes PhysX wie TessFX auf die DirectCompute-Schnittstelle zu portieren und es damit wie TessFX von allen D3D11-fähigen GPus ausführen zu können. Was das mit den Alter zu tun hat erschießtlich sich mir nicht. NV will das schlicht und einfach nicht.

Wieso auch. Theoretisch würde es ihnen ja nichts bringen.

Hübie
2013-12-28, 01:23:40
Das musst du jetzt aber genauer erklären. :)

Na ja. OIT, PPLL für das Sortieren der (sichtbaren) Haare und direct compute shader für die Kollisionsabfrage sowie die Trägheit. Ich weiß auch gerade gar nicht ob das wirklich AMDs Werke sind.

PhysX ist der Oberbegriff von allen Physikeffekten die nVidia entwickelt bzw. gekauft hat. Da wird sich aber eh bald einiges ändern wenn ich richtig informiert bin. :naughty:

aufkrawall
2013-12-28, 01:37:49
Es wäre für NV ein leichtes PhysX wie TessFX auf die DirectCompute-Schnittstelle zu portieren um es dadurch wie TessFX von allen D3D11-fähigen GPus ausführen zu können.
"ein Leichtes"?
Dafür müsste also kein Personal wochen- und monatelang eingespannt werden?
Hast du Einblick in den kompletten Code, oder wie...

Schaffe89
2013-12-28, 01:40:48
Es gab mal einen Blog wo jemand ausführte, dass der Cuda Code recht problemlos auf die Direct Compute Schnitstelle zu portieren sei und er das getestet habe.

Ich sehe das ähnlich wie fondness, Nvidia sträubt sich einfach nur.

aufkrawall
2013-12-28, 01:45:52
Es würd jedenfalls Geld kosten.

Hoffen wir mal, dass Mantle wie eine Bombe einschlägt und NV zu irgendwelchen Deals mit AMD gezwungen sein wird.

StefanV
2013-12-28, 01:55:22
Nein, es würde auch auf AMD laufen und DAS wäre das Hauptproblem...

-/\-CruNcher-/\-
2013-12-28, 02:42:08
Nvidia gibt sich selten die blöse zu sagen wir haben versagt eher würden sie wie angesprochen wieder Glide auspacken als einen Deal mit AMD und mit Maxwell kommmt erstmal CUDA 6 mit UMA und als release prestige title The Witcher 3 womit sie Tressfx in den schatten stellen möchten, dafür brauchen sie aber ein besseres OIT das sollte man mit Maxwell erwarten die Compute Performance (Mainstream) wird auch steigen das steht so fest wie das Armen in der Kirche ;)
Und vieles was momentan bei AMD in der Game Sparte abläuft ist gesteuert von denen die damals das ecosystem bei Nvidia in den G92 zeiten mit aufgebaut haben :D

aufkrawall
2013-12-28, 02:56:03
Was passiert denn da?
Im Endeffekt ist es nicht wirklich mehr als Gratis-Spiele für Neukäufer, was AMD auch ne Stange Geld kostet.

TressFX & Mantle hätten Potenzial, aber das muss erstmal genutzt werden, bevor man AMD dafür loben kann.

-/\-CruNcher-/\-
2013-12-28, 03:52:32
Von der Hardware her hat AMD schon ein feature mehr mit dem Nvidia nicht aufbieten kann und das ist TrueAudio was auch nochmal entlastet :)

TressFX + Mantle + TrueAudio + UVD (sorry den neuen namen kann ich mir nicht merken) ist schon eine gute Value chain für den konsumenten vor allem beim Preis der Hardware :)

CUDA 6 Physics (Hair/Fur/Fire/Water) + G-sync + VPx sieht aber auch nicht schlecht aus wenn man auf Audio verzichten kann (nur Shadowplay überzeugt mich einfach 0, das ist research stand vom CUDA Encoder und sieht zum größtenteil nach Anton Obukhovs FRExt arbeit aus) TXAA sehe ich auch nicht als feature das wird sehr schnell in verschiedenen implementationen standard werden mit Mantle umso mehr.

Denke mal AMDs Engineers arbeiten schon an ihrem Shadowplay pendant, vieleicht wie bei ihrem "Geforce" Experience eher 3rd party solution ;)

Aber wie gesagt ich warte persönlich lieber Maxwell ab und werde dann nochmal genau evaluieren, wo die reise hingeht und ob das Schiff weiter unter Grüner Flagge segelt ;)

AMDs lineup konnte mich 0 überzeugen die refurbs im Mainstream ohne TrueAudio machen 0 sinn

aufkrawall
2013-12-28, 03:59:51
TressFX geht auch auf NV und vom Rest hat der Konsument noch gar nichts.
Da sind neben der Grafikkarte momentan erstmal nur jede menge Luftschlösser und vielleicht noch BF4 mit im Karton...

Hat sich schon irgendein Entwickler für TrueAudio ausgesprochen?
Schätze, da muss AMD jedes Mal mit dem Geldkoffer vorbeikommen. Dumm, dass dieser ganze Audio-Kram völlig mit dämlichen Patenten erdrückt wird. So ist es imho, weil proprietär, zum Scheitern verurteilt.
Ich glaube, besserer Sound brennt den Entwicklern auch weit weniger unter den Nägeln als eine hardwarenähere Grafik-API.
Zumal man sicher auch in software deutlich besseren Sound hinkriegen könnte. Kostet aber halt Geld und gibt Wichtigeres...

StefanV
2013-12-28, 04:51:09
TressFX geht auch auf NV und vom Rest hat der Konsument noch gar nichts.
Siehst du, das ist das Tolle bei AMD. Vieles was sie machen geht auch auf nV, wohingegen es bei nV genau andersrum ausschaut. Die versuchen alles, was sie machen, nicht auf AMD Hardware laufen zu lassen.

Und Trueaudio schaut durchaus nicht schlecht aus...

Hat sich schon irgendein Entwickler für TrueAudio ausgesprochen?
Chris Roberts zum Beispiel. Werden wir langfristig wohl öfter sehen, da AMD hier wohl einen Standard 08/15 DSP für integriert hat.

Wäre interessant, wenn jemand den gleichen DSP auf 'nen Sondchip auftragen würde...

-/\-CruNcher-/\-
2013-12-28, 05:04:47
StefanV

Es geht und es funktioniert ist ne tolle sache aber es bringt nichts wenn es nicht low level die selbe Performance erreicht dann ist das es geht und funktioniert auch für die Katz als wie wenn die Cuda version auf Mainstream Nvidia Hardware hier mal spielbare Frames zaubert :)

Es ist gut für die die wenig Aufwand wollen sdk klimper klimper läuft auf Nvidia und AMD hmm moment mal läuft ja unspielbar auf Nvidia und AMD fliegt davon naja egal feature ins changelog und gut ist (kost ja nix) ;)

fondness
2013-12-28, 09:47:03
Na ja. OIT, PPLL für das Sortieren der (sichtbaren) Haare und direct compute shader für die Kollisionsabfrage sowie die Trägheit. Ich weiß auch gerade gar nicht ob das wirklich AMDs Werke sind.

PhysX ist der Oberbegriff von allen Physikeffekten die nVidia entwickelt bzw. gekauft hat. Da wird sich aber eh bald einiges ändern wenn ich richtig informiert bin. :naughty:

Natürlich sind das AMDs-Werke, du kannst auch den Code direkt von AMD beziehen. Und auch TressFX sind nichts anderes als Physikeffekte. Oder was glaubst du ist an den Haareffekten in PhysX so revolutionär anders, außer das sie über CUDA laufen?

Hübie
2013-12-28, 09:52:48
Also ich meine dass es ein japanisches Entwicklerteam war dass von AMD know-how bezogen hatte. Aber gut ich müsste jetzt googlen und da hab ich keine Lust zu. Lassen wir das so stehen. Jedenfalls ist es nicht gerade korrekt TressFX und PhysX zu vergleichen. Ich bezog mich da übrigens auf Beitrag #1640 von Kriton.

fondness
2013-12-28, 09:54:46
Also ich meine dass es ein japanisches Entwicklerteam war dass von AMD know-how bezogen hatte. Aber gut ich müsste jetzt googlen und da hab ich keine Lust zu. Lassen wir das so stehen.

Ich habe noch nirgends gehört das AMD das wo eingekauft haben soll, spielt auch keine Rolle.
NV hat das Zeug auch nur eingekauft. Es gehört jedenfalls zu AMD.



Jedenfalls ist es nicht gerade korrekt TressFX und PhysX zu vergleichen.

Eine Begründung dafür hast du noch immer nicht geliefert.
Aber egal, PhysX ist aktuell umfangreicher, da es auch Rauch und andere Partikeleffekte ermöglicht.
Ansonsten sehe ich nicht warum man das nicht vergleichen sollte, PhysX läuft halt über CUDA.

Ich bezog mich da übrigens auf Beitrag #1640 von Kriton.

Was ist an seinem Beitrag falsch? Natürlich kann man PhysX wie TressFX offen gestalten.

Hübie
2013-12-28, 10:02:06
Doch. Die Begrünung ist dass PhysX gleich ein komplettes Paket ist, während TressFX ein paar Zeilen code sind.
Der Aufwand und die Kosten sind ungleich. Und nVidia hat schon so viel Kohle reingeballert, dass die PhysX gar nicht öffnen können. Ich denke auch nicht dass es durch ein offenes PhysX mehr Käufer für nVidia gäbe. Also furzen die mal gepfelgt drauf... Es wird aber definitiv etwas für direct compute kommen (Hab den codenamen vergessen). PhysX wird dann wahrscheinlich eingestellt. Aber warten wir ab ;)

Chip
2013-12-28, 10:09:04
Ein paar Fragen:
Wird man für mantle den PC neustarten müssen? Der Sound soll ja via DirectX weiterhin ausgegebern werden. Wie koppelt man da die herkömmliche Grafikschnittstelle ab?
Funktioniert dann noch die Hardwarebeschleunigung im Browser, der DVD Dekodierer (UVD o. via Software) im Player? Zugriff auf die VCE vorhanden (transcodieren)? Wird OpenCL via Adobes Creative Suite nutzbar sein? Kann man die SaveGames der D3D Version nutzen?

Dawn on Titan
2013-12-28, 10:11:30
Mantle läuft parallel zu D3D.

TobiWahnKenobi
2013-12-28, 10:14:38
Ein paar Fragen:
Wird man für mantle den PC neustarten müssen? Der Sound soll ja via DirectX weiterhin ausgegebern werden. Wie koppelt man da die herkömmliche Grafikschnittstelle ab?
Funktioniert dann noch die Hardwarebeschleunigung im Browser, der DVD Dekodierer (UVD o. via Software) im Player? Zugriff auf die VCE vorhanden (transcodieren)? Wird OpenCL via Adobes Creative Suite nutzbar sein? Kann man die SaveGames der D3D Version nutzen?

musst du neustarten, wenn du quake unter openGL spielst und/oder davor/danach ein video guckst/ein bild bearbeitest?


(..)

mfg
tobi

Pirx
2013-12-28, 11:59:01
Doch. Die Begrünung ist dass PhysX gleich ein komplettes Paket ist, während TressFX ein paar Zeilen code sind.
Der Aufwand und die Kosten sind ungleich. Und nVidia hat schon so viel Kohle reingeballert, dass die PhysX gar nicht öffnen können. Ich denke auch nicht dass es durch ein offenes PhysX mehr Käufer für nVidia gäbe. Also furzen die mal gepfelgt drauf... Es wird aber definitiv etwas für direct compute kommen (Hab den codenamen vergessen). PhysX wird dann wahrscheinlich eingestellt. Aber warten wir ab ;)
nV kann PhysX nicht öffnen,weil sie schon zu viel Geld "reingesteckt" haben, aber sie können es einstellen?? Mit ihrer Abschottungspolitik werden sie gerade in ihrer Situation nur erreichen, daß sie am Ende allein dastehen.

Skysnake
2013-12-28, 12:27:05
Wo ist den OpenCL 2.0? Ich derzeit keine Produkte die OpenCL2.0 unterstützen.
Ja leider. Ich warte gespannt auf die ersten Updates von AMD. GCN sollte nämlich problemlos OpenCL2.0 erfüllen. Für mich ist das eher sogar ein GCN-OpenCL. Da werden ENDLICH! mal die ganzen, oder zumindest ein großer Teil der Features genutzt von GCN.


Außerdem sind die OpenCL 2.0 Specifications noch nicht fertig. Guck dir mal das Dokument an, da fehlt noch einiges.

Ähm doch, die Spezifikation ist durch. Der Standard ist beschlossen und veröffentlich. Jetzt muss halt noch Doku und vor allem Implementierung nachgeliefert werden. http://www.heise.de/newsticker/meldung/Khronos-Group-stellt-OpenCL-2-0-vor-2049480.html
Kleinere Anpassungen kann es immer mal noch geben. Das wird dann aber in nen 2.1 oder sonstwas einfließen.


Klar, ich weiß was du meinst. Ich erwarte mir von OpenCL 2.0 auch einiges. ;)
Aber CUDA 6.0 steht auch vor der Tür.

Ja, nur kommt mit CUDA 6 "nur" unified Memory, wobei das im Prinzip "nur" ne Abstraktion von der Hardware ist. Das wird auch auf Kepler Karten kommen, nur halt in Software. Maxwell soll da secret sauce Hardware bekommen um das zu Unterstützen. Ich frage mich allerdings, was das sein sollte. Eigentlich sollte da schon alles drin sein. MMU usw usw. Eventuell müssen Sie aber die Adresspfade aufblähen oder what ever. Das werden aber Details sein in der Implementierung und nichts revolutionär Neues.

Am Ende macht es auch "nur" das Leben für die Entwickler leichter. Mehrperformance würde ich nicht wirklich erwarten. Zumindest nicht im Vergleich zu gut optimiertem Code ohne UMA, wobei es natürlich immer Cornercases gibt, bei denen es sich sehr lohnen wird. In den "0815" Anwendungen würde ich aber eher sogar einen leichten Performance panalty erwarten, wenn man UMA wirklich verwendet.


AMD unterstützt mit GCN ja wohl auch globale Synchronisation, nur findet man das bis jetzt nicht in Software.

Weil es nicht per API verfügbar ist :(


Ich glaube auch, dass AMD OpenCL 2.0 mit einem Treiberupdate in ihre bestehendes Portfolio integrieren wird.

Ja, das werden Sie definitiv. Wenn nicht, dann weil Sie es nicht wollen, aber definitiv nicht, weil es nicht geht. GCN deckt sich einfach super mit OpenCL 2.0


Was in CUDA ist, bleibt in CUDA. Aber ein zusätzlicher OpenCL-Support würde auf langer Sicht NVidia einige Käufe abgraben. Außerdem würde es theoretisch überall laufen.
Nicht unbedingt. Man könnte auch ganz neue Käuferschichten erreichen. Es geht ja auch darum, wer sich überhaupt den Aufstand mit CUDA/OpenCL macht. So muss er für AMD OpenCL verwenden und für nVidia CUDA. Den Aufwand und Stress gibt sich halt nicht jeder. Es ist einfach abschreckend, wenn sich die HArdwarehersteller nicht einig werden, und da seh ich eben nVidia als Bremse...

Was nVidia halt machen müsste, wäre mit GLEICHEN! Karten zu spielen, also auf dem Spielfeld sich zu beweisen. Davor schreckt nVidia zurück. Die wollen wo es nur geht, schon vor dem Spiel sicherer Sieger sein...

Ich kann das überhaupt nicht verstehen. Gerade was Software angeht, kann nVidia einiges reisen. Da haben sie echt viel knowhow. Eigentlich müssten Sie vor einem fairen Wettstreit keine Angst haben.

Man kann seinen proprietären Kram auch auch offen gestalten. Bei TressFX ist doch genau dies der Fall?
TressFX ist alles nur NICHT! propritär. Les dir lieber nochmal die Definition von propritär durch. :freak:http://de.wikipedia.org/wiki/Propriet%C3%A4r

TressFX ist openSource, man kann es selbst verwenden/abändern, es setzt auf offene Standards usw.

Also alles was NICHT! für proprietär ist...

Welche aktuellen GPUs unterstützen denn kein OpenCL mehr? Bei Anandtech (http://www.anandtech.com/show/7492/the-geforce-gtx-780-ti-review/14) sehe ich OpenCL Benchmarks einer GTX 780 Ti?!

Nur weil OpenCL darauf läuft heist das noch lange nicht, dass die GPUs auch offiziell OpenCL unterstützen. Ist wie mit reifen die "nur" bis 180 spezifiziert sind. Die werden sich nicht direkt bei 180,00001 km/h in Luft auflösen, aber für alles über 180 übernimmt halt keiner eine Garantie, und so ist es auch mit den ganzen Kepler GPUs. Die sind nicht für OpenCL zertifiziert. Wenn also was drauf läuft, dann kannste dich freuen, wenn nicht, haste halt Pech gehabt....

Wenn nVidia will, können Sie auch von heute auf morgen komplett jewede OpenCL funktionalität raus patchen und du könntest rein gar nichts machen! Das tun Sie nur nicht, weil es aufwand wäre, und dem Laien die Realität überdeutlich vor Augen führen würde. Aktuell ist es aber so, dass du schlicht Pech hast, wenn es bugs gibt oder sonst was.


Ansonsten muss man meiner Meinung nach zu einer API auch sehen, was alles es noch drumherum gibt. Bei CUDA gibt es z.B. CUBLAS, CUFFT, CUSparse und ne Bibliothek für nen Zufallsgenerator mit dazu - natürlich extrem optimiert. Das erleichtert das Software entwickeln erheblich, neben dem ausgereiften Debugger. Die API ist einfach nicht alles, sondern der Support drumherum.

Gibt es auch alles für OpenCL! Das AMD VS Plugin ist z.B. richtig richtig Göttliches. Was vergleichbares kenne ich für CUDA nicht.

Ansonsten gibt es noch CodeXL. Das ist auch ne feine Sache. Das wurde ursprünglich sogar von AMD zusammen mit nVidia entwickelt. nVidia ist da meines Wissens nach aber irgendwann einfach ausgestiegen. Wahrscheinlich im Zuge dessen, dass Sie OpenCL komplett fallen haben lassen.


Von AMD hätte ich mir bei OpenCL einfach mehr Einsatz erwartet. So läuft man CUDA immernoch hinterher. Ich bin ja mal gespannt auf OpenCL 2.0.
Was soll AMD denn machen?

Sie sind da nur ein kleines Rädchen von vielen bei OpenCL. Das ist ja auch das gute daran. Es gibt keinen, der die MAcht an sich reisen kann. Auf der anderen Seite kann es auch immer Bremser geben, und ich befürchte teilweise auch, das nVidia ein Bremser bei OpenCL 2.0 war.

Wieso auch. Theoretisch würde es ihnen ja nichts bringen.
Genau das ist halt ne behämmerte kurzsichtige Betrachtungsweise.

Wenn man voll auf OpenCL gehen würde, könnte man die Nutzerbasis im Vergleich zu OpenCL+CUDA nochmals deutlich vergrößern. HSA wäre da dann auch gleich der logische nächste Schritt.

Es würde die Perspektiven für nVidia deutlich verbessern, mit nur einer kleinen Einschränkung. Sie müssten sich einem ehrlichen Wettstreit stellen!

Und genau davor schreckt nVidia zurück, obwohl man auf lange Sicht damit besser fährt. Vor allem hätte nVidia im Bereich Software eine sehr sehr sehr gute Ausgangsbasis. Wenn nVidia eins kann, dann Software und Bibs entwickeln, und GENAU! danach lechts der gesamte Markt. Wenn Sie AMD nicht ketegorisch ausschließen würden, würde man wohl verdammt viel nVidia Software auf AMD-Systemen laufen sehen. nVidia kann sowas einfach, und warum es dann nicht nutzen???

Die Leute wären ja auch bereit für gute Software Geld zu bezahlen. Sprich für den ganzen GPU-PhysX krempelt, für den Sie heute viel GEld ausgeben müssen, damit es überhaupt implementiert wird, um damit Hardware zu verkaufen, würde dann eben schon an sich für Geld verkauft werden, und man kann sich relativ sicher sein, dass sehr viele zu GPU-PhysX greifen würden, wenn es offen wäre, einfach weil Sie eh schon PhysX für die CPU verwenden, und eben nVidia gute Softwarepackete entwickelt.

Nvidia gibt sich selten die blöse zu sagen wir haben versagt eher würden sie wie angesprochen wieder Glide auspacken als einen Deal mit AMD und mit Maxwell kommmt erstmal CUDA 6 mit UMA und als release prestige title The Witcher 3 womit sie Tressfx in den schatten stellen möchten, dafür brauchen sie aber ein besseres OIT das sollte man mit Maxwell erwarten die Compute Performance (Mainstream) wird auch steigen das steht so fest wie das Armen in der Kirche ;)
Und vieles was momentan bei AMD in der Game Sparte abläuft ist gesteuert von denen die damals das ecosystem bei Nvidia in den G92 zeiten mit aufgebaut haben :D
Ja, das befürchte ich auch, dass die eher Glide wieder auspacken...

bzgl UMA muss ich dich aber enttäuschen. Die ganzen APIs kennen dieses Konzept gar nicht! Wenn kann nVidia also nur was innerhalb ihrer Treiber anpassen. Das kannste aber im Prinzip auch gleich wieder in die Tonne treten. Man nutzt im Programmiermodell ja diese Fähigkeit nicht expliziet aus. Damit sind die zu erwartenden Performanceverbesserungen nur marginal.

TobiWahnKenobi
2013-12-28, 12:37:13
nV kann PhysX nicht öffnen,weil sie schon zu viel Geld "reingesteckt" haben, aber sie können es einstellen?? Mit ihrer Abschottungspolitik werden sie gerade in ihrer Situation nur erreichen, daß sie am Ende allein dastehen.

wann kommt denn dieses seit äonen prognostiziertes ENDE? bisher war es doch eher so, dass man es dort, wo es angeboten wird, auch einfach nutzen kann. und das geht 2013.. das ging 2012.. 2011.. 2010.. usw.. schätze, da nächste woche 2014 anfängt, dass es noch so weitergeht.


(..)

mfg
tobi

Timbaloo
2013-12-28, 13:16:33
Wo war nochmal der Mantle-Thread?

Ailuros
2013-12-28, 17:04:34
Ja, gut. Was willst auch groß technisch spekulieren? Die die was wissen wollen bzw dürfen nix sagen und die, die was sagen wissen nix. Ich selber habe nur wenig Ahnung wie so was dann im low-level-Format auch noch aussehen soll, weil ich einfach kein Programmierer bin und auch nie sein will.
Ich bin aber immer gerne bereit mir technische Ausführungen durchzulesen, aber wie gesagt schreibt hier keiner mehr was. Also flamen, trollen oder sabbeln wir halt.

Ehrlicher geht es wirklich nicht LOL :eek: Wie dem auch sei: sehr vieles hier ist dem Sub-forum hier alles andere als wuerdig. Von mir aus macht weiter, aber bedenkt auch dass selbst wenn jemand etwas zu sagen haette ihm blitzschnell die Lust vergeht wenn man es mit solchem Dreck mitmischen muss.

Nein, ist es nicht. Es ist einfach bullshit, PUNKT.

Das ganze geht dann nur Richtung Sandkasten: 'Ätschibätsch, hab was, das du nicht hast *bäh* :O'
Und auf dieser Grundlage wird dann diskutiert.

Wobei Du fuer's letzte eigentlich das Parade-Beispiel bist.


Letzendlich wird es wohl auf drei Proprietäre Low Level Schnittstellen hinauslaufen: EIne für AMD; eine für Intel, eine für nVidia. Ist zwar scheiße, wenn sie sich aber halbwegs an Mantle orientieren, sollte das auch halbwegs OK sein.
Die großen Engines werden dann eh alle drei Pfade (+D3D als Fallback) nutzen, die kleineren Buden werden weiter bei D3D bleiben...

Man muss verdammt naiv sein wenn man glaubt dass Microsoft so etwas erlauben wird.

Wo war nochmal der Mantle-Thread?

Fuer was denn? So lange sich die Gruenen mit den Roten gegenseitig die Haare ausreissen koennen braucht man doch kein Thema :freak: :rolleyes:

RLZ
2013-12-28, 18:39:00
Man muss verdammt naiv sein wenn man glaubt dass Microsoft so etwas erlauben wird.
Verbieten können sie es ja kaum.
Sie können eine gleichwertige/bessere Alternative anbieten und die durchdrücken.
Dafür müssen sie allerdings mal wieder Ressourcen investieren und den Themenbereich nicht mehr mit einem Teelicht beheizen.
Aber auch dann wäre Mantle ein voller Erfolg.

StefanV
2013-12-28, 20:26:19
Man muss verdammt naiv sein wenn man glaubt dass Microsoft so etwas erlauben wird.
Wie sagt man so schön: den letzten beißen die Fliegen.
Ist halt auch die Frage, wie sehr 'die anderen' noch Bock auf Microsoft haben (wollen)...

Bzw ob M$ mit dieser API, so denn sie eventuell mal kommen könnte, nicht eventuell zu spät sein könnte...
Ist ja nicht so, dass am Horizont gerade keine Gefahr für den 'Windows Game PC' zu sehen ist.

Kriton
2013-12-28, 21:48:26
TressFX ist alles nur NICHT! propritär. Les dir lieber nochmal die Definition von propritär durch. :freak:http://de.wikipedia.org/wiki/Propriet%C3%A4r


Lies lieber noch einmal meinen Post :wink:

Das proprietär war auf Nvidia gemünzt, TressFX als Beispiel für etwas Offenes, das Fragezeichen nur weil ich nicht genau weiß wie offen TressFX ist (open source?).

Verbieten können sie es ja kaum.
Sie können eine gleichwertige/bessere Alternative anbieten und die durchdrücken.
Dafür müssen sie allerdings mal wieder Ressourcen investieren und den Themenbereich nicht mehr mit einem Teelicht beheizen.
Aber auch dann wäre Mantle ein voller Erfolg.

An den Ressourcen wird es kaum mangeln wenn MS sich dafür entscheidet. Man siehe sich an wieviel sie in die Xbox oder Bing investiert haben.

Ailuros
2013-12-29, 10:26:21
Verbieten können sie es ja kaum.
Sie können eine gleichwertige/bessere Alternative anbieten und die durchdrücken.
Dafür müssen sie allerdings mal wieder Ressourcen investieren und den Themenbereich nicht mehr mit einem Teelicht beheizen.
Aber auch dann wäre Mantle ein voller Erfolg.

Die Bluetezeit des "Wintel" Kartells ist so langsam vorbei; entweder Microsoft reagiert oder graebt sich einfach ihr eigenes Irrelevanz-Grab Stueck fuer Stueck ueber die Jahre.

Wie sagt man so schön: den letzten beißen die Fliegen.
Ist halt auch die Frage, wie sehr 'die anderen' noch Bock auf Microsoft haben (wollen)...

Wer sind im gegebenen Fall die "anderen" dann genau? Denn Intel, AMD und NVIDIA haben bis jetzt noch keinen anstaendiges Bein im ULP Markt fassen koennen. Intel ist im "ach es gibt die auch noch" Bereich, NVIDIA ein noch tragischer minority report und AMD noch unterirdischer.

Bzw ob M$ mit dieser API, so denn sie eventuell mal kommen könnte, nicht eventuell zu spät sein könnte...
Ist ja nicht so, dass am Horizont gerade keine Gefahr für den 'Windows Game PC' zu sehen ist.

Fuer welches aber im letzten Satz Microsoft, Intel, AMD, NVIDIA und viele andere eben NICHT rechtzeitig reagiert haben, ergo schwankt es zurueck zum ersten Paragraph oben ;)

Botcruscher
2013-12-29, 11:25:07
An den Ressourcen wird es kaum mangeln wenn MS sich dafür entscheidet. Man siehe sich an wieviel sie in die Xbox oder Bing investiert haben.
... oder in Metro... oder WP8. Das ist alles durchweg gescheitert. MS lebt von der Windows Dividende auf dem Desktop. Das Erfolgsmodell von MS war aufkaufen oder mit viel Geld kleinere Konkurrenten platt machen. Jetzt stehen da plötzlich Google und Co. Positive Innovation erwarte ich da auch mit neuem CEO null. Da werden die BWLer schön Mobil und Klaut schreien. Desktop ist doch so alt. Wachstum ist woanders. Das MS auf den "neuen" Märkten kein Geld verdient juckt nicht.
AMD fehlen die Ressourcen. NV ist schon wegen der Dominanz im Profimarkt an allem was open ist nicht interessiert. Damit würde man sich nur seine Softwaredominanz untergraben.

Nightspider
2013-12-29, 14:43:47
Coda wird CryTek in seinen nächsten Spielen eine Mantle Unterstützung einbauen?

Geldmann3
2013-12-29, 14:50:35
wird CryTek in seinen nächsten Spielen eine Mantle Unterstützung einbauen?
Ich glaube dir die Antwort geben zu können: Es ist derzeit nicht geplant.

Man muss eben gucken, wie sich das entwickelt. Wenn es sehr gut läuft, lassen sich sicher auch mehr Entwickler überzeugen. Crytek sollte erstmal an ordentlicher GPU Physik arbeiten. :wink:

Nightspider
2013-12-29, 16:47:38
Ich glaube dir die Antwort geben zu können: Es ist derzeit nicht geplant.

Man muss eben gucken, wie sich das entwickelt. Wenn es sehr gut läuft, lassen sich sicher auch mehr Entwickler überzeugen. Crytek sollte erstmal an ordentlicher GPU Physik arbeiten. :wink:

Wäre ja schade wenn CryTek technisch hinterher hängen würde.

Bei der Gameplay Physik hängen sie ja schon etwas DICE hinterher.

2014/15 hätte ich gern einen Shooter von CryTek mit deutlich besserer Physik als in BF4. Sowas sollte ja dank der neuen Konsolen möglich sein.

Hübie
2013-12-29, 18:43:39
Du hast mal gefragt wie das mit Drawcalls und so funktioniert: Bei AMD gibt es PM4-Pakete die der Treiber in nen Buffer schreibt. Die sind gar nicht so weit von der API entfernt, sowas wie DRAW_INDEX etc. Ist alles dokumentiert. Die Hardware liest das Zeug dann und erzeugt selber die nötigen Wavefronts und organisiert den Datenfluss. Auch Zustandsänderungen gehen in die Paket-Queue.

Das liest sich interessant. Kannst du mal bitte ein entsprechendes Dokument verlinken? Ist das jetzt sowohl bei OGL als auch D3D gleich?
Ich check das irgendwie nicht mit Batches und Indizes. Wie groß kann man dass denn aufblähen?
Wenn man was von mantle liest wird immer auf den drawcalls rumgeritten obwohl ich mir nicht mal sicher bin dass diese wirklich so viel mehr bringen.
Die aktuelle Konsolengeneration schafft ja einen höheren Durchsatz an drawcalls aber generiert meiner Meinung nach auch keine Wunder auf dem Bildschirm. Kann vielleicht auch dem content geschuldet sein.

Übrigens finde ich das gar nicht mal so off topic, da auch in Spielen immer mehr compute-shader eingesetzt werden und man so parallelen ziehen könnte.

Übrigens fände ich es informativ wenn man Abkürzungen wie PM4, ICC, GCC mal eben ausschreibt damit man selber mal googlen kann was das ist ;D Sonst kapiert der Mob nicht worums geht (so wie ich:redface:).

@skysnake: An welcher Uni bist du doch gleich? Ich vermute mal dass du und Coda einfach zu unterschiedliche Aufgabengebiete abdeckt als dass sich eure Vorstellungen decken würden. Etwa so als ob ein Ralley-Fahrer und Formel-1-Pilot über Fahrzeugentwicklung reden.

Gruß Hübie

StefanV
2013-12-29, 18:54:33
gcc ist der Standard Linux/Unix Compiler.
ICC ist der Intel Compiler

fondness
2013-12-29, 19:02:42
PM4 command packets:
http://www.x.org/docs/AMD/si_programming_guide_v2.pdf

Hübie
2013-12-29, 19:08:42
Die Firma dankt :smile:

-/\-CruNcher-/\-
2013-12-29, 19:23:19
Ich glaube dir die Antwort geben zu können: Es ist derzeit nicht geplant.

Man muss eben gucken, wie sich das entwickelt. Wenn es sehr gut läuft, lassen sich sicher auch mehr Entwickler überzeugen. Crytek sollte erstmal an ordentlicher GPU Physik arbeiten. :wink:

Huh das hat aber wenig mit "together we will revolutionize PC gaming" zu tun ;)

samm
2013-12-29, 19:55:51
PM4 command packets:
http://www.x.org/docs/AMD/si_programming_guide_v2.pdfHarter Tobak für jemand, der sich grad mal in die Grundbegriffe einarbeitet, siehe früher im Thread :biggrin:

Meinerseits hoffe ich, es gibt mal Gelegenheit @work, sowas anzugehen.

Ailuros
2013-12-30, 09:48:41
Wenn's Euch nicht zu schwer fallen wuerde koennte wir VIELLEICHT zurueck zum Thema kommen? Im Gegenfall wie die Amis so nett sagen: get a room...

Coda
2013-12-30, 11:03:55
Dann split es raus. Die Diskussion lass ich mir nicht abwürgen.

Gipsel
2013-12-30, 15:23:45
Dann split es raus. Die Diskussion lass ich mir nicht abwürgen.
Done. Zu dem Thema geht es hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10056849#post10056849) weiter.

Locuza
2013-12-30, 20:36:30
“After much consideration, the decision was made to delay the Mantle patch for Battlefield 4. AMD continues to support DICE on the public introduction of Mantle, and we are tremendously excited about the coming release for Battlefield 4! We are now targeting a January release and will have more information to share in the New Year.”

http://semiaccurate.com/2013/12/30/happened-eas-battlefield-4-mantle-patch/

M4xw0lf
2013-12-30, 21:08:15
Überraschend wenig überraschend.

aufkrawall
2013-12-30, 21:37:55
Enttäuschend find ich da eher, dass der Termin für Januar auch wieder so mehr oder weniger "in Aussicht gestellt" ist.

Tenobal
2013-12-30, 22:01:54
Ja, etwas Konkretes ist das auch noch nicht.

ndrs
2013-12-30, 22:36:59
Nach dem Zitat steht bei SA noch folgendes:
Unofficial word from EA sources say that the bug fixes for BF4 is taking more time than expected, and that is a higher priority than the Mantle patch.
Ist vielleicht gut, wenn's hier nochmal steht, bevor das übliche geflame gegen AMD hier wieder losgeht und dabei der verbuggte Grundzustand von BF4 außer Acht gelassen wird.

aufkrawall
2013-12-30, 22:54:19
Sie haben bei der Hawaii-Vorstellung aber nicht gesagt, dass Mantle später kommt, wenn BF4 instabil ist. ;)

Na ja, was soll man da großartig flamen. Muss man schon naiv gewesen zu sein, um mit nem Release in diesem Jahr zu rechnen.
Anderssons Gequatsche, dass Mantle vielleicht noch im November kommen sollte, hat ihn jetzt auch nicht gerade glaubwürdiger gemacht.

Air Force One
2013-12-30, 22:56:51
die sollen einfach irgend eine Demo zeigen und gut ist.

Es wird ja schon irgend ein Material geben mit Mantle und BF4. bzw. machbar sein.

Arcanoxer
2013-12-31, 04:32:23
http://semiaccurate.com/2013/12/30/happened-eas-battlefield-4-mantle-patch/
Na wer hätte damit gerechnet?

*melde*

=Floi=
2013-12-31, 07:19:37
Enttäuschend find ich da eher, dass der Termin für Januar auch wieder so mehr oder weniger "in Aussicht gestellt" ist.

erst mal das spiel fixen und freie resourcen in die (qualität der) DLCs stecken.


edit
das mit der demo wäreschon nett gewesen.

Ailuros
2013-12-31, 08:30:08
Es handelt sich hier nicht um ein PR Missgeschick fuer AMD sondern fuer den ISV selber die offensichtlich auch einen Haufen Mist erzaehlt haben und wohl noch erzaehlen.

* Schoen dass sie es so frueh angekuendigt haben; um 23:59 am 31.12. waere wohl noch besser gewesen :rolleyes:

* Damit ich es richtig verstehe: man hatte keine resourcen die Uebermenge an bugs auszubuegeln hatte aber welche sich mit Mantle zu beschaeftigen. Tut mir leid ich bin kein Entwickler, aber ich persoenlich als Laie wuerde mir da andere Prioritaeten setzen. Noch besser ich wuerde auch meine Klappe halten bis ich mit N fertig bin.

=Floi=
2013-12-31, 09:07:51
der terminplan war eben schon aufgestellt. Das ist das einzig gute an der sache, dass EA wohl doch lernt spiele mit weniger bugs zu veröffentlichen.

Demirug
2013-12-31, 09:24:25
* Damit ich es richtig verstehe: man hatte keine resourcen die Uebermenge an bugs auszubuegeln hatte aber welche sich mit Mantle zu beschaeftigen. Tut mir leid ich bin kein Entwickler, aber ich persoenlich als Laie wuerde mir da andere Prioritaeten setzen. Noch besser ich wuerde auch meine Klappe halten bis ich mit N fertig bin.


Nicht jeder Entwickler ist universell einsetzbar. Und selbst die wenigen davon die man in einen Team hat brauchen länger wenn sie mit Fremden Code arbeiten müssen. Fehler darin zu suchen macht das Ganze noch aufwendiger.

Zudem ist das Frostbite Team eigentlich vom BattleField Team abgetrennt worden. Ich weiß nun aber nicht wie viele der aktuellen Probleme aus welchem der beiden Bereiche kommen.

Die ganzen PR Sachen macht in der Regel das Marketing. Die wussten wahrscheinlich mal wieder nichts von der Menge der Bugs als die ganzen Termine ausgemacht wurden.

Was mir allerdings bei der ganzen Sache von Anfang an merkwürdig vorkam ist das man bisher überhaupt nichts gezeigt hat. Wenn DICE angeblich schon seit Ewigkeiten mit AMD an diesem Projekt arbeitet hätten sie ja eigentlich etwas haben müssen. Persönlich glaube ich langsam das die Integration von Mantle wohl doch nicht ganz so einfach ist wie bisher ständig erzählt wurde, In dem Punkt kann ich mich aber auch täuschen da AMD ja keine Details veröffentlicht mit denen man das besser abschätzen kann. Man wird sehen wie sich die anderen Entwickler an ihre Pläne halten.

Air Force One
2013-12-31, 09:50:14
Naja.... kann ja sein das man auf ein oder einige Probleme gestoßen ist, die nicht vorhersehbar waren oder evtl. ja nur mit AMD lösbar sind/waren. (arbeiten aber ja direkt mit oder?)

Oder die Verantwortlichen sind mit dem Ergebnis noch nicht zufrieden und zeigen deshalb nichts.
Gehöre da selbst auch zu den Menschen.

Aber so ein Sneak Peak wäre schon nett gewesen....


Ich hoffe nur das es nicht so etwas wie Mantle 1.0, Mantle 1.1, Mantle 2.0 geben wird sondern einheitlich bleibt.
Oder zumindest für mind. 5 Jahre ein Standard bleibt.

4Fighting
2013-12-31, 10:03:04
Persönlich glaube ich langsam das die Integration von Mantle wohl doch nicht ganz so einfach ist wie bisher ständig erzählt wurde, In dem Punkt kann ich mich aber auch täuschen da AMD ja keine Details veröffentlicht mit denen man das besser abschätzen kann.

Ich bin kein Entwickler, aber ich nehme ann, dass wenn DICE die "Pionierarbeit" für FB3 geleistet hat, eine Adaption auf andere FB3 Titel wohl kaum mehr Zeit als ein paar Wochen in Anspruch nimmt, oder?



der terminplan war eben schon aufgestellt. Das ist das einzig gute an der sache, dass EA wohl doch lernt spiele mit weniger bugs zu veröffentlichen.

Das glaubst Du doch selber nicht:)...Man/EA wollte nur vor CoD am Markt sein. Ansonsten hätten die wohl besser das Spiel ein halbes Jahr später released.

Und keiner kann mir erzählen, das die Bugs auf einmal alle am 29.10.2013 erschienen sind...

Air Force One
2013-12-31, 10:07:03
Hab extra nochmal zur Sicherheit nachgeschaut ob Mantle nicht schon mal am 1. April angekündigt wurde. :redface:

Soll jetzt kein trolling sein, aber hätte ja sein können, hab es nicht verfolgt und hab mir auch eine 290er bestellt.

Demirug
2013-12-31, 10:46:46
Ich bin kein Entwickler, aber ich nehme ann, dass wenn DICE die "Pionierarbeit" für FB3 geleistet hat, eine Adaption auf andere FB3 Titel wohl kaum mehr Zeit als ein paar Wochen in Anspruch nimmt, oder?

Das ist schwer zu sagen und hängt auch davon ab wie viele Änderungen für das jeweilige Spiel jeweils an Frostbite gemacht wurden. Im besten Fall sind keine zusätzlichen Arbeiten nötig.

dargo
2013-12-31, 12:20:52
Tja... schade, dass es nicht mehr dieses Jahr geklappt hat. Naja... mehr als warten können wir eh nicht tun. :cool:

Ailuros
2013-12-31, 12:59:21
Nicht jeder Entwickler ist universell einsetzbar. Und selbst die wenigen davon die man in einen Team hat brauchen länger wenn sie mit Fremden Code arbeiten müssen. Fehler darin zu suchen macht das Ganze noch aufwendiger.

Zudem ist das Frostbite Team eigentlich vom BattleField Team abgetrennt worden. Ich weiß nun aber nicht wie viele der aktuellen Probleme aus welchem der beiden Bereiche kommen.

Die ganzen PR Sachen macht in der Regel das Marketing. Die wussten wahrscheinlich mal wieder nichts von der Menge der Bugs als die ganzen Termine ausgemacht wurden.

Was mir allerdings bei der ganzen Sache von Anfang an merkwürdig vorkam ist das man bisher überhaupt nichts gezeigt hat. Wenn DICE angeblich schon seit Ewigkeiten mit AMD an diesem Projekt arbeitet hätten sie ja eigentlich etwas haben müssen. Persönlich glaube ich langsam das die Integration von Mantle wohl doch nicht ganz so einfach ist wie bisher ständig erzählt wurde, In dem Punkt kann ich mich aber auch täuschen da AMD ja keine Details veröffentlicht mit denen man das besser abschätzen kann. Man wird sehen wie sich die anderen Entwickler an ihre Pläne halten.

So oder so ist es ein PR-disaster und wie ich schon im vorigen Post sagte rein fuer den ISV selber; mir faellt es schwer AMD dafuer irgendwie zu kritisieren.

Frueher oder spaeter wird es schon klar werden was eigentlich dahinter steckt und wie "leicht" Mantle wirklich am Ende zu integrieren ist oder nicht.

Die anderen Entwickler/ISVs haben jetzt eine gute Chance sich vor irgendwelchen PR-Feuerwerken zu hueten bevor sie sich ueber jeglichen Termin sicher sein koennen.

Demirug
2013-12-31, 13:31:07
So oder so ist es ein PR-disaster und wie ich schon im vorigen Post sagte rein fuer den ISV selber; mir faellt es schwer AMD dafuer irgendwie zu kritisieren.

Das ist das leidige Problem mit dem Marketing. Die wollen immer möglichst viel Vorlaufzeit und gleichzeitig den Termin möglichst auf die Sekunde genau.

Da AMD wohl selbst keine Mantle DEMO liefern will ist es natürlich schwer ihnen irgendwie die Schuld zuzuschieben. Von den ISVs wird sich wahrscheinlich keiner öffentlich hinstellen und es tun selbst wenn es so wäre.

fondness
2013-12-31, 13:34:13
Was mir allerdings bei der ganzen Sache von Anfang an merkwürdig vorkam ist das man bisher überhaupt nichts gezeigt hat. Wenn DICE angeblich schon seit Ewigkeiten mit AMD an diesem Projekt arbeitet hätten sie ja eigentlich etwas haben müssen. Persönlich glaube ich langsam das die Integration von Mantle wohl doch nicht ganz so einfach ist wie bisher ständig erzählt wurde, In dem Punkt kann ich mich aber auch täuschen da AMD ja keine Details veröffentlicht mit denen man das besser abschätzen kann. Man wird sehen wie sich die anderen Entwickler an ihre Pläne halten.

Naja es gibt sehr konkrete Aussagen von den Oxide Games Entwickler und die haben ja auch schon eine Demo gezeigt die auch bald erscheinen soll.

http://imagizer.imageshack.us/v2/xq90/849/aab1.jpg (https://imageshack.com/i/nlaab1j)

Auch noch eine interessante Folie:

http://imageshack.com/a/img138/874/6w62.jpg

aufkrawall
2013-12-31, 13:44:19
Mantle braucht ja auch entsprechenden Treiber-Support.
Sollte eigentlich ein Leichtes für AMD sein, dafür eine kleine downloadbare Demo zu bringen. Sie bieten ja schließlich sonst auch für alles Samples an.

Ich bringe mal wieder meinen unerhörten Verdacht ins Spiel, dass schon zur Hawaii-Vorstellung absehbar war, dass es dieses Jahr mit Mantle nichts mehr wird...

(del676)
2013-12-31, 14:04:16
Die Verschiebung ist doch beim besten Willen nicht ueberraschend.
BF4 ist ein Drecksgame wie es im Buche steht. Die meisten Early Access Indie-Beta-Games laufen besser und stabiler. Aber hey, was wollt ihr von einem Saftladen, der fuer so ein Game 100-120 Euro haben will. Nach 2 Monaten noch immer fuer viele unspielbar? Haette ich den Ranz gekauft, wuerde ich eine Sammelklage anstreben.

Demirug
2013-12-31, 14:05:55
Papier ist Geduldig. Und es wäre nicht das erste Mal das Dinge die beim Prototypen ganz einfach ausgesehen haben sich dann im echten Einsatz als Karostrophe entpuppt haben. Entsprechend ist alles vor einem Postmortem nach dem Launch nur eine Momentaufnahme. Und dummerweiße neigen wir Technikspielkinder immer zu einem grenzenlosen Optimismus wenn wir an neuen Sachen arbeiten.

fondness
2013-12-31, 14:07:54
Ich bringe mal wieder meinen unerhörten Verdacht ins Spiel, dass schon zur Hawaii-Vorstellung absehbar war, dass es dieses Jahr mit Mantle nichts mehr wird...


Das sich Softwareprojekte verschieben ist das normalste der Welt. Noch dazu wo jeder um die Probleme in BF4 weiß. Da ist die Verschiebung um ein Monat eh noch human. Aber klar du hast das schon von Anfang an gewusst. :ugly:

aufkrawall
2013-12-31, 14:12:58
War ja klar, dass du das mit Januar nur zu gerne glaubst. Du meintest ja auch, es kommt mit Sicherheit noch im Dezember.

Nur weil Verspätungen die Normalität sind, heißt das noch lange nicht, dass man sicht nicht an seinen Ankündigungen messen lassen muss.

4Fighting
2013-12-31, 14:15:03
Noch dazu wo jeder um die Probleme in BF4 weiß.

Vorallem DICE im September/Oktober;D

fondness
2013-12-31, 14:20:01
Wenn gesagt wird Januar, warum soll ich das nicht glauben? Aber ich vergaß, du weißt natürlich schon vorher das es schief geht - seltsam das du damit erst jetzt raus gerückt bist. Ob das erste Mantle-Spiel jetzt ein paar Wochen früher oder später kommt spielt für mich keine Rolle, meinetwegen wird es Februar. DICE konnte den Termin nicht halten, was solls. Im Februar soll im übrigen auch Thief kommen (jaja ich weiß auch kein fester Termin). Aber war natürlich klar das sich Leute wie du darauf stürzen, wenn es die Spaß macht bitte.

Marketingtechnisch hat man es allerdings verkackt keine Frage, denn das hätte man auch früher öffentlich machen können und nicht erst um fünf vor 12. Eigentlich spätestens mit der Ankündigung das alle anderen Projekte für das BF4 Bugfixing zurück gestellt werden.

aufkrawall
2013-12-31, 14:30:30
Marketingtechnisch hat man es allerdings verkackt keine Frage,
Hat man das?
So hatte man wenigstens einen PR-Boost bei Erscheinen von Hawaii.
Mit nem Audio-DSP allein hätte man kaum jemanden beeindruckt, aber etwas wie Mantle kann die PC-Plattform deutlich aufwerten. Es ist eine kleine Sensation.

Ailuros
2013-12-31, 14:50:16
Hoert mit den persoenlichen Anspielungen auf; Ihr koennte Euch auch locker im naechsten Jahr weiter aneinander anmachen am liebsten via PM.

=Floi=
2013-12-31, 14:56:20
kann es eigentlich an der abstraktion und dokumentaion der api selbst liegen?
das müsste ja ab dem zeitpunkt "fertig" und gut dokumeniert sein. Nochmal nachbessern geht ja bei einem standard schlecht.
dafür müsste man auch nochmal den bf4 renderer umschreiben.



zumindest jetzt hat EA es kapiert und bessert imho mehr wie bei bf3 insgesamt nach.
kosten auf den neuen konsolen die patches noch immer geld?

4Fighting
2013-12-31, 15:03:20
zumindest jetzt hat EA es kapiert und bessert imho mehr wie bei bf3 insgesamt nach.
kosten auf den neuen konsolen die patches noch immer geld?

http://www.shacknews.com/article/79944/sony-does-not-charge-fee-for-patches

Bei den alten Konsolen wurde das Konzept der Fees für Patches Mitte des Jahres wohl abgeschafft.

Ich gehe mal davon aus, dass das bei den neuen Konsolen wohl auch dann so sein wird, denn eigentlich müssten MS/Sony ja dankbar sein bei dem jeweiligen Line-Up für jedes brauchbare Spiel für ihre Next-Gen Konsolen

Ailuros
2013-12-31, 15:08:38
kann es eigentlich an der abstraktion und dokumentaion der api selbst liegen?
das müsste ja ab dem zeitpunkt "fertig" und gut dokumeniert sein. Nochmal nachbessern geht ja bei einem standard schlecht.
dafür müsste man auch nochmal den bf4 renderer umschreiben.


Gibt es eigentlich bis jetzt irgendwelche oeffentliche Dokumentation fuer Mantle ueberhaupt? Ich weiss ja nicht ob Entwickler etwas unter NDA in der Zwischenzeit bekommen haben, aber wenn nicht kann man wohl die eher legitime Frage oben schwer beantworten.

=Floi=
2013-12-31, 15:17:44
war mehr so eine idee warum noch nichts veröffentlicht wurde. BF4 könnte schon mal mit mantle gelaufen sein und jetzt muss man mantle noch finalisieren bzw. hat dies auf eis gelegt.

Demirug
2013-12-31, 15:19:39
Gibt es eigentlich bis jetzt irgendwelche oeffentliche Dokumentation fuer Mantle ueberhaupt? Ich weiss ja nicht ob Entwickler etwas unter NDA in der Zwischenzeit bekommen haben, aber wenn nicht kann man wohl die eher legitime Frage oben schwer beantworten.

Nur das wenige das in den Vorträgen auf der letzten AMD Veranstaltung gesagt wurde.

Irgendwie glaube ich auch nicht das es überhaupt ein vernünftiges SDK gibt. Wahrscheinlich gab es ein paar Files um das Ganze einzubinden, ein oder zwei Samples und eine email Adresse für Fragen.

Skysnake
2013-12-31, 15:29:14
Sie haben bei der Hawaii-Vorstellung aber nicht gesagt, dass Mantle später kommt, wenn BF4 instabil ist. ;)

Das wäre auch irgendwie ziemlich selten dämlich und nen ziemlicher Arschritt für DICE. Sowas macht man nicht öffentlich. Da wird dann, wenns draußen ist, durch die Blume gesagt, das es nicht an einem lag, aber da zeigt man nicht mit dem Finger auf den Partner, sonst kannte gleich den Ringrichter für Unlimited Schlammcatchen bestellen...

die sollen einfach irgend eine Demo zeigen und gut ist.

Es wird ja schon irgend ein Material geben mit Mantle und BF4. bzw. machbar sein.
Ja, das sollten Sie WIRKLICH! tun. Das werfe ich Ihnen auch vor. Man hätte eigentlich mitte Dezember schon sagen sollen/müssen, dass das wohl nichts mehr wird, und dann eben ne Demo zeigen. Das hätte die Leute beruhigt und gnädig gestimmt.

Wenn ich an die CES denke, und daran, dass die jetzt auch KEINE! Demo zeigen, schwant mir aber böses. Die werden wenns dumm läuft auf der CES ne DEMO zeigen, um die Leute zu beruhigen, und dann im Februar kommt der echte Patch erst...

Es handelt sich hier nicht um ein PR Missgeschick fuer AMD sondern fuer den ISV selber die offensichtlich auch einen Haufen Mist erzaehlt haben und wohl noch erzaehlen.

* Schoen dass sie es so frueh angekuendigt haben; um 23:59 am 31.12. waere wohl noch besser gewesen :rolleyes:

Seh ich auch so. Am 31. so was verkünden ist einfach nur fail... :ufail:
Da hat das Marketing mal wieder die Augen verschlossen bzw geschlafen...


* Damit ich es richtig verstehe: man hatte keine resourcen die Uebermenge an bugs auszubuegeln hatte aber welche sich mit Mantle zu beschaeftigen. Tut mir leid ich bin kein Entwickler, aber ich persoenlich als Laie wuerde mir da andere Prioritaeten setzen. Noch besser ich wuerde auch meine Klappe halten bis ich mit N fertig bin.
Naja, das sind im normalfall unterschiedliche Teams, einfach weil man das AUfteilt, und die Leute auch nicht so einfach hin und her schiebbar sind. Je nachdem, brauchst du Stunden/Tage/Wochen um dich in fremdem Code zurecht zu finden wie in deinem eigenen. Das kann insbesondere die Fehlersuche teilweise extrem in die Länge ziehen, weil man Zusammenhänge einfach noch nicht kennt.


Das ist das leidige Problem mit dem Marketing. Die wollen immer möglichst viel Vorlaufzeit und gleichzeitig den Termin möglichst auf die Sekunde genau.

/sign!
Und wenn man Bedenken hat, dass der Termin, eventuell nicht gehalten werden kann, dann wird das oft genug erstmal ignoriert. So nach dem Motto:"Och das wird schon glatt gehen..."


Da AMD wohl selbst keine Mantle DEMO liefern will ist es natürlich schwer ihnen irgendwie die Schuld zuzuschieben. Von den ISVs wird sich wahrscheinlich keiner öffentlich hinstellen und es tun selbst wenn es so wäre.
Auch hier ein /sign
Wenn man Entwicklern so ne lowlvl API in die Hand drückt, dann sollten sie sie auch presentieren. Insbesondere, wenn Sie an der Entwicklung beteiligt waren. Genau das ist ja ihr Job. Content entwickeln. Nicht ohne Grund macht AMD das öfters nicht wirklich selbst, sondern lässt es machen.


Papier ist Geduldig. Und es wäre nicht das erste Mal das Dinge die beim Prototypen ganz einfach ausgesehen haben sich dann im echten Einsatz als Karostrophe entpuppt haben. Entsprechend ist alles vor einem Postmortem nach dem Launch nur eine Momentaufnahme. Und dummerweiße neigen wir Technikspielkinder immer zu einem grenzenlosen Optimismus wenn wir an neuen Sachen arbeiten.
Oh ja ;D

Der Teufel steckt oft genug im Detail, und gerade bei Software passieren teilweise die "lustigsten" Dinge, die dann auch schwer zu debuggen sind. Software ist halt VOLL von Fehlern. Selbst der Linux-Kernel und auch Windows sind voll davon. Da kann immer mal wieder was "lustiges" passieren.

Gibt es eigentlich bis jetzt irgendwelche oeffentliche Dokumentation fuer Mantle ueberhaupt? Ich weiss ja nicht ob Entwickler etwas unter NDA in der Zwischenzeit bekommen haben, aber wenn nicht kann man wohl die eher legitime Frage oben schwer beantworten.
Meines Wissens nach nicht. Ich geh auch noch nicht wirklich davon aus, dass die Mantle-API fertig ist, geschweige denn die Doku dazu.

Sowas ist normal immer noch bis zum Schluss ein Stück weit im Fluss. Gerade wenn die "End-"Anwender mit dran beteiligt sind, fließen oft genug auch noch recht spät Wünsche und Anregungen in Spezifikationen ien, die einfach durch die Benutzung erst offensichtlich wurden. Das ist ja auch ein Vorteil an dieser Art der Entwicklung. Man braucht nicht 2-3 Iterationen der Spezifikationen um auf Feedback der Nutzer ien zu gehen. Dafür dauert die Entwicklung tendenziell etwas länger.

gnahr
2013-12-31, 16:59:49
Irgendwie glaube ich auch nicht das es überhaupt ein vernünftiges SDK gibt.
beim kartenlaunch im sommer haben sehr viele, wenn nicht gar alle testberichte das "feature" als pluspunkt verbucht und mitgezählt WEIL es eben als gesetzte pr mit "coming soon" beworben wurde. kann ein hersteller die meinungsmache echt so leicht behumsen mit papiertiegern und unspezifischen dementis/terminverschiebungen in letzter minute?

Blediator16
2013-12-31, 17:18:56
Die letzten Karten kamen Ende Oktober Anfang November laut Tests. Verfügbar eher Anfang November.

Demirug
2013-12-31, 17:21:57
beim kartenlaunch im sommer haben sehr viele, wenn nicht gar alle testberichte das "feature" als pluspunkt verbucht und mitgezählt WEIL es eben als gesetzte pr mit "coming soon" beworben wurde. kann ein hersteller die meinungsmache echt so leicht behumsen mit papiertiegern und unspezifischen dementis/terminverschiebungen in letzter minute?

Natürlich. Was machen die Leute die die Testberichte schreiben wenn es um technische Details geht? Sie schreiben das ab was in den Unterlagen steht die sie bekommen haben. Die guten versuchen es noch zu verstehen und es mit eigenen Worten wieder zu geben. Aber wirklich überprüfen können sie es nicht.

Es hat sich wohl auch keiner getraut zu AMD zu sagen. "Gebt uns mal die Sachen welche die Entwickler von euch bekommen. Wir möchten uns selbst ein objektives Bild von Mantle machen." Hätte zu gerne die Reaktion von AMD gesehen. Aber vielleicht hat sich ja jemand getraut und eine klare Absage bekommen und einen Maulkorb mit der versteckten Androhung zukünftig halt eben nicht mehr eingeladen zu werden. Ich gehe aber eher davon aus das keiner gefragt hat weil Programmierer die mit den entsprechenden Sachen etwas anfangen könnten in der Regel eben programmieren und nicht irgendwelche Testberichte schreiben.

Skysnake
2013-12-31, 17:45:21
Ich gehe aber eher davon aus das keiner gefragt hat weil Programmierer die mit den entsprechenden Sachen etwas anfangen könnten in der Regel eben programmieren und nicht irgendwelche Testberichte schreiben.
/SIGN aber sowas von!

Jetzt nicht falsch verstehen bitte, aber Redakteure sind eben Redakteure und Entwickler sind Entwickler, und das ist auch gut so!

Man kann und darf gar nicht erwarten, das ein Redakteur derart tief in die Materie eintauchen kann, wie das für so was nötig wäre. Dann wäre er nämlich kein Redakteur mehr, weil er gar keine Zeit mehr dafür hätte. Oder glaubt jemand von euch, dass sich ein Redakteur nen Monate oder mehr nur mit einem Thema beschäftigen kann, also jetzt rein Doku lesen, verstehen, erste kleine eigene Implementierungen usw usw. Und selbst dann müsste er ja für nen adequaten Vergleich Monate, besser Jahre/Jahrzehnte Erfahrung haben in der Entwicklung.

Ist ja nicht so, als ob man sich das ganze Zeug mal an einem Nachmittag rein zieht.

Cubitus
2014-01-01, 11:17:07
Naja es gibt sehr konkrete Aussagen von den Oxide Games Entwickler und die haben ja auch schon eine Demo gezeigt die auch bald erscheinen soll.

http://imagizer.imageshack.us/v2/xq90/849/aab1.jpg (https://imageshack.com/i/nlaab1j)

Auch noch eine interessante Folie:

http://imageshack.com/a/img138/874/6w62.jpg

So ne Folie kann ich dir in 2 Minuten basteln. Gääähn.
Wie du schon sagtest Marketing-Technisch unter aller Kanone.

Und ein Demo gibts immer noch nicht...

Ich sagte es ja schon
Und AMDS Ankündigung ist bis jetzt eine Art Papier-Tiger.
Nur das diesmal zuerst angekündigt wurde und das Papier später gedruckt wird. Und der reale Tiger muss erst wohl noch gezeugt werden..

Hatte das AMD wirklich nötig um den Verkauf der neuen Gen anzukurbeln?
Wäre es nicht besser gewesen man hätte gediegen im Hintergrund operiert und dann plötzlich einen Big Bang ausgeworfen!?

Nvidia bringt ja bald die neue Perfomance-Gen und da hätte ein funktionierendes Mantle deutlich mehr Schaden verursacht.
Vor allem hätte man was Greifbares in der Hand gehabt.

Aber so erntet AMD, nach dem kleinen Strohfeuer, eben nur Spott.
Die User könnten diese "Täuschung" und diese Art von Verkaufstaktik AMD richtig übel nehmen.

Zudem ganz schön blauäugig sich nur auf Dice und auf so einen kleinen Entwickler zu verlassen.
Also bei so einem großen Vorhaben (eine API bezeichne ich jetzt einfach mal als groß) sollte man auf mehrere Projekte ausweichen können.
Keine Ahnung was für Darm-Flöten bei AMD im Management sitzen..

fondness
2014-01-01, 11:25:41
So kritisch sehe ich das nicht. Was ich marketingtechnisch schlecht fand war die späte Verschiebung von BF4, das hätte man auch früher kund tun können. Außer die Entscheidung wurde wirklich im letzten Moment getroffen.

Ansonsten hat man marketingtechnisch wohl sehr viel richtig gemacht, man schafft es immerhin über Monate einen unglaublichen Hype aufrecht zu erhalten. Demo wurde auch bereits gezeigt und soll ebenfalls bald kommen. Von einem Papiertiger kann man hier also wirklich nicht sprechen. Und wie schon gesagt die Verschiebung um maximal einen Monat ist wohl das kleinste Problem. Auch ansonsten kann ich deine Kritikpunkte nicht wirklich nachvollziehen, Verschiebungen sind gerade in Softwarebereich das normalste der Welt. Man hat sich auch lange im Hintergrund gehalten, an Mantle wird bereits über 2 Jahre gearbeitet.

4Fighting
2014-01-01, 11:40:20
Hatte das AMD wirklich nötig um den Verkauf der neuen Gen anzukurbeln?
Wäre es nicht besser gewesen man hätte gediegen im Hintergrund operiert und dann plötzlich einen Big Bang ausgeworfen!?



Naja dann hätte man sich im Nachhinein anhören müssen, warum niemand die Standard 290er gekauft hat(Stichwort Lautstärke).
Das hat schon Sinn gemacht hat es anzukündigen, um eben einen Nachteil wieder (vermeintlich) Wett zu machen.




Ansonsten hat man marketingtechnisch wohl sehr viel richtig gemacht, man schafft es immerhin über Monate einen unglaublichen Hype aufrecht zu erhalten. (...) Verschiebungen sind gerade in Softwarebereich das normalste der Welt. Man hat sich auch lange im Hintergrund gehalten, an Mantle wird bereits über 2 Jahre gearbeitet.

Das nächste bitte nicht persönlich nehmen, aber irgendwie ist es langsam echt nervig, wenn alles von dir nur schön geredet wird.

Das Mantle Potential hat ist bekannt, aber das einem 1,5 Tage vor Deadline einfällt, das man es nicht packt ist ein klarer epic-fail.

Irgendwer hat bei DICE oder AMD seinen Job da nicht richtig gemacht, das steht zumindest bei der Kommunikationspolitik fest.

fondness
2014-01-01, 11:41:09
Das nächste bitte nicht persönlich nehmen, aber irgendwie ist es langsam echt nervig, wenn alles von dir nur schön geredet wird.

Das Mantle Potential hat ist bekannt, aber das einem 1,5 Tage vor Deadline einfällt, das man es nicht packt ist ein klarer epic-fail.

Irgendwer hat bei DICE oder AMD seinen Job da nicht richtig gemacht, das steht zumindest bei der Kommunikationspolitik fest.

Das habe ich ja auch geschrieben, oder etwa nicht?

4Fighting
2014-01-01, 11:44:01
Das habe ich ja auch geschrieben, oder etwa nicht?

Okay...Ich hatte es falsch verstanden/gelesen...

Mea culpa!:)

-/\-CruNcher-/\-
2014-01-01, 14:01:55
So kritisch sehe ich das nicht. Was ich marketingtechnisch schlecht fand war die späte Verschiebung von BF4, das hätte man auch früher kund tun können. Außer die Entscheidung wurde wirklich im letzten Moment getroffen.

Ansonsten hat man marketingtechnisch wohl sehr viel richtig gemacht, man schafft es immerhin über Monate einen unglaublichen Hype aufrecht zu erhalten. Demo wurde auch bereits gezeigt und soll ebenfalls bald kommen. Von einem Papiertiger kann man hier also wirklich nicht sprechen. Und wie schon gesagt die Verschiebung um maximal einen Monat ist wohl das kleinste Problem. Auch ansonsten kann ich deine Kritikpunkte nicht wirklich nachvollziehen, Verschiebungen sind gerade in Softwarebereich das normalste der Welt. Man hat sich auch lange im Hintergrund gehalten, an Mantle wird bereits über 2 Jahre gearbeitet.


Naja damit geht kostbare Zeit verloren vor dem anstehenden Maxwell start, wenn du den früheren release cycle hast musst du den auch nutzen Nvidia kann ja selbst kurzfristig noch reagieren auf AMDs ankündigungen.

gnahr
2014-01-01, 14:18:17
Okay...Ich hatte es falsch verstanden/gelesen...

Mea culpa!:)
das hast du nicht falsch verstanden, er hat es nie auch nur annähernd so geschrieben. das bestreitet er ja auch nicht, sondern stellt ne pseudo-rhetorische frage... nuff said? gutmütigkeit der anderen ausnutzen und so...

seine worte waren "das fand ich auch schlecht" (man beachte den unterschied zu "epic fail") "außer es wurde wirklich erst in der letzten minute entschieden. dann ist es natürlich völlig ok. softwareentwicklungszyklen werden ja nach der öffentlichen ankündigung nie eingehalten, sonst sind es keine echten großprojekte!"

o-ton:
So kritisch sehe ich das nicht. Was ich marketingtechnisch schlecht fand war die späte Verschiebung von BF4, das hätte man auch früher kund tun können. Außer die Entscheidung wurde wirklich im letzten Moment getroffen.

Demo wurde auch bereits gezeigt und soll ebenfalls bald kommen. Von einem Papiertiger kann man hier also wirklich nicht sprechen. Und wie schon gesagt die Verschiebung um maximal einen Monat ist wohl das kleinste Problem. Auch ansonsten kann ich deine Kritikpunkte nicht wirklich nachvollziehen, Verschiebungen sind gerade in Softwarebereich das normalste der Welt. Man hat sich auch lange im Hintergrund gehalten, an Mantle wird bereits über 2 Jahre gearbeitet.

man beachte die kognitive dissonanz von "man hat es geschafft einen unheimlichen hype zu schüren" versus "man hat sich doch im hintergrund gehalten".
schuld abwälzen, relativieren, kleinreden.

dargo
2014-01-01, 14:18:41
Was hat jetzt Maxwell mit Mantle zu tun? :confused:

Blediator16
2014-01-01, 14:29:39
Was hat jetzt Maxwell mit Mantle zu tun? :confused:

Maxwell ist wie Mantle und Tegra: Es wird alles zerbersten:freak:

Hübie
2014-01-01, 15:35:48
Mal krasser gesagt: DICE hats verkackt und AMD sich auf die falschen verlassen bzw. mit verkackt (das sind Interna). In dem allgemeinen Zustand hätte BF4 nie veröffentlicht werden dürfen.
Wenn man es nicht gebacken bekommt ein großes Projekt, was Battlefield ja zweifelsohne ist, neben einer tiefen technischen Veränderung auf die Beine zu stellen sollte man einfach das komplette Produkt verschieben und dann beides zeitgleich mit einem Feuerwerk abfackeln und feiern.
So wie jetzt zieht man den Zorn vieler Spieler auf sich und macht sich zeitgleich (wenn auch nur temporär) zum Gespött. Es gibt hier nicht mal was zu spekulieren, da es nur ein paar bunte Folien, ein paar Ankündigungen und irgendwas mit ein paar Raumschiffen zu sehen gab. *edit: Ach ja und die immer wieder genannten einhundertausend drawcalls (pro Stunde?).. :rolleyes:
Das alles ist immer noch weit von "beeindruckend" entfernt.

Also schieben wir uns bis Ende Januar fleißig weiter fanboy-Keulen in die Schuhe, schwingen Reden und lassen uns von Mods ermahnen wenn wir mal wieder zu OT werden. Ich wäre für eine Schließung bis es Material gibt das verwertbar ist.
Und bitte denkt jetzt nicht :uban:

HarryHirsch
2014-01-01, 15:48:07
Mal krasser gesagt: DICE hats verkackt und AMD sich auf die falschen verlassen bzw. mit verkackt (das sind Interna). In dem allgemeinen Zustand hätte BF4 nie veröffentlicht werden dürfen.
Wenn man es nicht gebacken bekommt ein großes Projekt, was Battlefield ja zweifelsohne ist, neben einer tiefen technischen Veränderung auf die Beine zu stellen sollte man einfach das komplette Produkt verschieben und dann beides zeitgleich mit einem Feuerwerk abfackeln und feiern.
So wie jetzt zieht man den Zorn vieler Spieler auf sich und macht sich zeitgleich (wenn auch nur temporär) zum Gespött. Es gibt hier nicht mal was zu spekulieren, da es nur ein paar bunte Folien, ein paar Ankündigungen und irgendwas mit ein paar Raumschiffen zu sehen gab. *edit: Ach ja und die immer wieder genannten einhundertausend drawcalls (pro Stunde?).. :rolleyes:
Das alles ist immer noch weit von "beeindruckend" entfernt.

Also schieben wir uns bis Ende Januar fleißig weiter fanboy-Keulen in die Schuhe, schwingen Reden und lassen uns von Mods ermahnen wenn wir mal wieder zu OT werden. Ich wäre für eine Schließung bis es Material gibt das verwertbar ist.
Und bitte denkt jetzt nicht :uban:

Das Spiel ist doch nur wegen EA so verbuggt erschienen...
Das genau deswegen jetzt die Mantle- Implementierung leidet glaub ich allerdings nicht.
Die 3D-Hirsche betreiben sicher kein Bugfixing.

LadyWhirlwind
2014-01-01, 16:08:19
Das Spiel ist doch nur wegen EA so verbuggt erschienen...
Das genau deswegen jetzt die Mantle- Implementierung leidet glaub ich allerdings nicht.
Die 3D-Hirsche betreiben sicher kein Bugfixing.

EA wollte wohl Zeitnah zu CoD BF4 und vor Weihnachten releasen

Ich vermute mal man hat den Code mehr oder weniger fertig, hat ihn aber noch nicht implementiert. Das Problem wird wohl sein, dass man bei Dice - verständlicherweise - nicht will, dass an der Engine rumgeschraubt wird, solange das Spiel noch so verbuggt ist. Das würde das QA und das Bugfixing nur komplizierter machen als es eh schon ist, weil im schlimmsten Fall ja neue Fehler eingeführt werden.

Neosix
2014-01-01, 16:11:55
Frage eines Außenstehenden:
Wird Mantle nun extra für BF4 kommen? Oder eher generell Frostbyte Engine Integration sein. Ersteres ist dann nur für BF4 ist ja klar, letzteres dürfte dann gleich für alle Spiele mit Frostbyte funktionieren?
Weil soweit ich gelesen habe, ist von diesen Ominösen 15 Spiele mit Mantle die in der Entwicklung waren ja bisher außer BF4 ja keine genant? Könnten das alles nur Frostbyte spiele sein? Was dann eher für Frostbyte Integration sprechen würde.

Skysnake
2014-01-01, 16:17:30
Mantle soll laut DICE direkt in die Frostbite Engine, die halt auch von BF4 genutzt wird.

Iruwen
2014-01-01, 16:50:06
https://twitter.com/SzymonPusz/status/391954790919307264

=Floi=
2014-01-01, 16:55:37
Ansonsten hat man marketingtechnisch wohl sehr viel richtig gemacht, man schafft es immerhin über Monate einen unglaublichen Hype aufrecht zu erhalten.

hype gab es auch beim bulldozer und wie das endete weis auch jeder nur zu gut. Das ging auch komplett nach hinten los und viele redakteure waren dann auch entsprechend negativ eingestellt.

Blediator16
2014-01-01, 17:12:07
hype gab es auch beim bulldozer und wie das endete weis auch jeder nur zu gut. Das ging auch komplett nach hinten los und viele redakteure waren dann auch entsprechend negativ eingestellt.

Gibt bei anderen Firmen genausolche Hypes die vollkommen nach Hinten losgehen und nach ner Zeit juckts irgendwie keinen mehr ausser der Bulldozer der kommt immer ins Gespräch:freak:

gnahr
2014-01-01, 17:22:20
Mal krasser gesagt: DICE hats verkackt und AMD sich auf die falschen verlassen bzw. mit verkackt (das sind Interna).
amd hat bereits vorweg so viel geld in bf4 reingebuttert um werbepartner zu sein und die keys beilegen zu können. man hat doch sehenden auges ein messer aufgespannt mit der termin-ankündigung und ist nun reingelaufen. keine falschen beschönigungen bitte.

dargo
2014-01-01, 19:04:20
Frage eines Außenstehenden:
Wird Mantle nun extra für BF4 kommen? Oder eher generell Frostbyte Engine Integration sein. Ersteres ist dann nur für BF4 ist ja klar, letzteres dürfte dann gleich für alle Spiele mit Frostbyte funktionieren?
Weil soweit ich gelesen habe, ist von diesen Ominösen 15 Spiele mit Mantle die in der Entwicklung waren ja bisher außer BF4 ja keine genant? Könnten das alles nur Frostbyte spiele sein? Was dann eher für Frostbyte Integration sprechen würde.
Afaik hieß es doch so, dass Mantle für BF4 zeitexklusiv ist (man möge mich korrigieren wenn ich falsch damit liege). Nur... wie will man das halten wenn Thief schon in Februar kommt und der Mantlepatch für BF4 weiter verschoben wird? :freak: Ich will aber nicht den Teufel an die Wand malen. Erstmal heißt es wohl Januar für BF4-Mantlepatch.

Chip
2014-01-01, 20:27:37
Na ja, AMD und Dice sagen viel wenn es um Propaganda geht. Ähnlich bzgl. Kaveri Launch klärt man die Leute hinterher erstmal auf was wirklich gemeint war. Man versucht generell nur noch positiv da zu stehen. Darum wirkt AMD ja auch z.Zt. eher realitätsfremd.
Thief kann man ja theoretisch auch nach hinten verschieben. 10% vom Gesamtbudget kostet übrigens die Mantle Variante zusätzlich. Wären dann 5 Mio. US $. (3. letzter Absatz (http://techreport.com/review/25683/delving-deeper-into-amd-mantle-api/3))
Eine Mantle Portierung soll generell immer zeitaufwendiger sein als eine 3D3 Portierung. Man könne aber angebl. mehr features einbinden. (vorletzte Frage (http://www.heise.de/newsticker/meldung/APU13-Der-Battlefield-Schoepfer-ueber-AMDs-3D-Schnittstelle-Mantle-2045398.html))

Blediator16
2014-01-01, 20:37:21
Wer übertreib es nicht gerne mit seinen Produkten?

askibo
2014-01-01, 20:52:44
Thief kann man ja theoretisch auch nach hinten verschieben. 10% vom Gesamtbudget kostet übrigens die Mantle Variante zusätzlich. Wären dann 5 Mio. US $. (3. letzter Absatz (http://techreport.com/review/25683/delving-deeper-into-amd-mantle-api/3))

Ist weniger, sonst macht der letzte Satz des Absatzes keinen Sinn. Die Entwicklung des PC-Ports kostet ca. 10% mehr. Die 50 Mio. sind ja die Kosten für alle Plattformen.

Akkarin
2014-01-01, 21:23:02
Um mal die ganze wichtige stelle zu Zitieren: Asked for a ballpark cost figure, Katsman told me that, for a simple PC project like Nixxes' Thief port, adding Mantle support might amount to roughly a 10% increase in development cost. He was quick to add, however, that such an increase is a drop in the bucket compared to the total development cost of the entire game for all platforms, which might add up to something like $50 million. (italics mine)

Wie viel kostet ein PC Port ? Ne Millionen oder viel mehr ?

StefanV
2014-01-01, 21:35:13
Depends on the engine...

Sprich ob die verwendete Engine schon vieles implementiert hat, was man da alles anpassen muss und so weiter. Das kann von einigen wenigen Mannwochen bis zu einigen Monaten dauern...

Akkarin
2014-01-01, 22:27:14
Bei Millionen wären wir ja schon bei Mannjahren. Also würde Mantle ganz grob irgendwas zwischen 50k-200k USD kosten ? (Thief PC Port zwischen 1/2 bis 2 Millionen, was wohl eher sehr hoch geschätzt ist wenn die "Einige Mannmonate" stimmen) Da könnte AMD sich ja fast schon zwei dutzend Spiele pro Jahr kaufen...