PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Xbox One/Playstation 4: technische Spekulation und Vergleich


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47

Gipsel
2014-02-25, 09:44:47
AA ist nicht einfach nur ein Tiefpassfilter. Das Shannon-Nyquist-Theorem muss eingehalten werden, damit korrekt rekonstruiert werden kann.
Man kann auch unkorrekt rekonstruieren. Solange kein Aliasing auftritt (bzw. es unterdrückt wird), ist es dem Sinne des Wortes nach ein Anti-Aliasing. Das ist im Prinzip nicht untrennbar mit der signalgetreuen Rekonstruktion verknüpft. Da hat Coda meiner Meinung nach schon recht. Ein guter Rekonstruktionsfilter (Shannon-Nyqist und so) stellt bloß sicher, daß man keine Details verliert.

Mr.Magic
2014-02-25, 10:12:19
Und dennoch war die X360 sehr erfolgreich.

???

2007:
http://www.computerworld.com/s/article/9026340/Xbox_360_red_ring_of_death_costs_Microsoft_more_than_1B
Gesamt:
http://www.neowin.net/news/report-microsofts-xbox-division-has-lost-nearly-3-billion-in-10-years

Guest83
2014-02-25, 10:29:53
???

2007:
http://www.computerworld.com/s/article/9026340/Xbox_360_red_ring_of_death_costs_Microsoft_more_than_1B
Gesamt:
http://www.neowin.net/news/report-microsofts-xbox-division-has-lost-nearly-3-billion-in-10-years
Das ist was soviele nicht wissen oder verstehen und auch der Grund, wieso mehrere große MS-Shareholder die Xbox-Sparte am liebsten verkaufen würden. Nicht weil sie comichaft böse sind und Gamer hassen, sondern weil seit mittlerweile 13 Jahren die wirklich profitablen Produkte bei Microsoft, wie etwa Office und Businesslösungen, diesen Kram subventionieren müssen.

][immy
2014-02-25, 11:03:53
Das ist was soviele nicht wissen oder verstehen und auch der Grund, wieso mehrere große MS-Shareholder die Xbox-Sparte am liebsten verkaufen würden. Nicht weil sie comichaft böse sind und Gamer hassen, sondern weil seit mittlerweile 13 Jahren die wirklich profitablen Produkte bei Microsoft, wie etwa Office und Businesslösungen, diesen Kram subventionieren müssen.
ähm.. was muss bei der xbox denn (zumindest laut der grafik) subventioniert werden? Die machen plus. Die größten Verluste stammen (auch laut der Grafik) noch immer aus der ersten xbox, wo MS sich schon bewusst war, das sie erst mal subventionieren müssen um überhaupt in den Markt zu kommen. Das ist für MS eine Langzeitstrategie und nichts womit man innerhalb von 1-3 Jahren Geld macht.
Zudem dürften bei den zahlen die ganzen Services und spiele-erlöse fehlen die entweder direkt durch xbox oder auch indirekt gemacht werden.
und da in 2012 schon entwicklungskosten (laut Artikel) enthalten sind, wurde auch die Entwicklung der xbone bereits mitfinanziert und man ist im plus.


Laut dem Artikel hat sony übrigens noch ein größeres Minus eingefahren, was ebenfalls nicht ganz richtig sein kann, weil die Playstation sparte eine der wenigen sparten von Sony ist, die Profit abwirft. kommt wohl einfach drauf an, welche Zahlen man sich anschaut und welche man ausblendet.
edit:
Nunja, durch die PS3 könnte es für Sony in den letzten 10 Jahren vielleicht doch nicht ganz so rosig ausgesehen haben, aber wenn man den Zeitrahmen mal etwas ausdehnen würde, würde es für die Playstation sparte garantiert nicht so schlecht aussehen.

Avalox
2014-02-25, 11:38:07
MS GB senkt den Listenpreis der XBox One um 30£.

http://www.golem.de/news/microsoft-erste-preissenkung-fuer-die-xbox-one-1402-104766.html

Watson007
2014-02-25, 12:19:40
es ist doch bekannt dass einige Großaktionäre die XBox-Sparte abgespalten sehen wollen, das ist doch kein Geheimnis und lässt sich ohne weiteres recherchieren.

prinz_valium
2014-02-25, 12:29:23
Das ist was soviele nicht wissen oder verstehen und auch der Grund, wieso mehrere große MS-Shareholder die Xbox-Sparte am liebsten verkaufen würden. Nicht weil sie comichaft böse sind und Gamer hassen, sondern weil seit mittlerweile 13 Jahren die wirklich profitablen Produkte bei Microsoft, wie etwa Office und Businesslösungen, diesen Kram subventionieren müssen.

profitabel seit 2008 ;)
die altverluste sind eh schon da gewesen. egal, ob man das teil nun behält oder verkauft. aus der sicht gesehen ist es nämlich völlig blödsinn das teil verkaufen zu wollen.

das verstehen viele eben auch nicht.
ein verkauft ergibt nur sinn um cash / shareholder value zu generieren und die marge des gesamtkonzerns zu steigern.

Watson007
2014-02-25, 12:37:01
blödsinn oder nicht, es geht nicht darum was die Kunden sehen wollen...

http://www.gamersglobal.de/news/78514/microsoft-potentieller-ceo-erwaegt-xbox-sparte-zu-verkaufen

prinz_valium
2014-02-25, 13:05:34
blödsinn oder nicht, es geht nicht darum was die Kunden sehen wollen...

http://www.gamersglobal.de/news/78514/microsoft-potentieller-ceo-erwaegt-xbox-sparte-zu-verkaufen


wieso kunden? die sowieso nicht. aber wenn du schon mit diesen tollen texten kommst. hier mal die original quelle
Related: Tech's Top Turnaround Artists

Elop’s assumption is that Microsoft could create more value by maximizing sales of Office rather than by using it to prop up sales of Windows-based devices, said two of the people with knowledge of his thinking
More Focus

Besides emphasizing Office, Elop would be prepared to sell or shut down major businesses to sharpen the company’s focus, the people said.

diese quellen oder personen, wurden übrigens niemals irgendwo namentlich erwähnt ;)
http://www.bloomberg.com/news/2013-11-08/microsoft-ceo-candidate-elop-said-to-mull-windows-shift.html



das einzige was interessiert ist die ms strategie.
auch wenn das 2 (okay relativ große) investoren von tausenden wollen.
bisher hatten sie ja noch erfolg. und die entscheidung die 3. wichtigste marke von ms zu verkaufen entscheidet ein elop nicht mal als chef der besagten sparte. da kommt das bord of directors zusammen.


und alles mögliche in betracht ziehen, sollte man sowieso in der wirtschaft. das ist nun nichts besonderes

DinosaurusRex
2014-02-25, 14:15:41
Xbox UK Marketing Chief Harvey Eagle hat in einem Interview mit Eurogamer noch einmal bekräftigt, dass man keine Pläne für eine SKU ohne Kinect habe:


"[A Kinect-less Xbox One] is not in our plans at all," he stressed.

"As we've said from the very beginning, we believe Kinect is an absolutely integral part of the Xbox One experience."


Quelle (http://www.eurogamer.net/articles/2014-02-25-microsoft-no-plans-to-release-an-xbox-one-without-kinect)

Ich weiß nicht, was ich davon halten soll. Einerseits kann ich diese Entscheidung verstehen, denn es wurden bereits viel zu viele Kompromisse für dieses Feature eingegangen und für eine "all in one" Maschine macht es ja auch irgendwie Sinn, vor allem auch mit Blick auf die Zukunft: Es ist ein tolles trojanisches Pferd für den vernetzten Haushalt. Aber mich selber hält es vom Kauft des Systems ab. Ich persönlich will es nicht haben und deswegen will ich auch nicht dafür bezahlen. Wenn die wirklich an Kinect festhalten sollen, dann müssen die einfach mal in den sauren Apfel beißen und das System für deutlich unter $400 anbieten. Die Core Gamer wollen die Konsole offensichtlich nicht haben und für die Kundschaft, die durch das "all in one" Zeug angesprochen werden soll, ist der Preis einfach zu hoch.

robbitop
2014-02-25, 14:47:16
Man kann auch unkorrekt rekonstruieren. Solange kein Aliasing auftritt (bzw. es unterdrückt wird), ist es dem Sinne des Wortes nach ein Anti-Aliasing. Das ist im Prinzip nicht untrennbar mit der signalgetreuen Rekonstruktion verknüpft. Da hat Coda meiner Meinung nach schon recht. Ein guter Rekonstruktionsfilter (Shannon-Nyqist und so) stellt bloß sicher, daß man keine Details verliert.
Aus meiner Sicht ist das Erbsenzählerei. Wenn man es so auslegt, ist PostAA eben AA. Aber dann zieht es den Begriff, mit dem es assoziert wird, aber völlig in den Dreck. Ein reiner Tiefpassfilter ist für mich kein AA.
Selbst abseits der 3D Grafik - wenn ich mit Experten aus der Signalverarbeitung oder Sensorlieferanten zusammensitze, würde niemand einen Tiefpassfilter "AA" nennen. Bei Anti-Aliasing denken alle direkt an korrekte Rekonstruktion.

Bei Post-AA kann man doch gleich "Filter" dazu sagen.

Was man nicht alles für PR tut...

robbitop
2014-02-25, 14:51:11
???

2007:
http://www.computerworld.com/s/article/9026340/Xbox_360_red_ring_of_death_costs_Microsoft_more_than_1B
Gesamt:
http://www.neowin.net/news/report-microsofts-xbox-division-has-lost-nearly-3-billion-in-10-years
Seit 2008 ist sie doch erfolgreich. Die ersten Jahre musst du immer draufzahlen, wenn du in einen Markt willst - das ist klar.
(man sieht aber auch sehr schön, wie seit 2012 die Zahlen wieder sinken - seit dem hat man das Budget für Exclusives gekürzt und damit keine Argumente mehr für die X360 geliefert. (meine persönliche Schlussfolgerung) Man hat sich lieber auf Kinect fokussiert...)

Gipsel
2014-02-25, 15:59:16
Aus meiner Sicht ist das Erbsenzählerei. Wenn man es so auslegt, ist PostAA eben AA. Aber dann zieht es den Begriff, mit dem es assoziert wird, aber völlig in den Dreck. Ein reiner Tiefpassfilter ist für mich kein AA.
Selbst abseits der 3D Grafik - wenn ich mit Experten aus der Signalverarbeitung oder Sensorlieferanten zusammensitze, würde niemand einen Tiefpassfilter "AA" nennen. Bei Anti-Aliasing denken alle direkt an korrekte Rekonstruktion.

Bei Post-AA kann man doch gleich "Filter" dazu sagen.Das sind doch alles nur Filter. Zur Rekonstruktion benutzt man nicht umsonst auch einen Rekonstruktionsfilter. Entscheidend sind die Eigenschaften des jeweils eingesetzten. Und Detailtreue und Aliasingarmut sind nun mal zwei leicht verschiedene Dinge. Es kommt oft vor, daß man in bestimmten Gebieten Begriffe mit einer engeren Bedeutung benutzt, als sie eigentlich besitzen ;).

robbitop
2014-02-25, 16:02:11
Zusätzlich zum Filter ist aber auch die Abtastung wichtig - also die Samples, die in diesen fließen. Ohne vernünftige Rekonstruktion durch höhere Abtastung ist das kein AA. Das Abtasttheorem hat schon seine Bewandtnis. Jedenfalls verwässert es den Begriff aus meiner Sicht.

Das Ergebnis zeigt es ja auch sehr deutlich. Es gibt Anwendungsfälle, da sind die Ergebnisse durch schlaue Rekonstruktionsfilter ganz ordentlich. In anderen Fällen opfert man einfach Informationsgehalt. Gerade feine Linien lassen sich damit nicht sinnvoll rekonstruieren, ohne höher abzutasten.

IC3M@N FX
2014-02-25, 16:09:38
Dachte sind in PS4/Xbox One Thread seid ziemlich weit abgedriftet vom Thema oder ;)

Gipsel
2014-02-25, 16:23:28
Zusätzlich zum Filter ist aber auch die Abtastung wichtig - also die Samples, die in diesen fließen. Ohne vernünftige Rekonstruktion durch höhere Abtastung ist das kein AA. Das Abtasttheorem hat schon seine Bewandtnis. Jedenfalls verwässert es den Begriff aus meiner Sicht.Antialiasing bezeichnet in diesem Zusammenhang die Unterdrückung von Aliasingartefakten zwischen Bildinformation (Geometrie und oder Texturen) und dem Pixelraster. Nicht mehr. Ein Tiefpassfilter erfüllt im Prinzip diese Funktion (auf Kosten von Verlust von Bildinformation kommt man näher an die Erfüllung des Abtastheorems und das ohne zusätzliche Samples). Ist natürlich eine eher krude Methode, die mit zusätzlichen Samples verbessert werden kann. Aber im Prinzip kann man für beide Zwecke sogar einen funktional identischen Filterkernel benutzen (nur die Größe skaliert man in Abhängigkeit von der Samplezahl; ob ein Tent-Blurfilter und ein Tent-Rekonstruktionsfilter benutzt ist kein großer Unterschied, lediglich die Breite des Kernels [in Pixeln] und die Anzahl der verrechneten Samples variiert, der Filteralgorithmus bleibt gleich). Aber wir müssen uns hier wirklich nicht über die Terminologie streiten. Das wird hier zu OT und ich glaube irgendwo gibt es schon einen Technologiethread über Filter.

drkohler
2014-02-25, 18:32:07
Seit 2008 ist sie doch erfolgreich. Träum weiter. Solche Grafiken sind reine Augenwischerei, weil sie die tatsächlichen Kosten verschleiern. Dazu nur drei Punkte:
1. Die zusätzliche Milliarde für den RROD wurde NICHT der Division berechnet.
2. Die ganzen Werbekosten für den Kinect-Start ($0.5mia, und auch die zweite Weihnachtsperiode $0.5mia) wurde hauptsächlich der "Corporate-PR" belastet.
3. Die horrenden Verluste in der "Cloud-Division" in jedem Quartal deuten deutlich darauf hin, dass die XBox-Serverkosten auch hier hinein gerechnet werden.
Es gibt schon einen Grund, warum (seit Jahren) immer wieder verschiedene Gruppierungen innerhalb MS das ganze XBox-Zeug begraben wollen. Dazu kommen wahrscheinlich auch die Mitarbeiter in den anderen Abteilungen, die Quartal für Quartal zusehen müssen, wie ihre Gewinne zum Stopfen der XBox-Verluste gebraucht werden. Und jetzt sieht es auch schon wieder so aus nach den ersten Preissenkungen (vorerst in England), als ob die Hardware der XBox One hohe Verluste einfahren wird.

Deinorius
2014-02-25, 18:39:30
@drkohler
1 Milliarde für Werbung?! :ugly: lol wut?

prinz_valium
2014-02-25, 18:40:26
Träum weiter. Solche Grafiken sind reine Augenwischerei, weil sie die tatsächlichen Kosten verschleiern. Dazu nur drei Punkte:
1. Die zusätzliche Milliarde für den RROD wurde NICHT der Division berechnet.
2. Die ganzen Werbekosten für den Kinect-Start ($0.5mia, und auch die zweite Weihnachtsperiode $0.5mia) wurde hauptsächlich der "Corporate-PR" belastet.
3. Die horrenden Verluste in der "Cloud-Division" in jedem Quartal deuten deutlich darauf hin, dass die XBox-Serverkosten auch hier hinein gerechnet werden.



herzlichen glückwunsch. du hast verstanden wie unternehmen in der größenordnung funktionieren :wink:

aber ansonsten bitte auch mal ein paar offizielle zahlen und belege bei solch detailierten behauptungen.
gerade punkt 3 kommt mir doch sehr sehr komisch vor. von welchem jahr sprichst du da? denn die "cloud-dividion" (mir ist nur eine bekannt, die ms hat) erwirtschaftet üble gewinne.


also lass doch bitte allgemeine aussagen, die zwar durchaus im groben stimmen, aber im detail dann eben doch gleichzeitg totaler bullshit sein können.
etwas mehr mühe könntest du dir schon geben.
denn deine aussagen sind so noch nicht einmal augenwischerei. ich sehe nämlich nichts ;D

@drkohler
1 Milliarde für Werbung?! :ugly: lol wut?

es gibt ja auch einen 400 mio nfl werbe deal. hier denken mache halt auch, dass diese xbox one only und nur für ein jahr sind...
ach wenn ich langeweile habe, mache ich mich einfach mal selbst an die recherche und widerlege den mummpitz


edit:
sales & marketing q2 fiscal year 2010 (also q4 jahr 2009)
3,619 milliaden

sales & marketing q2 fiscal year 2011 (also q4 jahr 2010, wo dann die erste halbe milliarde kinect für xbox marketing drin sein müsste)
3,825 milliaden

3,762 milliarden für das endquartal des nächsten jahres.

macht also 0,35 milliarden maximal für die kinect werbung für die beiden weihnachtsquartale ;)
übrigens hat microsoft sogar geschrieben, dass die steigerungen hauptsächlich durch werbung für die xbox 360 (neben windowsphone und windows live) zu begründen sind.
aber eben nicht außschließlich nur, und erst recht nicht in der von manchen propagierten höhe (außer ms hat die werbung für alles andere mögliche dabei mal eben noch so um 300 mio reduziert)


im gegesatz dazu, sind die erlöse und gewinne aber deutlich mehr gestiegen, als die kosten für etwas mehr werbung.


kann jeder nachlesen ind den q10 fillings



edit2: sorry für offtopic, aber ich kann es nicht leidern, wenn scheiße geschrieben wird, die einfach nicht stimmt

drkohler
2014-02-25, 19:52:29
@drkohler
1 Milliarde für Werbung?! :ugly: lol wut?Diese Zahl konnte man damals in jeder (Finanz-)Zeitung, in jedem Blog, auf jeder Internetsite nachlesen. Ich kann nichts dafür, wenn du das damals nie Irgend wo gesehen hast. Der gesamte Werbeetat von MS ist natürlich deutlich höher als $1mia...

drkohler
2014-02-25, 20:00:10
herzlichen glückwunsch. du hast verstanden wie unternehmen in der größenordnung funktionieren

edit2: sorry für offtopic, aber ich kann es nicht leidern, wenn scheiße geschrieben wird, die einfach nicht stimmtUnd ich kann es nicht leiden, wenn XBox Trolle Tag für Tag, Woche for Woche, hinschreiben wie viel Geld MS mit den diversen XBoxen reinscheffelt. Das echte Leben sieht eben manchmal anders aus als man es sich wünscht. Und es ist nun mal Tatsache, das die XBoxen ein "Pet-Project" waren von einigen wenigen (aber entscheidenden) Leuten, während zunehmend die Opposition wuchs gegen die dauernde Geldverbrennung. Microsoft funktioniert halt letzten Endes wie der durschnittliche egoistische Millionär. Wenn der mal die erste Million hat, will er immer mehr und mehr

Deinorius
2014-02-25, 22:14:13
Diese Zahl konnte man damals in jeder (Finanz-)Zeitung, in jedem Blog, auf jeder Internetsite nachlesen. Ich kann nichts dafür, wenn du das damals nie Irgend wo gesehen hast. Der gesamte Werbeetat von MS ist natürlich deutlich höher als $1mia...


Ich glaube es dir ja. Mich hat es da nur gewundert. Es ist nur logisch, wenn man ein neues "Killerfeature" :ugly: entsprechend bewerben will.

Und es ist nun mal Tatsache, das die XBoxen ein "Pet-Project" waren von einigen wenigen (aber entscheidenden) Leuten, während zunehmend die Opposition wuchs gegen die dauernde Geldverbrennung. Microsoft funktioniert halt letzten Endes wie der durschnittliche egoistische Millionär. Wenn der mal die erste Million hat, will er immer mehr und mehr


Es wäre noch nicht mal ein wirkliches Problem. Die Situation mit der Xbox war klar. Einstieg in den Konsolenmarkt per Brute-Force Methode. Fand ich langfristig sinnvoll. Die Xbox 360 fand ich gut entwickelt, eine konsequente Fortführung. Hatte ich mir nie gekauft, aber aus anderen Gründen. RRoD war ein großer Fehler, aber sie haben es bravourös gemeistert.
Wenn sie diese Strategie mit der Xbox One fortgeführt hätten... Sind das wirklich die selben Menschen?

][immy
2014-02-25, 22:16:43
Träum weiter. Solche Grafiken sind reine Augenwischerei, weil sie die tatsächlichen Kosten verschleiern. Dazu nur drei Punkte:
1. Die zusätzliche Milliarde für den RROD wurde NICHT der Division berechnet.
2. Die ganzen Werbekosten für den Kinect-Start ($0.5mia, und auch die zweite Weihnachtsperiode $0.5mia) wurde hauptsächlich der "Corporate-PR" belastet.
3. Die horrenden Verluste in der "Cloud-Division" in jedem Quartal deuten deutlich darauf hin, dass die XBox-Serverkosten auch hier hinein gerechnet werden.
Es gibt schon einen Grund, warum (seit Jahren) immer wieder verschiedene Gruppierungen innerhalb MS das ganze XBox-Zeug begraben wollen. Dazu kommen wahrscheinlich auch die Mitarbeiter in den anderen Abteilungen, die Quartal für Quartal zusehen müssen, wie ihre Gewinne zum Stopfen der XBox-Verluste gebraucht werden. Und jetzt sieht es auch schon wieder so aus nach den ersten Preissenkungen (vorerst in England), als ob die Hardware der XBox One hohe Verluste einfahren wird.
du bist dir aber auch darüber bewusst, das viel von dem was ms intern ausgibt auch intern verrechnet wird, oder? wenn da z.b. $1mrd "investiert" wird heißt das noch lange nicht das auch wirklich $1mrd MS verlässt. intern entstehen kosten die man "gegenrechnet". da bleibt bei einem konzern wie ms nicht viel übrig. zudem war besonders Kinect 1 wirtschaftlich ein voller Erfolg mit 19m verkauften Einheiten.
im übrigen geht es bei der grafik um verluste und gewinne und nicht um einnahmen und ausgaben. d.h. jahre in denen man viel ausgegeben hat und trotzdem im plus sind, wurde entsprechend viel eingenommen. 2012 dürfte auch deshalb so mau aussehen weil hier viel in die entwicklung der xbone/kinect2 gesteckt wurde.

die xbox division ist schon längere zeit deutlich im plus, nur scheinbar willst du das nicht sehen. kosten für die cloud etc werden zwar auf andere divisionen umgerechnet, aber wie schon beschrieben, intern bezahlen sich die divisionen aber gegenseitig. besonders xbox live hat überhaupt kein problem mit der finanzierung, dank der gold-abos (zumindest zu xbox 360 zeiten). mit der xbone wird zwar mehr rechenzeit zur verfügung gestellt, dank der Cloud strategie von MS fallen hier aber nur On Demand kosten an, d.h. es bleibt mehr geld vom Abo am ende hängen. Wird nicht so viel Rechenzeit benötigt, wird diese auch "intern" weniger bezahlt.

die einzigen die wollen das die xbox sparte verkauft wird sind ein paar wenige aktionäre die auf eine schnelle provision aus sind. Das MS in kürzester Zeit in der Versekung verschwinden würde, wenn sie nur noch auf Geschäftskunden setzen würden, bedenken die nicht dabei oder wetten sogar darauf.
Die xbox sparte ist derzeit sehr gesund. Die geräte-sparte allgmein (WP & Surface) derzeit eher nicht.
komisch das sich einige leute hier da nicht eher um Sony sorgen machen, die auch wenn die PS4 sehr erfolgreich ist derzeit bergab gehen. immerhin ist der erfogl der PS4 hier ebenfalls hinderlich da sony ja draufzahlt. auf lange sich rentiert sich das zwar, aber die müssen erst mal so lange durchhalten können.

aber wir schweifen mal wieder vom thema ab, hier geht es um die technik, nicht um die finanzen der einzelnen unternehmen/divisionen

Coda
2014-02-25, 22:21:50
Wenn sie diese Strategie mit der Xbox One fortgeführt hätten... Sind das wirklich die selben Menschen?
Gerüchte die ich so gehört habe: Nein, größtenteils nicht.

prinz_valium
2014-02-25, 22:34:05
Diese Zahl konnte man damals in jeder (Finanz-)Zeitung, in jedem Blog, auf jeder Internetsite nachlesen. Ich kann nichts dafür, wenn du das damals nie Irgend wo gesehen hast. Der gesamte Werbeetat von MS ist natürlich deutlich höher als $1mia...

links. quellen etc.

es wird auch zur zeit täglich von allen möglichen blogs, internetseiten und nachrichten von dem kinderpornomarkt gesprochen, der 20 milliarden dollar groß ist und damit sogar größer als der gesamte legale.

nur weil irgendjemand (eine seite) etwas schreibt, muss das noch lange nicht wahr sein...

Und ich kann es nicht leiden, wenn XBox Trolle Tag für Tag, Woche for Woche, hinschreiben wie viel Geld MS mit den diversen XBoxen reinscheffelt. Das echte Leben sieht eben manchmal anders aus als man es sich wünscht. Und es ist nun mal Tatsache, das die XBoxen ein "Pet-Project" waren von einigen wenigen (aber entscheidenden) Leuten, während zunehmend die Opposition wuchs gegen die dauernde Geldverbrennung. Microsoft funktioniert halt letzten Endes wie der durschnittliche egoistische Millionär. Wenn der mal die erste Million hat, will er immer mehr und mehr


ich nehme die offiziellen und besten zahlen, die jemand (der nicht gerade bei ms arbeitet in der richtigen position arbeitet) haben kann. die, die der sec und den anteilseignern, wie es gesetzlich vorgeschrieben wird, mitgeteilt werden.

du haust einfach nur irgendwelche behauptungen raus. also wer du schon das wort troll in den mund nimmst, dann sag es gefälligst, wenn du vor einem spiegel stehst...

Bißchen Offtopic: Chef der XBox Sparte wird Ex-Nokia-CEO Elop... Also der, welcher die XBox Sparte einstampfen wollte :freak::biggrin:...

hättest du wenigstens die letzen paar posts im topic gelesen...
darum dreht sich die diskussion gerade

PH4Real
2014-02-25, 22:40:51
Bißchen Offtopic: Chef der XBox Sparte wird Ex-Nokia-CEO Elop... Also der, welcher die XBox Sparte einstampfen wollte :freak::biggrin:...

Rente
2014-02-25, 23:05:53
Das könnte interessant werden, eingestampft wird die One wohl eher nicht, aber eventuell wird dadurch der geplante Lebenszyklus ein gutes Stück kürzer als ursprünglich vorgesehen.
Daraus folgend bekommen wir dann eine XBox Two deutlich früher.

Ist natürlich Wunschdenken meinerseits, aber bei Elop ist doch eigentlich fast alles drin (inkl. der Einstampfung natürlich).

Deinorius
2014-02-25, 23:11:42
Gerüchte die ich so gehört habe: Nein, größtenteils nicht.


Ich hoffe es. Das würde wenigstens vieles erklären.

Mandalore
2014-02-26, 12:35:26
Keine Ahnung wer bei Microsoft saß während der Entwicklung der Xbox One, aber diese Leute müssen echt keine Ahnung haben. Angefangen vom Design bis zur Hardware, das ist gar nicht so Xbox-like. Wenn man bedenkt, dass die Xbox Konsolen bis heute eigentlich immer die besseren waren (von der hardware) ist das schon traurig. Ich glaube auch, dass die Xbox One spätestens nach 3-4 Jahren durch den Nachfolger ersetzt wird. Bei der Xbox 1 wars ja auch nicht anders, nur lag es damals nicht an der Hardware (hatte ja die beste von allen 3 Konsolen). Welch Ironie, aber es scheint sich wirklich zu bestätigen, dass nur jedes 2. Produkt von Microsoft was taugt xD:biggrin::freak:;D

Deinorius
2014-02-26, 13:04:25
Die müssen sich gedacht haben: "Hey, die Wii U war die schwächste. Heißt also, wie bauen eine schwächere und werden damit erfolgreicher!" :ugly:

backisl
2014-02-26, 19:02:31
Na schau mal einer an:

http://www.gamepro.de/xbox/spiele/xbox-one/titanfall/news/titanfall,49653,3033101.html

Neues DevKit?

Coda
2014-02-26, 19:12:56
Warum neues Devkit? Zusammenhang? Jede Xbox One ist ein Devkit.

dildo4u
2014-02-26, 19:18:15
Na schau mal einer an:

http://www.gamepro.de/xbox/spiele/xbox-one/titanfall/news/titanfall,49653,3033101.html

Neues DevKit?

Unsinn selbst wenn die Xbox GDDR5 hätte wäre dafür die GPU zu langsam,nur mehr Bandbreite alleine reicht nicht.

R260(1.5 TFlops) ist deutlich schneller Xbox One GPU.(1.31TFlops)
http://www.pcgameshardware.de/Titanfall-PC-257364/Specials/Titanfall-Beta-im-Benchmark-Parcours-Erste-Grafikkarten-Tests-1109493/

Der Entwickler hat schon gesagt 60fps werden nich geopfert.

backisl
2014-02-26, 19:31:43
Warum neues Devkit? Zusammenhang? Jede Xbox One ist ein Devkit.

Sorry! Natürlich keine neuen DevKits sondern neue/aktualisierte Development Software.

Lightning
2014-02-26, 19:31:46
Unsinn selbst wenn die Xbox GDDR5 hätte wäre dafür die GPU zu langsam,nur mehr Bandbreite alleine reicht nicht.

R260(1.5 GFlops) ist deutlich schneller Xbox One GPU.(1.2GFlops)
http://www.pcgameshardware.de/Titanfall-PC-257364/Specials/Titanfall-Beta-im-Benchmark-Parcours-Erste-Grafikkarten-Tests-1109493/

Der Entwickler hat schon gesagt 60fps werden nich geopfert.

Können ja noch Optimierungen an der Engine vorgenommen werden, oder zur Not Details reduziert werden. Auszuschließen ist das jedenfalls nicht.

dargo
2014-02-26, 19:39:02
Unsinn selbst wenn die Xbox GDDR5 hätte wäre dafür die GPU zu langsam,nur mehr Bandbreite alleine reicht nicht.

R260(1.5 GFlops) ist deutlich schneller Xbox One GPU.(1.2GFlops)
http://www.pcgameshardware.de/Titanfall-PC-257364/Specials/Titanfall-Beta-im-Benchmark-Parcours-Erste-Grafikkarten-Tests-1109493/

Der Entwickler hat schon gesagt 60fps werden nich geopfert.
Was soll uns jetzt dieser cpu-limitierter Test der PCGH und einer Betaversion genau sagen wenn du schon mit der Alu-Leistung um sich wirfst?

00-Schneider
2014-02-26, 19:40:48
Können ja noch Optimierungen an der Engine vorgenommen werden, oder zur Not Details reduziert werden. Auszuschließen ist das jedenfalls nicht.


Der Sprung von 792p(2xMSAA) zu 1080p scheint mir zu groß, vorallem weil schon die Beta auf One eher bescheiden performte. Von "rock solid" 60FPS war da nicht viel zu sehen...

1080p wären mehr als doppelt(!) so viele Pixel wie 792p. Leistungssteigerung um 100% innerhalb eines Monats? Bitch please!

Siehe: http://www.eurogamer.net/articles/digitalfoundry-2014-titanfall-beta-tech-analysis

"All of which leads us back to the assessment of the Xbox One version's fate. Titanfall is only a month shy of its final March release, and the tussle in this early beta is clearly between performance and effects-work. Given Respawn's reputation in the business, we'd hope frame-rate does indeed prove to be king. However, with recent suggestions of the internal resolution being pushed up higher to the 1600x900 mark, it's not clear where the GPU power can be found to maintain a large boost in pixel count while at the same time clearing up the frame-rate issues we find in the current 1408x792 version."

dildo4u
2014-02-26, 19:40:53
Was soll uns jetzt dieser cpu-limitierter Test der PCGH und einer Betaversion genau sagen wenn du schon mit der Alu-Leistung um sich wirfst?
Die GPU der Xbox ist so langsam das das Game auf dem System komplett GPU limitiert ist daher läuft das Game ja in 792p.

Können ja noch Optimierungen an der Engine vorgenommen werden, oder zur Not Details reduziert werden. Auszuschließen ist das jedenfalls nicht.
Das Game sieht schon in 792p so gruselig aus das die vermutlich die Details nicht noch weiter senken wollen um 1080p zu erreichen.

http://www.gamersyde.com/download_titanfall_before_after_scaler_patch_comparison-31525_en.html

-/\-CruNcher-/\-
2014-02-26, 19:48:12
Na schau mal einer an:

http://www.gamepro.de/xbox/spiele/xbox-one/titanfall/news/titanfall,49653,3033101.html

Neues DevKit?

Da werden wohl eher jetzt die Low Level experten von Microsoft und AMD mit einbezogen und sollen Respawn ein bischen unter die Arme greifen, das kannst du auch DevKit nenen wenn du willst ;)

Mandalore
2014-02-26, 19:55:51
Ist die GPU der X1 echt SO langsam?

Deathcrush
2014-02-26, 20:02:03
Wenn ich es recht in Erinnerung habe sind es so um die 40% auf dem Papier.

dildo4u
2014-02-26, 20:10:26
Ist die GPU der X1 echt SO langsam?
Vergleichbar mit 7770 die hat 1.28 TFlop(Xbox One 1.31TFlop),die PS4 GPU hat 1.84 TFlop.(Vergleichbar mit R7 265,1.89 TFlop)

http://www.anandtech.com/bench/product/1127?vs=1079

Lightning
2014-02-26, 20:11:20
Der Sprung von 792p(2xMSAA) zu 1080p scheint mir zu groß, vorallem weil schon die Beta auf One eher bescheiden performte. Von "rock solid" 60FPS war da nicht viel zu sehen...

1080p wären mehr als doppelt(!) so viele Pixel wie 792p. Leistungssteigerung um 100% innerhalb eines Monats? Bitch please!

Siehe: http://www.eurogamer.net/articles/digitalfoundry-2014-titanfall-beta-tech-analysis

"All of which leads us back to the assessment of the Xbox One version's fate. Titanfall is only a month shy of its final March release, and the tussle in this early beta is clearly between performance and effects-work. Given Respawn's reputation in the business, we'd hope frame-rate does indeed prove to be king. However, with recent suggestions of the internal resolution being pushed up higher to the 1600x900 mark, it's not clear where the GPU power can be found to maintain a large boost in pixel count while at the same time clearing up the frame-rate issues we find in the current 1408x792 version."

Ich sage ja nicht, dass ich das für wahrscheinlich halte.

Wenn ich es recht in Erinnerung habe sind es so um die 40% auf dem Papier.

Genauer gesagt sind es 1,84 TFLOPs vs. 1,31 TFLOPs. Allerdings sind bei der One momentan 10% für System und Kinect reserviert; damit wären es dann 55% Mehrleistung für die PS4-GPU.

just4FunTA
2014-02-26, 22:18:14
Die GPU der Xbox ist so langsam das das Game auf dem System komplett GPU limitiert ist daher läuft das Game ja in 792p.


Das Game sieht schon in 792p so gruselig aus das die vermutlich die Details nicht noch weiter senken wollen um 1080p zu erreichen.

http://www.gamersyde.com/download_titanfall_before_after_scaler_patch_comparison-31525_en.html

wobei ich bei der Grafik von titanfall schon eher mit 1080p gerechnet hätte, ist ja jetzt kein Ryse.

Coda
2014-02-26, 22:21:10
Titanfall ist aber 60 FPS, oder?

fondness
2014-02-26, 22:22:36
Ja, allerdings mit einigen drops.

][immy
2014-02-26, 22:43:32
wobei ich bei der Grafik von titanfall schon eher mit 1080p gerechnet hätte, ist ja jetzt kein Ryse.
naja, auch bei Ryse wäre wohl mit mehr Zeit und den neuen Möglichkeiten (mehr hardwareleistung freigegeben, bessere treiber/SDK) mehr möglich gewesen. aber dazu müsste wohl Coda etwas sagen können wenn er darf (was vermutlich nicht der fall sein wird).
bei manchen frameeinbrüchen habe ich eh eher das Gefühl das es am OS oder etwas ähnlichem liegt, weil dann meistens sogar nicht mal wirklich was los ist. da jedes spiel seine eigene OS-Version mit bringt, könnte sich da inzwischen einiges verbessert haben.
zwischen ryse und Titanfall gibt es noch einen nicht ganz unwichitigen Unterschied. Titanfall läuft mit 60fps und würde damit bei gleicher Auflösung nur die hälfte der rechenzeit pro Frame zur Verfügung haben.


warum wird/wurde eigentlich noch immer GPU rechenzeit für Kinect geblockt, sollte das nicht eigentlich über den chip in Kinect berechnet werden, oder sind hier die gerüchte korrekt, das der Kinect-treiber noch nicht komplett auf die eigene Hardware umgestellt wurde.

DinosaurusRex
2014-02-27, 06:20:08
Wolfenstein wird auf beiden Systemen mit 1080p60fps laufen. Die nutzen id Tech 5 und einen Forward Renderer, die PS360 Version läuft ebenfalls mit 60fps und 720p oder sowas. Ich hab mir Videos dazu angesehen, das wird in Deutschland bestimmt auf dem Index landen.

Quelle (http://www.onlysp.com/wolfenstein-the-new-order-will-run-at-1080p-60fps-on-xbox-one/)

Edit: Auf NeoGAF wird behauptet, dass das Spiel die die Grafik oder Bildqualität dynamisch verringern wird, um die 60fps halten zu können. Ob das stimmt, kann ich nicht sagen.

00-Schneider
2014-02-27, 11:52:47
Wolfenstein wird auf beiden Systemen mit 1080p60fps laufen. Die nutzen id Tech 5.

Edit: Auf NeoGAF wird behauptet, dass das Spiel die die Grafik oder Bildqualität dynamisch verringern wird, um die 60fps halten zu können. Ob das stimmt, kann ich nicht sagen.


War bei Rage(ebenfalls id Tech 5) auf Konsolen genauso. Lief in 720p mit 60FPS, und wenn viel los war, wurde die Auflösung dynamisch reduziert. War bei der PS3-Version gegenüber der 360-Version häufiger der Fall, so wird es dann wohl auch bei der One-Versionen gegenüber der PS4-Version werden.

dildo4u
2014-02-27, 14:33:47
Thief: Next Gen vs. Current Gen Graphics Comparison

http://youtu.be/XHsc7mI9wjA

XBox One geht wieder im Schwarz unter.

][immy
2014-02-27, 14:57:09
Thief: Next Gen vs. Current Gen Graphics Comparison

http://youtu.be/XHsc7mI9wjA

XBox One geht wieder im Schwarz unter.
ähm, die farben sind komplett anders, nicht nur das Schwarz. Aber soweit ich gelesen habe, lässt sich das mit dem Schwarzwert leicht beheben indem man eben nicht auf Full RGB stellt.


nunja, die Gamma werte sind mal wieder völlig unterschiedlich, das die nicht mal das bei einem vergleich nachjustieren. Die PS4 Version ist besonders am Anfang viel zu hell.

Franconian
2014-02-27, 15:00:02
Nix was man mit 1-2 Clicks am Gammaregler nicht ändern könnte. Die One gefällt mir irgendwie auch besser von den Farben.

Zudem hat die PS4 sehr starke Framedrops, teilweise um die Hälfte auf 15-20 FPS. Die One-Fassung läuft besser, wohl weil sie nur 900p nutzt.

Coda
2014-02-27, 15:05:12
Thief: Next Gen vs. Current Gen Graphics Comparison

http://youtu.be/XHsc7mI9wjA

XBox One geht wieder im Schwarz unter.
Sehr wahrscheinlich haben sie nicht HDMI auf "Full Range" gestellt. Die Einstellung findet sich in Settings.

http://compass.xboxlive.com/assets/9e/07/9e0760cb-c985-4d21-8868-41d8e67c49b5.png?n=one-settings-display-sound-tv-resolution-720-l-old.png

"TV (RGB Limited)" ist falsch für ein PC-Display und für Capturing.

Nix was man mit 1-2 Clicks am Gammaregler nicht ändern könnte. Die One gefällt mir irgendwie auch besser von den Farben.
Das kannst du eben nicht mit dem Gamma-Regler beheben, weil oben und unten Werte abgeschnitten werden.

-/\-CruNcher-/\-
2014-02-27, 15:21:37
Jep das gute alte TV/PC Analog/Digital space problem wird uns noch jahrhunderte begleiten ;)

Wie war das eigentlich Coda wurde euch bei Ryse von AMD und Microsoft unter die Arme gegriffen um die 900p zu packen oder dank low level alles euer know how ;) ?

Wow interessante entscheidung bei dem Scaler und der Schärfe Response aber es ist definitv so wir reagieren alle ällergisch auf Überschärfung egal wie minimal, aber genauso allergisch reagieren wir auch auf zu viel blurring, Problem ist nur ein Komprimiertes Video wird den tatsächlichen effekt nie 100% reproduzieren was ihr hier seht ist eine anahme wie es aussehen könnte für den Viewer ;)
Man wird diesen change letztendlich nur in Realtime seite an seite richtig vergleichen können, es ist schon etwas krass ein Komprimiertes Video zu releasen und zu sagen so sieht es aus ;)

Wolfenstein wird auf beiden Systemen mit 1080p60fps laufen. Die nutzen id Tech 5 und einen Forward Renderer, die PS360 Version läuft ebenfalls mit 60fps und 720p oder sowas. Ich hab mir Videos dazu angesehen, das wird in Deutschland bestimmt auf dem Index landen.

Quelle (http://www.onlysp.com/wolfenstein-the-new-order-will-run-at-1080p-60fps-on-xbox-one/)

Edit: Auf NeoGAF wird behauptet, dass das Spiel die die Grafik oder Bildqualität dynamisch verringern wird, um die 60fps halten zu können. Ob das stimmt, kann ich nicht sagen.

Sieh ist einfach WOW man muss nur das Workflow lernen und verstehen es ist halt ein verdammt anderer Approach aber der größte Vorteil ist halt Performance ohne Ende auf Client seite ;)
Dynamische Shader Anpassung ist Genial wenn man es richtig tuned :)

00-Schneider
2014-02-27, 16:10:59
Ich sage ja nicht, dass ich das für wahrscheinlich halte.


Wurde schon wieder dementiert: https://twitter.com/VinceZampella/statuses/438715090129281024

Zudem hat die PS4 sehr starke Framedrops, teilweise um die Hälfte auf 15-20 FPS. Die One-Fassung läuft besser, wohl weil sie nur 900p nutzt.


Totaler Unsinn.

IC3M@N FX
2014-02-27, 19:20:55
Ich hab mir mal ein neues Headset gegönnt mein Sennheiser Headset ist leider Kaputt gegangen.....
Hab mir das Wireless Headset 2.0 von Sony gekauft für 79,95€ über ein Kumpel hat 2 Stk. bestellt als Importware ich muß sagen ich bin Positiv überrascht vom Sound ich hab nicht viel erwartet aber der Sound ist wirklich gut für den Preis.
Wenn man bedenkt das ich locker 160€ für mein letztes Headset bezahlt hab der war zwar vom Sound bisschen besser, aber auch gleich doppelt so teuer.
Der begleit App mit passenden Profil für Shooter und der Kombination Virtual 7.1 Surround Einstellung hat mich extrem beeindruckt ich hab bei Multiplayer CoD Ghost wirklich alles gehört Positionsbestimmung über Sound von wo die Gegner kam :eek: sowas hab ich nicht erwartet für den Preis :D

Deathcrush
2014-02-27, 19:40:15
Totaler Unsinn.

So unsinnig ist das gar nicht, da sich die Berichte häufen

http://xbox-one.de/2867-thief-%E2%80%93-massive-framerate-einbr%C3%BCche-auf-ps4.html

dildo4u
2014-02-27, 19:45:46
Liegt vermutlich am Streaming das saugt öfter bei UE 3.0 Games,die GPU muss die 1080p/30fps locker packen.

270X(OC 7870) schafft 50fps ohne Mantle.
http://www.computerbase.de/news/2014-02/thief-im-grafikkarten-und-prozessor-test/

-/\-CruNcher-/\-
2014-02-27, 19:46:56
Ich hab mir mal ein neues Headset gegönnt mein Sennheiser Headset ist leider Kaputt gegangen.....
Hab mir das Wireless Headset 2.0 von Sony gekauft für 79,95€ über ein Kumpel hat 2 Stk. bestellt als Importware ich muß sagen ich bin Positiv überrascht vom Sound ich hab nicht viel erwartet aber der Sound ist wirklich gut für den Preis.
Wenn man bedenkt das ich locker 160€ für mein letztes Headset bezahlt hab der war zwar vom Sound bisschen besser, aber auch gleich doppelt so teuer.
Der begleit App mit passenden Profil für Shooter und der Kombination Virtual 7.1 Surround Einstellung hat mich extrem beeindruckt ich hab bei Multiplayer CoD Ghost wirklich alles gehört Positionsbestimmung über Sound von wo die Gegner kam :eek: sowas hab ich nicht erwartet für den Preis :D

Da fehlen mir jede Worte was du für Ohrmuscheln ausgibst :D

gnomi
2014-02-27, 19:52:29
Warten wir mal auf Digital Foundry.
Ich verstehe momentan nicht, wieso die Konsolen mit dem Spiel derartige Probleme haben sollen.
1080P@30 fps PS 4 und 900P Xbox One@30 fps stabil sind ja quasi das mindeste, was man erwarten darf.
Oder hapert es von der CPU Seite aus? :confused:

Kira
2014-02-27, 19:54:53
viel schlimmer: ich sehe da keine alzu großen unterschiede zwischen ps3 und ps4. habe es seit gestern da, aber kam noch nicht dazu.

MarcWessels
2014-02-27, 19:58:13
Die One-Fassung läuft besser, wohl weil sie nur 900p nutzt.Das wird wohl nicht der Grund sein. ;D

dildo4u
2014-02-27, 19:58:42
Warten wir mal auf Digital Foundry.
Ich verstehe momentan nicht, wieso die Konsolen mit dem Spiel derartige Probleme haben sollen.
1080P@30 fps PS 4 und 900P Xbox One@30 fps stabil sind ja quasi das mindeste, was man erwarten darf.
Oder hapert es von der CPU Seite aus? :confused:
UE 3.0 Streaming Problem siehe Bioshock Infinite dort hast du das Ruckeln selbst auf dem PC gehabt.

http://youtu.be/IAjQlJPlpTY

viel schlimmer: ich sehe da keine alzu großen unterschiede zwischen ps3 und ps4. habe es seit gestern da, aber kam noch nicht dazu.
Das ist Unsinn PS3 sieht erbärmlich aus den Anzug erkennt man gar nicht wieder.Überall sieht so aus als ob die Texturen nicht geladen wurden was auch die Umgebung betrifft.

Arme,Bauch etc mehr als Deutlich.

http://abload.de/img/output_ujwbtzdhxmb.gif

IC3M@N FX
2014-02-27, 20:05:51
Da fehlen mir jede Worte was du für Ohrmuscheln ausgibst :D

Bei Sound und Bild gebe ich gerne mehr aus aber das muß dann auch Sinn machen ich wollte diesmal nicht so viel Geld ausgeben daher war 79.95€ ein guter Kompromiss von Geld=Leistung :D

Finch
2014-02-27, 20:11:19
Meins ist auf dem Weg zu mir. Ich bin gespannt wie es sein wird.

00-Schneider
2014-02-27, 21:00:25
So unsinnig ist das gar nicht, da sich die Berichte häufen

http://xbox-one.de/2867-thief-%E2%80%93-massive-framerate-einbr%C3%BCche-auf-ps4.html


Die Quelle ist jetzt nicht wirklich dein Ernst, oder? ;D

Trevor
2014-02-27, 21:10:38
---

Deathcrush
2014-02-28, 00:07:01
Die Quelle ist jetzt nicht wirklich dein Ernst, oder? ;D

Wenn dir ein PS4 Review lieber ist

http://www.playstationlifestyle.net/2014/02/24/thief-review-ps4/

Speaking of jolting around, the framerate for Thief on PS4 is something that people will be talking about. I traditionally don’t put much stock in graphics or framerate, as I prefer to focus on gameplay and story first, but as each cutscene dipped in framerate to what appeared to be 10-15 fps, it was hard to overlook. Gameplay had a few dips as well, but the cutscenes looked awful.

][immy
2014-02-28, 00:21:36
hier noch mal etwas interessantes zum thema speicherbandbreite (grad bei b3d gesehen)
http://i.imgur.com/0LOwYux.jpg

je mehr bandbreite sich die CPU schnappt, umso mehr bandbreite geht gleichzeitig verloren. das hieße das die CPU bei voller auslastung die GPU ausbremsen könnte. in der grafik nehmen die CPUs ja maximal die hälfte der zur verfügung stehenden bandbreite ein. bei 8 CPUs könnte ich mir gut vorstellen, das hier früher oder später die maximale bandbreite durchaus mal geschluckt wird.

wohl auch ein grund warum ms doch noch den esram eingebaut hat. man mag sich nicht vorstellen wie diese grafik aussehen würde, wenn man nur den DDR3 speicher hätte. durch den esram hat man zumindest schon mal eine zugesicherte bandbreite für die GPU.

edit: die grafik könnte man übrigens auch schön auf APUs umwälzen. diesen steht aktuell nur DDR3 mit 128 Bit anbindung zur verfügung. da ist es wohl kein wunder das diese keine wirklich großen sprünge mehr machen können (außer eventuell über embedded dram)

del_4901
2014-02-28, 03:57:52
"TV (RGB Limited)" ist falsch für ein PC-Display und für Capturing.Andersrum macht es vllt. Sinn. Wenn das Capture Device noch auf limited gestellt ist.

DinosaurusRex
2014-02-28, 08:26:24
[immy;10128032']
wohl auch ein grund warum ms doch noch den esram eingebaut hat. man mag sich nicht vorstellen wie diese grafik aussehen würde, wenn man nur den DDR3 speicher hätte. durch den esram hat man zumindest schon mal eine zugesicherte bandbreite für die GPU.


Ich glaube das diese Annahme Zeitverschwendung ist. Microsoft hat sich ja allem Anschein nach primär aufgrund der benötigten Speichermenge für DDR3 entschieden. Mal angenommen sie hätten nur 4GB gebraucht, glaubst du, die hätten sich für 256Bit DDR3 und eSRAM entschieden? Der DDR3-Pool unterliegt ja sicher dem genau gleichen Effekt, also je mehr die CPU verbraucht (die bei Microsoft übrigens höher getaktet ist), desto weniger bleibt der GPU, nur mit dem Unterschied, dass der GDDR5-Pool in der PS4 mehr als doppelt so schnell ist. Nix als DDR3 wäre da eine Katastophe. Das die 32MB eSRAM diesen Verlust ausgleichen ist klar, aber ob das am Ende ausreicht um sich sogar einen Vorteil zu verschaffen?

gnomi
2014-02-28, 09:22:48
UE 3.0 Streaming Problem siehe Bioshock Infinite dort hast du das Ruckeln selbst auf dem PC gehabt.


Streaming speziell in Thief PC sieht man eigentlich nur minimal bei Levelübergängen.
Es wäre halt zu klären, ob die heftigen Einbrüche auf Konsolen nur zu Beginn eines neu geladenen Level Abschnittes auftreten?
Weiter unten war ja auch von niedrigen Bildwiederholraten in Zwischensequenzen die Rede.
Diese laufen sicherlich etwas langsamer, da sie eben GPU seitig anspruchsvoller als die ingame Grafik sind.
Alles in allem ist Thief eben auch keine Next Gen Entwicklung.
Das ganze muss auch auf PS3 und 360 noch irgendwie laufen.
UE 3 ist top, aber eben uralt.
Ich hoffe, wir sehen dann bei der UE 4 endlich eine entsprechende Weiterentwicklung mit standardisierten Verbesserungen Out of the Box.

][immy
2014-02-28, 18:54:18
Ich glaube das diese Annahme Zeitverschwendung ist. Microsoft hat sich ja allem Anschein nach primär aufgrund der benötigten Speichermenge für DDR3 entschieden. Mal angenommen sie hätten nur 4GB gebraucht, glaubst du, die hätten sich für 256Bit DDR3 und eSRAM entschieden? Der DDR3-Pool unterliegt ja sicher dem genau gleichen Effekt, also je mehr die CPU verbraucht (die bei Microsoft übrigens höher getaktet ist), desto weniger bleibt der GPU, nur mit dem Unterschied, dass der GDDR5-Pool in der PS4 mehr als doppelt so schnell ist. Nix als DDR3 wäre da eine Katastophe. Das die 32MB eSRAM diesen Verlust ausgleichen ist klar, aber ob das am Ende ausreicht um sich sogar einen Vorteil zu verschaffen?
nunja, warum ms das letztendlich gemacht hat, darüber ließe sich sicherlich streiten, wird aber garantiert nicht nur einen grund gehabt haben. war ja bei der xbox 360 schon genau so, das man trotz damals schnellem GDDR3 Speicher trotzdem noch edram verbaut hat um den vereinten speicher zu schonen.
und ja, für ddr3 speicher würde das diagramm wohl recht ähnlich aussehen, wobei die einbrüche verhältnismäßig nicht so stark sein dürften. ddr3 dürfte hier etwas resistenter sein aber trotzdem spürbar langsamer dadurch werden. trotzdem hat natürlich GDDR5 speicher hier noch einen ziemlichen bandbreitenvorteil. man verliert ja der grafik nach "nur" 20Gb/s wenn die cpu 10GB/s an bandbreite benötigt.

Coda
2014-02-28, 20:43:15
Andersrum macht es vllt. Sinn. Wenn das Capture Device noch auf limited gestellt ist.
Hast recht.

dildo4u
2014-03-01, 11:33:10
Next-Gen Face-Off: Thief

http://www.eurogamer.net/articles/digitalfoundry-2014-thief-next-gen-face-off

Each version is guilty of genuine frame-rate drops too, especially when traversing main roads in The City. This manifests more aggressively on Microsoft's platform, where drops down to 20fps are possible, as compared to 25fps on PS4 - but in amongst the frame-pacing issues this is trivial. The stimulus seems to be interactions with multiple guards, and travelling at high speeds around the game world - neither of which are necessarily the core tenets of a stealth game. In either case, the PS4 version technically holds steadier at these particular stress points, but the end result still appears choppy.

FPS sind besser auf PS4 trotz 1080p also wurde mal wieder Bullshit verbreitet.

Trevor
2014-03-01, 11:38:42
---

Blediator16
2014-03-01, 11:47:02
Der Port bleibt trotzdem beschissen. Wie kann man auf nextgen konsolen mit einer uralt engine 30fps cappen. PS4 nichtmal gescheites AF. Alsob die Leistung nicht reichen würde.

dildo4u
2014-03-01, 11:56:10
Nixxes hat diesmal leider nur die PC Version geportet,wie man an Tomb Raider sieht hätten sie vermutlich ne bessere PS4 Version hinbekommen.

Hier könnte übrigens der Grund für No AF auf PS4 sein beißt sich das nicht mit parallax mapping?

http://abload.de/img/the_gapqlpov.png

dargo
2014-03-01, 11:58:25
Next-Gen Face-Off: Thief

http://www.eurogamer.net/articles/digitalfoundry-2014-thief-next-gen-face-off



FPS sind besser auf PS4 trotz 1080p also wurde mal wieder Bullshit verbreitet.
Naja... ich sehe bei XBox One min. 20fps, bei PS4 min. 23fps. Beide glänzen in diesem Spiel nicht gerade mit guter Performance. Ziemlich schwache Vorstellung bei diesem Titel.

Botcruscher
2014-03-01, 12:04:58
Alsob die Leistung nicht reichen würde.
Reicht doch auch nicht.
Nixxes hat diesmal leider nur die PC Version geportet,wie man an Tomb Raider sieht hätten sie vermutlich ne bessere PS4 Version hinbekommen.
Kostet Geld. Wenn die Prognosen nicht gut sind lohnt das nicht.

dildo4u
2014-03-01, 12:06:02
Reicht doch auch nicht.
AF ist nich aktiv wegen dem POM.Das selbe Problem gabs mit Crysis auf dem PC.AF alleine kostet kaum was auf einer aktuellen GPU.

dargo
2014-03-01, 12:15:11
Streamingprobleme bei der PS4 (die XBox One habe ich im Vergleich noch nicht geschaut)?

http://s1.directupload.net/images/140301/33i5pr23.jpg

http://s1.directupload.net/images/140301/qeybf34w.jpg

Nixxes hat diesmal leider nur die PC Version geportet,wie man an Tomb Raider sieht hätten sie vermutlich ne bessere PS4 Version hinbekommen.

Zum Glück. Denn nur so lässt sich die Leistungsfähigkeit der neuen Konsolen besser zum PC bei Multiplattform einschätzen.

dildo4u
2014-03-01, 12:25:02
Wie zum Glück?Die Ports sind abfall da kann man gar nix rauslesen.Wobei Cross-Gen Games eh egal sind da hoffentlich alles ab Ende 2014 mit UE4.0,FB3 etc kommt.

Botcruscher
2014-03-01, 12:29:19
Diesen "Abfall" bekommt ja zum Glück sonst nur der PC vorgesetzt... Ja ja...

IC3M@N FX
2014-03-01, 12:34:49
Unfähigkeit der Programmierer halt zum Glück hab ich für das Game nur 38€ PS4 Version bezahlt bei Amazon nimm 3 zahl 2 Aktion +10€ Gutschein den mehr ist das Game nicht Wert :)

dargo
2014-03-01, 12:36:07
Wie zum Glück?
Nur eine 1:1 Portierung lässt sich vernünftig vergleichen, eben ohne Extrawürste.

dildo4u
2014-03-01, 12:41:55
Stimmt nur leider haben nicht die selben Leute an allen Drei Versionen gearbeitet.Nixxes scheint Technisch mehr auf dem Kasten zu haben als Eidos Montreal,siehe auch die sehr gute PS4 Version von Tomb Raider.

dargo
2014-03-01, 12:46:12
Streamingprobleme bei der PS4 (die XBox One habe ich im Vergleich noch nicht geschaut)?

http://s1.directupload.net/images/140301/33i5pr23.jpg

http://s1.directupload.net/images/140301/qeybf34w.jpg


Die XBox One hat auch Streamingprobleme. Allerdings nur in der ersten Szene.
http://www.youtube.com/watch?v=ZK_SVRCLNX0

Stimmt nur leider haben nicht die selben Leute an allen Drei Versionen gearbeitet.Nixxes scheint Technisch mehr auf dem Kasten zu haben als Eidos Montreal,siehe auch die sehr gute PS4 Version von Tomb Raider.
Das ist für mich kein Indikator für ein besseres Team. Die hatten einfach nur zusätzliches Budget. ;)

dildo4u
2014-03-01, 12:49:49
Wegen AMD das könnte sogar sein.

dargo
2014-03-01, 12:54:16
Hier könnte übrigens der Grund für No AF auf PS4 sein beißt sich das nicht mit parallax mapping?

http://abload.de/img/the_gapqlpov.png
Glaube ich nicht. Beim PC gehts mit POM doch auch.

http://s14.directupload.net/images/140301/9f57jjri.jpg

Wahrscheinlich wollte man halt paar ms einsparen und war der Meinung diese wären wo anders besser investiert.

dildo4u
2014-03-01, 12:58:24
Glaube ich nicht. Beim PC gehts mit POM doch auch.

http://s14.directupload.net/images/140301/9f57jjri.jpg

Wahrscheinlich wollte man halt paar ms einsparen und war der Meinung diese wären wo anders besser investiert.
Wie gesagt das ergibt kein Sinn AF kostet gegen Null auf GCN 1.1.Ist ja nicht so das sie drauf achten das es immer mit 30fps läuft,ob es nun auf 25 oder 24fps dropt spielt kaum noch ne Rolle.

Coda
2014-03-01, 13:03:22
Wie gesagt das ergibt kein Sinn AF kostet gegen Null auf GCN 1.1.
Nö.

dargo
2014-03-01, 13:05:39
Wie gesagt das ergibt kein Sinn AF kostet gegen Null auf GCN 1.1.
Quelle?

dildo4u
2014-03-01, 13:06:08
Ich meine das billige AF nich HQ.

The results indicate that 2xAF is a 1% performance hit, 4xAF is a 3% hit, 8xAF is a 5% hit and 16xAF is a 7% hit.

http://www.rage3d.com/reviews/video/amd_hd7970_launch_review/index.php?p=6

8XAF 5% wären 1.5fps wenn man auf 30fps zielt.

Coda
2014-03-01, 13:10:35
Trotzdem falsch. Vor allem kommt es auch auf die Shader an, ein Benchmark ist völlig unzureichend:
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/7/

Schon 4xAF kann 10% kosten. 16xAF 20%. Da ist nichts "for free". Nichtmal ansatzweise.

dargo
2014-03-01, 13:26:22
Trotzdem falsch. Vor allem kommt es auch auf die Shader an, ein Benchmark ist völlig unzureichend:
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/7/

Schon 4xAF kann 10% kosten. 16xAF 20%. Da ist nichts "for free". Nichtmal ansatzweise.
Jup... da muss man immer aufpassen mit Pauschalisierungen.

00-Schneider
2014-03-01, 13:29:45
Schon 4xAF kann 10% kosten. 16xAF 20%. Da ist nichts "for free". Nichtmal ansatzweise.


Kann man das was Allgemeingültiges bezüglich UE3 sagen? Ist ja die Engine von Thief 4.

Ansonsten sollte POM(PS4) heutzutage kein Grund mehr sein, kein AF zu benutzen.

Coda
2014-03-01, 13:34:00
Kann man das was Allgemeingültiges bezüglich UE3 sagen?
Nein.

dildo4u
2014-03-01, 13:34:01
Trotzdem falsch. Vor allem kommt es auch auf die Shader an, ein Benchmark ist völlig unzureichend:
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/7/

Schon 4xAF kann 10% kosten. 16xAF 20%. Da ist nichts "for free". Nichtmal ansatzweise.
Wo hast du die 10% für 4XAF her?Dort sehe ich max was um 6%.

TheGoD
2014-03-01, 13:36:06
Trotzdem falsch. Vor allem kommt es auch auf die Shader an, ein Benchmark ist völlig unzureichend:
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/7/

Schon 4xAF kann 10% kosten. 16xAF 20%. Da ist nichts "for free". Nichtmal ansatzweise.Ok, ich war auch überzeugt das AF bereits seit der x1800/7800 GTX Generation praktisch nix mehr kostet. Gut zu wissen das dem nicht so ist (wobei ich dennoch nicht ohne 8* spielen würde).
Nur eine 1:1 Portierung lässt sich vernünftig vergleichen, eben ohne Extrawürste.Richtig, wobei es selbst dann noch auf den Portierungs- bzw. Optimierungsaufwand ankommt.
Stimmt nur leider haben nicht die selben Leute an allen Drei Versionen gearbeitet.Ich denke das Problem sind weniger die Entwicklerteams sondern eher die Unfähigkeit der Engine die acht Kerne auszunutzen. Auf einer AMD CPU die zwischen 1.6 - 1.75 GHZ getaktet ist dürfte Thief auf dem PC auch scheiße laufen Und ja, das Spiel läuft scheiße IMO. Ähnlich sieht es mit Titanfall aus. Bereits eine 100 Euro CPU und eine 100 Euro GPU erbringen dort eine höhere Leistung als eine XBone.
Nixxes scheint Technisch mehr auf dem Kasten zu haben als Eidos Montreal,siehe auch die sehr gute PS4 Version von Tomb Raider.Ich stimme hier Dargo zu, Tomb Raider sieht auf den Konsolen auf Grund des zusätzlichen Budgets besser aus als wegen den Fähigkeiten des Teams. Im Prinzip handelt es sich doch nur um verbesserten Content sowie bessere Performance auf Grund des neuen AMD-Codes für die Haarberechnung.

dargo
2014-03-01, 13:39:42
Richtig, wobei es selbst dann noch auf den Portierungs- bzw. Optimierungsaufwand ankommt.

Klar... das gilt aber dann auch für beide Seiten.


Ich denke das Problem sind weniger die Entwicklerteams sondern eher die Unfähigkeit der Engine die acht Kerne auszunutzen. Auf einer AMD CPU die zwischen 1.6 - 1.75 GHZ getaktet ist dürfte Thief auf dem PC auch scheiße laufen.
Mit DX vielleicht, mit Mantle wohl eher nicht. ;) Zumindest wenn du einen Bulldozer meinst.

00-Schneider
2014-03-01, 13:40:41
Ich denke das Problem sind weniger die Entwicklerteams sondern eher die Unfähigkeit der Engine die acht Kerne auszunutzen. Auf einer AMD CPU die zwischen 1.6 - 1.75 GHZ getaktet ist dürfte Thief auf dem PC auch scheiße laufen Und ja, das Spiel läuft scheiße IMO. Ähnlich sieht es mit Titanfall aus.


Thief 4 und Titanfall sind auch zwei schlechte Beispiele. BF4 mit 64 Spielern zeigt, dass die PS4 genug CPU Power für neue Spiele hat.

Was da bei Thief 4 jetzt so extrem die CPU limitieren sollte, sehe ich persönlich nicht.

dargo
2014-03-01, 13:54:22
Thief 4 und Titanfall sind auch zwei schlechte Beispiele. BF4 mit 64 Spielern zeigt, dass die PS4 genug CPU Power für neue Spiele hat.

Eben nicht. Die PS4 ist bei BF4 im MP teilweise deutlich unter 60fps. Zudem kann mir immer noch keiner beantworten ob die PS4 Version die gleichen Ultra-Details fährt wie die PC Version. Bei der Absenkung der Details lässt sich nicht nur GPU-Last einsparen, die CPU-Last fällt auch. Das einzige was die PS4 noch retten kann ist HSA. Damit lässt sich sicherlich wieder etwas CPU-Zeit einsparen indem man bsw. die Grasphysik auf die GPU auslagert. HSA ist aber noch Zukunftsmusik. Das dürfte erst mit BF5 kommen.

dildo4u
2014-03-01, 13:55:30
Das Game läuft extra schlecht auf AMD daher wundert mich die Konsolen Performance nicht,es skaliert nicht sonderlich mit vielen Cores FX 4300 ist fast so schnell wie FX 8350.Selbst der FX 8150 hat Probleme immer 30 zu halten kein Wunder das AMD Mantle für den Titel wollte.

http://abload.de/img/http--www.gamegpu.ru-f8st4.jpg

Wenn man das so überdenkt performen die Netbook Cores ums x fache besser als die PC Version unter DX11.

Das Komische ist DCUO hat grad ein 60fps Patch auf PS4 bekommen,die Engine muss also nich zwingend kacke laufen.Die Level sind dort auch wesentlich größer und es sind viel mehr NPC's und Spieler unterwegs.

dargo
2014-03-01, 13:59:00
Das Game läuft extra schlecht auf AMD daher wundert mich die Konsolen Performance nicht.Selbst der FX 8150 hat Probleme immer 30 zu halten kein Wunder das AMD Mantle für den Titel wollte.

http://abload.de/img/http--www.gamegpu.ru-f8st4.jpg

Wenn man das so überdenkt performen die Netbook Cores ums x fache besser als die PC Version unter DX11.
Weil DX mit low level der Konsolen im CPU-Limit so gut vergleichbar ist. :rolleyes: Spätestens die letzten Mantlebenchmarks dürften dir das Gegenteil beweisen. Und selbst Mantle schätze ich nicht gleich bei der Effizienz ein als low level bei Konsolen. Dennoch schon mal deutlich besser als DX11.0.

Übrigens sieht man ganz gut, dass das Spiel offenbar momentan noch Probleme mit HT und 4 Cores hat. Warum der SB-E davon nicht betroffen ist verstehe ich allerdings nicht so ganz. Interessant wäre hier noch ein Vergleich mit einer AMD-Graka.

TheGoD
2014-03-01, 14:02:23
Thief 4 und Titanfall sind auch zwei schlechte Beispiele. BF4 mit 64 Spielern zeigt, dass die PS4 genug CPU Power für neue Spiele hat.Richtig! Wobei BF4 auch eine Engine nutzt die (auch auf dem PC) sehr gut mit zusätzlichen Kernen umgehen kann. Ich habe bezüglich der UE3 jetzt nur Unreal Tournament gefunden, welches natürlich bereits veraltet ist, jedoch bringen dort vier statt zwei Kerne gerade mal 10 - 20 % zusätzlicher Performance.

Was da bei Thief 4 jetzt so extrem die CPU limitieren sollte, sehe ich persönlich nicht.Lass mich mal anders fragen: Was soll den sonst die schlechte Performance auslösen im Bezug auf vergleichbare PC GPU's auslösen?

dildo4u
2014-03-01, 14:06:59
Weil DX mit low level der Konsolen im CPU-Limit so gut vergleichbar ist. :rolleyes: Spätestens die letzten Mantlebenchmarks dürften dir das Gegenteil beweisen. Und selbst Mantle schätze ich nicht gleich bei der Effizienz ein als low level bei Konsolen. Dennoch schon mal deutlich besser als DX11.0.

Warum sollte Mantle das Gegenteil beweisen?Es zeigt doch genau das was ich meinte Konsolen sind deutlich effizienter,da es keine dicken API/Treiber layer gibt.Die Konsolen haben aber immer diesen Vorteil PC nur wenn der Entwickler sich die extra Arbeit mit Mantle macht.

TheGoD
2014-03-01, 14:07:00
Weil DX mit low level der Konsolen im CPU-Limit so gut vergleichbar ist. Die 30% die Mantel in einigen Spielen bringt machen aus 30 aber auch keine 60 FPS!

Davon abgesehen hängt dies jedoch auch immer von den fähigkeiten der Coder und vor allem auch vom Spiel ab. Mantel (und entsprechende Low-Level-Optimierungen auf Konsole) reduzieren die Kosten eines Draw-Calls, jedoch können natürlich auch andere Dinge die CPU auslasten.

00-Schneider
2014-03-01, 14:11:13
Lass mich mal anders fragen: Was soll den sonst die schlechte Performance auslösen im Bezug auf vergleichbare PC GPU's auslösen?


Schlechte Programmierung, wegen zu wenig Zeit/Können?

TheGoD
2014-03-01, 14:16:02
Schlechte Programmierung, wegen zu wenig Zeit/Können?Auf Quasi PC Hardware? Ergibt für mich wenig Sinn, gerade wenn ich mir anschaue dass Umsetzungen für MacOS und Linux in der Regel (ohne viel Budget) ähnlich gut laufen wie die Windows Version (zumindest vor irgendwelchen Treiber-Optimierungen).

Die von Dildo verlinkten Benchmarks untermauern dies auch.

Shaft
2014-03-01, 14:20:09
Nixxes hat diesmal leider nur die PC Version geportet,wie man an Tomb Raider sieht hätten sie vermutlich ne bessere PS4 Version hinbekommen.

Hier könnte übrigens der Grund für No AF auf PS4 sein beißt sich das nicht mit parallax mapping?

http://abload.de/img/the_gapqlpov.png


Nicht nur fehlendes Af, POm fehlt auch noch bei der XO. :rolleyes:


Streamingprobleme könnten auch von der schrottigen Engine kommen und wahrscheinlich unfähigkeit der Entwickler.

Red Orchestra 2 hat auch diese Probleme.

dildo4u
2014-03-01, 14:28:44
Das Streaming sollte man auf Jedenfall nicht mehr sehen,da die Games auf der PS4 komplett von der Festplatte laufen und man genug Arbeit's bzw Texturspeicher hat.

dargo
2014-03-01, 14:41:11
Warum sollte Mantle das Gegenteil beweisen?Es zeigt doch genau das was ich meinte Konsolen sind deutlich effizienter,da es keine dicken API/Treiber layer gibt.Die Konsolen haben aber immer diesen Vorteil PC nur wenn der Entwickler sich die extra Arbeit mit Mantle macht.
Deutlich effizienter bisher nur beim CPU-Limit soweit ich das richtig überblicke. Bei DX9 (also der alten Konsolengeneration) war der Vorteil diesbezüglich noch viel größer. Mit jeder neuen DX API schrumpft der Vorteil von low level @Konsole. Deshalb bin ich auch so froh, dass langsam DX9 ausstirbt. Das mit Mantle @PC finde ich nicht tragisch. Da wo satt CPU-Zeit benötigt wird ist auch Mantle gekommen. Wie das in Zukunft aussieht muss man abwarten. Für alles andere sind die aktuellen Mainstream-CPUs mehr als ausreichend.

Die 30% die Mantel in einigen Spielen bringt machen aus 30 aber auch keine 60 FPS!

Öhm... bisher gibts Mantle erstmal nur für BF4. Und dort messe ich zwischen DX11.1 und Mantle ca. +90-100% Leistung im CPU-Limit mit Tahiti wo laut AMD für diese GPU erst Mantleoptimierungen mit späteren Treibern kommen sollen. Gegenüber DX11.0 ist Mantle nochmals schneller.

IC3M@N FX
2014-03-01, 15:42:25
Mal ne frage wie kann es sein das beide Konsolen so eine immensen Stromverbrauch haben in Idle und BlueRay/DVD Playback.
Ich meine beide haben eine x86 CPU und beide haben Jaguar Kerne die relativ Modern daherkommt mit ihren Stormspar Mechanismen.

Die Jaguar Prozessorarchitektur hat ja diverse Stormspar Mechanismen.
Laut AMD kann ja Jaguar Clock Gating in allen Betriebszuständen. Dabei wird bei den Funktionseinheiten, die für das Ausführen eines Befehls nicht benötigt werden, gar kein Taktsignal mehr angelegt sie können also abgeschaltet werden. Laut AMDs Messungen mit typischen Anwendungen zufolge können 92 Prozent aller eigentlich durch einen Taktimpuls angestoßenen Schaltvorgänge so vermieden werden.
Die haben ja auch andere Stormspar Mechanismen die man auch bei anderen Prozessoren kennt wie dynamisch Multiplikator senken und Spannung senken bei bestimmten Punkten wenn die Last niedrig ist wie z.b Film schauen usw. wie kann es sein das nichts davon funktioniert. Was für ein Grund hätte Sony und Microsoft sowas nicht ihren Betriebsystemen zu intrigieren das hat doch einen immensen Mehrwert dadurch wenn es funktionieren würde.

][immy
2014-03-01, 15:52:06
Mal ne frage wie kann es sein das beide Konsolen so eine immensen Stromverbrauch haben in Idle und BlueRay/DVD Playback.
Ich meine beide haben eine x86 CPU und beide haben Jaguar Kerne die relativ Modern daherkommt mit ihren Stormspar Mechanismen.

Die Jaguar Prozessorarchitektur hat ja diverse Stormspar Mechanismen.
Laut AMD kann ja Jaguar Clock Gating in allen Betriebszuständen. Dabei wird bei den Funktionseinheiten, die für das Ausführen eines Befehls nicht benötigt werden, gar kein Taktsignal mehr angelegt sie können also abgeschaltet werden. Laut AMDs Messungen mit typischen Anwendungen zufolge können 92 Prozent aller eigentlich durch einen Taktimpuls angestoßenen Schaltvorgänge so vermieden werden.
Die haben ja auch andere Stormspar Mechanismen die man auch bei anderen Prozessoren kennt wie dynamisch Multiplikator senken und Spannung senken bei bestimmten Punkten wenn die Last niedrig ist wie z.b Film schauen usw. wie kann es sein das nichts davon funktioniert. Was für ein Grund hätte Sony und Microsoft sowas nicht ihren Betriebsystemen zu intrigieren das hat doch einen immensen Mehrwert dadurch wenn es funktionieren würde.
die frage stelle ich mir auch andauerend, obwohl es halt nicht mehr so krass ist wie bei der ps3/xbox360. die konsolen mussten raus und waren software-seitig noch nicht fertig, daher vermute ich mal das die stromsparfunktionen keine prio hatten.
ich habe eine horizon box von samsung, da drin steckt ein atom (soweit ich weiß auf jedenfall nix wildes) und das ding zieht dauerhaft 60watt. stellt man den stromspar modus ein, geht es auf ~40 runter, dafür stürzt es kurze zeit später ab. und im niedrigtsen modus macht es quasi nix mehr (auch kein wlan/internet/telefon). was ich damit sagen will.. stromsparfunktionen haben außer bei Handys niergends mehr priorität. eventuell kommt da mal was mit ein paar software-updates, aber vielleicht auch erst mit neuen konsolen-revisionen.

dargo
2014-03-01, 17:10:08
[immy;10129707']die frage stelle ich mir auch andauerend, obwohl es halt nicht mehr so krass ist wie bei der ps3/xbox360. die konsolen mussten raus und waren software-seitig noch nicht fertig, daher vermute ich mal das die stromsparfunktionen keine prio hatten.
ich habe eine horizon box von samsung, da drin steckt ein atom (soweit ich weiß auf jedenfall nix wildes) und das ding zieht dauerhaft 60watt. stellt man den stromspar modus ein, geht es auf ~40 runter, dafür stürzt es kurze zeit später ab. und im niedrigtsen modus macht es quasi nix mehr (auch kein wlan/internet/telefon). was ich damit sagen will.. stromsparfunktionen haben außer bei Handys niergends mehr priorität. eventuell kommt da mal was mit ein paar software-updates, aber vielleicht auch erst mit neuen konsolen-revisionen.
Das ist doch Quatsch. Schau dir eine aktuelle Haswell-CPU an. Beim Idlen zieht die bei mir mit 3,7Ghz und 1,0459 Vcore dank C1E und C3 gerade mal 7W.

00-Schneider
2014-03-02, 10:59:57
Trotzdem falsch. Vor allem kommt es auch auf die Shader an, ein Benchmark ist völlig unzureichend:
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/7/

Schon 4xAF kann 10% kosten. 16xAF 20%. Da ist nichts "for free". Nichtmal ansatzweise.


Welche Auflösung und Detailstufe wird da benutzt? Wenn alles so niedrig wie möglich angesetzt ist, hat das keine Praxisrelevanz da:

http://forum.beyond3d.com/showpost.php?p=1831197&postcount=5728

Coda
2014-03-02, 11:17:51
Ich habe keinen Grund zur Annahme, wieso AF in hohen Auflösungen prozentual billiger sein sollte. Man würde eher das Gegenteil erwarten, weil relativ weniger Speicher-Bandbreite vorhanden ist.

Fakt ist, meine Erfahrung zeigt klar das Gegenteil.

gnomi
2014-03-02, 11:33:57
Ich kann mir auch vorstellen, dass gerade auf den Konsolen AF schon einen nicht zu unterschätzenden Performanceeinfluss haben dürfte.
Ich kenne nicht ein Spiel, wo das Feature verschwenderisch eingesetzt wird. (zumeist eher gar nicht :( )
Auf dem PC hat man ja zumeist immer etwas Leistung übrig, wenn man deutlich über den empfohlenen Systemanforderungen ist.
AF ist dann auch mit High Quality gar kein Problem.
Der letzte Chip, wo ich auf 4-8AF zurück ging, war die zu ihrer Zeit in DX 9 leider sehr schwache Geforce FX Serie.

dildo4u
2014-03-02, 11:57:32
Im Neogaf haben sie ein paar Killzone Shots gezeigt das Game nutzt variables AF.

http://i.minus.com/ibsJwOh6hVKPvi.jpg

http://i.minus.com/i9fyzqMTyPJZ5.jpg

http://www.neogaf.com/forum/showpost.php?p=102744815&postcount=814

Killzone Screen Sammlung
http://minus.com/mNUu17nPvrVoP

http://abload.de/img/capture8oinr.jpg

Macht zwar Arbeit dürfte aber für ne Konsole ne gute Lösung sein nur dort aufdrehen wo's nötig ist.

Raff
2014-03-02, 12:07:56
Da müssen dann aber andere Kniffe aktiv sein, etwa Sharpening via Shader. Das sieht viel zu gut aus für "1x bis 4x". Ein gewöhnliches PC-Spiel wäre in Sub-Full-HD lange nicht so knackig.

MfG,
Raff

DinosaurusRex
2014-03-02, 12:08:43
Im Neogaf haben sie ein paar Killzone Shots gezeigt das Game nutzt variables AF.


Ich denke nicht nur Killzone wird das so machen. Alphatier hat doch vor geraumer Zeit mal erklärt, dass ein "starres" Setting für AF in einem Konsolenspiel die reinste Ressourcenverschwendung wäre.

dildo4u
2014-03-02, 12:11:15
@Raff

Das sind Panorama Screens,die mit Photoshop zusammen getackert und vermutlich geschärft wurden,das sollte aber nix am AF Eindruck ändern.Man kann das Game auf der PS4 ja nicht Super Sampeln.

Lightning
2014-03-02, 12:23:04
Ich denke nicht nur Killzone wird das so machen. Alphatier hat doch vor geraumer Zeit mal erklärt, dass ein "starres" Setting für AF in einem Konsolenspiel die reinste Ressourcenverschwendung wäre.

Eben. Ist mir zumindest auch schon oft in anderen Spielen aufgefallen. Gerade in Rennspielen beispielsweise: Straßentextur scharf filtern, Abseits in der Pampa dafür halt gar kein AF.

Raff
2014-03-02, 12:26:58
@Raff

Das sind Panorama Screens,die mit Photoshop zusammen getackert und vermutlich geschärft wurden,das sollte aber nix am AF Eindruck ändern.Man kann das Game auf der PS4 ja nicht Super Sampeln.

Mir ist schon klar, dass das nachbearbeitet ist. Allerdings habe ich die Shots auf klassischen, "trilinearen Matsch" untersucht und fand kaum bis gar nichts. Das wäre am PC in einem typischen Spiel mit höchstens 4:1 AF anders. Es sind ja nicht nur weitläufige Flächen mit flachen Winkeln, bei denen mangelndes AF auffällt (und die das Spiel oft meidet), sondern auch Schrägen wie Wände. Das sieht alles weitgehend sauber aus. Daher frage ich mich, was die Entwickler machen, das billiger ist als anisotrope Filterung. Das muss irgendein Shader-Kniff sein. Sweet FX am PC ist nur der Anfang. :D

MfG,
Raff

Deathcrush
2014-03-02, 12:30:07
Das Spiel flimmert in Bewegung auch erstaunlich wenig.

Felixxz2
2014-03-02, 16:25:01
Da müssen dann aber andere Kniffe aktiv sein, etwa Sharpening via Shader. Das sieht viel zu gut aus für "1x bis 4x". Ein gewöhnliches PC-Spiel wäre in Sub-Full-HD lange nicht so knackig.

MfG,
Raff

Killzone ist nativ 1080p.

Raff
2014-03-02, 19:20:52
Für diese Aussage egal. ;) Man braucht AF selbst in 3.840x2.160, auch wenn die Unterschiede nicht mehr so krass sind wie in Low-Res.

Wie lief das noch damals bei Doom 3? Da hat spieleigene AF angeblich (fast-)schwarze Flächen nicht anisotrop gefltert. Warum auch, schlauer Kniff. Frage an die Kenner hier: Kann man jede Textur mit einer Art "Flag" versehen und festlegen, wie viel Filterliebe sie erhält?

MfG,
Raff

][immy
2014-03-02, 23:33:02
interessant, ist da was dran?
http://www.eurogamer.net/articles/digitalfoundry-2014-in-theory-1080p30-or-720p60
Killzone shadowfall nutzt anscheinend im multiplayermodus kein full-hd als native auflösung sondern 960x1080 und holt sich die restlichen informationen aus zuvor gerenderten frames

Now, there are some mitigating factors here. Shadow Fall uses a horizontal interlace, with every other column of pixels generated using a temporal upscale - in effect, information from previously rendered frames is used to plug the gaps. The fact that few have actually noticed that any upscale at all is in place speaks to its quality, and we can almost certainly assume that this effect is not cheap from a computational perspective. However, at the same time it also confirms that a massive reduction in fill-rate isn't a guaranteed dead cert for hitting 60fps


man hat also quasi die auflösung halbiert um die framerate zu verdoppeln, was nicht immer gelingt.
wie stellt man sowas fest?

Coda
2014-03-02, 23:52:14
Mir ist schon klar, dass das nachbearbeitet ist. Allerdings habe ich die Shots auf klassischen, "trilinearen Matsch" untersucht und fand kaum bis gar nichts. Das wäre am PC in einem typischen Spiel mit höchstens 4:1 AF anders. Es sind ja nicht nur weitläufige Flächen mit flachen Winkeln, bei denen mangelndes AF auffällt (und die das Spiel oft meidet), sondern auch Schrägen wie Wände. Das sieht alles weitgehend sauber aus. Daher frage ich mich, was die Entwickler machen, das billiger ist als anisotrope Filterung. Das muss irgendein Shader-Kniff sein. Sweet FX am PC ist nur der Anfang. :D
4xAF ist meiner Erfahrung nach fast nicht von 16x zu unterscheiden. Die meiste Verzerrung liegt in aller Regel eh darunter. Es ist nicht so als wäre 16x vier mal besser als 4x. Der größte perzeptuelle Gewinn ist bei 2x und es nimmt immer weiter ab.

Aus dem Grund haben wir ja auch immer noch kein 32xAF, es lohnt sich einfach nicht. Die Hardware dafür zu bauen wäre ziemlich einfach.

Felixxz2
2014-03-03, 02:10:00
Für diese Aussage egal. ;) Man braucht AF selbst in 3.840x2.160, auch wenn die Unterschiede nicht mehr so krass sind wie in Low-Res.


Eben nicht. Wenn man bei der PS4 schonmal doppelt soviele Pixel hat wie bei PS3/360, kann man auch gut mit 4-8x AF bzw. dynamischen Modi arbeiten.

Müsste man mal Screens machen aber in 4K wird man aus 16xAF wohl nur noch wenig Vorteil ziehen. Dann lieber in HQ arbeiten.

Ähnlich wie beim AA auch. In 1080p auf Konsole sind hohe AA Modi nur Verschwendung im Vergleich zum Aufwand. Genauso wie beim PC in 4K. Wenn man da Sachen wie FXAA zur intelligenteren Verrechnug der Samples nutzt reicht das oft.

TheGoD
2014-03-03, 02:15:02
Ähnlich wie beim AA auch. In 1080p auf Konsole sind hohe AA Modi nur Verschwendung im Vergleich zum Aufwand. Genauso wie beim PC in 4K. Wenn man da Sachen wie FXAA zur intelligenteren Verrechnug der Samples nutzt reicht das oft.Warum sollte ich auf den Konsolen weniger AA benötigen? Ich zumindest habe auf meinem 55" TV ein höheres Sichtfeld als auf meinem 24" Monitor. Ich denke das dies nicht unbedingt untypische Größen sind.

Lightning
2014-03-03, 08:27:45
Warum sollte ich auf den Konsolen weniger AA benötigen? Ich zumindest habe auf meinem 55" TV ein höheres Sichtfeld als auf meinem 24" Monitor. Ich denke das dies nicht unbedingt untypische Größen sind.

Ich würde behaupten, dass die meisten Leute auf die Größe gerechnet immer noch weiter vom TV wegsitzen als vorm PC-Monitor (auch wenn der Unterschied nicht mehr so groß ist wie früher). Das ist ja auch der Grund für größere Schriftgrößen und kleinere FOVs.

Felixxz2
2014-03-03, 10:23:04
Und weil man an den Konsolen natürlich leistungsmäßig limitiert ist.

Deathcrush
2014-03-03, 14:52:37
Ein interessanter Bericht

http://www.eurogamer.net/articles/digitalfoundry-2014-in-theory-1080p30-or-720p60

"Killzone Shadow Fall's multiplayer runs at 960x1080 with a high quality temporal upscale. Fill-rate is reduced, but we're still not at 60fps."


Mir ist zwar aufgefallen, das KZSF im MP mehr flimmert als im SP, aber das die Auflösung im MP so stark reduziert wurde, war mir nicht klar, im positiven Sinne.

][immy
2014-03-03, 15:23:29
Ein interessanter Bericht

http://www.eurogamer.net/articles/digitalfoundry-2014-in-theory-1080p30-or-720p60

"Killzone Shadow Fall's multiplayer runs at 960x1080 with a high quality temporal upscale. Fill-rate is reduced, but we're still not at 60fps."


Mir ist zwar aufgefallen, das KZSF im MP mehr flimmert als im SP, aber das die Auflösung im MP so stark reduziert wurde, war mir nicht klar, im positiven Sinne.
naja, die auflösung ist ja nicht richtig reduziert. die fehlenden spalten kommen ja aus dem jeweils letzten frame. da hat sich jemand richtig mühe gegeben das ganze als 1080p ausgeben zu können. daher kommt dann wohl auch die leichte unschärfe im MP, und dürfte fast nur in bewegung auffallen, denn wenn mann stehen bleibt bleibt der bildinhalt ja größtenteils gleich.

edit: natürlich waren es spalten und nicht zeilen

robbitop
2014-03-03, 16:03:41
Soweit ich das verstanden habe, sparen sie Spalten ein. Nicht Zeilen. Bei horizonter Auflösung ist das menschliche Auge IIRC auch nicht ganz so empfindlich. Bei stark veränderten Bildinhalten (viel Bewegung) wird das Verrechnen von Informationen von Vorgängerbildern nicht so richtig viel bringen. Das dürfte dann zu Artefakten führen.

Raff
2014-03-03, 16:40:57
4xAF ist meiner Erfahrung nach fast nicht von 16x zu unterscheiden. Die meiste Verzerrung liegt in aller Regel eh darunter. Es ist nicht so als wäre 16x vier mal besser als 4x. Der größte perzeptuelle Gewinn ist bei 2x und es nimmt immer weiter ab.

Aus dem Grund haben wir ja auch immer noch kein 32xAF, es lohnt sich einfach nicht. Die Hardware dafür zu bauen wäre ziemlich einfach.

Würde es denn viele Transistoren kosten? Wenn das heutzutage Peanuts wären (in Relation zum Rest), könnte man's trotzdem einbauen, um der Konkurrenz eine Funktion voraus zu sein ("Doppelt so gutes AF!!" ;)). Das würde sich zumindest in Extremfällen auszahlen und ansonsten keine Leistung kosten:

64x, 48x und 32x gegen 16x AF: Zukunft trifft Gegenwart (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/64x-48x-und-32x-gegen-16x-AF-Zukunft-trifft-Gegenwart-813322/)

MfG,
Raff

Coda
2014-03-03, 16:59:26
Vermutlich sehr wenige, auch wenn ich das auf Hardware-Design-Ebene eher schwierig einschätzen kann.

Im wesentlichen ist das ja eh schon alles dynamisch und die Hardware muss wegen Cache-Misses auf lange Latenzen ausgelegt sein, deshalb dürfte es von der Sicht aus auch keine Probleme machen, wenn die TMUs doppelt so viele Samples nehmen.

DinosaurusRex
2014-03-03, 18:26:46
Hier mal ein Bild an dem man die Interlacing-Technik vom KZSF Multiplayer gut sehen kann:

https://fbcdn-sphotos-a-a.akamaihd.net/hphotos-ak-prn2/t31/1519915_1403350109912467_937314060_o.jpg

Es betrifft anscheinend nur sich bewegende Objekte, in diesem Fall sieht man den Effekt am Regen. Sobald die Szene statisch wird, ist das Bild von 1080p angeblich nicht mehr zu unterscheiden.

Ich denke die Sony-PR wird diesen Fauxpas als "Chance" und "Potenzial" vermarkten, also frei nach dem Motto "Wir hätten es auf die Schnelle nicht erklären können und wollten Verwirrung vermeiden".

Mir gefällt es übrigens nicht so gut, der Unterschied zum Singleplayer ist schon sehr deutlich. Aber meines Wissens kommt neben dieser Technik im Multiplayer zusätzlich noch ein schlechteres AA zum Einsatz.

][immy
2014-03-03, 19:43:42
Hier mal ein Bild an dem man die Interlacing-Technik vom KZSF Multiplayer gut sehen kann:

https://fbcdn-sphotos-a-a.akamaihd.net/hphotos-ak-prn2/t31/1519915_1403350109912467_937314060_o.jpg

Es betrifft anscheinend nur sich bewegende Objekte, in diesem Fall sieht man den Effekt am Regen. Sobald die Szene statisch wird, ist das Bild von 1080p angeblich nicht mehr zu unterscheiden.

Ich denke die Sony-PR wird diesen Fauxpas als "Chance" und "Potenzial" vermarkten, also frei nach dem Motto "Wir hätten es auf die Schnelle nicht erklären können und wollten Verwirrung vermeiden".

Mir gefällt es übrigens nicht so gut, der Unterschied zum Singleplayer ist schon sehr deutlich. Aber meines Wissens kommt neben dieser Technik im Multiplayer zusätzlich noch ein schlechteres AA zum Einsatz.

naja, grundsätzlich ist dieser ansatz ja eigentlich nicht dumm. denn die unterschiede bestehen nur zwischen 2 frames und dort wechselt für gewöhnlich nicht so viel, so das artefakte sich in grenzen halten sollten. vor allem geht es ja um >30fps
nur, hätte man nach den ganzen sony aufriss von wegen full-hd lieber von anfang an ehrlich sein sollen. ist immerhin ein launch titel und von daher auch verständlich das man aus zeitgründen vielleicht nicht überall die performance gleich rausholen kann.

ich frage mich aber was besser wirkt, 1080i oder deren 1080"p". immerhin hätte man bei 1080i nicht mit den artefakten zu kämpfen. wenn man 60fps erreicht und man die berechneten spalten bei jedem frame wechselt, dürfte 1080i doch eigentlich kaum aufallen.

Felixxz2
2014-03-03, 22:00:50
1080i60 ist doch wahlweise das selbe wie 1080p30 oder 720p60.

Finde das jetzt auch nicht so dramatisch. Sie haben ja selber oft betont dass das Spiel kaum optimiert ist.

00-Schneider
2014-03-03, 22:33:02
1080i60 ist doch wahlweise das selbe wie 1080p30 oder 720p60.


1080i impliziert, dass die Hälfte der Zeilen pro Bild fehlt. Bei KZ sind die 1080 Zeilen aber komplett, nur die "Spalten" sind halbiert.

Da Zeilen wichtiger als "Spalten" sind, kann man es Bildqualitätsmäßig nicht mit 1080i vergleichen.

Coda
2014-03-03, 22:47:56
Rrrichtig, Spalten sind wichtiger als Zeilen.

-/\-CruNcher-/\-
2014-03-03, 22:50:14
Das es niemand wirklich gemerkt hatt zeigt doch die genialität dahinter, so die bandbreite zu sparen ist doch genial vor allem sollte man das Interlacing ja am Fernsehn noch viel weniger war nehmen mit einem guten Temporalen Hardware Deinterlacer (in der PS4 oder im TV) :)

Hab mich schon immer gewundert wann eine Engine so etwas beim Rendering einsetzen wird (like Sattelite TV) um vor allem Bandbreite zu reduzieren :)

Wie gesagt hier sind wir wieder bei Rekonstruktion wie bei der AA Scaler Thematik

@DinosaurusRex
Was du zeigst ist nicht gut als Beispiel da es so niemand erfassen wird in Bewegung das ist der Render Output vor dem Deinterlacen ;)

und

Mir gefällt es übrigens nicht so gut, der Unterschied zum Singleplayer ist schon sehr deutlich.

Das kann ich dir nicht glauben da du jetzt biased bist es ist so gut wie niemandem aufgefallen :)

Ein interessanter Bericht

http://www.eurogamer.net/articles/digitalfoundry-2014-in-theory-1080p30-or-720p60

"Killzone Shadow Fall's multiplayer runs at 960x1080 with a high quality temporal upscale. Fill-rate is reduced, but we're still not at 60fps."


Mir ist zwar aufgefallen, das KZSF im MP mehr flimmert als im SP, aber das die Auflösung im MP so stark reduziert wurde, war mir nicht klar, im positiven Sinne.

jo positiv reingefallen ;)

und wie robittop sagte

Soweit ich das verstanden habe, sparen sie Spalten ein. Nicht Zeilen. Bei horizonter Auflösung ist das menschliche Auge IIRC auch nicht ganz so empfindlich. Bei stark veränderten Bildinhalten (viel Bewegung) wird das Verrechnen von Informationen von Vorgängerbildern nicht so richtig viel bringen. Das dürfte dann zu Artefakten führen.

00-Schneider
2014-03-03, 22:57:07
Rrrichtig, Spalten sind wichtiger als Zeilen.


Nö.

Deinorius
2014-03-03, 23:05:49
Es sind eindeutig Zeilen wichtiger als Spalten. Das wusste man schon in Bezug auf diverse SD-Auflösungen. 352*576 war ja eine weitere mögliche Auflösung für die DVD. Wenn man bei DVB andere Auflösungen nutzen wollte, sind die 576 Zeilen immer geblieben.

Akkarin
2014-03-03, 23:06:16
Auf reddit wurde vorgeschlagen es 1080j zu nennen, in anlehnung an 1080i und die bezeichnung von vektoren/matrizen in der Mathematik.

Coda
2014-03-03, 23:09:08
Nö.
Sag doch mal irgend ne schlüssige Begründung dazu? Meiner Meinung nach ist es ziemlich egal wie rum man es macht.

-/\-CruNcher-/\-
2014-03-03, 23:24:05
Auf reddit wurde vorgeschlagen es 1080j zu nennen, in anlehnung an 1080i und die bezeichnung von vektoren/matrizen in der Mathematik.

Jo vielleicht sehen wir hier einiges aus Sonys Streaming Research mit Gaikai was localy umgesetzt wurde bei KZSF, verdammt innovatives Game in vielen Render bereichen :)

00-Schneider
2014-03-03, 23:26:04
Sag doch mal irgend ne schlüssige Begründung dazu? Meiner Meinung nach ist es ziemlich egal wie rum man es macht.


Begründen direkt kann ich es nicht. (Dazu fehlt mir das Wissen...)

Allerdings wurde bei der LastGen doch oft die Auflösung(wenn man keine vollen 720p schaffte) so gewählt, dass man immerhin noch volle Zeilen hatte z.b.:

Dark Souls - 1024x720
GT5 - 1280x1080
Call of Duty: Black Ops 2 - 880x720
Vanquish - 1024x720
Crysis 1/2/3 - 1152x720 ;)

um nur einige Beispiele zu nennen. Wird also seine Gründe haben, sprich bessere Bildqualität, als wenn man Spalten und Zeilen in gleichem Maße senkt. (Um auf die gleiche Anzahl Bildpunkte zu kommen.)

Hunter93
2014-03-03, 23:39:17
Hier mal ein Bild an dem man die Interlacing-Technik vom KZSF Multiplayer gut sehen kann:

Ich seh gar nichts. Klär mich mal bitte einer auf, wo genau sich das zeigen soll.

Wird also seine Gründe haben, sprich bessere Bildqualität, als wenn man Spalten und Zeilen in gleichem Maße senkt. (Um auf die gleiche Anzahl Bildpunkte zu kommen.)

Könnte auch damit zusammenhängen, dass sich gerade der PS3-Upscaler anders nicht füttern ließ.

"For whatever reason, the Pure Video scaler in the G7x derived GPU (RSX) is gimped to horizontal scaling of specific front buffer resolutions. See B3D Article
As of the January 2007 PS3 SDK, only the following front buffer resolutions are supported for hardware scaling to 1920x1080p: 960x1080 1280x1080, 1440x1080 and 1600x1080
Games whose back buffers are rendered at strange resolutions must upscale the front buffer (at a cost of extra memory) to either 1280x720 (720p output) or to one of the acceptable 1080p resolutions. (Note: native resolution = back buffer resolution, front buffer = image for displaying/hardware scaling)."
http://forum.beyond3d.com/showthread.php?t=46241

Iruwen
2014-03-03, 23:39:22
Evolutionsbiologisch argumentiert würde ich meinen, dass die Wahrnehmung in der Horizontalen für den Menschen sowohl bei der Jagd auf als auch bei Verteidigung und Flucht eine größere Rolle gespielt hat. Letztlich wird es aber wohl darauf hinauslaufen:

Meiner Meinung nach ist es ziemlich egal wie rum man es macht.

Weil:

Darüber hinaus ist zu beachten, dass die Auflösungsgrenze allein noch nichts aussagt über die subjektiv empfundene Bildschärfe. (...) In der Praxis hat sich sogar gezeigt, dass (...) mit der halben Auflösung ausreichend gute Bilder erzeugt werden. (..) Obwohl das menschliche Auge in der Lage wäre, (bei dem Versuch) eine Auflösung 4k bis zu einer Entfernung von 10 Meter zu erkennen, scheint es selbst bei einer direkten Vergleichsmöglichkeit relativ unkritisch auf eine Verunschärfung zu reagieren.

http://inwa.beepworld.de/grenzaufloesung.htm

00-Schneider
2014-03-03, 23:42:48
Ich seh gar nichts. Klär mich mal bitte einer auf, wo genau sich das zeigen soll.


http://www.neogaf.com/forum/showthread.php?t=778172

Könnte auch damit zusammenhängen, dass sich gerade der PS3-Upscaler anders nicht füttern ließ.


Stimmt, allerdings wurde es auch bei 360 so gehandhabt!

Coda
2014-03-03, 23:50:42
Weil:

http://inwa.beepworld.de/grenzaufloesung.htm
Da steht nur halbe Auflösung, nichts von der Richtung.

Iruwen
2014-03-04, 00:00:16
Eben, weils in der Praxis egal ist, wie du schon sagtest. Meine evolutionsbiologische Theorie lässt sich ansonsten noch medizinisch stützen: die Macula lutea (http://de.wikipedia.org/wiki/Gelber_Fleck_(Auge)) ist wesentlich breiter als hoch (http://www.onjoph.com/patinfo/funktion/zahlen.html). Aber das spielt in der Praxis offenbar keine Rolle.

-/\-CruNcher-/\-
2014-03-04, 00:07:01
@Coda

Das ganze errinert mich schon etwas an

http://en.wikipedia.org/wiki/Image_Constraint_Token

:]

nur in einer anderen art und weise, aber wie gesagt unter den eingeschkränkten system bedingungen find ich es genial wie gesagt man hat ja ein Power Target und die horizontale resolution haben sie nicht angegriffen, im vergleich zu z.b Ryse oder BF4 ;)

Ich persönlich mag das PBR Lighting Result in KZSF um einiges mehr als in Ryse, aber da wird eine Aussage kritisch weil KZSF ja noch viel Pre Render tricked und der Produktionsaufwand mindestens genauso hoch wie bei Rage war ;)
aber auch das Lighting in BF4 gefällt mir besser als wie in Ryse oder Crysis 3 ;)

So richtig ?

1600x900 -> Ryse Singleplayer/Multiplayer ca 30 fps (Film Target) (Realtime Lighting) (XO)
1600x900 -> Battlefield 4 60 fps Singleplayer/Multiplayer (Realtime Lighting) (PS4)
1280x720 -> Battlefield 4 60 fps Singleplayer/Multiplayer (Realtime Lighting) (XO)
1920x1080 -> KZSF Singleplayer 60 fps (Pre Render/Realtime combo Lighting) (PS4)
960ix1080 -> KZSF Multiplayer 50 fps (Pre Render/Realtime combo Lighting) (PS4)

gnomi
2014-03-04, 11:32:03
Wieso ist das jetzt auf einmal innovativ, wenn Guerrilla Games derart heftig an Auflösung einspart? :confused:
Für mich zeigt das jetzt eher, dass auch in Sachen PS4 die Leistung schnell begrenzt ist und wie bei der PS3 angefangen wird, in die Trickkiste zu greifen.
Optimieren heißt auf Konsole irgendwie häufig, Rechenaufwand einzusparen und ohne allzu viel sichtbare Einbußen davonzukommen. :(

robbitop
2014-03-04, 11:47:20
Mich wundert es kein bisschen. Um von 720p auf 1080p zu kommen benötigt man Faktor 2,3 an Grafikleistung. Die PS4 hat aber nur ~ Faktor 8 mehr Grafikleistung als ihre Vorgänger.
Der reine Auflösungssprung opfert also schon ein ziemlich großes Stück dieser Mehrleistung. Bleibt also nur noch ~ Faktor 3,5 für optische Steigerungen.
Heute sind wir außerdem schon ziemlich weit oben auf der Kurve des sinkenden Grenzertrages. Jedes bisschen an erkennbar schönerer Grafik, kostet Unmengen an Leistung.

Um also immer noch einen deutlichen Vorsprung zu bieten, kann man FullHD nunmal nicht halten. Das ist klar.

00-Schneider
2014-03-04, 11:53:24
Um also immer noch einen deutlichen Vorsprung zu bieten, kann man FullHD nunmal nicht halten. Das ist klar.


Den SP vom neuen Killzone nie gespielt? Nativ 1080p bei ~40FPS. Und der Unterschied zur LastGen ist doch sehr deutlich:

https://fbcdn-sphotos-d-a.akamaihd.net/hphotos-ak-prn2/1404758_1379956798919867_2008452781_o.jpg

https://fbcdn-sphotos-b-a.akamaihd.net/hphotos-ak-frc3/1486003_1390854554494665_57344315_o.jpg

Botcruscher
2014-03-04, 11:55:12
Relativ unkritisch gegenüber einer Verunschärfung... Die Aussage könnte direkt vom Marketing kommen. Es sieht zwar total scheiße aus aber man kann es ignorieren. Soll mal das Sehzentrum nachhelfen... Noch ordentlich Effekte drauf und es fällt nicht mehr so auf... Die Bilder sehen grauenhaft aus.

Lightning
2014-03-04, 11:59:58
Mich wundert es kein bisschen. Um von 720p auf 1080p zu kommen benötigt man Faktor 2,3 an Grafikleistung. Die PS4 hat aber nur ~ Faktor 8 mehr Grafikleistung als ihre Vorgänger.
Der reine Auflösungssprung opfert also schon ein ziemlich großes Stück dieser Mehrleistung. Bleibt also nur noch ~ Faktor 3,5 für optische Steigerungen.
Heute sind wir außerdem schon ziemlich weit oben auf der Kurve des sinkenden Grenzertrages. Jedes bisschen an erkennbar schönerer Grafik, kostet Unmengen an Leistung.

Um also immer noch einen deutlichen Vorsprung zu bieten, kann man FullHD nunmal nicht halten. Das ist klar.

Auf der einen Seite sagst du, dass jedes bisschen schönere Grafik immer mehr Leistung erfordert. Dem kann ich zwar zustimmen, aber es beißt sich imo mit der Aussage, dass man an der Auflösung sparen muss. Warum sollte man z.B. von 1080p auf 900p runtergehen, wenn die dadurch freigwordene Mehrleistung sowieso kaum sichtbar in mehr Details resultiert? Zumal eine Verdoplung der Auflösung der GPU ja nicht in allen Bereichen die doppelte Leistung abverlangt.

Mit den Multiplikatoren muss man eh vorsichtig sein, wenn es sich um so völlig verschiedene Architekturen und Featuresets handelt. Der Unterschied dürfte in der Praxis größer sein.

dargo
2014-03-04, 12:41:47
Relativ unkritisch gegenüber einer Verunschärfung... Die Aussage könnte direkt vom Marketing kommen. Es sieht zwar total scheiße aus aber man kann es ignorieren. Soll mal das Sehzentrum nachhelfen... Noch ordentlich Effekte drauf und es fällt nicht mehr so auf... Die Bilder sehen grauenhaft aus.
Die sind auch zu stark komprimiert. Das Aliasing ist aber dennoch nervig. Man sieht an KZ wunderbar, dass Full-HD für den Content zu wenig ist. Das Game schreit ja nach 4K. Oder zumindest einem guten Antialiasing damit man auf diesen Nachschärfefilter verzichten kann.

Wieso ist das jetzt auf einmal innovativ, wenn Guerrilla Games derart heftig an Auflösung einspart? :confused:

Man kann sich auch alles schön reden. ;) Für mich ganz klar ersichtlich dass auch die PS4 keine reine 1080p Konsole ist und erst recht nicht mit späteren Titeln sein wird.

Mich wundert es kein bisschen. Um von 720p auf 1080p zu kommen benötigt man Faktor 2,3 an Grafikleistung.
Nee... 1:1 lässt sich das anhand der Pixel nicht berechnen. Von Full-HD auf 4K sind es bsw. Faktor 4. Die Frames sind aber bei Full-HD nicht geviertelt, eher gedrittelt.

gnomi
2014-03-04, 12:48:25
Mich wundert es kein bisschen. Um von 720p auf 1080p zu kommen benötigt man Faktor 2,3 an Grafikleistung. Die PS4 hat aber nur ~ Faktor 8 mehr Grafikleistung als ihre Vorgänger.
Der reine Auflösungssprung opfert also schon ein ziemlich großes Stück dieser Mehrleistung. Bleibt also nur noch ~ Faktor 3,5 für optische Steigerungen.
Heute sind wir außerdem schon ziemlich weit oben auf der Kurve des sinkenden Grenzertrages. Jedes bisschen an erkennbar schönerer Grafik, kostet Unmengen an Leistung.

Um also immer noch einen deutlichen Vorsprung zu bieten, kann man FullHD nunmal nicht halten. Das ist klar.

Jo, sehe ich langsam auch so.
Wir haben quasi noch ähnliche Probleme wie in der letzten Generation mit limitierter GPU und vor allem CPU Leistung, aber immerhin doch ein generell deutliches Plus an Auflösung, Bildqualität und Framerate.
Das beste sind aber der ziemlich gut dimensionierte Speicher und feste Installationen.
Größere Spielwelten, weniger Ladezeiten und konstantere Performance sind eine große Verbesserung.
Technisch betrachtet ist dieser Konsolenzyklus allerdings fast schon langweilig.
Auf PC haben wir seit den vielen DX 11 Spielen und Experimenten schon locker das jetzt dargestellte Niveau.
Und die bislang fehlenden Optimierungen holt die Hardware wieder rein, bis dann auch die Engines und Goodies der GPU Hersteller zusehends besser laufen.
Wie Dargo schon anmerkt, eignet sich der teils produzierte Content eigentlich jetzt schon mehr für derzeitige und kommende High End PC Hardware.

gnomi
2014-03-04, 12:51:33
Man kann sich auch alles schön reden. ;) Für mich ganz klar ersichtlich dass auch die PS4 keine reine 1080p Konsole ist und erst recht nicht mit späteren Titeln sein wird.

Das ist hart, aber nichts anderes hätte ich dazu von Dir erwartet.
Immerhin ist sie klar das beste, was an Hardware verfügbar ist.
Die Ergebnisse sprechen gegenüber der Xbox One eine deutliche Sprache und die Software läuft soweit überwiegend schon sehr ordentlich.

dargo
2014-03-04, 12:54:24
Immerhin ist sie klar das beste, was an Hardware verfügbar ist.

Im Konsolenbereich natürlich, das war aber schon lange klar.

robbitop
2014-03-04, 13:08:52
Auf der einen Seite sagst du, dass jedes bisschen schönere Grafik immer mehr Leistung erfordert. Dem kann ich zwar zustimmen, aber es beißt sich imo mit der Aussage, dass man an der Auflösung sparen muss. Warum sollte man z.B. von 1080p auf 900p runtergehen, wenn die dadurch freigwordene Mehrleistung sowieso kaum sichtbar in mehr Details resultiert? Zumal eine Verdoplung der Auflösung der GPU ja nicht in allen Bereichen die doppelte Leistung abverlangt.

Mit "Grafik" meinte ich eher Detail pro Pixel.

Was man da bei Killzone sieht, ist sicher nicht häßlich - aber es ist eben auch vieles vom Artwork abhängig.
Vieles ist auch von Geometrie und Texturdetails abhängig. Und beides ist nicht auflösungsabhängig. Bei 16x so viel VRAM und ~8x so viel Geometrieleistung kann man gewisse Dinge natürlich auch schön erhöhen.

Mit den Multiplikatoren muss man eh vorsichtig sein, wenn es sich um so völlig verschiedene Architekturen und Featuresets handelt. Der Unterschied dürfte in der Praxis größer sein.
Die Ausnutzung der Rechenleistung ist sicher bei GCN besser als bei C1. Aber reine aritmetische Leistung ist nicht alles. Bandbreite, ROPs, Texturleistung sind nun mal auch wesentliche Komponenten.


Nee... 1:1 lässt sich das anhand der Pixel nicht berechnen. Von Full-HD auf 4K sind es bsw. Faktor 4. Die Frames sind aber bei Full-HD nicht geviertelt, eher gedrittelt.
Das ist eine Frage der Bottlenecks. Wenn es nur Faktor 3 bei dir kostet, war bei FullHD ein anderer Flaschenhals zumindest z.T. im Eingriff. Z.B Geometrie: durch das Trisetup, durch den Rasterizer, durch Vertex und Geometry Shader etc. Ggf. ein Stück weit die CPU.

Auflösung geht zumindest linear auf:

- Bandbreitenbedarf
- Pixelprocessingbedarf (also ROPs, TMUs, ALUs)

DinosaurusRex
2014-03-04, 13:13:25
Um also immer noch einen deutlichen Vorsprung zu bieten, kann man FullHD nunmal nicht halten. Das ist klar.

Also ich kann The Order 1886 aus der Ferne nur als beeindruckend bezeichnend.

http://i.minus.com/imu4pB3yVOMiL.gif

Ist zwar 1920x800, aber der Entwickler behauptet, dass FullHD + FXAA sogar weniger Leistung kosten würde.

robbitop
2014-03-04, 13:21:17
Zwischensequenzen als Gif Animation in Foren sahen schon immer toll aus. Wenn ich mich da an die Gifs der PS3 Spiele Anno 2006 erinnere. Das in-Game Material sah dann deutlich schlechter aus. Das ist doch immer so...

DinosaurusRex
2014-03-04, 13:26:59
Hier in dem Trailer sieht man auch ein bisschen Gameplay und ich erkenne da auf den ersten Blick keinen großen Unterschied zu den vermeintlichen Zwischensequenzen:

The Order 1886 Trailer (http://www.youtube.com/watch?v=W9OfQvB_AwQ)

So wie es derzeit aussieht, scheint 1080p30fps nicht das Problem zu sein für die PS4. 60fps hingegen schon und in dieser Richtung darf man sicher Abstriche bei Grafik oder Bildqualität erwarten.

gnomi
2014-03-04, 13:27:57
Zwischensequenzen als Gif Animation in Foren sahen schon immer toll aus. Wenn ich mich da an die Gifs der PS3 Spiele Anno 2006 erinnere. Das in-Game Material sah dann deutlich schlechter aus. Das ist doch immer so...

Eben. Das sind jetzt wieder irgendwelche GIFs aus Zwischensequenzen.
Letztendlich kann man mit entsprechenden Ressourcen exklusiv entwickelt natürlich was Beeindruckendes zaubern.
Carmack hat ja auch gerade wieder darauf hingewiesen, dass man mit etwa zweifacher Leistung der Rohpower rechnen kann.
Gegenbeispiel wäre dann aktuell Thief. Nur 30 fps und deutlich hinter PC.
Und so läuft es in der Spieleindustrie zumeist ja eher.
Die Hardware hinter dem ganzen Content bleibt in ihrer Leistungsfähigkeit auf Jahre gleich, während die PC Versionen zunehmend weiter zulegen.

gnomi
2014-03-04, 13:35:50
Hier in dem Trailer sieht man auch ein bisschen Gameplay und ich erkenne da auf den ersten Blick keinen großen Unterschied zu den vermeintlichen Zwischensequenzen:

The Order 1886 Trailer (http://www.youtube.com/watch?v=W9OfQvB_AwQ)

Klar ist da schon ein deutlicher Unterschied. :|
Tatsächlich Gameplay ist bei dem Trailer davon abgesehen auch fast gar nichts. (Nur die Sprung- und Schuss Sequenz, sowie das Quick Time Event)
Und beim Rest tippe ich auch auf inengine Videos.

DinosaurusRex
2014-03-04, 13:45:13
Gegenbeispiel wäre dann aktuell Thief. Nur 30 fps und deutlich hinter PC.
Und so läuft es in der Spieleindustrie zumeist ja eher.

Thief ist innerhalb dieser Diskussion nur dann aussagekräftig, wenn wir hier alle übereinstimmend akzeptieren, dass diese Konsolen bereits nach drei Monaten auf dem Markt ihre praktisches Leistungsmaximum erreicht haben.


Die Hardware hinter dem ganzen Content bleibt in ihrer Leistungsfähigkeit auf Jahre gleich, während die PC Versionen zunehmend weiter zulegen.

Deine PC Hardware hat zum Zeitpunkt des Kaufs bereits das Leistungsmaximum erreicht. Die wird nicht mehr schneller. Wenn die PC Versionen weiter zulegen, dann betrifft das nur die, die parallel dazu weiter aufrüsten.

dildo4u
2014-03-04, 13:45:45
Klar ist da schon ein deutlicher Unterschied. :|
Tatsächlich Gameplay ist bei dem Trailer davon abgesehen auch fast gar nichts. (Nur die Sprung- und Schuss Sequenz, sowie das Quick Time Event)
Und beim Rest tippe ich auch auf inengine Videos.

Das können nicht immer Video's sein dafür ist der Übergang zu schnell z.b wo direkt in den QTE übergeht.

Iruwen
2014-03-04, 13:57:27
Deine PC Hardware hat zum Zeitpunkt des Kaufs bereits das Leistungsmaximum erreicht. Die wird nicht mehr schneller. Wenn die PC Versionen weiter zulegen, dann betrifft das nur die, die parallel dazu weiter aufrüsten.
Mantle, DX 11.1/2, bessere Multicorenutzung...

DinosaurusRex
2014-03-04, 14:05:34
Mantle, DX 11.1/2, bessere Multicorenutzung...

Das ist einmalig (und in wie weit alte Hardware rückwirkend miteinbezogen wird, sei auch mal dahingestellt). Und danach bringt dir der Umstand, das sich die PC Versionen weiter verbessern wird, überhaupt nichts mehr, es sei denn es schleichen sich in schöner Regelmäßigkeit ein paar Mainzelmännchen bei dir in die Bude und bauen neue Hardware ein. Du wirst mit der Zeit genauso sicher bei den lowest settings landen wie die Konsolen, je nach dem was du für deinen PC bezahlt hast dauert das länger oder kürzer, aber es geht auf beiden Systemen über die Jahre stetig bergab. Ich kann daher nicht erkennen, inwiefern es auf dem PC besser sein sollte. Wenn du regelmäßig aufrüstest, dann bezahlst du dafür ja auch entsprechend viel Geld, der Konsolero entscheidet sich hingegen für die "maßgeschneiderte" Version. Wir haben es hier mit zwei verschiedenen Philosophien zu tun. Wer behauptet, dass der eine Weg besser ist als der andere, der muss sich meiner Meinung nach den Vorwurf der Ignoranz gefallen lassen.

gnomi
2014-03-04, 14:07:59
Thief ist innerhalb dieser Diskussion nur dann aussagekräftig, wenn wir hier alle übereinstimmend akzeptieren, dass diese Konsolen bereits nach drei Monaten auf dem Markt ihre praktisches Leistungsmaximum erreicht haben.


Es geht ja nicht ums Leistungsmaximum, sondern auch darum, was man für gewöhnlich erwarten kann bzw. mit was man auch rechnen muss, wenn Entwickler mal begrenztere Ressourcen und Zeit haben.
Hier ist man mit starker PC Hardware gewappnet.


Deine PC Hardware hat zum Zeitpunkt des Kaufs bereits das Leistungsmaximum erreicht. Die wird nicht mehr schneller. Wenn die PC Versionen weiter zulegen, dann betrifft das nur die, die parallel dazu weiter aufrüsten.

Meine GPU ist ja auch schon über 2 Jahre alt.
Tatsächlich gab es für mich schon sehr nennenswerte Sprünge, beispielsweise durch OC und bessere Treiber.
Auch TXAA und HBAO+ wären hardwareseitige Verbesserungen, die ich optional nutzen kann.
Hinzu kommen AA Kompatibilitätsbits für ältere Spiele.
Und von zunehmend besserer Unterstützung von DX 11.1 und neueren/optimierten Engines profitiere ich natürlich ebenfalls.
Den Sprung zu einer neuen GPU habe ich optional dann noch obendrauf.
Ich habe das ganze auch schon ausprobiert (GTX 780 TI), aber die Rohleistung wird für meinen Geschmack noch nicht so sinnvoll ausgenutzt.
Das wird sich aber ändern, wenn die Engines etwas effizienter sind und zusätzliche Features sich nicht nur auf der Checkliste gut machen sollen.
Ist aber hier auch egal und OT.
Ich finde die Leistung der PS4 wirklich sehr ordentlich, aber ich empfehle dringend, auch mal ein bisschen auf dem Boden der Tatsachen zu bleiben.
Das ist trotz sündhaft teurem Content und genial großzügigem modernen Speicher nicht mit High End PC Hardware zu vergleichen.

Das können nicht immer Video's sein dafür ist der Übergang zu schnell z.b wo direkt in den QTE übergeht.

Mal Ryse gespielt?
Das wechselt auch dahingehend sehr geschickt und sieht vergleichbar cineastisch aus.

robbitop
2014-03-04, 14:12:44
Hier in dem Trailer sieht man auch ein bisschen Gameplay und ich erkenne da auf den ersten Blick keinen großen Unterschied zu den vermeintlichen Zwischensequenzen:

The Order 1886 Trailer (http://www.youtube.com/watch?v=W9OfQvB_AwQ)

So wie es derzeit aussieht, scheint 1080p30fps nicht das Problem zu sein für die PS4. 60fps hingegen schon und in dieser Richtung darf man sicher Abstriche bei Grafik oder Bildqualität erwarten.

60 statt 30 fps würden die Rechenleistung nochmal doppelt so viel strapazieren. Dazu noch der Auflösungssprung - und am Ende bleibt nicht mehr sehr viel übrig, um einen Vorsprung an Detail pro Pixel rauszuarbeiten. Dann bliebe noch grob Faktor 2 übrig. Plus natürlich wesentlich detailierteren Texturen und wesentlich mehr Geometriedetails). Ggf. ist noch etwas mehr Reserve für Shadereffekte da. Dort vielleicht noch Faktor 3.

Damit es aber wesentlich besser aussieht, kann man sich 60 fps in Kombination mit FullHD (ohne Auflösungsgetrickse) abschminken.

---------------

Ingame Material ist eigentlich erst bewertbar, wenn das Spiel raus ist und von unabhängigen Testern auf Screenshots zu sehen ist. Trailer waren schon immer Rosinenpickerei und/oder nachbearbeitet.

Wenn das alles so für die Last-Gen gekommen wäre, wie in irgendwelchen Trailern, hätten wir die PS4/Xbone nicht gebraucht. ;) (leicht übertrieben - aber was da an PR Material kam, war wirklich beeindruckend! - insbesondere im Vergleich dazu, was dann wirklich am Ende an spielbarem Material zu sehen war)

DinosaurusRex
2014-03-04, 14:13:00
Es geht ja nicht ums Leistungsmaximum, sondern auch darum, was man für gewöhnlich erwarten kann bzw. mit was man auch rechnen muss, wenn Entwickler mal begrenztere Ressourcen und Zeit haben.
Hier ist man mit starker PC Hardware gewappnet.

Das ist Schönmalerei von Symptombekämpfung. Anstatt hunderte Euros auszugeben um die Fehler des Entwicklers auszugleichen, kaufe ich das Spiel lieber gar nicht.


Ich finde die Leistung der PS4 wirklich sehr ordentlich, aber ich empfehle dringend, auch mal ein bisschen auf dem Boden der Tatsachen zu bleiben.
Das ist trotz sündhaft teurem Content und genial großzügigem modernen Speicher nicht mit High End PC Hardware zu vergleichen.

Ich dreh den Spieß um: Warum vergleichen PC Gamer diese Konsolen immer mit sündhaft teurer PC Hardware, wo sie doch genau wisse, dass wir hier über ganz andere Leistungsdimensionen sprechen?


Mal Ryse gespielt?
Das wechselt auch dahingehend sehr geschickt und sieht vergleichbar cineastisch aus.

Nein, deswegen habe ich mir bisher auch jedes Urteil zu Ryse verkniffen und werde das auch weiterhin tun.

Skusi
2014-03-04, 14:15:18
Sich den Power PC hinzustellen, um dann schlecht optimierte Spiele zu spielen, kann ja auch irgendwie nicht Sinn der Sache sein. Leider viel zu oft der Fall.

robbitop
2014-03-04, 14:20:19
Konsolen mit PCs zu vergleichen ist sinnfrei. Da gebe ich Dino recht. Insbesondere, wenn der PC ein vielfaches kostet und zich mal aufgerüstet wird. Wenn man vergleicht dann zu gleichem Preis der Konsole mit zum Launch verfügbarer HW. (im Falle der PS4 wären das 400 € zum Ende 2013). Damit kommt man nicht weit...(schon gar nicht mehr zum Ende des Konsolenlebenszykluses - dann ~ 2020)

Am Ende ist der Vergleich trotzdem sinnfrei.

Andererseits ist die Erwartungshaltung an Konsolen IMO übertrieben. Wie soll man eine Auflösungsverdopplung + eine Frameratenverdopplung + deutlich mehr Detail pro Pixel mit nichtmal einer Größenordnung an mehr vorhandener Leistung stemmen?

Am Ende werden die Spiele die Hardware immer weiter durch Optimierung und bessere Tools ausnutzen - aber auch mit Auflösung und Bildrate runter gehen, um eine Steigerung des Details pro Pixels zu ermöglichen.

Das war zu jeder Konsolengeneration so und das wird auch wieder so werden. Wie soll es auch mit einer fixierten HW Basis über 5-8 Jahre anders möglich sein? ;)

DinosaurusRex
2014-03-04, 14:23:17
Damit es aber wesentlich besser aussieht, kann man sich 60 fps in Kombination mit FullHD (ohne Auflösungsgetrickse) abschminken.


Das würde ich nicht pauschalisieren. Gran Turismo auf der PS3 läuft mit einer höheren Auflösung als die meisten anderen PS360 Spiele und hat trotzdem ein 60fps Target und ziemlich gute Grafik. Polyphony Digital ist natürlich ein Ausnahmestudio, aber genau deswegen bringt eine Pauschalisierung ja auch nichts. Ich würde wetten, dass GT7 mit 1080p und 60fps kommt und trotzdem alle aus den Latschen hauen wird.

Wir müssen viel differenzierter an die Sache herangehen.

dildo4u
2014-03-04, 14:30:10
Ja das hängt vom Game ab siehe auch NBA 2k14,superbe Optik + 1080p@60fps.
GT7 wird auch große Sprünge machen,da sie schon auf der PS3 die Auflösung relativ hoch geschraubt haben.(1440*1080p)Was Shooter angeht wird natürlich ein 30fps Game die beste Optik haben,daher sieht The Order auch deutlich besser aus als BF4.

robbitop
2014-03-04, 14:41:07
Das würde ich nicht pauschalisieren. Gran Turismo auf der PS3 läuft mit einer höheren Auflösung als die meisten anderen PS360 Spiele und hat trotzdem ein 60fps Target und ziemlich gute Grafik. Polyphony Digital ist natürlich ein Ausnahmestudio, aber genau deswegen bringt eine Pauschalisierung ja auch nichts. Ich würde wetten, dass GT7 mit 1080p und 60fps kommt und trotzdem alle aus den Latschen hauen wird.

Wir müssen viel differenzierter an die Sache herangehen.
Das ist prinzipbedingt aber so. 60 fps statt 30 fps ist nunmal Faktor 2 an HW Last. Doppelte Auflösung ebenfalls.

Also zu GT5/6. Du suggerierst ja hier, dass aus 720p nun 1080p geworden sind und aus 30 fps 60 fps (was eine Vervierfachung des Leistungsbedarfs wäre):


GT6 hat kaum höhere Frameraten als GT5:
http://www.youtube.com/watch?v=GMhE-eob-2s


So viel mehr Auflösung hat GT6 ggü GT5 nicht:
GT6 operates using a 1440x1080 framebuffer; a 12.5 per cent gain over the 1280x1080 employed in Gran Turismo 5
http://www.eurogamer.net/articles/digitalfoundry-2014-vs-gran-turismo-6


Zusammenfassend: 12,5 % mehr Auflösung und im Mittel vielleicht 10-20 % mehr fps. Wenn überhaupt. Dann sind wir bei 30 % mehr Leistungsbedarf und nicht bei 400 %. Zaubern kann PD auch nicht. Und wenn es deutlich mehr gewesen wären, würde das eher bedeuten, dass GT5 schlecht optimiert war.

Aber immerhin 30% - wie kam das zustande:

GT5 kam als die PS3 noch nicht völlig ausgeschöpft war. Da war durch die Ausnutzung von Cell zum Shading noch einiges an Potenzial, was GT6 ausschöpfen konnte. Auch wurde das MSAA zum Vorgänger weggespart und durch billiges PostAA ersetzt. Das spart Framebufferbandbreite und -speicher und auch Leistung bei den ROPs.

Hinzu kommt noch, dass bei einer Rennsimulation ja nur die Autos wirklich dynamische Objekte sind - der Rest ist statisch. Vieles ist weit entfernt vom Sichtfeld. Da kann man viel Rechenleistung sparen und sich größtenteils auf die Autos fokussieren. IMO sehen die wirklich gut aus - aber wenn man mal auf die "Map" - also die Streckenumgebung einen detailierten Blick wirft (wozu man im Rennen ja kaum kommt), ist das alles nicht mehr so wirklich beeindruckend...

Was das bringt, kann man gut an GTA4 vs GTA5 auf der PS3 sehen. Das ist schon ein deutlicher Unterschied.

Aber dennoch: doppelte Framerate und doppelte Auflösung fordern eben nunmal vierfachen Tribut. Das geht einem dann an Potenzial für Detailgrad pro Pixel "verloren"...

Wenn ich heute super alte Spiele in 4K (Downsampling auf FullHD) in 60 fps mit 32xS spiele, flimmert und ruckelt zwar nichts mehr. Aber altbackend sehen sie trotzdem aus. Es ist also immer ein Balanceakt zwischen Detailgrad und Abtastung (ob nun zeitliche Abtastung oder räumliche).

dargo
2014-03-04, 14:53:57
Carmack hat ja auch gerade wieder darauf hingewiesen, dass man mit etwa zweifacher Leistung der Rohpower rechnen kann.

Ohne jetzt Carmack zu nahe zu treten. Diese Aussage ist mir zu schwammig. Wenn er sich damit auf die CPU-Leistung bezieht glaube ich das gerne (siehe Mantle vs. DX). Auf GPU-Leistung wohl kaum Faktor 2.

robbitop
2014-03-04, 15:04:28
Ich kann mir auch bei der GPU vorstellen, dass man da einiges mehr rausholen kann, wenn man nicht abstrahieren muss, sondern für eine einzige GPU optimieren kann.
Dann schreibt man den Code so, dass er auf der GPU eine möglichst hohe Auslastung der Ausführungsressourcen hat. Im Hinblick auf Register, im Hinblick auf den Aufbau der Kontrolllogik um die ALUs, auf Caches und auf Eigenheiten.

NV40 hatte z.B. ein kostenloses NRM16. Bei Bumpmapping hätte das, wenn man es genutzt hätte, einiges gebracht. NV30 war mit INT12 pfeilschnell und mit FP32 superlangsam. Bei neueren µ-Archs kenne ich mich zu wenig aus - nehme aber an, dass es dort nicht anders mit Eigenheiten sein wird.

Wenn ich überlege, wieviele Kanäle an so einer SIMD Einheit hängen, kann ich mir gut vorstellen, dass der Compiler die nicht immer komplett füllen kann. Wenn man sich jetzt ransetzt und nur darauf optimiert, ist da sicher noch einiges drin im Vergleich zu einer reinen abstrahierten Lösung.

Indizien sind aus meiner Sicht Exklusivtitel der letzten Generationen zum Lebenszyklusende. Das wäre mit abstrahierten, generischen Lösungen so IMO nicht möglich gewesen. Wenn ich da an Shadows of the Collossus denke - auf dieser seltsamen beschränkten HW der PS2. Auch Uncharted 3 oder The Last of Us (natürlich gibt es auch dort mal Stellen mit schlechtem Artwork) waren für einen gammeligen G70 mit kastrierten Speicherinterface und insgesamt 512 MiB RAM wirklich ansehnlich.

-/\-CruNcher-/\-
2014-03-04, 15:06:18
Zwischensequenzen als Gif Animation in Foren sahen schon immer toll aus. Wenn ich mich da an die Gifs der PS3 Spiele Anno 2006 erinnere. Das in-Game Material sah dann deutlich schlechter aus. Das ist doch immer so...

Das was man nicht auf anhieb erkennt ist meistens das genialste in dem Gif würde ich sagen ist es das IBL das ist absolut nahtlos :)

auch ein interessantes PBR/PBS Material Workflow :)

http://vimeo.com/70992723

Hallo
2014-03-04, 15:16:43
Das ist einmalig (und in wie weit alte Hardware rückwirkend miteinbezogen wird, sei auch mal dahingestellt). Und danach bringt dir der Umstand, das sich die PC Versionen weiter verbessern wird, überhaupt nichts mehr, es sei denn es schleichen sich in schöner Regelmäßigkeit ein paar Mainzelmännchen bei dir in die Bude und bauen neue Hardware ein. Du wirst mit der Zeit genauso sicher bei den lowest settings landen wie die Konsolen, je nach dem was du für deinen PC bezahlt hast dauert das länger oder kürzer, aber es geht auf beiden Systemen über die Jahre stetig bergab. Ich kann daher nicht erkennen, inwiefern es auf dem PC besser sein sollte. Wenn du regelmäßig aufrüstest, dann bezahlst du dafür ja auch entsprechend viel Geld, der Konsolero entscheidet sich hingegen für die "maßgeschneiderte" Version. Wir haben es hier mit zwei verschiedenen Philosophien zu tun. Wer behauptet, dass der eine Weg besser ist als der andere, der muss sich meiner Meinung nach den Vorwurf der Ignoranz gefallen lassen.

Hmm, die Definition von PC und Konsolen hat sich seit Ewigkeiten vermischt. Konsolen kriegen PC Auswüchse wie Patches und voll bezahltes Betatesting (+Abstürze mit lustigen Fehlercodes) ab und PCs mausern sich langsam Richtung Konsolenfeeling siehe 360 Pad Unterstützung standardmässig inkl. UI UND klassischen japanischen Herstellern die es auf PC (gottseidank) wagen.

Was du bei deiner "Aufrüstargumentation" nicht vergessen darfst ist: Man rüstet niemals den ganzen PC auf und vor allem seit Core i7 2600K ( wie alt nochmal ;) ) brauchste nur ne GK alle 2/3 Jahre. Beispiel? Eine 780GTX ist (laut 3DC Perf. Angabe @1080p) gerade mal doppelt so schnell wie meine über drei Jahre alte 570 GTX! Wenn ich jetzt ne 770GTX mit 4GB VRam für knapp über 300 in mein bestehendes und völlig ausreichendes System (OC nicht miteinbegriffen) reinstecke renne ich den Konsolen mind. 3 Jahre voraus.

Dazu kommt Steam will keine Kohle für Online, Steam funktioniert wie es sollte.

Was ich sagen will, Konsolen haben sich für mich persönlich (Vorsicht meine subjektive Meinung) leider in die falsche Richtung entwickelt.

Selbst Exclusives wie Forza5 oder das PS3 GT6 sind nur noch ein Schatten ihrer selbst:(

DinosaurusRex
2014-03-04, 15:20:57
Also zu GT5/6.

Ich meine nicht GT5 im Vergleich zu GT6. Ich meine GT5+GT6 im Vergleich zu GT7.

Du hast ja explizit gesagt, dass man für 60fps tricksen müsse wenn es wirklich gut aussehen soll und ich habe gesagt, dass ich fest davon ausgehe, dass GT7 das Gegenteil beweisen wird. ;)

Deathcrush
2014-03-04, 15:33:35
Das Aliasing ist aber dennoch nervig. Man sieht an KZ wunderbar, dass Full-HD für den Content zu wenig ist.


Du hast das Spiel schon in Aktion gesehen auf einem 55"? Nein, dann solltest du das mal dringends nachholen. Das Spiel flimmert in Bewegung kaum (SP) und deutlich weniger als es BF4 tut auf dem PC @ 1080p + 20% 2AA. Mit dem LEvel kann man BF4 eigentlich wunderbar vergleichen http://www.youtube.com/watch?v=PDfu1mYQXEg


Für mich ganz klar ersichtlich dass auch die PS4 keine reine 1080p Konsole ist und erst recht nicht mit späteren Titeln sein wird.

Du hast auch behauptet das 1080p nicht möglich sein wird, vor dem Release, und nun sind es 95% der Titel die in 1080p laufen (PS4) Und das wird auch so weitergehen, vor allem bei den Exklusivspielen. Das das möglich ist, hat man bei der alten Gen gesehen und das alles mit deutlichen Grafiksprüngen nach oben (Uncharted, Killzone....)

robbitop
2014-03-04, 15:33:36
Das was man nicht auf anhieb erkennt ist meistens das genialste in dem Gif würde ich sagen ist es das IBL das ist absolut nahtlos :)

Alter - Interpunktion! :D
Ich habe genau nichts verstanden. :freak:

Ich meine nicht GT5 im Vergleich zu GT6. Ich meine GT5+GT6 im Vergleich zu GT7.

Du hast ja explizit gesagt, dass man für 60fps tricksen müsse wenn es wirklich gut aussehen soll und ich habe gesagt, dass ich fest davon ausgehe, dass GT7 das Gegenteil beweisen wird. ;)
Auch GT7 wird das gleiche Problem haben. Framerate kostet immer Leistung. Aber bei Rennspielen ist es nicht so kritisch, da dort der Fokus sowieso immer auf den Autos liegt.

Das das möglich ist, hat man bei der alten Gen gesehen und das alles mit deutlichen Grafiksprüngen nach oben (Uncharted, Killzone....)
Ab einem gewissen Punkt wird man ggf. von FullHD absehen müssen, um die Details pro Pixel noch steigern zu können.

Coda
2014-03-04, 15:39:30
NV40 hatte z.B. ein kostenloses NRM16. Bei Bumpmapping hätte das, wenn man es genutzt hätte, einiges gebracht. NV30 war mit INT12 pfeilschnell und mit FP32 superlangsam. Bei neueren µ-Archs kenne ich mich zu wenig aus - nehme aber an, dass es dort nicht anders mit Eigenheiten sein wird.
So Eigenheiten gibt's eigentlich kaum noch. Eher in Richtung wieviel Register man hat etc.

Nur für eine GPU zu optimieren bringt schon was, aber doppelt so schnell finde ich bisschen gewagt.

Botcruscher
2014-03-04, 15:41:40
Jetzt geht die Geschichte mit Optimieren und Leistung raus holen wieder los. Immer der gleiche Strohhalm. Dazu diese unsinnigen Preisvergleiche der Hardware zum PC...

del_4901
2014-03-04, 15:43:28
So Eigenheiten gibt's eigentlich kaum noch. Eher in Richtung wieviel Register man hat etc.

Nur für eine GPU zu optimieren bringt schon was, aber doppelt so schnell finde ich bisschen gewagt.
Tessellation, ShaderExport, InterpolatorPacking, GeometryShader, HiZ, ComputeSwitches...

-/\-CruNcher-/\-
2014-03-04, 15:48:36
Du hast das Spiel schon in Aktion gesehen auf einem 55"? Nein, dann solltest du das mal dringends nachholen. Das Spiel flimmert in Bewegung kaum (SP) und deutlich weniger als es BF4 tut auf dem PC @ 1080p + 20% 2AA. Mit dem LEvel kann man BF4 eigentlich wunderbar vergleichen http://www.youtube.com/watch?v=PDfu1mYQXEg



Du hast auch behauptet das 1080p nicht möglich sein wird, vor dem Release, und nun sind es 95% der Titel die in 1080p laufen (PS4) Und das wird auch so weitergehen, vor allem bei den Exklusivspielen. Das das möglich ist, hat man bei der alten Gen gesehen und das alles mit deutlichen Grafiksprüngen nach oben (Uncharted, Killzone....)


Youtube videos können nicht viel von solchen effekten zeigen sie verringern das Flimmern schon durch die DCT Kompression besser sind die Videos von Gamersyde oder Digital Foundry in den non Youtube versionen aber auch da reicht es meistens nicht aus um genau bewerten zu können aber auf jedenfall besser als jedes Youtube oder Vimeo Video ;)

robbitop
2014-03-04, 15:59:16
Jetzt geht die Geschichte mit Optimieren und Leistung raus holen wieder los. Immer der gleiche Strohhalm. Dazu diese unsinnigen Preisvergleiche der Hardware zum PC...
Was sind denn deine Argumente?

Hunter93
2014-03-04, 16:09:34
@robbitop: Warum hat Mantle das nicht ansatzweise ausgeschöpft? Waren nur 1 - 2 % auf GPU-Seite, falls ich das richtig mitbekommen habe.

fondness
2014-03-04, 16:12:48
zB weil das alles zusätzlichen Aufwand bedeutet. Man sollte mal mehr Mantle-Spiele abwarten, gab auch durchaus schon Entwickler die auch mehr GPU-Leistung erwähnt haben.

Botcruscher
2014-03-04, 16:19:09
Was sind denn deine Argumente?
Das selbst mit enormer Optimierung die 1080p 60FPS in weiter ferne sind. Die Masse wird sich bei 30FPS und variabler Auflösung einfinden. Da brauch man nichts schön reden. Dazu ist es noch 0815 PC Hardware und nicht irgendwelche Cell Zusatzeinheiten die unter obskuren Bedingungen da und dort mal helfen können.
Der Preisvergleich mit dem PC ist dann nur noch bescheuert. Erstens ist das Ergebnis deutlich hochwertiger und zweitens kostet die Software deutlich weniger.

robbitop
2014-03-04, 16:20:22
@robbitop: Warum hat Mantle das nicht ansatzweise ausgeschöpft? Waren nur 1 - 2 % auf GPU-Seite, falls ich das richtig mitbekommen habe.
Mantle ist doch nur eine API. Diese macht dir doch keine optimierte Programmierung auf eine einzige GPU. Das muss der Entwickler schon selbst tun. Und da im PC nunmal mehrere GPU Typen vorkommen, kann er das nicht tun.

Das selbst mit enormer Optimierung die 1080p 60FPS in weiter ferne sind. Die Masse wird sich bei 30FPS und variabler Auflösung einfinden. Da brauch man nichts schön reden.
Sehe ich genauso.


Dazu ist es noch 0815 PC Hardware und nicht irgendwelche Cell Zusatzeinheiten die unter obskuren Bedingen da und dort mal helfen können.
CELL war keine Hilfe sondern ein Hindernis, dass es nach und nach zu umschiffen galt. Hätte man frei mit einem vergleichbaren Transistorbudget etwas einfacheres bauen können, wäre nichts schwächeres dabei herausgekommen. Nur dass man nicht so lange gebraucht hätte, es auszuschöpfen. (siehe X360).

Die PS4 gleicht eher letzterem. Man muss nicht all zu viel umschiffen und ist schneller am Ziel. Irgendwelche mystische komplexe Sony Spezial HW hätte das Endergebnis sicher nicht zum Positiven verändert. Es hätte nur länger gedauert, bis man vergleichbare Leistung hätte.

Bedeutet aber nicht, dass man nicht gezielt für die vorhandene HW optimieren kann. Alpha Tier und Coda haben ja schon ein paar Beispiele genannt. Auch kann man mittels Compute sicherlich auch ein paar schicke Partikel/Physikgeschichten aus dem Hut später zaubern.

Auch Jaguar ist, wenn man für ihn optimiert gar nicht so langsam. Frag mal Coda. Man muss halt Konsequenz parallelisieren und AVX nutzen.

Der Preisvergleich mit dem PC ist dann nur nach bescheuert. Erstens ist das Ergebnis deutlich hochwertiger und zweitens kostet die Software deutlich weniger.
Ersteres bezweifle ich. Ein PC für 400 € Ende 2013 auf das Level einer PS4 zu bekommen. Und am Ende muss er dann die BQ eines Exklusivtitels bis zum Lebenszyklusende der PS4 schaffen. Selbst bei gleichwertiger HW hat man einfach einen gewissen Nachteil durch Abstrahierung auf eine große offene Plattform statt Optimierung auf eine geschlossene.

Letzteres ist klar - aber nicht Teil der Betrachtung. Die PC Spielepreise gerade durch die günstigen Keys sind konkurrenzlos. Da bekommt man häufig AAA Spiele zum Launch für unter 30 €. Auf der Konsole muss der Hersteller ja noch mit verdienen.

DinosaurusRex
2014-03-04, 16:32:49
Das selbst mit enormer Optimierung die 1080p 60FPS in weiter ferne sind. Die Masse wird sich bei 30FPS und variabler Auflösung einfinden. Da brauch man nichts schön reden. Dazu ist es noch 0815 PC Hardware und nicht irgendwelche Cell Zusatzeinheiten die unter obskuren Bedingungen da und dort mal helfen können.
Der Preisvergleich mit dem PC ist dann nur noch bescheuert. Erstens ist das Ergebnis deutlich hochwertiger und zweitens kostet die Software deutlich weniger.

Diese ganze Art und Weise wie hier einige ihre Argumentation führen ist doch absolut beknackt. Du bist nur am Verallgemeinern.

1. Entweder wir sagen das es standard PC Hardware ist und sagen gleichzeitig, dass die PS4 das schnellste APU + unified RAM System aller Zeiten ist, oder wir akzeptieren, dass es keine 0815 Hardware von der Stange ist und stellen die nackten Zahlen den neuen Möglichkeiten der Systemarchitktur gegenüber.

2. Gehst du auf jedem System Kompromisse ein. Der Unterschied ist, dass diese Aufgabe auf den Konsolen der Enwickler übernimmt. Auf dem PC kannst du auch nicht alles gleichzeitig haben und "hochwertiger" wird dann ganz schnell zu einer Frage des persönlichen Geschmacks: Es gibt Zocker die spielen mit minimalen Settings und 120fps, es gibt welche die spielen mit maximalen Settings und 30fps.

3. Die Software kostet so viel, wie es für den jeweiligen Distributionskanal üblich ist. Steam Sales als "PC Preise" durchgehen zu lassen und dann für "Konsolenpreise" den Amazon-Katalog zu zitieren, hilft niemandem weiter, es sei denn, man will die anderen Diskussionsteilnehmer gezielt hinters Licht führen. Auch in den Konsolen-Stores gibt es Sales (im Sommer war jedes Naughty Dog Spiel unter 10€ zu haben, oder vor kurzem der Winter Sale im PSN), es gibt einen vom Systemhersteller in aller Öffentlichkeit legitimierten Gebrauchthandel und es gibt solche Dinge wie die Instant Game Collection. Wenn du deine Spiele direkt im Steam Store kaufst, dann bezahlst du am Launch Day auch locker 50-60 Euro.

Iruwen
2014-03-04, 17:00:53
Am PC gibt es auch mehr als Steam, teilweise sind PC-Spiele als Retail-Version sowohl zum Launch als auch im Angebot selbst bei MM/Saturn günstiger als online. Im Schnitt sind PC-Spiele naturgemäß günstiger und weniger preisstabil als Konsolenspiele.

Deathcrush
2014-03-04, 17:11:42
Youtube videos können nicht viel von solchen effekten zeigen sie verringern das Flimmern schon durch die DCT Kompression

Das wollte ich auch nicht damit bewirken und wenn du den ganzen Post gelesen hättest, hättest du gewußt, das ich geschrieben habe, er soll sich das Spiel direkt auf einem LCD anschaun.

dargo
2014-03-04, 17:38:11
Du hast das Spiel schon in Aktion gesehen auf einem 55"? Nein, dann solltest du das mal dringends nachholen.
Tut mir leid, aber ein Fernseher ist für mich kein Maßstab. Ich hatte schon testweise den PC am TV und fand das Bild grottig. Viel zu kleine Auflösung (Full-HD) für eine zu große Fläche.


Du hast auch behauptet das 1080p nicht möglich sein wird, vor dem Release, und nun sind es 95% der Titel die in 1080p laufen (PS4) Und das wird auch so weitergehen, vor allem bei den Exklusivspielen.
Aha... und das weißt du woher? Die Dinger sind gerade mal wenige Monate am Markt. Warte erstmal Spiele ab die auch richtig nach Leistung schreien. In 2-3 Jahren können wir uns das gerne nochmal anschauen.

Deathcrush
2014-03-04, 17:52:21
Das war bisher bei jeder Konsolengen so und das wird auch bei dieser so sein. Und bisher lagst du ja immer falsch was das angeht ;)

Btw Schliesse meinetwegen die Konsole an deinem LCD Monitor an, mir egal, Urteile aber erst, wenn du die Spiele in Aktion gesehen hast.

dargo
2014-03-04, 18:12:06
Btw Schliesse meinetwegen die Konsole an deinem LCD Monitor an, mir egal, Urteile aber erst, wenn du die Spiele in Aktion gesehen hast.
Brauche ich nicht. Es gibt genug Videomaterial. Und nein, den YT-Rotz meine ich damit nicht. Wenn ich was downloade dann mit sehr guter Videoqualität.

Deathcrush
2014-03-04, 18:18:24
Und wie kommst du dann auf das Ergebnis das 1080p zu wenig wäre? Wie gesagt, wenn ich BF4 zum Vergleich heranziehe, flimmert das bedeutend mehr (am gleichen Monitor) und das mit einer 20%igen höheren Auflösung + AA

http://www.gamersyde.com/news_killzone_sf_30_fps_comparison-15007_en.html

Wäre die Physik besser, würde KZSF ganz klar die bessere Grafik bieten.

dargo
2014-03-04, 18:19:55
Und wie kommst du dann auf das Ergebnis das 1080p zu wenig wäre?
Aus nicht totkomprimierten Screens.

Deathcrush
2014-03-04, 18:31:42
Du sollst mir mal konkrete Beispiele nennen ;) bzw zeigen.

Botcruscher
2014-03-04, 19:36:43
1. ...
Eine APU ist 0815 Stange. Wie schnell die ist spielt keine Rolle.

2. ...
Ich kann es schon wegen AA/AF nicht vergleichen. Wenn das aus ist wird jede Mittelklassegrafikkarte über Jahre reichen.

Steam Sales als "PC Preise" durchgehen zu lassen und dann für "Konsolenpreise" den Amazon-Katalog zu zitieren, hilft niemandem weiter, es sei denn, man will die anderen Diskussionsteilnehmer gezielt hinters Licht führen.

Na dann was aktuelles:
Thief 4:
PC ab 18,45 (http://geizhals.at/eu/thief-4-download-pc-a929113.html)
One ab 56,88 (http://geizhals.at/eu/thief-4-deutsch-xbox-one-a959568.html)
PS4 59,99 (http://geizhals.at/eu/thief-4-deutsch-ps4-a928711.html)
Ist jetzt bestimmt wieder nicht repräsentativ... 5 Käufe im Jahr, über 3 Jahre und man hat das nächste Grafikkartenupdate gemütlich rein.

Wäre die Physik besser, würde KZSF ganz klar die bessere Grafik bieten.
Artdesign ja, Grafik nein. Flimmern ist zum vergleichen ganz schlecht. Das profitiert ja gerade von "Unschärfe".

Coda
2014-03-04, 20:51:30
Das Flimmern kann man wegbekommen ohne viel Rechenleistung, haltet euch da nicht so dran fest.

-/\-CruNcher-/\-
2014-03-05, 02:39:41
Und wie kommst du dann auf das Ergebnis das 1080p zu wenig wäre? Wie gesagt, wenn ich BF4 zum Vergleich heranziehe, flimmert das bedeutend mehr (am gleichen Monitor) und das mit einer 20%igen höheren Auflösung + AA

http://www.gamersyde.com/news_killzone_sf_30_fps_comparison-15007_en.html

Wäre die Physik besser, würde KZSF ganz klar die bessere Grafik bieten.

Du darfst aber auch nicht den Produktionsaufwand vergessen, der war sicher nicht ohne vor allem die Pre Render Zeit wie damals bei Mirrors Edge, Rage oder Forza 5 ;)

Das Flimmern kann man wegbekommen ohne viel Rechenleistung, haltet euch da nicht so dran fest.

Jo TXAA und SMAA TX2 sind schon verdammt gut und es arbeiten immer mehr Studios an ihren eigenen Temporalen Solutions :)

Ein Spiel bei denen heute noch in Bewegung die "normalen" Texturen Flimmern kann man eigentlich garnicht mehr ernst nehmen Zäune, Bäume, Haar oder andere sub pixel objekte mal ausgenommen wobei TXAA auch hier schon sehr gute Ergebnisse liefert im vergleich zu MSAA oder eben Brutal gleich SGSSAA.

DinosaurusRex
2014-03-05, 06:27:04
Zum Thema Optimierungen und "coding-to-the-metal". Cort Stratton vom ICE Team hat beispielsweise letzte Woche erst das hier verkündet:

http://abload.de/img/metalp5kh7.png

Quelle (https://twitter.com/postgoodism/status/439568280232013824)

Und die werden sicher auch sukzessiv andere Bereiche boosten, oder nicht?.

---

Was mir grad auffällt: Man bermerke wie Cort innerhalb der Twitter Diskussion auf die Frage zu AVX und AVX2 mit "No idea" antwortet, frei nach dem Motto "Wir verschwenden unsere Zeit nicht mit den Schwächen der Architektur". Coda hat uns zu dem Thema Intrinsics vor einigen Wochen ja erheblich präziser geantwortet. ;)

Hallo
2014-03-05, 07:36:00
Was für eine CPU und GPU (als APU) hätte man für die PS4 nehmen müssen um sagen wir einmal ein Killzone in 1080p, 60fps, 4xAA (nicht post) und dynamischen AF zwischen 8x und 16x zu realisieren? Und wieviel würde dann die PS4 kosten? Natürlich entsprechend der Timeline als sie entwickelt wurde.

SamLombardo
2014-03-05, 08:15:34
Na dann was aktuelles:
Thief 4:
PC ab 18,45 (http://geizhals.at/eu/thief-4-download-pc-a929113.html)
One ab 56,88 (http://geizhals.at/eu/thief-4-deutsch-xbox-one-a959568.html)
PS4 59,99 (http://geizhals.at/eu/thief-4-deutsch-ps4-a928711.html)
Ist jetzt bestimmt wieder nicht repräsentativ... 5 Käufe im Jahr, über 3 Jahre, und man hat das nächste Grafikupdate gemütlich rein.

Aber NUR davon ausgehend, dass man Sammler ist und alte Spiele irgendwo hortet. Ich kaufe ein Konsolenspiel, spiele es durch und verkaufe wieder es mit durchschnittlich 10 Euro "Verlust". Spiele mehrmals durschpielen mach ich nie (Zeitgründe, mehrere ungespielte <5€ Steam Angebote, Überangebot an neuen guten Games). Eigentlich jeder, denn ich kenne, der eine Konsole besitzt, macht das genauso. Das relativiert die Rechnung schon ein wenig;)

robbitop
2014-03-05, 08:37:01
Was für eine CPU und GPU (als APU) hätte man für die PS4 nehmen müssen um sagen wir einmal ein Killzone in 1080p, 60fps, 4xAA (nicht post) und dynamischen AF zwischen 8x und 16x zu realisieren? Und wieviel würde dann die PS4 kosten? Natürlich entsprechend der Timeline als sie entwickelt wurde.
1080p läuft es ja bereits. 60 fps ist also eine Verdopplung für CPU und GPU. Bei MSAA ist es seit DR-Engines immer sehr schwierig. Das kostet abartig viel Leistung (nicht wie früher als es noch 20-30 % gekostet hat) und sieht oftmals überhaupt nicht gut aus. Ich sage mal zusätzliche 50 %. Macht also eine doppelt so schnelle CPU (also 4 BD Module mit 3,2 GHz) und eine 2,5x so schnelle GPU. Das wäre dann eine 290X.

Die Konsole würde sich damit nicht nur kostenmäßig aufblähen sondern auch thermisch. Das Ding würde sicher das Doppelte kosten.

dargo
2014-03-05, 09:11:35
Du sollst mir mal konkrete Beispiele nennen ;) bzw zeigen.
Überwiegend Indoor-Szenen.
http://i0.wp.com/gearnuke.com/wp-content/uploads/2013/10/killzone-shadow-fall-1.jpg
http://www.gamespot.com/api/image/scale_super/2412001-1453231689-killz.png

Beim Geländer oder der Treppe schwächelt das TMAA bzw. wie es nun von Sony TSSAA genannt wird. Mir kommt es auch so vor als ob das Game intern wegen dem verwendeten AA einen Nachschärfefilter verwendet. Ähnlich wie Crysis 3. Spricht natürlich nichts dagegen solange der Entwickler damit nicht übertreibt was zu "Artefakten" führt. Ohne Nachschärfung wäre das Bild zu blurrig.

Hier sieht man es auch ganz gut, wieder überwiegend am Geländer.
http://pixelvolt.com/wp-content/uploads/2013/11/360188.jpg

del_4901
2014-03-05, 09:32:56
Jo TXAA und SMAA TX2 sind schon verdammt gut und es arbeiten immer mehr Studios an ihren eigenen Temporalen Solutions :)

Ein Spiel bei denen heute noch in Bewegung die "normalen" Texturen Flimmern kann man eigentlich garnicht mehr ernst nehmen Zäune, Bäume, Haar oder andere sub pixel objekte mal ausgenommen wobei TXAA auch hier schon sehr gute Ergebnisse liefert im vergleich zu MSAA oder eben Brutal gleich SGSSAA.Ich glaube coda meinte das ganz lean und mean.

ndrs
2014-03-05, 10:35:24
1080p läuft es ja bereits. 60 fps ist also eine Verdopplung für CPU und GPU.

Falls im aktuellen Arbeitspunkt beide Komponenten limitieren.

eine doppelt so schnelle CPU (also 4 BD Module mit 3,2 GHz)

Hast du da nicht bei einer der Zahlen etwas zu hoch gegriffen? Angenommen ein BD-KERN hat die gleiche IPC wie Jaguar (was wohl nicht so falsch sein sollte), hätten wir hier doppelte Kerne und doppelten Takt, also vierfache Leistung.

Iruwen
2014-03-05, 11:15:55
https://twitter.com/XboxP3/status/439673026699751425
Raytracing auf der One? Does not compute... huehuehue :cool:

Botcruscher
2014-03-05, 11:58:45
Die Leistung dazu kommt bestimmt aus der Klaut.

Lightning
2014-03-05, 12:25:55
Hast du da nicht bei einer der Zahlen etwas zu hoch gegriffen? Angenommen ein BD-KERN hat die gleiche IPC wie Jaguar (was wohl nicht so falsch sein sollte), hätten wir hier doppelte Kerne und doppelten Takt, also vierfache Leistung.

Ein BD-Modul sind doch nur 2 logische Kerne.

Watson007
2014-03-05, 12:27:59
Aber NUR davon ausgehend, dass man Sammler ist und alte Spiele irgendwo hortet. Ich kaufe ein Konsolenspiel, spiele es durch und verkaufe wieder es mit durchschnittlich 10 Euro "Verlust". Spiele mehrmals durschpielen mach ich nie (Zeitgründe, mehrere ungespielte <5€ Steam Angebote, Überangebot an neuen guten Games). Eigentlich jeder, denn ich kenne, der eine Konsole besitzt, macht das genauso. Das relativiert die Rechnung schon ein wenig;)

darf man auf ebay als privater Verkäufer eigentlich auch mittlerweile 18er Titel verkaufen?

ich stehe auf Horrorspiele und die kann man so schlecht weiterverkaufen ;)

robbitop
2014-03-05, 12:37:19
Falls im aktuellen Arbeitspunkt beide Komponenten limitieren.
Es wurde explizit nach Killzone gefragt. Das scheint bei 1080p und 30 fps zu laufen.

Hast du da nicht bei einer der Zahlen etwas zu hoch gegriffen? Angenommen ein BD-KERN hat die gleiche IPC wie Jaguar (was wohl nicht so falsch sein sollte), hätten wir hier doppelte Kerne und doppelten Takt, also vierfache Leistung.
Wieso vierfach? 8x Jaguarkerne entsprechen bei gleichem Takt grob 4 BD Modulen. Da die Jaguars nicht hoch takten können, habe ich halt 4 BD Module @3,2 GHz gewählt.

BD Kerne sind zwar etwas stärker als Jaguar Kerne - aber die CMT Skalierung ist ja nicht 100 %. Dann passt das wieder.

ndrs
2014-03-05, 13:20:00
Es wurde explizit nach Killzone gefragt. Das scheint bei 1080p und 30 fps zu laufen.

Ja, ich meine ja auch, ob eben diese Anwendung auf 30fps laufend sowohl CPU als auch GPU 100% auslastet. Sonst müsstest du ja für deine Beispielrechnung nicht beide Komponenten verdoppeln, sondern vielleicht nur die GPU oder die CPU nur leicht übertakten.

Wieso vierfach? 8x Jaguarkerne entsprechen bei gleichem Takt grob 4 BD Modulen.
100% Brainfart meinerseits. Ich war irgendwie bei 4x Jaguar bei den Konsolen :eek:

Botcruscher
2014-03-05, 13:31:03
Ich finde jetzt leider mal wieder keine IPC Vergleiche aber BD dürfte auch mit CMT deutlich mehr rein hauen. Gerade CMT dürfte bei der Programmierung auf Konsolen doch deutlich Richtung echten Kern streben.

][immy
2014-03-05, 13:40:31
Ja, ich meine ja auch, ob eben diese Anwendung auf 30fps laufend sowohl CPU als auch GPU 100% auslastet. Sonst müsstest du ja für deine Beispielrechnung nicht beide Komponenten verdoppeln, sondern vielleicht nur die GPU oder die CPU nur leicht übertakten.

100% Brainfart meinerseits. Ich war irgendwie bei 4x Jaguar bei den Konsolen :eek:
ich glaube können davon ausgehen das die CPU derzeit noch nicht zu 100% ausgelastet ist, oder wenigstens nicht effizient ausgelastet ist. kennen wir ja zu genüge aus dem PC bereich wo sich immernoch viele spiele schwer tun, überhaupt mehr als 1-2 CPU Kerne zu benutzen. erst so langsam geht es auch wirklich los das mehre CPU Kerne auch wirklich genutzt werden. häufig limitiert trotzdem schon ein Kern bei spielen, weil die last auf die anderen Kerne häufig nicht gleichmäßig verteilt wird.
also bei 30fps limitiert wohl noch nicht die CPU. das sieht man ja im multiplayermodus wo dank halbierter auflösung mehr drin ist, aber auch hier werden dei 60fps nicht wirklich erreicht sondern es ist eine achterbahnfahrt. hier nun herauszufinden ob es an der CPU oder GPU liegt ist wohl etwas schwierig. kann genauso gut an der bandbreitenlimitierung irgendeiner anderen komponte liegen (z.b. ist ja auch die speicherbandbreite der cpu limitiert). aber besonders Killzone ist noch nicht besonders aussagekräftig, da es ein launch-titel war und hier die Zeit für Optimierungen eher knapp ist, vor allem wenn SDK und treiber noch weit von einem finalen status entfernt sind.
werden die komponenten zu 100% ausgelastet?... eventuell... .werden sie effizient ausgelastet? vermutlich nicht, denn das ergibt sich erst mit der Zeit bei Konsolen.
zu dem Zeitpunkt war für GG der sprung von 1080p 30fps auf 1080p 60fps auf jeden fall zu viel. Das man die Auflösung halbiert hat, deute eher darauf hin, das zu diesem Zeitpunkt die GPU mit dem engine/treiber-stand limitierte. das man dann trotzdem keine 60fps erreicht, deutet wiederum darauf hin, das die CPU (oder irgendwas sonst) limitiert.
würde Killzone z.b. erst jetzt im März erscheinen wären die 60fps wohl wiederum kaum ein Problem gewesen, aber man hätte einen AAA Titel zum launch weniger und die Entwicklungskosten wären höher.

Deathcrush
2014-03-05, 13:51:35
Überwiegend Indoor-Szenen.
http://i0.wp.com/gearnuke.com/wp-content/uploads/2013/10/killzone-shadow-fall-1.jpg
http://www.gamespot.com/api/image/scale_super/2412001-1453231689-killz.png

Beim Geländer oder der Treppe schwächelt das TMAA bzw. wie es nun von Sony TSSAA genannt wird. Mir kommt es auch so vor als ob das Game intern wegen dem verwendeten AA einen Nachschärfefilter verwendet. Ähnlich wie Crysis 3. Spricht natürlich nichts dagegen solange der Entwickler damit nicht übertreibt was zu "Artefakten" führt. Ohne Nachschärfung wäre das Bild zu blurrig.

Hier sieht man es auch ganz gut, wieder überwiegend am Geländer.
http://pixelvolt.com/wp-content/uploads/2013/11/360188.jpg

Das erste Bild stammt aus dem MP. Und dennoch ist das Spiel viel ruhiger und sauberer als viele derzeitig erhältlichen PC Spiele, allen voran Battlefield 4. Und das mal ein Geländer flimmert, das hast du in JEDEM Spiel. Wieso du das jetzt gerade bei KZSF kritisierst und behauptest, man bräuchte für das Game 4K, ist mir ein Rätsel. Spiele es in echt und beurteile dann. Bilder sind nicht aussagekräftig und nur winzig kleine Teileindrücke von einem ganzen.

robbitop
2014-03-05, 13:55:28
Ja, ich meine ja auch, ob eben diese Anwendung auf 30fps laufend sowohl CPU als auch GPU 100% auslastet. Sonst müsstest du ja für deine Beispielrechnung nicht beide Komponenten verdoppeln, sondern vielleicht nur die GPU oder die CPU nur leicht übertakten.


Bei Konsolen kannst du davon ausgehen, dass die Entwickler jedes Fitzel an Leistung jeder Komponente mitnehmen. Da wird idR nichts liegengelassen.

Ich finde jetzt leider mal wieder keine IPC Vergleiche aber BD dürfte auch mit CMT deutlich mehr rein hauen. Gerade CMT dürfte bei der Programmierung auf Konsolen doch deutlich Richtung echten Kern streben.
Naja gerade in der Konsolenwelt wird auch gern jede Ausführungsressource voll ausgeschöpft und viel mit SIMD Code gearbeitet. BD hat pro Modul halt nur 1x FPU. Das wird sich bei der Skalierung schon auswirken.
Vielleicht ist man mit Steamroller aber immer noch etwas besser in Punkto pro Kern IPC (inkl. CMT Malus).

dargo
2014-03-05, 14:36:03
Das erste Bild stammt aus dem MP. Und dennoch ist das Spiel viel ruhiger und sauberer als viele derzeitig erhältlichen PC Spiele, allen voran Battlefield 4. Und das mal ein Geländer flimmert, das hast du in JEDEM Spiel. Wieso du das jetzt gerade bei KZSF kritisierst und behauptest, man bräuchte für das Game 4K, ist mir ein Rätsel.
Was soll eigentlich ständig dieser Vergleich mit Battlefield 4 oder anderen Games? Es gibt genug andere Spiele die ebenfalls nach 4k schreien wenn der Content stimmt und aufgrund des Renderers kein gutes Antialiasing möglich ist.

snutzer
2014-03-05, 14:55:21
Wie wäre denn dann der Stromverbrauch? Doppelt so schnelle CPU und GPU, dazu dann noch doppelt so schneller oder breiter Speicher. Doch nicht etwa nur doppelt so hoch? So um die 300 Watt?

edit: Und wäre das dann noch eine Konsole?

Hallo
2014-03-05, 15:13:38
1080p läuft es ja bereits. 60 fps ist also eine Verdopplung für CPU und GPU. Bei MSAA ist es seit DR-Engines immer sehr schwierig. Das kostet abartig viel Leistung (nicht wie früher als es noch 20-30 % gekostet hat) und sieht oftmals überhaupt nicht gut aus. Ich sage mal zusätzliche 50 %. Macht also eine doppelt so schnelle CPU (also 4 BD Module mit 3,2 GHz) und eine 2,5x so schnelle GPU. Das wäre dann eine 290X.

Die Konsole würde sich damit nicht nur kostenmäßig aufblähen sondern auch thermisch. Das Ding würde sicher das Doppelte kosten.

Klingt einleuchtend.
Hat DR immer noch mit AA zu kämpfen? Und was ist genau der Vorteil von DR? Edit: Ah, die Schatten sind es. Was ist eigentlich aus dem effizienten Tiling der PowerVR Architektur geworden?
Aber ja von 30 auf 60fps heisst Verdopplung. Ich versuche nur den Flaschenhals (wenn es den überhaupt gibt) bei der PS4 ausfindig zu machen welchen man theoretisch mit etwas mehr Geld hätte erweitern können. Auch würde mich interessieren wie ein Corei5 mit der gleichen GPU auf dem selben Package, nicht Die, performen würde. Abgesehen davon das 1,6 GHz ein sanfter Schlaf wäre für sone CPU TDP mässig.

DinosaurusRex
2014-03-05, 16:17:57
https://twitter.com/XboxP3/status/439673026699751425
Raytracing auf der One? Does not compute... huehuehue :cool:

Mark Cerny wurde vor einigen Monaten ebenfalls auf Raytracing angesprochen. Er hat gesagt, dass die Branche einen Umstieg auf Raytracing so lange wie möglich rauszögern wird, ganz gleich ob die erforderliche Hardware vorhanden ist oder nicht, weil es eine nie dagewesene Kostenexplosion auslösen würde, infolge derer die meisten Studios schließen müssten. Allerdings hat er dabei auch explizit gesagt, dass man streng trennen müsse zwischen Dingen wie Verdeckungsberechnungen, welche bereits heute auf dieses Prinzip zurückgreifen, und dem eigentlichen Rendering.

robbitop
2014-03-05, 16:25:44
Wie wäre denn dann der Stromverbrauch? Doppelt so schnelle CPU und GPU, dazu dann noch doppelt so schneller oder breiter Speicher. Doch nicht etwa nur doppelt so hoch? So um die 300 Watt?

edit: Und wäre das dann noch eine Konsole?
Kann man ja grob abschätzen anhand verfügbarer Komponenten. Eine 290X zieht mindestens 250 W. Ein BD mit 3,2 GHz mit 4 Modulen - da ist man selbst mit SBinning vermutlich bei ~ 80 W.

Hinzu kommt noch der Rest der Konsole und Verluste im Netzteil dann sind wir bei 350 W.

Das würde schon gehen - wäre aber mindestens doppelt so teuer.

Klingt einleuchtend.
Hat DR immer noch mit AA zu kämpfen? Und was ist genau der Vorteil von DR? Edit: Ah, die Schatten sind es.

Die Beleuchtung ist es. Man kann sehr viel mehr Lichtquellen bei gleicher Framerate benutzen.
MSAA und DR werden prinzipbedingt immer schwierig bleiben - zumindest teurer. Es gibt eben mehr als nur den Framebuffer, der dann durch MSAA abgedeckt werden muss.

Was ist eigentlich aus dem effizienten Tiling der PowerVR Architektur geworden?
Gibt es noch in jedem IMG Produkt in SFF Geräten (z.B. im iPhone).

Allerdings nahm mittels modernen Engines die Bedeutung von TBDR ab. Vieles wird schon gar nicht mehr an die GPU geschickt, was nicht zu sehen ist. Den rest cullt die GPU weg. Außerdem kostet Overdraw bei DR-Engines kaum noch etwas, da ja die Beleuchtung erst nach dem Culling passiert.

Einzig verbleibender Vorteil eines TBDRs ist der Tilebuffer - ein Cache in den Kachel für Kachel der Framebuffer gerendert wird. Das spart VRAM Bandbreite. Das kann man grob mit dem ESRAM der Xbone oder dem eDRAM der X360 vergleichen. Nur dass du keine riesigen Mengen brauchst, weil nur Kachel für Kachel gerendert wird (das geht aber nur durch das Binning beim TBDR). Die Caches sind sehr klein.

Aber ja von 30 auf 60fps heisst Verdopplung. Ich versuche nur den Flaschenhals (wenn es den überhaupt gibt) bei der PS4 ausfindig zu machen welchen man theoretisch mit etwas mehr Geld hätte erweitern können. Auch würde mich interessieren wie ein Corei5 mit der gleichen GPU auf dem selben Package, nicht Die, performen würde. Abgesehen davon das 1,6 GHz ein sanfter Schlaf wäre für sone CPU TDP mässig.
Jaguar hat halt einen großen Vorteil. Er liefert einfach viel Leistung pro Watt. Absolut liefert er nicht viel Leistung ab. Aber man braucht nicht viele Transistoren und viel TDP pro Kern abgeben. Also hat man halt einfach mehr von den Dingern verbaut und ist immernoch sehr günstig. Auf der Konsole geht das auch, weil man dort wesentlich besser auf mehrere Kerne den Code anpassen kann als auf dem PC.

Natürlich wäre ein Intel Core besser. Aber der hätte auch mehr Transistoren gekostet und hätte mehr verbraucht (und Intel hätte sich das auch vergolden lassen).

IMO ist die PS4 wirklich gut balanciert und nutzt auch in etwa den Sweetspot zwischen Preis und Leistung. Deutlich mehr Leistung wäre auch deutlich teurer geworden.

][immy
2014-03-05, 16:26:06
Mark Cerny wurde vor einigen Monaten ebenfalls auf Raytracing angesprochen. Er hat gesagt, dass die Branche einen Umstieg auf Raytracing so lange wie möglich rauszögern wird, ganz gleich ob die erforderliche Hardware vorhanden ist oder nicht, weil es eine nie dagewesene Kostenexplosion auslösen würde, infolge derer die meisten Studios schließen müssten. Allerdings hat er dabei auch explizit gesagt, dass man streng trennen müsse zwischen Dingen wie Verdeckungsberechnungen, welche bereits heute auf dieses Prinzip zurückgreifen, und dem eigentlichen Rendering.
ich bin zwar kein experte, aber welche kostenexplosion (außer vielleicht die hardware) wird durch raytracing verursacht. sollte es viele sachen bei der spiele-entwicklung nicht sogar vereinfachen? ich habe das bisher immer nur so verstanden, das die entsprechende hardware erst mal da sein muss die das entsprechend gut kann, aber dadurch in sachen software und grafik vieles einfacher wird, weil man nicht mehr auf so viele tricks zurückgreifen muss.

DinosaurusRex
2014-03-05, 16:33:58
[immy;10134651']ich bin zwar kein experte, aber welche kostenexplosion (außer vielleicht die hardware) wird durch raytracing verursacht.

Weil man alle Engines elementar umbauen müsste. Zurück auf Los, sozusagen.


Hinzu kommt noch der Rest der Konsole und Verluste im Netzteil dann sind wir bei 350 W.

Das würde schon gehen - wäre aber mindestens doppelt so teuer.

Und wie gut sich so eine $799 Konsole mit 350W TDP verkaufen würde, kann sich sicher jeder hier denken. Die PS4 hat Anfang März 6 Millionen geknackt (Quelle (http://blog.us.playstation.com/2014/03/03/ps4-hits-6-million-ushers-in-new-era-of-social-gameplay/)). Auch wenn es abgedroschen klingt, aber bei einer Konsole muss die Balance stimmen.

dargo
2014-03-05, 16:38:48
Kann man ja grob abschätzen anhand verfügbarer Komponenten. Eine 290X zieht mindestens 250 W. Ein BD mit 3,2 GHz mit 4 Modulen - da ist man selbst mit SBinning vermutlich bei ~ 80 W.

Hinzu kommt noch der Rest der Konsole und Verluste im Netzteil dann sind wir bei 350 W.

Das würde schon gehen - wäre aber mindestens doppelt so teuer.

Das würde schon aus thermischen Gründen in diesen kleinen Kisten nicht funktionieren. Zumindest nicht ohne Gehörschutz.

DinosaurusRex
2014-03-05, 16:42:53
IMO ist die PS4 wirklich gut balanciert und nutzt auch in etwa den Sweetspot zwischen Preis und Leistung. Deutlich mehr Leistung wäre auch deutlich teurer geworden.

Nicht wenn Sony stark subventioniert. Aber je stärker die Subvention, desto länger der Konsolenzyklus und ich denke auch in dieser Hinsicht haben sie sich richtig entschieden, wenn man Cernys "Time-to-Triangle"-Argumentation der kaum vorhandenen Subvention gegenüberstellt.

robbitop
2014-03-05, 16:45:32
Das würde schon aus thermischen Gründen in diesen kleinen Kisten nicht funktionieren. Zumindest nicht ohne Gehörschutz.
Die müsste schon deutlich größer werden. Aber in einem Format wie ein großer AVR ist das IMO schon drin.

Aber so eine Konsole würde niemand kaufen. Die veraltet genauso und wäre zu teuer.

Nicht wenn Sony stark subventioniert. Aber je stärker die Subvention, desto länger der Konsolenzyklus und ich denke auch in dieser Hinsicht haben sie sich richtig entschieden, wenn man Cernys "Time-to-Triangle"-Argumentation der kaum vorhandenen Subvention gegenüberstellt.
Ich vermute, dass die PS4 schon jetzt nicht subventionsfrei sein wird. Subventionieren kann man wirtschaftlich nur in Grenzen, sonst wird kein Geld verdient.

Ein bisschen mehr Leistung lohnt außerdem nicht. Wenn es einen deutlichen Unterschied machen soll, muss schon deutlich mehr Leistung her. Unter Faktor 2 macht es wenig Sinn. Und das wäre nicht subventionierbar gewesen. IMO hat Sony alles richtig gemacht. Gute HW Wahl IMO.

][immy
2014-03-05, 16:46:11
Weil man alle Engines elementar umbauen müsste. Zurück auf Los, sozusagen.

ähm, eigentlich nicht, aber trotzdem, die engine ist schon lange nicht mehr das teuerste an einem projekt. sondern der inhalt (grafiken, level, modellierung, sound, ...) verschlinkt wahnsinnig viel zeit. und wie gesagt, engine-seitig wäre (zumindest so wie ich es bisher gelesen habe) vieles einfacher, weil man viele dinge nicht nachsimulieren muss, die man quasi "for free" gleich mit bekommt. größter knackpunkt derzeit ist eher die hardware die nicht schnell genug dafür ist.

@Hallo
Intel ist im Konsolengeschäft nicht grad beliebt. die haben zwar die CPUs und Prozesse, wollen aber auch, das du wenn dann alles bei denen fertigen lässt. man wäre also abhängig von einem sehr teuren hersteller. zudem hat intel keine grafikeinheiten zu bieten die irgendwie konkurrenzfähig wären, bei vertretbaren stromverbrauch.

Nicht wenn Sony stark subventioniert. Aber je stärker die Subvention, desto länger der Konsolenzyklus und ich denke auch in dieser Hinsicht haben sie sich richtig entschieden, wenn man Cernys "Time-to-Triangle"-Argumentation der kaum vorhandenen Subvention gegenüberstellt.
die Subenvention könnte Sony grad die Firma kosten. sie subventionieren zwar schon deutlich weniger als bei der PS3 aber trotzdem ist es aktuell ein hohes verlustgeschäft. MS hat sich schon absichtlich nicht mehr dafür entschieden die hardware selbst zu subventionieren. sollte der konsolenzyklus kürzer werden, wäre es extrem schwierig die kosten überhaupt wieder einzuspielen.

DinosaurusRex
2014-03-05, 16:57:24
IMO hat Sony alles richtig gemacht. Gute HW Wahl IMO.

Wobei man dieses Phänomen aber häufig beobachten kann, wenn ein derart großes Unternehmen mit dem Rücken zur Wand steht. Wenn es erstmal zu so einer Situation gekommen ist, fehlen in den meisten Fällen allerdings auch häufig die Ressourcen um die verschiedenen Kommunikationskanäle ausreichend zu versorgen und das gute Produkt kann den Misserfolg nicht mehr abhalten. Diesen Fehler hat Sony nicht gemacht. Die Kampagne für die PS4 ist die größte in der Geschichte des Unternehmens und wenn man sieht, wie sie das Tafelsilber Anfang 2013 verkaufen mussten, dann merkt man erstmal welchen Stellenwert die Marke PlayStation für Sony hat. Da scheinen wirklich sehr fähige Leute am Werk zu sein.

Hallo
2014-03-06, 04:50:29
@robbitop,
Danke für die ausführliche Erklärung. Hab sogar alles verstanden.

Was TBDR betrifft bleibt also nur noch der Vorteil des sequenziellen Abarbeitens der Tiles um den FB zuzupflastern. Interessant da klassische 8/16-Bit 2D Grafik ähnlich aufgebaut ist.

@][immy

Jupp MS ist damals mit Intel und NV nicht gut gefahren. Dafür war diese Konsole extrem potent für ihre Zeit und gar nicht mal so teuer aber subventioniert.

DinosaurusRex
2014-03-06, 07:55:35
Mark Cerny im Interview: 30 Years in the Making: The Evolution of Video Game Design (http://www.youtube.com/watch?v=EACNI6N0ICU)

tobor
2014-03-06, 11:27:35
Am Ende werden die Spiele die Hardware immer weiter durch Optimierung und bessere Tools ausnutzen - aber auch mit Auflösung und Bildrate runter gehen, um eine Steigerung des Details pro Pixels zu ermöglichen.

Nicht notwendigerweise. Beispiele: Oblivion zu Skyrim oder Halo3-4. Bei diesen Titeln stieg die Auflösung und sank nicht.

robbitop
2014-03-06, 11:35:58
Nicht notwendigerweise. Beispiele: Oblivion zu Skyrim oder Halo3-4. Bei diesen Titeln stieg die Auflösung und sank nicht.
Natürlich ist noch etwas Reserve drin, die durch besseres Kennenlernen der HW (und besserer Tools) noch erschlossen werden können. Gegenbeispiele gibt es natürlich immer.

Bei 720p konnte man bei den LastGen Konsolen auch nicht wirklich mehr großartig ablassen, ohne das gesamte Bild in den Keller zu ziehen. Bei FullHD hast du da ein wenig mehr "Reserve".
FullHD kostet halt einfach das 2,3 fache von 720p. Ich sage nicht, dass es bei allen Spielen so sein wird. Aber ich würde mich nicht wundern, wenn viele etwas von FullHD ablassen werden am Ende des Lebenszyklusses.

Felixxz2
2014-03-06, 13:00:28
1080p kostet nicht das 2,3 fache von 720p. Aber die Diskussion hatten wir oft genug.

robbitop
2014-03-06, 13:09:23
1080p kostet nicht das 2,3 fache von 720p. Aber die Diskussion hatten wir oft genug.
Es kostet exakt das 2,3 fache sofern nicht bei der niedrigeren Auflösung nicht andere Flaschenhälse da sind als Pixelbezogene:

- Trisetup
- Geometrielimitierung
- CPU Limitierung
- Bus Limitierung
- Raster Limtierung
...

Sobald aber Pixelleistung gefragt ist - also:

- Textur-Füllrate
- ariethmetische Rechenleistung
- VRAM Bandbreite
- ROP Leistung

kostet es davon nunmal Faktor 2,3.

Auf dem PC hat man oftmals keine klare Limitierung der Pixelleistung. Da spielen obige Flaschenhälse mit rein, so dass es so aussieht, als würde es nicht das 2,3 fache kosten. Das ist aber nur eine Verschleierung durch Flaschenhälse.
Auf der Konsole gibt es bei guter Programmierung aber keine Flaschenhälse - da wird nichts liegen gelassen.

PC Benchmarking und Konsole kann man nunmal nicht vergleichen.

dildo4u
2014-03-06, 13:12:50
Und was ist so kritisch an 2.3X?Die GPU ist laut den Specs 9 mal so schnell es sei denn AMD lügt.

G70 in PS3.
Floating Point Operations: 192 GFLOPS

http://en.wikipedia.org/wiki/RSX_'Reality_Synthesizer'

GPU in PS4 ca 1.8 TFlops.

robbitop
2014-03-06, 13:19:03
Und was ist so kritisch an 2.3X?Die GPU ist laut den Specs 9 mal so schnell es sei denn AMD lügt.

G70 in PS3.
Floating Point Operations: 192 GFLOPS

http://en.wikipedia.org/wiki/RSX_'Reality_Synthesizer'

GPU in PS4 ca 1.8 TFlops.
Meine Güte - das wurde doch alles vor ein paar Seiten schon durchgekaut. Einfach mal 5-10 Seiten zurückblättern und lesen.

DinosaurusRex
2014-03-06, 13:21:59
Auf der Konsole gibt es bei guter Programmierung aber keine Flaschenhälse - da wird nichts liegen gelassen.


Wobei Mark Cerny gesagt hat, dass die PS4 bewusst mit einer etwas zu starken GPU konzipiert wurde. Das hab ich aber nie so richtig verstanden.