PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Xbox One/Playstation 4: technische Spekulation und Vergleich


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47

Crazy_Bon
2013-06-29, 21:52:01
was ist denn mit dem gerücht, dass die one nun noch weiter gedrosselt wurde?
Ist beim Gerücht geblieben.

00-Schneider
2013-06-29, 21:55:42
Fertigungsprobleme sind durch mehrere Insiderquellen bestätigt worden.

Dass der Takt der GPU daraufhin gesenkt wurde, wurde weder bestätigt noch dementiert, und bleibt daher bis auf Weiteres ein Gerücht.

Rolsch
2013-06-29, 21:57:00
was ist denn mit dem gerücht, dass die one nun noch weiter gedrosselt wurde?
Laut dem Eurogamer Artikel oben ist das unbestätigt, kommt vermutlich wie geplant.

Diese Neuigkeiten stehen nicht mit vorherigen Gerüchten im Einklang, wonach es beim ESRAM des Xbox-One-Prozessors Produktionsprobleme gegeben habe, was wiederum zur Folge hatte, dass man angeblich die Taktrate der GPU senken musste. Das würde bedeuten, dass die Lücke zwischen den Grafik-Komponenten von Xbox One und PlayStation 4 noch größer wäre. Von unseren Quellen weiß niemand etwas von etwaigen Produktionsproblemen, allerdings arbeiten sie an echten Xbox-One-Titeln und wurden nicht über irgendwelche Probleme mit möglichen Einflüssen auf die Performance informiert. Ihres Wissens nach beträgt die Taktrate der GPU auch weiterhin 800 MHz und die Hauptprozessor läuft mit 1,6 GHz. In beiden Punkten wäre man damit gleichauf mit der PlayStation 4.

Hunter93
2013-06-29, 22:02:15
Laut dem Eurogamer Artikel oben ist das unbestätigt, kommt vermutlich wie geplant.

So wie manche die Zahlen interpretieren, sieht das aber anders aus:

"Reads more like creative accounting to disguise a GPU downclock from 800MHz by 50MHz.

750 (freq) * 128 (bits) = 96 GB/s
96 GB/s * 2 (simultaneous read/write) = 192 GB/s"

Kommentar unter dem englischen Eurogamer-Beitrag

drkohler
2013-06-29, 23:11:00
So wie manche die Zahlen interpretieren, sieht das aber anders aus:

"Reads more like creative accounting to disguise a GPU downclock from 800MHz by 50MHz.

750 (freq) * 128 (bits) = 96 GB/s
96 GB/s * 2 (simultaneous read/write) = 192 GB/s"

Kommentar unter dem englischen Eurogamer-Beitrag
Und da hört mein Verständnis auch auf (ist auch schon 30 Jahre her, seit ich Speicherkarten gebaut habe für einen Heimpc)..

Wie kann man "Simultan lesen und schreiben"? Zum
Lesen/Schreiben muss man eine Adresse anlegen und dann ENTWEDER schreiben ODER LESEN. Beiden gleichzeitig auf dem gleichen Bus geht nicht, ist ja klar (theoretisch geht es schon aber ist ja völlig sinnlos weil die Adresse fix ist..)

Meine Vermutung: Das esram ist Dual-ported. Ein Port hängt 256bit 1.6GHz dddr -> 102.8GB/s an der gpu, der andere Port ist an etwas Anderes angebunden zB die DMA-Controller (25.6GB/s) bieten sich da an. Der andere Port kann also simultan r/w Operationen durchführen in eine andere Ram-Bank als die gpu. Ergibt nicht 192GB/s sondern irgend was > 102.8GB/s

Oder hat jemand eine bessere Idee?

Lord_X
2013-06-30, 08:57:04
Bisherige Daten:

800 MHz x 128 Bytes x 1 (lesen, schreiben) = 102,4 GB/s
800 MHz x 128 Bytes x 2 (lesen, schreiben) = 204,8 GB/s
750 MHz x 128 Bytes x 2 (lesen, schreiben) = 192 GB/s

Kommt jemand diese Zahl bekannt vor? MS hat sehr wahrscheinlich den Takt auf 750 MHz geändert.

Ein um 50 MHz verringerter GPU-Takt bedeutet dann natürlich auch weniger GPU-Leistung: Statt 1,23 TFLOPS würden jetzt nur noch 1,15 TFLOPS zur Verfügung stehen. Da aber die Xbox One für Kinect und den ganzen Multimedia-Krempel laut Kotaku ursprünglich 10% der Grafikkarten-Leistung reserviert hat, also 0,123 TFLOPS, bedeutet das, dass nur 1,03 TFLOPS für Spiele zur Verfügung stehen würden! Zum Vergleich: Die PS4 hat 1,84 TFLOPS

Ultra-Karl77 @
http://www.eurogamer.de/articles/2013-06-28-xbox-one-arbeitsspeicher-performance-in-der-fertigen-konsole-deutlich-besser

boxleitnerb
2013-06-30, 09:11:34
Warum hat MS mit der One eigentlich Fertigungsprobleme, Sony mit der PS4 aber nicht? Die Hardware kommt doch beides mal von AMD und wird evtl. sogar bei der gleichen Foundry gefertigt? Weiß da jemand mehr?

prinz_valium
2013-06-30, 09:28:00
es könnte höchstens an der größe des chips liegen, oder wenn ms es verplant hat den esram mit genug redundanz auszustatten

ansonsten ist esram ja eigentlich nichts kompliziertes

Felixxz2
2013-06-30, 11:49:13
Also wenn die Rechnung von LordX stimmt, dann ist die PS4 im schlimmsten Fall (z.B. wenn der GDDR5 Vorteile bringt) doppelt so schnell wie die One....

Rolsch
2013-06-30, 12:01:34
Bisherige Daten:

800 MHz x 128 Bytes x 1 (lesen, schreiben) = 102,4 GB/s
800 MHz x 128 Bytes x 2 (lesen, schreiben) = 204,8 GB/s
750 MHz x 128 Bytes x 2 (lesen, schreiben) = 192 GB/s

Kommt jemand diese Zahl bekannt vor? MS hat sehr wahrscheinlich den Takt auf 750 MHz geändert.

Ein um 50 MHz verringerter GPU-Takt bedeutet dann natürlich auch weniger GPU-Leistung: Statt 1,23 TFLOPS würden jetzt nur noch 1,15 TFLOPS zur Verfügung stehen. Da aber die Xbox One für Kinect und den ganzen Multimedia-Krempel laut Kotaku ursprünglich 10% der Grafikkarten-Leistung reserviert hat, also 0,123 TFLOPS, bedeutet das, dass nur 1,03 TFLOPS für Spiele zur Verfügung stehen würden! Zum Vergleich: Die PS4 hat 1,84 TFLOPS

Ultra-Karl77 @
http://www.eurogamer.de/articles/2013-06-28-xbox-one-arbeitsspeicher-performance-in-der-fertigen-konsole-deutlich-besser

Die Milchmädchenrechnungen werden ja immer abenteuerlicher, warum sollte man die Bandbreite einfach verdoppeln können. Vermutlich liest der Chip nebenher auch vom Hauptspeicher.

Skysnake
2013-06-30, 12:34:54
Kann durchaus sein, das man lesen/schreiben vom RAM in den eDRAM und vom/in den eDRAM aus den Caches geschickt kombinieren kann.

Da sollte man aber erstmal abwarten, was denn nun am Ende wirklich bei rum kommt. Man kann da einfach zu viel "schön" rechnen.

Iruwen
2013-06-30, 14:23:58
Hat MS nicht genau dafür die Move Engines vorgesehen?

][immy
2013-06-30, 14:51:47
Hat MS nicht genau dafür die Move Engines vorgesehen?
die Move-Engines können schon ne ganze Menge bewegen
http://www.vgleaks.com/world-exclusive-durangos-move-engines/

recht interessant finde ich das direkt mit Kompression und Dekrompression gearbeitet werden kann ohne dabei die CPU/GPU zu belasten. Auf diese Weise lässt sich vielleicht auch noch das eine oder andere an Bandbreite einsparen ohne dabei zu viel Zeit zu opfern, da das ganze direkt in Hardware gegossen wurde. aber nach wie vor ist es eine Speziallösung. d.h. wenn nicht jemand speziell dafür optimiert, wird es keine Bandbreite einsparen können.

Ein Nachteil durch die PS4, der mir grad einfällt dürfte sein, das GDDR5 Speicher relativ knapp werden wird und damit wohl im Preis steigen dürfte und damit Grafikkarten verteuern dürfte.

Herr Doktor Klöbner
2013-06-30, 16:16:46
[immy;9826411']

Ein Nachteil durch die PS4, der mir grad einfällt dürfte sein, das GDDR5 Speicher relativ knapp werden wird und damit wohl im Preis steigen dürfte und damit Grafikkarten verteuern dürfte.

Denke ich nicht, die 512 MB Chips die in der PS4 verbaut werden sind erst seit Anfang dieses Jahres lieferbar und noch auf keiner Grafikkarte verbaut, da sind 256 MB Chips im Einsatz.

Hunter93
2013-06-30, 17:16:00
800 MHz x 128 Bit x 1 (lesen, schreiben) = 102,4 GB/s
800 MHz x 128 Bit x 2 (lesen, schreiben) = 204,8 GB/s
750 MHz x 128 Bit x 2 (lesen, schreiben) = 192 GB/s
Da hat jemand Bits mit Bytes verwechselt :P

@Gipsel:
Kannst du erklären, wieso Microsoft derart viele Transistoren in Static-Speicher investiert, wenn eDRAM so viel mehr Bandbreite erlauben würde?
Ich meine irgendwelche Vorteile muss das ja haben. :confused:

prinz_valium
2013-06-30, 17:38:41
6t esram kann man gut shrinken, habe ich gehört. gibt also große kostenvorteile später gegenüber weiterhin recht teuer bleibendem gddr5 ram

ka, welche vorteile es noch gibt.

Gipsel
2013-06-30, 18:00:41
Da hat jemand Bits mit Bytes verwechselt :PNö. Die Bytes waren schon richtig. Rechne doch mal nach!
@Gipsel:
Kannst du erklären, wieso Microsoft derart viele Transistoren in Static-Speicher investiert, wenn eDRAM so viel mehr Bandbreite erlauben würde?
Ich meine irgendwelche Vorteile muss das ja haben. :confused:
Die Bandbreite von eDRAM ist nicht intrinsisch höher als eSRAM. Bei beiden hängt es hauptsächlich vom genauen internen Aufbau bzw. dem Interface ab, welche Bandbreite man da rausbekommt. Auch den eSRAM könnte man mit 1 TB/s anbinden.
MS wird sich für SRAM entschieden haben, weil man da flexibler mit der Fertigung ist.

prinz_valium
2013-06-30, 18:14:16
aber apropos fertigung. 20nm steht ja schon kurz vor der tür, wenn die konsolen rauskommen. wann könnte man dann mit der ersten shink version rechnen?

theoretisch wäre ja schon ende 2014 möglich, aber da ist wohl der kostenvorteil einfach noch nicht vorhanden und andere wollen und werden eher die begrenzten kapazitäten buchen.
also mitte oder ende 2015, nach 1 1/2 jahren?
oder wird z.b ms so früh wie möglich versuchen zu shrinken, weil sie auch einfach einen riesen chip dank esram haben?

Hunter93
2013-06-30, 19:06:46
Nö. Die Bytes waren schon richtig. Rechne doch mal nach!

Richtig :redface:

Die Bandbreite von eDRAM ist nicht intrinsisch höher als eSRAM. Bei beiden hängt es hauptsächlich vom genauen internen Aufbau bzw. dem Interface ab, welche Bandbreite man da rausbekommt. Auch den eSRAM könnte man mit 1 TB/s anbinden.
MS wird sich für SRAM entschieden haben, weil man da flexibler mit der Fertigung ist.

Aber DRAM benötigt (http://www.heise.de/ct/meldung/Hot-Chips-Power7-IBMs-naechster-Server-Chip-753085.html) nur ein Transistor pro Zelle, 6T-SRAM dagegen 6.

Was mich irritiert sind die scheinbar höheren eDRAM-Bandbreiten gemessen am Transistorenbudget zum Beispiel in Wii U.
Im Neogaf wurde zwischen einem 1024 oder 2048 Bit Interface diskutiert, bei 32 MB und garantiert keinen 1,6 Milliarden Transistoren.

1088 GByte/s im PS4-Alternativszenario lassen Microsofts 102/133/192 GByte/s erstmal auch alt aussehen, zumindest scheinbar.

Gipsel
2013-06-30, 20:33:57
Aber DRAM benötigt (http://www.heise.de/ct/meldung/Hot-Chips-Power7-IBMs-naechster-Server-Chip-753085.html) nur ein Transistor pro Zelle, 6T-SRAM dagegen 6.Aber dafür benötigt (e)DRAM zusätzlich zum Transistor noch einen Kondensator pro Bit. Und die sind ohne speziell angepaßte Prozesse (teuer!) meist recht schwierig zu fertigen.
SRAM benötigt also dann zwar 6 mal soviele Transistoren (die man aber relativ platzsparend unterbringen kann im Vergleich zu Logik bzw. Recheneinheiten z.B.) und belegt am Ende dann etwa 2 bis 3 mal soviel Fläche wie ein gleich großer eDRAM, aber es kann durchaus billiger in der Fertigung sein (weil der Prozeß billiger ist, stört die größere Fläche nicht sehr). Zudem behält man die Flexibilität, bei jeder Fab fertigen zu lassen (SRAM machen alle, eDRAM nur sehr wenige) und auch einfacher auf einen kleineren Prozeß zu wechseln (weil der wieder die speziellen Anpassungen für eDRAM bräuchte, kommt der später wenn überhaupt bzw. muß man die Anpassung evtl. aus eigener Tasche teuer bezahlen).

Gipsel
2013-06-30, 20:47:03
aber apropos fertigung. 20nm steht ja schon kurz vor der tür, wenn die konsolen rauskommen. wann könnte man dann mit der ersten shink version rechnen?

theoretisch wäre ja schon ende 2014 möglich, aber da ist wohl der kostenvorteil einfach noch nicht vorhanden und andere wollen und werden eher die begrenzten kapazitäten buchen.
also mitte oder ende 2015, nach 1 1/2 jahren?
oder wird z.b ms so früh wie möglich versuchen zu shrinken, weil sie auch einfach einen riesen chip dank esram haben?
Also wenn die früheren Projektionen z.B. von TSMC eintreffen, dann könnten wir eventuell sehr lange auf 20nm Shrinks warten. Eventuell sieht man nur Chips auf 20nm, die sonst absolut nicht mehr in 28nm zu fertigen wären (>600mm²) oder wenn z.B. das Stromverbrauchssziel anders nicht zu erreichen ist. Denn mit 20nm wird wohl erstmals der Preis pro Transistor nicht wesentlich sinken (20nm Wafer >60% teurer als 28nm, schlechterer Yield, höhere Kosten für Masken usw.). Wenn man also einen fertigen Chip in 28nm hat, warum sollte man den shrinken, wenn sich dadurch die Produktionskosten praktisch nicht senken lassen? Nur wegen dem bißchen Stromverbrauch (vermutlich ~20% weniger) zig Millionen dafür ausgeben? Soviel verbrauchen die XB1 und die PS4 nun auch nicht, daß das ein wesentliches Problem sein dürfte (beide vermutlich <150W).
Nur wenn der Prozeß besser läuft als erwartet (TSMC behauptet ja sowas, aber das kann auch Eigenwerbung und PR sein) und/oder TSMC Preisanpassungen durchführt, werden die Hersteller das zeitnah verfolgen.

Skysnake
2013-06-30, 23:45:44
Aber dafür benötigt (e)DRAM zusätzlich zum Transistor noch einen Kondensator pro Bit. Und die sind ohne speziell angepaßte Prozesse (teuer!) meist recht schwierig zu fertigen.
SRAM benötigt also dann zwar 6 mal soviele Transistoren (die man aber relativ platzsparend unterbringen kann im Vergleich zu Logik bzw. Recheneinheiten z.B.) und belegt am Ende dann etwa 2 bis 3 mal soviel Fläche wie ein gleich großer eDRAM, aber es kann durchaus billiger in der Fertigung sein (weil der Prozeß billiger ist, stört die größere Fläche nicht sehr). Zudem behält man die Flexibilität, bei jeder Fab fertigen zu lassen (SRAM machen alle, eDRAM nur sehr wenige) und auch einfacher auf einen kleineren Prozeß zu wechseln (weil der wieder die speziellen Anpassungen für eDRAM bräuchte, kommt der später wenn überhaupt bzw. muß man die Anpassung evtl. aus eigener Tasche teuer bezahlen).
Richtig, es ist aber schon noch deutlich mehr als DRAM. Wenn ich mich richtig erinnere, war es ein Faktor ~4 bzgl der Speicherdichte von DRAM und SRAM.

Das Problem ist eher, das man für DRAM eine andere Fertigung nutzt als für SRAM/Logik. Man bekommt das also nicht/nur schwer/schlecht alles auf einen DIE. Ich bin aber ehrlich gesagt erstaunt, das MS wirklich SRAM nimmt. Hätte ich NIE erwartet! Klar, man kann das spöter eben auf einen DIE packen, aber jetzt hat man eben die Kosten, und später ist es auch nicht gerade "billig".

Energetisch hat SRAM auf jeden Fall auch Vorteile. Gerade die static Leakage ist sehr nierig. Das heißt man kann z.B. das ganze OS usw eventuell "einfach" in den SRAM packen, statt das Ding wirklich ganz runter zu fahren.

Dafür ist die dynamic Leakage höher. Andererseits braucht man eben nicht die Refresh Cycles. Das könnte auch durchaus ein Vorteil von SRAM sein, was die Entscheidung begünstigt hat.

Mit SRAM muss man nicht auf Refreshcycles schauen. Gibt es da einfach nicht. Man kann also etwas flexibler auf die Daten zugreifen.

Insgesamt dennoch verwunderlich.

Gipsel
2013-07-01, 00:24:44
Richtig, es ist aber schon noch deutlich mehr als DRAM. Wenn ich mich richtig erinnere, war es ein Faktor ~4 bzgl der Speicherdichte von DRAM und SRAM.Kommt immer darauf an, wieviel man opfern will. Das Interface und der Controller ist für eDRAM deutlich größer. Rechnet man den mit ein (für einen breitbandigen Zugriff und keinen Tröpfelbus) bleiben eher nur x2 bis x3 als Vorteil übrig (wenn man nicht gleich auf hundert MB geht, wo sich das wieder besser amortisiert). Kann man übrigens auch an der Wii U sehen, da gibt es sogar 2 unterschiedlich schnelle eDRAM-Arrays auf einem Die zusammen mit einem MB-großem SRAM gleich daneben.
Das Problem ist eher, das man für DRAM eine andere Fertigung nutzt als für SRAM/Logik. Man bekommt das also nicht/nur schwer/schlecht alles auf einen DIE.Habe ich doch geschrieben. ;)
Energetisch hat SRAM auf jeden Fall auch Vorteile. Gerade die static Leakage ist sehr nierig. Das heißt man kann z.B. das ganze OS usw eventuell "einfach" in den SRAM packen, statt das Ding wirklich ganz runter zu fahren.6T-SRAM ist gar nicht so gut. Insbesondere auf kleineren Prozessen leakt das ganz erheblich auch weil man die Spannung nicht wirklich runterfahren kann (weil man dann die beiden Zustände pro Bit nicht mehr vernünftig trennen kann). Deswegen nutzt man heute ja so gerne 8T-SRAM, das hat diese Probleme nicht und funktioniert auch mit abgesenkter Spannung noch zuverlässig (und leakt dann trotz 33% mehr Transistoren deutlich weniger). Also pro Kapazität verbraucht DRAM glaube ich am wenigsten, trotz der Entladung der Kondensatoren und der deswegen nötigen Refreshes.

][immy
2013-07-01, 00:33:09
Richtig, es ist aber schon noch deutlich mehr als DRAM. Wenn ich mich richtig erinnere, war es ein Faktor ~4 bzgl der Speicherdichte von DRAM und SRAM.

Das Problem ist eher, das man für DRAM eine andere Fertigung nutzt als für SRAM/Logik. Man bekommt das also nicht/nur schwer/schlecht alles auf einen DIE. Ich bin aber ehrlich gesagt erstaunt, das MS wirklich SRAM nimmt. Hätte ich NIE erwartet! Klar, man kann das spöter eben auf einen DIE packen, aber jetzt hat man eben die Kosten, und später ist es auch nicht gerade "billig".

Energetisch hat SRAM auf jeden Fall auch Vorteile. Gerade die static Leakage ist sehr nierig. Das heißt man kann z.B. das ganze OS usw eventuell "einfach" in den SRAM packen, statt das Ding wirklich ganz runter zu fahren.

Dafür ist die dynamic Leakage höher. Andererseits braucht man eben nicht die Refresh Cycles. Das könnte auch durchaus ein Vorteil von SRAM sein, was die Entscheidung begünstigt hat.

Mit SRAM muss man nicht auf Refreshcycles schauen. Gibt es da einfach nicht. Man kann also etwas flexibler auf die Daten zugreifen.

Insgesamt dennoch verwunderlich.

nunja, ein vorteil von sram unter anderem der takt. dram läuft ja für gewöhnlich nicht grad schnell und die hohe bandbreite wird eigentlich nur über die "unsicheren" bursts reingeholt. die bandbreite von sram ist dagegen eher schon ein realistischer wert mit dem man rechnen kann. bei den aktuellen dram rechnungen ist dieser eher theoretisch und nur im optimalen fall zu gebrauchen. hinzu kommt noch gleichzeitig zu lesen und zu schreiben. das der sram synchron mit der GPU läuft dürfte ebenfalls ein kleiner vorteil sein.
also ich sehe durchaus vorteile durch den sram im vergleich zum edram, aber ob es die fläche wirklich wert ist? Man hätte immerhin jede menge mehr edram unterbringen können als mit dem sram, aber MS wird wohl seine gründe gehabt haben diesen weg zu wählen. Immerhin braucht man für den sram auch ein ziemlich breites (wenn auch internes) interface um die geschwindigkeit zu erreichen.
ich frage mich aber auch warum man nicht den speicher einfach auf das package gepresst hat. würde zumindest die ausbeute erhöhen da man die komponenten getrennt voneinander herstellen könnte. Oder gibt es dadurch so extreme nachteile?
Also alles in einem Die finde ich sehr gewagt bei der transistoranzahl.

wie gesagt, die praktische bandbreite des srams dürfte dem des gddr5 (zumal diese noch durch die CPU gestört wird) speicher sogar überlegen sein, nur die größe ...
in worst case szenarien liegt die erreichbare speicherbandbreite bei gddr5 speicher weit unterhalb des angegebenen bereichs. wenn nun die cpu dazwischen funkt, gehen ja von der bandbreite nicht nur die lesenden sondern auch die schreibenden zugriffe drauf (die zudem hintereinander erfolgen müssen). Abgezogen werden müssen auch werte wo die CPU/GPU nicht optimal speicherzugriffe ausnutzen konnten. also verpufft hier ein hoher Anteil der GDDR5 Bandbreite (wie viel das im genauen ist kann ich nicht sagen). Aber der GDDR5 speicher wird nicht darauf angewiesen sein, seine Inhalte ständig zu verschieben, wodurch er im gegensatz zum sram natürlich die Bandbreite auch wieder schont, aber zumindest kann der sram wieder lesen und schreiben gleichzeitig, was das problem mit dem verschieben abmildern dürfte.
nunja, wie man es auch dreht und wendet, beide architekturen haben vor und nachteile. am ende müssen es die spiele zeigen. hardware hin oder her, wenn die spiele schlecht sind bringt die beste hardware nichts :)

Felixxz2
2013-07-01, 00:46:15
Über das Speichersystem würd ich mir jetzt garkeine Sorgen machen, beides dürfte ordentlich sein und 8 Gbyte sind auch bei beiden drin. Das Problem der One dürfte doch eher die geringe Rohleistung und die massive Reservierung von Leistung fürs OS sein (10% GPU, was von der CPU und 3GByte RAM). Wenn MS das nicht ändert, wird die PS4 auf lange Sicht wohl wirklich doppelt so schnell und deutlich bessere Grafik zeigen können.

Skysnake
2013-07-01, 00:48:16
6T-SRAM ist gar nicht so gut. Insbesondere auf kleineren Prozessen leakt das ganz erheblich auch weil man die Spannung nicht wirklich runterfahren kann (weil man dann die beiden Zustände pro Bit nicht mehr vernünftig trennen kann). Deswegen nutzt man heute ja so gerne 8T-SRAM, das hat diese Probleme nicht und funktioniert auch mit abgesenkter Spannung noch zuverlässig (und leakt dann trotz 33% mehr Transistoren deutlich weniger). Also pro Kapazität verbraucht DRAM glaube ich am wenigsten, trotz der Entladung der Kondensatoren und der deswegen nötigen Refreshes.
Also die direkten Verbrauchsvergleiche zwischen SRAM und DRAM sahen eigentlich so aus, das SRAM doch noch deutlich effizienter ist bei wirklich reinem static leakage. Also gar kein lesen/schreiben.

Sobald man viel liest/schreibt sieht das natürlich wieder anders aus, wobei es da ja dann sogar wieder darauf ankommt, wieviele Bits man jetzt wirklich wechseln muss :ugly:

Bei DRAM muss man ja immer die 1 Bits schreiben.

Gibt da ganz lustige Ansätze, die sowas auch untersuchen, wie sich der Wechsel der Bits auswechselt bei PCM, wo das schreiben nochmals deutlich mehr Energie benötigt.:freak:

Leider finde ich das Paper nicht mehr -.-

Iruwen
2013-07-01, 01:01:01
Über das Speichersystem würd ich mir jetzt garkeine Sorgen machen, beides dürfte ordentlich sein und 8 Gbyte sind auch bei beiden drin. Das Problem der One dürfte doch eher die geringe Rohleistung und die massive Reservierung von Leistung fürs OS sein (10% GPU, was von der CPU und 3GByte RAM). Wenn MS das nicht ändert, wird die PS4 auf lange Sicht wohl wirklich doppelt so schnell und deutlich bessere Grafik zeigen können.
Ich finds auch etwas kurz gedacht sich ständig so krampfhaft an der Speicherbandbreite festzubeißen.
Ist relativ egal ob die Reifen bis 200 oder 300 Sachen zugelassen sind wenn die Karre nur 50 PS hat.

del_4901
2013-07-01, 01:09:56
Ich finds auch etwas kurz gedacht sich ständig so krampfhaft an der Speicherbandbreite festzubeißen.
Ist relativ egal ob die Reifen bis 200 oder 300 Sachen zugelassen sind wenn die Karre nur 50 PS hat. Bandbreite war fuer Konsolen schon immer wichtig. Leistung kann man spaaren, wenn man clever arbeitet, aber Bandbreite nicht!

Iruwen
2013-07-01, 01:17:34
Aber bei dem spekulierten Rohleistungsunterschied wird das doch wohl ein geringeres Problem sein?

del_4901
2013-07-01, 01:23:32
Aber bei dem spekulierten Rohleistungsunterschied wird das doch wohl ein geringeres Problem sein? Bandbreite wirkt sich eher ueber die Lebenszeit der Konsole aus, und das wird sich erst in ein paar Jahren zeigen.

DinosaurusRex
2013-07-01, 08:40:38
Was ist denn in der Theorie der besser Lösung? 8GB GDDR5 oder 8GB DDR3 + 32MB SRAM?

Der Leistungsunterschied zwischen den verbauten iGPs ist ja recht beachtlich. Sollten die Leaks stimmen, hat die PS4 ne ganze Menge Recheneinheiten mehr zur Verfügung. Ein Blick auf die Spiele ist daher eventuell wenig ertragreich, da die Grafik derselben durch diesen Unterschied ja sicher auch "verfälscht" werden wird.

Aber wie würde es denn in der Theorie bei einem gleichstarken System aussehen? Leistung, Stromverbrauch, Kosten, Programmieraufwand? Mark Cerny hat sich in Barcelona ja öffentlich gegen eine Lösung mit integriertem Speicher bekannt (welch Überraschung!) und als Hauptgrund angegeben, dass der Schwierigkeitsgrad für die Programmierer vor allem in den frühen Jahren höher wäre. Er hat auch gesagt, dass zumindest 128Bit GDDR5 + eDRAM günstiger ist als 256Bit GDDR5. Inwiefern man das jetzt auf 256Bit DDR3 + eSRAM übertragen kann, vermag ich aber nicht zu sagen.

Welche Lösung gewinnt auf dem Papier?

robbitop
2013-07-01, 09:55:36
Auf dem Papier ist es eben so, dass der eSRAM Fläche kostet, die nicht in die GPU fließen konnte. Damit gewinnt klar die PS4.
Das Argument mit der "unsicheren Bandbreite" bei DRAM ist ja gerade für die Benutzung des Framebuffers/G-Buffers etc (wofür der eSRAM der Xbone benutzt wird) relativ gering. Gerade da wird doch geburstet. Man hat extra dafür Caches bei den ROPs. Für Cache-Aufgaben wäre DRAM blöd. Aber für eine GPU IMO nicht.

Der eSRAM kompensiert den DDR3 Bandbreitennachteil. Aber ob er ihn vollständig kompensiert? Ich persönlich glaube nicht.

boxleitnerb
2013-07-01, 09:57:45
Denn mit 20nm wird wohl erstmals der Preis pro Transistor nicht wesentlich sinken (20nm Wafer >60% teurer als 28nm, schlechterer Yield, höhere Kosten für Masken usw.).

Gibts dazu eine Quelle? Finde ich ganz interessant.

AnarchX
2013-07-01, 10:05:20
Gibts dazu eine Quelle? Finde ich ganz interessant.
Es scheint sich wohl mehr oder weniger zu bestätigen was NV prophezeit hatte: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9223720#post9223720

Da Sony und Microsoft primär ihre Kosten reduzieren wollen und wohl auch die Kunden nicht einen stromsparenderen Shrink fordern, lohnt sich 20nm wohl zu Anfang für diese wenig.

boxleitnerb
2013-07-01, 10:10:35
Die Folie kenne ich, aber eine unabhängige Quelle ist das für mich halt nicht :)

Lord_X
2013-07-10, 15:22:23
Xbox1: Höhere Taktfrequenz und 12GB Speicher?

The rumors state the following:
- The Xbox One GPU is getting an increase in clock speed
- The Xbox One DDR3 RAM will increase from 8GB to 12GB
- The Xbox One development team is asking for developer feedback on changes they would want to see hardware wise.

http://www.examiner.com/article/xbox-one-rumors-point-to-a-higher-clock-speed-but-doubtful-on-increase-ram
http://forum.beyond3d.com/showpost.php?p=1763732&postcount=4689

w0mbat
2013-07-10, 15:24:43
Damit hätte man etwa die gleiche verfügbare Speichermenge wie bei der PS4 (X1 nutzt mehr RAM fürs OS). Ändert nichts daran, dass es langsamer DDR3 RAM ist.

Mehr Takt für die GPU ist immer toll, vielleicht kommt man damit etwas näher an die Performance der PS4 GPU ran...

THEaaron
2013-07-10, 15:27:20
12GB ist die Menge des Arbeitsspeichers aus den Devkits. So wie die X360 Devkits 1GB Ram haben und die Konsumerbox am Ende 512MB.

Eine Erhöhung von 100Mhz würde die Rohleistung lediglich auf 1.3-1.4~TFLOPS hieven.

Glaube nicht das was dran ist. Lediglich die Erhöhung der GPU Clock könnte passen, imho. Allerdings zerrt man da für wenig Mehrleistung gut am TDP Budget.

Avalox
2013-07-10, 17:07:18
Ist das jetzt eine Erhöhung zur ursprünglichen Taktfrequenz, oder ist es die Wieder-Erhöhung, nach der letzten Senkung? :ujump:

][immy
2013-07-10, 20:18:23
kurze frage, ist bei den dev-kits dann auch das speicherinterface breiter? Oder sind die hier gemeinten Devkits einfach nur wieder normale PCs.

das mit der Taktfrequenz wäre schon so eine Sache. Jetzt wo Balmer dran ist, traue ich es MS zu die Taktfrequenzen zu erhöhen auf kosten der Ausbeute. Aber das mit dem Speicher, die werden wohl kaum plötzlich nen breiteres Interface in die CPU bringen. An dem Chip selbst wird sich wohl ansonsten kaum etwas ändern, es sei denn MS schießt ein wenig Geld in den Wind und verschiebt den Launch ein wenig.
Eine Verdopplung des Speichers sollte aber theoretisch kein Problem sein. Allerdings würden das die Kosten wohl bei weitem sprengen.

mironicus
2013-07-10, 20:37:40
Kann man denn noch in so kurzer Zeit die Hardware-Specs ändern für eine Konsole die in rund 4 Monaten erscheint...?

Skysnake
2013-07-10, 20:39:52
hab ich so meine Zweifel...

][immy
2013-07-10, 20:40:51
Kann man denn noch in so kurzer Zeit die Hardware-Specs ändern für eine Konsole die in rund 4 Monaten erscheint...?
Taktrate, ja (auf kosten der Ausbeute bei der Fertigung, führt aber wohl zwangsläufig zu weniger Konsolen beim Launch, was aber eher nicht tragisch ist, da sich diese auf längere Zeit verkaufen sollen)
Speicherverdopplung, ja (höhere kosten)
Chipveränderungen ... eigentlich nicht ohne Verschiebung

Crazy_Bon
2013-07-10, 21:19:30
Zu welchem Zeitpunkt hatte Sony bei der PS3 den Speicher von 256MB auf 512MB RAM (Main RAM + VRAM) erhöht?

del_4901
2013-07-10, 21:28:07
Zu welchem Zeitpunkt hatte Sony bei der PS3 den Speicher von 256MB auf 512MB RAM (Main RAM + VRAM) erhöht?
Ich glaube das war MS.

robbitop
2013-07-10, 21:46:00
Epic hat wohl MS zu 512 MiB überredet:

http://www.gamezone.de/Xbox-360-Konsolen-28561/News/Xbox-360-Dank-Epic-mit-512-MB-RAM-929661/

Ähnliches geschah damals auch bei der PSP. Die war ursprünglich mit 8 MB RAM geplant (oder waren's 16?). Am Ende wurden es 32 MB.

drkohler
2013-07-10, 21:51:57
[immy;9838318']kurze frage, ist bei den dev-kits dann auch das speicherinterface breiter? Oder sind die hier gemeinten Devkits einfach nur wieder normale PCs.
Die Devkits waren im Prinzip PCs, die die Ziel-Hardware so gut wie möglich simulieren. Da hat man dann die Steckslots für die Speicherriegel und kann problemlos 8/12/16GB Ram reinstecken. 12G waren drinn weil eben zusätzliche Debugsoftware neben unoptimiertem OS-Code reinpassen mussten.
Wie soll das nun plötzlich bei der XBox One gehen? Die hat ein 256bit Speicherinterface und 16 Chips, die direkt ptp verbunden sind. Also mit 4G zusätzlich geht da erst mal gar nix - oder einen Designalbtraum mit 8G an 256 bit und 4G an 128bit? Kann die APU überhaupt mehr als einen Ramchip treiben?
Glaubt wirklich irgend Jemand, dass MS knapp vier Monate vor Release der Konsole mit der Frage "Was wollt ihr denn besser haben?" an die Spielehersteller geht?
Das dümmliche Gerücht stammt von einem XBox-Fan (wahrscheinlich der Gleiche, der schon mit dem "12G gddr5 5TFlop dual APU" Schwachsinn hervortrat).

Gipsel
2013-07-10, 22:30:51
Wie soll das nun plötzlich bei der XBox One gehen? Die hat ein 256bit Speicherinterface und 16 Chips, die direkt ptp verbunden sind.Das ist DDR3. Da ist nix mit point-to-point (GDDR5 oder DDR4 is ptp), das ist immer noch ein Speicherbus, an den man mehrere Lasten hängen kann. Sicher, die höchsten Taktraten bekommt man am PC nur mit einem RAM-Riegel pro Controller hin, aber hier wird der Speicher ja direkt verlötet. Das erleichtert das doch etwas. Und 16 GB bekommt man doch auch mit 32 4GBit-Chips (jeweils 8Bit breit angebunden) ohne Weiteres hin, d.h. auch ohne brandneue 8GBit-Chips. Da muß man halt bloß das Mainboard beideitig bestücken. 32 Chips benötigt man auch für eine symmetrische Anbindung von 12 GB: Man paart jeweils einen 4 GBit-Chip mit einem 2GBit-Chip (16 Bit breit angebunden) als 2 Lasten auf dem Speicherbus.
Beide Varianten haben aber einen entscheidenden Nachteil, nämlich die Kosten. 32 Speicherchips sind teuer, vor allem langfristig. Dies wird also vermutlich höchstens bei den (eventuell!) mit mehr Speicher bestückten DevKits verbaut werden (eigentlich sollte man den Kram auch in den 3GB vom OS unterbringen können).
Also mit 4G zusätzlich geht da erst mal gar nix - oder einen Designalbtraum mit 8G an 256 bit und 4G an 128bit? Kann die APU überhaupt mehr als einen Ramchip treiben?Siehe oben. Unsymmetrische Bestückungen sind tatsächlich suboptimal, aber nicht unbedingt ein "Albtraum". NV verkauft schon eine ganze Weile Grafikkarten so. Solange die einzelnen Speichercontroller unabhängig sind und das Adress-Mapping (also das Interleaving zwischen den Kanälen) flexibel genug, ist das eigentlich kein größeres Problem. Außer natürlich der suboptimalen Performance. Aber man spart potentiell Speicherchips gegenüber der symmetrischen Bestückung, sobald die 8 GBit-Chips preiswert verfügbar sind (man kann also z.B. 12GB mit 8x 4GBit und 8x 8GBit hinbekommen, also nur 16 Speicherchips).
Glaubt wirklich irgend Jemand, dass MS knapp vier Monate vor Release der Konsole mit der Frage "Was wollt ihr denn besser haben?" an die Spielehersteller geht?Nein. Das ist das eigentliche Argument dagegen. Das ist höchstens schon vor deutlich längerer Zeit passiert, aber dann hätte MS nicht bei der Vorstellung die 8GB verkündet. Jetzt sind die Messen gesungen, was die Hardware angeht. Vielleicht dreht man noch ein paar MHz am Takt hoch oder runter (und selbst das muß jetzt langsam mal feststehen), aber das war es dann auch.

ndrs
2013-07-10, 23:10:06
Zu 12GB RAM:
Da würde sich vielleicht am ehesten eine asymmetrische Bestückung anbieten, bei welcher das OS den Speicher so aufteilt, dass das Spiel den breit angebundenen Teil bekommt und der sowieso reservierte Bereich fest im schmal angebundenen Bereich liegt. Da dort wohl nur reine CPU-Aufgaben laufen sollten(zumindest während ein Spiel läuft), sollte der Impact relativ überschaubar sein und die Spiele-Devs sollte es auch nicht berühren.
(Reine Theorie, ehrlich dran glauben tu ich nicht.)

Zur Takterhöhung:
Auf Kosten der Yiels kann ichs mir nicht vorstellen. Aber vielleicht hat sich nachdem die Massenproduktion schon läuft herausgestellt, dass die Ausbeute besser ist, als gedacht.

Andere Frage:
Ist es eigentlich vorstellbar, dass bei einem späteren Shrink zur Kosteneinsparung das Speicherinterface halbiert wird und dafür entsprechend doppelt so schneller (preislich bis dahin günstiger) DDR4 mit doppelt so großen Chips eingesetzt wird?

=Floi=
2013-07-11, 00:10:04
dachte du hängst die restlichen 4GB an den 256bit bus hinten auf der platine dran?!
da bleibt es doch bei 256bit?


würden 128bit nicht für das os reichen. in dem fall wird ja nur das os ausgelagert und nicht das spiel.

ich hoffe die werfen noch alles über den haufen.

prinz_valium
2013-07-11, 01:06:05
wo wir schon bei wünsch dir was sind
ich hätte gerne 384bit

aber dann würde sich der preis der konsole wieder relativieren. und sie ist nicht mehr zu teuer im gegensatz zur ps3


ach ich glaub nicht dran. aber ich habe auch schon pferde kotzen sehen.
schöner wäre, wenn nicht, denn sonst muss ich das teil doch noch kaufen. gerade bin ich irgendwie nicht dafür

x-force
2013-07-11, 01:06:53
ich wette ms verändert nichts. das wäre viel zu spät und die denken in erster linie daran, wie sie uns mehr geld aus der tasche ziehen. dafür werden sie sicher nicht mehr in die hardware investieren.

ich vermute es gibt genug xbox fanboys, die, egal welche performance geboten wird, aus prinzip kaufen. ich hoffe jedoch, daß m$ damit ordentlich aufs maul fällt.

Neosix
2013-07-11, 01:54:48
Natürlich wird da nichts mehr verändert, dass Ding ist schon in der Fertigung, der Zeitpunkt kommt 1 Jahr zuspät.

ilibilly
2013-07-11, 09:20:41
Glaub auch nicht das da gravierendes geschieht.
Vielleicht 900 statt 800mhz falls die Ausbeute es zulässt , sollte eigentlich drinn sein selbst Lowend Lösungen packen 900mhz

DinosaurusRex
2013-07-13, 13:13:11
Richard Leadbetter hat Mark Cerny in Brighton interviewt und dabei folgende Aussage zu Tage geschöpft:


Digital Foundry: Going back to GPU compute for a moment, I wouldn't call it a rumour - it was more than that. There was a recommendation - a suggestion? - for 14 cores [GPU compute units] allocated to visuals and four to GPU compute...

Mark Cerny: That is bad leaks and not any sort form of formal evangelisation. The point is the hardware is intentionally not 100 per cent round. It has a little bit more ALU in it than if you were thinking strictly about graphics. As a result of that you have an opportunity, almost like an incentivisation, to use that ALU for GPGPU.


Digital Foundry - Cerny Computer Entertainment (http://www.eurogamer.net/articles/digitalfoundry-face-to-face-with-mark-cerny)

Kann vielleicht jemand erklären, was er damit genau meint?

Skysnake
2013-07-13, 13:24:06
hmm...

Er könnte sowohl die Skalarunits von GCN meinen, aber auch darauf hindeuten, das es zwei unterschiedliche Arten von "GPU" CUs gibt.

Solche, die ganz normal am Frontend usw hängen, und solche, die gar nicht eingebunden sind. Also quasi dann CPU+iGPU+Accelerator.

del_4901
2013-07-13, 13:28:42
hmm...

Er könnte sowohl die Skalarunits von GCN meinen, aber auch darauf hindeuten, das es zwei unterschiedliche Arten von "GPU" CUs gibt.

Solche, die ganz normal am Frontend usw hängen, und solche, die gar nicht eingebunden sind. Also quasi dann CPU+iGPU+Accelerator.
:facepalm:

Damit sagt er einfach nur das man auch alle CUs fuer das Rendering nehmen koennte, es aber in 90% der Use-Cases einfach nichts bringt, und man deswegen dazu motiviert wird Compute zu verwenden.

DinosaurusRex
2013-07-13, 13:35:11
Achso, es geht also darum, dass Sony absichtlich eine "zu starke" GPU verbaut hat, damit genug Spielraum für GPGPU vorhanden ist?

Aber widerspricht das nicht ein wenig der Aussage, die er wenige Zeilen davor tätigt?


"(...)And then for the GPU we went in and made sure if would work better for asynchronous fine-grain compute because I believe that in the GPU, we'll get in a couple of years into the hardware cycle and it'll be used for a lot more than graphics.

Now when I say that many people say, "but we want the best possible graphics". It turns out that they're not incompatible. If you look at how the GPU and its various sub-components are utilised throughout the frame, there are many portions throughout the frame - for example during the rendering of opaque shadowmaps - that the bulk of the GPU is unused. And so if you're doing compute for collision detection, physics or ray-casting for audio during those times you're not really affecting the graphics. You're utilising portions of the GPU that at that instant are otherwise under-utilised. And if you look through the frame you can see that depending on what phase it is, what portion is really available to use for compute."

Skysnake
2013-07-13, 13:45:16
Ok, den Teil hättest du vorher auch direkt mit quoten können ;)

Unter dem Blickwinkel, muss/kann man das "not 100 per cent round" komplett anderes verstehen, und zwar dahingehend, dass die ALU-Performance so hoch ist, das man von anderen Chipteilen limitiert wird, bzw einfach durch die Art und Weise der Aufgaben immer wieder brach liegende ALU-Ressourcen hat, die man dann so nutzen kann.

Wäre dann praktisch das, was ja aktuell immer von AMD gefordert wird. Ein überarbeitetes Frontend, um mehr Graphics-Performance zu bekommen. Das würde aber ziemlich klar gegen eine "Aufteilung" der iGPU sprechen, sondern "einfach" für die Nutzung der vielen Computequeues. Sprich Compute würde "meist einfach" "nur" für eine höhere Auslastung sorgen, Graphics aber nicht/kaum beeinflussen. Ein "unrundes" Design halt, welches mit Graphics allein gar nicht seine ganze Leistung entfalten kann.

DinosaurusRex
2013-07-13, 13:52:22
Stimmt, da war ja was mit den ACEs und Queues. Okay, ich glaube jetzt habe ichs kapiert. Danke für die Erklärungen.

megachip800
2013-07-13, 19:54:44
Die bisher gezeigten Spiele auf der Ps4 können technisch nicht wirklich überzeugen. Bin ziemlich entäuscht
von Sony und ihrer Lowend Strategie. Wenn bei selbst grafisch belanglosen Spielen wie Knack die Bildrate unter 30 Bilder/s fällt dann ist das schon mal ein schlechtes Zeichen. Wie soll das dann bitte bei richtig grafisch aufwendigen Spielen wie Bf4 und co. ablaufen?? Wenn dafür schlecht optimierte Software verantwortlich ist ,
warum schwankt dann nicht die Bildrate zwischen 60 u. 30 Bilder/s , warum nur zwischen 30 und 20 Bilder/s?
Ergo , das Ding pfeift aus dem letzten Loch und vermutlich hat die Hardware eine menge Flaschenhälse die
man bisher wissentlich verschwiegen hat. Kein wunder das die Spieleentwickler nur sehr zögerlich bewegtes
Spielmaterial auf den neuen Konsolen vorzeigen und hier ein strenges NDA Diktat aufrechterhalten wird , man
will sich nicht blamieren und schlechte Publissitie lieber aus dem Weg gehen.

Die strategie kostengünstige u. leicht modifizierte off the shelf Komponenten zu verwenden und diese auf einem Soc zu vereinen scheint nicht aufgegangen zu sein , zumindestens wenn man die technische Seite betrachtet. Die Apu/Hsa Architektur in der Ps4 scheint kein Performancegewinn zu bringen. Wenn Gpu und Cpu auf einem DIE untergebracht sind und zwischen beiden Einheiten nur 10 gbyte/s ( laut Vleaks) transferiert werden kann , dann kann ich hier keine Vorteile in dieser Bauweise/Chiparchitektur erkennen. Und wenn man das wirklich gewollt hätte , hätte man eine gänzlich andere Technologie gewählt so wie diese hier:

http://www.fujitsu.com/global/services/computing/server/sparcenterprise/technology/performance/crossbar.html

Direct and symmetric crossbar connections between CPU, memory and I/O enables max. 737GB/s throughput (theoretical figure SPARC Enterprise M9000), maximizing bandwidth and minimizing latency.


Wir sehen also das die Apu/Hsa Geschichte in der Ps4 einzig dazu dient um Herstellungskosten zu sparen
um den Bauteileaufwand auf dem Pcb zu verringern nicht aber um die Performance zu steigern. Alle bisher
gezeigten Nextgen Spiele haben mit großen technischen Problemen zu kämpfen und insbesondere bei der
Ps4 sieht man das , Watchdogs war eine einzige Ruckelorgie , Infamous hatte mit vielen Pop ups zu kämpfen
und auch hier war die Bildrate nicht stabil , Driveclub ist grafisch Murks im Vergleich zu Forza 5 , die Spieleentwickler haben Probleme bei 1080p 30 Bilder/ s halten zu können. Warum kritisiere ich das , nun
weil die gezeigten Spiele nicht sonderlich gut oder aufwendig aussahen , als das man diese technischen
Probleme damit rechtfertigen könnte.

Auf der Xbox One gab es mehr Spiele mit 60 Frames/s , dank Hardware Tiling , dank 4 x Moveengines , dank 32mb sram ( der ruhig hätte grösser ausfallen können) , dank besserer Tools. Ja es scheint sich mehr und mehr herauszustellen das die neue Xbox one technisch doch interessanter zu sein scheint als bisher gedacht wurde, wenn da nur nicht das 3 fach OS overlay wäre...

Im übrigen scheint die Ps4 weiter abgespeckt zu sein im neuen offiziellen Specsheet von Sony werden die 176gbyte /s garnicht mehr erwähnt , Angaben zur Taktfrequenz fehlen nach wie vor :

http://www.sony.net/SonyInfo/IR/news/20130611_01E.pdf


:uponder:

Major
2013-07-13, 20:16:41
Die bisher gezeigten Spiele aufspielen elen r Ps4 können technisch nicht wirklich überzeugen. Bin ziemlich entäuscht
von Sony und ihrer Lowend Strand tegie. Wenn bei selbst grafisch belanglosen Spielen wie Knack die Bildrate unter 30 Bilder/s fällt dann ist das schon mal ein schlechtes Zeichen. Wie soll das dann bitte bei richtig grafisch aufwendigen Spielen wie Bf4 und co. ablaufen?? Wenn dafür schlecht optimierte Software verantwortlich ist ,
warum schwankt dann nicht die Bildrate zwischen 60 u. 30 Bilder/s , warum nur zwischen 30 und 20 Bilder/s?
Ergo , das Ding pfeift aus dem letzten Loch und vermutlich hat die Hardware eine menge Flaschenhälse die
man bisher wissentlich verschwiegen hat. Kein wunder das die Spieleentwickler nur sehr zögerlich bewegtes
Spielmaterial auf den neuen Konsolen vorzeigen und hier ein strenges NDA Diktat aufrechterhalten wird , man
will sich nicht blamieren und schlechte Publissitie lieber aus dem Weg gehen.

Die strategie kostengünstige u. leicht modifizierte off the shelf Komponenten zu verwenden und diese auf einem Soc zu vereinen scheint nicht aufgegangen zu sein , zumindestens wenn man die technische Seite betrachtet. Die Apu/Hsa Architektur in der Ps4 scheint kein Performancegewinn zu bringen. Wenn Gpu und Cpu auf einem DIE untergebracht sind und zwischen beiden Einheiten nur 10 gbyte/s ( laut Vleaks) transferiert werden kann , dann kann ich hier keine Vorteile in dieser Bauweise/Chiparchitektur erkennen. Und wenn man das wirklich gewollt hätte , hätte man eine gänzlich andere Technologie gewählt so wie diese hier:

http://www.fujitsu.com/global/services/computing/server/sparcenterprise/technology/performance/crossbar.html

Direct and symmetric crossbar connections between CPU, memory and I/O enables max. 737GB/s throughput (theoretical figure SPARC Enterprise M9000), maximizing bandwidth and minimizing latency.


Wir sehen also das die Apu/Hsa Geschichte in der Ps4 einzig dazu dient um Herstellungskosten zu sparen
um den Bauteileaufwand auf dem Pcb zu verringern nicht aber um die Performance zu steigern. Alle bisher
gezeigten Nextgen Spiele haben mit großen technischen Problemen zu kämpfen und insbesondere bei der
Ps4 sieht man das , Watchdogs war eine einzige Ruckelorgie , Infamous hatte mit vielen Pop ups zu kämpfen
und auch hier war die Bildrate nicht stabil , Driveclub ist grafisch Murks im Vergleich zu Forza 5 , die Spieleentwickler haben Probleme bei 1080p 30 Bilder/ s halten zu können. Warum kritisiere ich das , nun
weil die gezeigten Spiele nicht sonderlich gut oder aufwendig aussahen , als das man diese technischen
Probleme damit rechtfertigen könnte.

Auf der Xbox One gab es mehr Spiele mit 60 Frames/s , dank Hardware Tiling , dank 4 x Moveengines , dank 32mb sram ( der ruhig hätte grösser ausfallen können) , dank besserer Tools. Ja es scheint sich mehr und mehr herauszustellen das die neue Xbox one technisch doch interessanter zu sein scheint als bisher gedacht wurde, wenn da nur nicht das 3 fach OS overlay wäre...

Im übrigen scheint die Ps4 weiter abgespeckt zu sein im neuen offiziellen Specsheet von Sony werden die 176gbyte /s garnicht mehr erwähnt , Angaben zur Taktfrequenz fehlen nach wie vor :

http://www.sony.net/SonyInfo/IR/news/20130611_01E.pdf


:uponder:


Selten so was falsches gelesen. Klar die Ps4 ist der xbox so unterlegen. So ein nonsense

Gipsel
2013-07-13, 20:35:55
@megachip zum aktuellen Status der Tools lauten die Gerüchte ein wenig anders (http://forum.beyond3d.com/showthread.php?p=1739291#post1739291). Zur Info: Bkilian hat bis vor kurzem bei MS gearbeitet (hat hauptsächlich an der Audio-Engine gebastelt) und kennt natürlich immer noch Leute da. Oder der Einfachheit halber mal direkt ein Zitat vom ihm:
Interesting I looked at Matt's recent posts just to see if there's anything interesting, in one of them basically he says the Xbox One is current in a bad state in many areas (dev tools etc)

And today on neogaf people posted an article where an Avalanche dev says the same.Well, one of my friends works in the dev tools area [bei Microsoft]. They have a dial drawn on a whiteboard somewhere with their status. It just recently went from "Shitty" to "Partly Shitty"Und da bei B3D rennen mehrere Devs rum, die das Gleiche haben durchblicken lassen. Kurz: MS hat bei den Tools noch eine Menge Arbeit vor sich. Bisher sind die offenbar mehr oder weniger katastrophal.

Auf Deine Beerdigungsrede zur PS4 noch vor der Geburt gehe ich mal lieber erst gar nicht ein, genauso wie auf den offensichtlichen MS-Bias. :rolleyes:

megachip800
2013-07-13, 20:42:52
Die Hardware der Xbox One hat eine höhere Effizienz , die Ps4 hat bedingt durch die Architektur mit hohen
Latenzen zu kämpfen , Microsoft hat zudem bessere Programiertools. Ich geb Sony 12 Monate wenn danach
die Bildrate bei den Spielen weiterhin zwischen 30 u. 20 Frames/s schwankt dann ist das Teil für mich
gestorben. Ich hätte lieber 200 bis 300 € mehr für eine neue Playstation ausgegeben , für eine wirklich vernünftige Hardware nicht aber so ein Schnellschussprodukt für 399€....

Finch
2013-07-13, 20:46:05
Die Hardware der Xbox One hat eine höhere Effizienz , die Ps4 hat bedingt durch die Architektur mit hohen
Latenzen zu kämpfen , Microsoft hat zudem bessere Programiertools. Ich geb Sony 12 Monate wenn danach
die Bildrate bei den Spielen weiterhin zwischen 30 u. 20 Frames/s schwankt dann ist das Teil für mich
gestorben. Ich hätte lieber 200 bis 300 € mehr für eine neue Playstation ausgegeben , für eine wirklich vernünftige Hardware nicht aber so ein Schnellschussprodukt für 399€....

Oo liest du eigentlich was hier geschrieben wird, oder führst du gerne unsinnige Dialoge? Schnellschussprodukt? ;D

Hallo
2013-07-13, 20:46:33
@megachip800

-Fakt ist die PS4 besitzt deutlich mehr Raw Performance.
-Fakt ist der GDDR5 Speicher versägt den embedded Ram der One vom DDR Speicher nicht zu reden
-Fakt ist sie ist billiger.
-Fakt ist das die tollen One Demos auf PCs liefen, scheinbar sogar ironischerweise auf NV Grakas.

Was die ruckeligen Demos der PS4 betrifft. Schon auf den Gedanken gekommen das Alphas gezeigt wurden? Und zwar auf echten PS4s ;)

Und der ganze Kinect Zirkus macht die One nicht unbedingt attraktiver.

Sorry du versuchst dir was einzureden. Es ist OK Fanboy zu sein, aber man sollte bei den Tatsachen bleiben und die sehen nunmal so aus wie ich sie beschrieben habe.

Edit:

Zu den Programmiertools. Hier wird absichtlich nur High Level Programming erlaubt, einfach aber die HW nicht wirklich ausnutzend.
Die PS4 kann man Low Level programmieren und spätestens nach einem Jahr sieht die One kein Land mehr.

Da is nix Schnellschuss. Schon mitbekommen was der Cerny für ne Vergangeneit hat, nein? Dann mal schlau machen denn der hat sehr wohl Ahnung was Programmieren und HW angeht.

Und jetzt kommste mit Latenz von GDDR5. Ähm, Grakas haben nicht umsonst GDDR an Bord und nicht DDR, weisst du das hat seinen Grund. Und du weisst das GPU Performance weit wichtiger ist als CPU Performance;) Und letztendlich ists Banane wieviel Latenz, der Datendurchsatz ist höher für GPU und CPU. Was glaubst du wieso embedded Ram verbaut wird, richtig um einen Flaschenhals zu mindern.

Die Box ist in jeder Hinsicht unterlegen.

Ich bin ein riesen 360 Fan aber was MS HW technisch auftischt ist Müll. Und das Geschäftsgebaren ist noch mülliger. Ich sehe keinen einzigen Punkt der besser ist, keinen. Mir tut es nur um Forza weh aber GT ist auch nicht schlecht. Somit totaler Totalausfall für mich.

Gipsel
2013-07-13, 20:47:11
Microsoft hat zudem bessere Programiertools.Momentan ganz offenbar nicht. Zumindest nicht in Bezug auf die Funktionsfähigkeit mit der XB1 (dazu gehören natürlich auch OS und Treiber, also daß der Kram erstmal überhaupt ordentlich läuft).
-Fakt ist das die tollen One Demos auf PCs liefen, scheinbar sogar ironischerweise auf NV Grakas.Hey, Ryse lief auf XB1-Hardware (vermutlich DevKit mit dem finalen SoC drin). War aber auch (fast?) das Einzige.

Rolsch
2013-07-13, 20:51:24
Und der ganze Kinect Zirkus macht die One nicht unbedingt attraktiver.

Kinect und der TV Kram sind der einzige Grund warum mich die neue Generation überhaupt interessiert. Ansonsten sind die PS4 und die XBO sterbenslangweilig.

megachip800
2013-07-13, 20:55:25
@megachip zum aktuellen Status der Tools lauten die Gerüchte ein wenig anders (http://forum.beyond3d.com/showthread.php?p=1739291#post1739291). Zur Info: Bkilian hat bis vor kurzem bei MS gearbeitet (hat hauptsächlich an der Audio-Engine gebastelt) und kennt natürlich immer noch Leute da. Oder der Einfachheit halber mal direkt ein Zitat vom ihm:
Und da bei B3D rennen mehrere Devs rum, die das Gleiche haben durchblicken lassen. Kurz: MS hat bei den Tools noch eine Menge Arbeit vor sich. Bisher sind die offenbar mehr oder weniger katastrophal.

Auf Deine Beerdigungsrede zur PS4 noch vor der Geburt gehe ich mal lieber erst gar nicht ein, genauso wie auf den offensichtlichen MS-Bias. :rolleyes:

Damagecontrol. Entscheident ist doch was hinten rauskommt. Und die gezeigten Spiele die auf der echten Xbox Hardware liefen wie Forza 5 sahen besser aus als die von der Ps4 , wenn ich mir Driveclub anschaue dann
kann ich hier nicht erkennen in wie weit die Sony Tools besser sein sollen , die Entwickler haben Probleme bei dem Spiel 30 bilder/ s hinzu bekommen und sprechen davon 60 Bilder/ s anzuvisieren.

Hunter93
2013-07-13, 21:04:38
Die Hardware der Xbox One hat eine höhere Effizienz , die Ps4 hat bedingt durch die Architektur mit hohen
Latenzen zu kämpfen

Das sind doch - bis aufs Speichersystem - die absolut selben Architekturen.

Entscheident ist doch was hinten rauskommt.

Solange das PCs mit Nividia-Karten meint, wohl ehr nicht :biggrin:

Hallo
2013-07-13, 21:04:42
Kinect und der TV Kram sind der einzige Grund warum mich die neue Generation überhaupt interessiert. Ansonsten sind die PS4 und die XBO sterbenslangweilig.

Nicht böse gemeint aber du könntest glatt von MS bezahlt worden sein für diesen Kommentar oder du bist einer der gaaanz wenigen die Kinect haben wollen. Alle die ich kenne pfeiffen drauf. Und TV schaue ich mit nem TV? Dazu brauch ich keine Konsole.

Hey, Ryse lief auf XB1-Hardware (vermutlich DevKit mit dem finalen SoC drin). War aber auch (fast?) das Einzige.

...aber der Rest eben nicht. Selbst die Kinect Demo war gefaked. Sie machen die gleichen Fehler wie Sony damals bei der PS3 und Sony macht genau das was die 360 damals richtig gemacht hat. Was für mich sehr sympathisch erscheint ist die Unterstüzung von Indies und hoffentlich viele Arcade Sachen. Ebenso wurde ein grosses Problem wohl gelöst die laggy Pads der PS3. Wenn jetzt nicht gleich die DRM Keulen von Publischern kommen werde ich viel Spass mit der PS4 haben und wohl zum ersten Mal eine Konsole auslassen seit 1985, abgesehen vom Atari Jaguar und 3DO und anderen obskuren Konsolen.

Rolsch
2013-07-13, 21:13:30
Nicht böse gemeint aber du könntest glatt von MS bezahlt worden sein für diesen Kommentar oder du bist einer der gaaanz wenigen die Kinect haben wollen. Alle die ich kenne pfeiffen drauf. Und TV schaue ich mit nem TV? Dazu brauch ich keine Konsole.

Das wäre schon wenn MS mich für sowas bezahlen würde. Heutzutage fände ich es gut, wenn ich über den TV mit einer simplen Steuerung auch die ganzen Internet Medien nutzen könnte. Das alles verspricht die XBO mit Kinect.

Tja und die wo ich kenne pfeifen auf Konsolen und spielen am PC. Da ist die Hardware schon ein paar Jahre voraus und billiger sind die Spiele auch noch. Aber diese Diskussion gehört nicht hierher.

megachip800
2013-07-13, 21:15:27
Das sind doch - bis aufs Speichersystem - die absolut selben Architekturen.



Solange das PCs mit Nividia-Karten meint, ehr nicht :biggrin:

Eben nicht , ich werde mir später mal Zeit nehmen hier die Unterschiede aufzuzeigen.

Hallo
2013-07-13, 21:16:48
Coda und Gipsel werden sich freuen:popcorn:



Tja und die wo ich kenne pfeifen auf Konsolen und spielen am PC. Da ist die Hardware schon ein paar Jahre voraus und billiger sind die Spiele auch noch. Aber diese Diskussion gehört nicht hierher.

Das ist kein Argument da es hier um Konsolen geht.

Hannes Lasse
2013-07-13, 21:18:18
Für mich liegt die PS4 derzeit auch vorne, dann WiiU und dann die Xbox One. Ich finde neben der Technik sind einfach die Spiele das entscheidende Kaufkriterium. Von der Leistungsfähigkeit geben sich PS4 und XboxOne kaum was. Für den normalen Verbraucher sind die Unterschiede sicherlich kaum zu erkennen!

Gipsel
2013-07-13, 21:27:27
Eben nicht , ich werde mir später mal Zeit nehmen hier die Unterschiede aufzuzeigen.
Na da bin ich aber gespannt, was da rauskommt außer DDR3+eSRAM vs. GDDR5. Nicht zu vergessen die doppelte Zahl der ROPs der PS4 (denen vielleicht ein wenig Bandbreite fehlt [analog zu Pitcairn], aber gegen die 16 der XB1 sollten die schon gut anstinken können) und die +50% an CUs.
MoveEngines? Benötigt man in erster Linie um Sachen zwischen normalem RAM und eSRAM zu streamen (okay, die können noch jpg De- sowie lz En-/Decoding, aber das haut mich jetzt auch nicht unbedingt vom Hocker, ansonsten sind das normale DMA-Engines, von denen die PS4 auch zwei hat). SHAPE-Audio-Engine, Display-Planes? Whatever.
Wieviele ACEs hat Durango eigentlich? Auch acht wie die PS4 oder nur zwei (und welche Iteration, die GCN1.0 oder die 1.1-Variante wie Orbis)? Und hat die XB1 auch den zusätzlichen Graphics-Command-Prozessor wie Orbis? Und woraus davon resultieren überhaupt merkliche Vorteile?

Locuza
2013-07-13, 21:33:08
Kann vielleicht jemand erklären, was er damit genau meint?
Da war mal das Gerücht, dass die PS4 14 Compute Units für Graphics verwendet und 4 für Compute reserviert.
Also eine starre Aufteilung.
Allerdings kann man dank der ACEs das so flexibel einteilen wie man möchte.
Also war das damals einfach nur BS.

Hallo
2013-07-13, 21:35:56
Was sind ACEs und was machen die?

Windi
2013-07-13, 21:42:36
Der Große Vorteil von MS ist halt das die TV-Hersteller in Richtung smartTV massiv versagen. Aber auch Apple oder Google haben noch keine SetTopBox herausgebracht, die diese Funktionen nachrüsten.

So kann Microsofts Konzept plötzlich innovativ und neuartig wirken, obwohl es kaum mehr bietet als ein Tablet.
Die PS4 wird aber wohl ähnliches bieten, allerdings nicht alles gleichzeitig zusammen (sondern nur nacheinander) und die Steuerung wird wohl übers Gamepad laufen und nicht ganz so intuitiv sein. (Die Sony Konsole wird ja hoffentlich das können, was selbst Billig-Tablets schon lange beherschen)

Ich finde die Multimediafähigkeiten auch interessant, aber MS Stärke ist eher die Schwäche der Anderen.
Es ist jetzt eher die Frage, wie gut Sonys Notlösung sein wird und ob MS die Rechteinhaber auf seine Seite ziehen kann.
Ein Fernseher der alles kann, was auch Tablets können und zusätzlich Zugriff auf eine riesige Multimediabibliothek hat wäre ein Traum.

Die Xbone muss sich aber erst einmal beweisen und zeigen, das ihre Dienste auch außerhalb der USA funktionieren.

Hallo
2013-07-13, 21:45:20
Ich steuere lieber mit nem Touchpad auf dem Bildschirm herum als anstrengende Gestiken die auch noch verzögern.

Ich habe diverse Kinect Games gezockt und sie sind Fun aber auch sehr anstrengend und die Latenz ist katastrophal. Ja es wird besser aber sicher noch weit entfernt von einem guten Funkpad. Das Ding kommt mir nicht ins
Haus solange ich nicht Kinect physisch vom Gerät trennen darf. Ich kann über alle Schwächen hinwegsehen hier aber nicht.

Herr Doktor Klöbner
2013-07-13, 21:47:13
Mal ne ganz andere Frage: Ich gehe davon aus, das bei PC Spielen AVX nicht genutzt wird, da man für den kleinsten gemeinsamen Nenner programmiert, sollte das anders sein bitte ich um Berichtigung.

Bei den Next Gen Konsolen können die Jaguars das, also wird es wohl auch genutzt. Bringt das in der Praxis etwas und wie viel ?

Hunter93
2013-07-13, 21:51:11
SHAPE-Audio-Engine, Display-Planes??

Einen dedizierten Audioprozessor besitzt die PS4 ja auch.
Und die Display Planes nennen sich bei Sony DisplayScanOut Engines, bloß gibt es nur zwei statt drei wie in XO.

Wo genau steht eigentlich die Sache mit dem zweiten Graphics-Command Prozessor und den DMA-Engines im Leak?
Bzw. kannst du erklären, was die bringen sollen? Herkömmliche PCs haben die ja nicht, oder lieg ich da falsch?

dargo
2013-07-13, 21:58:24
Mal ne ganz andere Frage: Ich gehe davon aus, das bei PC Spielen AVX nicht genutzt wird, da man für den kleinsten gemeinsamen Nenner programmiert, sollte das anders sein bitte ich um Berichtigung.

Afaik wird AVX schon bei GRID2 @PC verwendet.

Bringt das in der Praxis etwas und wie viel ?
Man kann keinen Gegentest ohne AVX beim genannten Spiel anstellen, von daher ist nicht bekannt wieviel es bringt.

Coda
2013-07-13, 21:59:50
Mal ne ganz andere Frage: Ich gehe davon aus, das bei PC Spielen AVX nicht genutzt wird, da man für den kleinsten gemeinsamen Nenner programmiert, sollte das anders sein bitte ich um Berichtigung.

Bei den Next Gen Konsolen können die Jaguars das, also wird es wohl auch genutzt. Bringt das in der Praxis etwas und wie viel ?
Praktisch fast nichts gegenüber SSE weil Jaguar nur eine 128 bit FPU hat, also jede AVX-Instruction doppelt so lang dauert.

Aber man muss auch so aufpassen. DPPS (Dot Product) ist z.B. 1/5 Durchsatz auf Jaguar. Da ist ein MUL und zwei HADDS auf dem Papier schneller (hab's noch nicht gemessen).

Hübie
2013-07-13, 22:18:57
Was sind ACEs und was machen die?

Asynchron compute engine heißt das. Die verteilen im Prinzip die Arbeit auf die jeweiligen "Blöcke" bzw. compute units mit den arithmetischen Logikkernen.
Gibt's Einwände gegen diese Erklärung?

Gipsel
2013-07-13, 22:21:21
Aber man muss auch so aufpassen. DPPS (Dot Product) ist z.B. 1/5 Durchsatz auf Jaguar. Da ist ein MUL und zwei HADDS auf dem Papier schneller (hab's noch nicht gemessen).Willst Du nur ein DP4 oder mehrere auf einmal machen?

Gipsel
2013-07-13, 22:35:28
Asynchronous compute engine heißt das. Die verteilen im Prinzip die Arbeit auf die jeweiligen "Blöcke" bzw. compute units mit den arithmetischen Logikkernen.
Gibt's Einwände gegen diese Erklärung?
Nur eine Ergänzung, die vielleicht das Verständnis verbessert. Die ACEs stellen Warteschlangen (Queues) für die Computeaufgaben zur Verfügung (beim originalen GCN1.0 Design eine Queue pro ACE, bei GCN1.1 acht Queues pro ACE). Eine Anwendung/Spiel sendet seine Aufgaben an diese Queues. Da wird also im Prinzip vermerkt, welcher Kernel (also Programm) mit welchen Daten und Parametern ausgeführt werden soll und von was diese spezielle Aufgabe abhängig ist (ein Kernel, der z.B. erfordert, daß ein anderer Kernel zuvor fertig wird bzw. daß eine DMA-Engine noch Daten irgendwo hinkopiert, wartet also bis diese Abhängigkeiten "aufgelöst" sind). Die Abhängigkeiten müssen sich dabei nicht auf die gleiche Queue oder auch ACE beziehen, es können im Prinzip Abhängigkeiten zu allen Kernels in allen Queues in allen ACEs und auch zu Grafiktasks berücksichtigt werden (oder wohl auch Semaphoren über den GDS). Wenn das erfüllt ist, erzeugen die ACEs die entsprechenden Wavefronts und Workgroups (das sind die Einheiten, mit denen dann die CUs arbeiten; eine Wavefront besteht aus 64 Elementen, eine Workgroup aus mehreren Wavefronts, innerhalb einer Workgroup können Daten zwischen den einzelnen Elementen [work items aka "threads"] über den LDS [aka local memory aka group shared memory] ausgetauscht werden), die dann auf die CUs verteilt werden. Und die ACEs bekommen natürlich auch Rückmeldung über den Status bzw. dann Beendigung dieser Aufgaben (und geben das gegebenfalls an den Treiber/die Anwendung weiter).

Hübie
2013-07-13, 22:48:03
Äh ja. Mein denglisch mal wieder. Ich lese deine Erklärung immer sehr gerne da die ausführlich sind und dennoch nicht überfordern :up:
Das GCN 1.1 8 queues erzeugt ist mir sogar neu.

Ich warte jetzt mal gespannt auf megachip800. Vielleicht weiß er was, was wir nicht wissen ;D:naughty:

Gipsel
2013-07-13, 22:54:30
Einen dedizierten Audioprozessor besitzt die PS4 ja auch.
Und die Display Planes nennen sich bei Sony DisplayScanOut Engines, bloß gibt es nur zwei statt drei wie in XO.

Wo genau steht eigentlich die Sache mit dem zweiten Graphics-Command Prozessor und den DMA-Engines im Leak?
Bzw. kannst du erklären, was die bringen sollen? Herkömmliche PCs haben die ja nicht, oder lieg ich da falsch?
Das waren doch Fragen an Megachip, er wollte uns doch über die Unterschiede belehren. ;)

Zwei DMA-Engines haben AMDs GPUs schon eine halbe Ewigkeit. Das Tiling/Untiling während des Kopierens ist übrigens eine Grundfunktion von denen. Den zweiten Command-Procesor gab es in den vgleaks-Sachen:

http://www.vgleaks.com/wp-content/uploads/2013/02/gpu_queues.jpg

Der ist als HighPriority bzw. VSHELL gekennzeichnet, also vermutlich für die bevorzugte Abarbeitung von Kommandos des Betriebssystems gedacht (und kann im Gegensatz zum normalen CommandProcessor keine ComputeShader). Für Spiele an sich ist das also erstmal unerheblich (weil sie an die HP-Queue wohl nicht rankommen). Übrigens, "Ring" und "Queue" sind als Bezeichnung austauschbar. Eine Queue (FIFO) wird praktisch meist als Ringpuffer ausgeführt. Also nicht wundern, daß in der Grafik von Ringen die Rede ist. Das sind immer Warteschlangen.

Coda
2013-07-13, 23:05:49
Willst Du nur ein DP4 oder mehrere auf einmal machen?
Nur eins in dem Fall. Die Daten sind in dem Fall leider AOS (Quaternions) weil Gründe :D

Was mich aber am meisten nervt ist, dass es kein FMA gibt. Das würde verdammt viel helfen.

del_4901
2013-07-14, 00:20:36
Was mich aber am meisten nervt ist, dass es kein FMA gibt. Das würde verdammt viel helfen.
Ist nicht MUL und ADD dual issue?

Coda
2013-07-14, 00:21:24
Schon, aber auf Haswell hast du das ja auf beiden Pipes FMA iirc.

Übrigens Jaguar Optimization Guide mit allen Instruction Timings: http://support.amd.com/us/Processor_TechDocs/52128_16h_Software_Opt_Guide.zip

Hab das Ding ewig gesucht ;)

Gipsel
2013-07-14, 00:50:34
Schon, aber auf Haswell hast du das ja auf beiden Pipes FMA iirc.

Übrigens Jaguar Optimization Guide mit allen Instruction Timings: http://support.amd.com/us/Processor_TechDocs/52128_16h_Software_Opt_Guide.zip

Hab das Ding ewig gesucht ;)
Hättest ja fragen können! :tongue:
Das Ding war im Kabini-Thread glaube ich schon mal vor zwei Monaten verlinkt. Kann mich dunkel dran erinnern, daß da die kurzen Latenzen (2 Takte für fp32 MULs) angesprochen wurden (oder war das ein anderes Forum?). Was war das bei Xenon oder Cell? 10 Takte? 14 für ein dot product?

Edit:
Da habe ich doch gerade mal in der Tabelle nachgesehen. DPPS soll angeblich 5 µOps generieren, 3 MULs und 2 ADDs. WTF?!? Wieso mapped das nicht auf genau die 1 MULPS + 2 HADDs (mit den überschüssigen Slots automatisch auf Null maskiert), durch die Du das ersetzen willst? Immerhin, die Durchsatzangabe von 1 DPPS pro 3 Takte ist zumindest wegen der 3 MULs irgendwie konsistent. Aber wenn das kein Fehler sein sollte, was zur Hölle machen die da? Eigentlich sollten 8 Takte Latenz und 3 µOps wie bei der manuellen Variante reichen (und Durchsatz 1 DPSS pro 2 Takte). für horizontale Operationen wie hadd funktioniert das lokale forwarding innerhalb des FP clusters nicht, d.h. zweimal +1 Takt Latenz
Mit 4 skalaren MULs und 3 skalaren ADDs kommt man auch auf eine Latenz von 11 Takten (sind aber 7 Ops und Durchsatz nur noch 1/4 Takte). Irgendwie unerklärlich.

Hunter93
2013-07-14, 02:39:42
Zwei DMA-Engines haben AMDs GPUs schon eine halbe Ewigkeit.

Memory-Controller für DMA-Zugriffe kenne ich bisher nur von CPUs. Gab es die auch schon bei RSX und Xenos?
Und kannst du ungefähr einschätzen, wie sehr das eine GPU entlastet (wenn im Gegensatz ein Speichertransfer direkt mit den Shadern ausgeführt wird, so wie VGLeaks das beschreibt)?

Ich erinnere mich, dass Timothy Lottes mal etwas dazu geschrieben hat:
"Dual High Performance DMA Engines :: Developers would get access to do async CPU->GPU or GPU->CPU memory transfers without stalling the graphics pipeline, and specifically ability to control semaphores in the push buffer(s) to insure no stalls and low latency scheduling. This is something the PC APIs get horribly wrong, as all memory copies are implicit without really giving control to the developer. This translates to much better resource streaming on a console."
http://www.psu.com/forums/showthread.php/305502-Timothy-Lottes-the-creator-of-FXAA-dishes-on-PS4-s-potential

Was leisten die DMA-Engines aus GCN eigentlich an Bandbreite? 256 Bit/Takt so wie die MEs der Xbox One auch?

del_4901
2013-07-14, 02:54:48
Irgendwie unerklärlich. VVV

Gipsel
2013-07-14, 03:47:20
VVV
Ach, wenns ein wenig mehr sein darf dann SoA. Dann hast Du jeden Takt ein DotProduct (bzw. alle 4 Takte 4), Latenz ist auch 11 Takte für den Fall. Das Problem dürfte dann eher sein, wie man die Daten ranbekommt (der Compiler sollte immer schön Speicheroperanden benutzen und einmalig benutzte Daten nicht erst explizit in Register laden). Bleibt nur noch der niedrigere Takt.
edit: Und wenn es noch mehr dot-products werden, ab auf die GPU damit!

del_4901
2013-07-14, 04:08:40
Ach, wenns ein wenig mehr sein darf dann SoA. Dann hast Du jeden Takt ein DotProduct (bzw. alle 4 Takte 4), Latenz ist auch 11 Takte für den Fall. Das Problem dürfte dann eher sein, wie man die Daten ranbekommt (der Compiler sollte immer schön Speicheroperanden benutzen und einmalig benutzte Daten nicht erst explizit in Register laden). Bleibt nur noch der niedrigere Takt.
edit: Und wenn es noch mehr dot-products werden, ab auf die GPU damit!
Happy Refactoring in einer "gewachsenen" Spiele-Engine. Nicht jede Engine ist so modern wie unsere. :D

Gipsel
2013-07-14, 04:52:38
Happy Refactoring in einer "gewachsenen" Spiele-Engine. Nicht jede Engine ist so modern wie unsere. :D
Das predigt Intel doch jetzt schon seit 15 Jahren (seitdem es SSE gibt). :rolleyes:
Damals(tm), gingen dot products richtig gut mit 3DNow!, auch mit AoS (eigentlich sogar bald besser). Für Arithmetik mit komplexen Zahlen war das ebenfalls ziemlich nett (konnte schon gemischte horizontale Addition/Subtraktion, genau das was man für komplexe Zahlen braucht). Und die genäherten Reziproken oder Wurzel waren genauer als mit SSE. :freak:

Skysnake
2013-07-14, 09:50:58
@DMA-Engines:
Dadurch, das AMD schon länger zwei davon verbaut, können Sie die PGU parallel über den PCI-E lesen und schreiben lassen. Das ist ziemlich nett.

ndrs
2013-07-14, 10:50:19
Ich quote mich mal selber, da keiner auf die Frage eingegangen ist, mich eine Antwort aber dennoch interessieren würde.
Es geht um die XBox:
Ist es eigentlich vorstellbar, dass bei einem späteren Shrink zur Kosteneinsparung das Speicherinterface halbiert wird und dafür entsprechend doppelt so schneller (preislich bis dahin günstiger) DDR4 mit doppelt so großen Chips eingesetzt wird?
Oder spricht da dagegen, dass sich irgendwelche Timings anders verhalten und sich der Programmierer so nicht auf seine vorhergesehenen Reaktionszeiten verlassen kann? Oder sind solche spezifischen Sachen überhaupt nicht mehr so genau vom Programmierer vorhersehbar, da das dazwischenhängende Betriebssystem eh reinpfuscht?

Dabei fällt mir gleich noch eine Frage zur alten Generation ein :)
Konnten die eigentlich multitasken (Ich hatte selber nie eine, noch hab ich mal mehr als ne Stunde an einer gespielt)? Wenn nein, waren die Betriebssysteme so gestrickt, dass das Spiel quasi echtzeitfähig ausgelegt werden konnte, da die zur Verfügung stehende Rechenzeit fix (oder gar 100%?) war und damit das Verhalten der Anwendung deterministisch?

Coda
2013-07-14, 11:07:58
Happy Refactoring in einer "gewachsenen" Spiele-Engine. Nicht jede Engine ist so modern wie unsere. :D
Stichel nich rum ;)

Es ist komplett neuer Code von mir. Hat trotzdem gute Gründe ;)

ich doch gerade mal in der Tabelle nachgesehen. DPPS soll angeblich 5 µOps generieren, 3 MULs und 2 ADDs. WTF?!? Wieso mapped das nicht auf genau die 1 MULPS + 2 HADDs (mit den überschüssigen Slots automatisch auf Null maskiert), durch die Du das ersetzen willst? Immerhin, die Durchsatzangabe von 1 DPPS pro 3 Takte ist zumindest wegen der 3 MULs irgendwie konsistent. Aber wenn das kein Fehler sein sollte, was zur Hölle machen die da? Eigentlich sollten 8 Takte Latenz und 3 µOps wie bei der manuellen Variante reichen (und Durchsatz 1 DPSS pro 2 Takte). für horizontale Operationen wie hadd funktioniert das lokale forwarding innerhalb des FP clusters nicht, d.h. zweimal +1 Takt Latenz
Mit 4 skalaren MULs und 3 skalaren ADDs kommt man auch auf eine Latenz von 11 Takten (sind aber 7 Ops und Durchsatz nur noch 1/4 Takte). Irgendwie unerklärlich.
Ich kann mir zwei Gründe vorstellen. Erstens dass es simpler war es so zu Microcoden und zweitens weil die HADDs ne Latenz von 2 Takten haben, d.h. du wärst dann auch erst nach 5 Takten fertig.

Gipsel
2013-07-14, 13:18:26
Ich kann mir zwei Gründe vorstellen. Erstens dass es simpler war es so zu Microcoden und zweitens weil die HADDs ne Latenz von 2 Takten haben, d.h. du wärst dann auch erst nach 5 Takten fertig.Verwechselst Du die Spalten in der Tabelle? Ein MUL hat 2 Takte, ein ADD 3 Takte Latenz. Ein DPPS ist nach 11 Takten Latenz fertig (und benötigt angeblich 5 µOps). Die Kombination aus einem MULPS und zwei HADDs sind nur 3 µOps (es bleiben also mehr Resourcen übrig, in die der Scheduler irgendwas anderes reinquetschen kann) und sollte eine Latenz von 10 Takten haben (MULPS 2 + HADD 3+1 + HADD 3+1). Die +1 kommen vom nichtfunktionierenden local forwarding bei horizontalen Additionen (zumindest mir ist nicht hundertprozentig klar, wann genau der Zusatztakt fällig wird). Hängt man eine Menge unabhängiger DPPS hintereinander (warum auch immer man das tun würde), hat man einen Durchsatz von einem DPPS alle 3 Takte, die manuelle Version aus den drei Befehlen schafft dann ein dot product alle 2 Takte.

Und wie soll es simpler sein, ein DPPS überhaupt mit 3 MULs zu basteln? Wie geht das überhaupt? Die zwei Additionen kann man ja nachvollziehen. Aber 3 FPMUL-µOps? den automatisch
Edit: Oder das ist die Sparvariante, die keine spezielle interne µOp für den HADD-Fall des DPPS hat, also die mit den automatisch maskierten Slots für die HADDs bzw. dem integrierten Shuffle in die richtige Position am Ende. Vielleicht sind das ja die 2 zusätzlichen µOps.

Coda
2013-07-14, 13:23:36
11 Takte hast recht. Brauch mehr Schlaf.

del_4901
2013-07-14, 16:56:36
Stichel nich rum ;)

Es ist komplett neuer Code von mir. Hat trotzdem gute Gründe ;)

Input fuer die GPU? Ich hoffe du verwendest keine StructuredBuffer.

Watson007
2013-07-14, 17:15:30
irgendjemand hatte hier geschrieben dass für die XBox One nur HighLevel-Programmierung erlaubt ist, stimmt das?

Kann man dann davon ausgehen dass für die One keine so großen sichtbaren Steigerungen bei der Grafikqualität später zu erwarten sind?
Das mittels Optimierung nicht soviel herauszuholen ist wie bei der PS4?

Coda
2013-07-14, 17:16:21
Input fuer die GPU? Ich hoffe du verwendest keine StructuredBuffer.
Jain, aber keine structured buffer. Mag die GCN nich? Hatte das Vergnügen noch nicht.

Hallo
2013-07-14, 19:12:24
irgendjemand hatte hier geschrieben dass für die XBox One nur HighLevel-Programmierung erlaubt ist, stimmt das?

Kann man dann davon ausgehen dass für die One keine so großen sichtbaren Steigerungen bei der Grafikqualität später zu erwarten sind?
Das mittels Optimierung nicht soviel herauszuholen ist wie bei der PS4?

Jupp, das war ich. Ich denke gehört zu haben das MS eine API hat die es erlauben soll sehr einfach zu programmieren aber die HW nicht so ausnutzen lässt wie man es eigentlich von geschlossenen Systemen wie Konsolen gewohnt ist.

Sony hingegen soll durch ihre eigene API es den Entwicklern erlauben sehr HW nah zu programmieren was immer besser ist vor allem wenn die HW eh schon sehr "rund" gestrickt ist wie die PS4.

Somit sollten die 1st gen games der PS4 schon gut aussehen mit mächtig Luft nach oben.
Ähnlich Dreamcast, da waren die ersten games auch schon wow und zwei Jahre später gabs "wie ist das eigentlich möglich" games. Ein Entwickler meinte das die DC traumhaft zu programmieren wäre:)

Ausserdem war diese HW exzellent skalierbar was mich fragen lässt ob es theoretisch möglich wäre, entsprechender ext. Port/Bus vorausgesetzt, mehrere Konsolen wie z.B. die PS4 zu koppeln? Aussen vorgenommen ob dies markttechnisch sinnvoll wäre. Wobei, wer zwei besitzt kommt dann in den Genuss von "Ultra Setting" wie etwa bessere Grafik oder 60fps.

Denn sowas hört sich schon lecker an. Zitat System16.com zum NAOMI Arcade System was ne DC mit doppeltem VRAM/Ram ist:

"The Naomi architecture is very flexible in that a cabinet can have anywhere from 1 to 16 boards. A multi board system would operate in parallel increasing the power of the system tremendously! Theoritically a 16 board Naomi system could do (16 x 3.5 mpps) = 56 million polygons per second maximum! Realistically it would most likely be around 20 to 30 mpps. Then of course there is also the issue of the CPU being capable of driving all of this hardware."

Das NAOMI2 System hatte dann grob gesagt zwei CPUs sowie zwei GPUs und HW T+L. Vor allem die PowerVR GPU renderte mit einem Tiling System und auch hier hätte ich ne Frage:

Stimmt es das HW Tiling es nicht erlaubt Post Effects sowie andere Dinge die heute Standard sind zu ermöglichen? Wobei die PowerVRs von Smartphones doch auch so funzen und alle modernen Effekte sind möglich, hmm.

][immy
2013-07-14, 20:05:25
irgendjemand hatte hier geschrieben dass für die XBox One nur HighLevel-Programmierung erlaubt ist, stimmt das?

Kann man dann davon ausgehen dass für die One keine so großen sichtbaren Steigerungen bei der Grafikqualität später zu erwarten sind?
Das mittels Optimierung nicht soviel herauszuholen ist wie bei der PS4?
Stimmt bei der Xbox one nicht. Man hat diesmal die Auswahl Hardware nah oder über eine api mit der Box zu kommunizieren.

del_4901
2013-07-14, 20:16:23
Jain, aber keine structured buffer. Mag die GCN nich? Hatte das Vergnügen noch nicht.Is generell nicht gut, ich vermute das geht alles ueber den L2.

Coda
2013-07-14, 20:58:20
Naja das Zeug liegt halt im Speicher statt in Registern. Also das selbe wie Vertex-Buffer auch. Auf GCN wird beides mit den gleichen Load-Instructions gelesen iirc.

Iterator
2013-07-14, 21:47:43
Ich habe gerade etwas im NeoGaf Forum gelesen. Dort setzt man sich mit folgender Sache auseinander...



PS4 is going to be worse AT GPU Boolean comparison operations while other systems can be multithreaded to aid Logic. This may hurt the PS4's use of Tessellation since boolean operations will be slower than Wii U and Xbox 1. It also has a weak CPU. It may not be able to handle many hardware lights ranging anywhere from Wii U to Last Gen. It just uses shader lights which don't have Alpha Channel correction. When a light shines on a ambient reflective object it only reflects back certain colors hiding the rest. PS4's lack of Edram means that the Char persision storage of shader information in RAM will be equivalent to Xbox One.

Booleans increase the number of header files to store their memory address and PS4 has huge memory banks think the location of one fish in a large ocean. PS4 has to store this address on the system to be read by memory controllers. This burden is much less for Embedded RAM which Wii U and Xbox one have which is much smaller in size and can be cycled for large storage. That means boolean dependent GPU operations will be worse. With all the boolean comparisons in tessellation to determine whether the structure is ABA or ABB or BAA the PS4 won't be able to handle as long tessellated strings. At 8bits Char persision Header files will reduce the Ram speed to Xbox One levels. PS4 has yet to show many hardware lights in Graphically intensive games it only has shader lights probably due to limitations which look unnatural.

It's not a myth that DDR5 is worse than DDR3 at the same speed.


Die Grafikchips der beiden Konsolen sind sich, bis auf die bekannten Features doch sehr ähnlich. Sollten wirklich Tessellations Probleme auf der PS 4 auftreten, weil boolesche Operatoren auf dem PS 4 Grafikchip langsamer laufen als auf der WII U und Xbox One ?



Quelle:neogaf.com (http://www.neogaf.com/forum/showpost.php?p=69766971&postcount=427)

Coda
2013-07-14, 22:01:09
Das ganze Gefasel ist einfach nur :facepalm:

Protipp: Es gibt seit mindestens 10 Jahren keine "Hardware Lights" mehr.

del_4901
2013-07-14, 22:01:43
Naja das Zeug liegt halt im Speicher statt in Registern. Also das selbe wie Vertex-Buffer auch. Auf GCN wird beides mit den gleichen Load-Instructions gelesen iirc.
Ich denke das sind bei StructuredBuffern sogar Atomic Loads/Stores. (im RW Fall). TypedBuffer sind entweder Read oder Write einzige Ausnahme sind Singles.

Finch
2013-07-14, 22:05:05
Och Leute ihr habt megachip800 verscheucht. Jetzt braucht es wieder einige zeit, bis wir was zu lachen haben.

DinosaurusRex
2013-07-14, 23:44:24
Hier ist übrigens die Reaktion von Sony Santa Monica zu diesem Boolean Kram:

http://i.imgur.com/Jam6hAP.jpg

Hübie
2013-07-15, 00:43:20
Was ist denn mit boolean-Kram gemeint??

Gipsel
2013-07-15, 01:02:17
Was ist denn mit boolean-Kram gemeint??Der Text da oben ist wie Coda schon sagte absoluter Blödsinn. Ich habe nach dem ersten Satz aufgehört zu lesen, weil klar war, daß da nichts Vernünftiges drinstehen kann. Einfach nicht weiter drüber nachdenken, lohnt sich nicht.
Hab jetzt doch mal kurz den Text angesehen. Scheiße Mann, da tut einem ja der Kopf von weh so ein Schwachsinn ist das!

Aber zur Information, ein boolean meint im Prinzip meist ein einzelnes Bit bzw. die Aussage wahr/falsch bzw. ja/nein (und belegt dann meist mehr als 1 Bit an Speicher, typischerweise gleich 4 Byte). Das Ergebnis eines Vergleiches (a<b?) ist z.B. ein bool-Wert.

Iruwen
2013-07-15, 01:40:18
Sorry, not enough persision.

Skysnake
2013-07-15, 03:45:36
Der Text da oben ist wie Coda schon sagte absoluter Blödsinn. Ich habe nach dem ersten Satz aufgehört zu lesen, weil klar war, daß da nichts Vernünftiges drinstehen kann. Einfach nicht weiter drüber nachdenken, lohnt sich nicht.
Hab jetzt doch mal kurz den Text angesehen. Scheiße Mann, da tut einem ja der Kopf von weh so ein Schwachsinn ist das!

Aber zur Information, ein boolean meint im Prinzip meist ein einzelnes Bit bzw. die Aussage wahr/falsch bzw. ja/nein (und belegt dann meist mehr als 1 Bit an Speicher, typischerweise gleich 4 Byte). Das Ergebnis eines Vergleiches (a<b?) ist z.B. ein bool-Wert.
Wobei jeder geschlagen gehört, der nicht mehrere Bools zusammen fasst :freak:

Gipsel
2013-07-16, 09:25:08
Bevor jemand die Story von engadget für voll nimmt und die dort proklamierten 2,75GHz bei der PS4 für voll nimmt, das ist ganz simpel die WCLK des GDDR5-Interfaces.
Die FCC kümmert es nicht, wie schnell irgendwelche Chips laufen, aber die kümmert es, welche Frequenzen eventuell abgestrahlt werden und Störungen verursachen, weswegen die Hersteller die "maximum clock frequency in the system" deklarieren müssen. Und dies ist nunmal nicht der CPU-Takt sondern die WCLK des GDDR5-Interfaces (hat zwei Clocks, eine bei 1,375GHz für Adressen und Kommandos und eine bei 2,75GHz für die Daten, die dann per DDR mit 5,5Gbps Datenrate übertragen werden).

DinosaurusRex
2013-07-16, 14:24:04
...weswegen die Hersteller die "maximum clock frequency in the system" deklarieren müssen.

http://philly.barstoolsports.com/files/2011/12/dumb-dumber-chance.jpg

2.74Ghz ist also immer noch im Rennen für die PS4 CPU?! :ulol3:

Gipsel
2013-07-16, 14:32:22
http://philly.barstoolsports.com/files/2011/12/dumb-dumber-chance.jpg

2.74Ghz ist also immer noch im Rennen für die PS4 CPU?! :ulol3:
:confused:
Bin ich oder das zu blöd?

Hübie
2013-07-16, 14:36:08
http://philly.barstoolsports.com/files/2011/12/dumb-dumber-chance.jpg

2.74Ghz ist also immer noch im Rennen für die PS4 CPU?! :ulol3:

Lesen, verarbeiten, posten :wink:

DinosaurusRex
2013-07-16, 14:39:08
:confused:
Bin ich oder das zu blöd?

Das war ein Scherz. Nächste Mal schreib ichs dran. :wink:

Habt ihr noch nie Dumm und Dümmer gesehen?


http://www.youtube.com/watch?v=gqdNe8u-Jsg

00-Schneider
2013-07-20, 13:25:50
Für alle, die sich Fragen, warum die One teurer als die PS4 bei schwächerer Hardware ist:

http://winfuture.de/news,76976.html

-----------------

Bei der E3 gabs von Kinect ja überhaupt nix zu sehen, obwohl es der Preistreiber der One ist. Was soll das? :facepalm:

RLZ
2013-07-20, 13:47:03
Für alle, die sich Fragen, warum die One teurer als die PS4 bei schwächerer Hardware ist:

http://winfuture.de/news,76976.html
Ist das nun für die Mehrheit eine Überraschung?

Lightning
2013-07-20, 13:55:08
Dass das neue Kinect so teuer ist, überrascht mich ehrlich gesagt schon. Welche Komponenten davon hauen da so rein?

Avalox
2013-07-20, 14:06:14
Ist das nun für die Mehrheit eine Überraschung?


Na die ungeschickte Aussage ist echt überraschend.


Das ist jetzt im Umkehrschluss der Aussage nichts anderes als, dass das MS zugibt, dass
jedermann bei der PS4 mehr Konsole fürs Geld bekommt.

Jeder wird doch sofort rechnen, dass die MS Konsole im Paket nur die Hälfte von dem was man bezahlt Wert ist.

][immy
2013-07-20, 14:18:36
Dass das neue Kinect so teuer ist, überrascht mich ehrlich gesagt schon. Welche Komponenten davon hauen da so rein?
nunja, die kamera-komponten selbst dürften es nicht sein. Aber diesmal kommt ja Kinect mit einem Chip. Der wurde ja bei Kinect1 gestrichen, weil er die Kosten zu hoch schraubte (nunja, MS begründete es mit mangelnder update-Fähigkeit). Diesmal dürfte der chip in der Kinect-Sensorleiste dafür sorgen das
a) nicht mehr alle Daten gesendet werden
b) die Daten schon mal ausgewertet werden
c) die Latenz verringert wird

das ist schon sinnvoll, weil sich die Auflösung ja auch vervielfacht hat. die ganzen Daten dann über ein usb-kabel zu senden und von der cpu alleine berechnen zu lassen dürfte eine weile brauchen. um den spezialisierten chip kommt man da wohl nicht drum herum.

RLZ
2013-07-20, 14:22:39
Welche Komponenten davon hauen da so rein?
Der "hochauflösenden" TOF Sensor wird sicher nicht günstig sein.

Watson007
2013-07-20, 14:24:27
bin gespannt auf die weltweiten Verkaufszahlen im Vergleich. Anfang nächsten Jahres können wir erste Schlüsse ziehen.

Windi
2013-07-20, 14:29:49
Überraschend finde ich das schon.
Ich hatte damit gerechnet, dass Kinect vielleicht 100€ in der Produktion kosten würde. Aber jetzt über 200€ ist wirklich extrem. Damit wäre die Xbone ohne Kinect 100€ billiger als die PS4 und nicht umgekehrt.

Außerdem hat MS auch noch nicht gezeigt, wie man Kinect in aufwendige und Zeit füllende Spiele integrieren soll. (Niemand kann eine Stunde lang seine Arme nach vorne halten, um ein virtuelles Lenkrad zu halten)

Microsoft sollte wirklich mal zeigen, was sie sich mit Kinect vorstellen. Bis jetzt sah man nur ein paar Tech-Demos, die zeigten was die Hardware theoretisch kann und eine Menübedienung die auf Sprache und Gesten reagiert. Dafür sind 200€+ aber viel zu viel.



Es kommt einem so vor, als hätte MS erst die Hardware entwickelt, ohne zu wissen was man damit später überhaupt machen kann.

Watson007
2013-07-20, 14:45:17
und wenn das Kinect am Markt floppt haben sie ein echtes Problem.

dildo4u
2013-07-20, 14:50:16
Kinect hat der 360 2010/11 ein massiven verkaufs Boost gegeben(Vorallem in den USA) zu dem Zeitpunkt werden sie vermutlich entschieden haben,das der Schwerpunkt bei Xbox One ganz klar Kinect 2 wird.

Watson007
2013-07-20, 14:58:57
allein Kinect softwareseitig zur Voraussetzung zu machen ist bei so hohen Kosten ziemlich bescheuert, haben die keinen Plan B?

naja meiner Meinung nach wird Microsoft in dieser Generation wieder ordentlich Marktanteile abgeben - weltweit. Wer wettet dagegen?

Avalox
2013-07-20, 15:00:22
und wenn das Kinect am Markt floppt haben sie ein echtes Problem.


Was soll es denn anderes tun als zu floppen?

Alle Multiplattform Geschichten können etwas wie Kinect überhaupt nicht spielerisch voraussetzen und
Multiplattform ist aber genau der Zielmarkt für die XBox one.

Ich bin mir sicher, dass MS davon ausgegangen ist, dass Sony seine CAM Geschichte auch bundelt und sich damit fundamental geirrt haben.

Nun erzählen sie auch noch, dass Kinect die Hälfte kostet und setzten damit auch noch den Preis fest für eine Option einer XBox one Variante ohne Kinect in Zukunft.

Also irgendwo kann man das Marketing überhaupt nicht mehr nachvollziehen. Das sieht alles nur noch völlig unkoordiniert aus.

Windi
2013-07-20, 15:02:37
Da hat man sich wohl von einem Hype blenden lassen.

Bis jetzt konnte MS noch nicht eine einzige sinnvolle Integration von Kinect in einem Spiel vorweisen. Und das bei 200€+.
Bei dem praktisch kostenlosen SmartGlass gibt es hingegen schon einige interessante Anwendungsmöglichkeiten.

Crazy_Bon
2013-07-20, 15:06:08
allein Kinect softwareseitig zur Voraussetzung zu machen ist bei so hohen Kosten ziemlich bescheuert, haben die keinen Plan B?
Inwiefern? Keiner muss, sie können es unterstützen. Die installierte Basis wird groß sein, sehr groß, da jeder sie hat.

Watson007
2013-07-20, 15:08:47
Also irgendwo kann man das Marketing überhaupt nicht mehr nachvollziehen. Das sieht alles nur noch völlig unkoordiniert aus.

was denn, erst jetzt sieht es unkoordiniert aus?

http://r27.imgfast.net/users/2715/23/49/14/smiles/2937254162.png

seit Wochen bringt uns MS doch nur noch zum Lachen^^

Inwiefern? Keiner muss, sie können es unterstützen. Die installierte Basis wird groß sein, sehr groß, da jeder sie hat.

dadurch können sie aber bei den Konsolenpreisen nicht mithalten, was auch nicht ganz unwichtig ist.

Neosix
2013-07-20, 15:10:06
Und geschätzte mehr User mit ner PS4/PC haben es nicht, und die machen bei Multiplatform den deutlich größeren Teil. Kleinster gemeinsamer Nenner. Das ist das Motto bei Multiplatform, Kinect ist zum scheitern Verurteil. Nach einem Jahr wollte es keiner schon bei der 360. Das den Kernpunkt der Xone zu machen ist selten dämlich.

Botcruscher
2013-07-20, 15:14:09
Kinect hat der 360 2010/11 ein massiven verkaufs Boost gegeben(...)
Damals als der WiiHype noch ein paar Nichtspieler aus dem Schrank gezaubert hat... Das Ding ist doch tot. Werbung und Prism sind nur der Gnadenschuss. Selbst Nintendo hat sich mit dem "Datschskrien" ins aus geschossen. Sony kann sich den Erfolg nur noch selber kaputt machen.

dildo4u
2013-07-20, 15:23:44
Es macht schon Sinn nach Casual zu greifen vorallem da Wii-U floppt kann man dort einiges Abschöpfen.Was den Software Support angeht ist es natürlich x mal besser das jede Konsole mit Kinect kommt.

Windi
2013-07-20, 15:42:08
Warum sollten sich die Casuals plötzlich wieder für Kinect2.0 interessieren?
Das ist nichts neues mehr. Nur eine Weiterentwicklung von Kinect1.0 und EyeToy.

Dagegen ist die Xone 100€ teurer und nicht billiger wie die PS4. Das macht bei den Casuals viel aus. (Die Wii war ein Sonderfall, da sie wirklich neu und Innovativ war)

Ich wage mal zu behaupten, das 2013/14, in der heutigen Tablet-Welt, 100mal mehr Casuals mit SmartGlass gewonnen werden können, als mit Kinect. Und dabei ist SmartGlass nur eine kostenlose App.

Skysnake
2013-07-20, 15:44:08
Überraschend finde ich das schon.
Ich hatte damit gerechnet, dass Kinect vielleicht 100€ in der Produktion kosten würde. Aber jetzt über 200€ ist wirklich extrem. Damit wäre die Xbone ohne Kinect 100€ billiger als die PS4 und nicht umgekehrt.

Außerdem hat MS auch noch nicht gezeigt, wie man Kinect in aufwendige und Zeit füllende Spiele integrieren soll. (Niemand kann eine Stunde lang seine Arme nach vorne halten, um ein virtuelles Lenkrad zu halten)

Microsoft sollte wirklich mal zeigen, was sie sich mit Kinect vorstellen. Bis jetzt sah man nur ein paar Tech-Demos, die zeigten was die Hardware theoretisch kann und eine Menübedienung die auf Sprache und Gesten reagiert. Dafür sind 200€+ aber viel zu viel.

Es kommt einem so vor, als hätte MS erst die Hardware entwickelt, ohne zu wissen was man damit später überhaupt machen kann.
Also was ICH mir eigentlich richtig gut vorstellen kann sind Shooter. Ne simple "Knarrenatrappe", die gut in der Hand liegt, und mit der man sauber zielen kann. Gerade so Sachen wie Handgranaten usw usw ließen sich da halt gut umsetzen, und man hätte halt auch endlich an den Konsolen die Möglichkeit richtig zu zielen.

So NES DuckHunter stylisch ;D

Oder auch z.B. das "lehnen" um Ecken ließe sich sicherlich ziemlich gut integrieren. Sowohl in Shootern, als auch in Schleichspielen, aber z.B. auch in Motorrad-"Sims", wobei es bei letzterem wegen der vielen Lastwechsel schon wieder anstrengend wird...

Ansonsten haste aber schon recht, es ist nicht ganz einfach, gute Integrationsmöglichkeiten aus dem Ärmel zu schütteln, die nicht aufgesetzt wirken.

Neosix
2013-07-20, 15:45:40
Das Problem ist doch das man schon bei Kinect 1 das erwartete, bzw versprochen bekam, was jetzt erst mit Kinect 2.0 kommt. Das reist einfach niemanden mehr vom Hocker. Dazu kommst noch das de 360 Kinect spiele fast durch die Bank Müll waren. Egal ob Star Wars Kinect oder Steel Batalion usw usw. Diese Spiele waren furchbar und das ist noch sehr Nett umschrieben. Wer nur Fitness Games zockt, tut das immer noch auf seiner WII.

dildo4u
2013-07-20, 15:47:20
Warum sollten sich die Casuals plötzlich wieder für Kinect2.0 interessieren?
Das ist nichts neues mehr. Nur eine Weiterentwicklung von Kinect1.0 und EyeToy.

Dagegen ist die Xone 100€ teurer und nicht billiger wie die PS4. Das macht bei den Casuals viel aus. (Die Wii war ein Sonderfall, da sie wirklich neu und Innovativ war)

Ich wage mal zu behaupten, das 2013/14, in der heutigen Tablet-Welt, 100mal mehr Casuals mit SmartGlass gewonnen werden können, als mit Kinect. Und dabei ist SmartGlass nur eine kostenlose App.
Es ist so im Jeden Fall wesentlich interessanter als wenn Sony und MS genau das Selbe machen,was sich durchsetzt wird man eh erst in mehreren Jahren wissen.

DinosaurusRex
2013-07-20, 15:52:05
Also was ICH mir eigentlich richtig gut vorstellen kann sind Shooter. Ne simple "Knarrenatrappe", die gut in der Hand liegt, und mit der man sauber zielen kann. Gerade so Sachen wie Handgranaten usw usw ließen sich da halt gut umsetzen, und man hätte halt auch endlich an den Konsolen die Möglichkeit richtig zu zielen.

Sony hat sowas im Angebot, nennt sich "Move Sharp Shooter":

zi_foz9t8Ck

Ob das was taugt weiß ich allerdings nicht, ich habs nie getestet. Die Bewertungen bei Amazon sind aber alle sehr positiv. Es wird offensichtlich auch größtenteils von Leuten genutzt, die mit Pad in Ego-Shootern nicht klarkommen.

Microsoft hat sowas ähnliches ja schon mit Kinect 1, aber dann halt eben nur mit Gesten und ohne Controller. Mir gefällt es nicht so...:

NC6to0ADjeo

Neosix
2013-07-20, 16:01:27
Microsoft hat sowas ähnliches ja schon mit Kinect 1, aber dann halt eben nur mit Gesten und ohne Controller. Mir gefällt es nicht so...:

http://youtu.be/NC6to0ADjeo

Das sieht schon in dem Werbevideo so unglaublich langsam und unnötig aus. Das kann einfach nicht gut funktionieren. Vor allem für Einzelschuss immer Faustauf und zu? :D Wette in nem echten Match wird das keine länger als 5 Minuten durchhalten.

prinz_valium
2013-07-20, 16:04:12
Das Problem ist doch das man schon bei Kinect 1 das erwartete, bzw versprochen bekam, was jetzt erst mit Kinect 2.0 kommt. Das reist einfach niemanden mehr vom Hocker. Dazu kommst noch das de 360 Kinect spiele fast durch die Bank Müll waren. Egal ob Star Wars Kinect oder Steel Batalion usw usw. Diese Spiele waren furchbar und das ist noch sehr Nett umschrieben. Wer nur Fitness Games zockt, tut das immer noch auf seiner WII.

touch gab es auch schon vor dem iphone und ipad und trotzdem war es damals scheiße und später hat es sich doch durchgesetzt und alles finden es nun toll


und warum? es hat plöztlich besser funktioniert, und das system darauf abgestimmt. dazu dann der hype.
genau so KÖNNTE es auch mit kinect 2 klappen. muss aber natürlich nicht.

eine gescheite waffe als schooter fände ich persönlich richtig gut, weil ich mit dem zielen beim steuerkreuz garnicht klar kommen und auch nicht will.
zielen mit der waffe. umsehen mit der kopfbewegung. schießen mit nem trigger an der waffe. und nachladen am besten mit magazin wirklich auswechseln.
gerade in amiland könnte das klappen mit einer orginalgeteu aussehenden waffe und am besten verschiedenen modellen. :D
das sony plastikgewehr will doch niemand da in die hand nehmen. die wollen ne glock oder ein m16 :D
am besten wäre natürlich, wenn die ihre eh schon vorhandenen echten waffen (ungeladen) natürlich dafür verweden könnten. aber da weiß ich nicht, ob kinect genau genug ist, um das betätigen des abzugs zu erkennen

und dann freue ich mich auf die ersten youtube videos, wo leute ihren 60 zoll falchbildfernseher mit löchern drin präsentieren;D


Das sieht schon in dem Werbevideo so unglaublich langsam und unnötig aus. Das kann einfach nicht gut funktionieren. Vor allem für Einzelschuss immer Faustauf und zu? :D Wette in nem echten Match wird das keine länger als 5 Minuten durchhalten.
schönes beispiel für "funktioniert so nicht wirklich gut und angehmen"
also besser muss man es schon wirklich machen

Neosix
2013-07-20, 16:07:41
Offtopic: In USA gibts glaub ich n Gesetzt oder Regelung dagegen, das solche Konsolenwaffen "echt" Aussehen. Da hat der Nintendo Nerd mal n Video gemacht. Wo die ersten Lightguns noch sehr echt aussahen und danach immer mehr zu Spielzeugen mutierten.

dildo4u
2013-07-20, 17:13:32
How The Crew was ported to PlayStation 4

http://www.eurogamer.net/articles/digitalfoundry-how-the-crew-was-ported-to-playstation-4

Interessanter Artikel wie erwartet Port's von PC(DX11) zu PS4 sind easy aber es gibt keine extra Würste für die PS4 Version,Sony First Party muss zeigen was geht.

StefanV
2013-07-20, 18:43:22
Also was ICH mir eigentlich richtig gut vorstellen kann sind Shooter. Ne simple "Knarrenatrappe", die gut in der Hand liegt, und mit der man sauber zielen kann. Gerade so Sachen wie Handgranaten usw usw ließen sich da halt gut umsetzen, und man hätte halt auch endlich an den Konsolen die Möglichkeit richtig zu zielen.
Sowas meinst, oder? (http://www.geeked.info/how-does-the-nintendo-light-gun-work/)

Hab ein ähnliches Accessoir seit den 8bit Konsolen nicht mehr gesehen, interessanterweise. Kann mich aber noch dunkel an ein SNES Super Scope erinnern...

Warum sind diese Light Guns eigentlich so schnell vom Markt verschwunden?

dargo
2013-07-20, 19:31:35
How The Crew was ported to PlayStation 4

http://www.eurogamer.net/articles/digitalfoundry-how-the-crew-was-ported-to-playstation-4

Interessanter Artikel wie erwartet Port's von PC(DX11) zu PS4 sind easy aber es gibt keine extra Würste für die PS4 Version,Sony First Party muss zeigen was geht.
Hö???

Verstehe ich das Diagramm richtig? Die GPU kommuniziert mit der CPU nur mit einer Bandbreite von 20GB/s und die CPU greift auf den Speicher ebenfalls nur mit 20GB/s zu? :| Wo soll hier der so überlegene Vorteil vom gemeinsamen Speicher für CPU/GPU @SoC sein? Das sieht doch aus wie ein stinknormaler PC. :confused:

StefanV
2013-07-20, 19:40:30
Hö???

Verstehe ich das Diagramm richtig? Die GPU kommuniziert mit der CPU nur mit einer Bandbreite von 20GB/s und die CPU greift auf den Speicher ebenfalls nur mit 20GB/s zu? :| Wo soll hier der so überlegene Vorteil vom gemeinsamen Speicher für CPU/GPU @SoC sein? Das sieht doch aus wie ein stinknormaler PC. :confused:
Nur ist gut. Das ist etwa doppelt so viel als ein Dual Chan DDR3 Interface mit diesem '1333MHz' Speicher packt. Und auch PCIe 3.0 schafft, in der 16 Lane Version, auch nur 16GiB/Sec. So schlecht ist das also gar nicht.
Gut, ist natürlich doof, dass das ganze On Chip ist, da hätt man durchaus was breiteres machen können...

Botcruscher
2013-07-20, 19:43:19
Wir können MS ja mal einen Tip geben. Die NSA Wanze und Werbung will keiner. Verbaut doch alternativ ein technisch hochwertiges HMD ala Oculus rift. Da würden einem die Coregamer die Bude einrennen.

Felixxz2
2013-07-20, 19:43:24
Sieht in der Tat merkwürdig aus. 20GB/s von der CPU zum RAM sehen ja noch völlig iO aus, aber die 20GB/s zur GPU sind ganz normale PCIe 3.0 Gegenden und AFAIK auch nur doppelt soviel wie bei der Last Gen. Dabei soll ja die Bandbreite von der CPU zur GPU ein Flaschenhals für mehr Polygone sein.
In jedem Fall sollte die Bandbreite innerhalb einer APU doch deutlich größer sein, siehe Ringbus bei Intel.

M4xw0lf
2013-07-20, 19:47:00
Hö???

Verstehe ich das Diagramm richtig? Die GPU kommuniziert mit der CPU nur mit einer Bandbreite von 20GB/s und die CPU greift auf den Speicher ebenfalls nur mit 20GB/s zu? :| Wo soll hier der so überlegene Vorteil vom gemeinsamen Speicher für CPU/GPU @SoC sein? Das sieht doch aus wie ein stinknormaler PC. :confused:

Das ist doch der Inhalt dieses Artikels - Ports sind einfach, aber es wird nichts extra auf die Systemarchitektur angepasst. Für diesen Fall ist die PS4 auch ein stinknormaler PC.

dargo
2013-07-20, 19:49:54
Nur ist gut. Das ist etwa doppelt so viel als ein Dual Chan DDR3 Interface mit diesem '1333MHz' Speicher packt. Und auch PCIe 3.0 schafft, in der 16 Lane Version, auch nur 16GiB/Sec. So schlecht ist das also gar nicht.
Gut, ist natürlich doof, dass das ganze On Chip ist, da hätt man durchaus was breiteres machen können...
Ähm... DDR3-1600 (was heute schon ziemlicher Standard ist) erreicht auf einer S2011 Plattform 51GB/s. Die Bandbreite bei einer Intel-CPU ist aber eh unwichtig da kein Flaschenhals. Und PCIe 3.0 liegt bei 32GB/s. Zudem steht PCIe 4.0 mit 64(?)GB/s schon fast in den Startlöchern.

Was mich besonders wundert sind schon die vergleichsweise zu alten aktuellen Konsolen sehr langsamen Anbindungen.

Das ist doch der Inhalt dieses Artikels - Ports sind einfach, aber es wird nichts extra auf die Systemarchitektur angepasst. Für diesen Fall ist die PS4 auch ein stinknormaler PC.
Es geht mir eher um die "mickrigen" Anbindungen im Vergleich zur gestiegenen Rohleistung.
http://img.hexus.net/v2/gaming/screenshots/blockdiagram.jpg

Edit:
Apropo PCIe 3.0.
http://www.computerbase.de/artikel/grafikkarten/2013/bericht-pcie-3.0-vs.-pcie-2.0/
http://www.hardware-infos.com/tests/grafikkarten/pci-express-3.0.html

wer hat nun recht? :|

Ah... jetzt verstehe ich. CB rechnet den Hin- und Rückkanal zusammen.

Crazy_Bon
2013-07-20, 20:44:09
Sowas meinst, oder? (http://www.geeked.info/how-does-the-nintendo-light-gun-work/)

Hab ein ähnliches Accessoir seit den 8bit Konsolen nicht mehr gesehen, interessanterweise. Kann mich aber noch dunkel an ein SNES Super Scope erinnern...

Warum sind diese Light Guns eigentlich so schnell vom Markt verschwunden?
Light Guns gab es auch für die Xbox und PS2, bekannte Vertreter des Genres waren noch House of Dead 2&3 von Sega und Dino Crisis/Stalker von Capcom.
Aufgrund der (primitiven) Technik waren diese nicht kompatibel zu LCD/Plasma-Bildschirmen der HDTV-Geräten, so gab es erstmal nichts auf den neueren Konsolen (Xbox360/PS3) und das Genre war wie ausgestorben, eigentlich schade. Mittlerweile gibt es Light Guns für die Cabela-Spielereihe.
http://www.amazon.de/light-gun-Xbox-360-Games/s?ie=UTF8&keywords=Light%20Gun&page=1&rh=n%3A15855671%2Ck%3ALight%20Gun

Skysnake
2013-07-20, 20:50:42
Sowas meinst, oder? (http://www.geeked.info/how-does-the-nintendo-light-gun-work/)

Hab ein ähnliches Accessoir seit den 8bit Konsolen nicht mehr gesehen, interessanterweise. Kann mich aber noch dunkel an ein SNES Super Scope erinnern...

Ja, genau so was meine ich :biggrin:

So nen Ding hab ich sogar noch hier rum liegen :D Bei den Arcarde-Maschinen in den Spielhöllen gabs dann noch bessere Knarren.


Warum sind diese Light Guns eigentlich so schnell vom Markt verschwunden?
Die Technik funktioniert wohl nicht mit TFT, soweit ich das verstanden habe, sondern nur mit der guten alten Röhre. Genau weiß ich das allerdings auch nicht

Ähm... DDR3-1600 (was heute schon ziemlicher Standard ist) erreicht auf einer S2011 Plattform 51GB/s. Die Bandbreite bei einer Intel-CPU ist aber eh unwichtig da kein Flaschenhals. Und PCIe 3.0 liegt bei 32GB/s. Zudem steht PCIe 4.0 mit 64(?)GB/s schon fast in den Startlöchern.

Was mich besonders wundert sind schon die vergleichsweise zu alten aktuellen Konsolen sehr langsamen Anbindungen.


Es geht mir eher um die "mickrigen" Anbindungen im Vergleich zur gestiegenen Rohleistung.
http://img.hexus.net/v2/gaming/screenshots/blockdiagram.jpg

Edit:
Apropo PCIe 3.0.
http://www.computerbase.de/artikel/grafikkarten/2013/bericht-pcie-3.0-vs.-pcie-2.0/
http://www.hardware-infos.com/tests/grafikkarten/pci-express-3.0.html

wer hat nun recht? :|

Ah... jetzt verstehe ich. CB rechnet den Hin- und Rückkanal zusammen.
Ähm... PCI-E 3.0 und 32 GB/s? :ugly: Die Bandbreite von Sende und Empfangsrichtung zusammengezählt oder was? Oder schon ne 32x Karte gesehen? Und ja ich weiß, dass das prinzipiell spezifiziert ist...

Und selbst wenn, ich seh jetzt spontan keinen Hinweis, dass das die aggregierte Gesamtbandbreite der Links darstellt, oder überseh ich was?

RLZ
2013-07-20, 20:54:44
Au5uESLrT_w

dildo4u
2013-07-20, 23:47:07
Hö???

Verstehe ich das Diagramm richtig? Die GPU kommuniziert mit der CPU nur mit einer Bandbreite von 20GB/s und die CPU greift auf den Speicher ebenfalls nur mit 20GB/s zu? :| Wo soll hier der so überlegene Vorteil vom gemeinsamen Speicher für CPU/GPU @SoC sein? Das sieht doch aus wie ein stinknormaler PC. :confused:
Beide greifen auf den selben GDDR5 Speicher zu (Man spart sich so das kopieren vom DDR3 zum GDDR5),das ist der Unterschied zum PC,die Bandbreite ist für eine Netbook CPU mehr als ausreichend.

GPU und CPU verfügen über einen gemeinsamen physikalischen Speicher samt frei verfügbarem logischen (virtuellen) Adressraum, auf welchen die APU zugreifen kann. Der Vorteil hierbei ist, dass der Speicher und alle Caches kohärent bleiben und somit immer die gleichen Daten für beide APU-Rechenwerke zur Verfügung stehen; das Problem der aufwendigen Kohärenz löst AMD mit sogenannten Probe-Filtern. Weiterhin muss der Prozessor nicht erst Informationen in den GPU-Speicher schreiben, dann die Grafikeinheit rechnen lassen und anschließen die bearbeiteten Daten wieder zurück kopieren, sondern die GPU kann per Pointer auf - und das ist neu - jeden beliebigen Bereich im Speicher zugreifen (Pageable Memory statt Page-Locked-Memory) und der CPU liegt das Resultat direkt vor.


http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-Kaveri-Heterogeneous-Uniform-Memory-Access-HUMA-1067465/

prinz_valium
2013-07-21, 00:19:15
http://youtu.be/Au5uESLrT_w


eigentlich komisch, dass sich sowas noch nicht durchgesetzt hat
bei rennspielen benutz ja auch (fast) jeder lenkräder.


und das sind nunmal die beiden großen genres, wo diese eingabemethoden gegenüber controllern einen großen vorteil haben.
dazu noch mmorpgs und strategie spiele, wo maus+tastatur die beste whal sind.

für aktion und alles andere dann gamepad.



edit: im grund ist mir schon klar, warum es das bisher nicht hat.
input lag, ungenauigkeit, umsetztung. das alles muss halt schon annähernd perfekt sein

esqe
2013-07-21, 03:13:38
Da war der Markt in der Vergangenheit doch viel aufgeklärter; wer einfach nur spielen will, greift zum Controller (/Konsole), für externe/ spezialisierte Peripherie wird der PC genutzt.

Einzig Nintendo liefert jedesmal eine Evolution ab, wobei ich bei der Wii U noch warte...

DinosaurusRex
2013-07-21, 08:17:38
Da war der Markt in der Vergangenheit doch viel aufgeklärter; wer einfach nur spielen will, greift zum Controller (/Konsole), für externe/ spezialisierte Peripherie wird der PC genutzt.


Ähem...nein. ;)

Street Fighter 2 hab ich vor 20 Jahren schon auf dem Mega Drive nicht mit dem Gamepad gespielt, sondern mit einem Fightstick. Auch Sega Rally Championship hab ich auf dem Saturn mit einem Lenkrad gespielt.

Die japanischen Konsolen trugen in den 80er und 90er Jahren noch ziemlich viel Arcade-DNA in sich ("insert coin") und deswegen gab es da auch genug Spiele, die von spezialisierter Peripherie profitiert haben.

Botcruscher
2013-07-21, 10:09:38
edit: im grund ist mir schon klar, warum es das bisher nicht hat.
input lag, ungenauigkeit, umsetztung. das alles muss halt schon annähernd perfekt sein

Du hast doch die Antwort. Ein Inputlag jenseits einer halben Sekunde ist einfach nur unbrauchbar. Ich würde keinen Cent für das Ding ausgeben.

Coda
2013-07-21, 12:21:32
Wo soll hier der so überlegene Vorteil vom gemeinsamen Speicher für CPU/GPU @SoC sein?
Latenz.

robbitop
2013-07-21, 19:45:53
Da die GPU viel rechnen soll (Parallelität), benötigt vor allem sie die Bandbreite zum Speicher. Die CPU sendet die Aufgaben und empfängt die Ergebnisse. Das ist Latenzkritisch und nicht bandbreitenrkritisch. Die 20 GiB/s könnten da völlig ausreichend sein.
Latenz ist z.B. entscheidender Dealbreaker für GPU Spielphysik geworden - deshalb gab es vor allem Effektphysik.

Windi
2013-07-21, 20:14:22
Aber es ist dann doch bemerkenswert, das sich die Bandbreite von CPU <> RAM und CPU <> GPU nicht gesteigert hat. Vor allem da es sich bei der PS3 um aufwendige Verbindungen über das Mainboard handelte und bei der PS4 nur noch um ein paar Millimeter im Silizium.

Naja, aber wenn es ausreicht.

dargo
2013-07-21, 20:22:29
Aber es ist dann doch bemerkenswert, das sich die Bandbreite von CPU <> RAM und CPU <> GPU nicht gesteigert hat. Vor allem da es sich bei der PS3 um aufwendige Verbindungen über das Mainboard handelte und bei der PS4 nur noch um ein paar Millimeter im Silizium.

Eben das verwundert mich so. Oder waren bei der PS3 bzw. XBox360 die einzelnen Anbindungen einfach nur Overkill?

Latenz.
Klingt erstmal etwas seltsam wenn man im Zusammenhang GDDR5 verbaut, jedenfalls für die CPU.

RLZ
2013-07-21, 20:50:08
Eben das verwundert mich so. Oder waren bei der PS3 bzw. XBox360 die einzelnen Anbindungen einfach nur Overkill?
Gerade mit der PS3 kannst du das schlecht vergleichen. Die Aufgaben der SPUs, welche viel Bandbreite benötigt haben, sind nun zur GPU gewandert.

Klingt erstmal etwas seltsam wenn man im Zusammenhang GDDR5 verbaut, jedenfalls für die CPU.
Es fallen bei heterogenen Berechnungen alle Latenzen weg, die durch die Synchronisierung von Haupt- und Grafikspeicher entstanden. Ich habe jetzt keine konkreten Zahlen, aber die Latenz des Speichers selbst dürfte wohl nur den geringsten Teil ausmachen.

Knuddelbearli
2013-07-21, 21:00:37
Klingt erstmal etwas seltsam wenn man im Zusammenhang GDDR5 verbaut, jedenfalls für die CPU.


zum zwölfhundersten mal, GDDR5 hat nicht schlechtere Latenzen als DDR3

megachip800
2013-07-21, 21:19:47
Die ps4 hat ne Menge Flaschenhälse über die uns Mark Cerney nicht aufgeklärt hat.

- 256 Bit bus ist zu wenig und inneffizient um 8 Gbyte ram vernünftig anzusteuern , 512 bit Busbandbreite
hätten es mindestens sein müssen , hier hat man wieder am falschen Ende gespart.

- keine Crossbar Technologie somit auch kein echtes Multithreading möglich , das ansteuern
und die Kommunikation zwischen den Cpu Cores muss jetzt über den Memorycontroller erfolgen , was recht
ineffizient ist.

- keine echte HSA Architektur (zumindest keine der 4. Generation) , kein hUMA , die 50% höhere Latenz
bei Speicherzugriffen im Vergleich zum PC sprechen ganz klar gegen HSA u. hUMA . Nur stinknormales UMA
das einzig allein dazu dient die Herstellungkosten zu reduzieren nicht aber um die Performance der Konsole
zu steigern.

- relativ kleine CPU Caches im Vergleich zu aktuellen Prozessoren von Intel und IBM.

- Jaguar CPU und deren Fpu Einheit teilweise weniger flexibel und leistungsstark als die Cell CPU/SPEs in der
PS3.

- Tesselationsengine der Gpu nicht so leistungsfähig wie bei aktuellen Nvidia Gpus.

- umfangreiche Klangeffekte müssen entweder über die Cpu oder Gpu berechnet werden , bei der Xbox one
macht das ein seperater DSP.

- im Gegensatz zur Gpu in der Xbox one unterstützt die Grafikeinheit der Ps4 keine "Fast render paths" und
"pre-out on depth test" auf Vertex Ebene was sich in der Performance bemerkbar macht.

- Cpu der Ps4 kann nur 4 Operationen pro Core/Zyklus ausführen bei der Xbox one Cpu sind es 6.

Insgesamt also ein Spardesign ohne Futureproof. Besonders was die Busarchitektur betrifft scheint dort bei
diesen Pseudo Nextgen Konsolen die Entwicklung zu stagnieren.

dargo
2013-07-21, 21:22:30
Gerade mit der PS3 kannst du das schlecht vergleichen. Die Aufgaben der SPUs, welche viel Bandbreite benötigt haben, sind nun zur GPU gewandert.

Ok... das klingt plausibel. Schließlich hat Cell den RSX in diversen Bereichen unterstützt. Unter diesen Voraussetzungen hat man die Anbindungen entsprechend schnell ausgelegt.

zum zwölfhundersten mal, GDDR5 hat nicht schlechtere Latenzen als DDR3
http://www.ps4-magazin.de/die-konsole/1353-h%C3%B6here-latenz-des-gddr5-ram-spielt-laut-mark-cerny-keine-rolle/

Inwiefern das jetzt relevant ist sei mal dahingestellt. Für die GPU sind die höheren Latenzen sicherlich nicht von Bedeutung.

Knuddelbearli
2013-07-21, 22:14:20
naja prinzipiell sagt er ja das selbe
Die Latenz von GDDR5 ist nicht viel höher, als die Latenz der DDR3 Bauweise.
bei mir fehlt halt das wirklich ^^
zum zwölfhundersten mal, GDDR5 hat nicht wirklich schlechtere Latenzen als DDR3

StefanV
2013-07-21, 22:17:58
@Dargo

Das schaut idR nur so doof aus, weil die Anzahl der Takte zweistellig ist. Allerdings darfst du eben NICHT den Fehler machen, einfach nur auf die Takte zu schauen, du musst das ganze in Zeit umrechnen. Und so ists nun völlig egal, ob ich nun 5 Takte bei 200MHz habe oder 10 bei 400MHz, letztendlich ist die Latenz bei beiden Fällen gleich. Und wenn man jetzt bei 1000MHz 20 Takte hat, ist die Latenz sogar leicht gesunken...

Buttom Line:
Die Latenz von DRAM hat sich in den letzten Jahren so gut wie gar nicht verändert und ist eher leicht gesunken!!
Nur die Bandbreite hat sich erhöht...

Knuddelbearli
2013-07-21, 22:18:51
StefanV danke, denke so hats jeder verstanden ^^ im erklären bin ich einfach eine Niete ^^

Windi
2013-07-21, 22:21:20
http://www.ps4-magazin.de/die-konsole/1353-h%C3%B6here-latenz-des-gddr5-ram-spielt-laut-mark-cerny-keine-rolle/

Inwiefern das jetzt relevant ist sei mal dahingestellt. Für die GPU sind die höheren Latenzen sicherlich nicht von Bedeutung.
Das Problem ist, das die Latenz immer mit der Anzahl von Takten für eine bestimmte Aufgabe angegeben werden. Das ist aber kaum interessant! Wirklich wichtig ist eher wie lange eine Aufgabe dauert. Das errechnet man mit: Dauer eines Taktes x Anzahl der Takte

Wenn jetzt GDDR für eine Aufgabe 50% mehr Takte benötigt aber auch 50% höher taktet, dann ist die Latenz die gleiche.

Es ist wirklich so, das GDDR und DDR sehr ähnliche Latenzen haben.


edit: Hab ich jetzt schon wieder 5min für einen Post gebraucht und deswegen die anderen 3 Posts nicht mitbekommen

Hunter93
2013-07-21, 22:38:57
Ok... das klingt plausibel. Schließlich hat Cell den RSX in diversen Bereichen unterstützt. Unter diesen Voraussetzungen hat man die Anbindungen entsprechend schnell ausgelegt.

Könnte das auch mit den Arbeitsspeicherzugriffen zu tun haben?
- der RSX hatte einen Turbo-Cache ähnlichen Zugriff auf den XDR-RAM (20 GByte/s lesen und 15 GByte/s schreiben)
- in der 360 war der Hauptspeicher nur direkt an die GPU angebunden, die über den Systembus auch die CPU versorgen musste (d.h. wenn ich die Schaubilder (http://xbox360teardown.files.wordpress.com/2010/02/xbox360_system_block_diagram.jpg) richtig interpretiere).

Inwiefern das jetzt relevant ist sei mal dahingestellt. Für die GPU sind die höheren Latenzen sicherlich nicht von Bedeutung.

Dazu hat Gipsel bereits mehrfach etwas geschrieben:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9665034&postcount=6518
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9673241&postcount=6783
http://forum.beyond3d.com/showpost.php?p=1714988&postcount=132

Felixxz2
2013-07-21, 22:55:24
Die ps4 hat ne Menge Flaschenhälse über die uns Mark Cerney nicht aufgeklärt hat.

- 256 Bit bus ist zu wenig und inneffizient um 8 Gbyte ram vernünftig anzusteuern , 512 bit Busbandbreite
hätten es mindestens sein müssen , hier hat man wieder am falschen Ende gespart.

- keine Crossbar Technologie somit auch kein echtes Multithreading möglich , das ansteuern
und die Kommunikation zwischen den Cpu Cores muss jetzt über den Memorycontroller erfolgen , was recht
ineffizient ist.

- keine echte HSA Architektur (zumindest keine der 4. Generation) , kein hUMA , die 50% höhere Latenz
bei Speicherzugriffen im Vergleich zum PC sprechen ganz klar gegen HSA u. hUMA . Nur stinknormales UMA
das einzig allein dazu dient die Herstellungkosten zu reduzieren nicht aber um die Performance der Konsole
zu steigern.

- relativ kleine CPU Caches im Vergleich zu aktuellen Prozessoren von Intel und IBM.

- Jaguar CPU und deren Fpu Einheit teilweise weniger flexibel und leistungsstark als die Cell CPU/SPEs in der
PS3.

- Tesselationsengine der Gpu nicht so leistungsfähig wie bei aktuellen Nvidia Gpus.

- umfangreiche Klangeffekte müssen entweder über die Cpu oder Gpu berechnet werden , bei der Xbox one
macht das ein seperater DSP.

- im Gegensatz zur Gpu in der Xbox one unterstützt die Grafikeinheit der Ps4 keine "Fast render paths" und
"pre-out on depth test" auf Vertex Ebene was sich in der Performance bemerkbar macht.

- Cpu der Ps4 kann nur 4 Operationen pro Core/Zyklus ausführen bei der Xbox one Cpu sind es 6.

Insgesamt also ein Spardesign ohne Futureproof. Besonders was die Busarchitektur betrifft scheint dort bei
diesen Pseudo Nextgen Konsolen die Entwicklung zu stagnieren.

Ich weiß man wird mich haun, weil ich überhaupt geantwortet hab ;D
Aber hast du für diese "Thesen" auch Quellen und Belege, insbesondere für Features und Einheitenanzahl? Eher ne rhetorische Frage, ich weiß.....

Knuddelbearli
2013-07-21, 22:59:49
Doch ich hau dich! Dachte schon wir sind endlich damit durch da bereits soviele nicht reagiert haben ...

dargo
2013-07-21, 23:12:16
- in der 360 war der Hauptspeicher nur direkt an die GPU angebunden, die über den Systembus auch die CPU versorgen musste (d.h. wenn ich die Schaubilder (http://xbox360teardown.files.wordpress.com/2010/02/xbox360_system_block_diagram.jpg) richtig interpretiere).

Hier ist ein besseres Schaubild mit den ganzen Durchsatzraten.
http://img.photobucket.com/albums/v105/Shogmaster/X360BlockDiaAnnotated1.gif

Hunter93
2013-07-21, 23:41:16
Hier ist ein besseres Schaubild mit den ganzen Durchsatzraten.
http://img.photobucket.com/albums/v105/Shogmaster/X360BlockDiaAnnotated1.gif

Rauslesen tue ich da immer noch dasselbe. Die CPU erhält nur über den 22,6 Gbyte/s Systembus zur GPU Zugriff auf den GDDR3.
Abhängig davon, wie viel Bandbreite die CPU vom RAM abzweigt bleibt entsprechen weniger für die eigentliche Kommunikation zur GPU übrig.

Coda
2013-07-22, 00:27:45
Eben das verwundert mich so. Oder waren bei der PS3 bzw. XBox360 die einzelnen Anbindungen einfach nur Overkill?


Klingt erstmal etwas seltsam wenn man im Zusammenhang GDDR5 verbaut, jedenfalls für die CPU.
Die Latenz über einen IMC ist Magnituden besser als über PCIe was von der GPU holen zu müssen. Vor allem weil man auch direkt die Caches snoopen kann und keine Barrier dafür braucht.

Hallo
2013-07-22, 05:06:54
Sind die Caches der CPU unified und wenn nicht wie gut/wichtig ist die Kommunikation zwischen allen Caches und Kernen?

Iruwen
2013-07-22, 07:13:02
Doch ich hau dich! Dachte schon wir sind endlich damit durch da bereits soviele nicht reagiert haben ...
Ich wollte gerade das gleiche schreiben :D

Dirty-Sánchez
2013-07-22, 17:53:54
Die ps4 hat ne Menge Flaschenhälse über die uns Mark Cerney nicht aufgeklärt hat.

- 256 Bit bus ist zu wenig und inneffizient um 8 Gbyte ram vernünftig anzusteuern , 512 bit Busbandbreite
hätten es mindestens sein müssen , hier hat man wieder am falschen Ende gespart.

- keine Crossbar Technologie somit auch kein echtes Multithreading möglich , das ansteuern
und die Kommunikation zwischen den Cpu Cores muss jetzt über den Memorycontroller erfolgen , was recht
ineffizient ist.

- keine echte HSA Architektur (zumindest keine der 4. Generation) , kein hUMA , die 50% höhere Latenz
bei Speicherzugriffen im Vergleich zum PC sprechen ganz klar gegen HSA u. hUMA . Nur stinknormales UMA
das einzig allein dazu dient die Herstellungkosten zu reduzieren nicht aber um die Performance der Konsole
zu steigern.

- relativ kleine CPU Caches im Vergleich zu aktuellen Prozessoren von Intel und IBM.

- Jaguar CPU und deren Fpu Einheit teilweise weniger flexibel und leistungsstark als die Cell CPU/SPEs in der
PS3.

- Tesselationsengine der Gpu nicht so leistungsfähig wie bei aktuellen Nvidia Gpus.

- umfangreiche Klangeffekte müssen entweder über die Cpu oder Gpu berechnet werden , bei der Xbox one
macht das ein seperater DSP.

- im Gegensatz zur Gpu in der Xbox one unterstützt die Grafikeinheit der Ps4 keine "Fast render paths" und
"pre-out on depth test" auf Vertex Ebene was sich in der Performance bemerkbar macht.

- Cpu der Ps4 kann nur 4 Operationen pro Core/Zyklus ausführen bei der Xbox one Cpu sind es 6.

Insgesamt also ein Spardesign ohne Futureproof. Besonders was die Busarchitektur betrifft scheint dort bei
diesen Pseudo Nextgen Konsolen die Entwicklung zu stagnieren.


Bin ja ein leichtgläubiger Mensch und möchte wissen was daran stimmt?

Rot markiert: Stimmt das? Dachte die hätten die gleiche CPU

Grün markiert irrelevant da da die Gleiche GPU (nur schwächer) in der ONE verbaut sind.

Gipsel
2013-07-22, 18:22:10
Am besten ignorierst Du das. In dem Post steht soviel Falsches, das lohnt sich nicht wirklich, das alles auseinanderzupflücken. Die passende Reaktion auf megachips Posts ist diese hier: :facepalm:

edit:
Stimmt nicht ganz, als Mod kann ich noch das schreiben:

@megachip800:
So ein Dump an (Fehl-)Informationen ist kein geeignetes Diksussionmittel. Bitte führe Deine Thesen in Zukunft vernünftig aus, wenn Du willst, daß das nicht als Spam angesehen und entsprechend behandelt wird.

prinz_valium
2013-07-22, 18:39:38
- umfangreiche Klangeffekte müssen entweder über die Cpu oder Gpu berechnet werden , bei der Xbox one
macht das ein seperater DSP.

das stimmt

im Gegensatz zur Gpu in der Xbox one unterstützt die Grafikeinheit der Ps4 keine "Fast render paths" und
"pre-out on depth test" auf Vertex Ebene was sich in der Performance bemerkbar macht.
das könnte VLLT stimmen, weil sie unterschiedliche gpus haben. das ist bestätigt, wie genau und in welchen details sie sich unterscheiden (abgesehen von den einheiten, was ja hinlänglich bekannt ist) weiß ich nicht. die ps4 gpu hat ja z.b w grafik pipelines im gegensatz zu einer normalen radeon desktop gpu


das die cpu allerdings custom ist, und nicht in beiden konsolen VÖLLIG identisch funktioniert, wäre mir neu

Gipsel
2013-07-22, 19:13:45
das könnte VLLT stimmen, weil sie unterschiedliche gpus haben. das ist bestätigt, wie genau und in welchen details sie sich unterscheiden (abgesehen von den einheiten, was ja hinlänglich bekannt ist) weiß ich nicht.Das ist sehr sicher einfach falsch. Wie und wo man was in der Pipeline verwerfen kann, dürfte ziemlich identisch sein.
die ps4 gpu hat ja z.b w grafik pipelines im gegensatz zu einer normalen radeon desktop gpu?
Meinst Du die zusätzliche High-Priority Command-Queue für's OS bei der PS4? Das dürfte für Spiele kaum eine Rolle spielen und nur helfen, daß das OS immer irgendwas rendern kann, ohne auf Kooperation des Spiels angewiesen zu sein.
das die cpu allerdings custom ist, und nicht in beiden konsolen VÖLLIG identisch funktioniert, wäre mir neuOder anders gesagt es ist ebenfalls einfach falsch und PS4 und XB1 unterscheiden sich hier nicht. Beide haben zwei x86-Decoder, zwei Int-ALUs, eine Load- und eine Store-AGU sowie zwei (asymmetrische) FPU/SIMD-Pipelines. Wenn alles zusammenkommt, können beide natürlich das Issue von 6 Instruktionen in einem Takt durchführen (eine an jede Funktionseinheit), aber durchhalten können sie maximal zwei pro Takt. Die 4 Instruktionen pro Takt bei der PS4-Version der Jaguar-Kerne (die sich wohl nicht von der XB1 unterscheiden) entstammen nur megachips Fantasie.

prinz_valium
2013-07-22, 19:33:20
ich sagte ja auch nur "könnte vllt"
nen quelle hätte mich auch interessiert ;)

aber ich bin halt vorsichtig mit fakt aussagen, wenn es eben nicht zu 100% sicher ist.
und dass ps4 und xbo gpu NICHT identisch sind, ist ja zu 100% gesichert :D
also besteht zumindest die möglichkeit, dass die eine was kann, was die andere so in der selben art nicht kann


joa die meinte ich z.b.
habe aber nie behaupet, dass die nen unterschied bei den spielen macht. indirekt vllt schon. denn wenn es sie nicht geben würde und man die os funktion so trotzdem haben will, würde es vllt leistung kosten. aber auch hier nur vllt, weil ich eben nicht genug ahung von dem thema habe. aber es würde zumindest einen unterschied machen, wie und ob sich dieser irgendwie signifikant auswirkt, sei dann mal dahingestellt. da wird mir ja wohl keiner widersprechen :P


so und jetzt gut. ich habe weder mehr noch weniger gesagt. ist ja nicht meine schuld, wenn ihr wer weiß was in meinen post interpretiert. ich bin ja selbst der meinung, dass der post schwachsinn ist. aber man ist ja so nett und antwortet anderen, wenn sie fragen :D


edit:
Wieso stimmt das? Ich habe noch nicht gelesen, für was dieser nun da ist.

Vermutlich wird der eher für die Spracheingabe, oder für irgend einen lizenzierten Codec, oder für irgend ein Postprocessing da sein. Ich kann mir nicht vorstellen, dass dieser im direkten Soundrendering für Spielesound steckt.

okay mister ich verbesser mich :P

es stimmt, dass das bauteil vorhanden ist
es stimmt, dass es irgendeine funktion haben wird
es KÖNNTE stimmen, dass es zur (besseren/schnelleren) berechnung von soundeffekten benutzt wird, es könnte aber genauso gut NUR für die kinect spacheingabe, einen lizenzierten codec, oder irgendein postprocessing genutzt werden

schlimmer als vor gericht hier :)

Avalox
2013-07-22, 19:54:13
das stimmt


Wieso stimmt das? Ich habe noch nicht gelesen, für was dieser nun da ist.

Vermutlich wird der eher für die Spracheingabe, oder für irgend einen lizenzierten Codec, oder für irgend ein Postprocessing da sein. Ich kann mir nicht vorstellen, dass dieser im direkten Soundrendering für Spielesound steckt.

DinosaurusRex
2013-07-22, 20:01:31
Sony hat neues Material zu Infamous veröffentlicht:

http://abload.de/img/2onqhj.jpg
http://abload.de/img/11lp9k.jpg

Sind das Bullshots oder kriegt die PS4 so eine Grafik wirklich schon zum Release hin? Immerhin ist Infamous kein Schlauch-Shooter sondern eine Open World Sandbox.

00-Schneider
2013-07-22, 20:26:27
Sind das Bullshots oder kriegt die PS4 so eine Grafik wirklich schon zum Release hin? Immerhin ist Infamous kein Schlauch-Shooter sondern eine Open World Sandbox.


Sind keine Bullshots, aber das Spiel kommt auch erst Anfang-Mitte 2014. Digital Foundry war auch sehr begeistert, war für sie bis jetzt das technisch beeindruckendste Spiel, was für PS4 gezeigt wurde.

Wenn man sich die Ingame-Videos ansieht, gibt es aber dennoch deutliche Popups, was auf den Screenshots natürlich nicht vermittelt wird.

Fragman
2013-07-22, 21:46:41
wird mit dem anti aliasing level sicher nicht so kommen. ;)

DinosaurusRex
2013-07-22, 21:52:56
Spielt bei so einer (für meinen Geschmack) beeindruckenden Grafik eigentlich auch die HSA mit rein oder ist das nur der Verdienst der 1,84 TFLOPS iGP und des 8GB GDDR5 RAMs?

dargo
2013-07-22, 22:02:49
Sony hat neues Material zu Infamous veröffentlicht:

http://abload.de/img/2onqhj.jpg
http://abload.de/img/11lp9k.jpg

Sind das Bullshots oder kriegt die PS4 so eine Grafik wirklich schon zum Release hin? Immerhin ist Infamous kein Schlauch-Shooter sondern eine Open World Sandbox.
Vergiss es, das sieht eindeutig nach 16k Auflösung aus. Mindestens 4k wenn vernünftiges Ingame-AA verwendet wird. Ich tippe aber eher auf ersteres.

Gipsel
2013-07-22, 23:11:05
Vergiss es, das sieht eindeutig nach 16k Auflösung aus. Mindestens 4k wenn vernünftiges Ingame-AA verwendet wird. Ich tippe aber eher auf ersteres.Nur weil im Großteil des Bildes das Aliasing im DOF-Blur versinkt und es überall bloomed, ist das noch lange kein runtergerechnetes 16k oder so. Also ich würde im ersten Moment auf 4xAA tippen (von der Anzahl der Farbabstufungen an Kanten).

Hunter93
2013-07-23, 00:18:38
Kann mir jemand erklären, woher die 32 ROPs und 72 TMUs der PS4 kommen sollen?
VGLeaks spricht von (http://www.vgleaks.com/world-exclusive-orbis-unveiled-2/)18 Texture Units (trotz der 18 CUs) und 8 Render Backends.

Bei der Xbox (angeblich 16 ROPs und 48 TMUs) finde ich bei VGLeaks gar nichts.

Coda
2013-07-23, 00:32:48
Nur weil im Großteil des Bildes das Aliasing im DOF-Blur versinkt und es überall bloomed, ist das noch lange kein runtergerechnetes 16k oder so. Also ich würde im ersten Moment auf 4xAA tippen (von der Anzahl der Farbabstufungen an Kanten).
Ist trotzdem allgemein ziemlich ruhig. Ich hätte auch auf Supersampling-Shots getippt.

Locuza
2013-07-23, 01:01:02
Kann mir jemand erklären, woher die 32 ROPs und 72 TMUs der PS4 kommen sollen?
VGLeaks spricht von (http://www.vgleaks.com/world-exclusive-orbis-unveiled-2/)18 Texture Units (trotz der 18 CUs) und 8 Render Backends.

Bei der Xbox (angeblich 16 ROPs und 48 TMUs) finde ich bei VGLeaks gar nichts.
Die PS4 verwendet die GCN-Technik und sie ist so aufgebaut, pro Compute Unit gibt es 4 TMUs.
18 * 4 = 72

Das gleiche für die Xbox One
12 * 4 = 48

Bei den Texture Units zählt vgleaks einfach nur die ganzen "Pakete".
Eine Texture Unit enthält 4 TMUs.

Bei den ROPs zählt vgleaks ebenso die ganzen Module als Back-End Teile.
Pro Render Backend 4 ROPs
8 x 4 = 32

Ein Bild um sich das grob zu veranschaulichen.
http://i.neoseeker.com/a/AMD_HD_7870_7850/GCN%20HD%207870.png

Hunter93
2013-07-23, 02:03:20
Danke für die Erklärung, sowas hab ich mir im Prinzip schon gedacht.

Zu Durango, sehe ich gerade, gibt es auch entsprechende Informationen, anhand der Pixel- und Texturfüllarte in der Tabelle:
http://www.vgleaks.com/durango-gpu-2/

Die 4 fetches/clock/shader-core müssten die TMUs darstellen, die 4 Color/depth blocks die Render-Backends.

DinosaurusRex
2013-07-23, 05:44:44
Zum Thema Kantenglättung nochmal.

Im Interview mit Digital Foundy (http://www.eurogamer.net/articles/digitalfoundry-how-the-crew-was-ported-to-playstation-4) hat Dr. Chris Jenner von Ubisofts Reflections Team folgendes gesagt:

The PS4's GPU is very programmable. There's a lot of power in there that we're just not using yet. So what we want to do are some PS4-specific things for our rendering but within reason - it's a cross-platform game so we can't do too much that's PS4-specific," he reveals.

"There are two things we want to look into: asynchronous compute where we can actually run compute jobs in parallel... We [also] have low-level access to the fragment-processing hardware which allows us to do some quite interesting things with anti-aliasing and a few other effects."

Was darf man von diesen "interesting things with anti-aliasing" erwarten? Ist das was Besonderes? Ubisoft selber wird diese Möglichkeiten nach eigenen Aussagen erst mal noch nicht ausschöpfen. Die 1st-Parties von Sony aber sicher schon.

dargo
2013-07-23, 08:31:54
Nur weil im Großteil des Bildes das Aliasing im DOF-Blur versinkt und es überall bloomed, ist das noch lange kein runtergerechnetes 16k oder so. Also ich würde im ersten Moment auf 4xAA tippen (von der Anzahl der Farbabstufungen an Kanten).
Die Bilder sind viel zu ruhig und fein aufgelöst für nur Full-HD. Hab lange genug mit SSAA gespielt um das beurteilen zu können. ;)

megachip800
2013-07-23, 12:44:13
Die 4 Instruktionen pro Takt bei der PS4-Version der Jaguar-Kerne (die sich wohl nicht von der XB1 unterscheiden) entstammen nur megachips Fantasie.

Sicher? Das kommt auch immer darauf an wie man das auslegt und welchen Quellen man vertraut. Ich bin
deshalb von den 6 ops ausgegangen weil diese im Net häufiger im Zusammenhang mit der Xbox one genannt wurde als mit der Ps4 , und im Artikel auf Arstechnica geht der Author davon aus das die 6 Ops falsch interpretiert werden weil diese 2 zusätzlichen "memory" Ops beinhalten die beim Jaguar standard sein sollen ,
weil er es für unwahrscheinlich hält das Amd für Microsoft ein spezielles Cpu Design entwickelt hat , aber das ist nur seine Sichtweise , so sicher ist das also nicht. Von daher verstehe ich jetzt auch die ganze Aufregung nicht. Mir ging es hier auch nicht darum in meiner Auflistung die Ps4 schlecht zu reden , sondern ich wollte
heraus finden warum die bisher gezeigten Ps4 Spiele so schlecht performen im Vergleich zur Xbox one , das
steht ja offentsichtlich im Widerspruch zu dem was über Ps4 gesagt wird ( leistungsstärkere Hardware , einfach
zu programieren , bessere Tools) . Ryse und Forza 5 liefen auf echter Xbox one Hardware und sahen besser
aus als das was von Sony gezeigt wurde.

http://www.techradar.com/news/gaming/consoles/ps4-and-xbox-one-venture-to-comic-con-for-first-public-play-through-1167234


After playing Ryse: Son of Rome on the Xbox One, Miguel Galindo only had praise for the much harassed console when asked if he was impressed with the graphics:
"It plays really smooth, like how a computer game plays...like on a desktop or powerful gaming computers. So it looks and feels a lot more like that....

It's surprising and nice to know the Xbox One can hold its own against a PC.
Galindo goes on to say, "for just this game alone I would purchase the system."

megachip800
2013-07-23, 12:47:44
Oo liest du eigentlich was hier geschrieben wird, oder führst du gerne unsinnige Dialoge? Schnellschussprodukt? ;D

Die Ps4 ist ein Schnellschussprodukt , denn das ursprüngliche Konzept der echten Ps4 wurde ja verworfen zugunsten einer kostengünstigen Gaika Plattform.

Coda
2013-07-23, 12:50:18
Natürlich :facepalm:

Deinorius
2013-07-23, 13:07:18
Gaikai!! Wenn du schon trollen willst, mach es richtig! :facepalm:

Gipsel
2013-07-23, 13:55:08
Sicher?Ja.
Das kommt auch immer darauf an wie man das auslegt und welchen Quellen man vertraut.Das kommt darauf an, ob man offensichtlichen Schwachsinn ausfiltern kann. Oder sich einfach mal informiert, was AMDs Jaguar-Kerne denn können, also ob man AMDs offiziellen Informationen als Quelle vertraut. :wink:
weil er es für unwahrscheinlich hält das Amd für Microsoft ein spezielles Cpu Design entwickelt hat , aber das ist nur seine Sichtweise , so sicher ist das also nicht.Wenn MS und Sony sagen, sie benutzen Jaguar-Kerne, dann sind es Jaguar-Kerne und keine völlig anderen.
http://www.techradar.com/news/gaming/consoles/ps4-and-xbox-one-venture-to-comic-con-for-first-public-play-through-1167234

After playing Ryse: Son of Rome on the Xbox One, Miguel Galindo only had praise for the much harassed console when asked if he was impressed with the graphics:
"It plays really smooth, like how a computer game plays...like on a desktop or powerful gaming computers. So it looks and feels a lot more like that....

It's surprising and nice to know the Xbox One can hold its own against a PC.
Galindo goes on to say, "for just this game alone I would purchase the system."So, Du schlußfolgerst das also aus diesem Techradar-Artikel, in dem irgendwelche zwei anonyme, dahergelaufene Typen, die da was probegespielt haben, zitiert werden? Im Prinzip machen die das da am (sehr indirekten) Vergleich von Ryse gegen Knack fest. Nichts gegen Ryse (das wird bestimmt gut), aber jetzt negative Schlüsse daraus zu ziehen, daß auf seiten der PS4 keine exklusiven oder 1st Party Shooter/Hack'n Slay Blockbuster gezeigt wurden (Knack qualifiziert sich nicht dafür, wenn Du mal über die Zielgruppe und die Aufmachung nachdenkst), greift irgendwie zu kurz. Zu den anderen Spielen (Octodad und Driveclub) kann man sagen, daß sie entweder von einem wirklichen Ministudio stammen und mit Minibudget entwickelt werden (das ist eher Bestätigung dafür, daß man irgendeine Opensource Engine [Irrlicht (http://irrlicht.sourceforge.net/)] mit irgendwelchen weiteren Komponenten [PhysX + FMOD Sound System] offenbar relativ einfach ans Laufen bekommt) und allein deshalb kaum für einen 1:1 Vergleich taugen oder daß der Focus und die Art des Spiels z.B. bei Driveclub doch etwas anders gelagert ist als z.B. bei Forza. Und zu beiden schweigt sich der Artikel überdies auch gründlich aus. Im Prinzip lobt der eine Spieler die Beleuchtung in Knack und sagt, daß durch die cartoonhafte Aufmachung ein direkter Vergleich zu anderen Spielen schlecht möglich ist. Dem anderen gefällt halt Ryse und hält es für "cooler" als die dort angebotene Auswahl an PS4-Spielen. Das ist alles.

aufkrawall
2013-07-23, 15:45:49
Nur weil im Großteil des Bildes das Aliasing im DOF-Blur versinkt und es überall bloomed, ist das noch lange kein runtergerechnetes 16k oder so. Also ich würde im ersten Moment auf 4xAA tippen (von der Anzahl der Farbabstufungen an Kanten).
Das zweite Bild kann man für solche Bewertungen jedenfalls komplett vergessen.
Es ist aber mit Sicherheit SSAA mit am Werk, sonst gäbe es beim Content des ersten Bildes garantiert Artefakte.

DinosaurusRex
2013-07-23, 16:14:29
Was für eine Kantenglättung wird man denn von der PS4 erwarten können?

Guerrilla Games hat ja beispielsweise behauptet, dass Killzone Shadow Fall FXAA derzeit nur für die Demos nutzt und das das fertige Spiel sogenanntes "TMAA" verwenden wird. Dieses wurde angeblich extra in Zusammenarbeit mit Sonys Advanced Technology Group (ATG) entwickelt und stellt eine ganz neue Form des Antialiasings dar.

Das behauptet zumindest Richard Leadbetter: Digital Foundry (http://www.eurogamer.net/articles/digitalfoundry-inside-killzone-shadow-fall)

Knuddelbearli
2013-07-23, 16:16:18
vermutlich so ziemlich alles würd mich nicht wundern wenn indy spiele sogar ssaa verwenden


AAA Titel werden eher auf FXAA und MLAA setzen

dargo
2013-07-23, 16:21:13
Was für eine Kantenglättung wird man denn von der PS4 erwarten können?

Guerrilla Games hat ja beispielsweise behauptet, dass Killzone Shadow Fall FXAA derzeit nur für die Demos nutzt und das das fertige Spiel sogenanntes "TMAA" verwenden wird. Dieses wurde angeblich extra in Zusammenarbeit mit Sonys Advanced Technology Group (AVG) entwickelt und stellt eine ganz neue Form des Antialiasings dar.

Das behauptet zumindest Richard Leadbetter: Digital Foundry (http://www.eurogamer.net/articles/digitalfoundry-inside-killzone-shadow-fall)
Ich hab zwar keine Ahnung was TMAA jetzt genau sein soll. Es wurden aber in der letzten Zeit soviele "AA-Modis" (Post-AA) vorgestellt wo sich im nachhinein herausgestellt hat, dass es nur mehr oder weniger Blurfilter sind. Alles irgendwie nicht so wirklich brauchbar. Ob das einen Konsolero beim üblichen Abstand zum TV stört sei mal dahingestellt. Gegen Flimmern taugen die aber auch am TV nicht wirklich. Das einzige was ich momentan recht brauchbar finde ist das SMAA T2x von Crysis 3. Aber auch nur in Verbindung mit dezentem Nachschärfefilter (ich verwende 0.28 bei Full-HD), sonst wirds zu blurrig. Optimal wäre eine Kombination aus SSAA bzw. Downsampling und SMAA T2x.

PS: bei einem 4k 24-27" Bildschirm würde mir SMAA T2x alleine schon reichen. ;)

DinosaurusRex
2013-07-23, 16:25:04
Ich habe im Netz bisher nur das hier gefunden und da wird es als Multisampling-AA und nicht als Post-AA aufgelistet:


TrAA - Transparency Anti-aliasing

Describes AA types such as TMAA and TSAA that are designed to handle flat pictures with see-through areas (Billboards, Decals or Point Sprites in 3D graphics lingo) differently from real 3D models.

In a 3D scene, there are two main ways of displaying items that have see-through areas, such as a tree. If the tree can be seen from all angles, a 3D model is used. But if the tree can be seen only from one angle or from far away, one may be able to get away with displaying just a flat picture of a tree in that location, thereby rendering the scene faster. TrAA applies to such flat pictures.

TrAA exists because flat pictures are not handled well by FSAA methods other than SSAA. This is because flat pictures do not have any geometry associated with them and AA methods other than SSAA derive most of their samples from geometry.

TMAA - Transparency Multi-sampling Anti-aliasing

A type of TrAA. It works by applying MSAA to flat pictures while leaving the real 3D models in the scene to be handled by other AA methods or by MSAA with a different number of samples.

http://www.dahlsys.com/misc/antialias/

Iruwen
2013-07-23, 16:37:54
http://en.wikipedia.org/wiki/Multisample_anti-aliasing#Alpha_testing
Wie macht man das dann wenns eigentlich nicht geht?

DinosaurusRex
2013-07-23, 16:48:01
Wie macht man das dann wenns eigentlich nicht geht?

Vielleicht gibts ja nen Trick?

http://img.pandawhale.com/50900-Ellen-Page-shrug-gif-Tb30.gif

Iruwen
2013-07-23, 16:50:11
No Shirt Shitlock :D

dildo4u
2013-07-23, 16:59:48
MSAA + FXAA kann ne Option sein siehe z.b Forza Horizon,AMD hat ja extra Forward + entwickelt damit MSAA+ eine Deferred Rendering Engine besser zusammenarbeiten.Später wenn es keine 360/PS3 Versionen mehr gibt bleibt vermutlich nur FXAA/MLAA übrig,weil die GPU mehr gefordert wird.(z.b The Division)

Hunter93
2013-07-23, 17:01:13
Wenn MS und Sony sagen, sie benutzen Jaguar-Kerne, dann sind es Jaguar-Kerne und keine völlig anderen.

Microsoft hat offiziell kein Wort über Jaguar verloren, oder ging etwas an mir vorbei?

Ich bin
deshalb von den 6 ops ausgegangen weil diese im Net häufiger im Zusammenhang mit der Xbox one genannt wurde als mit der Ps4 , und im Artikel auf Arstechnica geht der Author davon aus das die 6 Ops falsch interpretiert werden weil diese 2 zusätzlichen "memory" Ops beinhalten die beim Jaguar standard sein sollen

Die 6 Ops kommen von Nick Baker vom Xbox One Architecture Panel.
http://www.youtube.com/watch?v=tLBVHZokt1Q (etwa bei 25:20)

Die Zählweise, ist wie der Artikel bei Arstechnica schon beschreibt, auch nicht ganz eindeutig. Jaguar (inklusive (http://www.vgleaks.com/world-exclusive-orbis-unveiled-2/) die PS4-Fassung) kann (http://images.anandtech.com/doci/6976/Screen%20Shot%202013-05-22%20at%2011.52.58%20PM.png) allein 8 Gleitkommaoperationen pro Sekunde (4 muls und 4 adds).

][immy
2013-07-23, 17:15:06
Wenn MS und Sony sagen, sie benutzen Jaguar-Kerne, dann sind es Jaguar-Kerne und keine völlig anderen.
ähm, eventuell habe ich es ja verpasst, aber gibt es hierzu eine offzielle bestätigung?
von sony hat man das ja schon gehört, aber ich habe noch nichts greifbares von ms gelesen.
die wahrscheinlichkeit das es jaguar wird ist zwar hoch, aber die wahrscheinlichkeit das ms sich auch hier für eine leicht abgewandelte form entschieden hat ist ebenfalls einigermaßen hoch.

nunja, am ende sind es dann wohl nur zusätzliche einheiten für video-kodierung & co. 5min video mitschneiden ist ja nicht grad hardware-schonend. Eventuell auch einer der Gründe warum man so viel speicher reserviert, man wird sich wohl kaum den IO zur platte dicht machen wenn alles von platte geladen wird. da ist die speicherbandbreite vom ddr3 speicher wohl die bessere alternative. viele daten sind es ja nicht pro sec für den Hauptspeicher, aber für die Festplatte könnte das schon übel ausssehen.

wie sony das mit den 15min hinbekommen will ist mir dann aber auch ein rätsel. entweder sie überlassen es den entwicklern (gehe ich aktuell von aus) oder sie machen einen gerenellen ansatz wie ms, was ich mir aber nicht vorstellen kann da für das OS schon so ziemlich wenig rechenzeit und speicher zur verfügung steht.

Coda
2013-07-23, 17:17:20
Es ist ein Jaguar in der Xbox. Das wurde jetzt schon oft genug überall veröffentlicht.

][immy
2013-07-23, 17:28:15
Es ist ein Jaguar in der Xbox. Das wurde jetzt schon oft genug überall veröffentlicht.
sagen wir mal so, die Presse geht davon aus (die wahrscheinlichkeit ist auch hoch, aber letztlich hat die Presse nur überall voneinander abgeschrieben) aber es gibt bisher keine einzige offzielle Bestätigung zu dem Thema. Bisher beruht das alles auf Annahmen und Gerüchten. Oder hast eine Quelle die das bestätigt (von einem Entwickler, AMD oder MS selbst)?

bei der PS3 ging man damals schon davon aus das xbox 360, Wii und PS3 beinahe die gleiche CPU hätten. Letztlich stellte sich jedoch heraus das man da ein wenig falsch lag.

Hunter93
2013-07-23, 17:36:33
Selbst bei VGLeaks fällt nirgends der Name "Jaguar", obwohl vieles darauf hindeutet.

lumines
2013-07-23, 17:47:56
[immy;9853006']bei der PS3 ging man damals schon davon aus das xbox 360, Wii und PS3 beinahe die gleiche CPU hätten.

Wann und wo? Ich kann mich nicht daran erinnern, dass das jemals der Fall war.

just4FunTA
2013-07-23, 17:57:31
habe das auch so in Erinnerung das die x360 cpu immer schon eher als abfallprodukt angesehen wurde und kann mich bis heute nicht daran erinnern das jemals gesagt wurde die xbox 360 und ps3 würden die selbe cpu haben.

Gipsel
2013-07-23, 17:57:59
ähm, eventuell habe ich es ja verpasst, aber gibt es hierzu eine offzielle bestätigung?
von sony hat man das ja schon gehört, aber ich habe noch nichts greifbares von ms gelesen.Microsoft hat offiziell kein Wort über "Jaguar" verloren, oder ging etwas an mir vorbei?

Die 6 Ops kommen von Nick Baker vom [I]Xbox One Architecture Panel.
http://www.youtube.com/watch?v=tLBVHZokt1Q (etwa bei 25:20)Der gleiche Nick Baker hat gegenüber Journalisten auch bestätigt, daß die Durango-CPU zwei Jaguar-Module sind (erstbestes Beispiel (http://www.engadget.com/2013/05/21/building-xbox-one-an-inside-look/)).
Im Übrigen stehen die 6 Ops auch seit Januar in der geleakten Durango-Docs bei vgleaks und AMD hat die Jaguar-Architektur schon vor einem Jahr enthüllt.
Die Zählweise, ist wie der Artikel bei Arstechnica schon beschreibt, auch nicht ganz eindeutig. Jaguar (inklusive (http://www.vgleaks.com/world-exclusive-orbis-unveiled-2/) die PS4-Fassung) kann (http://images.anandtech.com/doci/6976/Screen%20Shot%202013-05-22%20at%2011.52.58%20PM.png) allein 8 Gleitkommaoperationen pro Sekunde (4 muls und 4 adds).Na klar ist das eindeutig, wenn man von Instruktionen bzw. µOps redet. Wie breit dann die SIMD-Einheiten sind (128bit für 4 float-Operationen pro Instruktion), spielt da doch keine Rolle. Das steht alles bereits in den VGleaks-Docs drin (oder ist aus AMDs Jaguar-Präsentatiuon ersichtlich). ;)
[immy;9852985']nunja, am ende sind es dann wohl nur zusätzliche einheiten für video-kodierung & co. 5min video mitschneiden ist ja nicht grad hardware-schonend.Wozu zusätzliche Einheiten? VCE ist Standard bei GCN-GPUs. Und kostet praktisch Null Leistung (nur minimal Bandbreite), weil das eben von den Shader-Einheiten unabhängig funktioniert.
[immy;9852985']Eventuell auch einer der Gründe warum man so viel speicher reserviert, man wird sich wohl kaum den IO zur platte dicht machen wenn alles von platte geladen wird. da ist die speicherbandbreite vom ddr3 speicher wohl die bessere alternative. viele daten sind es ja nicht pro sec für den Hauptspeicher, aber für die Festplatte könnte das schon übel ausssehen.Wie langsam soll die Festplatte sein? Da das auch zum Streamen über's Netz im Hintergrund geeignet sein muß, kann die Bitrate nicht exorbitant hoch ausfallen. Ein relativ kleiner Puffer im Speicher zum Zwischenspeichern und dann mit niedriger Priorität (also wenn keine anderer Festplattenzugriff ansteht in einem Rutsch auf die Platte). Das bremst das Spiel wohl kaum merklich. 1MB/s im Mittel ist für eine moderne Festplatte gar nichts, wenn das nicht gerade in 4kB-Blöcken geschrieben wird.
[immy;9852985']wie sony das mit den 15min hinbekommen will ist mir dann aber auch ein rätsel.Mit reservierten 1 GB auf der Platte (und ein paar wenige MB Puffer im Speicher) für diesen Zweck kommt man vermutlich erstaunlich weit (ausreichend für ~9 MBit/s Bitrate bei 15Minuten, vermutlich kann man den Stream auch auf 4MBit/s einschränken, bevor Kompressionsartefakte wirklich auffällig werden oder man nutzt für die Aufzeichnung gleich nur 720p).
[immy;9852985']entweder sie überlassen es den entwicklern (gehe ich aktuell von aus) oder sie machen einen gerenellen ansatz wie ms, was ich mir aber nicht vorstellen kann da für das OS schon so ziemlich wenig rechenzeit und speicher zur verfügung steht.Wie gesagt kostet das Feature praktisch kaum Rechenzeit und Speicher. :wink:

Gipsel
2013-07-23, 18:01:37
[immy;9853006']sagen wir mal so, die Presse geht davon aus (die wahrscheinlichkeit ist auch hoch, aber letztlich hat die Presse nur überall voneinander abgeschrieben) aber es gibt bisher keine einzige offzielle Bestätigung zu dem Thema. Bisher beruht das alles auf Annahmen und Gerüchten. Oder hast eine Quelle die das bestätigt (von einem Entwickler, AMD oder MS selbst)?Dir ist klar, daß Coda ein Entwickler ist? Und zwar einer, der vielleicht so ein wenig mit Ryse zu tun hat, ein Spiel was bereits auf einer XB1 (also nicht einem PC-DevKit) öffentlich ausprobiert werden konnte? :rolleyes:

][immy
2013-07-23, 18:06:05
Wie gesagt kostet das Feature praktisch kaum Rechenzeit und Speicher. :wink:
nun gut .. je nach qualität stimmt das wohl so :)
auf dem pc habe ich bisher aber nichts performates gesehen, was dazu noch eine gute bildqualität besaß. Die bisherigen Bildschrimaufzeichnungsprogramme sind eher ziemlich langsam und performance-verschlingend. mag auch damit zu tun haben, das die meist komplett über die CPU laufen.



das vorhin mit der PS3 war eigentlich eher als Zeitraum gedacht. Bis z.B. die Wii raus kam, hat man sie für gleichwertig gehalten (auch die Presse ging von einem Kopf an Kopf rennen aus). Bis der Cell raus kam, hat man diesen auch für "einfacher" gehalten. übrigens habe ich beinahe gleich geschrieben und nicht identisch.

Dir ist klar, daß Coda ein Entwickler ist? Und zwar einer, der vielleicht so ein wenig mit Ryse zu tun hat, ein Spiel was bereits auf einer XB1 (also nicht einem PC-DevKit) öffentlich ausprobiert werden konnte?
nope :)
aber wenn das so ist steht er eh unter NDA und MS nimmt das ziemlich ernst :).. also nichts glauben was er schreibt :P (nicht ganz ernst nehmen bitte ;))

RLZ
2013-07-23, 18:20:43
Zwar Offtopic, aber
Und zwar einer, der vielleicht so ein wenig mit Ryse zu tun hat,
Arbeitet er direkt an Ryse?

Gipsel
2013-07-23, 18:24:52
[immy;9853063']nun gut .. je nach qualität stimmt das wohl so :)
auf dem pc habe ich bisher aber nichts performates gesehen, was dazu noch eine gute bildqualität besaß.Deswegen ja mein Verweis auf die VCE-Einheit. Die ist für Echtzeit H.264 Enkodierung eines 1080p60-Streams mit den nötigen Bitraten vollkommen ausreichend.
[immy;9853063']]nope :)
aber wenn das so ist steht er eh unter NDA und MS nimmt das ziemlich ernst :).. also nichts glauben was er schreibt :P (nicht ganz ernst nehmen bitte ;))Wenn MS selber irgendwas gegenüber Journalisten ausplaudert, dürfte das wohl kaum noch unter irgendein NDA fallen.

Gipsel
2013-07-23, 18:25:56
Zwar Offtopic, aber

Arbeitet er direkt an Ryse?
Frag' ihn doch! Oder durchsuche die Foren (nicht nur dieses) nach entsprechenden Beiträgen von ihm!

Hunter93
2013-07-23, 19:30:01
Das steht alles bereits in den VGleaks-Docs drin (oder ist aus AMDs Jaguar-Präsentatiuon ersichtlich). ;)

"In the right conditions, the processor can simultaneously issue six micro-operations: a load, a store, two ALU, and two vector floating point. [...] A core can retire 2 micro-operations a cycle."
http://www.vgleaks.com/durango-cpu-overview/

Damit liegt (@megachip800) ArsTechnica richtig (die zwei zusätzlichen Operationen sind Load/Store-instructions).
Mit "retire" wäre das Durchhalten gemeint?

Gipsel
2013-07-23, 20:11:50
"In the right conditions, the processor can simultaneously issue six micro-operations: a load, a store, two ALU, and two vector floating point. [...] A core can retire 2 micro-operations a cycle."
http://www.vgleaks.com/durango-cpu-overview/

Damit liegt (@megachip800) ArsTechnica richtig (die zwei zusätzlichen Operationen sind Load/Store-instructions).Was heißt, die liegen richtig? Das steht explizit in den bei vgleaks zitierten Durango-Docs (wie arstechnica auch sagen). Der Author bei ars wundert da ein wenig viel rum, das ist eigentlich vollkommen klar und MS' Aussage ist natürlich mit dem üblichen PR-Filter zu versehen. Genau die Aufstellung habe ich übrigens auch schon gegeben (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9851774#post9851774) (bevor megachip die 2 L/S-Operationen anführte) und das ist ein ganz normales Feature der Jaguar Prozessoren. Das sieht bei der PS4 ganz genau so aus. Seine Aussage (PS4 könne nur vier im Gegensatz zu XB1 sechs) ist demnach falsch (und von der absoluten Größe etwas irreführend, aber egal).
Mit "retire" wäre das Durchhalten gemeint?Nicht direkt. Retire beschreibt eigentlich den letzten Schritt bei der Abarbeitung einer Instruktion. Wenn eine Instruktion retired wird, wird ihre Auswirkung auf den "architectural state" der CPU endgültig wirksam (das kann also nicht mehr wegen eines falsch vorhergesagten Sprunges zurückgerollt werden oder Ähnliches; spekulativ ausgeführte Instruktionen hängen immer noch vor dem Retirement fest). Nach dem Retirement "weiß" also die CPU-Pipeline nichts mehr von der Instruktion (außerhalb eventuell angefallener statistischer Informationen für Sprungvorhersagen oder Ähnliches).
Was eine Jaguar CPU als Instruktionsdurchsatz maximal durchhalten kann, wird von zwei Sachen gleichermaßen limitiert: den zwei Decodern (mehr als zwei Instruktionen scheitern schon da) und eben der Retirementstufe. Zwischendurch kann aber ein eventuell aufgetretener Stau (z.B. weil man auf einen Wert aus dem Speicher warten mußte) dann schneller von den Funktionseinheiten abgearbeitet werden.

Coda
2013-07-23, 20:16:00
[immy;9853006']sagen wir mal so, die Presse geht davon aus (die wahrscheinlichkeit ist auch hoch, aber letztlich hat die Presse nur überall voneinander abgeschrieben) aber es gibt bisher keine einzige offzielle Bestätigung zu dem Thema. Bisher beruht das alles auf Annahmen und Gerüchten. Oder hast eine Quelle die das bestätigt (von einem Entwickler, AMD oder MS selbst)?

bei der PS3 ging man damals schon davon aus das xbox 360, Wii und PS3 beinahe die gleiche CPU hätten. Letztlich stellte sich jedoch heraus das man da ein wenig falsch lag.
Das ist schon sehr direkt:
http://www.anandtech.com/show/6972/xbox-one-hardware-compared-to-playstation-4

Gipsel
2013-07-23, 20:32:22
Oder im von mir schon vorhin verlinkten engadget-Artikel (http://www.engadget.com/2013/05/21/building-xbox-one-an-inside-look/) wird die Jaguar-Aussage zwar nicht direkt zitiert, aber doch diesem Nick Baker zugeschrieben:
"The box will pop on and come to your home page or wherever you were last. In order to do that in an efficient way, you have to architect all of that into the box up front. A lot of it is in the SoC," Holmdahl says. That SoC contains both the CPU and GPU, as well as embedded ESRAM; the first two components are based on an AMD design, and custom-built into an SoC with that embedded memory. That CPU is based on the Jaguar design from AMD, with eight cores and a 4MB L2 cache, while the GPU is of the D3D11.1 (with extensions) variety, Baker tells us.Wie gesagt hat MS das auf Nachfrage gegenüber einigen Journalisten offenbar auch direkt bestätigt.

megachip800
2013-07-24, 00:13:24
Gaikai!! Wenn du schon trollen willst, mach es richtig! :facepalm:

Das sind Fakten ich denke mal du hast dich nicht wirklich über aktuelle Entwicklung in der Videospielbranche
informiert , insbesondere wenn man da schaut was sich dort im Hintergrund abspielt.

http://www.computerandvideogames.com/356204/features/sonys-cloud-revolution-why-gaikai-could-change-playstation-forever/

The death of PlayStation 4

...

Rumours have long suggested that Sony will attempt to assemble an 'off the shelf' PS4, comprised of almost-cutting-edge PC tech, rather than engage in another elaborate, expensive, folly, like the Cell-chip architecture of PS3.

Locuza
2013-07-24, 00:26:08
Und wie sah das ursprüngliche PS4 Konzept aus?
Ah, du hast mal 16 Kerne erwähnt und einen 79xx Ableger.
Laut neusten Kommentaren war sicher auch mal ein 512-Bit SI geplant.
Schade das es so nicht gekommen ist, wenigstens MS hat eine anständig starke Konsole gebaut.

Felixxz2
2013-07-24, 00:43:41
Das sind Fakten ich denke mal du hast dich nicht wirklich über aktuelle Entwicklung in der Videospielbranche
informiert , insbesondere wenn man da schaut was sich dort im Hintergrund abspielt.

http://www.computerandvideogames.com/356204/features/sonys-cloud-revolution-why-gaikai-could-change-playstation-forever/

The death of PlayStation 4

...

Rumours have long suggested that Sony will attempt to assemble an 'off the shelf' PS4, comprised of almost-cutting-edge PC tech, rather than engage in another elaborate, expensive, folly, like the Cell-chip architecture of PS3.

Worauf, wenn nicht trollen, willst du eigentlich hinaus? Die PS4 ist schneller als die One, das sind Fakten. Und etwas deutlich schnelleres als die PS4 hätte man zz. in Bezug auf TDP und Kosten auch nicht bauen können. Und das Pikanteste: Sollte die PS4 irgendwelche Flaschenhälse oder Architekturprobleme haben (und da sind AFAIK keine bekannt), dann hat die XBONE die auch, denn die basiert auf der selben Architektur, nur mit weniger Rohleistung und anderem Speichersystem. Also wo ist dein Problem?

Nightspider
2013-07-24, 03:33:27
Klar hätte man das, wenn man den Verkaufspreis 50% höher angesetzt hätte.

Felixxz2
2013-07-24, 06:25:30
Was denn? Tahiti? 384 Bit? 16 Kerne? Wohl kaum.

robbitop
2013-07-24, 13:15:29
Optimal wäre eine Kombination aus SSAA bzw. Downsampling und SMAA T2x.

Optimal wäre SGSSAA mit >8x Samples und einem anständigen Filterkern für das anschließende Downsampling. Das beste was ich an Downsampling (ich meine jetzt nicht den IMO halb unpassenden Begriff für den Auflösungshack!) gesehen habe, war 2006 mit 8x MSAA kombiniert mit edge detection. Die Kontrastübergänger an geglätteten Kanten waren extremst genial.
Das ganze bei 8 oder 16 SSAA Samples wäre schon...genial!

robbitop
2013-07-24, 13:25:53
http://en.wikipedia.org/wiki/Multisample_anti-aliasing#Alpha_testing
Wie macht man das dann wenns eigentlich nicht geht?
Meinst du MSAA auf Alphatests applizieren (also TMAA)? Alpha to Coverage ist die Lösung.

Oder meinst du MSAA + DR? Seit D3D10.1 kann man auch auf den Z Buffer zugreifen. Eine entsprechende MSAA Implementierung ist also möglich - aber aufwändiger/rechenleistungshungriger als bei Forward Renderern.
Die meisten DR Spiele sind Konsolen-Multis, die für DX9 HW geschrieben worden sind. Da geht MSAA + DR nur mit Kompromissen oder gar nicht.

Ich glaube allerdings nicht, dass hier dieses TMAA gemeint ist. Vieleicht sollten die AA Erfinder vor der Benennung ereinmal schauen, ob es die Abkürzung schonmal gab. :D

MSAA + FXAA kann ne Option sein siehe z.b Forza Horizon,AMD hat ja extra Forward + entwickelt damit MSAA+ eine Deferred Rendering Engine besser zusammenarbeiten.Später wenn es keine 360/PS3 Versionen mehr gibt bleibt vermutlich nur FXAA/MLAA übrig,weil die GPU mehr gefordert wird.(z.b The Division)
Forward+ ist AFAIR eben keine Defered Engine sondern eine Möglichkeit eines modernen Forward Renders mit aufwändiger Beleuchtung bei vergleichbarer Geschwindigkeit. Bei Forward Rendering ist MSAA eben günstig. Eine konsequente DX11 DR Engine kann aber ebenso sauberes MSAA implementieren. Es ist halt deutlich teurer.

Coda
2013-07-24, 14:13:50
Optimal wäre SGSSAA mit >8x Samples und einem anständigen Filterkern für das anschließende Downsampling. Das beste was ich an Downsampling (ich meine jetzt nicht den IMO halb unpassenden Begriff für den Auflösungshack!) gesehen habe, war 2006 mit 8x MSAA kombiniert mit edge detection. Die Kontrastübergänger an geglätteten Kanten waren extremst genial.
Das ganze bei 8 oder 16 SSAA Samples wäre schon...genial!
Ich hab mal Black Ops 2 mit TXAA und Supersampling gespielt. Das hat mich echt umgehauen. Das sah aus wie ein Video-Feed von der Bildruhe.

boxleitnerb
2013-07-24, 14:18:02
^ Downsampling oder gibts das SSAA im Spiel? Wie war es von der Schärfe her?

Wäre gut, wenn es sowas in jedem Spiel geben würde, sofern gut umgesetzt.

Mordred
2013-07-24, 15:31:37
Was denn? Tahiti? 384 Bit? 16 Kerne? Wohl kaum.

Intel ;>

aufkrawall
2013-07-24, 15:39:12
Ich hab mal Black Ops 2 mit TXAA und Supersampling gespielt. Das hat mich echt umgehauen. Das sah aus wie ein Video-Feed von der Bildruhe.
Und warum blockiert ihr dann die DS-Commands bei Crysis 3? ;)
Mit scharfem Bicubic-Filter wär TXAA dann sehr brauchbar gewesen.

dargo, OGSSAA ist immer nur ein Krüppel.
Man kann auch mit vernünftigem SGSSAA + dezentem Sharpening (+SMAA oder wie robbi schon sagte gleich mit ED-Filter) einen ähnlich detailreichen Bildeindruck hinbekommen bei besserer Bildruhe.
Es macht nur dummerweise keiner. Aber wenn wir schon am Rumspinnen sind...

dargo
2013-07-24, 16:06:17
dargo, OGSSAA ist immer nur ein Krüppel.
Man kann auch mit vernünftigem SGSSAA + dezentem Sharpening (+SMAA oder wie robbi schon sagte gleich mit ED-Filter) einen ähnlich detailreichen Bildeindruck hinbekommen bei besserer Bildruhe.
Es macht nur dummerweise keiner. Aber wenn wir schon am Rumspinnen sind...
Das ist doch völliger Unsinn!

Dann sind also 4k Bildschirme für dich auch Krüppel. :rolleyes: OGSSAA ist nur eins... teuer. Dafür erfasst es aber auch alles. "Krüppel" ist für mich eher SGSSAA. Das kann nur so gut funktionieren wie MSAA greift. Gibts eine Engine wo MSAA gewisse Kanten nicht erfasst bringt bei diesen Kanten SGSSAA auch nichts. Hast du so eine Krüppelengine wie bsw. in Max Payne 3 wird SGSSAA locker so teuer wie OGSSAA weil schon reines MSAA super teuer ist. Vom Speicherbedarf reden wir lieber nicht. Dann blurrt SGSSAA auch nicht selten in bestimmten Games. Diese Probleme hast du mit höherer Auflösung nicht.

SGSSAA ist imho bei moderneren Engines wie zb. Forward+ (wo MSAA schon gute Dienste leistet) erst durchgehend brauchbar. Wobei ich jetzt nicht sagen kann wie teuer es ist, noch nicht getestet. Die Glättung sollte zumindest theoretisch sehr gut sein wenn MSAA schon gut greift.

Coda
2013-07-24, 16:19:45
SGSSAA ist nicht teurer als OGSSAA und sieht immer besser aus.

dargo
2013-07-24, 16:46:25
SGSSAA ist nicht teurer als OGSSAA und sieht immer besser aus.
Wenn 1xAA in MP3 80% schneller als 4xMSAA ist, was glaubst du was dann zusätzlich SGSSAA kostet? Von der miserablen MSAA-Glättung sprechen wir lieber nicht. Und was soll bitte an SGSSAA in MP3 besser sein wenn eine Kante glatt ist und die Nachbarkante fröhlich vor sich hin weiter flimmert weil sie gar nicht erfasst ist?

boxleitnerb
2013-07-24, 17:03:54
Meiner Erfahrung nach ist OGSSAA per Treiber nur eine Notlösung, wenn nichts anderes geht. Der Unterschied zu kein AA ist in Bewegung oftmals recht gering. Auf Screenshots sieht man es deutlicher, aber erst in Bewegung spielt die Musik.

Es kommt aber auch auf die Implementierung an. z.B. in Sleeping Dogs taugt das SSAA überhaupt nix. In Tomb Raider ist das Bild ziemlich ruhig, was sicher auch am Blurfilter liegt. Dennoch bilde ich mir ein, dass das Ergebnis auch ohne besser wäre.