PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Xbox One/Playstation 4: technische Spekulation und Vergleich


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47

dildo4u
2013-08-29, 19:49:50
Wie Multitiel jeweils aussehen hängt auch ein bissel von der Entwickler Software ab,aber ich denke Sony hat dort gelernt und ein größeren Fokus drauf gelegt.Es gibt z.b das ICE Team was bei der PS4 Entwicklung mit geholfen hat.

http://wikibin.org/articles/ice-team.html

StefanV
2013-08-29, 20:03:43
LOL , der übliche oberflächliche Vergleich. Man kann nicht einfach die Komponenten isoliert vom rest des System einzeln betrachten und sagen weil die eine GPU mehr Flops hat als die andere ist die Konsole deshalb
schneller das gleiche mit der Ramgeschwindigkeit.
Doch, wenn beide die gleiche GPU verwenden, der eine mit mehr Einheiten, der andere mit weniger, kann man das.


Entscheidend ist eher wie die die einzelnen Komponenten innerhalb des System untereinander kommunizieren und miteinander agieren/reagieren. Darüber steht im Artikel nichts. Und gerade in diesem Punkt ist die Xbox One besser ausbalanciert als die PS4 und hat noch andere Schmankl implementiert.
Wo ist die XBoner hier besser als die PS4? In welchem Punkt ist sie überlegen?

Also so von weitem könnte man nur eine geringfügig bessere CPU Leistung vermuten, da hier von ~1,9GHz gegen 1,6GHz die Rede ist. Ansonsten würde mir nichts einfallen, wo dieser XBoner besser sein könnte. Aber du wirst uns jetzt sicher aufklären, wie eine HD7770 schneller als eine 7850 sein kann. Nur zu!!

00-Schneider
2013-08-29, 20:18:16
Es muss halt ordentlich Multithreaded programmiert werden immerhin bringt Sony Planetside 2 für PS4,das ist das CPU Lastigste Game was ich je gezockt habe.


Halbwissen: Da ist doch auch die Engine eher grottig, und skaliert schlecht auf 4-Kernern, oder?

------------------

Zu den 1,9Ghz: Könnte MS helfen, den Nachteil auszugleichen, dass Sony ihre Mehrzahl an CUs teilweise für GPGPU nutzt, um die CPU zu entlasten.

dildo4u
2013-08-29, 20:29:12
Halbwissen: Da ist doch auch die Engine eher grottig, und skaliert schlecht auf 4-Kernern, oder?
Auch aber dadurch das man hunderte Player in einer Basis haben kann wäre es selbst wenn es ideal skaliert sehr CPU lastig.

Gipsel
2013-08-29, 20:33:46
Edit: Hat Jaguar überhaupt ECC im L1/L2? Finde dazu nichts im (kurzem) ISSCC-Paper.
Wobei mir nicht klar ist, ob Jaguar an sich auch ECC und Parity Bits hat. Als low-Power Design, was ja nicht unbedingt ins Serverumfeld soll, kann ich mir schon vorstellen, das man das weg gelassen hat. Bringt zwar nicht viel, aber da freut man sich ja über jedes mW. Andererseits würde Jaguar damit bei den Microservern raus fliegen... Wie ist denn das mit Jaguar und Microserver? Wenn ja, dann wird man da auch ECC und Parity drin haben.
[..]
EDIT:
Was mir gerade eingefallen ist, was ich eigentlich direkt noch schreiben wollte.

GK104, hat z.B. kein ECC für die onChip Caches, und wird dennoch im Profisegment verkauft... *hustOhne jetzt nochmal nachgeschaut zu haben, glaube ich ich mich daran zu erinnern, daß Kabini ein 64/72Bit ECC Speicherinterface bietet. Das impliziert, daß die Caches auch ECC/Parity-geschützt sind (weil man wohl nicht den Blödsinn wie bei den GK104 Teslas machen wird ;)).

Ach übrigens, bei den kleineren Prozessen sind gekippte Bits in SRAM eher problematisch als in DRAM. Das skaliert unterschiedlich mit der Prozeßgröße.

Skysnake
2013-08-29, 20:40:39
sram ist aber stabiler als dram bzgl. Bitflips. Damit sram flippt muss schon einiges passieren.

EDIT:
Ansonsten wäre das natürlich eine Erklärung an sich, wobei der ECC Schutz im großen SRAM noch immer nicht wirklich nachvollziehbar ist. Bei der Menge hätte man selbst wenn das Ding ansonsten 1:1 in die Server geht sich überlegen können man streicht das raus, es sei denn AMD nimmt eben die Chips mit defekten CPUs usw usw ab. Dann wäre es natürlich schon angemessen, dafür auch den großen SRAM mit ECC komplett zu verbauen.

Für die Version will ich aber wirklich erstmal entsprechende Produkte im Handel sehen bevor ich es glauben kann!

][immy
2013-08-29, 20:47:11
Zu den 1,9Ghz: Könnte MS helfen, den Nachteil auszugleichen, dass Sony ihre Mehrzahl an CUs teilweise für GPGPU nutzt, um die CPU zu entlasten.

wenn das stimmen würde, wäre das ja schon mal was. netterweise haut der sound-chip ja anscheinend schon einen core raus. also wenn die ps4 nur nen codec verwendet und den rest auf cpu/gpu macht wäre man schon ohne die 1,9ghz leicht im cpu-vorteil. aber die CPU war bisher nie so wirklich wichtig.

was die 40-50% angeht, diese beziehen sich wirklich nur auf die einzelgrößen GPU & RAM und beachten dabei nicht den esram. das kann man so ohne weiteres einfach nicht sagen. hier müsste man vor allem aber auch mal einen tieferen einblick in die specs der ps4 haben, bisher weiß man ja nur so pi mal daumen was drin sein wird, aber über die anbindungen etc weiß man eigentlich nix. die 40-50% dürften erheblich schrumpfen, wenn man die vorteile beider konsolen nutzt. wie schon mal gesagt, nicht gänzlich (die ps4 wird man wohl nie komplett einholen außer in spezialfällen) aber man robbt sich halt näher dran.
ein echter Sound-chip ist ja auch so eine sache die heute wohl nicht viel aus macht, aber wenn die ressourcen in zukunft knapp werden, ist man über ein wenig freie cpu-leistung sicherlich auch froh.

das wurmt mich aber echt bei der PS4, das man hier nichts drüber weiß. wie wird die sound-berechnung durchgeführt. extra chip, CPU, GPU?

Deinorius
2013-08-29, 20:52:09
Wäre doch praktisch, wenn man einen kleinen Benchmark für beide Konsolen entwickeln würde, der auf 1080p mit möglichst vielen Details läuft, die Eigenheiten der jeweiligen Konsole berücksichtigen und dann mal sehen, wie das fps-Diagramm aussieht.

00-Schneider
2013-08-29, 20:58:36
Wäre doch praktisch, wenn man einen kleinen Benchmark für beide Konsolen entwickeln würde, der auf 1080p mit möglichst vielen Details läuft, die Eigenheiten der jeweiligen Konsole berücksichtigen und dann mal sehen, wie das fps-Diagramm aussieht.


Du wirst am 14.11. genug "Benchmarks" bekommen, wenn Digital Foundry die Multiplattformer von One und PS4 detailliert mitsamt Bildvergleich und Framerate/Tearing-Analyse miteinander vergleicht, die da wären: AC4, Watch Dogs, CoD, BF4.

Dürfte dann genug Aussagekraft über die unterschiedlich Leistungsfähigkeit der neuen Konsolen bringen. ;)

Deinorius
2013-08-29, 21:04:20
Bringt dann aber ziemlich wenig, wenn die Grafikqualität nicht identisch ist und dann bleibt immer noch die Frage, wie weit die jeweilige Konsole ausgereizt wird. Einen richtigen Vergleich können wir wohl erst in ein paar Jahren erwarten.

Watson007
2013-08-29, 21:05:47
das ist doch alles relativ unwichtig... mir reichen oft auch schon die Indie-Games auf der PS3, wie aktuell Stealth Inc, The Cave oder Christine....

megachip800
2013-08-29, 21:11:19
Doch, wenn beide die gleiche GPU verwenden, der eine mit mehr Einheiten, der andere mit weniger, kann man das.


Wo ist die XBoner hier besser als die PS4? In welchem Punkt ist sie überlegen?

Also so von weitem könnte man nur eine geringfügig bessere CPU Leistung vermuten, da hier von ~1,9GHz gegen 1,6GHz die Rede ist.
Ansonsten würde mir nichts einfallen, wo dieser XBoner besser sein könnte. Aber du wirst uns jetzt sicher aufklären, wie eine HD7770 schneller als eine 7850 sein kann. Nur zu!!


-die Xbox one setzt konsequent auf Daten/Screentiling die PS4 nicht. Dafür stellt die Xbox one 4 seperate
Prozessoren zur verfügung die der GPU keine Rechenleistung kosten. Die PS4 hat nur 2 DMA Prozessoren
, die zudem anders implementiert sind (standard CGN), und keine ausgereiften Tools dafür hat wie die Xbox one.

-Belasten Licht und Transparenzeffekte bei der PS4 den Hauptbus , bei der Xbox one nicht das wird durch die
internen Caches und sRam abgefedert.

-die CB und DB Blöcken innerhalb der Xbox one GPU beschleunigen die Tiefenberechnung bzw. Depht Test , diese scheinen über normales Hi Z hinauszugehen von den Funktionen her ,
wenn das Standard CGN wäre dann hätte das Microsoft nicht erwähnen müssen auf dem Entwicklermeeting , im Spec Sheet der PS4 ist davon nichts zu finden dort gibt es keine CB/DB Blöcke.
Diese Einheiten sind mit zusätzlichen Caches ausgestattet die über eine höhere Bandbreite verfügen als der eSram. In den CB/DB Blöcken liegt auch die Antwort warum der Chip insgesamt 47 MB hat
und für was die restlichen MBs genutzt werden. Depth Tests müssen bei der PS4 über den Hauptspeicher laufen der aber deutlich langsamer ist als die caches der CB/DB Blöcke bei der Xbox one.

-Unterstützen derzeit die Sony Tools keine PRT Texturen im Gegensatz zur Xbox one die die Funktion schon
bereitstellt.

-die höhere Fließkommaleistung der PS4 GPU gegenüber der Xbox One nütz der Grafikberechnung garnichts
da die restlichen Flops fürs Soundprocessing und andere Dinge verwendet werden , wo die Xbox one
seperate Prozessoren verwendet. Soundprocessing mit der GPU...schönen dank für die Latenz.

- die 8 ACES der PS4 beschleunigen in keinster Weise die Grafikberechnung sondern sind eher Vorteilhaft
für Physik/Partikeleffekte und deren Berechnung mit der GPU.

So und jetzt fragt euch mal selber warum hat MS um den Xbox one Soc so ein Geheimnis gemacht , warum diese starke Geheimhaltung rund ums Microsoft Headquarter , weil man ein Standard CGN verstecken will?? Warum hatten die Devkits eine AMD 7970 an Bord , wozu brauch man eine 3,5 Tflop Gpu um eine 1,2 Tflop Gpu zu simulieren? Die Antwort könnt ihr euch ja selber geben.

Die PS4 ist auf dem Papier leistungsfähiger der reale Output aber eher mäßig. Wo ist jetzt die Überlegenheit
gegenüber der Xbox one wenn Spiele wie Driveclub , Killzone und Knack so schlecht performen , schlecht aussehen und Probleme haben selbst konstante 30 Bilder/s zu erreichen?? Forza 5 und Ryse sahen deutlich
besser aus als das was Sony bisher gezeigt hatte und die liefen auf echter Xbox one Hardware und nicht
auf einem PC. Was jetzt nicht heißen soll das es nicht auch Gurken für die Xbox one gibt, aber jeder konnte den Unterschied sehen. Also irgendetwas stimmt hier nicht.

Das die PS4 nicht so toll ist hat ja Marc Cerny indirekt zugegeben. "Laut Mark Cerny, dem Hardware-Architekten der Konsole, wird es auch noch drei bis vier Jahre dauern, bis die Entwickler die PlayStation 4 voll verstehen werden"(quelle Gamezone) , wenn wird erst 4 Jahre warten müssen um technisch gute Spiele auf der Ps4 zu sehen , dann ist das doch schon Eingeständnis für ein schlecht gemachtes Produkt. Klar dauert es eine Weile bis sich die Entwickler eingearbeitet haben. Aber daran sieht man wie Weltfremd der Marc Cerny ist denn in 4 Jahren hat die PS4 bald das Ende ihres Lebenszyklus erreicht. Warum muß man solange warten wenn es die Xbox one schon jetzt besser macht ?

00-Schneider
2013-08-29, 21:13:40
Einen richtigen Vergleich können wir wohl erst in ein paar Jahren erwarten.


Wie meinst du das?

Deinorius
2013-08-29, 21:18:58
das ist doch alles relativ unwichtig... mir reichen oft auch schon die Indie-Games auf der PS3, wie aktuell Stealth Inc, The Cave oder Christine....


Natürlich ist das relativ unwichtig. Ich habe ja selber mehr Indie-Titel als sonst was für die PS3.
Ändert aber nix am Threadthema. ;)

Wie meinst du das?


Je nachdem, wie die Eigenheiten der jeweiligen Konsole ausgereizt werden, könnte der Vorteil unterschiedlich ausfallen. Wer weiß, wie die allgemeine Bandbreite der PS4 gegenüber dem eSRAM der XBO ausgereizt wird, oder wie sehr GPGPU oder die Move Engines verwendet werden.
Vielleicht bewerte ich diese Feinheiten ja auch über, aber eines weiß ich. Da hUMA auf der PS4 IIRC noch nicht richtig existiert, da bisher noch 2 APIs verwendet werden, muss man allein schon den Wechsel auf ein einziges API abwarten.


Und könnte bitte jemand den Türsteher feuern, der diesen Troll reingelassen hat?

megachip800
2013-08-29, 21:34:02
@StefanV

Die Xbox hat keine HD7770 GPU es handelt sich hier um eine Spezialanfertigung.

00-Schneider
2013-08-29, 21:38:02
@StefanV

Die Xbox hat keine HD7770 GPU es handelt sich hier um eine Spezialanfertigung.


http://images.wikia.com/mlpfanart/images/3/30/You_don't_say.png

(Sry Mods, der musste sein...)

Du schreibst dermaßen viel Müll zusammen, dass ich für dich hoffe, dass das wirklich nur billiges getrolle ist, und du das nicht tatsächlich ernst meinst. "Ryse sieht besser als KZ aus", olol...

Skysnake
2013-08-29, 21:42:04
Die PS4 ist auf dem Papier leistungsfähiger der reale Output aber eher mäßig. Wo ist jetzt die Überlegenheit
gegenüber der Xbox one wenn Spiele wie Driveclub , Killzone und Knack so schlecht performen , schlecht aussehen und Probleme haben selbst konstante 30 Bilder/s zu erreichen?? Forza 5 und Ryse sahen deutlich
besser aus als das was Sony bisher gezeigt hatte und die liefen auf echter Xbox one Hardware und nicht
auf einem PC. Was jetzt nicht heißen soll das es nicht auch Gurken für die Xbox one gibt, aber jeder konnte den Unterschied sehen. Also irgendetwas stimmt hier nicht.

Die PS4 ist halt extrem einfach gehalten vom Speichermanagment. Das ist fire and forget. Da gibts eigentlich nichts wirklich spezielles zu beachten.

Bei der XBone sieht das schon ganz anders aus. Da muss man sich erstmal hinsetzen, und wirklich überlegen, wie man das vernünftig angeht, um die Vorteile der Hardware auch wirklich aus zu nutzen. Das machts einfach komplizierter.

Wenn ich mich ganz spontan zwischen PS4 und XBone entscheiden müsste, würde ich die PS4 nehmen, selbst wenn ich am Ende langsamer sein sollte, wieder erwarten. Ich wüsste, das ich mir auf jeden Fall keinen abbrechen muss, um die Hardware vernünftig aus zu lasten.

Überspitzt ausgedrückt, bei der PS4 fallen dir 80% der Leistung direkt in den Schoß. Bei der XBone sind es nur 50%, dafür sind die letzten 20% bei der PS4 richtig schwer zu bekommen, bei der XBone bekommste die nächsten 40% aber recht einfach, wenn du dich denn überhaupt mal dran machst. Die letzten 10% sind dann wieder gleich schwer.

Und ja, die Zahlen sind jetzt einfach aus den Fingern gesaugt, einfach um klar zu machen, was ich meine :P

Gipsel
2013-08-29, 21:42:32
sram ist aber stabiler als dram bzgl. Bitflips. Damit sram flippt muss schon einiges passieren.Das war früher mal so. Inzwischen, bei den kleinen Prozeßgrößen ist DRAM afaik stabiler als SRAM. Das skaliert wie gesagt unterschiedlich mit der Prozeßgröße.

just4FunTA
2013-08-29, 21:44:59
megachip800 stehst du unter drogen oder was bewegt dich bloß immer dazu irgendwelchen totalen Blödsinn zu schreiben, allein schon damals beim Crysis 3 Release uns allen erklären zu wollen wie schlecht das Spiel doch aussieht wo wir es alle selber spielen konnten und jeder innerhalb von Bruchteilen einer Sekunde dich als Dummschwätzer entlarvt hat.

Und jetzt wo die Konsolen noch nicht im Laden stehen hast du dich dazu entschieden die Chance zu nutzen und uns durchgehend mit irgendwelcher Fantasiescheisse vollzuspammen oder wie?

Skysnake
2013-08-29, 21:46:25
Bei DRAM haste nur noch einige hundert/tausen Elektronen. Da reicht kosmische Strahlung definitiv für nen Bitflip.

Nen SRAM sollte eigentlich nicht flipen, wenn nicht gerade während nem Schaltvorgang was passiert.

Mir würde zumindest nichts einfallen, was wirklich den SRAM deutlich schlechter machen würde, außer halt das kleine Auge. Spannung ist Spannung. Das hat ja mit der Größe nicht viel zu tun, das Auge muss einfach nur groß genug sein.

Bei DRAM sinkt ja die Anzahl der Elektronen auf dem Kondensator. Das skaliert natürlich :biggrin:

Oder überseh ich das grad was wichtiges?

megachip800
2013-08-29, 21:46:27
Die PS4 ist halt extrem einfach gehalten vom Speichermanagment. Das ist fire and forget. Da gibts eigentlich nichts wirklich spezielles zu beachten.

Bei der XBone sieht das schon ganz anders aus. Da muss man sich erstmal hinsetzen, und wirklich überlegen, wie man das vernünftig angeht, um die Vorteile der Hardware auch wirklich aus zu nutzen. Das machts einfach komplizierter.

Wenn ich mich ganz spontan zwischen PS4 und XBone entscheiden müsste, würde ich die PS4 nehmen, selbst wenn ich am Ende langsamer sein sollte, wieder erwarten. Ich wüsste, das ich mir auf jeden Fall keinen abbrechen muss, um die Hardware vernünftig aus zu lasten.

Überspitzt ausgedrückt, bei der PS4 fallen dir 80% der Leistung direkt in den Schoß. Bei der XBone sind es nur 50%, dafür sind die letzten 20% bei der PS4 richtig schwer zu bekommen, bei der XBone bekommste die nächsten 40% aber recht einfach, wenn du dich denn überhaupt mal dran machst. Die letzten 10% sind dann wieder gleich schwer.

Und ja, die Zahlen sind jetzt einfach aus den Fingern gesaugt, einfach um klar zu machen, was ich meine :P

Das sieht man ja wie gut die Spiele auf der PS4 aussehen...

just4FunTA
2013-08-29, 21:48:45
Das sieht man ja wie gut die Spiele auf der PS4 aussehen...

Na sehen sie etwa genauso scheisse aus wie Crysis 3 für PC ja? ;D

megachip800
2013-08-29, 21:52:58
megachip800 stehst du unter drogen oder was bewegt dich bloß immer dazu irgendwelchen totalen Blödsinn zu schreiben, allein schon damals beim Crysis 3 Release uns allen erklären zu wollen wie schlecht das Spiel doch aussieht wo wir es alle selber spielen konnten und jeder innerhalb von Bruchteilen einer Sekunde dich als Dummschwätzer entlarvt hat.

Und jetzt wo die Konsolen noch nicht im Laden stehen hast du dich dazu entschieden die Chance zu nutzen und uns durchgehend mit irgendwelcher Fantasiescheisse vollzuspammen oder wie?

Sorry aber wenn ihr euch nur damit hervor tun könnt mich zu beleidigen , keine Argumente
bringt dann ist das einfach nur arm. Zeigt aber welches Niveau dieses Forum hat , einfach null.

Vondaher macht es auch keinen Sinn hier weiter zu diskutieren , wenn es nur darum geht
andere Teilnehmer zu dissen und zu moppen.

00-Schneider
2013-08-29, 21:58:54
Sorry aber wenn ihr euch nur damit hervor tun könnt mich zu beleidigen , keine Argumente
bringt dann ist das einfach nur arm. Zeigt aber welches Niveau dieses Forum hat , einfach null.

Vondaher macht es auch keinen Sinn hier weiter zu diskutieren , wenn es nur darum geht
andere Teilnehmer zu dissen und zu moppen.


Da gebe ich dir recht. Am besten du schreibst hier überhaupt nicht mehr rein. Geh ins Gamestar-Forum, das ist dann auch eher dein Niveau! ;)

dildo4u
2013-08-29, 21:58:56
Hier hast du was Handfestes,Killzone läuft in 1080p mit 60fps,das ist für Launch Titel ziemlich gut.

http://www.multiupload.nl/OFEF2459AQ

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9894754&postcount=138

Normalerweise laufen die Optikkracher auf Konsole mit 30fps.Ryse sieht auch gut aus scheint aber auf 30fps beschränkt.

00-Schneider
2013-08-29, 22:00:42
Hier hast du was Handfestes,Killzone läuft in 1080p mit 60fps,das ist für Launch Titel ziemlich gut.


Naja, 60FPS ist für den MP "geplant". SP also 30 FPS, und "geplant" heißt für mich nicht, dass es 100%ig auch so kommt. ;)

dildo4u
2013-08-29, 22:02:18
Naja, 60FPS ist für den MP "geplant". SP also 30 FPS, und "geplant" heißt für mich nicht, dass es 100%ig auch so kommt. ;)
Daher hab ich das MP Video verlinkt,und KZ sah im MP schon immer fast so gut aus wie im SP.

megachip800
2013-08-29, 22:02:29
Da gebe ich dir recht. Am besten du schreibst hier überhaupt nicht mehr rein. Geh ins Gamestar-Forum, das ist dann auch eher dein Niveau! ;)

Einfach nur arm...

dildo4u
2013-08-29, 22:06:15
Einfach nur arm...
Sau doch mal das Video und sag was dazu.

just4FunTA
2013-08-29, 22:13:45
Sau doch mal das Video und sag was dazu.na hast du ihm nicht zugehört? KZ4 sieht schlecht aus und performt auch schlecht wer wird sich schon mit Fakten auseinandersetzen wollen wenn er sich die Welt so zurechtlügen kann wie sie ihm gefällt. ;D

megachip800
2013-08-29, 22:25:39
na hast du ihm nicht zugehört? KZ4 sieht schlecht aus und performt auch schlecht wer wird sich schon mit Fakten auseinandersetzen wollen wenn er sich die Welt so zurechtlügen kann wie sie ihm gefällt. ;D

Nun laut Digitafoundry betrug die Bildrate im Singleplayermodus 25-30 Bilder/s , schwankende
Bildrate und das fand ich halt nicht so toll , da habe ich mehr erwartet für ein Nextgenspiel. Bei den Texturen ebenso...keine zerstörbare Umgebung...

@dildo4u

Habe ich gesehen , ist ok , trotzdem meine ich das Spiel könnte mal eine Frischzellenkur gebrauchen.

Die Frage ist auch welche Kompromisse man bei beiden Systemen machen muß um konstante 60 Bilder/s zu halten ohne Tearing unsw. Wieviel Luft nach oben ist da noch??

DrMabuse1963
2013-08-29, 22:50:01
Müssen den 60FPS sein ? Im MP will ich sie ( mindestens ) , aber im SP sind 30 ( für mich ) genug , zumindest bei Action Adventure/Shooter , bei Racern sieht es dann wieder anders aus . MfG

DinosaurusRex
2013-08-29, 23:41:38
Viele neue Informationen zur PS4, sogar mit Anwendungsbeispielen:

http://www.vgleaks.com/more-exclusive-playstation-4-huma-implementation-and-memory-enhancements-details/

Und weils so schön ist hier noch ein Bild von Infamous Second Son:

https://pbs.twimg.com/media/BS3Hi3yCUAA_Jo7.jpg:large

PrefoX
2013-08-30, 01:01:22
Müssen den 60FPS sein ? Im MP will ich sie ( mindestens ) , aber im SP sind 30 ( für mich ) genug , zumindest bei Action Adventure/Shooter , bei Racern sieht es dann wieder anders aus . MfG
FPS und Racing Games sind beides High Motion Genres, also auch 60fps nötig.

DrMabuse1963
2013-08-30, 07:03:11
Darf eben nicht " zäh " wirken , aber statt 20-30FPS mehr als nötig zu liefern sollte die Leistung dann aber doch in Eye Candy gesteckt werden ( aber nur bei SP , im MP ist man doch so beschäftigt das man eh nicht so auf die Grafik achtet ) . MfG

Iruwen
2013-08-30, 11:31:01
https://robertsspaceindustries.com/hangar-module
Minimum System Requirements
Windows Vista, Windows 7 or Windows 8
DirectX 11 graphics card with 1GB Video RAM
Quad core CPU
8GB Memory
zefuck... kein Wunder dass das PC exklusiv ist.

ravage
2013-08-30, 11:59:57
Minimum? Die haben es aber vor...

robbitop
2013-08-30, 12:01:18
Liegt die IPC überhaupt über einem A64X2?


Sie liegt über der IPC des K8.

[immy;9897629']wenn das stimmen würde, wäre das ja schon mal was. netterweise haut der sound-chip ja anscheinend schon einen core raus.

Einen Core? :| Sound kostet heute quasi gar nichts. Das sind ein paar Prozent.

Lightning
2013-08-30, 12:34:57
Minimum? Die haben es aber vor...

Naja. Bei angeblichen Systemanforderungen sollte man immer skeptisch sein. Für Far Cry 3 wurden sogar 4 GB als Minimum vorausgesetzt, obwohl auf Konsolen weniger als 256 MB reichen. Kommt natürlich auch auf die Windows-Version an und darauf, was noch so alles im Hintergrund läuft.

DinosaurusRex
2013-08-30, 12:39:17
1GB VRAM sehen dann aber wieder ganz human aus. Damit würde es ja sogar auf einer HD7770 laufen. Hat der nicht gesagt, dass es auf die high-end GPUs in ein bis zei Jahren zugeschnitten wird?

y33H@
2013-08-30, 12:58:42
Ist ja nur der Hangar ohne Deko momentan, die Exe brauch unter 1 GB derzeit.

DinosaurusRex
2013-08-30, 13:01:12
Achso, das ist gar nicht für das Spiel? Dann hab ich das falsch verstanden.

][immy
2013-08-30, 13:30:56
Einen Core? :| Sound kostet heute quasi gar nichts. Das sind ein paar Prozent.
aktuell wird mit software-Sound auch nicht viel erreicht. Aber ich habe mich vielleicht ein wenig falsch ausgedrückt. der sound-chip soll die rechenkraft von einem core besitzen, d.h. bessere sound-Berechnungen schlagen zumindest nicht die cpu runter.
aber ein paar wenige % von einem core sind es wohl nicht bei einem 1,6 GHz Prozessor (oder halt 1,9) wenn das spiel auch durchaus ernst gemeinte Berechnungen anstellt. aber es kommt wohl immernoch stark darauf an, was MS mit diesem sound-chip alles ermöglicht.

prinz_valium
2013-08-30, 13:31:26
Doch, wenn beide die gleiche GPU verwenden, der eine mit mehr Einheiten, der andere mit weniger, kann man das.



aber nur theoretische rohleistung.
bei grafikkarten testes redet auch niemand von 40 bis 50% schneller, nur weil die einheiten und specs das vermuten lassen würden. am ende kommt das niemals 1:1 so raus. und das wird auch bei den konsolen so sein.
deshalb impliziert das wort schneller einfach einen völlig falschen eindruck.
da wäre das wort stärker besser. denn nur weil jemand 50% stärker als der andere ist, ist er noch lange nicht auch 50% schneller beim 100 meter lauf :)



zur sache mit dem programmieraufwand und der einfachheit, wie einem die leistung in den schoß fällt.
die sache ist doch die:

alle sind sich einig, dass die ps4 im grunde am einfachsten zu programmieren ist.
allerdings ist der unterschied zwischen ps 3 und ps4 am größten. ergo hat man keine große erfahrung, und muss selbst das einfachere erstmal kennen und optimieren lernen.

der unterschied zwischen der xb360 und xbo ist viel geringer. hier hat man erfarhungen von der vorgänger version, auf die man aufbauen kann.

außerdem hatten wir in der letzen generation folgenden status quo
die ps3 war schwer zu optimieren und das letze bisschen leistung rauszuholen
bei der xb360 war es leicht/er
nun ist es bei xbo immernoch noch genauso/ähnlich leicht, wie bei seinem vorgänger und man kann zustäzlich auf den großen erfarhungsschatz zurück greifen.


die zahlen von skysnake erkären den sachverhalt auch ziemlich gut.

Überspitzt ausgedrückt, bei der PS4 fallen dir 80% der Leistung direkt in den Schoß. Bei der XBone sind es nur 50%, dafür sind die letzten 20% bei der PS4 richtig schwer zu bekommen, bei der XBone bekommste die nächsten 40% aber recht einfach, wenn du dich denn überhaupt mal dran machst. Die letzten 10% sind dann wieder gleich schwer.

Und ja, die Zahlen sind jetzt einfach aus den Fingern gesaugt, einfach um klar zu machen, was ich meine :P
von daher ist die xbo nicht so schlecht aufgestellt. man hat sich halt deutlich am vorgänger orientiert. bei der ps4 gibt es ein komplett anderes modell, das eher einem pc, als der vorgängerkonsole gleicht :)

Ephiriel
2013-08-30, 13:48:52
denn nur weil jemand 50% stärker als der andere ist, ist er noch lange nicht auch 50% schneller beim 100 meter lauf :)

Einen Gewichteheber schickt man auch nicht in den 100m-Lauf, der soll Gewichteheben :P und da schafft ein 50% stärkerer mehr Gewicht.

Lightning
2013-08-30, 14:11:01
aber nur theoretische rohleistung.
bei grafikkarten testes redet auch niemand von 40 bis 50% schneller, nur weil die einheiten und specs das vermuten lassen würden. am ende kommt das niemals 1:1 so raus. und das wird auch bei den konsolen so sein.

Doch, wenn man im GPU-Limit ist kommt das in der Regel 1:1 raus. Und das ist auch bei Grafikkarten-Tests so. Schau dir doch beispielsweise hier mal den Unterschied zwischen der Radeon 7850 und der Radeon 7770 an: http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/


zur sache mit dem programmieraufwand und der einfachheit, wie einem die leistung in den schoß fällt.
die sache ist doch die:

alle sind sich einig, dass die ps4 im grunde am einfachsten zu programmieren ist.
allerdings ist der unterschied zwischen ps 3 und ps4 am größten. ergo hat man keine große erfahrung, und muss selbst das einfachere erstmal kennen und optimieren lernen.

der unterschied zwischen der xb360 und xbo ist viel geringer. hier hat man erfarhungen von der vorgänger version, auf die man aufbauen kann.


Die Entwickler der ganzen Multiplattformtitel haben Erfahrung mit eben allen Plattformen, da gibt es keine größere Umgewöhnung. Und ob die First Party-Entwickler ein Problem damit haben, auf einer anderen als der PS3-Architektur zu entwickeln, sei auch mal dahingestellt; das ist kein Sprung mehr wie damals von Single- auf Multithreading. Und sich keine Gedanken mehr über die Cell-Eigenheiten mehr machen zu müssen, macht die Sache bestimmt auch nicht komplizierter.

prinz_valium
2013-08-30, 14:42:15
Einen Gewichteheber schickt man auch nicht in den 100m-Lauf, der soll Gewichteheben :P und da schafft ein 50% stärkerer mehr Gewicht.


mehr ja, aber schafft ein 50% stärkerer gewichtheber auch 50% mehr gewicht? :P

man könnte ja argumentieren, dass er es ja muss, weil er sonst laut defintion nicht 50% stärker sein kann. und genau deswegen ist die aussage, dass die ps 4 50% schneller als die xbo ist, eben so deplaziert.

Ephiriel
2013-08-30, 14:44:13
mehr ja, aber schafft ein 50% stärkerer gewichtheber auch 50% mehr gewicht? :P

man könnte ja argumentieren, dass er es ja muss, weil er sonst laut defintion nicht 50% stärker sein kann. und genau deswegen ist die aussage, dass die ps 4 50% schneller als die xbo ist, eben so deplaziert.
Hihi, da könnt man dann sagen, 50% mehr Muskelumfang != 50% mehr Gewicht, das würd besser passen :biggrin:

dargo
2013-08-30, 14:49:11
Naja. Bei angeblichen Systemanforderungen sollte man immer skeptisch sein. Für Far Cry 3 wurden sogar 4 GB als Minimum vorausgesetzt, obwohl auf Konsolen weniger als 256 MB reichen.
Weil Farcry 3 1:1 portiert wurde. :facepalm: Zudem hat FC3 als Voraussetzung 2GB Ram!

prinz_valium
2013-08-30, 14:49:19
Hihi, da könnt man dann sagen, 50% mehr Muskelumfang != 50% mehr Gewicht, das würd besser passen :biggrin:


jap und deswegen passen aussagen, wie 40 bis 50% mehr rohleistung besser, als "schneller" das ist nämlich das, was am ende als resultat herauskommen soll. und es muss von irgendeiner größe ja bestimmt werden. und man kann doch nicht das ergebniss mit der selben einheit wie der ausgangslage definieren.


wir driften vom thema ab.

john carmack
2013-08-30, 15:01:28
Hi Leute,

konnte mir bis jetzt noch keinen NextGen Titel live ansehen und ich wollte euch fragen ob denn nun endlich schluß mit diesem Pixel/Textur Matsch ist?!?!?

Soetwas will ich eigentlich nicht mehr sehen:
http://images.gamestar.de/images/idgwpgsgp/bdb/2364136/944x531.jpg

Und warum sieht nicht alles so schön aus wie das Gewehr oder die Hand?

Air Force One
2013-08-30, 15:09:06
Warum schaut die Wand denn so mistig aus?
UT 2004 hatte doch z.B eine Textur Technik die, je näher man am Objekt war, um so schärfer/besser wurde diese.
Sah also eig. immer gut aus.

Lightning
2013-08-30, 15:46:43
Weil Farcry 3 1:1 portiert wurde.

Wo habe ich das behauptet?
Dennoch wird sich Far Cry 3 auf dem PC mit minimalen Details nicht so erheblich von der PS3-Version unterscheiden. Das Beispiel sollte lediglich zeigen, dass man auf Systemanforderungen der Hersteller lieber nichts geben, und Praxistests vorziehen sollte.

Zudem hat FC3 als Voraussetzung 2GB Ram!

Ich hatte die Information von PCGames: http://www.pcgames.de/Far-Cry-3-PC-217540/News/Far-Cry-3-Systemanforderungen-und-Infos-zum-Kopierschutz-1026650/

mironicus
2013-08-30, 16:21:25
Wenn Leute jetzt schon anfangen zu mäkeln, dass die Technik der Konsolen nicht ausreicht für 1080P-Grafik, sollte man doch gleich beim PC bleiben.

Wenn es in Zukunft vermehrt Multi-Titel (inkl. PC) gibt, kann man sich eigentlich die Anschaffung einer neuen Konsole gänzlich ersparen.

Vielleicht programmiert ja mal jemand eine GUI damit man Spiele auf dem PC mit dem Joypad starten kann... :D

DinosaurusRex
2013-08-30, 16:24:27
http://static.giantbomb.com/uploads/original/2/24814/2537513-p45end.jpg

Es gibt eine neue Aussage von AMD:

People often compare the hardware of the next-gen consoles and the PC, compare specs on paper, and conclude that these consoles must be “PCs in a box.” That is patently untrue. While there are many commonalities, there were platform architecture decisions made for the consoles that set them apart from the PC in a significant way: how developers access the hardware, the Xbox One’s ESRAM, and the PlayStation 4’s UMA are all powerful examples of such decisions.


Scheint so als würde AMD trennen zwischen der Xbox und der Sony Lösung. Aber warum sagt er jetzt UMA und nicht hUMA? Ist das was anderes? Ich blick da überhaupt nicht mehr durch... ;(

Hier gibts das volle Interview:

The Big Interview: AMD On PS4/Xbox One, Graphics Technologies, PC Gaming And More (http://gamingbolt.com/the-big-interview-amd-on-ps4xbox-one-graphics-technologies-pc-gaming-and-more)

Skysnake
2013-08-30, 16:42:13
ja, das ist was anderes,

wobei es eigentlich hUMA <-> NUMA heisen sollte.

dargo
2013-08-30, 16:48:10
Dennoch wird sich Far Cry 3 auf dem PC mit minimalen Details nicht so erheblich von der PS3-Version unterscheiden. Das Beispiel sollte lediglich zeigen, dass man auf Systemanforderungen der Hersteller lieber nichts geben, und Praxistests vorziehen sollte.

Woher weißt du das? Zudem sollte es wohl klar sein, dass am PC etwas mehr RAM nötig ist wenn das OS schon 1-1,5GB veranschlagt. Die Zeiten mit dem mickrigen OS bei Konsolen ist Ende diesen Jahres aber eh vorbei.


Ich hatte die Information von PCGames: http://www.pcgames.de/Far-Cry-3-PC-217540/News/Far-Cry-3-Systemanforderungen-und-Infos-zum-Kopierschutz-1026650/
Hier steht was anderes.
http://www.gamestar.de/spiele/far-cry-3/artikel/far_cry_3_im_technik_check,45692,3006886.html

Hübie
2013-08-30, 16:50:43
N... ? Wofür das N? :|

DinosaurusRex
2013-08-30, 16:52:12
ja, das ist was anderes,

wobei es eigentlich hUMA <-> NUMA heisen sollte.

Aber NUMA ist doch der genaue Gegensatz zu UMA, oder nicht? Und er sagt nicht hUMA oder NUMA, sondern UMA! Wenn er NUMA meint und UMA sagt, dann ist seine Aussage doch totaler Käse, oder? :confused:

Mittlerweile verstehe ich auch, warum Mark Cerny einfach nur von einem "unified RAM" gesprochen hat.

Lightning
2013-08-30, 17:08:01
Woher weißt du das?

Ich nehme es stark an, weil sich in den meisten Spielen der Detailgrad auf Konsolenniveau runterregeln lässt.

Zudem sollte es wohl klar sein, dass am PC etwas mehr RAM nötig ist wenn das OS schon 1-1,5GB veranschlagt.

Natürlich ist das klar. :| Ich verstehe aber mal wieder nicht, was das mit meiner Aussage bezüglich der Aussagekraft von Systemanforderungen zu tun hat.

StefanV
2013-08-30, 17:10:53
Wenn Leute jetzt schon anfangen zu mäkeln, dass die Technik der Konsolen nicht ausreicht für 1080P-Grafik, sollte man doch gleich beim PC bleiben.
DAs Problem ist, dass die ganzen wirklich interessanten Titel (JRPGs) gar nicht auf dem PC erscheinen werden, warum auch immer.

Wenn sie das tun würden, gäbe es für einige auch keinen Grund mehr 'ne Konsole zu kaufen. Aber die gibbet halt.

Skysnake
2013-08-30, 17:35:36
Aber NUMA ist doch der genaue Gegensatz zu UMA, oder nicht? Und er sagt nicht hUMA oder NUMA, sondern UMA! Wenn er NUMA meint und UMA sagt, dann ist seine Aussage doch totaler Käse, oder? :confused:

Mittlerweile verstehe ich auch, warum Mark Cerny einfach nur von einem "unified RAM" gesprochen hat.
Das ist eigentlich ganz "einfach". Die Tücke steckt nur wie immer halt im Detail ;)

Bei (N)UMA betrachtet man normal nur die CPU, und eben den Speicher, also den Mainmemory, also RAM.

hUMA betrachtet, aber eben nicht nur die CPU, sondern auch die iGPU, und da eben nicht nur zwingend den RAM, sondern den gesamten Speicher, also auch Caches, weil die Cohärenz ein wichtiger Punkt dabei ist.

Bei der XBone hat man jetzt aber den SRAM, der eben für CPU und iGPU nicht gleich angesprochen werden kann. Deswegen ist es kein hUMA. UMA ist es an sich, wenn man auf die ursprüngliche Definition von (N)UMA zurück geht. Wenn man aber (N)UMA im Sinne von hUMA interpretiert, dann wäre es halt (h)NUMA ;D

Wie gesagt, die Tücke steckt im Detail, wie wo wann welche Sache wie genau definiert ist.

hUMA ist halt ein bischen Marketingbuzzword, welches sich aber schon von (N)UMA unterscheidet, wegen der iGPU.

DinosaurusRex
2013-08-30, 18:10:49
Also mal sehen ob ich das jetzt verstanden habe:

NUMA ist zum Beispiel wenn ich eine Dual-CPU Workstation habe mit getrennten Speicherbereichen aber mit einem gemeinsamen Adressraum

UMA ist wenn ich eine Dual-CPU Workstation habe mit einem gemeinsamen Speicherbeich und einem gemeinsamen Adressraum

hNUMA ist wenn die Xbox One getrennte Speicherbereiche hat (DDR3+SRAM) aber einen gemeinsamen Adressraum für CPU und GPU (heterogen)

hUMA ist wenn ich in der PS4 einen gemeinsamen Speicherbereich (GDDR5) und einen gemeinsamen Adressraum für CPU und GPU habe

:confused:

del_4901
2013-08-30, 18:19:51
Das ist eigentlich ganz "einfach". Die Tücke steckt nur wie immer halt im Detail ;)

Bei (N)UMA betrachtet man normal nur die CPU, und eben den Speicher, also den Mainmemory, also RAM.

hUMA betrachtet, aber eben nicht nur die CPU, sondern auch die iGPU, und da eben nicht nur zwingend den RAM, sondern den gesamten Speicher, also auch Caches, weil die Cohärenz ein wichtiger Punkt dabei ist.

Bei der XBone hat man jetzt aber den SRAM, der eben für CPU und iGPU nicht gleich angesprochen werden kann. Deswegen ist es kein hUMA. UMA ist es an sich, wenn man auf die ursprüngliche Definition von (N)UMA zurück geht. Wenn man aber (N)UMA im Sinne von hUMA interpretiert, dann wäre es halt (h)NUMA ;D

Wie gesagt, die Tücke steckt im Detail, wie wo wann welche Sache wie genau definiert ist.

hUMA ist halt ein bischen Marketingbuzzword, welches sich aber schon von (N)UMA unterscheidet, wegen der iGPU. Alles falsch: UMA bedeutet einfach, dass man einen gemeinsamen Speicherpool hat. hUMA bedeutet nur das dieser Speicherpool auch cache coherent ist. Und NUMA bedeutet, dass es strikt getrennte Speicherpools gibt. ccNUMA bedeutet wenn die Speicherpools auch cache coherent sind. Das hat mit dem eSRAM nichts zu tun, das hast du dir nur ausgedacht.

DinosaurusRex
2013-08-30, 18:28:50
Also ist Uniform Memory Access und Unified Memory Architecture dasselbe? Aber hätte die Xbox360 dann nicht auch schon sowas wie hUMA? AMD schreibt sich immerhin auf die Fahne, als erstes Uniform Memory Access für heterogene System ermöglicht zu haben.

Moment, meinst du mit "gemeinsam" jetzt logisch oder physikalisch?

Locuza
2013-08-30, 18:54:12
Also ist Uniform Memory Access und Unified Memory Architecture dasselbe? Aber hätte die Xbox360 dann nicht auch schon sowas wie hUMA? AMD schreibt sich immerhin auf die Fahne, als erstes Uniform Memory Access für heterogene System ermöglicht zu haben.

Moment, meinst du mit "gemeinsam" jetzt logisch oder physikalisch?
Wenn Unified Memory Architecture bedeutet, dass man nur einen gemeinsamen physikalischen Speicher braucht dann nicht, UMA wurde ja der Xbox 360 öfters nachgesagt, aber logisch wird da getrennt.
Erst ab AMDs "hUMA" soll es ja auch einen gemeinsamen Adressraum mit Uniform Memory Access geben .

Lightning
2013-08-30, 18:55:27
Moment, meinst du mit "gemeinsam" jetzt logisch oder physikalisch?

Physikalisch. Und die 360 hatte eben "nur" UMA. Physikalisch wird der gleiche Speicher genutzt, aber effektiv arbeiten CPU und GPU auf getrennten Bereichen innerhalb des Speichers; will man eine Zusammenarbeit, müssen Daten vom einen in den anderen Bereich kopiert werden (soweit mein Verständnis). Der Vorteil dabei ist immerhin, dass man die Aufteilung des Speichers flexibel gestalten kann und nicht wie bspw. bei der PS3 fixe 256 MB für die CPU und 256 MB als VRAM hat.

del_4901
2013-08-30, 19:19:18
Moment, meinst du mit "gemeinsam" jetzt logisch oder physikalisch?
Das hat erstmal mit Physikalisch vs. Logisch gar nichts zu tun, aber es bezieht sich eher auf das Physikalische.
Wenn Unified Memory Architecture bedeutet, dass man nur einen gemeinsamen physikalischen Speicher braucht dann nicht, UMA wurde ja der Xbox 360 öfters nachgesagt, aber logisch wird da getrennt.
Erst ab AMDs "hUMA" soll es ja auch einen gemeinsamen Adressraum mit Uniform Memory Access geben .
Man kann auch UMA mit/ohne cache coherence ohne einen gemeinsamen Adressraum haben. Man mappt dann einfach einen pysikalischen Frame auf mehrere logische Seiten. Nur andersrum ist bloed. (@Coda probier ma, da passieren sonderbare Dinge) Dann muss man halt in der Applikation umrechnen, ansonsten spaart man nur die Umrechnung oder den extra Pointer.
Physikalisch wird der gleiche Speicher genutzt, aber effektiv arbeiten CPU und GPU auf getrennten Bereichen innerhalb des Speichers.Man koennte hier auch doppelt mappen, aber es waehre eben nicht cache coherent, mit all seinen Nachteilen: Das einzige was man dann naemlich machen kann ist ein kompletter flush des caches.

DinosaurusRex
2013-08-30, 19:19:24
Und die PS4 hat hUMA (oder UMA?) weil man da jetzt im Gegensatz zur Xbox360 auch so einen 128MB Shared Bereich haben kann?

http://jump-button.com/wp-content/uploads/2013/05/killzone-shadow-fall-tech-presentation-3.jpg

Und wie ist das bei der Xbox One?

Locuza
2013-08-30, 19:28:32
[...]
Mal so selber deine Meinung als Entwickler, bist du der Meinung das ist der nächste größte Step und freust dich auf die Möglichkeiten oder findest du das nur "nett"?
Die Vorteile lesen sich für einen Laien sehr groß, aber man will auch nicht overhypen.

M4xw0lf
2013-08-30, 19:32:21
Und die PS4 hat hUMA (oder UMA?) weil man da jetzt im Gegensatz zur Xbox360 auch so einen 128MB Shared Bereich haben kann?

http://jump-button.com/wp-content/uploads/2013/05/killzone-shadow-fall-tech-presentation-3.jpg

Und wie ist das bei der Xbox One?

Eigentlich sollte da dann ja alles "shared" sein, da GPU und CPU auf alles zugreifen können was da so rumliegt. Dachte ich als Komplettnoob.
Mich würde auch die professionelle Meinung von den Herren Codegöttern hier sehr interessieren, wie viel Potential seht ihr in der Sache?

DinosaurusRex
2013-08-30, 19:40:45
Der Shared RAM in Killzone sieht übrigens so aus (falls es jemanden interessiert):

Shared Memory (CPU/GPU - 128MB)
Display list (2x): 64MB
GPU Scratch: 32MB
Streaming Pool: 18MB
CPU Scratch: 12MB
Queries/Labels: 2MB

Ich finde dazu leider kein Bild mehr das ich verlinken könnte.

Windi
2013-08-30, 19:57:53
Kann man nicht einfach sagen:
GPU mach die Aufgabe, die bei Adresse XX steht und benutze dafür die Daten von Adresse YY, die beide aus meinen Speicherpool kommen.
Und wenn du damit fertig bist, schreibe eine Bestätigung in das Register ZZ mit der neuen Adresse aus deinem Bereich, wo jetzt das Ergebnis steht.


Geht das nicht auch, oder brauch man unbedingt Coherence?

DinosaurusRex
2013-08-30, 19:59:35
Also, wenn ich mir da jetzt was zusammenreime und zwischen den Zeilen lese, dann haben weder PS4, noch Xbox One einen gemeinsamen Adressraum für CPU und GPU, aber dafür Cache Koheränz (Onion). Darüberhinaus hat die PS4 noch die Möglichkeit, einen Cache Bypass zu machen (Onion+), während die Xbox One dafür den GPU Cache komplett leeren muss. Das heißt beide können theoretisch das was hUMA kann, nur mit ein klein wenig mehr Aufwand.

Ist vielleicht eh alles falsch, ich bin jetzt offline. Schönen Abend noch.

Skysnake
2013-08-30, 20:05:29
Alles falsch: UMA bedeutet einfach, dass man einen gemeinsamen Speicherpool hat.
Nein, das muss kein gemeinsammer Speicherpool sein, man muss nur auf allen Speicher gleichförmig zugreifen können.

Die per Network angebundenen Speicherarchitekturen waren dafür ja nen Beispiel. Man hatte nen fetten Speicherpool mit Crossbar davor, der dann zu den CPUs die verbdinung herstellte, und zwar zu allen CPUs gleichartig.

Das ist ja entscheidende bei (N)UMA. Greifen die unterschiedlichen Prozessoren auf den gesamtne SPeicher gleichartig zu, oder gibt es Unterschiede in den LAtenzen usw.


hUMA bedeutet nur das dieser Speicherpool auch cache coherent ist.

ja, die cohärenz ist bei hUMA schon inbegriffen, deswegen sollte es eigentlich auch hccUMA heisen, wenn man es ganz genau nimmt...:freak:


Und NUMA bedeutet, dass es strikt getrennte Speicherpools gibt.

"strikt" ist da gar nichts zwigend, auch wenns am Ende darauf hinauslaufen wird. Du kannst NUMA aber auch über einen gemeinsammen Adressraum haben. Ist dann halt distributed shared Memory.


ccNUMA bedeutet wenn die Speicherpools auch cache coherent sind. Das hat mit dem eSRAM nichts zu tun, das hast du dir nur ausgedacht.
Der eSRAM ist halt son blödes Anhängsel. Wie willst du das einsortieren?

Cachecohärent ist es nicht, klassischer Speicher ist es aber auch nicht, usw usw...

Die klassischen Eintelungen greifen hier einfach ziemlich schlecht. Deswegen auch das rumgeeiere von AMD dazu. Da sollte man einfach gar nicht zu viel drauf geben...:cool:

del_4901
2013-08-30, 21:34:30
@Skysnake du schmeisst da Sachen durcheinander: gemeinsamer Addressraum ist kein Merkmal von (h)UMA oder NUMA.

][immy
2013-08-30, 22:11:56
@Skysnake du schmeisst da Sachen durcheinander: gemeinsamer Addressraum ist kein Merkmal von (h)UMA oder NUMA.
naja, sagen wir mal so. der speicher kann zwischen gpu und cpu lustig ausgetauscht werden, ohne zu kopieren (egal in welchem speicherbereich man sich befindet). bei UMA ist das nicht möglich. und so wie es aussieht ist es bei der PS4 (laut der Folie) nur in einem begrenzten Bereich möglich.

Skysnake
2013-08-30, 22:33:18
@Skysnake du schmeisst da Sachen durcheinander: gemeinsamer Addressraum ist kein Merkmal von (h)UMA oder NUMA.

von hUMA schon, zumindest nennt AMD immer die gemeinsammen Adressräume genau wie cohärenz in Zusammenhang mit hUMA, von (N)UMA nicht. Das habe ich aber auch nicht behauptet :ugly:

Ich frag mich wo du das liest. Ich hab gesagt,es geht AUCH ohne gemeinsammen Adressraum -> der Adressraum spielt keine Rolle für die Unterscheidung ob (N)UMA oder nicht.

megachip800
2013-08-31, 08:54:27
Die PS4 ist halt extrem einfach gehalten vom Speichermanagment. Das ist fire and forget. Da gibts eigentlich nichts wirklich spezielles zu beachten.

Bei der XBone sieht das schon ganz anders aus. Da muss man sich erstmal hinsetzen, und wirklich überlegen, wie man das vernünftig angeht, um die Vorteile der Hardware auch wirklich aus zu nutzen. Das machts einfach komplizierter.

Wenn ich mich ganz spontan zwischen PS4 und XBone entscheiden müsste, würde ich die PS4 nehmen, selbst wenn ich am Ende langsamer sein sollte, wieder erwarten. Ich wüsste, das ich mir auf jeden Fall keinen abbrechen muss, um die Hardware vernünftig aus zu lasten.

Überspitzt ausgedrückt, bei der PS4 fallen dir 80% der Leistung direkt in den Schoß. Bei der XBone sind es nur 50%, dafür sind die letzten 20% bei der PS4 richtig schwer zu bekommen, bei der XBone bekommste die nächsten 40% aber recht einfach, wenn du dich denn überhaupt mal dran machst. Die letzten 10% sind dann wieder gleich schwer.

Und ja, die Zahlen sind jetzt einfach aus den Fingern gesaugt, einfach um klar zu machen, was ich meine :P

Nur weil sie ein einfacheres Speichermanagement hat bedeutet das nicht das sie automatisch besser performt.
Entscheident ist doch auch wie die Daten innerhalb der Apu/Gpu verarbeitet werden. Ich kann daher dein
Optimismus nicht teilen das die Spieleentwickler bei der Ps4 nicht viel zu beachten haben , im Hinblick auf
die mäßige Performance der bisher gezeigte Ps4 Software , scheint einiges noch nicht so klar zu sein. Es kann
natürlich sein das zum Ende des Konsolenzyklus es auf der Ps4 Spiele gibt die besser aussehen als auf der Xbone aber wer kauft schon ein Produkt auf zukünftige , nicht erreichbare Features? Und die Frage ob ein
Spielesystem schwer zu programmieren ist oder nicht ist für mich als Endkunde irrrelevant , um nicht zu
sagen "schnuppe" , entscheident ist das fertige Produkt und das was hinten rauskommt und da schneidet die
Xbone derzeit besser ab.

gnomi
2013-08-31, 09:20:46
Lass die Konsolen doch erst einmal herauskommen. :rolleyes:
Aktuell ist noch völlig unklar, ob Killzone, Infamous und Drive Club auf der einen, oder Ryse, Forza 5 und Killer Instinct auf der anderen Seite den besseren Eindruck machen.

Was das Potenzial angeht, sehen aber diesmal fast durchgängig alle die PS4 vorne.
Die Roh Power scheint höher, die Entwicklungsumgebung einfacher.
Aussagen von Microsoft, dass ihre Hardware ebenso leistungsfähig wäre, gab es diesmal auch nicht...

Skysnake
2013-08-31, 09:44:10
Nur weil sie ein einfacheres Speichermanagement hat bedeutet das nicht das sie automatisch besser performt.
Entscheident ist doch auch wie die Daten innerhalb der Apu/Gpu verarbeitet werden. Ich kann daher dein
Optimismus nicht teilen das die Spieleentwickler bei der Ps4 nicht viel zu beachten haben , im Hinblick auf
die mäßige Performance der bisher gezeigte Ps4 Software , scheint einiges noch nicht so klar zu sein. Es kann
natürlich sein das zum Ende des Konsolenzyklus es auf der Ps4 Spiele gibt die besser aussehen als auf der Xbone aber wer kauft schon ein Produkt auf zukünftige , nicht erreichbare Features? Und die Frage ob ein
Spielesystem schwer zu programmieren ist oder nicht ist für mich als Endkunde irrrelevant , um nicht zu
sagen "schnuppe" , entscheident ist das fertige Produkt und das was hinten rauskommt und da schneidet die
Xbone derzeit besser ab.
Wenn die Entwickler sich abr nicht erst einen abbrechen müssen, um überhaupt irgendwas auf den Bildschirm zu bekommen, hast du als Endkunde auch was davon, weil die Entwickler dann mutiger sind auch mal ausgefallene Konzepte aus zu probieren, und auch mehr Zeit für Content übrig bleibt...

Du hast indirekt also sehr wohl was davon. Das Budget bleibt ja gleich, egal wie schwierig die Hardware zu programmieren ist.

dildo4u
2013-08-31, 11:15:52
Technisch interessanter Download Launch Titel.

Resogu 60fps Video Game selber läuft in 1080p das Video nur 720p

https://mega.co.nz/#!9NpD2AwZ!EldCilyHgZilU5HGgWvxFS8Y7O49sClKqfuznsZYyYE


http://www.eurogamer.net/articles/digitalfoundry-vs-resogun

Interessante Tech Voxelcubes deren Physik,Geometrie auf der GPU berechnet wird.

http://a.pomf.se/3Pe9.gif

Herr Doktor Klöbner
2013-08-31, 11:23:34
Wobei man auch mal sehen muß, die letzte Konsole die zum Launch einen echten Knaller als Pflichtkauf Titel hatte war der N64 mit Super Mario 64.

Bei der PS 3 hat es ewig gedauert und auch die Starttitel der XBox 360 waren technisch wie spielerisch durchweg nicht interessant. Ich denke vor Ende 2014 wird es keine Titel geben die den Kauf einer der beiden Konsolen rechtfertigen, die Multiplattformtitel stemmt auch noch der PC und die Exklusivtitel werden den Kauf nicht wert sein.

Finch
2013-08-31, 12:37:05
And thats just your opinion man ;)


Ich denke bei Forza, KI, killzone, infamous, Titanfall und Ryse sehen das viele anders.

Für mich war nur der Dreamcast Launch besser. Beim N64 war für mich auch nur Mario 64 ein Knaller.

dargo
2013-08-31, 12:44:46
Ich denke bei Forza, KI, killzone, infamous, Titanfall und Ryse sehen das viele anders.

Kannst streichen, kommt für PC.

Watson007
2013-08-31, 12:45:55
Kannst streichen, kommt für PC.

Und? Wieviele der potenziellen Konsolen-Käufer haben schon einen PC der das zum Konsolenstart flüssig abspielen können wird?

dargo
2013-08-31, 12:47:30
Lol... als ob gerade Titanfall hohe Hardwareanforderungen hätte wenn das schon auf Konsole mit 60fps läuft. :tongue: Zudem ist es mehr als offensichtlich, dass Finch hier Exklusives meint. Und was mir bei seinen Post gerade auffällt... die aufgezählten Exklusives erfordern beide Konsolen, ergo ~900€ nur für Hardware. Das tun sich eh nur die wenigen Freaks an.

M4xw0lf
2013-08-31, 12:58:55
Technisch interessanter Download Launch Titel.

Resogu 60fps Video Game selber läuft in 1080p das Video nur 720p

https://mega.co.nz/#!9NpD2AwZ!EldCilyHgZilU5HGgWvxFS8Y7O49sClKqfuznsZYyYE


http://www.eurogamer.net/articles/digitalfoundry-vs-resogun

Interessante Tech Voxelcubes deren Physik,Geometrie auf der GPU berechnet wird.

http://a.pomf.se/3Pe9.gif

Physx kann sich warm anziehen ;)

Finch
2013-08-31, 12:59:50
Och Dargo mach dich nicht lächerlich. Es gibt genug Leute die gar nicht die Lust haben sich einen PC zum zocken zu kaufen. Und ein PC der deine anforderungen hat. Liegt auch nicht weit von 900€ entfernt.

Ich habe mich übrigens in meiner Auswahl einfach an beide Gruppen gerichtet. Nicht das jeder alles haben muss ;)

dargo
2013-08-31, 13:04:55
Och Dargo mach dich nicht lächerlich. Es gibt genug Leute die gar nicht die Lust haben sich einen PC zum zocken zu kaufen. Und ein PC der deine anforderungen hat. Liegt auch nicht weit von 900€ entfernt.

Ich habe mich übrigens in meiner Auswahl einfach an beide Gruppen gerichtet. Nicht das jeder alles haben muss ;)
Hast du den Zusammenhang überhaupt verstanden? Du hast auf den Post von Herr Doktor Klöbner reagiert. Und ich habe dir gesagt, dass du Titanfall von der Liste nehmen kannst. Natürlich gibt es Leute die sich keinen PC anschaffen wollen, da sagst du mir jetzt nichts Neues. Darum gings im Zusammenhang gar nicht. Der bestehende PC stemmt es noch, das war die Kernaussage.

Finch
2013-08-31, 14:49:17
Hast du den Zusammenhang überhaupt verstanden? Du hast auf den Post von Herr Doktor Klöbner reagiert. Und ich habe dir gesagt, dass du Titanfall von der Liste nehmen kannst. Natürlich gibt es Leute die sich keinen PC anschaffen wollen, da sagst du mir jetzt nichts Neues. Darum gings im Zusammenhang gar nicht. Der bestehende PC stemmt es noch, das war die Kernaussage.


Du hast mich nicht verstanden. Titanfall bleibt erstmal ein exclusive auf der Xbox one (next Gen Platform) und ich. Bezog mich auf deine 900€. Der PC hat hier nichts zu suchen. Das ist eine andere Baustelle.

Iruwen
2013-08-31, 16:40:09
Du hast auf Herr Doktor Klöbnern Beitrag geantwortet der PCs erwähnte, woraufhin dargo korrekterweise anmerkte dass Titanfall auch für den PC kommt. Jetzt hat der PC hier plötzlich nichts zu suchen weil es dir die Argumentation versaut? Les lieber nochmal nach.

Iterator
2013-08-31, 17:13:48
Entscheident ist das fertige Produkt und das was hinten rauskommt und da schneidet die
Xbone derzeit besser ab.

Hast Du eine Möglichkeit diese Aussage zu untermauern ?
Sprich bist Du Entwickler, das Du aus Erfahrung Sprechen kannst, wie sich beide Systeme unter Realen Entwicklungsprozessen verhalten ?

Akkarin
2013-08-31, 17:14:44
Titanfall kommt doch auch für die 360 ? InFamous ist auch eher weniger ein launch titel.

dargo
2013-08-31, 17:24:31
Titanfall kommt doch auch für die 360 ?
So ist es.
http://www.titanfall.com/de/game-info

megachip800
2013-08-31, 17:56:43
Hast Du eine Möglichkeit diese Aussage zu untermauern ?
Sprich bist Du Entwickler, das Du aus Erfahrung Sprechen kannst, wie sich beide Systeme unter Realen Entwicklungsprozessen verhalten ?

Ich beurteile das jetzt aus dem bisher gesehenen Material , Meinungen von Leuten die auf den letzten Messen
beide Systeme vergleichen konnten , schaue mir die Hardwaredaten an und mache mir eine Meinung dazu.
Lese auch gerne die anderen Foren wie Beyond3d, Neogaf etc. Keiner wird leugnen das Forza5 besser aussieht als Driveclub ,
und das hat nichts mit Fanboygehabe zu tun und das ist für mich auch keine Glaubensfrage. Ich beurteile die Systeme von ihrem
jetzigen Zustand aus, wie das in 3 Jahren aussehen wird , steht auf einem anderem Blatt. Meiner Meinung nach ist die Xbox One besser ausbalanciert während die
Ps4 zwar flexible zu programmieren ist aber mehr Handarbeit beim coden erfordert , die ständigen Bildeinbrüche bei Driveclub und Knack müssen eine Ursache haben
entweder Softwareseitig oder irgendwelche Pferdefüße in der Hardwarearchitektur. Dagegen fand ich Forza und Ryse schon technisch ausgereifter , oder war die
Hardware der Xbone schon viel früher fertig als die der PS4 und man hatte mehr Zeit für die Spieleentwicklung ? Ich finde auch das die PS4 zu sehr overhyped ist
während die Xbone zu unrecht überall niedergemacht wird. Auch denke ich das Microsoft finanziell besser aufgestellt ist als Sony um große Blockbuster
an Land zu ziehen. Knackpunkt bei beiden Systemen wird auch das Multitasking OS sein , die Prozesse die im Hintergrund laufen und inwieweit das alles
die Spieleperformance beeinflusst.

w0mbat
2013-08-31, 18:01:23
Du hast mich nicht verstanden. Titanfall bleibt erstmal ein exclusive auf der Xbox one (next Gen Platform) und ich. Bezog mich auf deine 900€. Der PC hat hier nichts zu suchen. Das ist eine andere Baustelle.

Blöd das schon gesagt wurde, dass man nach einem guten X1 Launch die PS4 ins Auge nehmen wird.

dargo
2013-08-31, 18:58:15
Knackpunkt bei beiden Systemen wird auch das Multitasking OS sein , die Prozesse die im Hintergrund laufen und inwieweit das alles die Spieleperformance beeinflusst.
Inwiefern soll das ein Problem darstellen wenn es quasi vom Spielgeschehen entkoppelt passiert? Ich sehe da keine Schwierigkeiten.

xxxgamerxxx
2013-08-31, 18:59:37
Bei der PS 3 hat es ewig gedauert und auch die Starttitel der XBox 360 waren technisch wie spielerisch durchweg nicht interessant.

PGR3 war doch technisch sehr überzeugend. GRAW kam zwar ein paar Monate später, aber die GRAW Reihe fand ich auch durchweg top.

just4FunTA
2013-08-31, 19:00:23
Inwiefern soll das ein Problem darstellen wenn es quasi vom Spielgeschehen entkoppelt passiert? Ich sehe da keine Schwierigkeiten.

das zeigt halt was für einen Tiefen Einblick er in die Materie hat deshalb müssen wir natürlich alles von seinem Fachwissen nur so in uns aufsaugen. ;D

MarcWessels
2013-08-31, 19:01:55
Wobei man auch mal sehen muß, die letzte Konsole die zum Launch einen echten Knaller als Pflichtkauf Titel hatte war der N64 mit Super Mario 64.

Bei der PS 3 hat es ewig gedauert und auch die Starttitel der XBox 360 waren technisch wie spielerisch durchweg nicht interessant.Ähhh, PGR3? Kameo?! Geometry Wars??! Condemned, Fight Night 3, NFS: Most Wanted...

just4FunTA
2013-08-31, 19:05:30
PGR3 war doch technisch sehr überzeugend. GRAW kam zwar ein paar Monate später, aber die GRAW Reihe fand ich auch durchweg top.

ich fand es auch spielerisch sehr gut, war ein cooler racer für mich auch besser als Forza. Technisch war PGR3 damals ein sehr schönes Spiel, aufm PC waren die Rennspiele zu dem Zeitpunkt noch nicht soweit. Erst Dirt das ja auch nur ein Multiplattformspiel ist hievte die Grafik auf das selbe Level.

dargo
2013-08-31, 19:08:02
Erst Dirt das ja auch nur ein Multiplattformspiel ist hievte die Grafik auf das selbe Level.
Aber erst als ich die Tschernobyl-Optik bei dem völlig vermurksten Postprocessing entfernt habe. :freak: Gelber Pissfilter und so... :tongue:

just4FunTA
2013-08-31, 19:14:20
leugnen das Forza5 besser aussieht als Driveclub ,

sowohl forza5 als auch driveclub sehen für mich grafisch nun wirklich nicht interessant aus. Bei Forza5 hatte ich mir ein Gamplayvideo in fullhd angesehen mit einem alten Mercedes und während die Präsentation im Menü schön aussah und lust auf das Spiel machte war die Grafik während dem Gameplay einfach nur öde. Rennspielmäßig muss man wohl auf NFS warten oder wenn es irgendwann kommt Gran Turismo für die PS4 (nicht gt6 das ps3 spiel).

Wüsste also wirklich nicht wie du von diesem Titel irgendetwas positives ableiten willst. Dagegen sah beispielsweise das 1080p 60fps mpgameplayvideo von Killzone 4 wirklich sehr sehr gut aus. Das ist ein Titel der nur positiv für die power der Plattform gewertet werden kann.

Ryse sieht halt etwas schlechter aus als Crysis3 das laut deiner Aussage billig und schlecht aussieht, ist jetzt wirklich seltsam das du es jetzt als positives Beispiel für die power der xboxone nutzt. Wobei mir bei dem Spiel eh noch nicht klar ist wie viel Spiel da überhaupt vorhanden ist. Rumlaufen und dann laufen vollautomatisch cutszenen ab nach dem drücken eines Buttons und wenn man nicht drückt laufen die cutszenen trotzdem ab? Aber das Steuern während dem Laufen das macht man noch selbst oder?

Aber erst als ich die Tschernobyl-Optik bei dem völlig vermurksten Postprocessing entfernt habe. Gelber Pissfilter uns so...

Ja codemasters hat da richtig in die xxx gegriffen und auch sehr lange gebraucht bis ihre Spiele einigermaßen passabel aussahen, aber technisch war das Spiel trotzdem sehr nice damals, ist ja wie bei manchen maps in bf3 der bluefilter auf metro oder die depristimmung auf sharqi aber trotzdem ist das technisch sehr gut. :)

Lost Boy
2013-08-31, 19:21:42
Keiner wird leugnen das Forza5 besser aussieht als Driveclub ,

Alles was es bisher von Driveclub zu sehen/spielen gab war Alpha Code. Forza wirkt momentan fertiger. Vielleicht hat turn10 einfach die Xbox360 Engine genommen und aufgebohrt und Evolution Studios macht ne komplett neue Engine für die PS4?

Forza 5 hat z.B. nur pre-baked lighting und dadurch keine dynamischen Tag-Nacht wechsel, auch keine Wettereffekte. Für Driveclub wurde das alles schon bestätigt. Die Strecken bei Driveclub wirken für mich auch detaillierter und größer (Weitsicht).

EDIT:

http://www.youtube.com/watch?v=GS1VSkbvWEg&feature=youtu.be

Ich beurteile die Systeme von ihrem
jetzigen Zustand aus, wie das in 3 Jahren aussehen wird , steht auf einem anderem Blatt.

Ich verstehe nicht ganz was du mit dieser Aussage meinst. Konsolenhardware verändert sich für gewöhnlich nicht im Verlaufe der Zeit... Eventuell wird immer wieder mal etwas mehr Speicher zur Verfügung gestellt durch Sytemupdates/OS optimierungen etc...

Du wirst ja wohl auch nicht leugnen können dass die PS4 klare Vorteile hat bei GPU und RAM (Architektur...)

Meiner Meinung nach ist die Xbox One besser ausbalanciert während die
Ps4 zwar flexible zu programmieren ist aber mehr Handarbeit beim coden erfordert ,

Ich hatte ein längeres Gespräch mit Jared Gerritzen auf der Gamescom. Ich wollte natürlich ein paar Details wissen über die PS4/Xbone Hardware die momentan noch nicht so recht bekannt sind. Er wollte/konnte natürlich zu sehr aus dem Nähkästchen plaudern aber er war sehr sehr zufrieden mit der PS4 Hardware. Portierungen wären extrem schnell zu realisieren, bei den Tools hätte Sony riesen Fortschritte gemacht, GPU und RAM wären optimal aufeinander abgestimmt, den teuren Lernprozess wie bei PS3/CELL gibt es quasi nicht etc.
Einzig bei der CPU hätte er sich ein wenig mehr "Horsepower" gewünscht.

die ständigen Bildeinbrüche bei Driveclub und Knack müssen eine Ursache haben
entweder Softwareseitig oder irgendwelche Pferdefüße in der Hardwarearchitektur.

Alpha Code...
Und Knack ist aucht nicht ein Spiel welches nach der Grafik-"Krone" greifen möchte. Das geht auch aus den Interviews mit Mark Cerny deutlich hervor.


Dagegen fand ich Forza und Ryse schon technisch ausgereifter , oder war die
Hardware der Xbone schon viel früher fertig als die der PS4 und man hatte mehr Zeit für die Spieleentwicklung ?

Technisch ausgereifter als Knack und Driveclub? Ich hab zu beiden Spielen was geschrieben oben...

Ryse scheint wohl schon ne halbe Ewigkeit in Entwicklung zu sein, wurde ja damals für die Xbox360 angekündigt. Optisch ist es auf jeden Fall sehr gelungen. Es scheint so dass Crytek eine Engine auf die beine gestellt hat die hervorragend skalierbar ist.

Das einzige was mich richtig stört sind die billigen Animationen. Sowas hat man auf der PS3/Xbox360 schon deutlich besser gesehen. Aber es ist ja auch noch nicht ganz fertig. Was mich allerdings überrascht hat war die Tatsache dass die (für mich) beeindruckendste Szene in dem E3 Trailer, wo der Turm einstürzt, gescriptet war.


Ich finde auch das die PS4 zu sehr overhyped ist
während die Xbone zu unrecht überall niedergemacht wird.

Beim ersten Punkt stimme ich dir zu aber beim zweiten Punkt muss ich sagen, dass es MS absolut verdient hat überall niedergemacht zu werden. Die Xbone scheint keine schlechte Konsole zu sein. Allerdings macht Kinect 2 die Kiste viel zu teuer und da liegt momentan das größte Problem.

Auch denke ich das Microsoft finanziell besser aufgestellt ist als Sony um große Blockbuster
an Land zu ziehen.

KLar sind die finanziell besser aufgestellt. Aber trotzdem gab es in den letzten Jahre die besseren Exklusiven Spiele auf der PS3. Sony muss vielleicht garnicht so sehr mit Geld um sich werfen damit sie gute Exklusive Blockbuster liefern können.

Knackpunkt bei beiden Systemen wird auch das Multitasking OS sein , die Prozesse die im Hintergrund laufen und inwieweit das alles
die Spieleperformance beeinflusst.

Das lässt sich ja zum Glück noch im Verlauf der Jahre noch optimieren.

drkohler
2013-08-31, 19:41:28
Bei Ryse sieht man halt noch, dass es ursprünglich ein "on-rail" Kinect Titel war. Graphisch sieht da Teil gut aus, wenn man die vorgebackenen Videos abgespielt bekommt. Im richtigen Leben wird dann der Eindruck deutlich schwächer, wenn man den zahlreichen Berichten glaubt von Spielern, die dieses spezielle Testszenario anspielen konnten. Die zahlreichen, wirklich zahlreichen, Bugs deuten wohl gegenwärtig auf einen Betazustand hin.
Bei Forza5 und Driveclub sieht man einfach sofort, in welchen Fanclub der Schreiber gehört. Was mich bei Forza5 aber stört ist, wenn man von den toll gerenderten Autos absieht, alles Andere bestenfalls mit "meh.." bezeichnen kann (inklusive die falschen Schattenwürfe wegen Prerendereing). Driveclub will da Alles besser machen und das geht erfahtungsgemaäss selten gut am Ende.
Der Knackpunkt OS ist kein Knackpunkt. Beide Konsolen haben 2 von 8 cpus reserviert für das os. Und Multitasken konnte schon mein Amiga500, da werden wohl kaum faule Eier gelegt.

megachip800
2013-08-31, 20:14:19
Bei Ryse sieht man halt noch, dass es ursprünglich ein "on-rail" Kinect Titel war. Graphisch sieht da Teil gut aus, wenn man die vorgebackenen Videos abgespielt bekommt. Im richtigen Leben wird dann der Eindruck deutlich schwächer, wenn man den zahlreichen Berichten glaubt von Spielern, die dieses spezielle Testszenario anspielen konnten. Die zahlreichen, wirklich zahlreichen, Bugs deuten wohl gegenwärtig auf einen Betazustand hin.
Bei Forza5 und Driveclub sieht man einfach sofort, in welchen Fanclub der Schreiber gehört. Was mich bei Forza5 aber stört ist, wenn man von den toll gerenderten Autos absieht, alles Andere bestenfalls mit "meh.." bezeichnen kann (inklusive die falschen Schattenwürfe wegen Prerendereing). Driveclub will da Alles besser machen und das geht erfahtungsgemaäss selten gut am Ende.
Der Knackpunkt OS ist kein Knackpunkt. Beide Konsolen haben 2 von 8 cpus reserviert für das os. Und Multitasken konnte schon mein Amiga500, da werden wohl kaum faule Eier gelegt.

Die Engine von Forza5 sieht so aus als wenn sie mind. 1 Generation über der von Driveclub ist. Doppelte Bildrate mit 60 Frames , bessere Lichteffekte und schönere, gesättigte Farben. Driveclub ist mir schon alleine von der Farbgebung unsympathisch und da nützen auch die vielen berechneten Bäume am Straßenrand nicht wenn der Gesamteindruck nicht stimmt . ZUm Thema Multitastking OS , da geht es mir hier um die Frage inwieweit die Spieleentwickler auf die Hardware zugreifen können , wenn die neuen Konsolen auf einen reibungslosen Taskwechsel ausgelegt sind zwingt das ja die Spielehersteller sich an die
API und co. zu halten , was ja bei den älteren Konsolen so nicht der Fall war denn wenn man dort zur Benutzerobeerfläche zurück wollte mußte man ja komplett aus dem Spiel rausgehen und später wieder neu laden. Ist der Zugriff auf die Hardware bei den neuen Konsolen stärker eingeschränkt im Gegensatz zu früher wo nur ein fester Screen/Task vorhanden
war und man heute mehr dem OS die Priorität gibt?? Und das Multitasking am Amiga war eingeschränkt und funktionierte idr. nur bei Anwendungsprogrammen bei den meisten Spielen war die Funktion gesperrt.

Lost Boy
2013-08-31, 20:33:33
Die Engine von Forza5 steht mind. 1 Generation über der von Driveclub.

Na klar. Mit pre-baked lighting ohne dynamischen Tag-Nacht wechsel und Wettereffekte... Jetzt weisst du auch wo die 60fps herkommen.

Deine Aussage ist maßlos überzogen. Machst du das eigentlich mit Absicht oder glaubst du das ernsthaft?

megachip800
2013-08-31, 20:54:52
Na klar. Mit pre-baked lighting ohne dynamischen Tag-Nacht wechsel und Wettereffekte... Jetzt weisst du auch wo die 60fps herkommen.

Deine Aussage ist maßlos überzogen. Machst du das eigentlich mit Absicht oder glaubst du das ernsthaft?

Ich brauche keine Wettereffekte wenn die mir die Bildrate runterziehen , und glaubst du im ernst das die
Xbox one zu leistungsschwach ist um ein Tag/Nachtwechsel zu erzeugen?? Ob pre baked oder nicht , der
Gesamteindruck ist entscheidend und alle die vor Ort waren fanden Forza schöner , ansprechender von der
Grafik , klar kann man das auch durch Artwork/Design beeinflussen aber Driveclub sieht aus wie ein Lastgen Spiel. Das gleiche bei Ryse , glaubst du im ernst das die Leute den Unterschied sehen ob eine umfallendes
Gebäude durch ein Script oder per Physik in Bewegung versetzt wird , man kann das heute so geschickt machen das die Leute den Unterschied nicht sehen , ich finde die vielen Physikengines teilweise überbewertet
die unnötig Prozessorleistung kosten , dann lieber scripten für ein flüssigen Spielablauf.

Finch
2013-08-31, 21:01:19
Du hast auf Herr Doktor Klöbnern Beitrag geantwortet der PCs erwähnte, woraufhin dargo korrekterweise anmerkte dass Titanfall auch für den PC kommt. Jetzt hat der PC hier plötzlich nichts zu suchen weil es dir die Argumentation versaut? Les lieber nochmal nach.

Ich habe mich insgesamt doof ausgedrückt, daher Mea Culpa.

Blöd das schon gesagt wurde, dass man nach einem guten X1 Launch die PS4 ins Auge nehmen wird.

War nicht bisher immer von einem Timed Exclusive die Rede? Ich denke es wird schon ein Jahr dauern, bis es dazu infos gibt.Ich brauche keine Wettereffekte wenn die mir die Bildrate runterziehen , und glaubst du im ernst das die
Xbox one zu leistungsschwach ist um ein Tag/Nachtwechsel zu erzeugen?? Ob pre baked oder nicht , der
Gesamteindruck ist entscheidend und alle die vor Ort waren fanden Forza schöner , ansprechender von der
Grafik , klar kann man das auch durch Artwork/Design beeinflussen aber Driveclub sieht aus wie ein Lastgen Spiel. Das gleiche bei Ryse , glaubst du im ernst das die Leute den Unterschied sehen ob eine umfallendes
Gebäude durch ein Script oder per Physik in Bewegung versetzt wird , man kann das heute so geschickt machen das die Leute den Unterschied nicht sehen , ich finde die vielen Physikengines teilweise überbewertet
die unnötig Prozessorleistung kosten , dann lieber scripten für ein flüssigen Spielablauf.

Du redest dich auch um Kopf und Kragen. Schau dir mal das Wasser von Ryse in Arena an. Sieht aus wie flüssiges Blei. So viel zu der Überlegenheit der XB One

megachip800
2013-08-31, 21:13:52
Du redest dich auch um Kopf und Kragen. Schau dir mal das Wasser von Ryse in Arena an. Sieht aus wie flüssiges Blei. So viel zu der Überlegenheit der XB One

Das kann ja enginebezogen sein muß ja nicht an der Hardware liegen. Außerdem habe ich nicht gesagt das die Xbox one in allen Bereichen besser ist , aber wenn selbst grafisch einfache Titel wie Knack nur mit
30 Bilder/s laufen dann sind solche Aussagen wie "boah die PS4 hat Gddr5 ram" einfach nur albern ich meine
nicht von dir aber von den vielen Sony Fanboys da draußen die nicht wirklich offen sind für Kritik.

just4FunTA
2013-08-31, 21:23:32
wow wie krass der Typ ist erst Behauptet er klipp und klar die xboxone hätte das bessere und leistungsstärkere Konzept und das gilt quasi als erwiesen sonst wären so grafisch aufwendige Spiele wie ryse und forza 5 nicht möglich und im nächsten Beitrag negiert er quasi jede seiner vorherigen Aussagen und plötzlich ist es egal das forza trickst und auf einige Dinge verzichtet um die fps oben zu halten, rafft aber nicht das durch diesen Trick logischerweise auch die anderen Titel höhere fps hätten und das keine Sache der Hardware ist. :freak:

Herr Doktor Klöbner
2013-08-31, 22:46:03
Also wenn ich Megachips Beiträge hier verfolge bin ich doch leicht verwirrt.

Als die Spezifikationen der Next Gen noch nicht klar waren, forderte er als konservative Lösung einen Triple-SLI Geforce Titan Verbund, CPU seitig befeuert von Skynet, Deep Thougt und einem Itanium Cluster, besser noch einem Quantencomputer, dezente Hinweise man muß auf profane Dinge wie Kosten, TDP und ähnlich triviale Sachen Rücksicht nehmen wurden da konsequent ignoriert.

Und jetzt feiert er die technisch klar unterlegene Konsole, also ich bin da schon etwas ratlos, ist das ernst gemeint ?

Dier Sache ist auf technischer Seite klar: Sony liefert die bessere Konsolenhardware, MS setzt auf das teure Kinect 2 und hofft mit ansonsten unterlegener Hardware im Wii Stil durchzukommen, wie das ausgeht entscheidet der Markt, aber das die technisch überlegene Konsole die PS4 ist muß nicht diskutiert werden.

megachip800
2013-08-31, 22:48:39
wow wie krass der Typ ist erst Behauptet er klipp und klar die xboxone hätte das bessere und leistungsstärkere Konzept und das gilt quasi als erwiesen sonst wären so grafisch aufwendige Spiele wie ryse und forza 5 nicht möglich und im nächsten Beitrag negiert er quasi jede seiner vorherigen Aussagen und plötzlich ist es egal das forza trickst und auf einige Dinge verzichtet um die fps oben zu halten, rafft aber nicht das durch diesen Trick logischerweise auch die anderen Titel höhere fps hätten und das keine Sache der Hardware ist. :freak:

Ja klar auf der Xbone wurde alles nur getrickst und auf der Ps4 ehrlich programmiert....:rolleyes:

just4FunTA
2013-08-31, 22:54:44
Ja klar auf der Xbone wurde alles nur getrickst und auf der Ps4 ehrlich programmiert....:rolleyes:

lost boy hat dir ein Beispiel gebracht auf das du eingegangen bist und das fand ich dann schon witzig..

megachip800
2013-08-31, 23:03:30
Also wenn ich Megachips Beiträge hier verfolge bin ich doch leicht verwirrt.

Als die Spezifikationen der Next Gen noch nicht klar waren, forderte er als konservative Lösung einen Triple-SLI Geforce Titan Verbund, CPU seitig befeuert von Skynet, Deep Thougt und einem Itanium Cluster, besser noch einem Quantencomputer, dezente Hinweise man muß auf profane Dinge wie Kosten, TDP und ähnlich triviale Sachen Rücksicht nehmen wurden da konsequent ignoriert.

Und jetzt feiert er die technisch klar unterlegene Konsole, also ich bin da schon etwas ratlos, ist das ernst gemeint ?

Dier Sache ist auf technischer Seite klar: Sony liefert die bessere Konsolenhardware, MS setzt auf das teure Kinect 2 und hofft mit ansonsten unterlegener Hardware im Wii Stil durchzukommen, wie das ausgeht entscheidet der Markt, aber das die technisch überlegene Konsole die PS4 ist muß nicht diskutiert werden.

Wo habe ich das gefordert? Klar wäre eine leistungsfähigere Konsole immer besser und da würde auch nicht so auf dem Preis schauen, aber ich war positiv überrascht das die Xbone mit nur 1,2 Tflops u. DDR3 ram eine recht ansehnliche Grafik auf dem Schirm zaubert , von der Ps4 habe ich mir mehr erhofft....

Avalox
2013-08-31, 23:16:30
Wo habe ich das gefordert? Klar wäre eine leistungsfähigere Konsole immer besser und da würde auch nicht so auf dem Preis schauen, aber ich war positiv überrascht das die Xbone mit nur 1,2 Tflops u. DDR3 ram eine recht ansehnliche Grafik auf dem Schirm zaubert , von der Ps4 habe ich mir mehr erhofft....

Die Xbox One hat einen ehrenvollen zweiten Platz gemacht, während die PS4 nur Vorletzter wurde?

SamLombardo
2013-08-31, 23:16:45
von der Ps4 habe ich mir mehr erhofft....
...und gleichzeitig ist die schwächere Xbox One die Konsole deiner Träume. Schon klar.

Akkarin
2013-08-31, 23:51:42
Das schlimmste ist ja, dass er Artdesign/Farben mit technik in Verbindung bringt.

prinz_valium
2013-09-01, 00:06:12
...und gleichzeitig ist die schwächere Xbox One die Konsole deiner Träume. Schon klar.


er meint wohl vom leistungspotential her
wernn die ps4 schon 40 bis 50% schneller ist und das so dauern in den medien kolpotiert wird, dann kann man wohl auch 20 bis 30% bessere/flüssigere/whatevere grafik erwarten.

wenn diese dann nur bei max 10% liegt, oder beim subjektiven gesamteindruck sogar hinter der xbo, dann kann man schon von der ps4 entäuscht sein, obwohl sie mehr leistung hat. von der xbo aber nicht, weil sie eben mehr aus ihrer geringeren leistung holt



einfach mal in die anderen poster reinversetzen und verstehen was sie meinen. schon ist das ganze gelaber auch kein bullshit mehr.



zum thema rennspiele: dort entscheidet sich eher wenig durch die grafik, welches das beste/beliebteste wird.
furpark, strecken, fahrverhlten und -dynamik
dazu kommt noch der name. damals war es gran turismo. heute ist forza das non plus ultra franchise des massenmarktes.

MarcWessels
2013-09-01, 00:21:59
Beide Konsolen haben 2 von 8 cpus reserviert für das os.Nach wie vor nur eine Behauptung.

Lost Boy
2013-09-01, 00:29:35
Das schlimmste ist ja, dass er Artdesign/Farben mit technik in Verbindung bringt.


(y)

just4FunTA
2013-09-01, 00:33:27
er meint wohl vom leistungspotential her
wernn die ps4 schon 40 bis 50% schneller ist und das so dauern in den medien kolpotiert wird, dann kann man wohl auch 20 bis 30% bessere/flüssigere/whatevere grafik erwarten.

wenn diese dann nur bei max 10% liegt, oder beim subjektiven gesamteindruck sogar hinter der xbo, dann kann man schon von der ps4 entäuscht sein, obwohl sie mehr leistung hat. von der xbo aber nicht, weil sie eben mehr aus ihrer geringeren leistung holt

Das hast du aber komplett missverstanden, nein er behauptet tatsächlich das die xboxOne faktisch mehr power hat. Klingt absurd? Ja eben das ist ja das Problem, und als Crysis3 rauskam das die leute schon wirklich sehr geflasht hat hat er uns auch erklärt wie enttäuscht er von der Grafik wäre und die nextgenkonsolen müssten da deutlich mehr drauflegen. ;D

zum thema rennspiele: dort entscheidet sich eher wenig durch die grafik, welches das beste/beliebteste wird.
furpark, strecken, fahrverhlten und -dynamik
dazu kommt noch der name. damals war es gran turismo. heute ist forza das non plus ultra franchise des massenmarktes.

Ne eigentlich ist es immernoch Gran Turismo, siehst du ja an den Verkaufszahlen was die Masse will Forza4 ~4mio und GT5 ~10 mio

dargo
2013-09-01, 09:55:38
Das schlimmste ist ja, dass er Artdesign/Farben mit technik in Verbindung bringt.
Das tun leider viele.

Deinorius
2013-09-01, 10:06:09
Das tun leider viele.


Ja, ich bekenne mich (teilweise) schuldig. :usad:

DinosaurusRex
2013-09-01, 10:33:05
...die ständigen Bildeinbrüche bei Driveclub und Knack müssen eine Ursache haben entweder Softwareseitig oder irgendwelche Pferdefüße in der Hardwarearchitektur. Dagegen fand ich Forza und Ryse schon technisch ausgereifter , oder war die Hardware der Xbone schon viel früher fertig als die der PS4 und man hatte mehr Zeit für die Spieleentwicklung ?

Schau dir das mal an:

http://www.ign.com/videos/2013/08/31/ryse-multiplayer-impressions

Auch auf der Xbox One haben die Studios vor dem Release mit ein paar technischen Problemen zu kämpfen.

dargo
2013-09-01, 10:37:03
Ja, ich bekenne mich (teilweise) schuldig. :usad:
Du... da will ich mich von auch nicht freisprechen. ;) Im Prinzip ist zumindest für mich Technik nicht alles. Das Artdesign, die Farben, der Content etc. das muss alles stimmen damit Grafik auf mich schön wirkt.

megachip800
2013-09-01, 11:06:16
Das schlimmste ist ja, dass er Artdesign/Farben mit technik in Verbindung bringt.

Moment ich habe gesagt das die grafischen Unterschiede auch durch Artwork und Design beinflussbar sind. Und was die Farben betrifft , natürlich ist das auch technisch beinflussbar kommt darauf an welche
Framebuffertypen die Gpu unterstützt und welche die Spielentwickler in der Engine verwenden fp16-fp64
, wieviel Farbkanäle werden pro Pixel verwendet , Segas model3 Grafikboard rendert zB. mit 4 Farbkanäle/pixel ( rot , grün, blau und weiß) , wie groß ist die Farbbandbreite des Alphakanal etc.
Und so wie ich das mitbekommen habe rendert die Xbox one grundsätzlich mit 64 bit/ Pixel , während bei der ps4 derzeit nur 32 bit/ pixel verwendet werden , die Farbarmut in Driveclub gegenüber Forza ist jedefalls
auffallend unabhängig davon ob das technische Gründe hat oder nicht.

Das hast du aber komplett missverstanden, nein er behauptet tatsächlich das die xboxOne faktisch mehr power hat. Klingt absurd? Ja eben das ist ja das Problem, und als Crysis3 rauskam das die leute schon wirklich sehr geflasht hat hat er uns auch erklärt wie enttäuscht er von der Grafik wäre und die nextgenkonsolen müssten da deutlich mehr...

Ich weiß nicht warum du immer hier mit Crysis kommst ich habe irgendetwas mal gesagt zu ein thema und das wird dann hier aus dem Zusammenhang gerissen , bitte mal beim diesem Thema bleiben , wenn wir jetzt anfangen wann jemand mal was gesagt hat und alles gleich auf die Goldwaage legen.......

megachip800
2013-09-01, 11:12:38
Schau dir das mal an:

http://www.ign.com/videos/2013/08/31/ryse-multiplayer-impressions

Auch auf der Xbox One haben die Studios vor dem Release mit ein paar technischen Problemen zu kämpfen.

Leugne ich ja nicht , aber wenn es ständig heißt das die Ps4 leistungsfähiger ist , einfacher zu programmieren sein soll , bessere Tools etc. dann ist die Erwartungshaltung eine andere insbesondere wenn man sieht das auch die First Party Spiele technische Probleme aufzeigen.

just4FunTA
2013-09-01, 11:15:19
die Farbarmut in Driveclub gegenüber Forza ist jedefalls
auffallend unabhängig davon ob das technische Gründe hat oder nicht.

Schau dir einfach Killzone 4 an dildo4u hatte dir das entsprechende Video ja gepostet. Über fehlende Farben kannst dich da sicherlich nicht beschweren. Als nächstes nimmst du für die xboxOne BF4 als Vergleich und für PS4 CODGhost und erklärst uns dann die miese Grafik von Cod läge daran das die PS4 so schwach wäre. :rolleyes:



Ich weiß nicht warum du immer hier mit Crysis kommst ich habe irgendetwas mal gesagt zu ein thema und das wird dann hier aus dem Zusammenhang gerissen , bitte mal beim diesem Thema bleiben , wenn wir jetzt anfangen wann jemand mal was gesagt hat und alles gleich auf die Goldwaage legen.......


Wenn du dir so sehr widersprichst tut das sehr wohl was zur sache, und der Punkt ist halt es ist eben nicht ausm Zusammenhang gerissen worden...

Leugne ich ja nicht , aber wenn es ständig heißt das die Ps4 leistungsfähiger ist , einfacher zu programmieren sein soll , bessere Tools etc. dann ist die Erwartungshaltung eine andere insbesondere wenn man sieht das auch die First Party Spiele technische Probleme aufzeigen.

Nur weil eine Plattform entwicklerfreundlich ist heißt das doch nicht das sich das Spiel von allein entwickelt auch auf dem PC das den Konsolen weit überlegen ist haben alphas und betas von Spielen viele bugs und Probleme, deshalb heißen sie ja auch Alphas/Betas. Da steckt sehr viel Arbeit hinter um dann die Finalversion fertigzustellen. Und selbst die muß Monatelang noch hier und da poliert werden, es gibt sogar Spiele die werden nie vollständig gefixt Beispielsweise BadCompany 2 hat bis zum heutigen Tag ein Problem mit der Beleuchtung je nachdem ob man im Russischen oder Ami Team ist kann man zum Beispiel auf Atacama Desert im Heli fast die ganze Map überblicken oder gerade noch so ein paar Meter..

Felixxz2
2013-09-01, 12:36:41
Is klar Megachip, der Xbone Supercloudwahnsinn rechnet durchgehend mit Double Precision......

megachip800
2013-09-01, 13:00:33
Is klar Megachip, der Xbone Supercloudwahnsinn rechnet durchgehend mit Double Precision......

http://www.vgleaks.com/durango-gpu-2/3/

The CB is optimized for 64-bit-per-pixel types, so there is no local performance advantage in using smaller color formats, although there may still be a substantial bandwidth savings.

Finch
2013-09-01, 13:07:23
http://www.vgleaks.com/durango-gpu-2/3/

The CB is optimized for 64-bit-per-pixel types, so there is no local performance advantage in using smaller color formats, although there may still be a substantial bandwidth savings.


Ich rekapituliere dann mal:

04 Feb 2013 + vgleaks = deine Informationsbasis? Wurde das ganze @ Hotchips bestätigt? Soll ich gleich auch mal auf Basis andere VGleaks Informationen Argumentieren? z.B. dGPU?

megachip800
2013-09-01, 13:41:06
Ich rekapituliere dann mal:

04 Feb 2013 + vgleaks = deine Informationsbasis? Wurde das ganze @ Hotchips bestätigt? Soll ich gleich auch mal auf Basis andere VGleaks Informationen Argumentieren? z.B. dGPU?

Es gab vor kurzem ein Interview mit dem Entwickler von TURN10 (forza5) der gesagt hat das sie mit der neuen Konsole mehr Farben darstellen können als mit der X360 und mehr Gestaltungsmöglichkeiten haben.
Das sagt jetzt natürlich nichts über das Farbmanagment der PS4 aus. Aber Vleaks lag bei den letzten Infos eigentlich nicht so Falsch.

Felixxz2
2013-09-01, 14:12:02
Klar, die Xbone rechnet durchgehend mit DP bei bestenfalls 1/4 der 1,xx TFLOP/s....und bringen tut das....nichts. Eine 48 Bit Übertragung ist bei HDMI zwar möglich jedoch haben wohl eher wenige bis garkeine TVs 10 oder 12 Bit Panel. Abgesehen davon ist der Nutzen bei Spielen eh fraglich und mit Sicherheit würdest du das nicht an "satteren Farben" erkennen.

Bitte lass es einfach megachip. Alle sind nur genervt. Ob das Trollen oder Naivität ist interessiert eigentlich nicht, es ist falsch und nervt. Eine niedrigere Praxisleistung der PS4 an irgendwelchen 30fps in Knack festzumachen ist so lächerlich das ich kotze. Die beiden Konsolen nutzen bis auf Details die selben Grundarchitekturen (GCN + Jaguar) somit werden die mehr FLOP/s der PS4 wohl 1:1 durchschlagen. Exklusivtitel werden grafisch aufwändiger und Multis evtl. höher aufgelöst oder mit mehr Frames. Ob man das an 2013er Launchtiteln festmachen kann interessiert keinen. Richtig los gehts sowieso erst 2014 und mit der Zeit wirst dus auch in der Praxis sehen, selbst wenn du den technischen Fakten nicht glaubst.

Kira
2013-09-01, 14:41:14
Bitte lass es einfach megachip. Alle sind nur genervt. Ob das Trollen oder Naivität ist interessiert eigentlich nicht, es ist falsch und nervt. Eine niedrigere Praxisleistung der PS4 an irgendwelchen 30fps in Knack festzumachen ist so lächerlich das ich kotze. Die beiden Konsolen nutzen bis auf Details die selben Grundarchitekturen (GCN + Jaguar) somit werden die mehr FLOP/s der PS4 wohl 1:1 durchschlagen. Exklusivtitel werden grafisch aufwändiger und Multis evtl. höher aufgelöst oder mit mehr Frames. Ob man das an 2013er Launchtiteln festmachen kann interessiert keinen. Richtig los gehts sowieso erst 2014 und mit der Zeit wirst dus auch in der Praxis sehen, selbst wenn du den technischen Fakten nicht glaubst.

+1

Watson007
2013-09-01, 14:53:07
Fanboys halt :D

aber wieso stört euch das? Gibt doch die ignore-Funktion...

Gipsel
2013-09-01, 15:09:03
Framebuffertypen die Gpu unterstützt und welche die Spielentwickler in der Engine verwenden fp16-fp64
, wieviel Farbkanäle werden pro Pixel verwendet , Segas model3 Grafikboard rendert zB. mit 4 Farbkanäle/pixel ( rot , grün, blau und weiß) , wie groß ist die Farbbandbreite des Alphakanal etc.
Und so wie ich das mitbekommen habe rendert die Xbox one grundsätzlich mit 64 bit/ Pixel , während bei der ps4 derzeit nur 32 bit/ pixel verwendet werden,Wem willst Du denn den Scheiß erzählen?
Soll ich Dir sagen, daß die Hardware beider Konsolen (und jeder halbwegs modernen GPU) sogar 128bit (4xfp32) Framebuffer-Formate unterstützt? Benutzt nur kaum einer mal wirklich für einen Framebuffer (aus gutem Grund).
http://www.vgleaks.com/durango-gpu-2/3/

The CB is optimized for 64-bit-per-pixel types, so there is no local performance advantage in using smaller color formats, although there may still be a substantial bandwidth savings.CB steht für Color-Backend als Teil der ROPs. Und soll ich Dir mal was sagen? Die der PS4 sehen ziemlich genauso aus und können das Gleiche. Und auf die aktuellen Radeons trifft das auch zu. Auch der Aufbau mit den dort integrierten Caches ist offenbar identisch zu den Radeons (bei vgleaks explizit erwähnt, der dort beschriebene Effekt der höheren Bandbreite der Caches gegenüber dem RAM [auch eSRAM!] trifft auf alle AMD-GPUs zu und bei B3D hat sogar schon jemand eine darauf angepaßte Tiling-Technik für Partikeleffekte erfolgreich mit einem Tahiti getestet).
Also verschone uns mit dem Kram, solange Du nicht was Handfestes vorweisen kannst, was ein tatsächlichen Unterschied belegt. Bisher haben wir für die XB1 im Vergleich zur PS4 ein anderes Speichersubsystem mit dem zusätzlichen eSRAM und dafür langsameren DRAM, 2/3 der ALUs an einem etwa gleichen Frontend sowie die Hälfte der ROPs (also auch der CBs, die Du gerade angeführt hast) bei etwas höherem Takt zu Buche stehen. Zumindest was die Grafikseite angeht, sind die restlichen Dinge dann schon arge Details (ein paar spezielle Texturformate, die De-/Kompression in den DMA-Engines, dann wird es schon arg eng, wenn ich jetzt nicht was vergesse).

Me_php_isto
2013-09-01, 16:13:52
Jetzt sollte er für ne Weile erst mal genug ><((((º> bekommen haben :-)

Knuddelbearli
2013-09-01, 16:56:24
Fanboys halt :D

aber wieso stört euch das? Gibt doch die ignore-Funktion...

wie soll man die Leute ignorieren die ihm quoten und antworten? ^^

Herr Doktor Klöbner
2013-09-01, 17:19:55
Was mich interessieren würde inwieweit die Wii die Verantwortlichen bei MS und Sony beeinflusst hat.

Schließlich hatte man mit der letzten Generation subventionierte, im Fall von Sony sogar hoch subventionierte Hardware an der Grenze des Machbaren und mußte eine Reihe von Jahren mit roten Zahlen in der Konsolensparte in Kauf nehmen. Und dann kommt die Wii mit billiger simpler mit Gewinn verkaufter Hardware und wird die meistverkaufte Konsole dieser Generation.

Ich denke MS und Sony haben das analysiert und kamen zu völlig unterschiedlichen Schlussfolgerungen.

Ich denke MS hat sich davon blenden lassen, das es Nintendo gelang große Verkaufserfolge außerhalb des klassischen Konsolenkäufers zu generieren. Da war klar die Oma und die 14 Jährige muß ins Boot geholt werden, also klarer Fokus auf Kinect 2. Ich denke das ist eine Fehlentscheidung. Der Wii Erfolg ist nicht wiederholbar, man hat in der Tat Leute zum Spielen gebracht die das vorher nie gemacht haben, aber die daddeln heute auf Smartphones und Tablets, überwiegend kostenlose Titel, free to play Krams und ähnliches. Eine stationäre Konsole und Vollpreistitel wird man dieser Zielgruppe nie wieder verkaufen können, das war ein einmaliger Glückstreffer von Big N.

Sony hat das wohl realistischer gesehen, die Generation PS2, XBox, Gamecube fand zusammen etwa 200 Mio Käufer, PS3+Xbox 360 werden im laufe ihrer Lebensdauer etwa das selbe verkaufen, das ist der reale Markt der Core-Gamer und denen gehen Fuchtelsteuerungen am Allerwertesten vorbei.

Ich denke da hat Sony die richtige strategische Entscheidung getroffen, MS hat sich mit Kinect 2 ( was ja die Hälfte der Kosten der Xbox One ausmachen soll ) verrant, das ist zumindestens meine Einschätzung.

mironicus
2013-09-01, 18:09:25
Sony macht halt keine Experimente aber ein wenig Veränderung schadet nie.

Einfachste Lösung für MS: Preissenkung der Xbox One auf PS4-Niveau.

StefanV
2013-09-01, 19:16:25
Naja, ein großes Problem ist halt auch der Content. Big N ist insbesondere bei Eltern beliebt, da es Mario und co dort gibt. Die XBox eher in US of A, aber wenig in J. Die Playstation hingegen eher in J beliebt, was sich auch in der Spielewahl durchschlägt. Für Fans von japanischerem Content ist die Playstation daher definitiv die bessere Konsole.

Und da ist auch einfach die Frage, welchen Exklusiv Content es denn letztendlich auf welcher Console gibt, wie gut der ist usw.

Das die Hardware letztendlich nicht soo eine große Rolle spielen muss, hat man ja an der Wii gesehen. Allerdings kam die WiiU gar nicht gut an (hier würde ich durchaus befürchten, dass es an der Hardware liegen könnte. Wenn Big N jetzt auch auf einen AMD SoC umsattelt, könnte das was werden)...

Windi
2013-09-01, 19:28:01
MS und Nintendo haben sich beide von dem Erfolg der Wii blenden lassen.

Bei der WiiU verbaute man einen Touchscreen und hoffte anscheinend, das sich das Teil von selbst verkauft. Aber nur weil man während des Höhepunktes des Tablet-Booms einen Touchscreen verbaut ist man noch lange nicht innovativ. MS und Sony geben jetzt einfach eine APP raus und die Nutzer können ihr eigenes Smartphone/Tablet dafür nutzen.
Nintendo hätten auch wissen müssen, das ihr LineUP ungefähr 1 Jahr Verspätung hat, da hätte man lieber etwas warten sollen und dann Hardware verbauen sollen, die wenigstens keine Probleme mit PS360 Portierungen hat.
Aber nein, man setzte alles auf die nicht innovative Innovation Touchscreen und ist damit ganz schön baden gegangen.

Beim 3DS das gleiche. 3D war gerade in Mode, also hat man es verbaut.
Jetzt ist es viel zu teuer und wird viel zu selten genutzt.


Bei MS ist die Fixierung auf Kinect auch wirklich extrem. Die Kamera lässt die Kosten der Konsole regelrecht explodieren (fast eine Verdoppelung des Konsolenpreises, falls die Gerüchte stimmen) und gleichzeitig gibt es kaum ein Spiel was davon profitieren würde. Man sollte doch eigentlich meinen, das sich die Verantwortlichen vorher darüber Gedanken gemacht haben, wofür die Kamera überhaupt gut sein soll, aber bis jetzt wurde noch nichts angekündigt.
Ryse sollte ja anscheinend das Vorzeigespiel für Kinect werden.
Und jetzt wird es wieder hastig aufs Gamepad zurück gefriemelt und die halbe Welt lacht sich über den A-A-A Titel schlapp.
Soll es das schon mit Kinect gewesen sein?

Botcruscher
2013-09-01, 19:34:25
Die WiiU ist einfach an Nintendos Blödheit gescheitert. Mit einem einfachen SoC etwas über der Leistungsfähigkeit PS3/360 gäbe es wenigstens genug Multiplattformtitel. Das Ding ist mangels Software einfach tot. Der Hype um die Bewegungssteuerung ist auch vorbei und einen Controller mit Display braucht keiner. An der Konsole gespart und dafür den Aufwand in ein unsinniges Eingabegerät gesteckt. MS hat genau den gleichen Fehler begangen. Da bin ich mit dem Doktor voll einer Meinung. Typisch an der Zielgruppe vorbei entwickelt.

Kira
2013-09-01, 19:35:34
na ja was heißt Preissenkungen auf PS4 Niveau? Alle wissen doch nun, dass die PS4 leistungsfähiger ist. Also wieso eine schwächere Konsole kaufen? Selbst wenn die PS4 50-100 mehr kosten würde, würde ich mir doch lieber die stärkere Konsole holen und damit länger Spaß haben.

Hallo
2013-09-01, 19:40:24
Du... da will ich mich von auch nicht freisprechen. ;) Im Prinzip ist zumindest für mich Technik nicht alles. Das Artdesign, die Farben, der Content etc. das muss alles stimmen damit Grafik auf mich schön wirkt.


Richtig Technik ist nichts ohne gutes Art Design. Hier ein sehr schönes Beispiel und der wohl beste Kickstarter ever für mich:)
Ist eine Homage an all die Sega Arcade Racer.


http://www.kickstarter.com/projects/896834116/the-90s-arcade-racer/posts/565223

Und noch ein Vid, soll wohl übrigens auch auf der WiiU @ 60fps laufen.

http://www.kickstarter.com/projects/896834116/the-90s-arcade-racer

Wenn die Texturen so scharf wie auf den Screenshots werden wäre das wirklich ne grafische Bombe.

00-Schneider
2013-09-01, 20:08:27
Soll es das schon mit Kinect gewesen sein?


Das wundert mich auch extrem. Ohne Kinect würde die One wohl nur ~300€ kosten, und jetzt liefert MS keine Anwendungsbeispiele!? Headtracking in Forza, Wahnsinn! Dafür gebe ich doch gerne 200€ zu viel für eine Konsole aus. ;D

Wenn man derart stark auf die Kinect-Karte setzt, und jetzt überhaupt nichts dafür bringt, ist das die absolute Dummheit. Haben die das überhaupt mal vorher richtig durchdacht!? Wahrscheinlich haben das Leute entschieden, die selbst kaum Videospiele spielen. Die Personen, die noch für die sehr gute Architektur der 360 verantwortlich waren, arbeiten anscheinend auch nicht mehr bei MS...

Jetzt braucht MS auch nicht mehr umschwenken. Sie haben nunmal die schwächere Konsole, die dazu noch satte 100€ mehr kostet. Spätestens wenn sogar der letzte Depp merkt, das ausnahmslos alle Multiplattformer besser auf PS4 aussehen und/oder laufen, muss MS schon extrem viele und vor allem gute Exklusivtitel im petto haben, damit sie ihre Konsole an den Mann bringen. Da muss MS den Geldbeutel jetzt extrem weit aufmachen, und Spiele einkaufen gehen!

Gamer sind eh geizig wie sonst was. Wer sich keinen PC leisten will, oder dem das Gefrickel auf den Sack geht, kauft sich für die Multiplattformer eine Konsole. Später wenn genug Exklusivtitel erschienen sind, dann halt noch eine Zweite/Dritte. Für welche Konsole wird er sich wohl aber zuerst entscheiden? Das ist die entscheidende Frage!

Ich persönlich glaube nicht, dass die PS4 bis zum Weihnachtsgeschäft 2014 billiger wird. Warum auch? Sony würde die Konsole wahrscheinlich auch für 450-500€ noch sehr gut loswerden. Sie haben nun mal einfach die stärkere Hardware. MS kann natürlich, wie jetzt bei FIFA gesehen mit Bundles kontern. Aber ob sie die 100€ Preisunterschied damit wett machen können? Die Gerüchte mehren sich, dass im 1./2.Q 2014 eine "kinectlose" One für 300-350€ erscheint. MS wehrt sich natürlich vehement gegen diese Gerüchte. Sie wollen ja noch ihre 500€-Konsolen bis dahin an den Mann bringen. Das eine One ohne Kinect kommt, steht für mich aber außer Frage. Wieso sollte ich mir aber jetzt eine One für 500€ kaufen, wenn Kinect eh nicht bei den Core-Games benutzt wird, und die PS4 in allen Belangen die bessere Alternative darstellt? Da warte ich lieber bis nächstes Jahr, kaufe mir dann eine Xbox One ohne Kinect für 300€ und bin letztendlich dann wahrscheinlich wesentlich glücklicher mit meiner Kaufentscheidung als die Leute, die für 500€ zum Release zugegriffen haben.

LordDeath
2013-09-01, 20:18:01
Bezüglich der CPU in beiden Konsolen habe ich bisher immer gelesen, dass 8 Jaguar Kerne mit je 1,6 GHz zum Einsatz kommen. Dazu hätte ich noch zwei Fragen:


Gilt beim Jaguar wie beim Bulldozer diese "Modul"-Zählweise, wo ein Modul 2 Integer ALUs und eine Floating Point ALU besitzt? Ziemlich oft sieht man ja, dass solche 4-Modul CPUs als "Octa-Core" Modelle beworben werden. Ist dies bei den neuen Konsolen auch der Fall?
Schon seit längerem ist eine Taktrate von 3,2 GHz bei 4 Kernen möglich. Solch eine Jaguar CPU sollte doch bei allen möglichen Workflows mindestens genauso schnell sein, wie ein baugleicher Achtkerner mit halbierter Taktrate. Wieso sind es Achtkerner geworden? Ist die Leistungsaufnahme dadurch niedriger?
Falls ja: Könnte man dieses Spiel den weiter treiben? Also wäre pauschal betrachtet eine N-Kern CPU mit M/2 Mhz immer sparsamer als eine ansonsten baugleiche N/2-Kern CPU mit M Mhz?

Heelix01
2013-09-01, 20:18:13
na ja was heißt Preissenkungen auf PS4 Niveau? Alle wissen doch nun, dass die PS4 leistungsfähiger ist. Also wieso eine schwächere Konsole kaufen? Selbst wenn die PS4 50-100 mehr kosten würde, würde ich mir doch lieber die stärkere Konsole holen und damit länger Spaß haben.

Diese Theorie wurde durch jede Konsolen Generation Lüge gestraft.
Die meisten wird es nicht interessieren ob Konsole A schneller ist oder A etwas mehr Details darstellt.
Mag hier im Forum anderes sein aber sonderlich representativ war das 3dc noch nie ;) .

Gipsel
2013-09-01, 20:27:16
Bezüglich der CPU in beiden Konsolen habe ich bisher immer gelesen, dass 8 Jaguar Kerne mit je 1,6 GHz zum Einsatz kommen. Dazu hätte ich noch zwei Fragen:


Gilt beim Jaguar wie beim Bulldozer diese "Modul"-Zählweise, wo ein Modul 2 Integer ALUs und eine Floating Point ALU besitzt? Ziemlich oft sieht man ja, dass solche 4-Modul CPUs als "Octa-Core" Modelle beworben werden. Ist dies bei den neuen Konsolen auch der Fall?

Das sind 2 Module zu je vier Kernen, wobei jeder Kern aber eine eigene FPU hat. Die 4 Kerne in einem Modul teilen sich nur den L2-Cache. Die Module sind über die Northbridge verbunden.

Schon seit längerem ist eine Taktrate von 3,2 GHz bei 4 Kernen möglich. Solch eine Jaguar CPU sollte doch bei allen möglichen Workflows mindestens genauso schnell sein, wie ein baugleicher Achtkerner mit halbierter Taktrate. Wieso sind es Achtkerner geworden? Ist die Leistungsaufnahme dadurch niedriger?Ja. Außerdem laufen die Jaguars schwerlich mit so viel mehr als 2-2,2 GHz.
Falls ja: Könnte man dieses Spiel den weiter treiben? Also wäre pauschal betrachtet eine N-Kern CPU mit M/2 Mhz immer sparsamer als eine ansonsten baugleiche N/2-Kern CPU mit M Mhz?Irgendwann nicht mehr. Die Leistung bricht irgendwann ein und der Stromverbrauch sinkt nicht mehr entsprechend. Wo genau dieser Punkt liegt, hängt vom genauen Design und der Aufgabe ab. Mit einem gegebenen CPU-Design (z.B. Jaguar) funktioniert das nicht sehr lange (eigentlich gar nicht, Du verglichst ja auch 4xBD bei 3,2 GHz mit 8xJaguar bei 1,6GHz) und selbst mit einem auf den jeweiligen Takt angepaßten Design läuft man sehr schnell in diminishing returns.

Akkarin
2013-09-01, 20:32:13
Sind 8 Jaguar nicht auch kleiner als 2 Piledriver Module ?

Windi
2013-09-01, 20:44:31
Ich finde die Xone ja eigentlich ganz interessant.

Sie ist ähnlich schnell wie die PS4 (solange man nicht so genau hinschaut)
Desweiteren geht sie stark in Richtung Preis/Leistung.

Die Xone setzt auf normalen DDR3 Speicher. Der ist jetzt schon günstiger und wird in Zukunft nochmals billiger. GDDR5 ist hingegen teurer und wird in Zukunft nicht billiger, sondern von GDDR6 abgelöst.
Die Xone hat ein großes Gehäuse und eine Standard Kühlmethode. Die PS4 eine kleines Gehäuse und eine aufwendige Kühltechnik.
Sie hat die schwächere Grafikeinheit, das fällt aber bei Multititeln, die auf den kleinsten gemeinsamen Nenner optimiert werden nicht so stark auf.

Für mich wäre die Xone eine billigere und nur leicht schwächere Alternative zur PS4.
Wenn, ja wenn es nur die Kinect Kamera nicht gäbe, die den Preis deutlich über den der PS4 treibt.

megachip800
2013-09-01, 20:48:46
Klar, die Xbone rechnet durchgehend mit DP bei bestenfalls 1/4 der 1,xx TFLOP/s....und bringen tut das....nichts. Eine 48 Bit Übertragung ist bei HDMI zwar möglich jedoch haben wohl eher wenige bis garkeine TVs 10 oder 12 Bit Panel. Abgesehen davon ist der Nutzen bei Spielen eh fraglich und mit Sicherheit würdest du das nicht an "satteren Farben" erkennen.

Bitte lass es einfach megachip. Alle sind nur genervt. Ob das Trollen oder Naivität ist interessiert eigentlich nicht, es ist falsch und nervt. Eine niedrigere Praxisleistung der PS4 an irgendwelchen 30fps in Knack festzumachen ist so lächerlich das ich kotze. Die beiden Konsolen nutzen bis auf Details die selben Grundarchitekturen (GCN + Jaguar) somit werden die mehr FLOP/s der PS4 wohl 1:1 durchschlagen. Exklusivtitel werden grafisch aufwändiger und Multis evtl. höher aufgelöst oder mit mehr Frames. Ob man das an 2013er Launchtiteln festmachen kann interessiert keinen. Richtig los gehts sowieso erst 2014 und mit der Zeit wirst dus auch in der Praxis sehen, selbst wenn du den technischen Fakten nicht glaubst.

Siehst du das ich das was ich meine ihr könnt keine andere Meinung vertragen und legt das immer als Trollversuche aus , da kann man sich so ein Spekulationsforum sparen wenn hier so harsch reagiert wird oder sich noch so die Mühe geben beim darstellen von Sachverhalten das Ergebnis ist immer das gleiche.
Nachdenklich stimmt mich eher das du dich von Sony täuschen lässt und nicht wirklich offen bist für Kritik ,
bei denen mußt du dich auskot*** nicht bei mir. Kann ich was dafür das Sony nicht die Überhardware gebaut hat??

Wem willst Du denn den Scheiß erzählen?
Soll ich Dir sagen, daß die Hardware beider Konsolen (und jeder halbwegs modernen GPU) sogar 128bit (4xfp32) Framebuffer-Formate unterstützt? Benutzt nur kaum einer mal wirklich für einen Framebuffer (aus gutem Grund).
CB steht für Color-Backend als Teil der ROPs. Und soll ich Dir mal was sagen? Die der PS4 sehen ziemlich genauso aus und können das Gleiche. Und auf die aktuellen Radeons trifft das auch zu. Auch der Aufbau mit den dort integrierten Caches ist offenbar identisch zu den Radeons (bei vgleaks explizit erwähnt, der dort beschriebene Effekt der höheren Bandbreite der Caches gegenüber dem RAM [auch eSRAM!] trifft auf alle AMD-GPUs zu und bei B3D hat sogar schon jemand eine darauf angepaßte Tiling-Technik für Partikeleffekte erfolgreich mit einem Tahiti getestet).
Also verschone uns mit dem Kram, solange Du nicht was Handfestes vorweisen kannst, was ein tatsächlichen Unterschied belegt. Bisher haben wir für die XB1 im Vergleich zur PS4 ein anderes Speichersubsystem mit dem zusätzlichen eSRAM und dafür langsameren DRAM, 2/3 der ALUs an einem etwa gleichen Frontend sowie die Hälfte der ROPs (also auch der CBs, die Du gerade angeführt hast) bei etwas höherem Takt zu Buche stehen. Zumindest was die Grafikseite angeht, sind die restlichen Dinge dann schon arge Details (ein paar spezielle Texturformate, die De-/Kompression in den DMA-Engines, dann wird es schon arg eng, wenn ich jetzt nicht was vergesse).

Warum ist es so schwer für euch zu verstehen das die Möglichkeit besteht das die Konsole evtl. intern mit einer höheren Farbtiefe rendert , das ist doch durchaus möglich (48bit Output können zumindestens für die Zukunft nicht ausgeschlossen werden) . Ebenso ist es möglich das die Spieleentwickler von Driveclub festgestellt haben das es auf der Ps4 zu Bandbreitenprobleme kommt wenn man die Spiele in hoher Farbtiefe rendert und man den Farbraum künstlich limitiert hat. Ich sag ja nicht das die PS4 es nicht kann aber die Frage ist immer unter welchen Bedingungen , vielleicht gibt es dort Situationen wo die Xbox One nach oben mehr Luft hat , während man zum B. auf der PS4 mehr Spielraum hat für Tesselation bedingt durch die höhere Fließkommaleistung. Warum soll ich als Spieldesigner auf ein gut ausgebauten Farbraum verzichten und mich mit einer niedrigen Fp Stufe zufrieden geben?? Die Ausrede von einigen das es sich hier um Alphacode handelt hört sich ein bisschen an wie "Damagecontrol" , LOL Alphacode die Konsole erscheint in 3 Monaten samt diesem Spiel und dann soll alles im Alphastadium sein , es müßte schon jetzt Goldstatus erreicht haben. Ich gebe dir recht die Gpu hat in Teilen eine ähnliche Struktur wie die der PS4 aber die GDDR5 Speicheranbindung halte ich für überbewertet , denn da laufen ja noch andere Sachen darüber (Sound, OS , CPU , Ingamerecords) und für CPU Aufgaben eignet sich ein DDR3 Speicherpool besser (nicht wegen dem Preis).

So oder so beide Systeme sind Kompromisse wenn man sie mit aktueller PC Hardware vergleicht , die
Frage ist nur wer sich jetzt geschickter angestellt hat.....

xiao didi *
2013-09-01, 20:50:59
Die Xone setzt auf normalen DDR3 Speicher. Der ist jetzt schon günstiger und wird in Zukunft nochmals billiger. GDDR5 ist hingegen teurer und wird in Zukunft nicht billiger, sondern von GDDR6 abgelöst.
;D
Ehrlich gesagt klingt fast jedes schön reden der xbox so, aber der Satz sticht dann doch irgendwie heraus.
Logik eines 4 Jährigen. You can't explain that.

Finch
2013-09-01, 20:52:26
;D
Ehrlich gesagt klingt fast jedes schön reden der xbox so, aber der Satz sticht dann doch irgendwie heraus.
Logik eines 4 Jährigen. You can't explain that.

jup, eine sehr merkwürdige Logik. Aber ok, DDR4 wird also nie existieren :D

just4FunTA
2013-09-01, 20:56:52
ja leute jetzt hört doch endlich auf megachip mit irgendwelchen Fakten zu nerven er hat fantasien und träume und wir alle müssen nur fest genug daran glauben dann wird schon alles gut gehen.

Alter schwede ist das ein irrer.. :eek::freak:

Felixxz2
2013-09-01, 21:02:23
Kann ich was dafür das Sony nicht die Überhardware gebaut hat??

Haben sie ja, nur du willst es nicht einsehn.



Warum ist es so schwer für euch zu verstehen das die Möglichkeit besteht das die Konsole evtl. intern mit einer höheren Farbtiefe rendert , das ist doch durchaus möglich (48bit Output können zumindestens für die Zukunft nicht ausgeschlossen werden) . Ebenso ist es möglich das die Spieleentwickler von Driveclub festgestellt haben das es auf der Ps4 zu Bandbreitenprobleme kommt wenn man die Spiele in hoher Farbtiefe rendert und man den Farbraum künstlich limitiert hat.

Nein ist es nicht. Farboutput sind 8 Bit pro Kanal und so wird auch gerechnet.
Und Bandbreitenprobleme auf der PS4? Is klar....7970 OC mit >300 GB/s hat auch Bandbreitenprobleme....aber Xbone mit 68GB/s nicht, wegen Cloud :freak:

Ich gebe dir recht die Gpu hat in Teilen eine ähnliche Struktur wie die der PS4


Es ist bis auf Details und Einheitenanzahl die selbe.


aber die GDDR5 Speicheranbindung halte ich für überbewertet

fälschlicher Weise

denn da laufen ja noch andere Sachen darüber (Sound, OS , CPU , Ingamerecords)

Ja.

und für CPU Aufgaben eignet sich ein DDR3 Speicherpool besser (nicht wegen dem Preis).


Nein.

dieFrage ist nur wer sich jetzt geschickter angestellt hat.....

Sony

Windi
2013-09-01, 21:08:11
jup, eine sehr merkwürdige Logik. Aber ok, DDR4 wird also nie existieren :D
Die Sache ist die, das DDR3 Speicher noch sehr lange produziert wird.
Und in der Zeit wird aus dem hoch getakteten DDR3 Speicher die billige Alternative zu dem bald erscheinenden DDR4 Speicher.

GDDR5 Speicher wird hingegen von GDDR6 abgelöst/ersetzt.
GDDR Speicher ist was für High-End Grafikkarten und nicht für irgendwelche Billiglösungen. Nicht umsonst sitzt auf günstigeren Grafikarten DDR3 und nicht GDDR4 Speicher.

Gipsel
2013-09-01, 21:10:32
Warum ist es so schwer für euch zu verstehen das die Möglichkeit besteht das die Konsole evtl. intern mit einer höheren Farbtiefe rendert ,Die Shader rechnen intern typischerweise mit vollen fp32-Werten (pro Komponente, nicht mit fp16, was beim 64bit-Framebufferformat dann davon nach der Konversion noch übrig bleibt). Welches Framebufferformat am Ende ausgespuckt wird, hängt von vielen Entscheidungen des Entwicklers ab.
das ist doch durchaus möglich (48bit Output können zumindestens für die Zukunft nicht ausgeschlossen werden) .Natürlich nicht, nur können die meisten Monitore das sowieso nicht darstellen (die Scheitern oft schon an 10 Bit pro Komponente). Im Übrigen kann das Auge sowieso nicht viel mehr erfassen. Da kommt es mehr darauf an, daß das Tonemapping vernünftig gemacht wird (das Runterrechnen auf das LDR-Bild, was man am Ende am Monitor sieht).
Warum soll ich als Spieldesigner auf ein gut ausgebauten Farbraum verzichten und mich mit einer niedrigen Fp Stufe zufrieden geben??Das muß kein "Spieldesigner"/Entwickler. Du bist keiner und mutmaßt nur rum.
Ich gebe dir recht die Gpu hat in Teilen eine ähnliche Struktur wie die der PS4 aber die GDDR5 Speicheranbindung halte ich für überbewertet , denn da laufen ja noch andere Sachen darüber (Sound, OS , CPU , Ingamerecords) und für CPU Aufgaben eignet sich ein DDR3 Speicherpool besser (nicht wegen dem Preis).Warum? Das bestreite ich.
Und bei der XB1 wird der DDR3 auch von allem Möglichen belastet. Die kann auch nicht nur aus dem eSRAM laufen (sonst wären wir bei Wii-Texturen).
So oder so beide Systeme sind Kompromisse wenn man sie mit aktueller PC Hardware vergleicht , die
Frage ist nur wer sich jetzt geschickter angestellt hat.....Das Fette kann ich unterstützen. Aber die UMA-Architektur (okay, die XB1 hat noch den eSRAM) ohne getrennten VRAM ist ein prinzipieller Vorteil der Konsolenarchitekturen.

PS:
Du plenkst gewaltig.

ndrs
2013-09-01, 21:48:34
Die Sache ist die, das DDR3 Speicher noch sehr lange produziert wird.
Und in der Zeit wird aus dem hoch getakteten DDR3 Speicher die billige Alternative zu dem bald erscheinenden DDR4 Speicher.

GDDR5 Speicher wird hingegen von GDDR6 abgelöst/ersetzt.
GDDR Speicher ist was für High-End Grafikkarten und nicht für irgendwelche Billiglösungen. Nicht umsonst sitzt auf günstigeren Grafikarten DDR3 und nicht GDDR4 Speicher.
Was spricht dagegen, im Zuge eines Zukünftigen Shrinks den GDDR5 durch DDR4 zu ersetzen? Dann wirds für Sony sicher günstiger bei gleicher Geschwindigkeit.

Windi
2013-09-01, 22:12:21
Was spricht dagegen, im Zuge eines Zukünftigen Shrinks den GDDR5 durch DDR4 zu ersetzen? Dann wirds für Sony sicher günstiger bei gleicher Geschwindigkeit.
Weil auf Konsolen extrem hardwarenahe programmiert wird und unterschiedliche Speichertypen unterschiedliche Timings haben.

dargo
2013-09-01, 22:21:22
Die Xone setzt auf normalen DDR3 Speicher. Der ist jetzt schon günstiger und wird in Zukunft nochmals billiger.
Wie kommst du eigentlich auf diese Idee? Man sieht doch wie teuer heute DDR2 ist nachdem er durch DDR3 verdrängt wurde. Ich wüsste jetzt nicht warum das bei DDR4 vs. DDR3 anders sein sollte.

Die Sache ist die, das DDR3 Speicher noch sehr lange produziert wird.

DDR2 wird auch noch produziert und kostet heute je GB wesentlich mehr als DDR3.


GDDR Speicher ist was für High-End Grafikkarten und nicht für irgendwelche Billiglösungen. Nicht umsonst sitzt auf günstigeren Grafikarten DDR3 und nicht GDDR4 Speicher.
What? :|

Erstens meinst du sicherlich GDDR5. Zweitens GDDR5 wäre was für High-End.
http://geizhals.at/de/sapphire-radeon-hd-6670-11192-14-20g-a670610.html

Soviel dazu.

HarryHirsch
2013-09-01, 22:25:27
Ist es nicht so das die höheren timings durch die höhere Bandbreite ausgeglichen wird?

dargo
2013-09-01, 22:33:29
Weil auf Konsolen extrem hardwarenahe programmiert wird und unterschiedliche Speichertypen unterschiedliche Timings haben.
Da sehe ich nicht so das Problem. Beim SoC der Xbox360 hat man die Hardware auch künstlich gebremst.
http://www.hartware.de/news_49846.html

M4xw0lf
2013-09-01, 22:48:51
Ist es nicht so das die höheren timings durch die höhere Bandbreite ausgeglichen wird?
Vor allem durch höhere Taktraten - Gipsel hat zb schon mehrfach betont, dass die absoluten Latenzen in ns weitgehend gleich bleiben.

HarryHirsch
2013-09-01, 22:57:14
Ist das nicht das gleiche? Mehr Takt beim Speicher endet normalerweise in mehr Bandbreite.
Die timings sind mmn eh uberbewertet.

ndrs
2013-09-01, 23:03:29
Ist das nicht das gleiche? Mehr Takt beim Speicher endet normalerweise in mehr Bandbreite.
Man kann Bandbreite auch durch mehr Datenleitungen erhöhen :) Aber ja, prinzipiell meintest du sicher das richtige und hast damit auch recht.

HarryHirsch
2013-09-01, 23:09:02
"Prinzipiell" :freak:
Mehr Takt, mehr Bandbreite. Ich spare mir das gespamme.

Lightning
2013-09-01, 23:22:23
Bandbreite ändert aber eben nichts an der Latenz. Und wenn tatsächlich die Latenz ein limitierender Faktor ist, kann das nicht durch höhere Bandbreite kompensiert werden.
Da Gipsel aber meint, dass die Latenz von GDDR5 kein Problem ist, habe ich keine Grundlage daran zu zweifeln. Wobei mich konkrete Zahlen schon mal interessieren würden, findet man leider nirgendwo.

HarryHirsch
2013-09-01, 23:25:32
Die Anfrage dauert länger. Der Job aber eben nicht.
So hab ich mir das bis jetzt vorgestellt.

Lost Boy
2013-09-01, 23:29:40
Kann ich was dafür das Sony nicht die Überhardware gebaut hat??


Haben sie auch nicht unbedingt bzw. es kommt darauf an was man als Kunde oder Entwickler für Erwartungen hat(te).

Sony scheint eine schlanke, kompakte, günstige Konsole entwickelt zu haben die sehr leicht zu programmieren ist und zu dem auf dem Papier leistungsfähiger zu sein scheint als die direkte Konkurenz.


Warum ist es so schwer für euch zu verstehen das die Möglichkeit besteht das die Konsole evtl. intern mit einer höheren Farbtiefe rendert

Ich denke dass der Entwickler bestimmt welche Farbtiefe er für sein Spiel haben möchte. Heutzutage ist es eine reine Designentscheidung.

Die Ausrede von einigen das es sich hier um Alphacode handelt hört sich ein bisschen an wie "Damagecontrol" , LOL Alphacode die Konsole erscheint in 3 Monaten samt diesem Spiel und dann soll alles im Alphastadium sein , es müßte schon jetzt Goldstatus erreicht haben.

Also nochmal für dich. Das was es bisher zu sehen gab von Driveclub war Pre Alpha und Alpha code. Das ist eine Aussage die direkt von Evolution Studios kommt. Was verstehst du daran nicht? Deine Aussage, dass es jetzt schon Gold sein müsste halte ich ebenfalls für falsch.

Die letzten 3-6 Monate sind bei der Entwicklung eines Videospiels enorm wichtig. In 3-6 Monaten kann einiges passieren.

So oder so beide Systeme sind Kompromisse wenn man sie mit aktueller PC Hardware vergleicht , die

Eine Videospielkonsole ist immer ein technischer Kompromiss. Das hat schlicht und ergreifend wirtschaftliche Gründe.

Frage ist nur wer sich jetzt geschickter angestellt hat.....

Sony.

Gipsel
2013-09-01, 23:34:07
Wobei mich konkrete Zahlen schon mal interessieren würden, findet man leider nirgendwo.
In den Datenblättern der Speicherhersteller stehen die schon drin. Ich habe mir die irgendwann mal angeschaut (http://forum.beyond3d.com/showpost.php?p=1714988&postcount=132) (die Zahlen da kommen direkt da draus), die Links müßte ich suchen (findet man aber irgendwo auf den Webseiten der Speicherhersteller).

HarryHirsch
2013-09-01, 23:43:48
Ich verstehe den Zusammenhang immer noch nicht. Was können 3ns schon veranstalten?
Die Daten kommen doch viel schneller an.

Lightning
2013-09-02, 00:36:31
In den Datenblättern der Speicherhersteller stehen die schon drin. Ich habe mir die irgendwann mal angeschaut (http://forum.beyond3d.com/showpost.php?p=1714988&postcount=132) (die Zahlen da kommen direkt da draus), die Links müßte ich suchen (findet man aber irgendwo auf den Webseiten der Speicherhersteller).

Ah okay, sieht ja gar nicht so schlecht aus. In den meisten Diskussionen liest man halt immer nur dass GDDR5 in der Praxis entweder schlechtere oder ähnliche Latenzen wie DDR3 hat, aber nie mit Zahlen oder Quellen unterlegt.

Ich verstehe den Zusammenhang immer noch nicht. Was können 3ns schon veranstalten?
Die Daten kommen doch viel schneller an.

Latenz ist die Zeit, die benötigt wird, um den gewünschten Speicherort zu adressieren, also nicht die eigentliche Datenübertragung an sich. Kurz gesagt spielt die Latenz bei kleineren, unabhängigen Zugriffen eine wichtigere Rolle, da sie dann einen größeren Teil der Gesamtzugriffszeit ausmachen. Überträgt man dagegen mehr Daten am Stück ist die Bandbreite entscheidender.

Du kannst im Grunde die Analogie zur Internetverbindung ziehen. Hohe Bandbreite ist toll, um schnell (größere) Dateien zu übertragen, aber beim Onlinespielen bestimmt in der Regel der Ping dein Spielerlebnis, also die Latenz.

Felixxz2
2013-09-02, 01:21:41
Afaik werden bei Wikipedia die absoluten Timings von DDR1-3 dargestellt, lässt sich ja dann auf GDDR5 übertragen. Und da ist eben das selbe: DDR1 hat in ns keine bessere Latenz.

StefanV
2013-09-02, 11:45:00
Ist es nicht so das die höheren timings durch die höhere Bandbreite ausgeglichen wird?
Nee, das mit den Timings ist auch völliger bullshit. Hat Gipsel auch schon hunderte male dargelegt.

Ganz ab davon:

2-2-2 bei 100MHz = 4-4-4 bei 200MHz = 8-8-8 bei 400MHz = 16-16-16 bei 800MHz = 32-32-32 bei 1600MHz.

Die Latenzen schauen hier beim 1600MHz Speicher richtig scheiße aus, in Takten. Nur in Nanosekunden sind sie genau so lahm wie die 2-2-2er bei 100MHz. Und genau DAS ist der Fehler, den viele begehen: es werden einfach die Takte verglichen. Das ganze wird aber NICHT in 'echte Zeit' (in ns) umgerechnet. Und das ist einfach total falsch, siehe mein Beispiel weiter oben.

HOT
2013-09-02, 15:38:38
Da die Chips auf dem PCB verlötet werden und das PCB dahingehend optimiert werden kann und die Chips extrem nah am Speichercontroller liegen wird die Latenz bei GDDR5 erheblich niedirger sein als bei gesockeltem DDR3. Ich halte das echt für ne Ente, das GDDR5 höhere Latenzen hat als DDR3.

DrMabuse1963
2013-09-02, 15:50:04
Für mich ist MS das Unwort des Jahres 2013....
http://www.gamestar.de/hardware/news/konsolen/3027370/xbox_illumiroom.html

Sven77
2013-09-02, 16:05:31
Hä, das war doch von Anfang an klar das das nur Proof-of-concept war...

][immy
2013-09-02, 17:47:36
Nee, das mit den Timings ist auch völliger bullshit. Hat Gipsel auch schon hunderte male dargelegt.

Ganz ab davon:

2-2-2 bei 100MHz = 4-4-4 bei 200MHz = 8-8-8 bei 400MHz = 16-16-16 bei 800MHz = 32-32-32 bei 1600MHz.

Die Latenzen schauen hier beim 1600MHz Speicher richtig scheiße aus, in Takten. Nur in Nanosekunden sind sie genau so lahm wie die 2-2-2er bei 100MHz. Und genau DAS ist der Fehler, den viele begehen: es werden einfach die Takte verglichen. Das ganze wird aber NICHT in 'echte Zeit' (in ns) umgerechnet. Und das ist einfach total falsch, siehe mein Beispiel weiter oben.
grundsätzlich hast du natürlich recht. aber es gibt da noch eine kleingkeit zu beachten. Die dinger sind höher getaktet und erreichen letztlich nur dadurch ihre theoretisch hohe Bandbreite.
D.h. wenn es auch letztlich die gleiche Latenz ist, verlierst du verhältnismäßig mehr theoretische Bandbreite, da für die x takte keine Daten übertragen werden können. Letztlich verbleibt zwar trotzdem mehr Bandbreite durch den höheren Takt (weil auch in der restlichen zeit mehr übertragen werden kann), die Effizienz sinkt aber.
daher wären "realistischere" zahlen eigentlich besser für einen vergleich.

aber genau hier sehe ich eigentlich einen Vorteil für den esram. Jeder Zugriff auf diesen Speicher spart einfach Bandbreite beim DDR3. Da dies grad bei der GPU ziemlich exzessiv passieren dürfte, spart es hier auch viel Bandbreite ein. Klar, die Texturen müssen ab und an mal aus dem Speicher geholt werden, aber die sind halt nicht alles was die grafik ausmacht.
Was mich wirklich mal interessieren würde wäre eine DDR3 vs GDDR5 Grafikkarte, wobei die DDR3 Karte nicht grad nur mit 800Mhz getaktet sein sollte (wobei ich mir da nicht mal sicher bin, ob es in Wirklichkeit bei den Karten auf dem Markt nur 400Mhz sind zudem das Speicherinterface dann auch häufig sehr klein ausfällt). Interessant wäre einfach eine Karte die dann wirklich mit 1066 MHz den Speicher taktet.

btw: http://www.3dcenter.org/news/zur-performance-der-radeon-hd-7730-ddr3
Dabei ist es aber ein nicht ganz fairer vergleich der nvidia-Karten weil die GDDR5 Karte den Chip 146Mhz höher getaktet ist (trotzdem nur 10% unterschied beim Performance index), gut aber dafür ist das Speicherinterface beim GDDR5 halbiert.
bei der 7730 & 7750 kommt auch nur 900Mhz Schneller DDR3 Speicher zum Einsatz (ist das jetzt 900Mhz DDR oder 450Mhz real? ... ich komme da in letzter zeit immer durcheinander) und wäre dann DDR3 1800 (wenn die 900 MHz zutreffen).
Auf der xbox one ist der DDR3 Speicher nicht nur höher getaktet (was die Differenz zum GDDR5 Speicher der anderen Karten wieder wett machen dürfte), sondern auch noch doppelt so breit angebunden. Also was ich schon mal sagte, Bandbreite hat die xbox one genug.
Das sollte übrigens kein vergleich zur PS4 werden, nur ein dezenter Hinweis, das der Chip (auch dank esram) mehr als genug Bandbreite hat ;)

HOT
2013-09-02, 18:17:11
Da der eSRAM nichts anderes als ein LLC ist, spart der überhaupt keine Bandbreite. Alles was da drin steht, steht auch im Speicher.

StefanV
2013-09-02, 18:19:44
[immy;9902689']grundsätzlich hast du natürlich recht. aber es gibt da noch eine kleingkeit zu beachten. Die dinger sind höher getaktet und erreichen letztlich nur dadurch ihre theoretisch hohe Bandbreite.
D.h. wenn es auch letztlich die gleiche Latenz ist, verlierst du verhältnismäßig mehr theoretische Bandbreite, da für die x takte keine Daten übertragen werden können. Letztlich verbleibt zwar trotzdem mehr Bandbreite durch den höheren Takt (weil auch in der restlichen zeit mehr übertragen werden kann), die Effizienz sinkt aber.
daher wären "realistischere" zahlen eigentlich besser für einen vergleich.
Sorry, aber HÄ?!
Wovon zur Hölle sprichst du?! Und welchen Unterschied macht es, ob ich 10 Takte bei 1GHz warten muss, bei einem 32bit Speicherinterface oder 5 Takte bei 500MHz bei einem 64bit Speicherinterface.

Du siehst, letztendlich ists völlig ralle und die Zugriffszeiten bei DRAM sind einfach mal IMMER in einem ähnlichen Bereich.

[immy;9902689']
aber genau hier sehe ich eigentlich einen Vorteil für den esram.
Ich nicht.
Er ist einerseits viel zu klein, um wirklich was bringen zu können, nicht völlig transparent und erhöht den Aufwand für den, der es benutzt. Was ja nicht so schlimm wäre, wenn dieser eSRAM für heutige Verhältnisse eine angemessene Größe hätte. Hat er aber nicht. Und genau das ists ja auch, was viele kritisieren...

[immy;9902689']
Jeder Zugriff auf diesen Speicher spart einfach Bandbreite beim DDR3.
Nur blöd, dass du ein Verhältnis von 1:256 hast.
Also der Systemspeicher ist 256mal so groß wie dieser kleine Speicher...


Kurzum:
Du versuchst hier gerade mit 'nem Doppel-T Träger irgendwie die Architektur der XBox zu verteidigen...

drkohler
2013-09-02, 18:21:33
Da die Chips auf dem PCB verlötet werden und das PCB dahingehend optimiert werden kann und die Chips extrem nah am Speichercontroller liegen wird die Latenz bei GDDR5 erheblich niedirger sein als bei gesockeltem DDR3. Ich halte das echt für ne Ente, das GDDR5 höhere Latenzen hat als DDR3.Beide Konsolen haben natürlich keine Sockel, sondern direkt verlötete Chips. Spart Geld und Platz (und Komplizierteres). Natürlich werden Ramchips immer so nahe als möglich zum Verbraucher gesetzt. Wer die Ramchips ans andere Ende des PCBs designed hat absolut keine Zukunft in der Industrie...
Grundsätzlich sind die Latenzen bei gddr5 Speicher immer höher als bei ddr3, bei gddr5 läuft eben einfach wesentlich Mehr ab bei Speichertransfers für ddr Speicher. Wenn du ein Datenblatt von ggdr5 liest (ist mehr ein Datenbuch mit dutzenden von Tabellen und Timing-Diagrammen) wirst du keine Antwort finden auf die Frage "Wie hoch ist die Latenz?", ganz einfach weil schon mal der Speichercontroller auf mehrere Arten programmiert werden kann (Latenz auf Kosten von Geschwindigkeit, Stromverbrauch, etc). Die Latenz absolut ist aber immer etwas höher als bei "normalem" Speicher.
Man liest immer wieder "für cpus ist ddr besser als gddr". Diese Leute sind irgenwo im Jahr 1980 festgefahren, als es noch keine cache-Controller gab. Heutzutage sieht keine cpu mehr den Speicher, der cache-Controller macht die Arbeit. Bei guten Controllern (und vernünftigen Programmen) sind die Code-Daten zu >98% im Cache (das gilt auch für gpu-controller, da ist meist Alles im cache). Das einzige Problem sind die Daten. Schlechte Programmierer verteilen die Daten querbeet im Code, dann hast du Probleme mit Latenzen. Mit etwas Planung und Können sind aber auch Datenzugriffe kein Problem. Im Endeffekt gewinnt die höhere Bandbreite, und die scheint bei der PS4 höher zu sein als bei der XBoxOne.

][immy
2013-09-02, 18:30:09
Nur blöd, dass du ein Verhältnis von 1:256 hast.
Also der Systemspeicher ist 256mal so groß wie dieser kleine Speicher...

Warum glauben die leute eigentlich immer das Grafik nur aus großen Texturen bestehen, die alle da gleichzeitig reinpassen müssten?
Eine Textur liegt im Hauptspeicher das ist klar, aber alles andere, was dort reinpasst eben nicht. Darum geht es bei dem esram. Ein einzelner read blockiert den speicher für jedem in dem System der nicht einen kleinen Cache hat. die xbone gpu schöpft halt einen Großteil der Bandbreite aus dem kleinen speicher (ähnlich wie bei der xbox 360.. ähnlich). 32mb sind da schon einen ganze menge. könnte durchaus größer sein, reicht aber aus.


und nein, es ist nicht so das alle Daten die ganze Zeit mit dem DDR3 Speicher synchonisiert werden müssten. Klar liegen viele Daten die im esram liegen auch im Hauptspeicher, müssen aber nur einmalig geladen werden für einen berechnungszyklus und nicht mehrfach vom ddr3 speicher geladen werden. Für die schreibzugriffe gilt ähnliches. Anstatt das der DDR3 Speicher mit Schreibzugriffen vollgepustet wird, werden viele von diesen erst mal auf dem esram ausgelagert, sind die Daten dann irgendwann "komplett" (wenn halt nur für das tile) werden diese zurückgeschrieben. was einfach entfällt sind stetige zugriffe. dann kann der speicher ruhig klein sein, es spart einfach Bandbreite.
das ganze ist natürlich mehr aufwand, aber halt sparsamer.

ndrs
2013-09-02, 19:23:58
Da der eSRAM nichts anderes als ein LLC ist, spart der überhaupt keine Bandbreite. Alles was da drin steht, steht auch im Speicher.
Nein.

HOT
2013-09-02, 20:03:14
Nein.
Doch :D. Der ist doch nicht separat adressiert.

StefanV
2013-09-02, 20:14:15
Doch :D. Der ist doch nicht separat adressiert.
Das ist ja das blöde: Er ist separat adressiert...

prinz_valium
2013-09-02, 20:40:48
Ich nicht.
Er ist einerseits viel zu klein, um wirklich was bringen zu können, nicht völlig transparent und erhöht den Aufwand für den, der es benutzt. Was ja nicht so schlimm wäre, wenn dieser eSRAM für heutige Verhältnisse eine angemessene Größe hätte. Hat er aber nicht. Und genau das ists ja auch, was viele kritisieren...



was wäre das denn, wenn es immer von allen bemängelt wird?

das doppelte? 4 fache?

wir haben jetzt schon 1,1 milliaden transistoren alleine für den esram
beim doppelten wären das 2,2
beim vierfachen wären wir bei 4,4, was alleine so viel, wie der gesamt chip ohne esram wäre.

wären krumme steigerungen sinnvoll, oder überhaupt machbar?
imho wäre man mit mehr einfach zu überdimensioniert für den chip und dessen leistung.

Coda
2013-09-02, 20:59:46
Sind 8 Jaguar nicht auch kleiner als 2 Piledriver Module ?
Bei weitem

StefanV
2013-09-02, 21:19:17
imho wäre man mit mehr einfach zu überdimensioniert für den chip und dessen leistung.
Und genau deswegen wäre das beste gewesen, diesen blöden Cache weg zu lassen und dafür mehr Einheiten rein zu kloppen - oder ein weiteres Speicher Interface, um dann 'nen 512Mib eDRAM Die daneben zu klatschen.
DAS wäre sinnvoll. Aber so 'nen bisserl SRAM, der nix halbes und nix ganzes ist, macht nicht unbedingt Sinn...

So erinnert das ganze a bisserl an den Graphics Synthesiser der Playstation 2.

Kira
2013-09-02, 21:30:38
bin jetzt nicht so der Technikfreak wie die meisten hier, aber hat die PS4 im Vergleich zur PS3 nicht knapp 30 x mehr RAM?

PS3 = 256MB Ram + 256MB Grafikspeicher?

muss die Konsole da nicht unglaublich mehr auch leisten können? sprich wirklich mehr als nur Spiele wie Watch Dogs usw, die schon gut aussehen?

Wie leistungsfähig ist die CPU im Vergleich zum Cell? (unabhängig einfachen programmieren für die Entwickler)

Akkarin
2013-09-02, 21:33:54
Ich komm auf 16 ? 0.5 GB vs. 8GB.

Kira
2013-09-02, 21:44:09
hast du natürlich recht

dargo
2013-09-02, 21:51:16
bin jetzt nicht so der Technikfreak wie die meisten hier, aber hat die PS4 im Vergleich zur PS3 nicht knapp 30 x mehr RAM?

PS3 = 256MB Ram + 256MB Grafikspeicher?

muss die Konsole da nicht unglaublich mehr auch leisten können? sprich wirklich mehr als nur Spiele wie Watch Dogs usw, die schon gut aussehen?

Theoretisch ist die 16 fache Menge an Speicher vorhanden. Praktisch wird man für Spiele aber 5+GB nutzen können. Also eher die 10 fache Menge mit einer kleinen offenen, späteren Option. Die Speichermenge hat nicht direkt was mit der Leistungsfähigkeit zu tun.

DinosaurusRex
2013-09-03, 16:07:04
Angeblich wurde die PS4 mit VR im Hinterkopf konzipiert, das berichtet zumindest Eurogamer:

Sony set to go big with virtual reality on PlayStation 4 (http://www.eurogamer.net/articles/2013-09-03-sony-set-to-go-big-with-virtual-reality-on-playstation-4)

http://www.blogcdn.com/www.engadget.com/media/2013/08/hmz2.jpg

Und passend dazu die neusten Nachrichten zum brandneuen HMZ-T3:

Sony's new HMZ-T3 wearable display gets 'wireless' option, easy smartphone connectivity and HD audio (hands-on) (http://www.engadget.com/2013/09/03/sony-new-hmz-t3-head-mounted-display-wireless-hands-on/)

http://cdn.medialib.computerandvideogames.com/screens/dir_3065/image_306540_fit_940.jpg

Laut CVG wird Sony das neue VR Headset auf der Tokyo Game Show präsentieren:

Sony to reveal PS4 Virtual Reality headset at TGS (http://www.computerandvideogames.com/420136/sony-to-reveal-ps4-virtual-reality-headset-at-tgs/)

TheCounter
2013-09-03, 17:35:43
Allerdings nur 720p, also wohl nicht wirklich zu gebrauchen. Dann lieber OR ;)

Erdbeermayonnaise
2013-09-03, 17:44:54
Allerdings nur 720p, also wohl nicht wirklich zu gebrauchen. Dann lieber OR ;)
Ich geb 1080p auf den neuen Konsolen vielleicht max. 2 Jahre, dann kommen die meisten Spiele wahrscheinlich sowieso wieder nur in 720p.


Hoffentlich bin ich nur pessimistisch. :frown:

Flyinglosi
2013-09-03, 17:59:42
Ich geb 1080p auf den neuen Konsolen vielleicht max. 2 Jahre, dann kommen die meisten Spiele wahrscheinlich sowieso wieder nur in 720p.


Hoffentlich bin ich nur pessimistisch. :frown:
Bei einem Preis von 400€ für eine PS4 wäre das ja (im Vergleich mit einem PC) gar nicht mal so schlecht.

Deathcrush
2013-09-03, 18:36:21
Ich geb 1080p auf den neuen Konsolen vielleicht max. 2 Jahre, dann kommen die meisten Spiele wahrscheinlich sowieso wieder nur in 720p.


Hoffentlich bin ich nur pessimistisch. :frown:

Was ein Blödsinn! Warum reden hier alle immer von 720p? Das wird sicher nicht so oft passieren, wenn überhaupt. Wenn die die Auflösung reduzieren, wird sicher sowas wie 1440x900 kommen oder ähnliches. Es gibt nämlich noch Auflösungen zwischen 1080 und 720p, das sollte man immer im Hinterkopf behalten ;)

aufkrawall
2013-09-03, 18:40:17
Und es gibt auch noch Auflösungen unter 720p.

prinz_valium
2013-09-03, 19:07:21
und welche ist am besten zu skalieren auf nem 1080p bildschirm?

imho macht das schon sinn einfach 720p zu nehmen, wenn die leitung für 1080p und den ganzen rest nicht ausreicht.
aber vllt sind die skaler ja auch so gut, dass man alle möglichen dazwischen auch nutzen kann. wir werden sehen

TheGoD
2013-09-03, 23:53:21
Angeblich wurde die PS4 mit VR im Hinterkopf konzipiert, das berichtet zumindest EurogamerDa es da ja auch soviel zu optimieren (an der Hardware) gibt;D Ich meine die PS4 soll laut Sony in Spielen maximal 1080p unterstützen, die GPU etc. ist von der Stange und jegliches HMD wird einfach per HDMI (+ gegebenenfalls Bluetooth/USB für das Tracking) angebunden. Naja, vielleicht wurden die HDMI-Ausgänge ja so platziert das sie von vorne gut erreichbar sind.;D

und welche ist am besten zu skalieren auf nem 1080p bildschirm?

imho macht das schon sinn einfach 720p zu nehmen, wenn die leitung für 1080p und den ganzen rest nicht ausreicht.
aber vllt sind die skaler ja auch so gut, dass man alle möglichen dazwischen auch nutzen kann. wir werden sehenWo sollte bei 720p da denn der Vorteil sein?

Deinorius
2013-09-04, 00:05:24
und welche ist am besten zu skalieren auf nem 1080p bildschirm?


Na 1080p natürlich! :D

Die Frage ist irrelevant, da die neuen Konsolen sicher wieder einen Scaler bekommen werden, welcher auch dann ein 1080p Signal an den TV schickt.

Hallo
2013-09-04, 04:24:33
Für mich ist MS das Unwort des Jahres 2013....
http://www.gamestar.de/hardware/news/konsolen/3027370/xbox_illumiroom.html


Nette Idee, Problem ist nur das ich mit nem Beamer gleich komplett zocken will ohne TV dazwischen. Oder ich geh Multimonitor.

Locuza
2013-09-04, 06:34:58
Und genau deswegen wäre das beste gewesen, diesen blöden Cache weg zu lassen und dafür mehr Einheiten rein zu kloppen - oder ein weiteres Speicher Interface, um dann 'nen 512Mib eDRAM Die daneben zu klatschen.
DAS wäre sinnvoll. Aber so 'nen bisserl SRAM, der nix halbes und nix ganzes ist, macht nicht unbedingt Sinn...

So erinnert das ganze a bisserl an den Graphics Synthesiser der Playstation 2.
Aus welcher Perspektive wäre das sinnvoll?
Das entscheidende ist, dass es insgesamt "sinnvoll" ist.

BTW:
http://www.geekwire.com/2013/xbox-update-console-full-production-improved-cpu-performance/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+geekwire+%28GeekWire%29

Der CPU Takt der Xbox One beträgt jetzt offiziell 1,75 Ghz.

00-Schneider
2013-09-04, 08:55:39
und welche ist am besten zu skalieren auf nem 1080p bildschirm?


540p natürlich. 1080p wäre die genaue Vervierfachung, da doppelte Höhe + doppelte Breite. ;)

Der CPU Takt der Xbox One beträgt jetzt offiziell 1,75 Ghz.


Da zahlt sich das große Gehäuse dann doch aus. So konnte man die GPU und CPU nochmal hochschrauben, ohne sich um die Wärmeentwicklung sorgen machen zu müssen. Bei der PS4 habe ich da so meine Zweifel, was diese Möglichkeit anbelangt...

][immy
2013-09-04, 09:38:11
540p natürlich. 1080p wäre die genaue Vervierfachung, da doppelte Höhe + doppelte Breite. ;)

oder es wird halt wieder sowas wie 1080i oder es wird nur in eine Richtung halbiert. früher oder später wird es sowas eh wieder geben. 540p wäre nun ... nicht sehr schön.



Da zahlt sich das große Gehäuse dann doch aus. So konnte man die GPU und CPU nochmal hochschrauben, ohne sich um die Wärmeentwicklung sorgen machen zu müssen. Bei der PS4 habe ich da so meine Zweifel, was diese Möglichkeit anbelangt...
naja, noch weiß man ja nicht wie hoch die PS4 getaktet ist. wobei ich mir da immer mehr sorgen wegen dem internen Netzteil mache. man wird wohl bei der PS4 auch trotz der 800 MHz GPU wohl noch weit von dem entfernt sein was die ur PS3 verbraucht hat. aber so nen internes Netzteil erzeugt ja auch ein wenig wärme die abgeführt werden will.

eine CPU Takt-Erhöhung kann generell wohl nicht schaden, wird aber wohl letztlich nicht viel ausmachen.

ich frage mich aber immernoch warum die xbox so ein überdimensioniertes Netzteil hat. klar das ding soll für 24/7 Betrieb ausgelegt sein und so ein Netzteil lässt mit der zeit nach, aber das Netzteil scheint ja größer zu sein als mein internes 650Watt Netzteil. Müsste da aufgrund der Leistungsaufnahme nicht ein größeres Notebook-Netzteil reichen?

Dural
2013-09-04, 09:56:17
Jetzt hat die XOne mehr CPU Leistung als die PS4, das lässt den Fanboy Krig erneut aufflammen :wink:

DinosaurusRex
2013-09-04, 10:03:23
Haben die Studios nicht gesagt, die PS4 sei perfekt ausbalanciert was CPU, GPU, Bandbreite und sogar HDD betrifft? Warum braucht Microsoft jetzt 150MHz mehr trotz einer deutlich schwächeren GPU? Vielleicht um die GPU-Takterhöhung auszubalancieren? :confused:

Iceman346
2013-09-04, 10:07:09
"Die Studios" sagen viel wenn Sony mit Geldscheinen winkt. Auf solche Aussagen würde ich nicht viel legen, auch da kein Studio bereits wirklich lange mit der Hardware arbeitet.

Übermäßig viel würde ich von der Taktratenerhöhung der One aber auch nicht erwarten.

00-Schneider
2013-09-04, 10:11:27
Haben die Studios nicht gesagt, die PS4 sei perfekt ausbalanciert was CPU, GPU, Bandbreite und sogar HDD betrifft? Warum braucht Microsoft jetzt 150MHz mehr trotz einer deutlich schwächeren GPU? Vielleicht um die GPU-Takterhöhung auszubalancieren? :confused:


Die "brauchen" gar nichts. Die haben halt geschaut, wie gut die Chipausbeute ist. Als sie gemerkt haben, dass sie so gut war, dass sie noch an der Taktschraube drehen könnten, haben sie es einfach gemacht. Mehr Takt schadet nie, solange alles stabil läuft. ;)

Spasstiger
2013-09-04, 10:12:15
540p natürlich. 1080p wäre die genaue Vervierfachung, da doppelte Höhe + doppelte Breite. ;)
720p auf 1080p skaliert sollte trotzdem besser aussehen.

Dural
2013-09-04, 10:13:19
MS hat einfach überall dort gedreht wo sie so kurz vor der Veröffentlichung halt drehen konnten und das ist halt der Takt ;)

Was die Veranstalten ist so wie so ein Marketing Gau, wenn man sein Gerät anpassen (muss) geht man damit sicher nicht gleich in die Öffentlichkeit, sondern macht es einfach so / oder sagt es war schon immer so Vorgesehen... ;)

MS hat mit ihren Aktionen ja nichts anderes Bestätigt was wir alle wissen: die XOne ist Hardware Technisch der PS4 unterlegen und die Verantwortlichen bei MS haben wohl schon weiche Knie bekommen ;)

Kira
2013-09-04, 10:14:24
wann gibt Sony den CPU Takt der PS4 bekannt? Könnte das nicht heißen, dass sie evtl auch 1,75 oder evtl. mehr hat?

dargo
2013-09-04, 10:15:30
Warum braucht Microsoft jetzt 150MHz mehr trotz einer deutlich schwächeren GPU? Vielleicht um die GPU-Takterhöhung auszubalancieren? :confused:
Weil Coda sich mehr CPU-Leistung gewünscht hat. :devil:

DinosaurusRex
2013-09-04, 10:18:19
Weil Coda sich mehr CPU-Leistung gewünscht hat. :devil:

Kann der nicht einfach GPGPU lernen? ;D


Nicht hauen!

Ailuros
2013-09-04, 10:23:15
Kann der nicht einfach GPGPU lernen? ;D


Nicht hauen!



LOL nix hauen aber es gibt selbst dort fundamentale Unterschiede zwischen seriell und parallel :P

DinosaurusRex
2013-09-04, 10:32:16
LOL nix hauen aber es gibt selbst dort fundamentale Unterschiede zwischen seriell und parallel :P

Schon klar, aber wenn man die Dinge, die bisher auf einer CPU laufen, jedoch theoretisch von einer hohen parallelen Arithmetikleistung profitieren würden, auf die GPU auslagert, werden doch automatisch mehr Ressourcen frei für die seriellen Dinge mit vielen Sprüngen, oder nicht?

:ucatch:

Ailuros
2013-09-04, 10:37:13
Schon klar, aber wenn man die Dinge, die bisher auf einer CPU laufen, jedoch theoretisch von einer hohen parallelen Arithmetikleistung profitieren würden, auf die GPU auslagert, werden doch automatisch mehr Ressourcen frei für die seriellen Dinge mit vielen Sprüngen, oder nicht?

:ucatch:

Die erste Frage waere warum man bisher so daemlich war ueberhaupt eine jegliche CPU mit hochparallelem code zu quaelen? Es ist ja nicht so dass heutige Konsolen keine GPUs haben.

DinosaurusRex
2013-09-04, 10:38:50
Die erste Frage waere warum man bisher so daemlich war ueberhaupt eine jegliche CPU mit hochparallelem code zu quaelen? Es ist ja nicht so dass heutige Konsolen keine GPUs haben.

PCIe?

(Meine Fragezeichen sind übrigens alle ernst gemeint. Ich habe tatsächlich keine Ahnung von diesen Dingen)

dargo
2013-09-04, 10:45:33
PCIe?

Bei Konsolen? :D

DinosaurusRex
2013-09-04, 10:46:41
Ja dann halt "Latenz" im Allgemeinen. :)

Ailuros
2013-09-04, 10:56:07
Ja dann halt "Latenz" im Allgemeinen. :)

Ich lass mich gerne eines besseren belehren aber ich kann mir keinen Fall generell vorstellen.

DinosaurusRex
2013-09-04, 10:59:57
Hier werden ein paar Anwendungsfälle genannt:

http://de.slideshare.net/hsafoundation/hsa-intro-hot-chips2013-final

Zum Beispiel "Gameplay Rigid Body Physics".

Ailuros
2013-09-04, 11:11:56
Hier werden ein paar Anwendungsfälle genannt:

http://de.slideshare.net/hsafoundation/hsa-intro-hot-chips2013-final

Zum Beispiel "Gameplay Rigid Body Physics".

Es geht hier nicht darum welche compute Faelle auf einer GPU Sinn machen wuerden, sondern ob irgend jemand so daemlich war hochparallelen code auf eine Konsolen CPU bis jetzt zu schmeissen. Sonst damit es hilft:

http://withimagination.imgtec.com/index.php/powervr/mobile-gpu-compute-must-be-practical-gpu-compute

A basic rule to remember: just because a task is parallel and non-divergent doesn’t mean that it should run on a mobile GPU – it must always be a sensible usage of your valued battery life.

Auf einer Konsole ist man zwar nicht soooo Verbrauchs-bedingt wie auf einem SFF SoC aber die resourcen sind auch auf einer Konsole nicht unendlich. Ein jeglicher Entwickler sollte schon wissen auf welcher Einheit jegliche Aufgabe mehr Sinn macht und es ist eben auch nicht so dass Konsole und Kompromisse nicht in den gleichen Satz passen.

DinosaurusRex
2013-09-04, 11:25:47
In deinem Link steht:


When running a game with console-quality graphics, using GPU compute for some physics calculations does not make sense. While physics are parallel and have limited divergence, in this usage scenario the GPU is already very busy delivering stunning graphical quality to a high resolution screen, hence further loading (or perhaps more accurately overloading) the GPU with a physics task will typically just lead to an overall reduced consumer experience (e.g. lower framerate and/or lower image quality). - See more at: http://withimagination.imgtec.com/index.php/powervr/mobile-gpu-compute-must-be-practical-gpu-compute#sthash.DCMExdhh.dpuf

Mark Cerny hat öffentlich gesagt, dass beides möglich ist. Er nannte das "asynchronous fine-grain compute" und sagte, dass die PS4 das ab ungefähr 2015 können wird. Hat er gelogen?

EDIT Hier ist übrigens das Interview: http://www.eurogamer.net/articles/digitalfoundry-face-to-face-with-mark-cerny


And then for the GPU we went in and made sure if would work better for asynchronous fine-grain compute because I believe that with regards to the GPU, we'll get in a couple of years into the hardware cycle and it'll be used for a lot more than graphics. Now when I say that many people say, "but we want the best possible graphics". It turns out that they're not incompatible. If you look at how the GPU and its various sub-components are utilised throughout the frame, there are many portions throughout the frame - for example during the rendering of opaque shadowmaps - that the bulk of the GPU is unused. And so if you're doing compute for collision detection, physics or ray-casting for audio during those times you're not really affecting the graphics. You're utilising portions of the GPU that at that instant are otherwise under-utilised. And if you look through the frame you can see that depending on what phase it is, what portion is really available to use for compute.

Das mit 2015 stammt glaube ich aus einem anderen Interview.

Lord_X
2013-09-04, 11:28:02
Jetzt hat die XOne mehr CPU Leistung als die PS4, das lässt den Fanboy Krig erneut aufflammen :wink:
Der finale CPU-Takt der PS4 ist noch gar nicht offiziell!

Locuza
2013-09-04, 11:35:38
In deinem Link steht:

Mark Cerny hat öffentlich gesagt, dass beides möglich ist. Er nannte das "asynchronous fine-grain compute" und sagte, dass die PS4 das ab ungefähr 2015 können wird. Hat er gelogen?
Das ist jetzt nicht direkt zu vergleichen, da das PS4 System und die GPU sich doch deutlich von den mobilen Produkten unterscheiden.
Wenn man sich die Roadmaps von Nvidia oder AMD anschaut, dann wird auch klar das beide in die Richtung entwickeln, beides parallel ausführen zu können, mit deutlich weniger Konflikten, eine solche Entwicklung stellen schon einmal die ACEs, HyperQ und das generelle GPU-Design dar.
Die Gewichtung Energieffienz ist auf einer mobilen Plattform natürlich dann noch extra kritisch zu bewerten.

prinz_valium
2013-09-04, 11:37:19
http://www.pcgameshardware.de/Xbox-One-Konsolen-232351/News/Xbox-One-Geruechte-um-leistungsstarke-dedizierte-GPU-1086649/

wtf muss ich hier lesen?

das glaube ja sogar ich nicht
aber lustig wäre es schon

was sollen solche gerüchte?
da kann doch nicht eine verstecke gpu im chip drin sein
und wenn doch, zählt diese zu den 5 milliarden transistoren, oder hat man da auch einfach gelogen, um sie weiterhin geheim zu halten?

imm vllt auch eine reine nsa gpu :D

Deinorius
2013-09-04, 11:43:04
Auf dem Zwischenlayer des SoC... :ulol:
Mit einer dreimal so großen GPU...
Mit der bisher bekannten simplen Kühlung...

Srly? :uup:

Ailuros
2013-09-04, 11:47:26
In deinem Link steht:

Mark Cerny hat öffentlich gesagt, dass beides möglich ist. Er nannte das "asynchronous fine-grain compute" und sagte, dass die PS4 das ab ungefähr 2015 können wird. Hat er gelogen?

Nein er hat nicht gelogen, aber es ist dann auch wiederrum so dass eine Konsolen GPU auch nicht auf 2W TDP begrenzt ist.

Moeglich ist es durchaus ueberhaupt unter asynchronem compute auf der GPU, aber es wird nach wie vor die Entscheidung der ISVs bzw. Entwickler sein wie sie die jeweiligen resourcen jeglicher Konsole benutzen werden. Zwischen dem was unter normalen Umstaenden theoretisch moeglich ist und dem was am Ende in Spielen auftaucht gibt es schon Unterschiede.

Als Gegenbeispiel ich bezweifle dass z.B. 2xMSAA in den meisten Faellen etwas nennenswertes an der Leistung abknabbern wuerde. Wie viele Chancen bestehen dass Multisampling sich weiter verbreiten wuerde in Konsolen? Gering bis Null erstens weil selbst das letzte eingesparte Prozent an Leistung wichtig ist fuer eine Konsole und zweitens weil es den Billig-schmier-quark a la FXAA und dergleichen gibt.

Auf dem Zwischenlayer des SoC... :ulol:
Mit einer dreimal so großen GPU...
Mit der bisher bekannten simplen Kühlung...

Srly? :uup:

HAHAHAHAHAHA ;D

Dural
2013-09-04, 11:52:20
MS gibt alles :D :freak:

Hübie
2013-09-04, 11:56:44
Ja. Nach der hotchips fiel denen im Flugzeug Richtung Heimat auf: "Ach ja, Da war doch was. Wir haben vergessen die dGPU zu erwähnen" "Ups. Na ja was solls". :freak:

Klar kommt ein GCN2.0-basierter Chip in die X-Box. Anno 2017 Vielleicht.

Edit: XBox One wird ein PC!

Skysnake
2013-09-04, 12:05:49
Es geht hier nicht darum welche compute Faelle auf einer GPU Sinn machen wuerden, sondern ob irgend jemand so daemlich war hochparallelen code auf eine Konsolen CPU bis jetzt zu schmeissen. Sonst damit es hilft:

http://withimagination.imgtec.com/index.php/powervr/mobile-gpu-compute-must-be-practical-gpu-compute

Naja, Ailuros, bis jetzt waren die CPUs ja wirklich sehr beschränkt in der Leistung, und die GPUs hätten eh kein Compute machen können, oder nicht vernünftig. Da hat das ganze Grundkonzept nicht für Compute gestimmt.

Das ist jetzt total anders. Bisher hat man entsprechenden Code einfach gar nicht verwendet, bzw eben Schmalspurfakelösungen eingesetzt, oder halt in den sauren Apfel gebissen und es auf die CPU/CELL geschmissen.

Wie das in Zukunft aussieht gebe ich dir allerdings voll recht, kann man heute noch nicht sagen. Das liegt völlig in der Hand der Entwickler!

Ailuros
2013-09-04, 12:41:17
Naja, Ailuros, bis jetzt waren die CPUs ja wirklich sehr beschränkt in der Leistung, und die GPUs hätten eh kein Compute machen können, oder nicht vernünftig. Da hat das ganze Grundkonzept nicht für Compute gestimmt.

Das ist jetzt total anders. Bisher hat man entsprechenden Code einfach gar nicht verwendet, bzw eben Schmalspurfakelösungen eingesetzt, oder halt in den sauren Apfel gebissen und es auf die CPU/CELL geschmissen.

Darum geht es doch gar nicht; ich sagte einfach dass wohl kein Entwickler je so daemlich war jeglichen hochparallelen code auf eine CPU zu schmeissen. Solchen Mist baut ein Entwickler nichtmal auf einem high end PC.

Wie das in Zukunft aussieht gebe ich dir allerdings voll recht, kann man heute noch nicht sagen. Das liegt völlig in der Hand der Entwickler!

Nun dazu braucht man keine Glaskugel. Es gibt einfach keinen anderen Ausweg. Und ehrlich gesagt haette ich als Entwickler auch N Vorstellung von etwas wuerde ich auch meine vorhandenen resourcen so gut wie moeglich balancieren um mich zumindest N so stark wie moeglich zu naehern. Kompromisse sind wie schon oben erwaehnt selbstverstaendlich.

Botcruscher
2013-09-04, 12:44:26
Da wird jetzt einfach noch eine 7850 per Crossfire an geflanscht. Sony hat keine Chance!:D

Finch
2013-09-04, 12:49:29
Da wird jetzt einfach noch eine 7850 per Crossfire an geflanscht. Sony hat keine Chance!:D

Quatscht. die wird einfach oben drauf geklebt und funktioniert über NFC.

dargo
2013-09-04, 13:05:18
Darum geht es doch gar nicht; ich sagte einfach dass wohl kein Entwickler je so daemlich war jeglichen hochparallelen code auf eine CPU zu schmeissen. Solchen Mist baut ein Entwickler nichtmal auf einem high end PC.

Ähm... *hust*

Crysis 3 und die Grasphysik. :D

00-Schneider
2013-09-04, 13:07:49
Als Gegenbeispiel ich bezweifle dass z.B. 2xMSAA in den meisten Faellen etwas nennenswertes an der Leistung abknabbern wuerde. Wie viele Chancen bestehen dass Multisampling sich weiter verbreiten wuerde in Konsolen? Gering bis Null erstens weil selbst das letzte eingesparte Prozent an Leistung wichtig ist fuer eine Konsole und zweitens weil es den Billig-schmier-quark a la FXAA und dergleichen gibt.


FXAA reicht bei 1080p absolut aus. Bei 720p ist mir MSAA lieber, dann allerdings auch 4x, 2x ist mir zu gering.

Vielleicht sehen wir auch ganz neue Methoden? TXAA war in Crysis 3 MSAA in Sachen Bildqualität deutlich überlegen, und hat eindeutig weniger Leistung gefressen.

dargo
2013-09-04, 13:09:57
Vielleicht sehen wir auch ganz neue Methoden? TXAA war in Crysis 3 MSAA in Sachen Bildqualität deutlich überlegen, und hat eindeutig weniger Leistung gefressen.
Ja... wenn man auf Blur steht. ;) Zudem gibts kein TXAA auf AMD Hardware.

Finch
2013-09-04, 13:21:03
Ja... wenn man auf Blur steht. ;) Zudem gibts kein TXAA auf AMD Hardware.


Gab es da nicht etwas vergleichbares mit anderem Namen?

Ailuros
2013-09-04, 13:30:23
FXAA reicht bei 1080p absolut aus. Bei 720p ist mir MSAA lieber, dann allerdings auch 4x, 2x ist mir zu gering.

Es mag Dir ausreichen, aber ich will von dem Schmierscheiss persoenlich nichts wissen.

Vielleicht sehen wir auch ganz neue Methoden? TXAA war in Crysis 3 MSAA in Sachen Bildqualität deutlich überlegen, und hat eindeutig weniger Leistung gefressen.

Was auch immer weniger Leistung frisst basiert auch auf Qualitaets-Kompromissen. Es ist eben nichts umsonst in 3D.

y33H@
2013-09-04, 13:35:47
FXAA reicht bei 1080p absolut aus.Bei einer Pixeldichte, die es am PC derzeit nicht gibt. Ansonsten flimmert es wie gehabt.

TXAA war in Crysis 3 MSAA in Sachen Bildqualität deutlich überlegen, und hat eindeutig weniger Leistung gefressen.TXAA2 kostet etwas mehr Leistung als 4x MSAA, da es im Prinzip auf 4x MSAA basiert plus spezieller Downfilter und irgendwas anderes ("CGI-Post-AA"). Die Bildruhe ist höher, aber eben auf Kosten der Schärfe. MSAA wird in Crysis 3 übrigens mit TSGSSAA für die Vegetation erweitert, daher ist's u.a. so teuer.

Flusher
2013-09-04, 13:51:07
Kurze Frage:

welche Zahlen dienen als Grundlagen für den 3DC Rohleistungsvergleich

http://www.3dcenter.org/abbildung/rohleistungs-vergleich-xbox-360-one-playstation-3-ps4-wii-u-radeon-hd-7770

Afaik sind die Taktraten der PS4 doch noch gar nicht bekannt?

aufkrawall
2013-09-04, 13:55:25
MSAA wird in Crysis 3 übrigens mit TSGSSAA für die Vegetation erweitert, daher ist's u.a. so teuer.
Ist aber leider nicht effektiv, wenn die Shader-Effekte auf dem Gras immer noch eklig aussehen.
Alles nicht durchdacht. :(

MSAA ist bei heutigen Spielen mit immer mehr Deferred Effekten imho so gut wie gar nicht mehr sinnvoll, auch 2x nicht. Wird immer teurer und bringt immer weniger.

Locuza
2013-09-04, 13:57:37
Kurze Frage:

welche Zahlen dienen als Grundlagen für den 3DC Rohleistungsvergleich

http://www.3dcenter.org/abbildung/rohleistungs-vergleich-xbox-360-one-playstation-3-ps4-wii-u-radeon-hd-7770

Afaik sind die Taktraten der PS4 doch noch gar nicht bekannt?
Es dienen 800 Mhz bei beiden GPUs als Grundlage, wobei die Xbox One jetzt offiziell mit 853 Mhz taktet, bei der Bandbreite wird auch nur die Ramgeschwindigkeit verglichen, eSRAM oder eDRAM werden nicht in die Rechnung mit einbezogen, kann man ja auch nicht.

Die 800 Mhz bei der PS4 ergeben sich dadurch, dass Sony offiziell die GPU Rohleistung mit 1,84 TF beziffert hat.
1152 ALUs @ 800 Mhz = 1,84 TF.

dargo
2013-09-04, 14:09:09
Gab es da nicht etwas vergleichbares mit anderem Namen?
Keine Ahnung was du meinst. MLAA? Das ist gewiss nicht vergleichbar.

Flusher
2013-09-04, 14:10:36
Es dienen 800 Mhz bei beiden GPUs als Grundlage, wobei die Xbox One jetzt offiziell mit 853 Mhz taktet, bei der Bandbreite wird auch nur die Ramgeschwindigkeit verglichen, eSRAM oder eDRAM werden nicht in die Rechnung mit einbezogen, kann man ja auch nicht.

Die 800 Mhz bei der PS4 ergeben sich dadurch, dass Sony offiziell die GPU Rohleistung mit 1,84 TF beziffert hat.
1152 ALUs @ 800 Mhz = 1,84 TF.

Perfekt dankeschön für die Erklärung. :smile:

aufkrawall
2013-09-04, 14:17:12
Keine Ahnung was du meinst. MLAA? Das ist gewiss nicht vergleichbar.
Er meint sicherlich die alternativen Downfilter im Treiber, die es mal gab.