Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?
00-Schneider
2013-02-14, 23:47:23
Hier mal ein Bild vom Devkit und aktuellen Gampepad für PS4
http://www.onpsx.de/news.php?id=39033
http://www.onpsx.de/uploads/mediapool/News%20Bilder/2013%20Februar/244985-ibb.jpg
Weitere Informationen zum Controller:
http://www.vgleaks.com/orbis-dualshock-layout/
TheCounter
2013-02-15, 00:44:08
Hier noch ein Bild aus dem GAF:
https://dl.dropbox.com/u/14640287/errrr.jpg
mr coffee
2013-02-15, 07:24:13
Also ich habe mir vor Kurzem eine PS3 gekauft, um noch alle interessanten Exclusiv-Titel zu spielen bevor die neue Konsolen rauskommen.
Das erste was mir auffiel, war der unhandliche Controller, insofern ist der Neue (wenn er denn so kommt) eine tolle Verbesserung. Genau die Schwachstelle (komische Biegung und Breite der Bereiche rechts und links unten) wurde scheinbar ausgemerzt.
Noch dazu war ich erstaunt, was aus der alten Kiste leistungstechnisch (God of War3, Final Fantasy XIII, Uncharted2 habe ich bisher gespielt) herausgeholt wurde. Insofern freue ich mich wie ein Kind auf die neuen Konsolen und mach mir um die Leistung auch eher weniger Sorgen.
Weitere Informationen zum Controller:
http://www.vgleaks.com/orbis-dualshock-layout/
Hoffentlich wurde der Trigger-Designer des DS3 gefeuert und nicht an den Orbis gelassen.
M4xw0lf
2013-02-15, 07:41:10
Das kann man generell oefter erwarten. Aber wenn man Forward+ hat braucht man in der Regel kein SSAA mehr.
Warum das?
del_4901
2013-02-15, 08:23:35
Warum das?
Weil mit Forward+ MSAA wieder hervoragend fuktioniert.
robbitop
2013-02-15, 08:47:27
Warum wird Forward+ bisher so wenig genutzt? Seit 2006 sind nahezu alle Spiele auf Defered Shading umgestiegen. Hat Forward+ großartige Nachteile?
(ich weiß, Forward+ ist relativ neu)
del_4901
2013-02-15, 09:02:16
Warum wird Forward+ bisher so wenig genutzt? Seit 2006 sind nahezu alle Spiele auf Defered Shading umgestiegen. Hat Forward+ großartige Nachteile?
(ich weiß, Forward+ ist relativ neu)DX11 Hardware vereinfacht die Implementierung deutlich. Es wuerde zwar auch ohne gehen, dafuer braucht man dann aber einen CPU Z-Pass. Als Nachteil fuer Forward+ (oder umgekehrt Vorteil eines DFRs) Lighting wird dann doch wieder an einen Material (-Shader) gekoppelt. Man wuerde dann zwar mit Uebershadern arbeiten, aber wenn man viele unterschiedliche Arten von Lichternquellen haben kann wird das ganz schnell wieder nervig. Branching ist zwar nicht mehr so teuer, aber die Vektoren auf denen man brancht werden auch immer groesser.
Forward+ ist gar nicht so neu das Originalpaper ist schon ein paar Jahre alt.
robbitop
2013-02-15, 09:20:02
Erwartest du, dass sich Forward+ durchsetzt oder es eher bei DFRs bleiben wird?
del_4901
2013-02-15, 10:08:30
Erwartest du, dass sich Forward+ durchsetzt oder es eher bei DFRs bleiben wird? Ich erwarte Hybride. Physically Based Shading based DFR und Forward+ fuer Transparenzen und spezial/sonder Materialien wie z.B Haut.
robbitop
2013-02-15, 10:20:28
Würde uns das vernünftig funktionierendes (und wieder "bezahlbares") MSAA zurückbringen?
fondness
2013-02-15, 12:06:39
AMD forciert Forward+ auch nicht ohne Grund massiv. Im einzigen aktuell verfügbaren Spiel mit Forward+ läuft man der GTX680 um 50%+ davon.
robbitop
2013-02-15, 13:09:21
Was ist der Grund dafür?
del_4901
2013-02-15, 13:18:00
Würde uns das vernünftig funktionierendes (und wieder "bezahlbares") MSAA zurückbringen?
Nicht fuer den DFR Anteil, aber hier wuerde ich per Object selective SSAA, EdgeAA oder SMAA oder auch eine Mischung verwenden.
Was ist der Grund dafür?
Viele klassische DFR Implementierungen sind sehr Bandbreiten intensiv und Forward+ skaliert besser mit der Rechenleistung. Mit einem TileBased DFR kann man der Bandbreitenlimitierung (im Tausch gegen Rechenleistung) entgegen wirken. Ein gut optimierter DFR sollte bei simplem nicht durchsichtigen Objekten aber immer schneller sein als Forward+.
Iruwen
2013-02-15, 13:20:49
AMD hat bei Dirt Showdown nach eigener Aussage ja massiv nachgeholfen (mit der Technologie aus der Leo Demo). Ob das repräsentativ ist wage ich zu bezweifeln.
Secondly, but less obviously to the user, AMD and Codemasters have collaborated to optimize DiRT Showdown’s codepath for Graphics Core Next. In the simplest terms, this means we have polished the game for the architecturally specific ways that our GPUs handle DirectX® 11 rendering.
http://blogs.amd.com/play/2012/06/20/dirt-showdown-on-gcn/
aufkrawall
2013-02-15, 13:28:48
Das MSAA vom Spiel taugt jedenfalls nicht viel.
Ailuros
2013-02-15, 15:51:05
http://venturebeat.com/2013/02/08/crytek-ceo-our-goal-is-to-transition-entirely-to-free-to-play-games-in-2-to-5-years/#OGqgEpe77yMHWAOz.02
Blediator16
2013-02-15, 17:45:03
Es ist schleichend. Es wird immer versucht mehr zu melken. DLCs und Systeme wie Steam waren anfangs gehasst. Jetzt haben die Leute alles geschluckt und man bringt immer mehr DLCs , welche sogar schon vor Erscheinen eines Spiels angekündigt werden. F2P im Moment ist ok, aber man kann sich sicher sein, dass aus F2P ein perverses Pay2Win gebastelt wird. Langsam und scheichend.
Silentbob
2013-02-15, 19:59:44
http://venturebeat.com/2013/02/08/crytek-ceo-our-goal-is-to-transition-entirely-to-free-to-play-games-in-2-to-5-years/#OGqgEpe77yMHWAOz.02
Das ist doch genau so ein Schwätzer wie der Typ von Gearbox.
LordDeath
2013-02-15, 20:27:35
Worin liegt es eigentlich, dass die nächste Xbox und Playstation beide mit AMD/ATI-Chips betrieben werden? Gerade bei der CPU-Leistung ist Intel ja schneller und sparsamer als AMD.
Akkarin
2013-02-15, 20:34:06
AMD GPUs waren und sind immer gut gewesen. AMD hat hier zusätzlich mit HSA einen Vorteil gehabt.
Intel CPUs sind zu teuer, AMD hat wieder den HSA Vorteil und es wird vermutlich Jaguar benutzt, welcher "besser" als Bulldozer ist. Afaik müssten die Deals eh vor Bulldozer gemacht worden sein.
Eigenentwicklungen kamen wegen der Kosten nicht in Frage.
Iterator
2013-02-15, 20:37:09
@LordDeath
Das wird wohl größtenteils eine finanzielle Frage gewesen sein, sprich AMD hat wohl vermutlich
für das bereitstehende Budget das beste Paket geliefert.
dildo4u
2013-02-15, 20:47:13
http://de.wikipedia.org/wiki/Heterogeneous_System_Architecture
HSA sollte ne wichtige Rolle spielen,da es bei Konsolen eh schon üblich war das CPU und GPU den selben Speicher nutzen.Alle Konsolentwickler haben also schon die ganze letzte Generation in diese Richtung programmiert.
http://www.abload.de/img/hsabojhx.jpg
PrefoX
2013-02-15, 20:50:08
http://de.wikipedia.org/wiki/Heterogeneous_System_Architecture
HSA sollte ne wichtige Rolle spielen,da es bei Konsolen eh schon üblich war das CPU und GPU den selben Speicher nutzen.Alle Konsolentwickler haben also schon die ganze letzte Generation in diese Richtung programmiert.
das stimmt so nicht wirklich? nur die Xboxen haben einen "großen" ram (psx saturn ps2 dc ps3 haben getrennten ram)
dildo4u
2013-02-15, 20:52:16
Jo die Xbox 360 reicht ja kam fast alles für raus Exklusives sind selten geworden.
Lost Boy
2013-02-15, 22:24:58
Ich verstehe nicht warum Sony nicht einfach eine neue und schnellere Version des Cell genommen hat mit einer DirectX 11.1 Nvidia GPU. Größere/schnellere PPE, oder mehrere eventuell und zusätzliche schnellere SPU´s. Dazu noch mehr RAM (UMA).
Wie sehen das die Experten aus technischer und finanzieller Sicht. Hätte doch sehr viele Vorteile?
M4xw0lf
2013-02-15, 22:30:41
Ich verstehe nicht warum Sony nicht einfach eine neue und schnellere Version des Cell genommen hat mit einer DirectX 11.1 Nvidia GPU.
Ganz einfach, weil NV sowas nicht hat ;D
dildo4u
2013-02-15, 22:36:05
Ich verstehe nicht warum Sony nicht einfach eine neue und schnellere Version des Cell genommen hat mit einer DirectX 11.1 Nvidia GPU. Größere/schnellere PPE, oder mehrere eventuell und zusätzliche schnellere SPU´s. Dazu noch mehr RAM (UMA).
Wie sehen das die Experten aus technischer und finanzieller Sicht. Hätte doch sehr viele Vorteile?
Bis auf das man alte Software abspielen könnte(Kein Vorteil für Sony sondern nur für den Kunden),gibt's Null Vorteile es ist einfach zu schwierig,die optimale Performance aus Cell zu holen.(Großer Abstand zwischen First und Third Party)Bei der PS4 sollte jedes halbwegs gute Team in der Lage sein am Limit zu Arbeiten und das nich erst nach 5 Jahren Forschung.Außerdem hat AMD schon massig Geld in die Forschung,der GPU zu CPU Verbindung gesteckt das nutzt Sony jetzt einfach mit.
Nightspider
2013-02-15, 23:02:20
Ich verstehe nicht warum Sony nicht einfach eine neue und schnellere Version des Cell genommen hat mit einer DirectX 11.1 Nvidia GPU. Größere/schnellere PPE, oder mehrere eventuell und zusätzliche schnellere SPU´s. Dazu noch mehr RAM (UMA).
Wie sehen das die Experten aus technischer und finanzieller Sicht. Hätte doch sehr viele Vorteile?
Weil Cell scheiße ist als Spiele-CPU. An dir ist wohl vorbei gegangen, wieviele Entwickler sich bei der PS3 über die Cell-CPU beschwert haben?
Die Entwickler mussten vers. Code programmieren für Xbox360 und PS3 und das kostet dem Entwickler Geld. Also wo soll da der Vorteil von Cell sein?
del_4901
2013-02-15, 23:23:06
Mal abgesehen davon, das es unschoen ist mit den SPUs zu arbeiten. Sind das eigentlich alles keine definitiven Gruende fuer oder gegen Cell. Ein starkes Argument ist, das alles was ich mit den SPUs machen kann, kann ich auch mit Compute machen. Und eine 3te Art von Prozessor, will man eigentlich nicht haben.
Lost Boy
2013-02-15, 23:36:57
Weil Cell scheiße ist als Spiele-CPU.
Und Trotzdem gibt es sehr beeindruckende Ergebnisse, siehe Uncharted und Killzone.
An dir ist wohl vorbei gegangen, wieviele Entwickler sich bei der PS3 über die Cell-CPU beschwert haben?
Es ist nicht an mir vorbeigegangen. Entwickler beschweren sich grundsätzlich. Zu wenig RAM, zu wenig dies, zu wenig das... Im Vergleich zu Emotion Engine ist Cell wohl ein wahrer Segen.
Die Entwickler mussten vers. Code programmieren für Xbox360 und PS3 und das kostet dem Entwickler Geld. Also wo soll da der Vorteil von Cell sein?
Das trifft auf Multi Titel zu. Selbst da ist der Unterschied mittlerweile belanglos. Meinst du für PS4/Xbox720 können die Entwickler den selben Code 1 zu 1 übernehmen? Optimierung wird es auch in Zukunft geben für die verschiedenen Systeme. Selbe Hardwarearchitektur hin oder her...
Wenn Sony einen neuen Cell hätte mit fast gleicher Struktur liegen die Vorteile, zumindest bei first party, doch auf der Hand. Die Erfahrung aus ca. acht Jahren, ausgereifte Tools, Engines etc.
dildo4u
2013-02-15, 23:54:14
Die CPU ist Heute nich mehr so wichtig wie damals,da Heutige GPU's alle möglichen Aufgaben über Compute erledigen können.(Siehe z.b PhysX)
Vom Powerbuget muss das Meiste für die GPU da sein,daher nutzt man diesmal low Power CPU Cores.
Nakai
2013-02-15, 23:55:56
Und Trotzdem gibt es sehr beeindruckende Ergebnisse, siehe Uncharted und Killzone.
Ich frage mich, wie die Ergebnisse ausgesehen hätten, wenn die Dinger exklusiv auf der Xbox360 erschienen wären.
Es ist nicht an mir vorbeigegangen. Entwickler beschweren sich grundsätzlich. Zu wenig RAM, zu wenig dies, zu wenig das... Im Vergleich zu Emotion Engine ist Cell wohl ein wahrer Segen.
Xenos ist auch ein wahrer Segen im Vergleich zum Geforce3-Chip in der alten Xbox.
Wenn Sony einen neuen Cell hätte mit fast gleicher Struktur liegen die Vorteile, zumindest bei first party, doch auf der Hand. Die Erfahrung aus ca. acht Jahren, ausgereifte Tools, Engines etc.
Das mag stimmen. Gilt aber für aber umso mehr für "klassischere" Architekturen, wo man viele Tools für mehrere Zwecke übernehmen kann.
][immy
2013-02-15, 23:57:56
Und Trotzdem gibt es sehr beeindruckende Ergebnisse, siehe Uncharted und Killzone.
also ich habe beide spiele schon in aktion gesehen. die sehen nicht schlecht aus, das stimmt wohl. aber die Areale sind extrem überschaubar und bei näherem hinschauen isses nicht wirklich beeindruckend (aus grafischer sicht). das meiste ist artwork + Bloom (meinetwegen auch ein wenig hdr ... wenn es denn so ist) aber nichts was mich technisch wirklich vom hocker gehauen hätte. Mit dem Cell selbst hat das wenig bis gar nichts zu tun. Hätte der wenigstens ein paar mehr power-pc cores für allgemein verwendbare Leistung gehabt, wäre der ok gewesen, so war es mehr oder minder einfach nur Verschwendung, weil die SPes sich endweder langweilen oder für aufgaben genutzt werden, wo sie ihr potential nicht entfalten können.
Nightspider
2013-02-16, 00:15:03
Und Trotzdem gibt es sehr beeindruckende Ergebnisse, siehe Uncharted und Killzone.
Und du glaubst die Spiele hätten auf der Xbox großartig anders ausgesehen?
Hätte Sony damals die gleiche CPU verbaut wie in der 360 und eine etwas bessere GPU wäre die PS3 schneller gewesen. War sie aber nicht.
Im Mittel sind beide Konsolen gleich schnell, da die 360 dafür die bessere GPU hat.
ist Cell wohl ein wahrer Segen.
Bei solchen Aussagen schlagen meine Fanboy-Sensoren an.
Und wie die anderen schon gesagt haben, hat ein Cell heutzutage dank GPU-Computing sowieso nichts mehr in einer Spiele-Konsole zu suchen.
Die GPU eignet sich viel besser für Aufgaben, die dem Cell bisher lagen.
Ich verstehe nicht warum Sony nicht einfach eine neue und schnellere Version des Cell genommen hat mit einer DirectX 11.1 Nvidia GPU. Größere/schnellere PPE, oder mehrere eventuell und zusätzliche schnellere SPU´s. Dazu noch mehr RAM (UMA).
Wie sehen das die Experten aus technischer und finanzieller Sicht. Hätte doch sehr viele Vorteile?
Jeder Entwickler will Cell so schnell wie möglich los haben.
Meinst du für PS4/Xbox720 können die Entwickler den selben Code 1 zu 1 übernehmen?
Zu noch viel größeren Teilen als bisher: Ja.
Skysnake
2013-02-16, 11:59:41
Das trifft auf Multi Titel zu. Selbst da ist der Unterschied mittlerweile belanglos. Meinst du für PS4/Xbox720 können die Entwickler den selben Code 1 zu 1 übernehmen? Optimierung wird es auch in Zukunft geben für die verschiedenen Systeme. Selbe Hardwarearchitektur hin oder her...
Wenn Sony einen neuen Cell hätte mit fast gleicher Struktur liegen die Vorteile, zumindest bei first party, doch auf der Hand. Die Erfahrung aus ca. acht Jahren, ausgereifte Tools, Engines etc.
Bei nicht AAA Titeln?
ja, da werden eventuell ein paar #if und #define reichen, um mit ner Neucompilierung die Sachen für die Konsolen fertig zu machen, wobei das STARK davon abhängt, wie stark sich die APIs unterscheiden. Das kann man aber nur die Entwickler fragen.
Für AAA Titel wird es natürlich auch weiterhin optimierungen für die einzelne Platform geben, aber massiv weniger als bisher. Man muss wohl die APIs austauschen, aber die Logik dahinter sollte auf beiden Konsolen SEHR ähnlich sein.
mironicus
2013-02-16, 12:41:15
Wie teuer sind eigentlich PC-Konvertierungen von Konsolentiteln, wenn man jetzt wie z.B. bei Death Space 3 keine neuen Texturen und andere exklusive Sachen integriert?
Bei den neuen Konsolen dürfte z.B. eine Verbesserung von Texturen nicht mehr notwendig sein für eine PC-Konvertierung, da die neuen Konsolen jetzt über ausreichend Speicher verfügen.
pixelguy
2013-02-16, 14:31:53
Nächste PlayStation soll PS3-Spiele streamen: http://www.computerbase.de/news/2013-02/naechste-playstation-soll-ps3-spiele-streamen/
just4FunTA
2013-02-16, 14:34:35
Wie teuer sind eigentlich PC-Konvertierungen von Konsolentiteln, wenn man jetzt wie z.B. bei Death Space 3 keine neuen Texturen und andere exklusive Sachen integriert?
Bei den neuen Konsolen dürfte z.B. eine Verbesserung von Texturen nicht mehr notwendig sein für eine PC-Konvertierung, da die neuen Konsolen jetzt über ausreichend Speicher verfügen.
habe den Wert jetzt nicht mehr im Kopf aber das soll sich sehr schnell lohnen bzw recht billig sein.
Mr.Magic
2013-02-16, 16:01:04
Wie teuer sind eigentlich PC-Konvertierungen von Konsolentiteln, wenn man jetzt wie z.B. bei Death Space 3 keine neuen Texturen und andere exklusive Sachen integriert?
AFAIR liegt das normalerweise irgendwo im niedrigen sechstelligen Bereich. Teilweise reicht das Budget nichtmal um die Steuerung ordentlich für M+T anzupassen.
edit:
Ein Wort vergessen. Wie peinlich!
Matrix316
2013-02-16, 17:02:38
Bis auf das man alte Software abspielen könnte(Kein Vorteil für Sony sondern nur für den Kunden),[...].
"Trööt" - sehe ich ganz anders.
Wenn ich die alte Software auf der neuen PS abspielen könnte, könnte man diese viel besser an den Mann bringen als wenn jeder wieder von 0 mit den Spielen anfangen muss.
Ich glaube nicht, dass der Unterschied zwischen PS4 und PS3 so groß sein wird, wie zwischen PS3 und PS2 wo die Spiele ja schon massiv besser aussahen.
Aktuelle PS3 Spiele sind gerade auf einem großen TV immer noch OK und es wird glaube ich viele geben, die werden sich mit der PS3 zufrieden geben - vor allem, wenn ihre ganzen Spiele auf der neuen PS nicht mehr laufen würden.
Das ist so wie Apple. Wenn du mal 100 Apps auf dem iPhone gekauft hast, wirst du auch schwer zu Google (oder Microsoft oder BB) wechseln (und umgekehert), weil deine ganzen Apps weg sein werden. Du bleibst lieber bei Apple und käufst halt das nächste iPhone.
Und was wäre, wenn die aktuellen Apps auf dem nächsten iPhone alle nicht mehr laufen würden? :uidea: Dann gäbe es keinen Grund mehr nicht zur Konkurrenz zu wechseln.
dildo4u
2013-02-16, 17:05:39
"Trööt" - sehe ich ganz anders.
Sony hat massig Geld mit HD Versionen von PS2 Spielen gemacht,das God of War Pack mit Teil 1 und 2 hat sich über 1Mio mal verkauft.Kaum Aufwand massig Kohle.Ich wette es gibt einige Leute die 1080p Versionen von Uncharted 1-3 kaufen würden.Das Hauptproblem ist das eine zusätzliche Cell CPU in jeder Konsole den Preis für jeden Kunden hochtreibt,auch die es gar nicht wollen und Sony wird alles tun den Preis zu klein wie möglich zu halten nach der Erfahrung mit der PS3.Deshalb wird Sony auf eine Streaming Lösung für PS3 Games setzen.
Knuddelbearli
2013-02-16, 17:07:25
Ich zB ^^ besaß bisher aber auch keine Konsole ^^
Matrix316
2013-02-16, 17:23:39
Sony hat massig Geld mit HD Versionen von PS2 Spielen gemacht,das God of War Pack mit Teil 1 und 2 hat sich über 1Mio mal verkauft.Kaum Aufwand massig Kohle.Ich wette es gibt einige Leute die 1080p Versionen von Uncharted 1-3 kaufen würden.Das Hauptproblem ist das eine zusätzliche Cell CPU in jeder Konsole den Preis für jeden Kunden hochtreibt,auch die es gar nicht wollen und Sony wird alles tun den Preis zu klein wie möglich zu halten nach der Erfahrung mit der PS3.Deshalb wird Sony auf eine Streaming Lösung für PS3 Games setzen.
Man kann ja auch emulieren, denn so schnell sollte ein aktueller Prozessor schon sein, dass er die PS3 Architektur von wann? 2005? emulieren kann. Es sei denn man setzt auf Ultrabillig AMD billig stromspar Chips...;)
Und das eine schließt das andere nicht aus. Das schwierige bei Konsolen ist doch immer, dass es nicht genügend Software beim Start gibt. Wenn man aber alle alten PS3 Games weiter nutzen könnte, hätte man schon genügend Gründe sich eine PS4 zu kaufen, selbst wenn das native Angebot für diese noch nicht so toll ist. Und so könnte man erstmal sein Uncharted, GT5 und GTAIV und RDR und Guitar Hero weiter spielen und später dann käuft man für billig Geld die FullHD Version von GTA.
dildo4u
2013-02-16, 17:27:05
Man kann ja auch emulieren, denn so schnell sollte ein aktueller Prozessor schon sein, dass er die PS3 Architektur von wann? 2005? emulieren kann.
Das wird noch lange unmöglich sein,du bekommst Heute mit den schnellsten Intel grad mal so Wii vernünftig emuliert.Das ist noch relativ einfach weil es nur ein Core(Mit Tech von 2001) ist Cell ist ne ganz andere Dimension was die Komplexität angeht,dort geht's nicht nur um die Leistung.
Wii Emulation
Performance
Depending on the hardware of your system there might be some games which does not run completly fluently. If you want to play games at full speed make sure you have a good CPU. It's the most important component! For good results it's recommended to use Intel i5 Sandy or Ivy Bridge CPUs or higher (i7).
http://www.dolphin-emulator.com/support.html
Du willst Cell emulieren?! :eek:
Wünsche dir viel Spaß.
Also wollen mal sehen: Die PPE mit 2T und 6/7 SPEs die nebenbei gerne noch dem RSX aushelfen dürfen UND Timings/Syncho UND das ganze dann noch verteilt auf die 8 Jaguar Kerne um auf (sowiso nicht ausreichende ) Leistung zu kommen.
Das willst du nicht wirklich; nichtmal versuchen ...
Akkarin
2013-02-16, 18:11:11
Könnte man die SPEs mit der GPU emulieren ? Timings/Sychro wäre wohl ein riesen Problem, aber angenommen Sony schaufelt ein Haufen Geld in ein Team das den emulator schreiben soll, wäre das -theoretisch- möglich ?
Nächste PlayStation soll PS3-Spiele streamen: http://www.computerbase.de/news/2013-02/naechste-playstation-soll-ps3-spiele-streamen/
das ist dann der Testballon für die nächste Generation, wo dann nur noch alles per Stream läuft. Raubkopien tschüss...Second Hand tschüss.
TheCounter
2013-02-16, 19:39:18
das ist dann der Testballon für die nächste Generation, wo dann nur noch alles per Stream läuft. Raubkopien tschüss...Second Hand tschüss.
Aber auch Multiplayer tschüss.
MP Lag + Streaming Lag + Input Lag
Exxtreme
2013-02-16, 19:41:46
Aber auch Multiplayer tschüss.
MP Lag + Streaming Lag + Input Lag
Das dürfte gefühlt 95% der angepeilten Kundschaft egal sein.
Crazy_Bon
2013-02-16, 19:50:25
das ist dann der Testballon für die nächste Generation, wo dann nur noch alles per Stream läuft. Raubkopien tschüss...Second Hand tschüss.
Wie will man zig Millionen von Spieler eine befriedigende Streamplattform anbieten? Die Kosten für die nötige Hardware, Strom, Wartung und für die riesige Breitbandanbindung würde alles auffressen.
Lightning
2013-02-16, 20:01:59
Könnte man die SPEs mit der GPU emulieren ? Timings/Sychro wäre wohl ein riesen Problem, aber angenommen Sony schaufelt ein Haufen Geld in ein Team das den emulator schreiben soll, wäre das -theoretisch- möglich ?
Halte ich für keine gute Idee. Erstmal sind einzelne Shadereinheiten natürlich viel zu schwach, man müsste den SPU Code also massiv parallelisieren können (das alleine ist wahrscheinlich schon nicht machbar). Dann sind die SPUs ja im Prinzip vollwertige CPUs, die völlig unabhängig voneinander Code ausführen. Das schränkt die Effektivität auf einer GPU weiter ein. Weiterhin hat jede SPU 256 KB Local Store, eine Compute Unit aber nur 64(?). Wie ist das mit den Speichertransfairs untereinander (bei Cell gehen bis zu 200GB/s über den Bus)? Und nebenbei soll RSX ja auch noch mal eben emuliert werden.
Man korrigiere mich, wenn ich Blödsinn erzähle.
Iterator
2013-02-16, 20:42:40
Dann sind die SPUs ja im Prinzip vollwertige CPUs, die völlig unabhängig voneinander Code ausführen.
Da hast Du aber was verwechselt, die SPU`s sind selber auf die SPE angewiesen
die entsprechend die Rechenaufgaben verteilt (Stichwort asynchrone Architektur).
Von einer vollwertigen CPU`s sind die SPE`s doch weit entfernt. Mehr würde ich sie
in die Ecke der mathematischen Coprozessoren einordnen.
Gruß.
Lightning
2013-02-16, 20:55:27
Da hast Du aber was verwechselt, die SPU`s sind selber auf die SPE angewiesen
die entsprechend die Rechenaufgaben verteilt (Stichwort asynchrone Architektur).
Du meinst die PPU/PPE? Jein (bzw. ein Missverständnis). Von der werden sie gestartet, aber prinzipiell kann man dann auf den SPUs beliebigen Code ausführen, unabhängig voneinander. Und das geht eben auf der GPU nicht in dem Sinne. Da führen alle nur ein Programm aus.
Deinorius
2013-02-16, 20:57:38
Das dürfte gefühlt 95% der angepeilten Kundschaft egal sein.
Nicht, wenn der addierte Lag zusammen so hoch ist, dass das selbst einem DAU auffällt. Ein TV mit nicht aktivem Game-Modus hat auch noch einen schönen Lag drauf. Dieses Problem ist IMHO größer als der flächendeckend mangelnde Breitbandanschluss. Bei letzterem kann ein Teil der Kunden immer noch Streaming nutzen, bei ersterem kann das Spielen selbst mit super schneller 100 MBit/s Leitung zur Qual werden.
Aber auch Multiplayer tschüss.
MP Lag + Streaming Lag + Input Lag
Multiplayer läuft dann natürlich direkt im Rechenzentrum, da hast du keinen Lag.
Gouvernator
2013-02-16, 21:39:52
Könnte man die SPEs mit der GPU emulieren ? Timings/Sychro wäre wohl ein riesen Problem, aber angenommen Sony schaufelt ein Haufen Geld in ein Team das den emulator schreiben soll, wäre das -theoretisch- möglich ?
Manche Software läuft nicht mal rund auf original Hardware. Wenn das nicht 100% funktioniert ist das automatisch ein teures PR Desaster. Also wozu noch jedes altes Game durchspielen und den Emulator auf bugs zu patchen wenn eh keiner die Games kauft? Da springt noch der nächste Punkt - Sony will ja so gern sogar Gebrauchtmarkt austrocknen. :biggrin: Ich glaube Abwärtskompatibilität ist dann komplett widersprüchlich. Viel mehr würde es Sinn machen die alten Spiele auf neuer Hardware laufen zu lassen eben als überarbeitete HD Version = Umsatz. So was treibt Nintendo doch schon seit langem die verkaufen NES Mario noch auf Wii'UUUUUU, obwohl gesamter Archiv mit den Games 1-2 Gb groß ist und jeder Taschenrechner sie emulieren kann.
Iterator
2013-02-16, 21:51:36
Du meinst die PPU/PPE? Jein (bzw. ein Missverständnis). Von der werden sie gestartet, aber prinzipiell kann man dann auf den SPUs beliebigen Code ausführen, unabhängig voneinander.
Dann bin ich auf dem falschen Dampfer gewesen. Ich war immer der Meinung das die SPE`s (Synergistic Processing Element) reine Coprozessoren sind, die generell als Vektor Coprozessoren, von dem eigentlichen Power PC Kern angesteuert und mit Aufträgen versorgt werden und eigenständig ohne den PPC Kern nicht agieren können.
Gruß.
TheCounter
2013-02-16, 22:11:07
Multiplayer läuft dann natürlich direkt im Rechenzentrum, da hast du keinen Lag.
Hmm riesige PS3-Cluster-Systeme zur Berechnung des Streams + dedizierte Serverfarmen für die Multiplayer-Matches?
Natürlich mit entsprechenden Kapazitäten für tausende von Spielern gleichzeitig.
Was sowas wohl kostet?
Auch wenn ich es hasse .....
aber unterschätze niemals den Kapitalistischen Wucher.
Games nicht mehr "kaufbar" nur noch "mietbar". Du zahls, du Spielst. Du zahlst nicht mehr, alles weg und auch auch du als kostenfaktor weg.
Multiplayer Gratis? Nur noch wenn du ihn die selbst baust, völlig analog mit Steinen und Gräsern und dein MP-Partner max 1m von dir wegsitzt - Hat MS ja schon durchgedrückt.
Und vergiss nicht: Es zwingt ja niemand die Junkie-schaft mitzumachen, jeder kann auch die Kröte eines der wenigen anderen Anbieter schlucken oder eben mit nem dünnen Brett, paar Schrauben, bissl Draht, einem Glühlämpchen, einer 9V Batterie bissl Papier und ein paar Stifte seine eigene Arcade-Maschine bauen. :freak:
Hmm riesige PS3-Cluster-Systeme zur Berechnung des Streams + dedizierte Serverfarmen für die Multiplayer-Matches?
Natürlich mit entsprechenden Kapazitäten für tausende von Spielern gleichzeitig.
Was sowas wohl kostet?
Sie können ja die Kontingente vom US-Militär zurückkaufen. Die brauchen sie vielleicht nicht mehr :)
TheCounter
2013-02-17, 19:50:53
Bitte löschen...
EDIT:
@Sevn77
Sorry war ein Fake, habs zu spät gesehen.
Sven77
2013-02-17, 19:51:40
xbox infinite/infinity?
Gipsel
2013-02-17, 21:54:23
Halte ich für keine gute Idee. Erstmal sind einzelne Shadereinheiten natürlich viel zu schwach, man müsste den SPU Code also massiv parallelisieren können (das alleine ist wahrscheinlich schon nicht machbar).Die deutlich unterschiedliche Vektorgröße (4 vs. 64 floats bzw. dwords) ist schon ein Problem. Da muß der Entwickler ran, sonst könnte es oft recht langsam werden (prinzipiell gehen würde es aber). Und selbst mit Codeanpasungen sind die langen Vektoren der GPUs wohl ab und zu eher weniger geeignet. Das sollte man dann wohl lieber den 128Bit SIMD-Einheiten der Jaguar-Kerne überlassen. Davon hat man ja auch 8 Stück.
Dann sind die SPUs ja im Prinzip vollwertige CPUs, die völlig unabhängig voneinander Code ausführen.Das können CUs auch. ;)
Weiterhin hat jede SPU 256 KB Local Store, eine Compute Unit aber nur 64(?).Ja, das sind 64kB. Allerdings haben CUs anders als die SPEs auch vollwertigen Zugriff auf den kompletten Speicher. Man könnte also im Notfall die fehlenden 192kB über den L1/L2 gecachten Global Memory abwickeln. In dem Zusammenhang ist das FLAT Speichermodell von C.I. vielleicht interessant. Man kann da im Prinzip 256 kB belegen, wovon der Kernel gar nicht weiß, welcher Teil wo genau liegt. Es können also davon tatsächlich 64kB auf den LDS gemapped sein, die anderen 192 kB auf den globalen Speicher.
Wie ist das mit den Speichertransfairs untereinander (bei Cell gehen bis zu 200GB/s über den Bus)?Jeder L1 hängt mit 64Byte/Takt an einer Crossbar, jeder L2-Slice auch (bei GCN-GPUs gibt es einen pro 32Bit Speichercontroller: CapeVerde hat 4 (x128kB), Pitcairn 8 (x64kB), Tahiti 12 (x64kB); bei Durango/Orbis muß man mal sehen). Da kommt man also bei ein paar CUs und L2-Tiles auch auf ansprechende Raten, bei 4 CUs und 4 L2 Tiles knackt man dann die 200GB/s (bei 800MHz). Bei mehr wird's natürlich mehr.
Und nebenbei soll RSX ja auch noch mal eben emuliert werden.Ist das Ding nicht einfach DX9.0 SM3 kompatibel? Das kann doch nichts Besonderes oder? Wenn es nicht um das Timing geht, sondern nur um die graphische Reproduktion, macht eine moderne GPU das im Halbschlaf. Einfach die Shader durch einen Shadercompiler jagen und man ist fertig. Anders laufen DX9 Games auf DX11-Karten doch auch nicht. Aber das ist natürlich vermutlich nur etwas schwerer transparent für bestehenden Konsolen-Code hinzubekommen, da man nicht über eine high level API geht, sondern wohl öfter vorkompilierte Shader benutzt und auch ziemlich direkt in den command buffern rumfuhrwerkt. Zumindest das müßte man also abfangen.
Du meinst die PPU/PPE? Jein (bzw. ein Missverständnis). Von der werden sie gestartet, aber prinzipiell kann man dann auf den SPUs beliebigen Code ausführen, unabhängig voneinander. Und das geht eben auf der GPU nicht in dem Sinne. Da führen alle nur ein Programm aus.Wie schon gesagt, stimmt das nicht. Im Prinzip kann sogar jede CU multithreaded an verschiedenen Programmen arbeiten. Jede einzelne Wavefront hat ihren eigenen PC (Zeiger auf den nächsten Befehl im Speicher, bei CPUs heißt das Ding InstructionPointer). Wird dann vielleicht etwas enger im L1-I-Cache, aber solange das nicht >4 verschiedene Programme pro CU werden, dürften man mit den 32kB L1-I (und die hängen ja auch am L2) ziemlich weit kommen. Auch in Spielen überlappt sich die Ausführung der verschiedenen Shadertypen während eines Drawcalls, da laufen also auch verschiedene "Programme" gleichzeitig. Man konnte sie bisher allerdings nur über eine Queue füttern. Mit GCN kamen dann die ACEs dazu (die 2 aktive [gleichzeitig abgearbeitete] Queues für Compute [neben dem Command Processor für Grafik] mitbrachten), bei C.I. wird das offenbar kräftig ausgebaut (8x8=64 Queues, davon 8 gleichzeitg aktiv [senden also Wavefronts an das Shaderarray], GK110 kann 32 Queues, davon offenbar maximal 16 aktiv). Dabei können über eine Queue bei GCN durchaus auch parallel ablaufende Kernel abgesetzt werden, sie dürfen dann nur keine Abhängigkeiten voneinander aufweisen (der Grafik-Command Processor kann das auch bei Abhängigkeiten machen, da die verschiedenen Pipelinestages genau definierte Abhängigkeiten haben).
@ RSX: Nebst den Beschneidungen im Vergleich zum vollen G71 fiele mir nur das Interface zum Cell/Rambus-Speichpool ein. Rambus FlexIO oder FlexBus genannt, afaik.
€: argh viele - fiele. Irgendwie schreib ich letzter Zeit nur nach dem Laut, nicht nach Sinn ... ^^
Hayab
2013-02-18, 00:35:36
Auf das Desaster mit dem Streamingdienst freue ich mich schon mal. :devil:
Die werden niemals die Durchnittlags von der Eingabe am Controller bis zu Interaktion auf dem Bildschirm niemels unter 500ms bekommen.
Natuerlich wird es eine Pinganzeige geben die in millisekunden irgendwelche Maerchen erzaehlen wird von 150 oder so, damit wird vielleicht ein kurzer psychologischer Effekt erzielt, aber nicht auf Dauer. So wird Sony ein moeglichst langes Abo fuer den Streamingdienst verscherbeln wollen.
Maniac007
2013-02-18, 01:17:56
Nächste PlayStation soll PS3-Spiele streamen: http://www.computerbase.de/news/2013-02/naechste-playstation-soll-ps3-spiele-streamen/
Ich bin mal sehr gespannt darauf, ob nicht am Mittwoch angekündigt wird, dass PS4 Spiele auf die PS3 gestreamt werden können.
So hätte man gleich ein Millionenpublikum für PS4 Spiele, müsste Konsolen nicht zwingend subventionieren und könnte für den Service sogar noch Abogebühren verlangen.
Lightning
2013-02-18, 08:13:40
Die deutlich unterschiedliche Vektorgröße (4 vs. 64 floats bzw. dwords) ist schon ein Problem. Da muß der Entwickler ran, sonst könnte es oft recht langsam werden (prinzipiell gehen würde es aber). Und selbst mit Codeanpasungen sind die langen Vektoren der GPUs wohl ab und zu eher weniger geeignet. Das sollte man dann wohl lieber den 128Bit SIMD-Einheiten der Jaguar-Kerne überlassen. Davon hat man ja auch 8 Stück.
Das können CUs auch. ;)
Ja, das sind 64kB. Allerdings haben CUs anders als die SPEs auch vollwertigen Zugriff auf den kompletten Speicher. Man könnte also im Notfall die fehlenden 192kB über den L1/L2 gecachten Global Memory abwickeln. In dem Zusammenhang ist das FLAT Speichermodell von C.I. vielleicht interessant. Man kann da im Prinzip 256 kB belegen, wovon der Kernel gar nicht weiß, welcher Teil wo genau liegt. Es können also davon tatsächlich 64kB auf den LDS gemapped sein, die anderen 192 kB auf den globalen Speicher.
Jeder L1 hängt mit 64Byte/Takt an einer Crossbar, jeder L2-Slice auch (bei GCN-GPUs gibt es einen pro 32Bit Speichercontroller: CapeVerde hat 4 (x128kB), Pitcairn 8 (x64kB), Tahiti 12 (x64kB); bei Durango/Orbis muß man mal sehen). Da kommt man also bei ein paar CUs und L2-Tiles auch auf ansprechende Raten, bei 4 CUs und 4 L2 Tiles knackt man dann die 200GB/s (bei 800MHz). Bei mehr wird's natürlich mehr.
Ist das Ding nicht einfach DX9.0 SM3 kompatibel? Das kann doch nichts Besonderes oder? Wenn es nicht um das Timing geht, sondern nur um die graphische Reproduktion, macht eine moderne GPU das im Halbschlaf. Einfach die Shader durch einen Shadercompiler jagen und man ist fertig. Anders laufen DX9 Games auf DX11-Karten doch auch nicht. Aber das ist natürlich vermutlich nur etwas schwerer transparent für bestehenden Konsolen-Code hinzubekommen, da man nicht über eine high level API geht, sondern wohl öfter vorkompilierte Shader benutzt und auch ziemlich direkt in den command buffern rumfuhrwerkt. Zumindest das müßte man also abfangen.
Wie schon gesagt, stimmt das nicht. Im Prinzip kann sogar jede CU multithreaded an verschiedenen Programmen arbeiten. Jede einzelne Wavefront hat ihren eigenen PC (Zeiger auf den nächsten Befehl im Speicher, bei CPUs heißt das Ding InstructionPointer). Wird dann vielleicht etwas enger im L1-I-Cache, aber solange das nicht >4 verschiedene Programme pro CU werden, dürften man mit den 32kB L1-I (und die hängen ja auch am L2) ziemlich weit kommen. Auch in Spielen überlappt sich die Ausführung der verschiedenen Shadertypen während eines Drawcalls, da laufen also auch verschiedene "Programme" gleichzeitig. Man konnte sie bisher allerdings nur über eine Queue füttern. Mit GCN kamen dann die ACEs dazu (die 2 aktive [gleichzeitig abgearbeitete] Queues für Compute [neben dem Command Processor für Grafik] mitbrachten), bei C.I. wird das offenbar kräftig ausgebaut (8x8=64 Queues, davon 8 gleichzeitg aktiv [senden also Wavefronts an das Shaderarray], GK110 kann 32 Queues, davon offenbar maximal 16 aktiv). Dabei können über eine Queue bei GCN durchaus auch parallel ablaufende Kernel abgesetzt werden, sie dürfen dann nur keine Abhängigkeiten voneinander aufweisen (der Grafik-Command Processor kann das auch bei Abhängigkeiten machen, da die verschiedenen Pipelinestages genau definierte Abhängigkeiten haben).
Dann habe ich z.T. wirklich blödsinn erzählt. :D Danke für die Ausführungen.
pixelguy
2013-02-18, 09:37:40
Ist zwar schon älter, aber ich könnte mir gut vorstellen, dass Sony eine neues FF auf Basis dieser Engine vorstellt: http://www.youtube.com/watch?v=HdGxUyGc1tg
Sollte die PS4 ja eigentlich leisten können...
Square Enix hat die Engine bestimmt nicht für PC only entwickelt.
Ein FF braucht aber mehr Entwicklungszeit. Sowas ist kein Launchtitel.
pixelguy
2013-02-18, 13:02:54
Ja sicher, zum Launch wird es bestimmt nicht kommen. Allerdings könnte ich mir vorstellen, dass Sony damit angeben wird.
Die Frage ist halt, unter welchen Voraussetzungen die Demo lief und ob diese auch auf der PS4 so aussehen wird.
Hayab
2013-02-18, 16:12:44
Ja sicher, zum Launch wird es bestimmt nicht kommen. Allerdings könnte ich mir vorstellen, dass Sony damit angeben wird.
Die Frage ist halt, unter welchen Voraussetzungen die Demo lief und ob diese auch auf der PS4 so aussehen wird.
Render Demos geben Null Infos ueber die Qualitaet der Ingamegrafik. Dreickleistungstechnisch wird jede 300 Euro PC GPU die der PS4 um vielfaches uebersteigen, somit wuerde ich mir als Sony Fanboy keine grosse Hoffnung machen, dass so Ingame aussehen wird. Selbst wenn die Engine zu 100% die PS4 GPU ausnutzt.
Die werden niemals die Durchnittlags von der Eingabe am Controller bis zu Interaktion auf dem Bildschirm niemels unter 500ms bekommen.
Input Device Lag (unbekannt, 5ms?) - Netzwerk Upstream (5-10ms), Rendering (33ms bei 30 FPS) - Encoder Lag (sagen wir mal 10ms) - Netzwerk Downstream (5-10ms) - Ausgabe Verzögerung (schlimmstenfalls 16ms bei 60Hz) - TV Verzögerung (je nach Postprocessing, sagen wir auch mal 16ms)
Komm ich auf 100ms. Halte das für durchaus realistisch, wenn man wirklich alles perfekt implementiert.
dildo4u
2013-02-18, 17:40:41
Render Demos geben Null Infos ueber die Qualitaet der Ingamegrafik. Dreickleistungstechnisch wird jede 300 Euro PC GPU die der PS4 um vielfaches uebersteigen, somit wuerde ich mir als Sony Fanboy keine grosse Hoffnung machen, dass so Ingame aussehen wird. Selbst wenn die Engine zu 100% die PS4 GPU ausnutzt.
Die Engine läuft auf einer 680 mit 60fps@1080p + 8XMSAA,daran sieht man das es eine Konsole Engine ist.http://67.227.255.239/forum/showthread.php?t=502188
Das Game wird auf Konsole dann mit 30fps,ohne MSAA laufen,vermutlich nutzt man ne Form von SMAA/FXAA.Die GPU der PS4 wird in Richtung 7870 spekuliert,die ist ca 35% langsamer als eine 680.
del_4901
2013-02-18, 18:26:21
Input Device Lag (unbekannt, 5ms?) - Netzwerk Upstream (5-10ms), Rendering (33ms bei 30 FPS) - Encoder Lag (sagen wir mal 10ms) - Netzwerk Downstream (5-10ms) - Ausgabe Verzögerung (schlimmstenfalls 16ms bei 60Hz) - TV Verzögerung (je nach Postprocessing, sagen wir auch mal 16ms)
Komm ich auf 100ms. Halte das für durchaus realistisch, wenn man wirklich alles perfekt implementiert.
http://www.journaldugeek.com/files/2013/01/geforce-grid-11-600x346.jpg
Deinorius
2013-02-18, 19:18:51
Input Device Lag (unbekannt, 5ms?) - Netzwerk Upstream (5-10ms), Rendering (33ms bei 30 FPS) - Encoder Lag (sagen wir mal 10ms) - Netzwerk Downstream (5-10ms) - Ausgabe Verzögerung (schlimmstenfalls 16ms bei 60Hz) - TV Verzögerung (je nach Postprocessing, sagen wir auch mal 16ms)
Komm ich auf 100ms. Halte das für durchaus realistisch, wenn man wirklich alles perfekt implementiert.
Ach du heilige... na das nenne ich aber optimistisch! :eek:
16 ms für TV... lol wut?
Das ist ein Frame, warum sollte das nicht ausreichen?
Wie auch immer, selbst die 150ms von Gakai sind immer noch deutlich weniger als "nie unter 500ms" und wie man sieht vergleichbar mit dem was sonst so auf Konsolen geboten wird.
Hinzu kommt, dass für einen neuen Frame nicht nur ein Netzwerkpaket übertragen werden muss. Aber keine Ahnung welche Bitraten für sowas verwendet werden.
Was spielt das denn für eine Rolle? Es ist ja nicht so, als würden sich pro Paket Roundtrip-Times addieren.
Dafür könnte ich mir vorstellen das es mit un/schlecht konfigurierten WLan Routern in 2,4 Ghz verpessteten Gegenden sehr wohl Probleme gibt mit Packet-Größe/Loss und, dank crap Routern, elende Bridging Performance auch noch dazu; alles Zusammen, sicher nicht zu besseren Latenzen für die Übertragung von nem anderort gerenderten Frame beitragen wird.
Was spielt das denn für eine Rolle? Es ist ja nicht so, als würden sich pro Paket Roundtrip-Times addieren.
Nein, das nicht. Ich dachte die 5-10ms in deiner Auflistung wäre die reine Latenz, zu der noch die eigentliche Übertragung hinzukäme. Falls das ein Misverständnis war, vergiss meinen Post.
][immy
2013-02-18, 22:27:48
http://www.journaldugeek.com/files/2013/01/geforce-grid-11-600x346.jpg
in der grafik fehlt noch der hinweg :) (also vom Controller zur Console/PC/ zur Cloud lösung)
Zudem ist da der Ton schon mit einberechnet? Wie ich schon mehrfach erwähnte war das was mich bisher am meisten abschreckte der Ton. Artefakte mit den Augen sehen geht ja noch aber beim Ton ist das grausig, besonders wenn es dann auch noch leiert.
Aber auch mit 150ms ist man immernoch jenseits von gut und böse. Bei 30fps würde das heißen das man 4,5 Frames waren muss bis die Eingabe visuell erscheint. wobei hier der hinweg noch fehlt was bei einer in-house lösung noch das geringste Problem sein würde.
Also Tripple Buffer ist am PC schon mieß, Konsolen sind auch nicht grad der Brüller, aber damit würde man sich in einem Bereich befinden wo Kinect sich aktuell befindet.
Aber die Zeit für Console + TV ist hier auch schon ziemlich schlecht gerechnet würde ich meinen. Die Verzögerung vom Fernseher kann ich mir noch vorstellen, aber bei einem Spiel eher nicht.
del_4901
2013-02-18, 22:43:21
[immy;9659711']in der grafik fehlt noch der hinweg :) (also vom Controller zur Console/PC/ zur Cloud lösung)Das ist schon zusammengerechnet.
[immy;9659711']Aber auch mit 150ms ist man immernoch jenseits von gut und böse. Bei 30fps würde das heißen das man 4,5 Frames waren muss bis die Eingabe visuell erscheint. 150ms sind 150ms alle weiteren Rechungen dahueber hinaus (auf Basis dieser Grafik) sind verschwendette Rechenzyklen.
Nehmt es einfach so wie es ist, da sind nicht umsonst die anderen beiden Loesungen als Bezug mit eingetragen.
Deinorius
2013-02-18, 23:42:00
Eine Frage zu der Grafik weiter oben: Wieso ist die Game Pipeline bei Gaikai doppelt so schnell wie beim Rest? :|
Weil die Spiele mit 60 Fps laufen.
Wer meint, man kommt bei 30 Fps mit wesentlich niedriger Latenz aus, kann ja mal vorrechnen, wie das gehen soll...
00-Schneider
2013-02-19, 12:25:31
Wer zu viele Insiderinfos preisgibt, kann auch mal von der Polizei hochgenommen werden:
http://www.neogaf.com/forum/showthread.php?t=514145
;D
Falls das stimmt, dann frage ich mich auf welcher Basis. Er hat ja sicher kein NDA unterschrieben.
Gut, es sind die USA.
Crazy_Bon
2013-02-19, 12:34:52
War das nicht der Typ, der ein Durango Dev-Kit über Ebay verkaufen wollte?
Skysnake
2013-02-19, 13:04:23
Wer zu viele Insiderinfos preisgibt, kann auch mal von der Polizei hochgenommen werden:
http://www.neogaf.com/forum/showthread.php?t=514145
;D
Kannste mal ne Kurzzusammenfassung machen?
Keine Lust mir da die zich Seiten durch zu lesen...
Kannste mal ne Kurzzusammenfassung machen?
Keine Lust mir da die zich Seiten durch zu lesen...
Er hat zuviele Infos preisgegeben und wurde von der Polizei hochgenommen :D
TheCounter
2013-02-19, 13:15:43
War das nicht der Typ, der ein Durango Dev-Kit über Ebay verkaufen wollte?
Soweit ich weis nur ein Alpha-Kit.
SuperDAE has mentioned before that the FBI are after him for reasons unrelated to Durango/Orbis leaks.
FBI? Shit :ugly:
00-Schneider
2013-02-19, 13:39:37
Falls das stimmt, dann frage ich mich auf welcher Basis. Er hat ja sicher kein NDA unterschrieben.
Gut, es sind die USA.
Naja, aber ein Devkit einfach mal bei ebay zu verkaufen, ist mit Sicherheit nicht legal. Noch dazu ein Devkit einer "geheimen" Hardware für die das NDA gilt.
Wie er selbst an das Devkit gekommen ist, habe ich vergessen.
Wenn es der Typ mit dem DevKit war ist es natürlich etwas anderes.
TheCounter
2013-02-19, 14:20:56
Naja, aber ein Devkit einfach mal bei ebay zu verkaufen, ist mit Sicherheit nicht legal. Noch dazu ein Devkit einer "geheimen" Hardware für die das NDA gilt.
Aber die Alpha-Kits haben doch keine "geheime" Hardware. Im NeoGAF war mal zu lesen das diese lediglich eine Anleitung enthalten welche Hardware man in das Kit verbauen soll + target Specs der finalen HW.
Ist doch völlig schnurz!
Verträge sind frei, solange sie keine geltenden Gesetze verlezten.
Wenn beim Erwerb eines Alpha-Kits eine entsprechende Vereinbarung unterschrieben wurde, dass das Teil nicht weiterscherbelt werden darf, ist so etwas dann auch rechtsgültig. Solche Konditionen gibt's teilweise auch für Vorbesteller von seltenen Autos um erst mal Spekulationen damit einzudämmen.
Iruwen
2013-02-19, 17:48:46
FBI? Shit :ugly:
FBI, nicht Homeland Security :rolleyes: Einfach Bundespolizei.
Exxtreme
2013-02-19, 19:41:21
Orbis doch mit 8 GB RAM?
http://www.heise.de/newsticker/meldung/Die-naechste-Konsolen-Generation-Was-Spieler-der-PS4-und-Xbox-720-erwartet-1806250.html
Das wäre vernünftig.
00-Schneider
2013-02-19, 20:10:34
Orbis doch mit 8 GB RAM?
http://www.heise.de/newsticker/meldung/Die-naechste-Konsolen-Generation-Was-Spieler-der-PS4-und-Xbox-720-erwartet-1806250.html
Das wäre vernünftig.
Nur eine schlechte Zusammenfassung der Gerüchte, ohne neue Informationen.
Um nochmal Digital Foundry zu zitieren:
"There's just one problem. Cramming 8GB of the fastest memory into a console box simply isn't logistically possible. A key Xbox 360 advantage over PS3 was a unified pool of 512MB of fast GDDR3 memory. GDDR5 is the latest equivalent, used principally in PC graphics cards, but the problem here is that the modules only come in certain capacities - the largest and most difficult to produce being 512MB. Daisy-chaining 16 of those onto a console motherboard just wouldn't work. Sony has opted for a tighter system - fewer memory modules, but all of them very, very fast. It retains GDDR5 as the single memory pool with all the raw bandwidth advantages that entails, but it is limited to 4GB (there are rumours of 6GB/8GB upgrades but this is highly unlikely to happen)."
http://www.eurogamer.net/articles/df-hardware-spec-analysis-durango-vs-orbis
schoppi
2013-02-19, 21:07:28
Be the first to know 20/02/2013 Playstation
Werbung im Emirates Stadium
TheCounter
2013-02-19, 22:23:07
FBI, nicht Homeland Security :rolleyes: Einfach Bundespolizei.
Ähm, Zusammenhang?
Wenn 8GB, dann 4GB GDDR5 und 4GB DDR3. Aber das lässt sich nicht einfach so ändern ohne das ganze Ding um Monate oder sogar ein Jahr zu verschieben. Wenn dann war es schon lange geplant.
TheCounter
2013-02-20, 00:33:55
New information revealed by our source suggests that on top of all that, you'll also be able to control the PS4 remotely from your tablet or smartphone. You'll be able to use a mobile device to chat with your PS4 friends or buy games which are then automatically downloaded to your machine, our source says.
Sowas wie Smartglass?
that a new spectating feature will let you watch other friends play games from your console's dashboard, even when you don't own the game they're playing; and that the console will support local network play via Vita.
Das klingt interessant.
http://www.neogaf.com/forum/showthread.php?t=514266
Screemer
2013-02-20, 02:14:59
eingebasteltes ustream und die features die steam in kombination mit android/ios heute schon bietet.
Iruwen
2013-02-20, 11:09:35
Ähm, Zusammenhang?
Deine Reaktion ließ den Schluss zu dass du das FBI für 'ne Art Sonderermittlungsbehörde hältst. Das FBI ist einfach die Bundespolizei und bei Netz- oder Wirtschaftsdelikten die oft staatenübergreifend stattfinden sind die halt statt County oder State Police zuständig.
Gipsel
2013-02-20, 11:29:26
Mal ein Crosspost aus dem Thread zu Kabini und der neuen Präsentation zu Jagua auf der ISSCC:
Hier sieht man auch schön, des die L2-Tags im L2-Interface-Block sitzen (der mit vollem Kerntakt läuft, der L2 ja nur mit halbem):
http://pics.computerbase.de/4/7/4/9/1/11_m.png
In die Aussparung am linken Rand kann man wohl die Northbridge quetschen (bzw. zumindest den Teil, der beide Module verbindet), wenn man sich ein zweites Modul mit 4 Kernen gespiegelt dazu denkt und wie es wohl auf Durango + Orbis verbaut ist. Sie haben ja gesagt, daß das Ganze für die Wiederverwendung auf mehreren SoCs designt wurde. So ein 2 Moduler + die aufgefüllte Fläche dazwischen für den SMP-Glue hätte dann ~55mm² Fläche. Das ist etwas mehr als ich geschätzt hatte (~50mm²), das L2-Interface ist schlicht etwas größer als vermutet.
Durch die andere Anordnung des L2 ist so ein Modul auch deutlich schmaler als bei Bobcat (da saß der L2 ja in einer Linie mit den Kernen). Das Modul ist nur ~6,4mm breit, da muß man also noch was daneben packen, wenn Kabini und Temash nicht sehr längliche Dies werden sollen. Vermutlich sitzt also links noch die Northbridge (bei den Modellen mit nur einem Modul aber eben die komplette, nicht nur der SMP-Glue).
Aber gehen wir mal von einem Bobcat-ähnlichen Layout für Durango/Orbis aus, also 2 Module an einem Rand des Dies, dann ist die Kante ~13mm lang. Die werden dann ja noch jede Menge externe Interfaces mitbringen (256Bit Speicherinterface), also vermutlich auf beiden Seiten noch die PHYs dafür, die so etwa jeweils 1,5mm Breite addieren. Dann wäre man bei 16mm. Noch ein wenig Verschnitt am Rande des Dies oder der eine oder andere Zehntel Abstand für bessere Signalintegrität und man kommt auf eine 17x17mm² = 289mm² Fläche für das Ziel eines quadratischen Dies. Bis dahin werden MS oder Sony den GPU-Teil also vermutlich mindestens auffüllen, wenn mehr GPU-Leistung gewollt ist (da kann man das ja flexibler und feinkörniger wählen als auf der CPU-Seite), wird er leicht rechteckig und entsprechend etwas größer.
00-Schneider
2013-02-20, 11:40:46
Neue Leaks zu Kinect 2.0:
Every Durango console will come with a next-generation Kinect sensor. Developers can integrate Kinect functionality, confident that it provides a great experience for all Durango users.
Durango Sensor
The next generation sensor improves the current sensor in many areas:
Improved field of view results in much larger play space.
RGB stream is higher quality and higher resolution.
Depth stream is much higher resolution and able to resolve much smaller objects.
Higher depth stream accuracy enables separating objects in close depth proximity.
Higher depth stream accuracy captures depth curvature around edges better.
Active infrared (IR) stream permits lighting independent processing and feature recognition.
End to end pipeline latency is improved by 33 ms.
http://www.vgleaks.com/durango-next-generation-kinect-sensor/
http://www.eurogamer.net/articles/digitalfoundry-durango-kinect-specs-leak
---------------------------------------
Außerdem: Neues zum hochgenommenen Insider:
http://www.thetechgame.com/News/article/sid=4125.html
LadyWhirlwind
2013-02-21, 00:18:45
PS4: 8 GB unified memory, GDDR 5
neuer controller: Dualshock 4 mit einer Art movement Steuerung.
2TFlops CPU
seperater Chip der auch funktioniert wenn die Konsole "ausgeschaltet ist". z.B um Sachen herunter zu laden.
w0mbat
2013-02-21, 00:21:41
8GB GDDR5. LOL!
LadyWhirlwind
2013-02-21, 00:27:22
Nun ist der Stream grad weg :(
w0mbat
2013-02-21, 00:28:09
http://www.engadget.com/2013/02/20/sony-ps4-event-livestream/
MamaRooster
2013-02-21, 00:29:56
http://www.twitch.tv/playstation/new
Dural
2013-02-21, 00:30:44
ps4 = billig PC
hat nicht mehr viel mit den klassischen alten konsolen zu tun.
LadyWhirlwind
2013-02-21, 00:31:09
Auch da hats kein Bild oder ton :(
Etwas zu Gaikai jetzt. Wahrscheinlich streaming.
w0mbat
2013-02-21, 00:33:23
Doch, das läuft flüssig @ HD. Oder liegst an meiner 100Mbit Standleitung? ;)
dutchislav
2013-02-21, 00:33:46
http://blog.zap2it.com/pop2it/2013/02/playstation-live-stream-watch-sonys-playstation-4-announcement-online.html
da kuck ich
Razes
2013-02-21, 00:35:40
Der offizielle geht doch gut?
http://www.ustream.tv/PlayStation
LadyWhirlwind
2013-02-21, 00:36:13
Bei mir hatte der offizielle aussetzer, kann natürlich auch an meiner Leitung liegen
hat nicht mehr viel mit den klassischen alten konsolen zu tun.Wieso? Back to the roots, die Xbox1 war nix anderes.
Kann jemand bestätigen, dass die GPU und CPU mit dem gleichen Takt laufen? Hat einer getwittert, aber ich hab das nicht gehört.
dutchislav
2013-02-21, 00:38:28
hab ich auch nicht gehört
DarknessFalls
2013-02-21, 00:38:41
...und haben die sich jetzt dazu geäußert was genau das für eine AMD-CPU/GPU sein soll? Also, nicht Codename etc, sondern worauf basierend?
Körschgen
2013-02-21, 00:39:39
Das wurde so wohl gesagt oder zumindest übersetzt! Das mit dem Takt... aber wer weiß!?
Deinorius
2013-02-21, 00:39:52
Sind die 8 GB GDDR5 wirklich offiziell?! Ich kann mir denn Stream derzeit nicht anschauen.
Ridcully
2013-02-21, 00:40:51
nicht schlecht 8 gbyte.
Dural
2013-02-21, 00:42:07
ja finde ich gut, mit 8GB lässt sich was anfangen.
Juice
2013-02-21, 00:42:16
Der Name AMD ist garnicht gefallen, nur dass die GPU 2 TF's leistet, obwohl ich nicht sicher bin ob nicht doch das ganze System gemeint war
del_4901
2013-02-21, 00:42:50
Sind die 8 GB GDDR5 wirklich offiziell?! Ich kann mir denn Stream derzeit nicht anschauen.
Ja, endlich. :wink:
Körschgen
2013-02-21, 00:43:12
Denke auch das ganze System... würde ja den Gerüchten ganz gut entsprechen!
DarknessFalls
2013-02-21, 00:43:15
Korrigiert mich, aber 2TF für die CPU wäre eher unwahrscheinlich.
Razes
2013-02-21, 00:43:20
Sind die 8 GB GDDR5 wirklich offiziell?! Ich kann mir denn Stream derzeit nicht anschauen.
Er hat zuerst 8GB unified gesagt und später von GDDR gespochen. Also ja.:cool:
...und haben die sich jetzt dazu geäußert was genau das für eine AMD-CPU/GPU sein soll? Also, nicht Codename etc, sondern worauf basierend?Nö, nur einmal hat er APU gesagt. Aber eigentlich kanns nichts anderes als Jaguar sein, Allein wg. Stromverbrauch und Die-Size.
Das wurde so wohl gesagt oder zumindest übersetzt! Das mit dem Takt... aber wer weiß!?Wird schon irgendwie hinkommen, wobei 1,6 Ghz für die GPU schon nicht schlecht wären. Gipsel wird das mit den angegebenen 2 TFLOP sicherlich auf die eventuellen Shadercores umrechnen und sagen können, ob die Rechnung aufgeht ;-)
Sind die 8 GB GDDR5 wirklich offiziell?! Ich kann mir denn Stream derzeit nicht anschauen.
Jo:
https://pbs.twimg.com/media/BDlWJXxCQAAaEgY.jpg:large
(kann man gerade noch erkennen)
AnarchX
2013-02-21, 00:48:36
Die 176GB/s wurden wohl auch genannt. Mal sehen ob man mit 8GiB die spekulierten <$499 halten kann.
Deinorius
2013-02-21, 00:49:01
Ja, endlich. :wink:
Er hat zuerst 8GB unified gesagt und später von GDDR gespochen. Also ja.:cool:
Woohooooo! Ja ist denn schon Weihnachten?! :ulol:
Die 176GB/s wurden wohl auch genannt. Mal sehen ob man mit 8GiB die spekulierten <$499 halten kann.
Ja kann ich bestätigen, hab ich gehört.
LadyWhirlwind
2013-02-21, 00:50:25
176 oder 186 hat er gesagt.
Aber ob der Preis wirklich bei unter $500 liegen wird?
Dural
2013-02-21, 00:53:54
halo kopie? :freak:
LadyWhirlwind
2013-02-21, 00:55:48
Hab ich mir auch gedacht. Bin grad nebenbei am Halo zockne btw xD
Zusammenfassung:
Sony nennt Eckdaten zur PS4 (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1361409941)
Gipsel
2013-02-21, 02:59:30
Tja, sind doch noch 8 GB GDDR5 mit 5.5 Gbps an einem 256 Bit Speicherinterface (176 GB/s) geworden. Selbst mit 4 GBit Chips, sind das 16 RAM-Bausteine, die untergebracht werden wollen.
dildo4u
2013-02-21, 03:05:37
Specs bestätitgt.
Single chip custom processor
8 Jaguar cores x86 CPU
1.84 Teraflops GPU (18CU)
The GPU contains a unified array of 18 compute units, which collectively generate 1.84 Teraflops of processing power that can freely be applied to graphics, simulation tasks, or some mixture of the two.
8GB GDDR5 176GB/s unified
Blu Ray Drive 6X (8X DVD)
USB 3.0
http://www.scei.co.jp/corporate/release/pdf/130221a_e.pdf
Paar Demos laut Sony Realtime auf PS4.
Deep Down Direct Feed
http://youtu.be/d9UmHm9HA3c auf 1080p stellen
Killzone Shadow Fall Trailer
http://youtu.be/sXS5zYLsupw auf 1080p stellen
DriveClub Announce Trailer
http://www.youtube.com/watch?v=u541wKmf0UU&feature=share&list=PLol_ykYs3OQ65y4avMdbMk_k96z3lMt6W
Danke hab die Specs noch eingebaut.
narto3311
2013-02-21, 03:58:59
Ich als Laie hab mal eine Frage.
Wenn die Ps4 CPU auf x86 basiert, könnte man dann theoretisch Ps4 Spiele auch auf dem PC spielen?
dildo4u
2013-02-21, 04:02:25
Ich als Laie hab mal eine Frage.
Wenn die Ps4 CPU auf x86 basiert, könnte man dann theoretisch Ps4 Spiele auch auf dem PC spielen?
Nein nur das porten auf PC wird einfacher als bei der PS3.Die PS4 ist vom Speicher nich so aufgebaut wie ein PC,die 8GB GDDR 5 sind für Grafikram und dem System Ram da,nicht getrennt wie beim PC.
narto3311
2013-02-21, 04:26:06
Danke erstmal.
Ich behalte meine Hoffnung für ein Final Fantasy port auf PC:biggrin:
john carmack
2013-02-21, 05:30:12
sieht ja alles gar nicht soo schlecht aus...
Schade nur das die videos nicht so hoch aufgelöst sind.
Es es passt schon so wie ich es sagte. Grafik wie in der SamaritanDemo könnte zum Standard werden :)
M4xw0lf
2013-02-21, 07:35:20
Agni's Philosophy ist noch ungefähr drölfzig mal geiler als Samaritan ;)
Nightspider
2013-02-21, 07:38:11
8GB GDDR5. Davon ging wohl keiner aus. :D
Ich freu mich schon auf die Textur-Qualität. *sabber*
PrefoX
2013-02-21, 07:39:38
sieht ja alles gar nicht soo schlecht aus...
Schade nur das die videos nicht so hoch aufgelöst sind.
Es es passt schon so wie ich es sagte. Grafik wie in der SamaritanDemo könnte zum Standard werden :)
also wenn deep down am ende so aussieht, ist es noch deutlich besser als samaritan
soLofox
2013-02-21, 07:43:13
also die ersten videos sehen ja mal geil aus. ich bin gespannt.
Loeschzwerg
2013-02-21, 07:43:40
Also 18 Compute Units... dann hätten wir 1152 Einheiten. Würde, je nach Takt (vermutlich ~800MHz wenn wir Pitcairn als Basis hernehmen), zu den rund 2 TFlop/s passen.
Ich frage mich nur wie man hieraus eine APU mit einem DIE bastelt? Oder läuft es auf MCM hinaus?
AnarchX
2013-02-21, 07:54:59
Der SoC könnte um die 300mm² liegen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9661913#post9661913
Für Ende 2013 ein nicht sonderlich großer 28nm Chip.
mboeller
2013-02-21, 08:01:43
sind die 1.6GHz für die Jaguar cores jetzt bestätigt oder nicht?
Im PDF steht zumindest nichts dazu.
Ich hoffe ja immer noch auf 2,0-2,4GHz. Kombiniert mit der guten IPC der Jaguar-cores wären die dann so schnell wie Piledriver-cores mit 2,5-3,0 GHz.
Loeschzwerg
2013-02-21, 08:02:11
KK, würde gut passen.
Also bei mir ist die PS4 safe, gerade im Hinblick auf Watch Dogs und Killzone.
YfOrU
2013-02-21, 08:07:04
Tja, sind doch noch 8 GB GDDR5 mit 5.5 Gbps an einem 256 Bit Speicherinterface (176 GB/s) geworden. Selbst mit 4 GBit Chips, sind das 16 RAM-Bausteine, die untergebracht werden wollen.
Ist schon sehr ordentlich. Allerdings befürchte ich das Sony damit bezogen auf den Verkaufspreis gegenüber Microsoft Probleme bekommen wird.
AnarchX
2013-02-21, 08:18:54
8GiB sind natürlich eine angenehme Speichermenge, aber fraglich ob man wirklich durchgehend 176GB/s benötigt.
Innerhalb der gleichen Kosten, hätte man wohl 4GiB GDDR5 und 16GiB DDR3 verbauen können.
Knuddelbearli
2013-02-21, 08:35:10
aber dann ohne gemeinsamen speicher pool und man hätte ein 384er SI benötigt ( 256 für GDDR5 und 128 für DDR3 )
Spasstiger
2013-02-21, 08:38:44
Die Grafiklösung liegt zwischen der Radeon HD 7850 und der Radeon HD 7870, das ist doch gar nicht übel. Und das Ganze mit deutlich mehr Speicher, was auf eine entsprechende softwareseitige Optimierung hoffen lässt. Zwischen PC und der PS4 dürfte zumindest dieses Jahr kein sichtbarer grafischer Unterschied bestehen bis auf die angebotenen Auflösungen und AA-Settings.
Botcruscher
2013-02-21, 08:41:55
Texturen. Endlich ordentlich aufgelöste Texturen.
PS: Die werden dann komprimiert weil nach Datenträgern abgerechnet wird.:freak:
Loeschzwerg
2013-02-21, 08:45:37
Texturen. Endlich ordentlich aufgelöste Texturen.
Verschrei es nicht :freak: Es wird nunmal gespart wo es nur geht...
fondness
2013-02-21, 08:48:45
sind die 1.6GHz für die Jaguar cores jetzt bestätigt oder nicht?
Im PDF steht zumindest nichts dazu.
Ich hoffe ja immer noch auf 2,0-2,4GHz. Kombiniert mit der guten IPC der Jaguar-cores wären die dann so schnell wie Piledriver-cores mit 2,5-3,0 GHz.
Ein Jaguar hat mit Sicherheit keine höhere IPC als ein Piledriver.
YfOrU
2013-02-21, 08:50:02
Die Grafiklösung liegt zwischen der Radeon HD 7850 und der Radeon HD 7870, das ist doch gar nicht übel. Und das Ganze mit deutlich mehr Speicher, was auf eine entsprechende softwareseitige Optimierung hoffen lässt. Zwischen PC und der PS4 dürfte zumindest dieses Jahr kein sichtbarer grafischer Unterschied bestehen bis auf die angebotenen Auflösungen und AA-Settings.
Da es bei uns wohl auf 499€ (inkl. Steuern) herauslaufen wird wäre alles andere eine grobe Enttäuschung. Die Frage ist halt was Sony macht wenn Microsoft zum Start mehr als 50€ günstiger ist.
Auf Basis der bisher bekannten Daten ist das durchaus realistisch. Die Core Gamer interessiert das zwar wenig aber die sind eben nur eine Teilmenge des Absatzmarktes.
dargo
2013-02-21, 09:09:35
Paar Demos laut Sony Realtime auf PS4.
Deep Down Direct Feed
http://youtu.be/d9UmHm9HA3c auf 1080p stellen
Killzone Shadow Fall Trailer
http://youtu.be/sXS5zYLsupw auf 1080p stellen
DriveClub Announce Trailer
http://www.youtube.com/watch?v=u541wKmf0UU&feature=share&list=PLol_ykYs3OQ65y4avMdbMk_k96z3lMt6W
Sieht gut aus. Beim ersten Video könnte ich meinen Arsch drauf verwetten, dass es die UE4 ist. :D
fondness
2013-02-21, 09:20:29
Weiß man schon wann MS die Katze aus dem Sack lässt? Wenn sich die Gerüchte bewahrheiten hat Sony auf jeden Fall das in jeder Hinsicht bessere Gesamtpacket. Dank des 256-bit GDDR5 Controllers kann man auf den eDRAM gut verzichten und die freie Die-Fläche für mehr CUs nutzen. MS kann höchstens über den Preis punkten.
Dural
2013-02-21, 09:22:40
naja sony ging einfach den weg mit dem geringsten wiederstand, sprich man hat technologie verwendet die schon lange lieferbar ist und hat es in einen chip gepackt.
die kosten werden sehr überschaubar sein, erst recht wenn den mal ein 20nm refresh kommt.
die hardware ist aufjedenfall sehr stimmig, das stimmt schon.
Guest83
2013-02-21, 09:33:21
Da es bei uns wohl auf 499€ (inkl. Steuern) herauslaufen wird wäre alles andere eine grobe Enttäuschung.
Ich kann mir nicht vorstellen, dass Sony nach dem PS3-Startdisaster noch einmal eine Konsole für über 400 Euro / Dollar veröffentlicht. Zumindest nicht in der Minimalversion. Wird sicher auch teurere mit größerer HDD oder so geben.
Zwischen PC und der PS4 dürfte zumindest dieses Jahr kein sichtbarer grafischer Unterschied bestehen bis auf die angebotenen Auflösungen und AA-Settings.
Bin gespannt ob die Entwickler nun alle 1080p für PS4-Spiele anstreben, ähnlich wie damals bei der PS3 versucht wurde 720p zu liefern (was aber dann oft nicht erreicht wurde).
Sieht gut aus. Beim ersten Video könnte ich meinen Arsch drauf verwetten, dass es die UE4 ist. :D
Das nutzt die neue Engine von Capcom. Ich bin sicher dass wir bei der kommenden Generation viel weniger UE sehen werden als bei der aktuellen, weil alle großen Publisher nun auf eigene Technologie setzen, die von den Entwicklungsstudios geteilt wird. Siehe neben Capcom auch Ubisoft mit seiner Next-Gen-Engine und EA setzt bei immer mehr Spielen auf die Frostbite 2-Engine und Bethesda/id werden sicher auch was eigenes entwickeln.
Lightning
2013-02-21, 09:34:03
Aus dem Sheet zur PS4 geht jedenfalls nicht direkt die zuvor spekulierte Separierung von 4 CUs für GPGPU hervor: "The GPU contains a unified array of 18 compute units, which collectively generate 1.84 Teraflops of processing power that can freely be applied to graphics, simulation tasks, or some mixture of the two."
Es wurden aber schon Änderungen vorgenommen. Ein PC-Chip von der Stange dürfte es jedenfalls nicht ganz sein.
Bezüglich der Texturqualität bin ich auch gespannt. Es würde mich aber nicht wundern, wenn durch den großen Speicher nicht automatisch alles toll wird.
Avalox
2013-02-21, 09:36:21
Da es bei uns wohl auf 499€ (inkl. Steuern) herauslaufen wird wäre alles andere eine grobe Enttäuschung. Die Frage ist halt was Sony macht wenn Microsoft zum Start mehr als 50€ günstiger ist.
Ein Spiel drauflegen und es als Bundle verkaufen.
Auf jeden Fall werden die nächsten Jahre spannend.
Zum einen muss man erstmal den Nutzer erklären, weshalb eine PS4 oder XBox 8 überhaupt besser sein soll als der Vorgänger. Denn auf dem ersten Blick wird das sich für die Masse nicht durch die Spielevideos erschliessen.
Bemerkenswert ist, dass Bizzard zu Sony schwenkt. Aber das ist genau die richtige Richtung. Entschieden wird über Spiele und Dienste und wenn Sony es diesmal wieder schaft durch ihre Hardware Exklusivtitel durch technische Unportierbarkeit auf die XBox 8 zu erhalten kann es ja nur besser aussehen, als im letzten Lauf.
YfOrU
2013-02-21, 09:37:55
die kosten werden sehr überschaubar sein, erst recht wenn den mal ein 20nm refresh kommt.
Davon (2015 ?) profitiert Microsoft bezogen auf die bisher bekannten Daten mehr als Sony.
Ein Spiel drauflegen und es als Bundle verkaufen.
Auf jeden Fall werden die nächsten Jahre spannend.
Das kann Microsoft genauso. So wie ich das sehe bekommen wir eine proportionale Staffelung in Relation zum Preis von Wii über Xbox bis PS. Sony wird hier zwar dem Ruf (zum Glück) gerecht aber ob das vom wirtschaftlichen Standpunkt eine gute Idee war steht in den Sternen.
fondness
2013-02-21, 09:47:23
Davon (2015 ?) profitiert Microsoft bezogen auf die bisher bekannten Daten mehr als Sony.
Das kann Microsoft genauso. So wie ich das sehe bekommen wir eine proportionale Staffelung in Relation zum Preis von Wii über Xbox bis PS.
Hm, entweder sind meine Infos nicht ganz aktuell oder du verwechselst etwas. Soweit ich informiert bin hat MS nur 12 CUs, dafür eDRAM. Sonst aber ebenfalls ein 256-bit SI nur halt mit DDR3 statt GDDR5. Dh das einzige was bei MS wirklich billiger wird ist der Speicher selbst. Von einem Shrink sollte beider gleichermaßen profitieren, beide haben ein 256-bit SI als langfristigen Kostenpunkt. Die Die-Size sollte recht ähnlich sein, vielleicht sogar größer bei MS. Ein Vorteil für MS könnte die CPU-Perfromnace sein, da der niedrig latente DDR3 deutlich besser für eine CPU geeignet ist als GDDR5.
LadyWhirlwind
2013-02-21, 10:11:10
Wurde Diablo als exclusiv angekündigt?
Die Frage ist ob Sony mit der PS 4 ausserhalb der CoreGamer Gruppe wirklich Punkten kann. Wenn MS die Xbox 720 billiger und mit Kinect 2 bringt, könnte es schwer werden. Die Kamera und der Dualshock 4 können es mit Kinect wohl kaum aufnehmen. Grafisch wird man wohl zwischen den Konsolen erstmal keinen unterschied sehen. Möglich das MS das attraktivere Gesamtpaket hat.
Rancor
2013-02-21, 10:17:42
Nett Nett :)
Dann muss ich mir 2014 vllt. ne neue Grafikkarte kaufen :)
][immy
2013-02-21, 10:41:26
ist das jetzt ein Zufall?
Die Börse hat eher negativ reagiert auf die Ankündigung:
http://www.finanzen100.de/aktien/sony-wkn-853687_H545758752_85695/
Aber gerade der Arbeitsspeicher erstaunt mich jetzt doch ein wenig. 8GB GDDR5 ist ja nicht nur von Vorteil. Hier hätte eine Aufteilung doch besser getan. Hätte man zwar wieder 2 (GDDR5 & DDR3) Speicherpools, würde aber die CPU und GPU optimal versorgen können. Zudem wäre die kosten günstiger. wobei ich nach wie vor glaube das MS eine ähnliche Lösung anstrebt, denn ich kann nach wie vor nicht glauben das die Konsole nur auf DDR3 Speicher setzt. Der Kann zwar inzwischen hohe Taktraten aufweisen, ist aber doch nicht gerade optimal für die GPU.
zudem wären 2 Speicherpools wirklich so schlimm? Ist ja beim PC nicht anders.
Skysnake
2013-02-21, 10:54:46
Ja, das ist "schlimm".
Wenn man die Chance auf einen gemeinsamen Adressraum hat, dann will man den auch definitiv nutzen.
robbitop
2013-02-21, 10:56:34
ps4 = billig PC
hat nicht mehr viel mit den klassischen alten konsolen zu tun.
Was war denn der Vorteil von klassischer Konsolen-HW? Insbesondere die HW der vorherigen Playstations war ja dafür bekannt sehr komplex zu sein, was sehr viel Optimierungsbedarf bedeutete. Aber nicht unbedingt überlegene Rechenleistung.
Die X360 war 2005 wirklich enorm gut ausgestattet. Aber: man muss auch sehen, dass ein High End PC von 2005 noch anders war als ein heutiger. GPUs waren < 300 sqmm und hatten eine TDP von < 150 W. Analog das gleiche zur CPU.
Heutige PC-HW ist (seit G80) einfach viel näher am Limit gebaut. Das ist schwierig in den Formfaktor und den Preis einer Konsole zu bringen.
Highend PCs im Jahre 2005 waren thermisch und von der Chipgröße eher mit heutigen Midrangekomponenten vergleichbar.
Etwas ähnliches ist in der PS4 verbaut. Midrangekomponenten.
Das passt vom Preis, von der TDP und auch von der Leistung.
Ich würde es keinesfalls als Low Cost bezeichnen. Ein 350 EUR PC (PS4 Leak Preise) hat eine IGP und einen Dual Core und keine 8 GiB GDDR5.
Ja Jaguar ist von der IPC relativ schwach. Aber er ist klein, sparsam und synthetisierbar. Wenn der Entwickler alle 8 Kerne ausnutzt (und das können sie in einer statischen Umgebung), ist die CPU ok. Natürlich kann es nicht mit einem Core i5 mithalten. Das stimmt.
Aber dank Compute und 8x Kernen ist das ausreichend. Die GPU hatte klare Priorität.
Ich habe für diese neue Generation viel viel weniger erwartet vor noch einem Jahr. Nämlich wirklich Low Cost. Eine Art Trinity mit < 640 VLIW SPs.
Nun haben wir eine 18 CU GCN GPU, 8 GiB GDDR5, 8 Kerne. Und es ist ein HSA SoC. Das heißt, dass GPU und CPU ganz anders zusammenarbeiten können.
Die zweite Spielegeneration wird daraus wirkliche Vorteile ziehen können.
Spezielle Konsolen-HW hätten bei gleichem Formfaktor und Preis IMO kein besseres Gesamtergebnis bringen können.
Hätte man einen hochgetakteten Quadcoreprozessor mit höherer IPC verbaut (was ggf. etwas schneller gewesen wäre), hätte man dafür Chipfläche und TDP der GPU opfern müssen. Das hätte das Gesamtergebnis verschlechtert.
IMO ist die PS4 überraschend gut (GPU und RAM!). Dazu hat Sony noch sehr sehr gute eigene Studios. IMO eine bessere Konsole als vermutet.
Auch sehr schön ist das Streamen auf die Vita, was ein IMO sehr nettes Feature der WiiU abbildet (um nicht zu sagen abkupfert).
Wer noch mehr im Preis und Formfaktor einer Konsole für 2013 erwartet hat als die PS4 umgesetzt hat, hat keine realistischen Erwartungen gehabt sondern utopische Wunschträume.
Konsolen-HW ist sowieso fix und damit verglichen mit dem PC auch schnell veraltet. Kontent und eine gewisse Mindestgeschwindigkeit sind eher wichtig.
Wer maximale BQ haben will (hohe Auflösung, hohe AA Settings, hohe FPS), ist auf dem (konstant teuer aufgerüsteten) High End PC besser beraten. Und das ist eine allgemeingültige Aussage, die wohl auch das nächste Jahrzehnt (und vermutlich darüber hinaus) Gültigkeit behalten wird.
mironicus
2013-02-21, 11:21:53
Für bisherige PS3/Xbox 360-Besitzer werden die neuen Konsolen eine enorme Steigerung darstellen, immerhin können die verbauten GPUs jetzt Grafiken in der Qualität des Valley-Benchmarks darstellen (auch flüssig in höchsten Details mit einer Radeon 7850). Spiele wie Skyrim und Nachfolger werden jetzt mit HD-Texturen aufwarten. Und vielleicht müssen die PC-Versionen jetzt leicht abgespeckt werden, da PCs nicht so viel Grafikspeicher wie die Konsolen haben... :D
Man stelle sich mal nur zukünftige Final Fantasy-Teile mit dieser Grafikqualität vor. Und jetzt wird erstmals richtig hardwarenah auf AMD-Hardware programmiert werden. AMD-GPUs werden davon bei PC-Konvertierungen sicherlich profitieren.
Was für Vorteile ergeben sich eigentlich für die Geschwindigkeit der CPU, wenn sie auf einen solchen schnellen Speicher wie die GPU zugreifen kann?
Wenn ich eine Ivy Bridge-CPU hätte die nativ auf GDDR5-Speicher zugreifen könnte, um wieviel Prozent schneller wäre die CPU dann gegenüber DDR3-Speicher?
Frozone
2013-02-21, 11:22:50
Auch sehr schön ist das Streamen auf die Vita, was ein IMO sehr nettes Feature der WiiU abbildet (um nicht zu sagen abkupfert).
Gibt's das nicht auch mit PS3 und PSP?
Knuddelbearli
2013-02-21, 11:29:36
[immy;9663966']Hätte man zwar wieder 2 (GDDR5 & DDR3) Speicherpools, würde aber die CPU und GPU optimal versorgen können.
das wäre dann aber ein 384Bit SI ... jetzt vielleicht billiger spätestens mit refresh aber teurer
][immy
2013-02-21, 11:30:22
Was für Vorteile ergeben sich eigentlich für die Geschwindigkeit der CPU, wenn sie auf einen solchen schnellen Speicher wie die GPU zugreifen kann?
Wenn ich eine Ivy Bridge-CPU hätte die nativ auf GDDR5-Speicher zugreifen könnte, um wieviel Prozent schneller wäre die CPU dann gegenüber DDR3-Speicher?
die cpu würde langsamer werden. Der CPU kommt es nicht so sehr auf Bandbreite an wie Grafikchips. Für die CPU sind die Latenzen wichtig, welcher bei GDDR Speicher schlecht sind, dafür kann der Takt und damit die Bandbreite hochgeprügelt werden. Daher ist für die CPU DDR3 Speicher die bessere Wahl, aber eben nicht für die GPU.
das wäre dann aber ein 384Bit SI ... jetzt vielleicht billiger spätestens mit refresh aber teurer
Warum?
ein 128 Bit Interface müsste dann eigentlich aussreichen (mit gutem Speicher), oder eventuell ein 192 Bit Interface. Dafür würde die CPU ja ihren eigenen Speicherpool haben und der GPU nicht ins Handwerk pfuschen.
Heutige CPUs proffitieren kaum von einem 128Bit Speicherinterface, also könnte ein Single-Channel Interface für die CPU völlig ausreichen. Unterstützt Jaguar oder Bobcat überhaupt Dual-Channel?
Vereinter speicherpool heißt gleichzeitig auch immer mehr Kollisionen. Hat sowohl vor als auch Nachteile. Nur wenn man dann von der GPU aus den CPU Speicherpool oder Umgekehrt in beschlag nehmen muss wird's richtig langsam.
Lightning
2013-02-21, 11:32:04
Was für Vorteile ergeben sich eigentlich für die Geschwindigkeit der CPU, wenn sie auf einen solchen schnellen Speicher wie die GPU zugreifen kann?
Wenn ich eine Ivy Bridge-CPU hätte die nativ auf GDDR5-Speicher zugreifen könnte, um wieviel Prozent schneller wäre die CPU dann gegenüber DDR3-Speicher?
Naja, schau dir Benchmarks mit verschiedenen DDR3-Speicherbandbreiten an. Oftmals macht das nicht viel aus. Nachteilig könnte dafür sein, dass die Latenz von GDDR5 höher ist.
Entscheidender ist wahrscheinlich, dass man einen vereinten Speicherpool hat.
Gibt's das nicht auch mit PS3 und PSP?
Nein. Interessant wird aber auch, ob es mit den Latenzen so gut klappt wie bei der Wii U.
Knuddelbearli
2013-02-21, 11:36:53
[immy;9664062']
Warum?
ein 128 Bit Interface müsste dann eigentlich aussreichen (mit gutem Speicher), oder eventuell ein 192 Bit Interface. Dafür würde die CPU ja ihren eigenen Speicherpool haben und der GPU nicht ins Handwerk pfuschen.
Heutige CPUs proffitieren kaum von einem 128Bit Speicherinterface, also könnte ein Single-Channel Interface für die CPU völlig ausreichen. Unterstützt Jaguar oder Bobcat überhaupt Dual-Channel?
Vereinter speicherpool heißt gleichzeitig auch immer mehr Kollisionen. Hat sowohl vor als auch Nachteile. Nur wenn man dann von der GPU aus den CPU Speicherpool oder Umgekehrt in beschlag nehmen muss wird's richtig langsam.
weill du dann weit geringe speicherbandbreite hättest ?
der GDDR5 braucht weiterhin seine 256Bit dazu dann nochmal 128Bit für DDR3
Frozone
2013-02-21, 11:41:42
Nein. Interessant wird aber auch, ob es mit den Latenzen so gut klappt wie bei der Wii U.
Doch, es gab es nicht so das jedes Spiel lief. Aber es gab Spiele wo das ging.
Sicher nicht genauso umgesetzt. Ich wollte blos zeigen das die Idee nicht von der WiiU stammt.
Edit: https://support.us.playstation.com/app/answers/detail/a_id/540/~/remote-play-for-ps3-and-psp
john carmack
2013-02-21, 11:44:19
Für bisherige PS3/Xbox 360-Besitzer werden die neuen Konsolen eine enorme Steigerung darstellen, immerhin können die verbauten GPUs jetzt Grafiken in der Qualität des Valley-Benchmarks darstellen (auch flüssig in höchsten Details mit einer Radeon 7850). Spiele wie Skyrim und Nachfolger werden jetzt mit HD-Texturen aufwarten. Und vielleicht müssen die PC-Versionen jetzt leicht abgespeckt werden, da PCs nicht so viel Grafikspeicher wie die Konsolen haben... :D
Da stellt man sich wirklich die Frage ob die Anforderungen an einen PC mit erscheinen der NextGen. sprunghaft ansteigen werden?!
][immy
2013-02-21, 11:47:43
weill du dann weit geringe speicherbandbreite hättest ?
der GDDR5 braucht weiterhin seine 256Bit dazu dann nochmal 128Bit für DDR3
nicht als wenn man nur 256 Bit DDR3 nimmt. worauf es laut Gerüchten ja bei der xbox hinausläuft.
Hier wäre ein getrennter Speicherpool einiges effizienter.
Mit einem krummen Interface würden sich die Kosten dann auch in Grenzen halten.
Aber wie gesagt, 128 Bit (oder 192) für GPU + 128 Bit für die CPU sollten eigentlich ausreichen. Eben weil die xbox noch edram hat und das ganz gut puffern könnte.
john carmack
2013-02-21, 11:49:21
bin mal gespannt was MS dagegensetzt.
ob die jetzt trotzdem mit nur 8GB DDR3 kommen?
Razes
2013-02-21, 11:49:24
Hat einer das mit dem Spiel eines Freundes übernehmen verstanden?
Es wurde iwie gesagt, dass man die Steuerung von Spiele die andere Streamen übernehmen kann.
Spielt man das Spiel dann in der Cloud weiter und der Freund wird Spectator, oder wird der Spielstand mit einer Art "Quicksave" gespeichert und auf meiner Konsole geladen.
Erstes würde doch dem Besitz einer eigenen Lizenz des Spiels völlig aushebeln.:confused:
Die ganze Streaming Sache scheint mir noch nicht so logisch.
bin mal gespannt was MS dagegensetzt.
ob die jetzt trotzdem mit nur 8GB DDR3 kommen?
Es ist längst zu spät noch irgendwas an irgendwelchen Hardware-Specs zu ändern. Da war längst das Tapeout für die Chips.
john carmack
2013-02-21, 12:01:52
Per VNC kannst du auch anderen kontrolle über deinen PC geben... MS scheint das Lizenztechnisch nicht zu stören...
john carmack
2013-02-21, 12:04:03
Es ist längst zu spät noch irgendwas an irgendwelchen Hardware-Specs zu ändern. Da war längst das Tapeout für die Chips.
Jo... falsch ausgedrückt.
Wohl auch mit 8GB GDDR5
oder etwas weniger dafür mit diesem 32MB esRAM
krötenfresse
2013-02-21, 12:05:02
Die Frage ist ob Sony mit der PS 4 ausserhalb der CoreGamer Gruppe wirklich Punkten kann. Wenn MS die Xbox 720 billiger und mit Kinect 2 bringt, könnte es schwer werden. Die Kamera und der Dualshock 4 können es mit Kinect wohl kaum aufnehmen. Grafisch wird man wohl zwischen den Konsolen erstmal keinen unterschied sehen. Möglich das MS das attraktivere Gesamtpaket hat.
so ähnlich war mein gedankengang ;)
allerdings glaube ich nicht, dass xbox-durango mit kinect2 immer noch günstiger sein wird, als die ps4 (ohne move)
tobor
2013-02-21, 12:08:46
Da es bei uns wohl auf 499€ (inkl. Steuern) herauslaufen wird wäre alles andere eine grobe Enttäuschung. Die Frage ist halt was Sony macht wenn Microsoft zum Start mehr als 50€ günstiger ist.
Auf Basis der bisher bekannten Daten ist das durchaus realistisch. Die Core Gamer interessiert das zwar wenig aber die sind eben nur eine Teilmenge des Absatzmarktes.
Aber auch gleichzeitig die early adopter, die in den ersten Jahren einer Konsole wichtig sind,um eine ausreichend grosse Basis an Kunden zu haben. Nintendo stellt gerade fest,was passiert,wenn man diese nicht ausreichend anspricht und die eh nicht gerade "loyalen" Gelegenheitsspieler ausbleiben.
Jo... falsch ausgedrückt.
Wohl auch mit 8GB GDDR5
oder etwas weniger dafür mit diesem 32MB esRAM
Du hast mich wohl nicht richtig verstanden. Wenn die Xbox mit DDR3 geplant wurde, dann kommt sie auch mit DDR3 daran lässt sich jetzt nichts mehr ändern.
dargo
2013-02-21, 12:15:05
Das nutzt die neue Engine von Capcom.
Oha... dann bin ich meinen Allerwertesten los. :D Die Ähnlichkeit zur UE4 Techdemo ist aber verblüffend. :)
del_4901
2013-02-21, 12:17:08
Du hast mich wohl nicht richtig verstanden. Wenn die Xbox mit DDR3 geplant wurde, dann kommt sie auch mit DDR3 daran lässt sich jetzt nichts mehr ändern.
Sie koennten noch 16GB verbauen.
[immy;9663966']
zudem wären 2 Speicherpools wirklich so schlimm? Ist ja beim PC nicht anders.Ja ist es, die HW waehre dann bei weitem nicht so flexibel. Ausserdem sind 2 getrennte Speicherbusse viel zu kompliziert. ("Beauty of simplicity") Und wie bereits schon angemerkt waehre dann der Pinout auch groesser.
Es ging aber um GDDR5 vs. DDR3 nicht um die Kapazität?
Frozone
2013-02-21, 12:20:31
Wäre die Xbox mit 8GB nicht stark im Nachteil? Erstens nur DDR3 und laut den Gerüchten braucht doch das OS auch noch einiges davon.
Also vielleicht ändern die ja nun auf 12?
fondness
2013-02-21, 12:22:45
Wäre die Xbox mit 8GB nicht stark im Nachteil? Erstens nur DDR3 und laut den Gerüchten braucht doch das OS auch noch einiges davon.
Also vielleicht ändern die ja nun auf 12?
"Nur" DDR3 ist für die CPU-Leistung ein erheblicher Vorteil. Für hohe Bandbreiten hat man ja den eDRAM. Leider hat man dadurch deutlich weniger Platz für CUs.
Aus dem Sheet zur PS4 geht jedenfalls nicht direkt die zuvor spekulierte Separierung von 4 CUs für GPGPU hervor: "The GPU contains a unified array of 18 compute units, which collectively generate 1.84 Teraflops of processing power that can freely be applied to graphics, simulation tasks, or some mixture of the two."
Es wurden aber schon Änderungen vorgenommen. Ein PC-Chip von der Stange dürfte es jedenfalls nicht ganz sein.
Das macht ja auch null Sinn. Jede CU kann für GPGPU verwendet werden, was sollte man da seperat zuteilen und warum? So ist man doch wesentlich flexibler.
[immy;9663966']zudem wären 2 Speicherpools wirklich so schlimm? Ist ja beim PC nicht anders.
Genau das ist doch der große Vorteil der neuen Konsolen mit ihrem shared RAM Konzept. Die Daten ständig hin und her zu kopieren kostet nicht unerheblich Leistung.
del_4901
2013-02-21, 12:24:44
Es ging aber um GDDR5 vs. DDR3 nicht um die Kapazität? Die Frage war: "ob die jetzt trotzdem mit nur 8GB DDR3 kommen?" Du bist dann gleich auf das Tape-Out eingegangen und hast es damit "eingeschraenkt".
Aenderungen am Tape-Out werden schwieriger, aber fuer MS nicht unmoeglich/unbezahlbar.
dargo
2013-02-21, 12:26:06
Wäre die Xbox mit 8GB nicht stark im Nachteil?
Es ist echt amüsant hier zu lesen wieviele "Angst" jetzt um die Microsoftskonsole haben. :tongue: Nach den aktuellen Spekus soll die Rechenleistung bei Sony ~50% höher ausfallen. Da ist es doch logisch, dass auch die Bandbreite höher ausfallen muss. Man will die GPU ja nicht unnötig verhungern lassen. Ich kann dich beruhigen, 50% Unterschied ist kaum der Rede wert. Du wirst in Multispielen eh keinen großartigen Unterschied sehen.
PS: MS hat ja noch den eDRAM. Zudem ist DDR3 nicht gleich schlechter als GDDR5. Letzteres hat zwar höhere Bandbreite, aber auch höhere Latenzen. Niedrige Latenzen sind gerade für die CPU von Vorteil.
Frozone
2013-02-21, 12:28:18
Es ist echt amüsant hier zu lesen wieviele "Angst" jetzt um die Microsoftskonsole haben. :tongue: Nach den aktuellen Spekus soll die Rechenleistung bei Sony ~50% höher ausfallen. Da ist es doch logisch, dass auch die Bandbreite höher ausfallen muss. Man will die GPU ja nicht unnötig verhungern lassen. Ich kann dich beruhigen, 50% Unterschied ist kaum der Rede wert. Du wirst in Multispielen eh keinen großartigen Unterschied sehen.
Ich habe eine PS3, war blos Interessen halber weil ich hier mitlese aber dazu bis jetzt nix geschrieben wurde. Ich kaufe die Konsole nach Spielematerial.
Wer noch mehr im Preis und Formfaktor einer Konsole für 2013 erwartet hat als die PS4 umgesetzt hat, hat keine realistischen Erwartungen gehabt sondern utopische Wunschträume.
+1
Bis auf ein paar Feinheiten hätte man sich eigentlich nicht mehr wünschen können.
mironicus
2013-02-21, 12:28:26
Da stellt man sich wirklich die Frage ob die Anforderungen an einen PC mit erscheinen der NextGen. sprunghaft ansteigen werden?!
Die Situation könnte sich jetzt ändern, vor allem was die Texturqualität angeht. Wenn die Programmierer der PS4 jetzt z.B. von den 8 GB Hauptspeicher schon mal 6 GB als Grafikspeicher nutzen würden und diesen mit Texturen vollstopfen... :freak:
Die Konsolen werden viel hardwarenaher programmiert. Da werden auch die Specs komplett ausgenutzt, bei PCs hast du diverse Detailstufen die du wählen kannst, aber die werden nie deine Highend-Grafikkarte komplett ausnutzen (Ausnahme: Grafikmods). Ja, du hast vielleicht höhere Frameraten und Anti-Aliasing, aber die geilen Texturen gibt es dann zunächst nur noch auf den neuen Konsolen (vor allem bei AAA-Titeln). Das mag zwar etwas sehr optimistisch klingen, aber ich könnte mir das wirklich so vorstellen.
Dann brauchen die PC-Spieler eine Radeon 9970 mit 12 GB Speicher um die gleiche Grafikqualität + höhere Frameraten + höhere Auflösung + AA erhalten zu können, um den Konsolen klar überlegen zu sein. ;D
THEaaron
2013-02-21, 12:30:10
Da ein aktueller Highend PC jetzt schon um einiges mehr Leistung als die vorgestellte PS4 hat.. eh, nein.
€: Dazu hat ein normaler PC mit 8GB Arbeitsspeicher immer noch um einiges mehr Speicher für Spiele zur Verfügung als die PS4.
krötenfresse
2013-02-21, 12:35:05
Und vielleicht müssen die PC-Versionen jetzt leicht abgespeckt werden, da PCs nicht so viel Grafikspeicher wie die Konsolen haben... :D
selten so gelacht :tongue:
bin mal gespannt was MS dagegensetzt.
ob die jetzt trotzdem mit nur 8GB DDR3 kommen?
vielleicht kommt die box ja mit 512 bit statt 256
Knuddelbearli
2013-02-21, 12:36:02
512Bit SI? viel spass beim ersten Shrink ^^ geschweige den beim 2ten ( da könnte bereits 256Bit ein wenig limitieren )
Skysnake
2013-02-21, 12:43:43
Ich glaub auch nicht an ein 512 Bit SI, das wäre ziemlicher Overkill...
Da wird man eventuell die neuen GDDR5 Chips mit gesteigerter Speichermenge nehmen. Danmit käme man dann auch mit 16 Chips aus.
LadyWhirlwind
2013-02-21, 12:47:52
Sony hat zweifelos eine technisch gute Konsole vorgestellt, mehr wäre wahrscheinlich nicht möglich gewesen (ohne den Preis weit über jede Schmerzgrenze zu treiben). Was sie jedoch nicht vorgestellt haben sind jene Features oder Titel die jedem Gamer das Wasser im Mund zusammen laufen lassen. Die Bewegungssteuerung mit dem Dualshock Controller? Die lässt ja wohl mittlerweile jeden kalt, das konnte schon die Wii und Kinect schlägt den um längen. Die Koste für die PS4 dürften sicher höher liegen als für die nächste Xbox.
Bei dem sich abzeichnenden Kampf ums Wohnzimmer hat Sony mit der PS4 möglicherweise einen strategischen Fehler begangen. Wenn MS einen Preiskampf lanciert, könnte es teuer werden für Sony.
Verständnisfrage: Vieviel von den 8GB RAM bleiben für Texturen wohl übrig? Das System wird wohl auch noch welchen brauchen, ebenso die Gamelogik.
Gibt es irgendwo eine Schätzung über die Kosten der verbauten komponenten?
Exxtreme
2013-02-21, 12:50:25
IMO ist die PS4 überraschend gut (GPU und RAM!). Dazu hat Sony noch sehr sehr gute eigene Studios. IMO eine bessere Konsole als vermutet.
Auch sehr schön ist das Streamen auf die Vita, was ein IMO sehr nettes Feature der WiiU abbildet (um nicht zu sagen abkupfert).
Japp. Ich sehe die PS4 auch als sehr ausgewogen und "vernünftig" entworfen an. Keine getrennten Speicher, keine "Spezialhardware", die man irgendwie nur unter bestimmten Umständen ansprechen kann bzw. man sich verbiegen muss um sie zu nutzen etc. Ist echt eine runde Sache geworden, die wohl auch von den Herstellungskosten nicht zu krass wird.
schreiber
2013-02-21, 12:54:40
Was hat jetzt Sony eigentlich dazu gezwungen, die Daten so früh rauszugeben? Versteh ich nicht. Jetzt lässt man die Leute ein Dreivierteljahr auf heißen Kohlen sitzen.
Sven77
2013-02-21, 12:55:17
Was hat jetzt Sony eigentlich dazu gezwungen, die Daten so früh rauszugeben? Versteh ich nicht. Jetzt lässt man die Leute ein Dreivierteljahr auf heißen Kohlen sitzen.
Scharf nachdenken...
Knuddelbearli
2013-02-21, 12:55:17
256Bit dürfte spätestens beim 2ten Shrink schon limitieren ( wo ist Gipsel wenn man ihn mal brauch ^^ )
][immy
2013-02-21, 13:07:37
256Bit dürfte spätestens beim 2ten Shrink schon limitieren ( wo ist Gipsel wenn man ihn mal brauch ^^ )
welcher zweiter shrink? Also so wie es aktuell aussieht würden 28nm Chips in neuen Konsolen zu ihren Lebzeiten (wenn man jetzt mal von einer etwas kürzeren Lebenszeit ausgeht als die aktuellen konsolen) nur einen Shrink erhalten, es sei denn es kommen noch halbe schritte hinzu.
PrefoX
2013-02-21, 13:11:58
Da ein aktueller Highend PC jetzt schon um einiges mehr Leistung als die vorgestellte PS4 hat.. eh, nein.
€: Dazu hat ein normaler PC mit 8GB Arbeitsspeicher immer noch um einiges mehr Speicher für Spiele zur Verfügung als die PS4.
leistung die nichts bringt, wenn die software nicht für bestimmte hardware zugeschnitten ist.
ich habs schon öfter gesagt, ich hab nen 3770k und ne 680gtx und an flüssiges zocken in 1050p! ist bei viele spielen nicht zu denken.
Knuddelbearli
2013-02-21, 13:15:24
nur 1 shrink hiese 4-5 Jahre Lebensdauer
kann ich mir nicht recht vorstellen vor allem da die PS4 es auch noch geben wird wenn die PS5 draußen ist
so wie es bis vor kurzem noch die PS2 gab
THEaaron
2013-02-21, 13:16:04
http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Benchmark-Test-Grafikkarten-1056218/
Auf High Details kommt eine 560TI hier auf 30min FPS und die Optik von Crysis3 ist der Killzone Demo um einiges überlegen, welche letzten Endes auch mit 1080p30 laufen wird.
mironicus
2013-02-21, 13:17:42
Da ein aktueller Highend PC jetzt schon um einiges mehr Leistung als die vorgestellte PS4 hat.. eh, nein.
Wie ich schon sagte, der PC wird aber niemals richtig ausgenutzt, für die Konsolen werden aber die teuren Spiele entwickelt, die auf die Hardware abgestimmt sind. Die verwendeten GPUs in den Konsolen sind dann technisch auf der Höhe aktueller PCs, die Grafikqualität wird damit identisch und kann bei entsprechender richtiger Ausnutzung jetzt auch besser ausfallen. Erst jetzt wird die Programmierung von DX11.1-Titeln in Fahrt kommen, dank der neuen Konsolen.
Davon profitieren auch normale PC-Konvertierungen. Aber das Beispiel mit dem höheren Grafikspeicher auf den Konsolen könnte sich zu einem sichtbaren Vorteil für die Konsolen entwickeln.
€: Dazu hat ein normaler PC mit 8GB Arbeitsspeicher immer noch um einiges mehr Speicher für Spiele zur Verfügung als die PS4.
Nenn mir ein Spiel was von mehr als 8 GB Speicher profitiert auf dem PC. Es gibt keins! Im Hintergrund läuft dabei noch ein komplettes Betriebssystem. Der zusätzliche Speicher wird als Datei-Cache verwendet, der eigentliche Programmpfad benötigt nur ein Bruchteil vom Arbeitsspeicher. Aber man kann nie genug Grafikspeicher haben.
Innerhalb der gleichen Kosten, hätte man wohl 4GiB GDDR5 und 16GiB DDR3 verbauen können.
Jo, aber dann wärs keine HSA-Konsole mehr. Wäre denn das "Klecks"-Spiel mit 2 Speicherpools möglich? Sieht mit den ganzen Trümmernteilen aus dem die Spielfiegur besteht stark danach aus, dass das die Grafikkarte rechnet.
Ein Jaguar hat mit Sicherheit keine höhere IPC als ein Piledriver.Mit Sicherheit schon ;-) Schon mal die single-thread Benchmarks eines Trinity A8-4555 Mobile @1.6 Ghz gesehen? Die sind nicht gerade toll, immerhin hat er nen Turbo.
Ja Jaguar ist von der IPC relativ schwach.Siehe oben, die IPC ist topp, schwach ist nur der geringe Takt der natürlich dem Low-Power-Ansatz geschuldet ist. Ansonsten hat ein BD mit 2issue INT-Pipes, 16kB L1 Write Through keine Chance gegen ne 2Issue INT-Pipe mit 32kB Write Back L1 samt Loop-Buffer. Selbst die FPU sollte mit 128Bit unter normalen Wald-und-Wiesen-Code jetzt konkurrenzfähig sein.
Exxtreme
2013-02-21, 13:22:20
Was hat jetzt Sony eigentlich dazu gezwungen, die Daten so früh rauszugeben? Versteh ich nicht. Jetzt lässt man die Leute ein Dreivierteljahr auf heißen Kohlen sitzen.
Sony hat schon immer zu FUD gegriffen. Hat z.B. sehr gut gegen Segas Dreamcast gewirkt als sie damals sagten, die PS2 sei so leistungsfähig, dass sie unter das Kriegswaffengesetz fällt und deshalb nicht exportiert werden darf. :freak:
http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Benchmark-Test-Grafikkarten-1056218/
Auf High Details kommt eine 560TI hier auf 30min FPS und die Optik von Crysis3 ist der Killzone Demo um einiges überlegen, welche letzten Endes auch mit 1080p30 laufen wird.
Glaskugel ahoi? ;)
THEaaron
2013-02-21, 13:26:27
Welche Glaskugel? Ich spreche doch von der gezeigten Killzone Demo.
€:
Nenn mir ein Spiel was von mehr als 8 GB Speicher profitiert auf dem PC. Es gibt keins! Im Hintergrund läuft dabei noch ein komplettes Betriebssystem. Der zusätzliche Speicher wird als Datei-Cache verwendet, der eigentliche Programmpfad benötigt nur ein Bruchteil vom Arbeitsspeicher. Aber man kann nie genug Grafikspeicher haben.
Ach und das Betriebssystem der PS4 läuft mit Luft und Liebe?
Sven77
2013-02-21, 13:28:49
Imho sieht die Killzone Demo besser aus als Crysis 3.. allein die Sichtweite am Anfang ist schon beeindruckend. Allerdings gefällt mir das Artdesign von Crysis schon allgemein nicht, deswegen bin ich da nicht objektiv. Sowas wie die Partikelwolke bei der grossen Explosion sieht man aber auch bei C3 nicht..
Ach und das Betriebssystem der PS4 läuft mit Luft und Liebe?
Verglichen mit einem Windows das zig Treiber laden muss.. ja
Welche Glaskugel? Ich spreche doch von der gezeigten Killzone Demo.
Mea Culpa!
Du meintest natürlich das Filmchen zur PS4-Spec-Vorstellung...
Wenn ich mir allerdings die jetzt auch in hoher Auflösung vorliegenden Screens davon anschaue, würde ich mir hier kein Urteil ala "um einiges überlegen" anmaßen wollen.
Ich kenne mich mit Konsolen wirklich nicht gut aus. Aber das killzone(tech)demos des öfteren mehr versprechen als dann geliefert wird weiß wohl jeder.
THEaaron
2013-02-21, 13:32:51
Ja, was es auch immer ist. :D
Die gezeigten Szenen waren beeindruckend, ja. Auch die Weitsicht war beeindruckend. Allerdings habe ich keine sehr hohe Detaildichte bei dem gezeigten vernommen und die uns bekannten C3 Szenen sind mit Details überflutet, oder nicht?
LadyWhirlwind
2013-02-21, 13:43:11
Ist es nicht auch so, dass zur Zeit die meisten Spiele darunter leiden, dass die Spiele auf das Featurelevel der derzeitigen Konsolengeneration hin programmiert werden und die möglichkeiten einer aktuellen Grafikkarte gar nicht erst ausgenutzt werden können, weil z.B bessere Shader gar nicht erst integriert werden? Dann wäre es auch nicht verwunderlich dass die besser optimierten Konsolenspiele auch etwas besser aussehen.
RaptorFX
2013-02-21, 13:43:37
Also vom RAM und der GPU her passt die PS4 sehr gut. Das Einzige was Sorgen zubereiten könnte, ist sicherlich die CPU...Meiner Meinung nach die falsche Wahl...
MadManniMan
2013-02-21, 13:43:52
Ihr dürft bei Crysis 3 nicht vergessen: das generelle Design wurde immer mit der Beschränkung der Abwärtskompatibilität zu sechs Jahre alten Konsolen entworfen.
Das macht Crysis 3 natürlich nicht automatisch besser, aber selbstverständlich gibt es Sachen, wo ein PS4-Spiel einem PS3-Spiel überlegen ist.
Klar konnte sich Crytek beim PC dann darauf stürzen, andere Sachen maximal auszupowern, aber flexibel mit der Leistungsfähigkeit der Plattform "PC" umgehen wie die Enwickler mit der der PS4 konnten sie halt nich.
HarryHirsch
2013-02-21, 13:47:06
PS4: 8 GB unified memory, GDDR 5
neuer controller: Dualshock 4 mit einer Art movement Steuerung.
2TFlops CPU
seperater Chip der auch funktioniert wenn die Konsole "ausgeschaltet ist". z.B um Sachen herunter zu laden.
der wird in den specs nirgends erwähnt.
was isn das für einer?
Sven77
2013-02-21, 13:49:08
Allerdings habe ich keine sehr hohe Detaildichte bei dem gezeigten vernommen und die uns bekannten C3 Szenen sind mit Details überflutet, oder nicht?
Die Detaildichte bei C3 ergibt sich aus lieblos hingeklatschtem Gras/Efeu und Hires Decals.. wirklich vergleichen lässt sich sowas nur mit dem gleichen Spiel. C3 wird wohl nicht mehr für Next-Gen kommen, insofern abwarten. Und die Frage ob Killzone auf der PS4 oder auf dem PC besser aussieht erübrigt sich ja ;)
der wird in den specs nirgends erwähnt.
was isn das für einer?Sicherlich was kleines, superbilliges schätze also irgendein kleines ARM-Teil. Die verwendet AMD ja ebenfalls schon, da sollte die Zusammenarbeit mit nem extra-ARM-Chip auch kein Problem sein.
mironicus
2013-02-21, 13:53:15
Ist es nicht auch so, dass zur Zeit die meisten Spiele darunter leiden, dass die Spiele auf das Featurelevel der derzeitigen Konsolengeneration hin programmiert werden und die möglichkeiten einer aktuellen Grafikkarte gar nicht erst ausgenutzt werden können, weil z.B bessere Shader gar nicht erst integriert werden? Dann wäre es auch nicht verwunderlich dass die besser optimierten Konsolenspiele auch etwas besser aussehen.
Ja, natürlich. Mit den neuen Konsolen wird jetzt auch DX11.1 standardmäßig eingesetzt werden, die Spiele werden in Zukunft alle besser aussehen als vorher. Und die Programmierer der Spiele werden davon auch richtig Gebrauch machen, nicht nur "ein paar Sachen von DX11" wie bei heutigen PC-Spielen, um die Kompatibilität zu früheren GPUs aufrecht zu erhalten. Die Konsolenprogrammierer müssen nicht auf eine solche Kompatibilität Rücksicht nehmen, die können die Hardware mit alles Features nutzen.
Erst mit dem Erscheinen von DX12+ geht das gleiche Spiel von vorne los. Dann müssen PC-Besitzer wieder 2-3 Jahre warten bis erste Spiele erscheinen, die die neuen Features der GPUs (begrenzt) ausnutzen. Und dann erscheinen ein paar Jahre später neuere Konsolen, die das Featureset der aktuellen GPUs wieder unterstützen und dann erst kommen die grafisch guten Spiele in größeren Mengen.
PrefoX
2013-02-21, 13:54:00
http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Benchmark-Test-Grafikkarten-1056218/
Auf High Details kommt eine 560TI hier auf 30min FPS und die Optik von Crysis3 ist der Killzone Demo um einiges überlegen, welche letzten Endes auch mit 1080p30 laufen wird.
bin ich anderer meinung ; ) dort waren viel mehr partikel zu sehen und das level war um einiges größer, vorallem das was man gleichzeitig auf dem bildschirm gesehenhat.
THEaaron
2013-02-21, 13:54:37
Die Detaildichte bei C3 ergibt sich aus lieblos hingeklatschtem Gras/Efeu und Hires Decals.. wirklich vergleichen lässt sich sowas nur mit dem gleichen Spiel. C3 wird wohl nicht mehr für Next-Gen kommen, insofern abwarten. Und die Frage ob Killzone auf der PS4 oder auf dem PC besser aussieht erübrigt sich ja ;)
Der direkte Vergleich ist nur so möglich, ja. Sobald die ersten Multititel wirklich auf allen Systemen spielbar sind kann man den Vergleich ja nochmal heranziehen.
pixelguy
2013-02-21, 13:57:56
PS4 kommt mit Jaguar-Kernen, USB 3.0 und schnellerem WLAN: http://www.golem.de/news/spezifikationen-ps4-kommt-mit-jaguar-kernen-usb-3-0-und-schnellerem-wlan-1302-97741.html
Knuddelbearli
2013-02-21, 14:00:34
guten Morgen Herr pixelguy ^^
LadyWhirlwind
2013-02-21, 14:13:12
Ja, natürlich. Mit den neuen Konsolen wird jetzt auch DX11.1 standardmäßig eingesetzt werden, die Spiele werden in Zukunft alle besser aussehen als vorher. Und die Programmierer der Spiele werden davon auch richtig Gebrauch machen, nicht nur "ein paar Sachen von DX11" wie bei heutigen PC-Spielen, um die Kompatibilität zu früheren GPUs aufrecht zu erhalten. Die Konsolenprogrammierer müssen nicht auf eine solche Kompatibilität Rücksicht nehmen, die können die Hardware mit alles Features nutzen.
Erst mit dem Erscheinen von DX12+ geht das gleiche Spiel von vorne los. Dann müssen PC-Besitzer wieder 2-3 Jahre warten bis erste Spiele erscheinen, die die neuen Features der GPUs (begrenzt) ausnutzen. Und dann erscheinen ein paar Jahre später neuere Konsolen, die das Featureset der aktuellen GPUs wieder unterstützen und dann erst kommen die grafisch guten Spiele, die das Featureset auch ausnutzen.
Genau, da man ja eh für die Konsolen entwickeln musste, hat es sich einfach nicht gelohnt die PC User mit älteren Grafikkarten auszuschliessen. MAn erinnere sich an den Aufschrei als mal dieses eine Game (Halo 2??) nur für DirectX 10 erhältlich war. Ich gehe davon aus das wir Ende dieses Jahr bzw. Anfang nächstes Jahr vermehrt DirectX 11 only Titel sehen werden. Next-Gen Konsolen und PC mit DirectX11 kompatiblen Grafikkarten, welche es ja ausch schon länger gibt, bieten einen Markt der gross genug ist. DirectX 11 Spiele sehen ja auch erstmal gut genug aus, so dass DirectX 12 m.M.n. eher wenig auswirkung haben wird.
Das Einzige was Sorgen zubereiten könnte, ist sicherlich die CPU...Meiner Meinung nach die falsche Wahl...In Hinblick auf Preis/Leistung wars sicherlich die beste Wahl.
Intel Kerne wären sicherlich besser gewesen, aber Intel rückt die nicht raus und hätte auch kein HSA-konzept in der Schublade. Bulldozerkerne wären dagegen zu groß gewesen und schluckten zuviel Strom, da bliebe dann nichts mehr für den GPU-Teil übrig. :freak:
Sprich: Das passt schon so.
fondness
2013-02-21, 14:26:57
Mit Sicherheit schon ;-) Schon mal die single-thread Benchmarks eines Trinity A8-4555 Mobile @1.6 Ghz gesehen? Die sind nicht gerade toll, immerhin hat er nen Turbo.
Du meinst den A8-4555, der laufend auf 900Mhz herunter drosselt um seine TDP zu halten? Ich kann mich noch gut an ausführliche Untersuchungen von Bobcat vs. Bulldozer erinnern, wo Bobcat ca. 15% unter Bulldozer IPC lag. Da Jaguar ungefähr genau so viel IPC dazu gewinnt ggü. Bobcat wie Piledriver ggü. Bulldozer wird sich daran nichts geändert haben. Aber ich lasse mich gerne vom Gegenteil überzeugen, aber dann bitte mit CPUs die ihren Takt nicht nur auf dem Papier haben.
/Edit: Okay ich muss mich insofern korrigieren, als dass das auf einen Bulldozer inkl. L3 Cache zutraf. Ohne L3 könntest du recht haben.
Ronny145
2013-02-21, 14:39:00
Du meinst den A8-4555, der laufend auf 900Mhz herunter drosselt um seine TDP zu halten? Ich kann mich noch gut an ausführliche Untersuchungen von Bobcat vs. Bulldozer erinnern, wo Bobcat ca. 15% unter Bulldozer IPC lag. Da Jaguar ungefähr genau so viel IPC dazu gewinnt ggü. Bobcat wie Piledriver ggü. Bulldozer wird sich daran nichts geändert haben. Aber ich lasse mich gerne vom Gegenteil überzeugen, aber dann bitte mit CPUs die ihren Takt nicht nur auf dem Papier haben.
Habe ich ähnlich in Erinnerung. Piledriver sollte die höhere IPC haben, schätzungsweise 10% mindestens. Im Vergleich zum ersten Bulldozer könnte oder sollte das was werden für Jaguar.
Werewolf
2013-02-21, 14:40:49
Ihr dürft bei Crysis 3 nicht vergessen: das generelle Design wurde immer mit der Beschränkung der Abwärtskompatibilität zu sechs Jahre alten Konsolen entworfen..
Ja, ursprünglich waren 5fps auf der Titan geplant aber die zehnfache Weitsicht war dann doch zuviel des guten.
mironicus
2013-02-21, 14:42:29
Genau, da man ja eh für die Konsolen entwickeln musste, hat es sich einfach nicht gelohnt die PC User mit älteren Grafikkarten auszuschliessen. MAn erinnere sich an den Aufschrei als mal dieses eine Game (Halo 2??) nur für DirectX 10 erhältlich war. Ich gehe davon aus das wir Ende dieses Jahr bzw. Anfang nächstes Jahr vermehrt DirectX 11 only Titel sehen werden. Next-Gen Konsolen und PC mit DirectX11 kompatiblen Grafikkarten, welche es ja ausch schon länger gibt, bieten einen Markt der gross genug ist. DirectX 11 Spiele sehen ja auch erstmal gut genug aus, so dass DirectX 12 m.M.n. eher wenig auswirkung haben wird.
Das zeigt aber auch, dass PC-Spieler im Grunde immer am Ende etwas abgekommen.
Du kaufst dir eine teure Grafikkarte mit Features, die kaum benutzt werden. Da werben die GPU-Hersteller mit neuen Effekten in Techdemos und kaum ein Spiel verwendet es, nicht mal nach 2 Jahren. Die meisten Spiele laufen mit DX9-Renderpfad und ganz wenige bieten einen kleinen zusätzlichen DX11-Pfad als "Bonbon" obendrauf - für 2-3 Effekte sozusagen, damit man sich die Anschaffung seiner teuren Karten wenigstens etwas schön reden kann. :biggrin:
Und zu dem Zeitpunkt, wenn es neue Konsolen gibt und der neue Renderpfad Standard wird, ist die eigene PC-Karte schon wieder veraltet, weil sie zu lahm ist oder zu wenig Grafikspeicher hat. :freak:
fondness
2013-02-21, 14:46:11
Habe ich ähnlich in Erinnerung. Piledriver sollte die höhere IPC haben, schätzungsweise 10% mindestens. Im Vergleich zum ersten Bulldozer könnte oder sollte das was werden für Jaguar.
Siehe meinen Edit oben. Ohne L3 sollte ein Jaguar eine höhere IPC haben als Piledriver. Allerdings wohl nicht um viel.
MadManniMan
2013-02-21, 14:49:27
Ja, ursprünglich waren 5fps auf der Titan geplant aber die zehnfache Weitsicht war dann doch zuviel des guten.
Troll woanners :tongue:
Selbstverständlich würde Crysis 3 anders aussehen, wenn es nicht mit Rücksicht auf 256 MB RAM entworfen worden wäre. Die ganzen Details, die es letztlich hat, sind doch nur "draufgesetzt".
LadyWhirlwind
2013-02-21, 14:56:16
Das zeigt aber auch, dass PC-Spieler im Grunde immer am Ende etwas abgekommen.
Du kaufst dir eine teure Grafikkarte mit Features, die kaum benutzt werden. Da werben die GPU-Hersteller mit neuen Effekten in Techdemos und kaum ein Spiel verwendet es, nicht mal nach 2 Jahren. Die meisten Spiele laufen mit DX9-Renderpfad und ganz wenige bieten einen kleinen zusätzlichen DX11-Pfad als "Bonbon" obendrauf - für 2-3 Effekte sozusagen, damit man sich die Anschaffung seiner teuren Karten wenigstens etwas schön reden kann. :biggrin:
Und zu dem Zeitpunkt, wenn es neue Konsolen gibt und der neue Renderpfad Standard wird, ist die eigene PC-Karte schon wieder veraltet, weil sie zu lahm ist oder zu wenig Grafikspeicher hat. :freak:
Da hast du im Grunde schon recht. Darum erwarte ich mir ja auch nicht allzuviel von DirectX 12, insbesondere da ich mit der möglichen Grafikqualität von DirectX11.1 doch recht zufrieden bin.
Kommt natürlich auch etwas darauf an, was frau mit der Grafikkarte macht. Meistens ist auf dem PC mehr weitsicht drin, bei Spielen die es nur für den PC gibt ist oft die Welt auch grösser. Auch in PVP spielen wo viele Spieler auf engem Raum alle ihre Effekte zünden haben diese schnelleren Grafikkarten durchaus ihren Zweck. Achja, meine 2560x1440 müssen ja auch irgendwie betrieben werden. Und wenn ich dann auch noch mit Fraps aufzeichne, braucht das ja auch noch Leistung. Wenn eine Karte zu Lahm ist, bzw. zu wenig Speicher hat, dann geh ich ins Kaufberatungsforum und hohle mir Rat, was zum jetztigen Zeitpunkt das beste wäre. Wenn die Karte dann meine Bedürfnisse auch erfüllt, bin ich zufrieden. Ich seh das nicht so eng, auf die Techdemos der Hersteller geb ich eher wenig.
tobor
2013-02-21, 15:11:33
Sie koennten noch 16GB verbauen.
Wofuer? Waere eine Erhoehung des eingebetteten Rams nicht besser?(besseres Antialising moeglich)
YfOrU
2013-02-21, 15:11:43
Hm, entweder sind meine Infos nicht ganz aktuell oder du verwechselst etwas. Soweit ich informiert bin hat MS nur 12 CUs, dafür eDRAM. Sonst aber ebenfalls ein 256-bit SI nur halt mit DDR3 statt GDDR5. Dh das einzige was bei MS wirklich billiger wird ist der Speicher selbst. Von einem Shrink sollte beider gleichermaßen profitieren, beide haben ein 256-bit SI als langfristigen Kostenpunkt.
GDDR5 ist auch langfristig ein vergleichsweise teurer Spaß. Für eDRAM gilt das nicht denn hier gibt es die Option diesen direkt zu integrieren bzw. separat den Prozess zu wechseln.
Die Problematik bei GDDR5 ist das dieser Speichertyp kaum einem ernsthaften Wettbewerb unterliegt und bezogen auf den gesamten Markt praktisch ein Nischenprodukt ist. Auch ist die reine Betrachtung der Breite des Speicherinterfaces etwas oberflächlich. Die bei GDDR5 anfallenden (erheblich höheren) Datenraten wirken sich auf das PCB aus.
Aus technischer Sicht hat Sony eine sehr interessante und leistungsfähige Variante gewählt aber bezogen auf die Herstellungskosten sowie deren Skalierung über die Lebenszeit des Produktes ist das ziemlich mutig.
del_4901
2013-02-21, 15:24:25
Die Optik von Crysis3 ist der Killzone Demo um einiges überlegen, welche letzten Endes auch mit 1080p30 laufen wird.
Das eine ist eine Demo und das andere ein polished Game.
Da ein aktueller Highend PC jetzt schon um einiges mehr Leistung als die vorgestellte PS4 hat.. eh, nein.
Mehr Leistung
Mehr Overhead -> Mehr Verlust
Mehr Testaufwand -> Weniger Itterationen
Mehr Kosten -> Kleinere Audienz
€: Dazu hat ein normaler PC mit 8GB Arbeitsspeicher immer noch um einiges mehr Speicher für Spiele zur Verfügung als die PS4. Ja, aber er muss auch viele Daten doppelt und dreifach (oder mehr) vorhalten.
Also vom RAM und der GPU her passt die PS4 sehr gut. Das Einzige was Sorgen zubereiten könnte, ist sicherlich die CPU...Meiner Meinung nach die falsche Wahl... Ich finde die CPU reicht. Wenn ich davon 2 Cores fuer den Renderer haben kann bin ich mehr als Zufrieden eigentlich wuerde auch eine reichen.
Wofuer? Waere eine Erhoehung des eingebetteten Rams nicht besser?(besseres Antialising moeglich)Mehr eDRAM ist immer gut, aber mehr Speicher ist immernoch besser als gar nichts. Speicher laesst sich immer irgendwie mit Performance tauschen.
THEaaron
2013-02-21, 15:34:49
Ich frag mich auch ob das finale Produkt über oder unter der Demo anzusiedeln ist. Bei solchen Präsentationen, auch wenn sie als Livevorstellung propagiert werden, sind ja auch mit Vorsicht zu genießen.
Guerilla Games kann man jedenfalls noch zugute halten das sie KZ2 gegenüber ihren ersten gezeigten Szenen grafisch nochmal ordentlich zugelegt haben.
Allerdings erinnert man sich ungern an sowas, was zwar nicht direkt GG/KZ schmälert, aber den Ruf von Live Demonstrationen allgemein:
http://www.otakufreaks.com/wp-content/uploads/2010/06/e3-kinect-star-wars-fail.gif
Time will tell. :)
john carmack
2013-02-21, 15:43:37
mit ner JaguarCPU kann man die PS4 dann auch OC´n :D
dildo4u
2013-02-21, 15:45:15
Die Frage ist wann die Entwickler wussten das sie 8GB bekommen möglich das sie erst von 4GB ausgingen,dann werden sie noch ordentlich zulegen zumindest für Games die 2014 kommen.
john carmack
2013-02-21, 15:48:17
besser werden die games sowieso über die Jahre aussehen.
Schau dir mal die ersten games für die 360/PS3 an, und wie sie jetzt aussehen.
Rancor
2013-02-21, 16:35:09
besser werden die games sowieso über die Jahre aussehen.
Schau dir mal die ersten games für die 360/PS3 an, und wie sie jetzt aussehen.
.... und ruckeln :biggrin: *scnr*
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.