Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?
Lightning
2013-02-21, 16:45:07
Ja, aber er muss auch viele Daten doppelt und dreifach (oder mehr) vorhalten.
Kannst du das ein bisschen erläutern? Welche Daten müssen aus welchen Gründen mehrfach vorgehalten werden (zweifach kann ich mir teilweise noch denken, aber sicher bin ich nicht)? Würde mich interessieren.
mit ner JaguarCPU kann man die PS4 dann auch OC´n :D
Ne. Das hat damit nichs zu tun.
.... und ruckeln :biggrin: *scnr*
Das taten sie auch ziemlich am Anfang schon. ;)
pittiplatsch
2013-02-21, 16:47:15
Also ich hab mir jetzt Crysis 3 Vids in 1080p und dann wieder den Killzone Trailer und die Demo angesehn, immer wieder, und Killzone ist noch n Alpha Build.
Äh schlicht Crysis 3 sieht nicht besser aus als Killzone, sondern schlechter, in Punkto Gesamtbild, Partikeleffekte, und Anzahl der auf dem Bildschirm befindlichen interaktiven Personen und Objekte.
Auf der Entwicklerseite sprechen sie davon, das es ein Alpha-Build von 2012 ist, was als Vorführung diente, und mit 4GB Ram für die Konsole im Hinterkopf konzipert wurde, nun haben wir aber 8, und wenn man die steigerungen von Guerilla kennt, wird das noch deutlich zulegen.
p.s. der damalige Killzone 2 CGI-Render von 2005 zählt nicht, war von nem Sonyteam gemacht, und kein Guerilla Material.
Achja das Deep Down Material von capcom war ein mix aus Cutszenen und astreinem Gameplay, geschuhlte Augen müssten sowas eigentlich sofort erkennen, am Steuerungsverhalten und kleinen Grafikartefakten, sowie dem interagierendem Menü. :D
robbitop
2013-02-21, 16:57:59
Siehe oben, die IPC ist topp, schwach ist nur der geringe Takt der natürlich dem Low-Power-Ansatz geschuldet ist. Ansonsten hat ein BD mit 2issue INT-Pipes, 16kB L1 Write Through keine Chance gegen ne 2Issue INT-Pipe mit 32kB Write Back L1 samt Loop-Buffer. Selbst die FPU sollte mit 128Bit unter normalen Wald-und-Wiesen-Code jetzt konkurrenzfähig sein.
Gemessen an Intel CPUs nicht.
Bisher hatte Bulldozer in Spielebenches >20 % Performancevorteil wenn man den Takt normiert. FP limitiert sind Spiele eh nicht.
Sind 15 % mehr IPC für Jaguar vs +10 % IPC für Piledriver. Da liegt immernoch mind 20 % IPC zwischen einem aktuellen Piledriver ggü dem Jaguar.
@8x Jaguar als CPU
Im Gesamtbild ist ja Jaguar dennoch eine sehr gute Wahl. Er frisst wenig TDP und wenig Fläche und ist einfach shrinkbar. Die gesparte Fläche kann sehr gut in GPU Rechenleistung/Compute investiert werden. Das steigert die BQ eher.
Außerdem sind es immerhin 8x Kerne. Nutzt man die aus, wird es ausreichen.
Hayab
2013-02-21, 17:54:40
Ich halte das Gesamtpaket der PS4 fuer ausgewogen. Wieviel Leistung die CPUs durch den Speicher verlieren, die Frage steht noch offen. Allerdings sind die x86 Kerne verbunden mit nicht ganz optimalen Speicher nicht so ein optimistischer Hirnschiss wie der Cell CPU das war.
Ob die 2 Tflop auf die gesamte max. Rechenleistung alle Komponenten oder nur der GPU bezogen sind, konnte ich noch nirgends nachlesen?
Mal angenommen sind die max. 2 Tflops auf die GPU bezogen so ist das mit den 8GB GDDR5 ein starkes Gespann.
dildo4u
2013-02-21, 17:58:23
Ich halte das Gesamtpaket der PS4 fuer ausgewogen. Wieviel Leistung die CPUs durch den Speicher verlieren, die Frage steht noch offen. Allerdings sind die x86 Kerne verbunden mit nicht ganz optimalen Speicher nicht so ein optimistischer Hirnschiss wie der Cell CPU das war.
Ob die 2 Tflop auf die gesamte max. Rechenleistung alle Komponenten oder nur der GPU bezogen sind, konnte ich noch nirgends nachlesen?
Mal angenommen sind die max. 2 Tflops auf die GPU bezogen so ist das mit den 8GB GDDR5 ein starkes Gespann.
Die GPU hat 1.84TF,2TF sind wohl für's ganze System.
http://s16.postimage.org/jxujvct9x/console.png
http://www.neogaf.com/forum/showthread.php?t=514512
Ich bin nach dem Durchlesen der Pressereaktionen ziemlich verwirrt.
Was haben die Leute mehr erwartet?
Was bietet Nintendo mit der Wii U innovativeres?
Finch
2013-02-21, 18:07:52
Ich bin nach dem Durchlesen der Pressereaktionen ziemlich verwirrt.
Was haben die Leute mehr erwartet?
Was bietet Nintendo mit der Wii U innovativeres?
Nichts, das ist es ja. Die PS4 bietet schon einiges. Der Mensch meckert aber gerne.
dildo4u
2013-02-21, 18:16:02
Digital Foundry Spec Analysis: PlayStation 4
http://www.eurogamer.net/articles/df-hardware-spec-analysis-playstation-4
Ich bin nach dem Durchlesen der Pressereaktionen ziemlich verwirrt.
Was haben die Leute mehr erwartet?
Was bietet Nintendo mit der Wii U innovativeres?
Bin auch etwas verwirrt über die Kritik, von wegen "innovationslos" und "wo ist das Gegenstück zum BluRay-LW der PS3" usw. Finde es OK, dass sich die PS4 wieder auf das eigentliche Gaming zu besinnen scheint. Soll doch Microsoft mit irgendeiner schwachbrüstigen Eierlegenden Multimedia-Wollmilchsau an die Wand fahren, die es dank Kinect-Zwangsbeglückung auch noch jedem Casual-Deppen recht machen will.
Ich finde das, was zur PS4 präsentiert wurde, soweit durchaus stimmig. Die Hardware ist OK und glücklicherweise kommt das Ding mit 8GB RAM. Die Online/Cloud/Social-Features sind alle irgendwo Gaming-bezogen:
Streaming zum Probezocken von Spielen und als Substitution für Abwärtskompatibilität finde ich recht sexy, wenn die Qualität stimmt und die Technik reibungslos funktioniert.
Der Share Button ist auch potenziell interessant für Leute, die vielleicht einfach und mühelos Spielevideos hochladen wollen. Bislang ging das ja nur von Konsole aus mit irgendwelchen Capture-Lösungen. Mein Ding ist es nicht, aber wenn es gut implementiert ist, dann ist das sicherlich für viele Leute ein sehr relevantes Feature.
Spielen während das Spiel noch herunterlädt - ein durchaus nettes Quality of Life Feature.
Sehe hier keine großartigen Ansatzpunkte für Kritik, außer dass Sony leider immer noch nicht das asymetrische Xbox360-Controller-Design kopiert hat und die Menschheit weiterhin mit den DualShock-Handkrampf-Controllern foltern will. Wenn der Preis stimmt, könnte das mal wieder eine Konsole werden, die ich mir kaufe (die letzte war die PS1).
LadyWhirlwind
2013-02-21, 18:51:03
Negativ weil, Sony das gebracht hat, was erwartet wurde, bzw. was ungefähr allgemein von den Next-gen Konsolen erwartet wird. Innovationslos weil doch mittlerweile klar ist, das der "Kampf ums Wohnzimmer" gerade erst begonnen hat. In die Richtung hat Sony gestern wenig gezeigt, obwohl die gezeigten Features vermuten lassen, dass sich die Konsole mit entsprechender Software gut schlagen würde. Innovationslos weil der neue Dualshock Controller weder der Wii noch dem Kinect das Wasser reichen kann. Sony hat im Bereich Bewegungssteuerung (und damit auch Familien und Partyspielen) nachwievor ein defizit. Es wurde nicht das grosse alles schlagende Home-Entertainment Produkt das womöglich möglich gewesen wäre. Eine starke Gaming-Konsole für Core-Gamer wurde gezeigt, und das war auch erwartet worden. Möglich auch das man sich fragt wie teuer die Konsole werden wird. Ein Schnäpchen wird sie wohl nicht werden, und so wichtig scheint Sony die Konsole ja auch nicht zu sein, sonst wär der höchste Sony-Chef höchstpersönlich auf der Bühne gestanden.
Die Börse hat ja auch nicht euphorisch reagiert.
Jetzt ist erstmal Microsoft am Zug. Nicht vergessen, das alles was Sony auf Software-Ebene gezeigt hat, MS auch realisieren kann.
del_4901
2013-02-21, 18:56:55
Kannst du das ein bisschen erläutern? Welche Daten müssen aus welchen Gründen mehrfach vorgehalten werden (zweifach kann ich mir teilweise noch denken, aber sicher bin ich nicht)? Würde mich interessieren
Alles was haeufig auf CPU Seite geupdatet wird muss evtl. mehrfach (DiscardLock) gehalten werden auf dem PC (abhaenig davon wieviele Frames die GPU der CPU hinterherhinkt). Wenn man viel Compute macht und man updates von der CPU braucht summiert sich das auf. Wenn man Physics/Compute auf der GPU macht muss man einige Ressourcen duplizieren wenn die auch auf der CPU braucht. Readback von GPU Daten auf der CPU auf dem PC sind super langsam, haben lange Latenzen und man muss evtl. auch mehrfach buffern wenn man nicht stallen moechte.
Innovationslos weil doch mittlerweile klar ist, das der "Kampf ums Wohnzimmer" gerade erst begonnen hat.
Der "Kampf ums Wohnzimmer" ist bereits entschieden und die Konsolen haben verloren. Konsolen werden zukünftig als umfassende Multimedia-Lösung im Wohnzimmer nicht mehr gefragt sein, weil diese Funktionalität bereits HEUTE fast vollständig in den TVs selbst steckt und diese sog. SmartTV-Funktionen sowohl in Bezug auf Hardware als auch softwareseitig in den nächsten 1-2 Jahren massentauglich werden (sie sind es in einigen Modellen zum Teil schon heute) und sich zudem kontinuierlich weiterentwickeln.
In die Richtung hat Sony gestern wenig gezeigt
Richtig, und daraus kann man schließen, dass Sony die Zeichen der Zeit erkannt hat. Diese Funktionen werden in Sony's Bravia-TV-Geräte wandern, soweit sie da nicht schon drin sind.
Innovationslos weil der neue Dualshock Controller weder der Wii noch dem Kinect das Wasser reichen kann. Sony hat im Bereich Bewegungssteuerung (und damit auch Familien und Partyspielen) nachwievor ein defizit.
Gimmick-Controller verkaufen halt offenbar keine Spiele. Motion-Controller haben die Wii zum Hardware-Hit gemacht, aber die Software-Verkäufe pro Konsole sind die niedrigsten der letzten Generation. Die Casual-Gamer kaufen sich vielleicht ein Party-Spiel und dann noch was zum Hopsen (Tanz, Fitness) und das wars. Für das eigentliche Casual Gaming gibts das iPad, da kosten die Games 0,79€. Der Causal-Markt im Konsolenbereich würde IMO bislang massiv überschätzt.
Das Kinect scheint sich ja toll verkauft zu haben (wohl weil es von vielen Leuten als Bundle-Angebot "mitgenommen" wurde), aber ob das Ding wirklich ein Verkaufstreiber für Spiele war, wage ich mal anzuzweifeln.
Und nicht zu vergessen, dass Innovations-Hampelmann Nintendo an ihrem superinnovativen Wii U Controller womöglich verrecken werden, wenn die Verkaufszahlen wirklich so mies sind, wie man es munkeln hört.
Meiner Meinung nach tut sich Sony mit den Billig-Lösungen eher einen Gefallen. Für einfache Hopsereien reicht das EYE-Ding und ob alles, was darüber hinaus geht, wirklich wichtig ist.... wir werden sehen.
Es wurde nicht das grosse alles schlagende Home-Entertainment Produkt das womöglich möglich gewesen wäre.
Du träumst den Traum der letzten Konsolengeneration weiter, so wie auch Microsoft. Sony ist mittlerweile wohl aufgewacht.
Die Börse hat ja auch nicht euphorisch reagiert.
Die Börse ist wie immer komplett irrational. Wayne?
Watson007
2013-02-21, 19:24:59
Der "Kampf ums Wohnzimmer" ist bereits entschieden und die Konsolen haben verloren. Konsolen werden zukünftig als umfassende Multimedia-Lösung im Wohnzimmer nicht mehr gefragt sein, weil diese Funktionalität bereits HEUTE fast vollständig in den TVs selbst steckt und diese sog. SmartTV-Funktionen sowohl in Bezug auf Hardware als auch softwareseitig in den nächsten 1-2 Jahren massentauglich werden (sie sind es in einigen Modellen zum Teil schon heute) und sich zudem kontinuierlich weiterentwickeln.
bei den Leuten die keine Spielekonsole haben werden vielleicht die Smart-TVs in der Hinsicht siegen, aber bei den Leuten die ne Spielekonsole wollen könnte ich mir vorstellen dass diese auch für Videos und Internet genutzt werden.
Und dass die TV-Hersteller spieletechnisch mit den Konsolenherstellern mithalten können ist unwahrscheinlich.
Insofern sehe ich da eher eine Patt-Situation bezüglich der Video- und Internet-Nutzung.
btw. interessant finde ich dass auch MS wohl jetzt auf BluRay setzt.
bei den Leuten die keine Spielekonsole haben werden vielleicht die Smart-TVs in der Hinsicht siegen, aber bei den Leuten die ne Spielekonsole wollen könnte ich mir vorstellen dass diese auch für Videos und Internet genutzt werden.
Es ist aber kein relevantes Feature mehr, wenn die selbe Funktionalität bereits im Fernseher steckt! Warum sollten die Leute Abo-Gebühren für Xbox Live zahlen, wenn es die Media-Features für Lau zum TV dazu gibt? Warum meinen MS, dass sie die zentrale Infotainment- und Media-Zentrale im Wohnzimmer weden können, wenn viel der Kernfunktionen nächstes Jahr in jedem €500 LG-Fernseher stecken werden? Bereits heute können bessere Fernseher schon auf die relevanten OnDemand & Steaming-Angebote zugreifen.
Und dass die TV-Hersteller spieletechnisch mit den Konsolenherstellern mithalten können ist unwahrscheinlich.
Das behauptet ja auch keiner! Der Punkt ist: Sony macht es richtig, indem sie sich offenbar auf das konzentrieren, was eine Spielkonsole BESSER kann als ein SmartTV - und das sind eben Core Games. Der ganze andere Klimbim wird für Konsolen in dieser Generation IMO kaum noch eine Rolle spielen.
Es wurde nicht das grosse alles schlagende Home-Entertainment Produkt das womöglich möglich gewesen wäre.
Was hätte es neben dem 4k Bluray Support und Integration verschiedener Dienste (da haben sie ja gestern für Details auf später dieses Jahr vertröstet und nur eine kurze Auflistung gegeben) denn noch gebraucht?
Was vermisst du denn an dem Kinect Klon?
Dr.Doom
2013-02-21, 19:44:50
btw. interessant finde ich dass auch MS wohl jetzt auf BluRay setzt.Auf was soll MS denn sonst setzen?
HD-DVD-Revival, Cartridge oder Tesafilm? :freak:
Sven77
2013-02-21, 19:48:33
Ich bin froh das Sony den Fuchtelschrott ähnlich der Hausfrauenkonsole nicht priorisiert (zumal Move schon vorhanden ist), Innovation ist in Form von Streaming mehr vorhanden als bei der WiiU und auch sonst verstehe ich die Kritik nicht wirklich. Da wird von Phantomkonsole gesprochen obwohl die Specs veröffentlicht wurden.. Ein Mock-Up ohne Specs wäre viel schlimmer. VÖ wurde auch genannt, die Aussage vor Weihnachten reicht doch absolut.
Gipsel
2013-02-21, 19:54:51
Wieviel Leistung die CPUs durch den Speicher verlieren, die Frage steht noch offen. Allerdings sind die x86 Kerne verbunden mit nicht ganz optimalen SpeicherDas lese ich jetzt zum zweiten Mal. Kannst Du mal erklären, warum der Speicher nicht optimal sein soll? Die Latenzen von GDDR5 sind absolut gesehen auch nicht wirklich höher als bei DDR3. Du darfst nicht die Latenzen heranziehen, wie sie die GPU sieht. Da versucht der Speichercontroller immer möglichst viele Zugriffe für lange Burst zusammenzufassen, um die Bandbreitenausnutzung zu steigern. Die GPU toleriert soweis meist recht gut (die haben jede Menge latency hiding Mechanismen), Bandbreite ist hier wichtiger als Latenz. Wenn der Speichercontroller CPU-Zugriffen sozusagen Vorrang gewährt, sollten die Latenzen mit normalem DDR3 vergleichbar sein. Auf AMDs APU ist deswegen ja sogar der Speichercontroller in zwei Funktionsblöcke aufgeteilt, den Speichercontroller im engeren Sinne und einen DRAM-Controller, der nur für das eigentliche Handling der Übertragungen zu den RAM-Bausteinen zuständig ist. Da die Anforderungen an den Speichercontroller von CPU (latenzsensitiv) und GPU (eher bandbreitensensitiv) doch deutlich auseinandergehen, verbaut AMD bei ihren APUs im Prinzip zwei Speichercontroller, die beide auf einen einzigen DRAM-Controller Zugriff haben. Somit bekommen CPU-Teil und GPU-Teil beide eine für sie abgestimmte Verbindung zum Speicher.
Monkey
2013-02-21, 19:57:42
Ich bin beileibe kein Profi, und nicht son Hardware Nerd wie ihr hier ;) finde die PS4 auch sehr interessant (wobei ich die mir eh erst kaufe wenn es ein neues Gt gibt) aber was für mich als alten Konsolero (Game Gear, Mega Drive, Saturn etc) schade ist das die Hardware wirklich nur nach kleinem PC/Wintel aussieht.
Keine EmotionEngine, kein Cell, einfach nur "normale" Hardware. Is doch irgendwie öde.
Bei den alten Konsolen konnte man wenigstens noch fantasieren was die wohl alles auf den Screen bringen werden, bei der PS4 ist es doch irgendwie klar. Oder?
Keine EmotionEngine, kein Cell, einfach nur "normale" Hardware. Is doch irgendwie öde.
Was ist daran "normale" Hardware?
Monkey
2013-02-21, 20:12:02
Was ist daran "normale" Hardware?
Ich sag ja ich bin nich der Hardwarenerd, aber x86 Amd + Amd GPU klingen für mich nicht aussergewöhnlich sondern eher "normal". Oder hast du großartig was anderes in deinem Laptop/Desktop?!
Konami
2013-02-21, 20:15:02
Ich sag ja ich bin nich der Hardwarenerd, aber x86 Amd + Amd GPU klingen für mich nicht aussergewöhnlich sondern eher "normal". Oder hast du großartig was anderes in deinem Laptop/Desktop?!
Hast du eine Riesen-APU bestehend aus 8 Jaguar-Kernen und 78x0er-Radeon mit 8 GiB GDDR5 shared memory in deinem Laptop, wofür Entwickler maßgeschneidert und hardwarenah Spiele produzieren?
... Wenn ja, her damit. :D
Keine EmotionEngine, kein Cell, einfach nur "normale" Hardware. Is doch irgendwie öde.
Bei den alten Konsolen konnte man wenigstens noch fantasieren was die wohl alles auf den Screen bringen werden, bei der PS4 ist es doch irgendwie klar. Oder?
Ok, "langweilig" gebe ich Dir, aber warum selber entwickeln, wenn man etwas besseres von der Stange einbauen kann? Ganz früher war das doch auch im Konsolenbereich absolut normal. Die ganzen alten 8bit und 16bit Systeme sind doch auch mit irgendwelchen billigen 08/15 Standard-Prozessoren und Co-Prozessoren bestückt worden. Im Sega MegaDrive steckte beispielweise eine MC68000 CPU, die in ähnlicher Form auch in zig verschiedenen anderen Konsolen und Home-Computern verbaut war. Teilweise waren das nur angepasste Versionen von Kram, den man im gut sortierten Elektro-Baster-Fachhandel für ein paar Mark kaufen konnte.
Erst mit der PS1 hat es so richtig angefangen, dass irgendwelche speziellen Exotenlösungen entwickelt wurden und gerade Sony hat sich ja z.B. bei den GPUs in PS1 und 2 nicht gerade mit Ruhm bekleckert.
Monkey
2013-02-21, 20:28:53
Ok, "langweilig" gebe ich Dir, aber warum selber entwickeln, wenn man etwas besseres von der Stange einbauen kann? Ganz früher war das doch auch im Konsolenbereich absolut normal. Die ganzen alten 8bit und 16bit Systeme sind doch auch mit irgendwelche billigen 08/15 Standard-Prozessoren bestückt worden. Im Sega MegaDrive steckte beispielweise eine MC68000 CPU, die in ähnlicher Form auch in zig verschiedenen anderen Konsolen und Home-Computern verbaut war. Teilweise waren das nur angepasste Versionen von Kram, den man im gut sortierten Elektro-Baster-Fachhandel für ein paar Mark kaufen konnte.
Erst mit der PS1 hat es so richtig angefangen, dass irgendwelche speziellen Exotenlösungen entwickelt wurden und gerade Sony hat sich ja z.B. bei den GPUs in PS1 und 2 nicht gerade mit Ruhm bekleckert.
Ja das mit dem 68000er und den ganzen Z80 weiß ich, aber das man den Rest auch so kaufen konnte wußte ich nich :D
Ich versteht schon wieso weshalb warum, ich sag ja nur das ich es irgendwie schade finde das die PS4 für mich wie ein optimiertes (übertreib²!) Netbook aussieht :tongue:
lumines
2013-02-21, 20:36:34
Man muss es ja so sehen: Praktisch ist die Leistung für eine Konsole auf lange Sicht gar nicht so interessant. Sie muss nur für ihr Erscheinungsdatum angemessen sein, denn auf lange Sicht wird man sowieso von PCs überrundet.
Sony stellt es natürlich gerne so dar, als ob die jeweilige Playstation über den gesamten Lebenszyklus grafisch nie langweilig wird (und das mag für den Content auch stimmen), aber das hat nichts mit der Leistung zu tun. Da ist der Vorteil einer fixen Hardware-Plattform wohl größer als ein paar Prozent mehr Leistung gegenüber der (Konsolen-)Konkurrenz durch exotische Hardware (Cell, GDDR5-RAM), welche in Relation zu PCs über lange Sicht sowieso keine Rolle spielt.
In der Hinsicht ist die PS4 ziemlich konservativ (bis auf den RAM) und das ist auch gut so, denn die Leistung sollte bei einer Konsole eben aufgrund der langen Lebenszyklen nicht im Vordergrund stehen, sondern die Qualität der Spiele. Wenn alle Geräte bald alles können und das mit immer weiter steigender Leistung, kann man anders nicht aus der Masse hervorstechen.
Ich sag ja ich bin nich der Hardwarenerd, aber x86 Amd + Amd GPU klingen für mich nicht aussergewöhnlich sondern eher "normal". Oder hast du großartig was anderes in deinem Laptop/Desktop?!
Das Problem ist, dass die Leute bei x86 schon aufhören zuzuhören.
Wäre ein schlechterer PowerPC Prozessor drin gewesen, hätten das viele bestimmt "innovativer" gefunden.
Also je länger ich drüber nachdenke, desto mehr bin ich der Meinung, dass Sony hier etwas sehr schlaues gemacht hat. Quasi alles, was im Zusammenhang mit der PS4 präsentiert wurde, war auf Gaming fokusiert. Selbst der Social-Kram. Obendrauf sieht es auch noch so aus, als wenn die PS4 die deutlich potentiere Gaming-Hardware haben wird.
Damit hat Microsoft IMO ein Problem, denn die Core Gamer sind es, die die Spiele kaufen. Die Core Gamer sind es, die Geld in die Hand nehmen. Und wenn MS dann zur E3 herkommt und 75% der Zeit über Kinect, Media-Funktionen, TV/Music-Content-Delivery und Xbox-Live-Verzahnung mit W8 Phones und Tablets (die eh keiner haben will) labern, während die Hardware im Vergleich zur PS4 womöglich eher schwachbürstig daherkommt, dann wird MS ein Problem bekommen. Denn dann haut die zahlende Core Gamer Kundschaft ganz schnell Richtung Sony ab.
Deshalb denke ich, dass Sony die PS4 ganz bewusst so positioniert hat. Die PlayStation-Sparte soll mit Games Geld verdienen. Der Media-Kram ist zukünftig eher die Baustelle der Fernsehersparte.
Karümel
2013-02-21, 20:48:46
Kommt aber auch auf en Preis an. Wenn jetzt z.B. die nächste XBox 399 Euro kostet und die PS4 aber 599 Euro, dann wird das schon auswirkungen auf den Verkauf haben, beide werden ja wahrscheinlich noch vor Weihnachten (in den USA) erscheinen.
Monkey
2013-02-21, 20:55:08
Das Problem ist, dass die Leute bei x86 schon aufhören zuzuhören.
Wäre ein schlechterer PowerPC Prozessor drin gewesen, hätten das viele bestimmt "innovativer" gefunden.
Ich kenn mich nich aus, welcher aktuelle PowerPc wäre denn langsamer als ein Jaguar?
Kommt aber auch auf en Preis an. Wenn jetzt z.B. die nächste XBox 399 Euro kostet und die PS4 aber 599 Euro, dann wird das schon auswirkungen auf den Verkauf haben, beide werden ja wahrscheinlich noch vor Weihnachten (in den USA) erscheinen.
Klar. 599 halte ich für unwahrscheinlich, aber kann schon sein, dass die Xbox einen Fuffi billiger wird. Ob das aber das entscheidende Argument für Käufer sein wird?
Microsoft müssen auf jeden Fall zeigen, dass die nächste Xbox auch für die Core Gamer relevant ist.
Karümel
2013-02-21, 21:03:19
Klar. 599 halte ich für unwahrscheinlich, aber kann schon sein, dass die Xbox einen Fuffi billiger wird. Ob das aber das entscheidende Argument für Käufer sein wird?
Microsoft müssen auf jeden Fall zeigen, dass die nächste Xbox auch für die Core Gamer relevant ist.
MS wird wohl zum Release auch sine "Zugpferde" aus dem STall lassen. Dnke da an HALO oder Forza.
Am Nanfang werden sowieso die "Fanboys" (wenn sie denn nur eine Konsole kaufen, ihre Marke kaufen. Danach wenn der "normale Konsument" hauptsächlich kauft (evtl. sogar nach der ersten Preissenkung) geht es, so denke ich doch einige über den Preis.
Herr Doktor Klöbner
2013-02-21, 21:13:27
Was mich wirklich irritiert, ist die recht negative Aufnahme der PS4 in vielen Foren, wo teilweise nur rumgejammert wird.
Ich bin angenehm überrascht, die GPU ist für eine Konsole sehr fett und liegt im Bereich der optimististen Spekulationen, 8 Jaguar Kerne finde ich auch gut, klein, billig und viel Bumms pro Watt.
Ein absolut unerwartetes Highlight sind die 8GB GDDR5 RAM und die Speicherbandbreite, das ist richtig fett und im Moment auch noch richtig teuer.
Wenn ich mal aus der Preisdifferenz von 2 zu 4 Gigabyte GTX 680 abzuschätzen versuche was diese 8 Gigabyte im Moment kosten, das ist schon sehr, sehr heftig. Respekt für diese mutige aber richtige Entscheidung, aber zum Start wird das schon sehr weh tun wenn man mit max 500,- € Verkaufspreis starten will, mittel- und langfristig wird sich das relativieren.
Ich denke, das ist auch der Grund das man die Konsole nicht gezeigt hat, ich vermute diese Entscheidung war wohl sehr kurzfristig so das man eine neue Platine samt neuen Gehäuse braucht.
Aus meiner Sicht ein sehr rundes Paket, die absolut unberechtigte Kritik von wegen fehlender Innovationen sind Blödsinn. Casual-Fuchtelsteurungen sind Quatsch, jenseits von Maus und Tastatur ist ein klassisches Gamepad der beste Kompromiss. Ansonsten: Was soll eine Konsole neues bringen außer besserer Grafik, mehr Rechenleistung, mehr RAM ? Kaffee kochen und Geschirr spülen ?
M4xw0lf
2013-02-21, 21:20:30
Ich bin auch zufrieden mit der PS4-Hardware. Besonders auch wegen den möglichen Auswirkungen auf den PC-Markt... man hat ja gerade im Crysis 3-Benchmark erst gesehen, wie bei Multicore-Optimierung AMDs aktuelle FXe plötzlich mit den wesentlich teureren Intels mithalten können, da kann eine Spielegeneration, die für einen 8-Kern Jaguar geschrieben wird, sicher auch neue Impulse für den Desktoptmarkt bringen.
Hayab
2013-02-21, 21:27:16
Das lese ich jetzt zum zweiten Mal. Kannst Du mal erklären, warum der Speicher nicht optimal sein soll? Die Latenzen von GDDR5 sind absolut gesehen auch nicht wirklich höher als bei DDR3. Du darfst nicht die Latenzen heranziehen, wie sie die GPU sieht. Da versucht der Speichercontroller immer möglichst viele Zugriffe für lange Burst zusammenzufassen, um die Bandbreitenausnutzung zu steigern. Die GPU toleriert soweis meist recht gut (die haben jede Menge latency hiding Mechanismen), Bandbreite ist hier wichtiger als Latenz. Wenn der Speichercontroller CPU-Zugriffen sozusagen Vorrang gewährt, sollten die Latenzen mit normalem DDR3 vergleichbar sein. Auf AMDs APU ist deswegen ja sogar der Speichercontroller in zwei Funktionsblöcke aufgeteilt, den Speichercontroller im engeren Sinne und einen DRAM-Controller, der nur für das eigentliche Handling der Übertragungen zu den RAM-Bausteinen zuständig ist. Da die Anforderungen an den Speichercontroller von CPU (latenzsensitiv) und GPU (eher bandbreitensensitiv) doch deutlich auseinandergehen, verbaut AMD bei ihren APUs im Prinzip zwei Speichercontroller, die beide auf einen einzigen DRAM-Controller Zugriff haben. Somit bekommen CPU-Teil und GPU-Teil beide eine für sie abgestimmte Verbindung zum Speicher.
Ist das nicht so doppelte Bandbreite doppelte Latenz, wegen der zwei unterschiedlichen Clock Zyklen (CK/WCK) ?
Morale
2013-02-21, 21:57:52
http://9gag.com/gag/6632871 ;)
Exxtreme
2013-02-21, 22:12:05
Ich sag ja ich bin nich der Hardwarenerd, aber x86 Amd + Amd GPU klingen für mich nicht aussergewöhnlich sondern eher "normal". Oder hast du großartig was anderes in deinem Laptop/Desktop?!
Sony hat es 2 Mal mit "nicht normaler" Hardware versucht und es ist nicht aufgegangen. War sogar kontraproduktiv und ich meine gelesen zu haben, dass das Entwickeln für die PS3 beträchtlich teurer war als für den PC obwohl Letzterer viel höhere Hardwarevielfalt hat.
Ich kenn mich nich aus, welcher aktuelle PowerPc wäre denn langsamer als ein Jaguar?
Die Leistung potentieller Kandidaten (wahrscheinlich wäre es in dem Fall wieder ein Custom Design geworden) spielt ja erstmal keine Rolle. Die Reaktion der Leute wäre einfach anders gewesen.
Gipsel
2013-02-21, 22:35:42
Ist das nicht so doppelte Bandbreite doppelte Latenz, wegen der zwei unterschiedlichen Clock Zyklen (CK/WCK) ?
Nö, wieso sollte es? Oder redest Du von Taktzyklen und nicht absoluter Zeit in Nanosekunden? Nur Letzteres ist die vergleichbare Größe.
Im Prinzip ist es nur eine Optimierung für die hohen Frequenzen, daß ein Taktsignal für die Kommandos (mit SDR übermittelt) und Adressen (mit DDR) zuständig ist, und zwei weitere (die beiden WCKs, laufen mit doppelter Frequenz) für die Datenübertragung (wieder mit DDR) zuständig sind, eins für die ersten 16 Bit, das andere für die zweiten 16 Bit. Damit ermöglicht man z.B. den Clamshell-Modus typischerweise ohne Taktnachteile, da dann einfach jeder Chip nur eins der WCK-Taktsignale erhält und dann auch nur die Hälfte der Datenübertragung macht (bei den weniger hochfrequenten Kommandos und Adressen ist das Teilen weniger ein Problem). Generell haben die DRAM-Zellen immer in etwa die gleiche Latenz, es ändert sich nur, wie viele parallel ausgelesen werden und dann über ein schmaleres Interface gequetscht werden. Das hat aber auf die Latenz nur sehr, sehr geringen Einfluß. Und, wenn, dann auch höchstens nur auf die allerersten wenigen Bytes. Typischerweise wird ja immer mindestens eine komplette Cacheline von 64 Byte übertragen.
Deinorius
2013-02-21, 22:58:02
Also Sony hat mich diesmal in keinster Weise enttäuscht. Ich hätte nicht gedacht, dass sich die Gerüchte wirklich so bewahrheiten und die RAM-Menge sogar doppelt so hoch ausffällt! :eek: Ich dachte schon, ich flippe aus. Die Ironie an der Sache hier ist, dass auf einmal Sony derjenige Hersteller ist, welcher sich, bezogen auf die jetzige Konsolengeneration, im Grunde noch am ehesten auf den Core Spielebereich konzentrieren will.
Das Einzige, was mir Sorgen bereitet, ist der Preis. Weniger wegen dem Preis an sich. Wenn die Spiele überzeugen und sogar die Streaming-Abwärtskompatibilität überzeugen kann, wäre das vielleicht sogar die erste Konsole, die ich relativ zeitnah bei Erscheinen kaufen würde. Mich besorgt mehr die Reaktion des Marktes aufgrund des wahrscheinlich höheren Preises. Aber mal sehen, wie sich dieser wirklich zur Xbox Next unterscheidet. Wenn die Gerüchte stimmen, ist Kinect 2.0 automatisch mit an Bord und das erhöht nunmal ebenfalls die Kosten.
Ich kenn mich nich aus, welcher aktuelle PowerPc wäre denn langsamer als ein Jaguar?
Wenn man es genau nimmt, derjenige welche, der in der Wii U drinnen steckt. :freak:
Was mich wirklich irritiert, ist die recht negative Aufnahme der PS4 in vielen Foren, wo teilweise nur rumgejammert wird.
Ich wusste gar nicht, dass das Internet aus lauter Wienern besteht. X-D
Was soll eine Konsole neues bringen außer besserer Grafik, mehr Rechenleistung, mehr RAM ? Kaffee kochen und Geschirr spülen ?
Also ich hätte nix dagegen. Fände das echt toll. ^^
Silentbob
2013-02-21, 23:16:54
Sony hat es 2 Mal mit "nicht normaler" Hardware versucht und es ist nicht aufgegangen. War sogar kontraproduktiv und ich meine gelesen zu haben, dass das Entwickeln für die PS3 beträchtlich teurer war als für den PC obwohl Letzterer viel höhere Hardwarevielfalt hat.
Dennoch waren sowohl PS 1 als auch PS2 sehr erfolgreich.
xL|Sonic
2013-02-21, 23:22:44
Das war aber eher der schwächelnden Konkurrenz geschuldet. Heute sieht die Sache ein wenig anders aus.
Die PCler können sich aber freuen denke ich. Durch die neuen Konsolen könnte sich jetzt langsam mal wieder was bewegen im Grafikkartenmarkt und generell sollte die grafische Qualität der PC Spiele deutlich zulegen.
Die Frage ist auch, wie stark der PC künftig als Multiplattform mit auftaucht. Durch die leichte Portierbarkeit könnten jetzt viele 3rd Party Blockbuster auch den Weg auf den PC finden.
Finch
2013-02-21, 23:25:47
Dennoch waren sowohl PS 1 als auch PS2 sehr erfolgreich.
Ohne ernste Konkurrenz ist das auch kein wunder.
PS1 (die Konsole mit dem Chip):
Das N64 kränkelte an den Modulen
Der Sega Saturn kränkelte an Sega und der Komplexität der Konsole
PS2:
Sega Dreamcast kränkelt wieder an Sega selbst
Dem Cube fehlten die Third Party Spiele
die Xbox kam sehr spät usw...
naja wie auch immer, beide Konsolen hatten einfach keine ernste Konkurrenz.
Hayab
2013-02-21, 23:29:57
Sind die Spiele da und sind diese auch ansprechend wird sich das Teil gut verkaufen selbst fuer 540 Dollar.
Bei PS3 war einfach Nichts da, was die Konsole beim Launch zum must have gemacht hat fuer Coregamer. Dazu was da geboten wurde gab es schon auf der xb360 oder PC in besseren Qualitaet.
Teure Hardware ohne entsprechende Software funktioniert selbst beim PC nicht mehr so richtig. Viele PC user und Consoleros haben zu oft drauf gezahlt um Early Adoper zu sein, ohne dabei einen marginalen Mehrwert zu haben.
Hayab
2013-02-21, 23:34:26
Das war aber eher der schwächelnden Konkurrenz geschuldet. Heute sieht die Sache ein wenig anders aus.
Die PCler können sich aber freuen denke ich. Durch die neuen Konsolen könnte sich jetzt langsam mal wieder was bewegen im Grafikkartenmarkt und generell sollte die grafische Qualität der PC Spiele deutlich zulegen.
Die Frage ist auch, wie stark der PC künftig als Multiplattform mit auftaucht. Durch die leichte Portierbarkeit könnten jetzt viele 3rd Party Blockbuster auch den Weg auf den PC finden.
Das ist eine gute Frage. Allerdings denke ich, die Publisher werden die PC Ports in den ersten Jahren zeitlich verzoegern um mehr an Konsolen abzusahnen.
Deinorius
2013-02-21, 23:34:31
Dennoch waren sowohl PS 1 als auch PS2 sehr erfolgreich.
Andere Zeiten, andere Umstände. Vergleiche korrekt. Die Konkurrenz zur PS1 war Sega Saturn und Nintendo64. Die Saturn Konsole als klobiges Etwas deren Grafik nicht unbedingt besser aussah (von meiner Erinnerung her). Die Nintendo64 kam deutlich später und hatte kein CD-Laufwerk für mehr Content. Das ist jetzt nur sehr grob umrissen und ich will keine separate Diskussion dazu auslösen, aber jede Generation hat gezeigt, dass eigene Umstände zum jeweiligen Erfolg geführt haben und die richtige/bessere/vielfältigere Spieleauswahl ist auch heute noch immer das beste Argument.
xL|Sonic
2013-02-21, 23:41:52
Die Spieleauswahl ist aber sowas von subjektiv. Siehe Nintendo Wii. Dort hat sehr viel auch der Preis ausgemacht.
Deinorius
2013-02-21, 23:45:30
Natürlich, aber gerade bei der PS2 war die Spieleauswahl überwältigend groß.
Ich frage mich gerade, ob The Last Guardian nur deshalb noch nicht erschienen ist, weil dieser einer DER tragenden Launch-Titel sein soll.
Aufbauend auf diesen Gedanken frage ich mal Google und was sehe ich da... ;)
http://derstandard.at/1360681482738/The-Last-Guardian-Entwickler-deutet-baldige-Neuvorstellung-an
][immy
2013-02-22, 00:01:39
Bei PS3 war einfach Nichts da, was die Konsole beim Launch zum must have gemacht hat fuer Coregamer.
und genau das Problem dürfte die neue konsolengeneration auch haben. aber eventuell hat man sich deswegen doch für den größeren speicher entschieden, einfach um lange durch- und mithalten zu können wenn die ersten jahre nicht so rosig werden. Denn aktuell fehlt leider die Innovation. stärkere Hardware ok, aber das neue fehlt leider.
die xbox 360 war damals sehr stark. Die PS3 war etwas spät dran hatte aber zumindest noch den blu-ray Player.
Die Spielebibliothek aufstocken durch Abwärtskompatibilität fällt diesmal wohl zumindest teilweise flach (der Streaming-dienst wird wohl kaum kostenlos sein). klar werden sich vermutlich einige core-gamer dazu entschließen die Konsole zu kaufen, aber das dürfte nicht ausreichen, man muss auch größere märkte ansprechen um heutzutage erfolgreich zu sein.
nicht ohne grund wird in der nächsten xbox kinect 2 gleich dabei sein, einfach um ein größeres Publikum anzusprechen.
was mich ein wenig an der PS4 erstaunt ist, das sony sich nicht scheut Geld auszugeben, denn das ding wird mit hoher wahrscheinlichkeit subventioniert und gut geht es dem Unternehmen aktuell nicht. Ohne Subvention wäre es sicherlich zu teuer. schon deshalb hätte ich auf einen kleineren speicher getippt.
Finch
2013-02-22, 00:04:33
Hat jemand im Kopf was 8GB GDDR5 kosten? Ich bin mir garnichtmal so sicher das Sony viel subventionieren muss.
Das ist der Vorteil, wenn eben kein CELL verbaut ist und kein Kinect an Board ist.
Gebrechlichkeit
2013-02-22, 00:42:48
Kommt drauf an, ob Sony jeder PSIV Console die Infrarot Schnittstelle fuer die Funk Pads bzw. deren "Move" Kontroller beiliegt, welches glaube ich vom Aussen her wohlmoeglich das Design der PS4 ein wenig beeinflusst hat/wird.
Gemessen an Intel CPUs nicht.
Achso, ja wenn Du das mit "relativ" meinst ... gibt aber halt noch ne Menge langsameren Krams, allen voran die ganzen InOrder Chips von intel, ARM, IBM ..
Bisher hatte Bulldozer in Spielebenches >20 % Performancevorteil wenn man den Takt normiert.Welcher Bulldozer? Der mit oder der ohne L3? Dazu kommt dann häufig auch der RAM-Nachteil dual <> single channel. Da hängt nicht alles am Kern, sonder auch am Rest des Chips.
Sind 15 % mehr IPC für Jaguar vs +10 % IPC für Piledriver. Da liegt immernoch mind 20 % IPC zwischen einem aktuellen Piledriver ggü dem Jaguar.Bei Cinebench sind Jaguar und Piledriver IPC-mäßig gleichauf:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1361486916
Ist jetzt eher ein schlechter Vergleich, da FPU-lastig, aber ich glaube kaum, dass es bei INT großartig anders wäre, so besondern sind die 2 ALUs im Bulldozer auch nicht. Da seh ich eher wieder leichte Vorteile für Jaguar, aber warten wir mal weitere Benches ab. Wer noch PC-Mark hat und nen Trinitychip kann das vielleicht noch nachstellen.
Ronny145
2013-02-22, 00:53:06
Bei Cinebench sind Jaguar und Piledriver IPC-mäßig gleichauf:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1361486916
Ist jetzt eher ein schlechter Vergleich, da FPU-lastig, aber ich glaube kaum, dass es bei INT großartig anders wäre, so besondern sind die 2 ALUs im Bulldozer auch nicht. Da seh ich eher wieder leichte Vorteile für Jaguar, aber warten wir mal weitere Benches ab. Wer noch PC-Mark hat und nen Trinitychip kann das vielleicht noch nachstellen.
Dann sollte wie gesagt Piledriver mindestens 10% vorne liegen, weil Cinebench 11.5 wirklich kein Maßstab für die BD Architektur sein kann, den man als mittel ansetzen kann. Hier hätte Jaguar schon einen fetten Vorsprung mitbringen müssen. IPC mäßig wäre Jaguar wohl eher mit BDv1 vergleichbar.
Crazy_Bon
2013-02-22, 00:55:21
Wann ist die Pressekonferenz von Microsoft?
Dann sollte wie gesagt Piledriver mindestens 10% vorne liegen, weil Cinebench 11.5 wirklich kein Maßstab für die BD Architektur sein kann, den man als mittel ansetzen kann.
Im Single-thread-Modus schon. BD ist nur beim multithread Cinebench schlecht, da ist das Jaguar-Quad-Modul mit 4 Threads dann auch ~20% vor 2 BD Modulen mit ebenfalls 4 Threads.
Finch
2013-02-22, 00:58:41
[QUOTE=Crazy_Bon;9665464]Wann ist die Pressekonferenz von Microsoft?[/QUOTE gibt noch keinen Termin.
Vll GDC oder vll. Auch erst zur E3.
AMD will auf der GDC noch mehr bekannt geben:
Look for some more exciting things happening at the Game Developers Conference (GDC) in March when we will provide even more info on how we are working with game developers to make AMD the hardware of choice for running the best games!http://blogs.amd.com/fusion/2013/02/21/amd/
Aber ob sie damit MS meinen ... ?
Ronny145
2013-02-22, 01:11:00
Im Single-thread-Modus schon. BD ist nur beim multithread Cinebench schlecht, da ist das Jaguar-Quad-Modul dann auch 20% vorne.
Wer redet von multithread? Dann zitiere ich es eben:
Mit einem angenommenen Skalierungsfaktor von 3,95 käme man so auf die Leistung eines einzelnen Jaguar-Kerns in Höhe von 0,25. Dies ist fast mit den gemessenen 0,24 Punkte des 750Ks bei 1,0 Ghz identisch. Die IPC bei Cinebench unterscheidet sich also nicht viel, Piledriver und Jaguar sind bei Single-Thread-Anwendungen auf Augenhöhe.
Hier fragt sich erstmal, weshalb von Anwendungen in der Mehrzahl die Rede ist? Wie gesagt, wenn Jaguar in dem Bench nur IPC Gleichstand erreicht, sieht es im Mittel garantiert nicht so gut aus.
Hayab
2013-02-22, 02:42:39
[immy;9665422']und genau das Problem dürfte die neue konsolengeneration auch haben. .......
Solange 3 solide Titel zum Launch da sind und in folgenden monaten Folgen dann die Kracher, dann wird sich das Teil gut verkaufen, ausgenommen die naechste Xbox wird zum gleichen Zeitpunkt released und die PS4 technisch schlecht aussehen lassen wird. Was sehr unwahrscheinlich ist.
Sony weiss. dass MS 8GB RAM der next Xbox geben wollen deshalb haben die aufgestockt um technisch nicht schlecht auszusehen.
Hier fragt sich erstmal, weshalb von Anwendungen in der Mehrzahl die Rede ist?
Jo, das ist Käse.
Wie gesagt, wenn Jaguar in dem Bench nur IPC Gleichstand erreicht, sieht es im Mittel garantiert nicht so gut aus.Aber Deine Schlussfolgerung kapier ich nachwievor nicht, erklär mal Deinen Gedankengang genauer. Ich sehs so, dass BD bei Cinebench nur im MTh Modus ziemlich schlecht ist, da eben nur die Hälfte FPUs da sind. Wenns nun bei single Thread einen Gleichstand zw. Jaguar und BD gibt ist das aller Ehren wert, schließlich hat der BD 2 FLexFPU-Pipes mit großen OoO-Puffern zur Verfügung, der Jaguar nur 1xADD und 1xMUL und das OoO-Fenster ist sicherlich auch kleiner.
Ich vermute also, dass es bei INT-Benches besser ausgehen sollte, da es dort keinen so großen Unterschied wie zwischen den beiden FPUs gibt.
Sind die Spiele da und sind diese auch ansprechend wird sich das Teil gut verkaufen selbst fuer 540 Dollar.
Bei PS3 war einfach Nichts da, was die Konsole beim Launch zum must have gemacht hat fuer Coregamer. Dazu was da geboten wurde gab es schon auf der xb360 oder PC in besseren Qualitaet.
Zum Launch hast Du sicher recht (zumal die Xbox ja einen zeitlichen Vorsprung hatte), aber auf die Lebenszeit gesehen sah das dann anders aus und das war zum Launch bereits abzusehen.
Die PlayStation 3 war schon alleine deshalb interessanter, weil Sony exzellente eigene Entwicklungsstudios hat, sowie eine Reihe sehr guter exklusiver 3rd-Party-Entwickler. Die Xbox hat außer irgendwelcher DudeBro-Space-Marine-Scheisse wie Gears of War und HALO und dem Lionhead-Schrott doch kaum erwähnenswerte Exklusivtitel (und letztere gibts teilweise auf auf PC). Rennspiele lasse ich mal außenvor, denn die sind weitgehend austauschbar.
[immy;9665422']Denn aktuell fehlt leider die Innovation. stärkere Hardware ok, aber das neue fehlt leider.
Was stellst Du Dir denn unter Innovation vor? Mal konkret?
Die PS3 war etwas spät dran hatte aber zumindest noch den blu-ray Player.
Die PS1 hatte ein CD-Laufwerk, die PS2 hatte ein DVD-Laufwerk und die PS3 eben ein BluRay-Laufwerk. Bin ich der einzige, der ein Upgrade auf die aktuelle optische Speichertechnologie nicht gerade als große "Innovation" ansieht?
Im Hinblick darauf war dann nämlich das, was Sony zur PS4 gezeigt haben, deutlich innovativer - und zwar aufs Gaming bezogen. Irgendwelcher HTPC-Mist, mit dem MS zweifellos in Zukunft langweilen wird, stellt halt leider keine Innovation bzgl. Gaming dar, sondern ist lediglich Ausdruck von Microsofts Strategie, die Xbox als umfassende MultiMedia-, Vernetzungs und Content-Krake im Wohnzimmer und Heim zu etablieren.
nicht ohne grund wird in der nächsten xbox kinect 2 gleich dabei sein, einfach um ein größeres Publikum anzusprechen.
Wie man an der Wii gesehen hat, kauft diese Zielgruppe aber kaum Spiele! Eventuell ein Party-Spiel und dann noch was zum Rumhopsen (Fitness, Tanz) und damit hat sich das aber auch schon. Der Casual-Markt wurde in der Vergangenheit massiv überschätzt, zumal dieser Markt sehr flüchtig ist und sich die Kunden kaum an eine Technologie oder ein Gerät binden lassen. Und für irgendwelche Hops-Spiele reicht dann auch das EYE-Dingens von der PS4, denn für die Hopserei braucht es kein akurates Skelett-Tracking. Ansonsten haben die Kinect-Titel doch bisher eher genervt, oder kannst Du ein wirklich gutes Spiel nennen, welches diese Technologie für mehr als irgendwelche Sprachsteuerungs-Gimmicks nutzt?
Außerdem hat sich die Casual-Zielgruppe doch mittlerweile fast geschlossen aufs iPad verzogen. Kinect ist natürlich auch Teil des allgemeinen Bedienungskonzeptes der Xbox, also auch im Bezug auf die ganzen Media-Features, aber ob das Zeug DAS durchschlagende Kaufargument werden wird, bleibt abzuwarten. Man sollte nicht vergessen, dass es die CORE GAMER sind, die das Geld in die Hand nehmen und die Spiele kaufen.
Ich denke, der größte Vorteil für die nächste Xbox ist der Xbox Live Service und der damit verbundene Lock-In-Effekt. Gerade in Ami-Land haben die viele Millionen Spieler mit teils langlaufende Live-Abos und alle Freunde sind auch auf Live... das ist sicherlich ein gewichtiger Punkt, wegen dem viele Käufer zum Nachfolger der Xbox360 tendieren werden.
was mich ein wenig an der PS4 erstaunt ist, das sony sich nicht scheut Geld auszugeben, denn das ding wird mit hoher wahrscheinlichkeit subventioniert und gut geht es dem Unternehmen aktuell nicht. Ohne Subvention wäre es sicherlich zu teuer. schon deshalb hätte ich auf einen kleineren speicher getippt.
Irgendwie habe ich den Eindruck, dass generell die Kosten für den Speicher überschätzt werden. Bei der GTX670 ist der Preisunterschied zwischen Modellen mit 2GB und 4GB bei manchen Herstellern nur ca. 30 Euro. Und das sind Einzelhandelspreise mit MwSt., Einzelhändlermarge und womöglich noch Premiumaufschlag durch den Hersteller.
Würde mich wundern, wenn die 4GB zusätzlicher GDDR5 Speicher für Sony mit mehr als $40 zu Buche schlagen würden. Das ist ein signifikanter Posten, aber andererseits müssen diesmal nicht die Entwicklungskosten für irgendwelche Exoten-CPUs wie Cell amortisiert werden. Ich sehe die Preisproblematik hier nicht unbedingt.
desert
2013-02-22, 08:27:40
Jo, das ist Käse.
Aber Deine Schlussfolgerung kapier ich nachwievor nicht, erklär mal Deinen Gedankengang genauer. Ich sehs so, dass BD bei Cinebench nur im MTh Modus ziemlich schlecht ist, da eben nur die Hälfte FPUs da sind. Wenns nun bei single Thread einen Gleichstand zw. Jaguar und BD gibt ist das aller Ehren wert, schließlich hat der BD 2 FLexFPU-Pipes mit großen OoO-Puffern zur Verfügung, der Jaguar nur 1xADD und 1xMUL und das OoO-Fenster ist sicherlich auch kleiner.
Ich vermute also, dass es bei INT-Benches besser ausgehen sollte, da es dort keinen so großen Unterschied wie zwischen den beiden FPUs gibt.
Spielt das wirklich eine Rolle ob der eine nun 15 % mehr IPC hat oder weniger? Wichtig sind, denke ich, die vollwertigen 8 Kerne. DAs wird ein Quantenstrung in der Progammierung erlauben, denn soweit ich weiss, war Cell eher die Hölle was Programmierung anging.
Die haben die Entwickler nun zur Verfügung und was sie zur Verfügung haben, werden sie früher oder später auch ausnutzen. Bis jetzt ist ja vollkommen unerheblich ob ich einen quad oder 8-kerner in meinem PC habe, bald nicht mehr.
Vergleichen wir doch einfach mal, was die heutige generation an Spielen erlaubt, siehe Skyrim und das mit 8 Jahre alter Hardware. Die Grafiklösung ist denke ich mal um den Faktor 20 schneller als die in der PS 3, die CPU-Leistung hat sich auch substanziell verbessert. Endlich haben die Konsolen eine angenehme Menge RAM zur Verfügung. Es sind keine Highend-Maschinen, das waren sie aber noch nie, ausser die Xbox360 und PS3, und beide musste draufzahlen. Mit der neuen Generation werden sie Geld verdienen, das kann nur gut sein für die Spielefans, wenn die Konsolen nicht mehr über die Spiele subventioniert werden müssen.
Crazy_Bon
2013-02-22, 08:36:35
Was stellst Du Dir denn unter Innovation vor? Mal konkret?
Das bemängel ich auch, was Sony gezeigt hat, ist im Grunde nur stärkere Hardware als die PS3. Eigentlich nichts neues, zwar Eyescandies, aber keine Woah-Effekte. Dann war die Pressekonferenz doch recht zurückhaltend, entweder halten sie das beste noch zurück, oder sie wissen selber noch nicht wohin die PS4 gehen soll.
Shink
2013-02-22, 08:42:25
Es sind keine Highend-Maschinen, das waren sie aber noch nie, ausser die Xbox360 und PS3, und beide musste draufzahlen.
Ich kann mich noch erinnern an die damaligen Aussagen von "Star-Entwicklern":freak:, wie mies die Performance der frisch geschlüpften neuen Konsolen ist.
Damals waren natürlich alle Engines optimiert auf Single-Core - und da konnten die Konsolen mit ihren In-Order CPUs nicht mit einem aktuellen PC mithalten, als sie erschienen sind.
Aber ja: Teuer war die Hardware wohl damals.
Ailuros
2013-02-22, 08:54:56
Wie man an der Wii gesehen hat, kauft diese Zielgruppe aber kaum Spiele! Eventuell ein Party-Spiel und dann noch was zum Rumhopsen (Fitness, Tanz) und damit hat sich das aber auch schon. Der Casual-Markt wurde in der Vergangenheit massiv überschätzt, zumal dieser Markt sehr flüchtig ist und sich die Kunden kaum an eine Technologie oder ein Gerät binden lassen. Und für irgendwelche Hops-Spiele reicht dann auch das EYE-Dingens von der PS4, denn für die Hopserei braucht es kein akurates Skelett-Tracking. Ansonsten haben die Kinect-Titel doch bisher eher genervt, oder kannst Du ein wirklich gutes Spiel nennen, welches diese Technologie für mehr als irgendwelche Sprachsteuerungs-Gimmicks nutzt?
Außerdem hat sich die Casual-Zielgruppe doch mittlerweile fast geschlossen aufs iPad verzogen. Kinect ist natürlich auch Teil des allgemeinen Bedienungskonzeptes der Xbox, also auch im Bezug auf die ganzen Media-Features, aber ob das Zeug DAS durchschlagende Kaufargument werden wird, bleibt abzuwarten. Man sollte nicht vergessen, dass es die CORE GAMER sind, die das Geld in die Hand nehmen und die Spiele kaufen.
http://blog.appannie.com/app-annie-idc-portable-gaming-report/
A key takeaway from the report is that combined consumer spending on iOS App Store and Google Play games eclipsed that of dedicated handheld games in Q4.
Report:
https://s3.amazonaws.com/files.appannie.com/blog/pdf/App+Annie++IDC+Portable+Gaming+Report+FINAL.pdf
Was man davon behalten kann ist der Umsatz von Spielen zwischen Nintendo handheld und Apple app store vergleichbar ist. Sobald aber Apple und co. in absehbarer Zeit mit generischem alternativen home entertainment Konsolen indirekt angreift, ist es schwer auszuschliessen dass sich der Trend nicht von smartphones/tablets auch auf set top boxes/smartTVs ueber die Jahre verbreitet.
Dementsprechend wuerde ich den "Casual-Markt" nicht so leicht langfristig unterschaetzen.
http://blog.appannie.com/app-annie-idc-portable-gaming-report/
Report:
https://s3.amazonaws.com/files.appannie.com/blog/pdf/App+Annie++IDC+Portable+Gaming+Report+FINAL.pdf
Was man davon behalten kann ist der Umsatz von Spielen zwischen Nintendo handheld und Apple app store vergleichbar ist. Sobald aber Apple und co. in absehbarer Zeit mit generischem alternativen home entertainment Konsolen indirekt angreift, ist es schwer auszuschliessen dass sich der Trend nicht von smartphones/tablets auch auf set top boxes/smartTVs ueber die Jahre verbreitet.
Dementsprechend wuerde ich den "Casual-Markt" nicht so leicht langfristig unterschaetzen.
Ich rede hier vom traditionellen Konsolen- und Handheld-Business und dem Umstand, dass Casual-Gamer eben eher selten 40-70 Euro für ein Videospiel ausgeben. Diese Zielgruppe gibt bestenfalls 1-3 Euro aus, wenn sie nicht gerade mit irgendwelcher zynischen F2P-Scheisse in die psychologische Abhängigkeit getrieben werden und zum "Whale" werden. Das funktioniert also nur über die schiere Masse und die kann man vielleicht auf Smartphones erreichen, die jeder in der Tasche hat, aber halt nicht auf den Konsolen.
Mit dem Tablet- und Smartphone-Markt brauchst Du hier also gar nicht anzukommen, das tut hier nämlich aus eben diesem Grund nichts zur Sache und diesen Markt werden Microsoft auch kaum mit Kinect-Fuchteleien ansprechen können. Vielleicht sollte ich präzisieren: der Casual Markt bei den traditionellen Spieleplattformen (PC, stationäre Konsolen, Handhelds mit Vollpreis-Games) wurde in den letzten Jahren massiv überschätzt, wegen anfänglichem Wii-Hype, ein paar PopCap-Hits und dem Achtungserfolg von rosaroten Nintendo-DS-Geräten und Nintendogs.
Ich habe doch geschrieben, dass sich diese Zielgruppe mittlerweile komplett auf iPad & Co. verzogen hat. Mit den Casuals ist also auf den Konsolen kein Blumentopf mehr zu gewinnen, somit ist der Nutzen von Kinect eher fragwürdig. Die Casual Gamer haben doch früher nur Mangels billiger Alternative zu den Nintendo-Handelds oder den Konsolen gegriffen. Diese Alternativen gibts jetzt.
Im traditionellen Konsolenbusiness kommt das Geld also von den Core Gamern und Sony scheint das nun kapiert zu haben. Ob diese Erkenntnis bei MS auch angekommen ist, bleibt abzuwarten.
Lightning
2013-02-22, 09:23:48
Hat jemand im Kopf was 8GB GDDR5 kosten? Ich bin mir garnichtmal so sicher das Sony viel subventionieren muss.
Ich frage mich bei der Sache zusätzlich: Wieviel Strom zieht diese Menge an GDDR5? Das einzige, was ich dazu finde, ist ein etwas älteres Samsung-Dokument (originus.samsung.com/us/business/oem-solutions/pdfs/Green-GDDR5.pdf), nach dem ein 256 MB-Chip bereits 8.7W benötigt!(?)
Frozone
2013-02-22, 09:32:50
Ich bin wirklich auf die XBOX Präsentation gespannt.
Wenn man sich so die meist verkauften Spiele anschaut sind das Multi Titel. Die sahen gerade am Anfang besser aus auf der XBOX 360.
Ich gehe davon aus das die neue XBOX ähnliche Leistung haben wird wie die PS4, den sonst gehen die ganzen COD und Fifa Zocker alle zu Sony.
Ich finde das man mit Kinect viele coole Sachen machen kann. Aber gerade für Core Games ehr weniger.
Shink
2013-02-22, 09:35:05
Ich frage mich bei der Sache zusätzlich: Wieviel Strom zieht diese Menge an GDDR5? Das einzige, was ich dazu finde, ist ein etwas älteres Samsung-Dokument (originus.samsung.com/us/business/oem-solutions/pdfs/Green-GDDR5.pdf), nach dem ein 256 MB-Chip bereits 8.7W benötigt!(?)
Öh... also ich les da raus, dass 2Gb 46nm Notebook-GDDR5 bei 128 Bit Anbindung 4,3 Watt benötigen???
HolyMoses
2013-02-22, 09:51:15
was mich extrem stört ist das man bei der ps4 wohl ständig die kamera laufen haben muß.
ich möchte nicht die ganze zeit beobachtet werden können....
Frozone
2013-02-22, 09:59:41
was mich extrem stört ist das man bei der ps4 wohl ständig die kamera laufen haben muß.
ich möchte nicht die ganze zeit beobachtet werden können....
Es wurde doch von Sony gesagt das alles freiwillig ist. Social, Cam, Online usw...
was mich extrem stört ist das man bei der ps4 wohl ständig die kamera laufen haben muß.
ich möchte nicht die ganze zeit beobachtet werden können....
Wer würde dich denn beobachten wollen? Oder mich... oder jemand anderen?
Lightning
2013-02-22, 10:01:07
Öh... also ich les da raus, dass 2Gb 46nm Notebook-GDDR5 bei 128 Bit Anbindung 4,3 Watt benötigen???
Ja, 2Gbit.
Blöde Frage: Wenn ein einzelner GDDR5-Chip immer einen 32 bit-Bus hat, ist dann die Angabe "2G GDDR5 256bit" so zu verstehen, dass es 8 Chips sind? Das würde natürlich sinnvoller klingen (aber auf den ersten Blick verwirrend, wenn man sich nicht damit auskennt).
dildo4u
2013-02-22, 10:02:57
was mich extrem stört ist das man bei der ps4 wohl ständig die kamera laufen haben muß.
ich möchte nicht die ganze zeit beobachtet werden können....
Warum sollte die Kamera immer laufen müssen ?Das ist nur der Fall wenn man mit Move spielt.Auerdem gibt kein Online zwang es wird also nix ständig gesendet.
robbitop
2013-02-22, 10:04:14
Bei Cinebench sind Jaguar und Piledriver IPC-mäßig gleichauf:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1361486916
Ist jetzt eher ein schlechter Vergleich, da FPU-lastig, aber ich glaube kaum, dass es bei INT großartig anders wäre, so besondern sind die 2 ALUs im Bulldozer auch nicht. Da seh ich eher wieder leichte Vorteile für Jaguar, aber warten wir mal weitere Benches ab. Wer noch PC-Mark hat und nen Trinitychip kann das vielleicht noch nachstellen.
Cinebench ist SIMD FP limitiert. Kein guter Vergleich. Ein Spielevergleich bei geringer Auflösung mit dedizierter Grafikkarte wäre sinnvoll. Ich habe da wirklich ~15...20 % IPC Nachteil zwischen Bobcat und Bulldozer im Hinterkopf.
L3 und Single/Dualchannel werden dazu sicher etwas beitragen. Gleichstand ist das sicher nicht ganz. Und letztenendes ist Bulldozer auch ein sehr sehr trauriger IPC Vergleich. Seine IPC ist niedrig.
Vishera hat immerhin mittlerweile Thuban/Deneb IPC. Bobcat lag IIRC in Spielen sogar unter ~10 % K8 IPC.
Deneb/Thuban hat ~25 % mehr IPC als ein K8. Liegen also ~37 % IPC zwischen Bobcat und Vishera in Spielen (also INT).
15 % davon kann er aufholen laut AMD. Vieleicht kann man nochmal 10 % für L3 Cache gutschreiben. Dann liegen immernoch knappe 10 % zwischen Piledriver und Jaguar in Spielen.
Hinzu kommt, dass PD gar nicht mehr der neuste BD Spross ist. SR ist beim PS4 Erscheinen der neuste Spross. Der legt sicher auch nochmal gute 10 % zu.
Sicher ist die IPC von Jaguar für die TDP und Größe sehr gut und liegt in Schlagweite der größeren Architektur. Aber identisch ist sie eben doch nicht...
Die Einheiten in einer CPU machen noch lang nicht die Reallife Performance. Front-End, Sprungvorhersage, I/O, OoO Engine, Cachesystem etc spielen da schon noch mit rein. Bei 3,1 sqmm Fläche wird es in einigen dieser Bereichen sicherlich Kompromisse gegeben haben müssen.
Ich frage mich bei der Sache zusätzlich: Wieviel Strom zieht diese Menge an GDDR5? Das einzige, was ich dazu finde, ist ein etwas älteres Samsung-Dokument (originus.samsung.com/us/business/oem-solutions/pdfs/Green-GDDR5.pdf), nach dem ein 256 MB-Chip bereits 8.7W benötigt!(?)
Geh mal eher von 1-2 W pro Chip aus.
y33H@
2013-02-22, 10:35:07
Bei Xeon Phi gibt Intel für 8GB GDDR5 unter Last rund 60W nur für den Speicher an, pro 256M-Chip sind es knapp 2W.
Finch
2013-02-22, 10:39:01
Das ist schon einiges. Damit dürfte die Konsole wieder bei 300 W sein. Gut das sich sowas mit jedem Shrink bessert.
dildo4u
2013-02-22, 10:43:35
Das ist schon einiges. Damit dürfte die Konsole wieder bei 300 W sein. Gut das sich sowas mit jedem Shrink bessert.
Keine Konsole war bei 300 Watt diesmal werden Netbook/Tablet Kerne genutzt, das einzige was zieht ist die GPU+ GDDR5, wenns hoch kommt Sind wieder 200 wie bei der ersten PS3.
Das ist schon einiges. Damit dürfte die Konsole wieder bei 300 W sein. Gut das sich sowas mit jedem Shrink bessert.
60W Speicher, vielleicht 15W für die CPU, 5W für die HDD und lass es mal 80W für die GPU (ohne Speicher) sein, plus noch das restliche Kleinvieh... würde mich wundern, wenn die 180W unter Last überschritten würden.
Finch
2013-02-22, 11:03:52
Ja ok, die Zahl war ein wenig hoch gegriffen, mea culpa.
Würde gerne mal das Layout sehen das dürften ja 32 * 2Gb Bausteine sein. Das wird voll :D
Würde gerne mal das Layout sehen das dürften ja 32 * 2Gb Bausteine sein. Das wird voll :D
Sollte mittlerweile auch 4Gb-Speicherchips geben.
Finch
2013-02-22, 12:03:42
Sollte mittlerweile auch 4Gb-Speicherchips geben.
Auch bezahlbare?
MartinB
2013-02-22, 12:11:57
Ich freue mich über die PS4. Nicht weil ich sie mir kaufen werde, sondern wegen den Auswirkungen auf die PC Ports. Endlich bessere Grafik und hoffentlich schneller verfügbare Ports.
Auch bezahlbare?
KP wie da die Preisstruktur aussieht. Vielleicht sind sie sogar billiger, weil für die gleiche Kapazität nur 1x Packaging und Testing notwendig sind?
Shink
2013-02-22, 12:23:13
Auch bezahlbare?
Weihnachten 2013 wahrscheinlich schon.
Matrix316
2013-02-22, 12:34:12
Ich freue mich über die PS4. Nicht weil ich sie mir kaufen werde, sondern wegen den Auswirkungen auf die PC Ports. Endlich bessere Grafik und hoffentlich schneller verfügbare Ports.
Genau. Das ist IMO auch das wichtigste bei neuen Konsolen. Vielleicht hol ich mir sogar die PS4, aber endlich kann man auch am PC wieder etwas mehr die Grafik pushen.
dargo
2013-02-22, 12:36:37
Ich freue mich über die PS4. Nicht weil ich sie mir kaufen werde, sondern wegen den Auswirkungen auf die PC Ports. Endlich bessere Grafik und hoffentlich schneller verfügbare Ports.
Da bist du nicht der einzige. ;) Was meinst du was ich mich freue, dass der kleinste gemeinsame Nenner (Konsole) mindestens DX11 voraussetzt und bei der Leistung gegenüber den alten Konsolen endlich erheblich nach vorne geht. Da bin ich zumindest die ersten paar Jährchen am PC was Grafik angeht völlig zufrieden gestellt. :)
PS: ich spiele gerade Crysis 3 und komme aus dem Staunen nicht mehr raus. Wenn ich mir überlege, dass dieses Niveau sich in 1-2 Jahren quer durch die ganzen Games zieht. :eek:
dildo4u
2013-02-22, 12:42:02
Bin mal gespannt wie viel sie vom Ram als V-Ram nutzen,ich meine ja das 2GB eigentlich dick reichen.Wär auch gut weil die masse der PCler solche Karten haben,wär schlecht wenn's 4GB sind.Aber ich bin mit dem was C3 zeigt eigentlich zufrieden was das angeht.
Hat jemand im Kopf was 8GB GDDR5 kosten? Ich bin mir garnichtmal so sicher das Sony viel subventionieren muss.
Das ist der Vorteil, wenn eben kein CELL verbaut ist und kein Kinect an Board ist.
Teurer als der XDR für Cell wird's nicht werden :ulol:
dargo
2013-02-22, 12:48:00
Bin mal gespannt wie viel sie vom Ram als V-RRam nutzen,ich meine ja das 2GB eigentlich dick reichen.Wär auch gut weil die massen der PCler solche Karten haben,wär schlecht wenn's 4GB sind.Aber ich bin mit dem was C3 zeigt eigentlich zufrieden was das angeht.
Wieso wäre das schlecht? Am PC hast du Grafikoptionen und dazu gehört auch die "variable" Texturauflösung (zudem dürfte nächstes Jahr 4-6GB Vram eh Standard bei den besseren Karten werden). Ich kann die 8GB auch schlecht einschätzen. Ich meine mit einer deutlich stärkeren Hardware gegenüber der alten Konsolen eröffnen sich völlig neue Möglichkeiten für deutlich größere Spielwelten. Das frisst auch Speicher nicht nur bei der GPU. Also was bleibt von den 8GB noch für die GPU ist die Frage? Natürlich wird das je nach Game variieren. Für einen super Schlauch und dann noch Indoor brauche ich sicherlich weniger Speicher als für Outdoor mit großer Weitsicht.
Finch
2013-02-22, 12:58:38
Teurer als der XDR für Cell wird's nicht werden :ulol:
Das stimmt allerdings :freak:
gnomi
2013-02-22, 12:58:51
Die GPU Ram Anforderungen dürften ab 2014 wohl richtig zulegen.
Aktuell sind ja 1 GB guter Standard und 2 schon recht optimal.
Für Spiele der nächsten Generation wären 4 GB GPU Speicher aber dann wohl anzuraten.
Interessant ist dahingehend natürlich jetzt auch, ob MS nachzieht oder es bei 4-6 GB belässt...
mboeller
2013-02-22, 13:12:01
ich bin überrascht, das sich noch niemand über die Ladezeiten ausgelassen hat.
BluRay 6x erreicht laut wikipedia 27MB/sec .....und damit dauert es theoretisch mehr als 300sec um die 8GB Speicher zu füllen. Klar nicht der ganze Speicher muss gefüllt werden, aber 4-5min Ladezeit sind schon ein wenig :freak:
Hoffentlich können sie die Ladezeiten verbergen ansonsten wartet man wirklich erst mal ein paar Minuten bevor man mit dem Spiel starten kann.
Es ist wirklich schade, das nie wieder jemand die TrueX Technologie von Zen benutzt hat. 7 Laser würden die Ladezeiten spürbar reduzieren. 7 x 27MB = 189 MB/sec :D
dildo4u
2013-02-22, 13:16:50
ich bin überrascht, das sich noch niemand über die Ladezeiten ausgelassen hat.
BluRay 6x erreicht laut wikipedia 27MB/sec .....und damit dauert es theoretisch mehr als 300sec um die 8GB Speicher zu füllen. Klar nicht der ganze Speicher muss gefüllt werden, aber 4-5min Ladezeit sind schon ein wenig :freak:
Hoffentlich können sie die Ladezeiten verbergen ansonsten wartet man wirklich erst mal ein paar Minuten bevor man mit dem Spiel starten kann.
Es ist wirklich schade, das nie wieder jemand die TrueX Technologie von Zen benutzt hat. 7 Laser würden die Ladezeiten spürbar reduzieren. 7 x 27MB = 189 MB/sec :D
Die werden weiter mit Streaming arbeiten,da wird nur ein Teil des Levels in den Speicher geladen aber nich alle Texturen z.b.
Karümel
2013-02-22, 13:21:20
Verständnisfrage meinerseits.
So wie ich das gelesen habe hat Sony ja erst reativ kurzfristig auf 8Gig Speicher erhöht. Weiß jeman ungefähr wann?
Und muss dafür nicht viel an der Hardware geändert werden? Ich meine so einfach die Speichmenge verdoppeln wie beim PC geht das wohl nicht, oder?
dildo4u
2013-02-22, 13:24:10
Verständnisfrage meinerseits.
So wie ich das gelesen habe hat Sony ja erst reativ kurzfristig auf 8Gig Speicher erhöht. Weiß jeman ungefähr wann?
Und muss dafür nicht viel an der Hardware geändert werden? Ich meine so einfach die Speichmenge verdoppeln wie beim PC geht das wohl nicht, oder?
Es gibt dieses Jahr GDDR5 Chip's mit höherer Dichte,die Anzahl der Chip' und das ganze Mainboard muss nicht verändert werden.
dargo
2013-02-22, 13:25:11
Die werden weiter mit Streaming arbeiten,da wird nur ein Teil des Levels in den Speicher geladen aber nich alle Texturen z.b.Sieht man beim Killzone Video wenn er landet tauchen plötzlich Pfützen auf.
http://youtu.be/lUjQ4DJXLzw
Wenn Sony es zulässt sollte das bei Finaler Software und installiert auf Festplatte nicht mehr Sichtbar sein.
Du weißt doch gar nicht was da limitiert. Für mich könnte es genauso aus Performancegründen geschehen. Ein einfaches LOD-"Problem".
dildo4u
2013-02-22, 13:30:49
Du weißt doch gar nicht was da limitiert. Für mich könnte es genauso aus Performancegründen geschehen. Ein einfaches LOD-"Problem".
Habs rausgenommen die Pfützen sind immer da nur nich so klar sichtbar.Da hat mir die Beleuchtung einen Streich gespielt.
mboeller
2013-02-22, 13:34:14
apropos Killzone Demo. Kann es sein, das das richtige Spielegrafik war?
Zumindest scheint jemand die Szene nachzuspielen:
http://www.engadget.com/2013/02/22/jimmy-fallon-gets-his-hands-on-the-ps4-for-some-killzone-shadow/
dildo4u
2013-02-22, 13:39:21
apropos Killzone Demo. Kann es sein, das das richtige Spielegrafik war?
Zumindest scheint jemand die Szene nachzuspielen:
http://www.engadget.com/2013/02/22/jimmy-fallon-gets-his-hands-on-the-ps4-for-some-killzone-shadow/
Ja die selbe Demo wurde schon auf der Konferenz live gespielt.Es gab damals ja die Geschichte mit dem Killzone 2 Render Video,daher wollten sie jetzt zeigen das alle echt ist.Die sind jetzt im Gegensatz zu,damals auch viel dichter an der Release des Games,es soll noch 2013 zum Launch kommen.
Karümel
2013-02-22, 14:43:28
Es gibt dieses Jahr GDDR5 Chip's mit höherer Dichte,die Anzahl der Chip' und das ganze Mainboard muss nicht verändert werden.
Ah, Ok, danke.
MS wird wohl kaum sowas mit der neuen XBOX können, da dort doch angeblich anderer RAM verwendet wird?
dildo4u
2013-02-22, 14:48:46
Die müssen den Ram nich vergrößern,dort scheinen 8GB schon lange fest zu stehen aber es ist halt DDR3 also wesentlich langsamer.Was schlecht für den Grafikchip ist,das soll wie bei der 360 mit ein paar MB sehr schnellen Speicher auf dem Chip selber gelöst werden.
xyleph
2013-02-22, 14:56:36
apropos Killzone Demo. Kann es sein, das das richtige Spielegrafik war?
Zumindest scheint jemand die Szene nachzuspielen:
http://www.engadget.com/2013/02/22/jimmy-fallon-gets-his-hands-on-the-ps4-for-some-killzone-shadow/
Das Spiel wurde die Nacht live bei Jimmy Fallon gespielt
http://www.youtube.com/watch?v=rGlu3e9kdks
Schon interessant, wenn man bedenkt dass die PS3 2007 mit Resistance (http://blog.chip.de/xbox-ps3-watch-blog/files/2007/06/resistance-fall-of-man2.jpg) gegen Crysis angetreten ist, und was die PS4 jetzt schon liefert.
Edit: Ich hätte mir deinen Link mal richtig anschauen sollen, dachte du hattest das PK Video verlinkt xD
Ailuros
2013-02-22, 15:11:47
Wieso wäre das schlecht? Am PC hast du Grafikoptionen und dazu gehört auch die "variable" Texturauflösung (zudem dürfte nächstes Jahr 4-6GB Vram eh Standard bei den besseren Karten werden). Ich kann die 8GB auch schlecht einschätzen. Ich meine mit einer deutlich stärkeren Hardware gegenüber der alten Konsolen eröffnen sich völlig neue Möglichkeiten für deutlich größere Spielwelten. Das frisst auch Speicher nicht nur bei der GPU. Also was bleibt von den 8GB noch für die GPU ist die Frage? Natürlich wird das je nach Game variieren. Für einen super Schlauch und dann noch Indoor brauche ich sicherlich weniger Speicher als für Outdoor mit großer Weitsicht.
Wird ein high end PC naechstes Jahr auf 1080p@30fps begrenzt sein?
Die müssen den Ram nich vergrößern,dort scheinen 8GB schon lange fest zu stehen aber es ist halt DDR3 also wesentlich langsamer.Was schlecht für den Grafikchip ist,das soll wie bei der 360 mit ein paar MB sehr schnellen Speicher auf dem Chip selber gelöst werden.
Vielleicht rüsten sie ja jetzt auf DDR3-2133 nach :freak:
dargo
2013-02-22, 17:01:41
Wird ein high end PC naechstes Jahr auf 1080p@30fps begrenzt sein?
Verstehe den Zusammenhang jetzt nicht. Worauf willst du hinaus?
Gipsel
2013-02-22, 17:09:05
Vielleicht rüsten sie ja jetzt auf DDR3-2133 nach :freak:Die 68GB/s erreichen die nur mit dem Speedgrade. Da sind die also schon. Die müßten noch höher gehen.
LadyWhirlwind
2013-02-22, 17:19:23
Schöner Artikel darüber wieso "The witness" am PS4 Event vorgestellt wurde:
http://www.gamestar.de/spiele/the-witness/news/the_witness,45286,3009717.html
Wenn Sony diese Linie wirklich durchzieht, könnte die PS4 tatsächlich vorne liegen bei der nächsten Konsolengeneration zumindest bei den CoreGamer.
Ailuros
2013-02-22, 17:19:34
Verstehe den Zusammenhang jetzt nicht. Worauf willst du hinaus?
Es ist die maximale Aufloesung fuer die naechste Sony Konsole und ich kann mir schwer vorstellen dass es bei Microsoft's Konsole anders sein wird. Wenn ein Spiel nie ein hoeheres Ziel als 1080p haben wird, brauchst Du auch logischerweise um einiges weniger Speicher als auf einem high end PC ueberhaupt der Zukunft.
Gipsel
2013-02-22, 17:24:25
Mal eine kleine Anregung, wie groß bzw. klein Orbis und Durango werden könnten:
http://www.abload.de/img/orbis_montagezdsu8.png
Das Layout dürfte natürlich in der Realität etwas anders aussehen, aber darum geht es ja erstmal nicht. Orbis könnte recht nahe am Bild liegen. Bei Durango fehlen im Vergleich 6 CUs (ich vermute mal, bei Orbis sind tatsächlich 20 verbaut und 2 werden aus Yieldgründen deaktiviert, gibt ja kein Salvage-Modell), dafür verbauen die natürlich 32MB "eSRAM" (was entweder 1T-SRAM [Art von eDRAM] oder 6T-SRAM ["richtiger" SRAM] ist). die Northbridge dürfte etwas umfangreicher ausfallen (wegen der 2 Speicherpools), so daß mit 6T-SRAM Durango auch größer sein könnte als Orbis.
Die Fläche liegt übrigens recht nahe an der vorherigen simplen Abschätzung aufgrund der Größe der beiden Jaguar Module (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9661967#post9661967) (289mm²).
Edit:
Sehe gerade, daß das Scaling der Jaguar-Module evt. ~5% daneben ist. Aber egal, macht für den Eindruck bzw. Gesamtfläche nicht viel aus.
dargo
2013-02-22, 17:26:35
Es ist die maximale Aufloesung fuer die naechste Sony Konsole und ich kann mir schwer vorstellen dass es bei Microsoft's Konsole anders sein wird. Wenn ein Spiel nie ein hoeheres Ziel als 1080p haben wird, brauchst Du auch logischerweise um einiges weniger Speicher als auf einem high end PC ueberhaupt der Zukunft.
Verstehe den Zusammenhang immer noch nicht. Sogesehen habe ich schon seit ca. einem halben Jahr 15GB Speicher im PC, natürlich nicht shared. Und ich würde den noch nicht mal High-End bezeichnen. Mit der nächsten Graka werden es 18GB.
Hayab
2013-02-22, 17:29:04
Ich hab mir die Demos alle in HD angeschaut, was positiv ist. Es sind ueberall sehr hoch aufgeloeste Oberflaecheneigenschaftstexturen zu sehen (Normal, Specular, Glossiness, Evironment). Bis jetzt wurde an den am meisten gespart. Die Modelle bestehen aber aus kaum dichteren Polygonmeshes als bisher, nur die vollen LODs sind weiter sichtbar. Polygone brauchen auch relativ viel Speicher sobald die Modelle die sichbar sind viele davon haben. Es werden zwar nur die sichbaren gerendert, aber die unsichbaren belegen den Speicher auch und muessen in VRAM abgelegt werden damit sie schnell verfuegbar sind wenn sich ein Modell dreht oder eine Tuer/Fenster e.t.c sich oeffnet.
Ich nehme an, dass die Konsolen eine kurze Zeit wegen des grossen variablen VRAMs Vorteile haben werden, solange 4-8GB VRAM bei PC GPUs nicht standardmeaessig verbaut sind. Rein polygonleistungstechnisch sind die PC GPUs potenter. Selbst eine RV870 schaffte schon 2,7 TFlops und das vor 3 Jahren. Die PC GPU Effizienz ist eine andere Frage, aber durch die verbaute Hardware der neuen Konsolen sehen fuer PCs auch Vorteile.
Ailuros
2013-02-22, 18:10:04
Verstehe den Zusammenhang immer noch nicht. Sogesehen habe ich schon seit ca. einem halben Jahr 15GB Speicher im PC, natürlich nicht shared. Und ich würde den noch nicht mal High-End bezeichnen. Mit der nächsten Graka werden es 18GB.
Gut dann mach ich es Dir einfacher: 8GB reichen fuer einen Konsole und ihre Lebenszeit fuer maximal 1080p@30fps voll aus.
Mal eine kleine Anregung, wie groß bzw. klein Orbis und Durango werden könnten:
http://www.abload.de/img/orbis_montagezdsu8.png
Das Layout dürfte natürlich in der Realität etwas anders aussehen, aber darum geht es ja erstmal nicht. Orbis könnte recht nahe am Bild liegen. Bei Durango fehlen im Vergleich 6 CUs (ich vermute mal, bei Orbis sind tatsächlich 20 verbaut und 2 werden aus Yieldgründen deaktiviert, gibt ja kein Salvage-Modell), dafür verbauen die natürlich 32MB "eSRAM" (was entweder 1T-SRAM [Art von eDRAM] oder 6T-SRAM ["richtiger" SRAM] ist). die Northbridge dürfte etwas umfangreicher ausfallen (wegen der 2 Speicherpools), so daß mit 6T-SRAM Durango auch größer sein könnte als Orbis.
Die Fläche liegt übrigens recht nahe an der vorherigen simplen Abschätzung aufgrund der Größe der beiden Jaguar Module (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9661967#post9661967) (289mm²).
Edit:
Sehe gerade, daß das Scaling der Jaguar-Module evt. ~5% daneben ist. Aber egal, macht für den Eindruck bzw. Gesamtfläche nicht viel aus.
Sehr interessant; und das Ganze unter 28nm oder?
Deinorius
2013-02-22, 18:15:02
Schöner Artikel darüber wieso "The witness" am PS4 Event vorgestellt wurde:
http://www.gamestar.de/spiele/the-witness/news/the_witness,45286,3009717.html
Wenn Sony diese Linie wirklich durchzieht, könnte die PS4 tatsächlich vorne liegen bei der nächsten Konsolengeneration zumindest bei den CoreGamer.
Es hat mir schon immer gefallen, dass auch Indie Entwickler ihre Spiele für die PS3 entwickeln konnten. Einige dieser Spiele befinden sich auch auf meiner PS3. Wie ist überhaupt die Situation der Indie Spiele auf der Xbox 360? Ist es vergleichbar, oder hat hier Sony einen Vorteil?
Gipsel
2013-02-22, 18:20:06
Sehr interessant; und das Ganze unter 28nm oder?Na klar. Die 280mm² dürften so die untere Grenze darstellen (solange AMD nicht inzwischen dichter packen kann), würde mich auch über 300mm² nicht wundern. Oder man produziert doch in 28nm bei GF und die bekommen eine höhere Dichte als TSMC hin. Aber TSMC ist schon nicht so schlecht in der Beziehung und mit deren Bulk-Prozessen hat AMD viel Erfahrung.
Screemer
2013-02-22, 18:27:14
Es hat mir schon immer gefallen, dass auch Indie Entwickler ihre Spiele für die PS3 entwickeln konnten. Einige dieser Spiele befinden sich auch auf meiner PS3. Wie ist überhaupt die Situation der Indie Spiele auf der Xbox 360? Ist es vergleichbar, oder hat hier Sony einen Vorteil?
entwickeln kann man schon, ging sogar recht "einfach" mit xna (http://de.wikipedia.org/wiki/XNA_%28Microsoft%29). zum verkauf über den live store wird ein abo für $99 per anum (http://xbox.create.msdn.com/zh-CN/home/about/how_it_works_create) benötigt. leider ein sehr stiefmütterlicher und total versteckter storebereich. wird nun auch noch eingestellt (http://www.polygon.com/2013/1/31/3939230/microsoft-has-no-plans-for-future-versions-of-xna-software). allerdings ist indi halt nicht gleich indi. ich würd jetzt "the witness" eher als AA titel bezeichnen.
Deinorius
2013-02-22, 18:44:51
An die News kann ich mich erinnern (vorwiegend wegen dem DirectX Teil :rolleyes:), was wohl heißt, dass Indie Games auf der Xbox 360 großteils für die Tonne sind. Es heißt zwar nicht, dass es keine Indie Games geben dürfte (die werden dann wohl etwas schwieriger zu programmieren sein), aber im Vergleich zur Playstation 3/4 wird man wohl lieber für Sony entwickeln.
Es ist schon interessant, wie sich die Dinge ändern. Ich hätte nicht gedacht, dass ich geradezu so euphorisch auf die PS4 warten würde.
dargo
2013-02-22, 18:47:57
Gut dann mach ich es Dir einfacher: 8GB reichen fuer einen Konsole und ihre Lebenszeit fuer maximal 1080p@30fps voll aus.
Habe ich je was anderes behauptet? :confused:
Es hat mir schon immer gefallen, dass auch Indie Entwickler ihre Spiele für die PS3 entwickeln konnten. Einige dieser Spiele befinden sich auch auf meiner PS3. Wie ist überhaupt die Situation der Indie Spiele auf der Xbox 360? Ist es vergleichbar, oder hat hier Sony einen Vorteil?
MS und die Indies sind so eine Sache und zwar nicht nur auf der Xbox, sondern auch im Smartphone/Tablet Bereich - es hat gute Gründe, warum die in dem Bereich auf keinen grünen Zweig kommen. Auf der einen Seite werden kleine Indie-Entwickler mit irgendwelchen Produktmanager-Eskapaden seitens MS genervt, auf der anderen Seite gibts quasi keine echte Unterstützung und, ganz wichtig, keine Promotion im Store seitens MS. Das bekommen nur die großen Publisher bzw. deren Smartphone/Tablet-Ableger, denen obendrauf MS manchmal noch Geld in den Arsch bläst, damit sie überhaupt was machen. Alle anderen können verrecken.
MS hat die Dynamik und die Arbeitsweise der Indie-Entwickler-Szene nie verstanden, insbesondere nicht im Smartphone-Bereich. Die versuchen das teilweise so zu managen, wie das traditionelle Xbox-Konsolen-Business mit den üblichen Publisher-Partnershaften usw. Auf was anderes verstehen die sich nicht. Es ist doch erbärmlich, dass selbst die japanischen Asia-Preußen von Sony mittlerweile offener, flexibler und pragmatischer sind. MS kommt hingegen total verknöchert daher.
Deinorius
2013-02-22, 18:59:22
MS hat die Dynamik und die Arbeitsweise der Indie-Entwickler-Szene nie verstanden, insbesondere nicht im Smartphone-Bereich. Die versuchen das teilweise so zu managen, wie das traditionelle Xbox-Konsolen-Business mit den üblichen Publisher-Partnershaften usw. Auf was anderes verstehen die sich nicht.
Allein schon deswegen habe ich kein Bedürfnis eine Xbox Konsole zu kaufen. Von den bisherigen Konsolen war es so, dass es entweder Multi-Titel oder auch für PC verfügbar waren. Und Kinect? Wenn ich mich schon beim Tanzen zum Affen machen soll, dann wenigstens auf einer richtigen Tanzfläche. :freak: Seit der Präsentation ist mein Denken nur noch mehr Richtung Sony gewandert und das obwohl ich gerade auf die derzeitige Konsolen-Hardware bezogen mehr auf Seiten von M$ war.
LadyWhirlwind
2013-02-22, 19:16:36
Ich muss Deinorius zustimmen, solange MS es nicht versteht die Indie-Szene die oft auch innovative und interessante Spiele bringt, einzubinden, wird die xBox darben. Ich tendiere auch eher zur PS4 im Moment, wobei cih nach schlechten erfahrungen mit SOE mir eigentlich geschworen hatte, die Finger von der Firma zu lassen...
Spiele müssen nicht umfangreich sein und eine Top Grafik haben um erfolgreich zu sein. Aber Indie-Entwickler haben andere Anforderungen an eine Konsole als die grossen Publisher. Etwas Werbung a-la Indie-Titel der Woche im xBox Dashboard würde da schon viel helfen. Im Jahr liessen sisch so über 50 Spiele bewerben. Damit hätte wohl jeder Entwickler der ein interssantes Spiel einreicht auch einen Platz. Die Indie-Spiele kosten ja meistens auch nicht die Welt, schon alleine darum würde es sich lohnen. 20 Euro sind ja wirklcih nichts, solange das Spiel 3-4 Stunden Spass macht, bin ich dann schon ordentlich zufrieden. (Wobei natürlich 6-8 Stunden oder mehr optimal wäre).
MS muss dringend seine Entwicklergemeine Pflegen, Entwickler-Konsolenhersteller muss eine gleichberechtigte Win-Win-Partnerschaft sein, dann gibt es auch interessante Titel für jene Konsole. Klar sind nicht alle Indie-Spiele Perlen, aber m.M.n. lohnt es sich, weil halt doch welche darunter sind, die so gut sind, dass sie am PS4 Presse-Event gezeigt wurden. Wegen solchen Spielen kaufen sich die Leute eine Konsole, nicht wegen generischen Halo-like Massenware-Shooter die auf allen Konsolen verfügbar sind.
Ailuros
2013-02-22, 19:19:14
Na klar. Die 280mm² dürften so die untere Grenze darstellen (solange AMD nicht inzwischen dichter packen kann), würde mich auch über 300mm² nicht wundern. Oder man produziert doch in 28nm bei GF und die bekommen eine höhere Dichte als TSMC hin. Aber TSMC ist schon nicht so schlecht in der Beziehung und mit deren Bulk-Prozessen hat AMD viel Erfahrung.
Ich wollte nur auf Nummer Sicher gehen. Ich hatte vor kurzem eine Debatte bei B3D und es wollte komischerweise keiner einsehen dass mit zwei full node shrinks so ein SoC theoretisch (fuer die weitere Zukunft natuerlich) in einen smartTV bzw. set top box reinpasst. Mehr als 300mm2 (ohne jeglichen Hintergrund) haette ich laut Bauchgefuehl auch nie geschaetzt.
Deinorius
2013-02-22, 19:42:58
Die Indie-Spiele kosten ja meistens auch nicht die Welt, schon alleine darum würde es sich lohnen. 20 Euro sind ja wirklcih nichts, solange das Spiel 3-4 Stunden Spass macht, bin ich dann schon ordentlich zufrieden. (Wobei natürlich 6-8 Stunden oder mehr optimal wäre).
20 €? Eher die Hälfte oder etwas mehr und man kann dennoch von 6-8 h Spielspaß reden. ;)
Ich wollte nur auf Nummer Sicher gehen. Ich hatte vor kurzem eine Debatte bei B3D und es wollte komischerweise keiner einsehen dass mit zwei full node shrinks so ein SoC theoretisch (fuer die weitere Zukunft natuerlich) in einen smartTV bzw. set top box reinpasst. Mehr als 300mm2 (ohne jeglichen Hintergrund) haette ich laut Bauchgefuehl auch nie geschaetzt.
Nach zwei full node shrinks? Das ginge selbst dann, wenn der SoC 350 mm² groß wäre.
Giraffengustav75
2013-02-22, 19:50:14
Nachdem ich ja anfangs etwas enttäuscht darüber war, dass sie die Konsole selbst nicht gezeigt haben, fängt nun doch langsam die Vorfreude an, dass Sony nach dem anfänglichen PS3-Debakel endlich wieder zu alter Stärke finden könnte.
8GB RAM, leichter zu programmieren, die Offenheit gegenüber Indie-Entwicklern.... :love4: :up:
LadyWhirlwind
2013-02-22, 19:52:08
20 €? Eher die Hälfte oder etwas mehr und man kann dennoch von 6-8 h Spielspaß reden. ;)
Okay ich wohne in der Schweiz, da ist Freizeitvergnügen üblicherweise teurer. Wenn ich ins Kino geh und mir noch Popcorn leiste bin ich auch schon bei 20 Euro, in dem Sinn sind natürlich 3-4h Spielspass von einem Indie-Spiel ok.
krötenfresse
2013-02-22, 22:52:51
stimmt das jetzt, dass der esRAM der durango 102 gb/s schafft?
das ist doch sogar weniger, als die 360 mit ihrem integrierten DRAM schaffte, oder vertue ich mich da?
del_4901
2013-02-22, 23:08:24
stimmt das jetzt, dass der esRAM der durango 102 gb/s schafft?
das ist doch sogar weniger, als die 360 mit ihrem integrierten DRAM schaffte, oder vertue ich mich da?Xenos ist mit 32GB/s an den eDRAM angebunden.
][immy
2013-02-22, 23:09:24
stimmt das jetzt, dass der esRAM der durango 102 gb/s schafft?
Offizielle aussagen gibt es nicht, dementsprechent kann man aktuell nur sagen, eventuell
Deinorius
2013-02-22, 23:38:28
Okay ich wohne in der Schweiz, da ist Freizeitvergnügen üblicherweise teurer. Wenn ich ins Kino geh und mir noch Popcorn leiste bin ich auch schon bei 20 Euro, in dem Sinn sind natürlich 3-4h Spielspass von einem Indie-Spiel ok.
Ich hoffe doch, dass meine Aussage als Darstellung der gegenwärtigen Situation und nicht als Wunschvorstellung verstanden wurde. Nicht dass jetzt ein Missverständnis entsteht. ;)
Und außerdem, wenn ich am Wochenende im Kino bei einem überlangem 3D Film etwas essen würde, käme ich hier in Wien auch nicht gerade billiger weg.
=Floi=
2013-02-23, 07:54:04
Okay ich wohne in der Schweiz, da ist Freizeitvergnügen üblicherweise teurer. Wenn ich ins Kino geh und mir noch Popcorn leiste bin ich auch schon bei 20 Euro, in dem Sinn sind natürlich 3-4h Spielspass von einem Indie-Spiel ok.
wenn ihr die wucherpreise zahlt, dann sei ihr doch selbst schuld.
LadyWhirlwind
2013-02-23, 11:29:41
Ich hoffe doch, dass meine Aussage als Darstellung der gegenwärtigen Situation und nicht als Wunschvorstellung verstanden wurde. Nicht dass jetzt ein Missverständnis entsteht. ;)
Und außerdem, wenn ich am Wochenende im Kino bei einem überlangem 3D Film etwas essen würde, käme ich hier in Wien auch nicht gerade billiger weg.
Es ging mir eigentlich mehr darum zu zeigen, was ich bereit bin für ein Indie-Werk zu zahlen, insbesondere wenn es einige Innovationen und neue Ideen bietet. Ein besseres Preis/Leistungsverhältnis ist natürlich auch nicht schlecht.
wenn ihr die wucherpreise zahlt, dann sei ihr doch selbst schuld.
Was bezeichnest du jetzt genau als Wucher? Hast du eine Ahnung was hier in Zürich die Mieten so kosten? An der Bahnhofstrasse kostet die Miete 10'000 Euro/m2... Was übrigens durchaus bezahlbar ist für gut gehende Läden, Apple z.B macht 180'000 Euro Umsatz/m2 (ca. 80 Millionen Euro total) in ihrem kleinen Laden. Selbst der H&M der mit ca. 8x mehr Fläche den gleichen Umsatz macht, kann diese Mieten bezahlen.
wenn ihr die wucherpreise zahlt, dann sei ihr doch selbst schuld.Sie bekommen dafür ja auch "Wucherlöhne" (nicht beleidigend gemeint). Seit der schweizer Franken so hoch aufgewertet wurde fahren auch viele auf Butterfahrten ins billige Euro-Ausland. Ungefähr vergleichbar mit den deutschen Grenzgängern nach Polen oder Tschechien :freak:
Gäbs die D-Mark noch, wäre die genauso aufgewertet. Die Exportwirtschaft würde stöhnen, aber irgendwie würde sie es genauso schaffen wie die schweizer Wirtschaft. Der Unterschied wäre im Endeffekt nur, dass der Urlaub in Spanien / Italien nur halb so teuer wäre. Von Kroatien/Bulgarien ganz zu schweigen, und New York wäre auch noch günstig :freak:
Aja und Benzin wäre auch billiger, ganz vergessen :wink:
LadyWhirlwind
2013-02-23, 11:38:03
Bei den Mieten hier müssen die Löhne auch so hoch sein.... Klar die Mieten abseits der Bahnhofstrasse sind nicht soo hoch, aber ich zahle für meine 1 1/2 Zimmer mit Kostenmiete 600 Euro inkl. NK. Und das ist billig für Zürcher verhältnisse.
Aber back to topic jetzt!
00-Schneider
2013-02-23, 12:02:02
Mehr zum Leaker, der Informationen ueber Durango und Orbis veroeffentlichte:
http://kotaku.com/5986239/the-rise-and-fall-of-superdae-a-most-unusual-video-game-hacker
..............................
Sehr guter Artikel btw.
gruntzmaker
2013-02-23, 14:46:14
Nach dem, was man bisher sehen konnte, darf man sich auf eine starke und vor allem ausbalancierte Hardware freuen. AMD dürfte größter Nutznießer sein, alle Multiplattformtitel werden dadurch garantiert laufen.
Auch der PC Markt wird nicht so sehr unter den Umständen der Multiplattformstrategie zu leiden haben wie bisher.
Daher wundert es mich schon, dass die gesetzten Erwartungen angeblich nicht erfüllt werden konnten.
Die Leadplattform ist nun ein PC mit mindestens der Hardware der ps4. Da werden die kommenden Spiele einen mächtigen Sprung nach vorne machen.
Die vernünftigste Lösung ist halt einfach meist auch die unspektakulärste.
Goser
2013-02-23, 15:07:03
Wann vermutet ihr den ein erstes Statement zur neuen Xbox von Microsoft?
bzw welches anstehende Event wäre bestens dafür geeignet?
Frozone
2013-02-23, 15:11:35
GC oder später die E3
Locuza
2013-02-23, 15:17:25
Xenos ist mit 32GB/s an den eDRAM angebunden.
Muss der Inhalt aber dann nicht in den GDDR3-Speicher mit 22,4 GB/s geschrieben werden, womit sich da kein Bandbreitenvorteil ergibt?
Wie ist das eig. mit der Xbox Next und ihren 32mb eSRAM/eDRAM or was auch immer da für SRAM-Zellen zum Einsatz kommen.
Können die 102 GB/s nur die Anbindung sein oder könnte es beim Cache intern zu viel schnelleren Geschwindigkeiten kommen?
Die Xbox 360 hat ja für ihren eDRAM 256 GB/s angegeben bekommen.
Hatstick
2013-02-23, 15:21:49
Ich weiß nicht, inwiefern man erste Spielszenen von der PS4 schon bewerten "darf" und ich denke, eine GPU auf Basis der 7850 in einer Konsole ist vielleicht nicht 1:1 dasselbe, wie eine 7850 im PC aber ganz ehrlich, mich hauen die ersten Szenen nicht wirklich vom Hocker.
Ich meine, bald kommt das neueste GPU Monster von nVidia und wenn ich diese Leistung mit einer 7850/7870 (nur als Beispiel) mal vergleiche, dann sind die Next-Gen Konsolen eventl. schon leicht veraltet, wenn sie zu kaufen sind.
Das sieht für mich aktuell wie eine durchweg "gute" PC Grafik aus, mehr aber nicht.
Hätte mir da deutlich mehr erwartet aber gut, vielleicht ist es einfach auch nur zu früh oder ich habe einfach zuviel erwartet.
dildo4u
2013-02-23, 15:26:10
Ich weiß nicht, inwiefern man erste Spielszenen von der PS4 schon bewerten "darf" und ich denke, eine GPU auf Basis der 7850 in einer Konsole ist vielleicht nicht 1:1 dasselbe, wie eine 7850 im PC aber ganz ehrlich, mich hauen die ersten Szenen nicht wirklich vom Hocker.
Ich meine, bald kommt das neueste GPU Monster von nVidia und wenn ich diese Leistung mit einer 7850/7870 (nur als Beispiel) mal vergleiche, dann sind die Next-Gen Konsolen eventl. schon leicht veraltet, wenn sie zu kaufen sind.
Das sieht für mich aktuell wie eine durchweg "gute" PC Grafik aus, mehr aber nicht.
Hätte mir da deutlich mehr erwartet aber gut, vielleicht ist es einfach auch nur zu früh oder ich habe einfach zuviel erwartet.
Die echten Games wurden mit 4Gb im Kopf entwickelt,der Sprung zu 8 kam erst relativ spät.Denke die Techdemo's zeigen wohin es in 2-3 Jahren geht.
http://youtu.be/xbFBEjlKtpY auf 1080p stellen
Finch
2013-02-23, 15:26:31
Ich weiß nicht, inwiefern man erste Spielszenen von der PS4 schon bewerten "darf" und ich denke, eine GPU auf Basis der 7850 in einer Konsole ist vielleicht nicht 1:1 dasselbe, wie eine 7850 im PC aber ganz ehrlich, mich hauen die ersten Szenen nicht wirklich vom Hocker.
Ich meine, bald kommt das neueste GPU Monster von nVidia und wenn ich diese Leistung mit einer 7850/7870 (nur als Beispiel) mal vergleiche, dann sind die Next-Gen Konsolen eventl. schon leicht veraltet, wenn sie zu kaufen sind.
Das sieht für mich aktuell wie eine durchweg "gute" PC Grafik aus, mehr aber nicht.
Hätte mir da deutlich mehr erwartet aber gut, vielleicht ist es einfach auch nur zu früh oder ich habe einfach zuviel erwartet.
1. Es handelt sich um first gen Material
2. Im Fall von Shadow Fall entstand der Content wohl mit nur 4GB
3. Kannst du die Hardwarebasis nicht 1:1 zu mit dem PC vergleichen. Besonders mit der anderen Speicherarchitektur.
Ich denke es ist wirklich noch zu früh, halte dir einfach mal vor Augen, was aus den 2x 256MB RAM und dem Krüppligen Cell + G70 rausgeholt wurde.
Da werden wir noch die ein oder andere überrascht sehen.
dildo4u
2013-02-23, 15:33:00
Jup das ist das was sie am Ende aus 16 mal weniger Ram und na 0.3TFlop vs 1.8TF GPU geholt haben.
http://youtu.be/pYJ4A53UziQ?t=4m40s auf 720p stellen
Superheld
2013-02-23, 15:33:13
was wird in den techdemos benutzt, dx11 ?
dildo4u
2013-02-23, 15:37:06
Ne Sony hat ne eigene API,die wird aber wie DX11.1 alle Funktionen der Hardware nutzen können also Compute Shader für Partikel und Flüssigskeitssimulation z.b(Feuer am Schild),Tesselation etc.
Finch
2013-02-23, 15:38:05
was wird in den techdemos benutzt, dx11 ?
Das Featureset sicher, aber nicht DX11 selber. Ist ja kein Microsort Produkt ;)
Locuza
2013-02-23, 15:41:42
Ich weiß nicht, inwiefern man erste Spielszenen von der PS4 schon bewerten "darf" und ich denke, eine GPU auf Basis der 7850 in einer Konsole ist vielleicht nicht 1:1 dasselbe, wie eine 7850 im PC aber ganz ehrlich, mich hauen die ersten Szenen nicht wirklich vom Hocker.
Ich meine, bald kommt das neueste GPU Monster von nVidia und wenn ich diese Leistung mit einer 7850/7870 (nur als Beispiel) mal vergleiche, dann sind die Next-Gen Konsolen eventl. schon leicht veraltet, wenn sie zu kaufen sind.
Das sieht für mich aktuell wie eine durchweg "gute" PC Grafik aus, mehr aber nicht.
Hätte mir da deutlich mehr erwartet aber gut, vielleicht ist es einfach auch nur zu früh oder ich habe einfach zuviel erwartet.
Die PS4 ist aber schon eine APU und eine APU mit 8GB Hauptspeicher die 176 GB/s schaffen wirst du so schnell nicht kaufen können.
Wenn das Ding wie Kaveri aufgebaut ist mit einem gemeinsamen Adressraum, dann müssten ja PC-Ports entweder bei den GPGPU-Effekten doch abspecken oder einen fetten Perf-Hit kassieren?
Ansonsten ja, Erwartungen sind zu hoch.
Der erste Schritt zum Glück sind niedrige Erwartungen. ;)
Hatstick
2013-02-23, 15:45:15
YT Vids habe ich mir halt auch schon angeschaut und der Knüller ist es finde ich nicht wirklich.
Es fehlte der WOW Effekt.
Natürlich werden die Spiele für die NextGen Konsolen im Laufe der Zeit immer besser aussehen aber es wird auch immer bessere PC Hardware geben.
Wenn ich mir das 1k€ GPU Monster von nVidia anschaue und mal ein Jahr weiterspinne, das ist schon heftig.
Es ist natürlich grundsätzlich auch für PC Spieler gut, das die NextGen Konsolen bald kommen aber habe die Befürchtung, das zwei Jahre nach Release die Dinger dem PC wieder hinterherlaufen und technisch veraltet sind.
Wobei das wohl auch gar nix ungewöhnliches ist und ich vielleicht wirklich zuviel erwartet habe.
Locuza
2013-02-23, 15:57:42
Als PC-Gamer nimmt man ja ständig an der Evolution teil.
Konsolen-Spielern bleibt das verwehrt, die können "nur" an Revolutionen teilnehmen.
Grafisch gesehen.
Wenn man C3 auf Very High auf dem PC stellt, dann kann sich kein WOW-Effekt bei der Next-Gen so einfach einstellen.
Aber das grafische Niveau ist schon Spitze und man sollte sich einfach auch endlich mal zufrieden geben. =)
dildo4u
2013-02-23, 15:57:48
Sowas wie Deep Down gibt's auf dem PC nicht,ganz einfach weil noch niemand auf die Specs hin entwickelt hat.Alles was es Heute gibt sind Gepimte 360/PS3 Ports.
BaggiBox
2013-02-23, 16:02:09
Sowas wie Deep Down gibt's auf dem PC nicht,ganz einfach weil noch niemand auf die Specs hin entwickelt hat.Alles was es Heute gibt sind Gepimte 360/PS3 Ports.
+1
Locuza
2013-02-23, 16:03:26
Natürlich, aber das gepimpe, (AA/AF und paar DX11-Features) sorgen dafür, dass viele PC-Gamer natürlich nicht so leicht zu stunnen sind, wie ein paar Konsolen-Spieler, die sich seit 7 Jahren 720p ohne gutes AA anschauen müssen.
Bei Deep Down bin ich erst einmal vorsichtig.
Ingame ist alles erst, wenn es auch im Haushalt so läuft. ;)
dildo4u
2013-02-23, 16:10:02
Next-Gen ist für mich nich nur ne High-Res Textur,mich interresiert eher die Fortschritte in der Simulation der Physik wie z.b das Feuer.Da macht C3 jetzt imo nix Besonderes in die Richtung oder Crytek setzt es nich so ein das es mir auffällt.
Locuza
2013-02-23, 16:18:50
Ich hoffe auch sehr auf Gameplay-Physik und eine bessere K.I.
Beim letzterem wird sich wahrscheinlich nicht so viel tun. :(
Hatstick
2013-02-23, 16:47:46
Als PC-Gamer nimmt man ja ständig an der Evolution teil.
Konsolen-Spielern bleibt das verwehrt, die können "nur" an Revolutionen teilnehmen.
Grafisch gesehen.
Wenn man C3 auf Very High auf dem PC stellt, dann kann sich kein WOW-Effekt bei der Next-Gen so einfach einstellen.
Aber das grafische Niveau ist schon Spitze und man sollte sich einfach auch endlich mal zufrieden geben. =)
Joa, haste gut beschrieben! :smile:
Finch
2013-02-23, 16:56:23
Ich hoffe auch sehr auf Gameplay-Physik und eine bessere K.I.
Beim letzterem wird sich wahrscheinlich nicht so viel tun. :(
Doch, ich denke das sich gerade beim letzteren etwas tuen wird. Beide next gen Konsolen werden, wenn die Gerüchte der Xbox Next stimmen, auf einem 8Kerner basieren, das gibt genug Möglichkeiten um einer besseren KI mehr Aufmerksamkeit zu widmen.
Es geht ja nicht um eine perfekte KI, sondern um eine die nicht doof in der ecke steht.
Locuza
2013-02-23, 17:31:04
Es geht ja nicht um eine perfekte KI, sondern um eine die nicht doof in der ecke steht.
Selbst das würde mir schon reichen, ein großer Fortschritt, im Gegensatz zu manch Gegnern die gegen Wände laufen oder von dir weg und das nicht zur Deckungssuche. ;D
Am Ende reserviert man doch 80% der CPU-Power für irgendeinen Grafik-Zeug.
Ich hoffe, aber die K.I. ist glaube ich die Stellschraube, die sich seit 10 Jahren nicht merklich nach vorne entwickelt hat, im Gegensatz zu der Grafik, wo man klar unterscheiden kann was besser ist.
ich hoffe bzgl. der KI vor allem bei Rennspielen auf eine Steigerung. Das ist eigentlich der Grund, wieso ich keine Rennspiele mehr spiele. Grafisch ist fast alles ausreichend und gut, aber leider zu oft: Gummiband... kein ausweichen der Gegner...
Doch, ich denke das sich gerade beim letzteren etwas tuen wird. Beide next gen Konsolen werden, wenn die Gerüchte der Xbox Next stimmen, auf einem 8Kerner basieren, das gibt genug Möglichkeiten um einer besseren KI mehr Aufmerksamkeit zu widmen.
Und das mehr an Rechenleistung lässt sich wie in bessere KI ummünzen?
dildo4u
2013-02-23, 18:24:33
Und das mehr an Rechenleistung lässt sich wie in bessere KI ummünzen?
.z.b Ubisoft sieht das so.
"Every core pillar of the game is able to be pushed further. We're able to push the immersion. The fidelity of the graphics is one part of the immersion, but it's more than graphics.
"I'll give you small examples; it's like the fidelity of the wind, how it will have everything reacting as it blows through the city, the AI reaction when something happens, every AI has to make a decision on how they'll react to it.
http://www.neogaf.com/forum/showthread.php?t=515219
Doch, ich denke das sich gerade beim letzteren etwas tuen wird. Beide next gen Konsolen werden, wenn die Gerüchte der Xbox Next stimmen, auf einem 8Kerner basieren, das gibt genug Möglichkeiten um einer besseren KI mehr Aufmerksamkeit zu widmen.
Es geht ja nicht um eine perfekte KI, sondern um eine die nicht doof in der ecke steht.
Ich habe nicht das Gefühl, dass bei KI die Rechenleistung limitiert. Das ist ein bisschen schwarze Magie.
Man könnte sehr einfach KI bauen, die den Player die ganze Zeit flankiert etc. nur wäre das dann extrem frusterierend. KI muss nicht gut sein, sie muss Spaß machen und dabei noch gefühlt nachvollziehbar agieren.
krötenfresse
2013-02-23, 18:33:36
@ radeonfreak: guter tip
mir geht es aber vor allem darum, was die entwickler in 3 jahren eventuell nicht mehr unterstützen würden.
zur not stell ich sogar auf 720p runter ;)
Finch
2013-02-23, 18:37:45
Ich habe nicht das Gefühl, dass bei KI die Rechenleistung limitiert. Das ist ein bisschen schwarze Magie.
Man könnte sehr einfach KI bauen, die den Player die ganze Zeit flankiert etc. nur wäre das dann extrem frusterierend. KI muss nicht gut sein, sie muss Spaß machen und dabei noch gefühlt nachvollziehbar agieren.
genau das meinte ich damit auch. Hab mich vielleicht ein wenig verquert ausgedrückt.
Ob ein mehr an Rechenzeit etwas bringt, sieht man ja normalerweise in der Forschung.
Bei der Grafik oder Physik hat man im Offline Bereich eine von der Rechenzeitlimitierung befreite Referenz. Bei der KI fehlt sowas.
Deinorius
2013-02-23, 19:20:19
@ radeonfreak: guter tip
mir geht es aber vor allem darum, was die entwickler in 3 jahren eventuell nicht mehr unterstützen würden.
zur not stell ich sogar auf 720p runter ;)
Was sollen die Entwickler nicht mehr unterstützen? Dass WinXP und D3D9-10.1 sicher nicht unterstützt wird, sollte klar sein, aber der Rest wird gehen, nur mit den Details muss man dann runter. Man wird auch in drei Jahren mit einer 1 GB Grafikkarte spielen können, 2 GB sowieso und 4 GB sollten erst recht reichen. Die 8 GB sind immerhin der gesamte RAM und nicht nur für die GPU da.
del_4901
2013-02-23, 20:34:42
Sooo viel Halbwissen, wie klamueser ich das nur wieder auseinander.
RAM <-22.4-> Xenos <-32.0-> ROPs <-256.0-> eDRAM
Muss der Inhalt aber dann nicht in den GDDR3-Speicher mit 22,4 GB/s geschrieben werden, womit sich da kein Bandbreitenvorteil ergibt? Das passiert erst nach dem Resolve, wenn das Rendertarget fertig gerendert hat und man es als Textur lesen moechte.
Die Xbox 360 hat ja für ihren eDRAM 256 GB/s angegeben bekommen.Das ist die Bandbreite zw. ROPs und eDRAM sie ROPs sitzen naemlich mit auf dem eDRAM-DIE. Das hat man deshalb gemacht weil bei AlphaBlending und Z- Stencil-tests viele Werte auch wieder aus dem Rendertarget gelesen werden muessen. Bei MSAA muss evtl. mehrmals der gleiche Wert geschrieben werden. Und beim MSAA Resolve muessen auch wieder die Werte gelesen werden. Ausserdem muss man anmerken das die Bandbreite zw. ROPs und eDRAM unkomprimiert ist, daher kann man den Wert nicht mit anderen GPUs vergleichen.
Das ist auch der Grund warum Xenos nur in den eDRAM rendern kann, ihm fehlen sonst naemlich die ROPs.
Hayab
2013-02-24, 00:29:08
Die PS4 ist aber schon eine APU und eine APU mit 8GB Hauptspeicher die 176 GB/s schaffen wirst du so schnell nicht kaufen können.
Wenn das Ding wie Kaveri aufgebaut ist mit einem gemeinsamen Adressraum, dann müssten ja PC-Ports entweder bei den GPGPU-Effekten doch abspecken oder einen fetten Perf-Hit kassieren?
Ansonsten ja, Erwartungen sind zu hoch.
Der erste Schritt zum Glück sind niedrige Erwartungen. ;)
So tragisch wird das nicht werden selbst nur mit 1GB VRAM. Ein PC hat noch meistens paar Giga Normalen RAM der bereit steht. Wenn der VRAM voll ist und was nachgeladen werden soll, geht das recht zuegig zw. RAM und VRAM. Die paar Millisekunden beim nachladen eines LODs oder eines MipMaplevels wird man in Normalfall kaum bemerken. Arma2 hatte bis patch 1.05 damit auch Probleme weil da sehr viele grosse Texturen vorhanden sind die zw. RAM und VRAM getauscht werden muessen. Jetzt flutscht das.
Somit ist das in der PC Welt nichts neues.
Irgendwelche Ports die schlecht portiert sind wird es auch geben, die gerade beim Swap zw. RAM und VRAM Slowdowns verursachen werden.
Allerdings werde ich sicher bei der nechsten GPU zu 6 oder 8 GB RAM tendieren.
Locuza
2013-02-24, 01:00:16
Dieser Copy-Overhead ist doch genau das, weswegen sich bisher GPGPU im breitem Spektrum verboten hat.
Wenn es den nicht auf den Konsolen gibt und genau darauf programmiert wird, glaube ich nicht das 16GB/s beim PCIE und dessen Latenzen die PC FPS-Zahlen unbeeindruckt lassen.
del_4901
2013-02-24, 01:05:23
Dieser Copy-Overhead ist doch genau das, weswegen sich bisher GPGPU im breitem Spektrum bisher verboten hat.
Wenn es den nicht auf den Konsolen gibt und genau darauf programmiert wird, glaube ich nicht das 16GB/s beim PCIE und dessen Latenzen die PC FPS-Zahlen unbeeindruckt lassen. Es ist zum einen der Overhead, zum anderen auch die Latenz. Und beides macht es einfach unglaublich kompliziert und unhandlich.
Locuza
2013-02-24, 01:27:55
Was mich dann natürlich erneut zu meiner Frage bringt, wird man dann einen fetten Performance-Hit auf PC-Portierungen spüren, wenn ein Spiel genau da stark auf GPGPU setzt oder wird das jetzt nicht so dramatisch ausfallen?
Keine Ahnung welches "HSA-Techlevel" die PS4 jetzt genau darstellen wird, aber ein gemeinsamer Adressraum, so wie für Kaveri wäre wohl sicherlich AMDs Ziel dabei gewesen?
del_4901
2013-02-24, 01:34:43
Mal nicht rhetorisch gefragt: Gemeinsamer Adressraum, geht das ueberhaupt oder will man das ueberhaupt auf einem (Windows/PC)betriebssystem?
Ah, ok selber meine Antwort gefunden, ich hab zu low level gedacht. Wenn man noch ne Abstarktion (HMMU) drueber baut geht das.
Hayab
2013-02-24, 01:36:46
Dieser Copy-Overhead ist doch genau das, weswegen sich bisher GPGPU im breitem Spektrum verboten hat.
Wenn es den nicht auf den Konsolen gibt und genau darauf programmiert wird, glaube ich nicht das 16GB/s beim PCIE und dessen Latenzen die PC FPS-Zahlen unbeeindruckt lassen.
Klar ist, dass eine fett mit VRAM ausgestattete GPU da Vorteile bitten wird bei der Framerate. Bis die 8GB RAM der PS4 voll durch Spieledaten ausgelastet werden vergehen auch noch paar Jahre, bis dahin werden die 1 und 2 GB PC GPUs eh ausgetauscht sein.
Die Norhtbridge oder was auch immer da auf dem APU integriert wird muss auch die Daten von dem langsamen Laufwerk in der RAM schaufeln.
Mal nicht rhetorisch gefragt: Gemeinsamer Adressraum, geht das ueberhaupt oder will man das ueberhaupt auf einem (Windows/PC)betriebssystem? Wenn Du ne GPU hast, die rechnen und nicht nur bunte Bilder malen sollen, dann willst Du das, da sonst das Hin und Herkopieren der Daten von CPU in Videospeicher und wieder zurück nen unschönen Overhead erzeugt. Und extra programmieren muss mans teilweise auch noch. Ein gemeinsamer Adressraum ist also schon recht "nett". Problem war/ist nur, das ne GPU, die eben auch Bilder anzeigen soll, ne dicke Bandbreite braucht und da schauts etwas mau in Sachen DDR3 und dual Channel aus. Das skaliert nur bis 34 GB/s.
Deswegen verbaut Sony schnelles GDDR5, und schafft 176 GB/s, und Sony scheint immerhin auf Quad-Channel DDR3-2133 zu setzen (wenn ich das richtig mitbekommen hab) und schafft damit dann noch 68.
Im PC-Bereich kommt man darauf wohl auch demnächst, dual channel DDR4-4266 sollte es nächstes Jahr geben. Aber frag mich nicht, obs dann auch nen passenden Sockel von AMD dafür geben wird ^^
del_4901
2013-02-24, 01:49:32
Wenn Du ne GPU hast, die rechnen und nicht nur bunte Bilder malen sollen, dann willst Du das, da sonst das Hin und Herkopieren der Daten von CPU in Videospeicher und wieder zurück nen unschönen Overhead erzeugt. Und extra programmieren muss mans teilweise auch noch. Ein gemeinsamer Adressraum ist also schon recht "nett".
Soweit war mir das auch bewust, ich dachte nur das nun mit neuem Prozessor CPU und GPU einen gemeinsamen Adressraum haben. Dem ist nicht so. Man braucht erst wieder spezielle Andwendungsoftware welche die HMMU verwendet damit dem Programm vorgegaukelt wird es haette einen gemeinsamen Adressraum. Das Betriebssystem selber arbeitet immernoch auf getrennten Adressraeumen fuer CPU und GPU, und das ist warscheinlich auch gut so.
Locuza
2013-02-24, 01:50:05
Welche Datenbündel müssen eig. bisher von dem RAM in den VRAM kopiert werden und dann wieder andersherum?
Hier eine interessante AMD PDF zum Thema Copy-Overhead.
http://synergy.cs.vt.edu/pubs/papers/daga-saahpc11-apu-efficacy.pdf
Soweit war mir das auch bewust, ich dachte nur das nun mit neuem Prozessor CPU und GPU einen geinsamen Adressraum haben. Dem ist nicht so.
Laut AMD solls das ab Kaveri geben:
http://www.abload.de/img/slide-33-102489int.jpg
Wies jetzt genau bei der PS4 ausschaut ... keine Ahnung. Ich tendiere in Richtung gemeinsamer Adressraum, da auf der PS4 ja auch GNC-Cores eingebaut werden, aber das muss nichts heißen.
Exxtreme
2013-02-24, 02:11:43
Kann die Grafikkarte nicht direkt auf's RAM zugreifen oder wie? Bei AGP geht das ja.
Kann die Grafikkarte nicht direkt auf's RAM zugreifen oder wie? Bei AGP geht das ja.
Das kann jedes Busmaster-Device. Aber was willst DU damit sagen?
Das ist halt der Mechanismus, über den das Hin- und Herkopieren läuft.
fondness
2013-02-24, 09:29:53
Ne Sony hat ne eigene API,die wird aber wie DX11.1 alle Funktionen der Hardware nutzen können also Compute Shader für Partikel und Flüssigskeitssimulation z.b(Feuer am Schild),Tesselation etc.
DX11.1 unterstützt bei weitem nicht alle Features von GCN.
Crazy_Bon
2013-02-24, 09:58:24
DX11.1 unterstützt bei weitem nicht alle Features von GCN.
Kann man dann DX11.1+ bei der NextGen-Xbox erwarten? 16ROPs klingen zuerst auch wenig, wiederum sollen 32ROPs wie bei der PS4 Overkill sein, ausser bei steroscopic FullHD oder UltraHD (4K), zumindenst laut Sony keine Spiele in 4K kommen sollen.
Die mangelnden ROPs kompensiert Microsoft durch 32MB ESRAM, wie schon die 10MB EDRAM bei der 360 (8ROPs, ebenfalls PS3).
Also gar nicht so schlimm? Kostenersparnis?
Ailuros
2013-02-24, 10:03:06
DX11.1 unterstützt bei weitem nicht alle Features von GCN.
Gilt fuer alle DX11 GPUs. IHVs stecken stets etwas mehr in ihre Architekturen rein weil sie eben bei der Konzeption mehr raten als wissen wenn es zu zukuenftigen APIs kommt. Im Angesicht aber dass die Mehrzahl der Zusatz-features in solchen Faellen eher fuer die Unterstuetzung dienen und offensichtlich weniger fuer die Effizienz mit diesen, kann so ein Kommentar so manchen falschen Eindruck machen.
DX11.1 unterstützt bei weitem nicht alle Features von GCN.
Was denn nicht? Mir fällt da eigentlich nur PRT ein.
Fireblade
2013-02-24, 13:57:45
Also so wie es jetzt aussieht, erwarte ich folgendes:
Sony bringt die stärkere, aber teurere Konsole.
Microsoft die etwas schwächere, dafür aber weitaus günstigere.
Wahrscheinlich ist Microsofts Plan der cleverere. Der Durchschnittspieler wird den grafischen Unterschied (gerade bei Launchtiteln) kaum merken und die billigere Konsole kaufen. Leider.
Aber mal abwarten. Es gibt ja zu Microsoft Gerüchte zu "always on", "kinece always on" und keine gebrauchten Spiele. Kann mir zwar nicht vostellen, dass das kommt, aber das könnte die Verkäufe auch beeinflussen.
schreiber
2013-02-24, 14:01:48
Always online kann man schon mal ins Reich der Fabeln verbannen. Wenn nur jeder 4. Besitzer einer Konsole damit auch Online geht bei der derzeitigen Generation, wäre der Schnitt viel zu radikal.
Lightning
2013-02-24, 15:17:17
Also so wie es jetzt aussieht, erwarte ich folgendes:
Sony bringt die stärkere, aber teurere Konsole.
Microsoft die etwas schwächere, dafür aber weitaus günstigere.
Wahrscheinlich ist Microsofts Plan der cleverere. Der Durchschnittspieler wird den grafischen Unterschied (gerade bei Launchtiteln) kaum merken und die billigere Konsole kaufen. Leider.
Aber mal abwarten. Es gibt ja zu Microsoft Gerüchte zu "always on", "kinece always on" und keine gebrauchten Spiele. Kann mir zwar nicht vostellen, dass das kommt, aber das könnte die Verkäufe auch beeinflussen.
Falls Microsoft zu jeder Konsole Kinect beilegt um es zu pushen, dann wird sie vermutlich auch nicht viel günstiger als die PS4.
Finch
2013-02-24, 15:19:14
Falls Microsoft zu jeder Konsole Kinect beilegt um es zu pushen, dann wird sie vermutlich auch nicht viel günstiger als die PS4.
Außer MS Subventioniert mehr. Aber davon gehe ich nicht aus. Es scheint, als ob MS mit Kinect versucht mehr die Casuals anzusprechen.
Ich bin mal gespannt ob neben der verstaubten Wii meiner Elter/Schwiegereltern bald eine Xbox Next steht :D
Gipsel
2013-02-24, 16:03:56
Aber mal abwarten. Es gibt ja zu Microsoft Gerüchte zu "always on",
Always online kann man schon mal ins Reich der Fabeln verbannen."Always on" und "always online" sind ja zwei paar verschiedene Schuhe. Auch die PS4 hat ganz klar always on Funktionalität. Dafür haben die dem Ding sogar einen extra Prozessor spendiert.
Locuza
2013-02-24, 17:05:46
Was denn nicht? Mir fällt da eigentlich nur PRT ein.
Wären das nicht auch die ACEs, welche auch die CUs für Computing reservieren können?
Gouvernator
2013-02-24, 18:47:57
Also so wie es jetzt aussieht, erwarte ich folgendes:
Sony bringt die stärkere, aber teurere Konsole.
Microsoft die etwas schwächere, dafür aber weitaus günstigere.
Wahrscheinlich ist Microsofts Plan der cleverere. Der Durchschnittspieler wird den grafischen Unterschied (gerade bei Launchtiteln) kaum merken und die billigere Konsole kaufen. Leider.
Die Leute sind schon sehr geplagt durch schlechte Grafik insbesondere bei PS3. Kann sein das Sony hier extra punktet, das heißt die Geplagten kaufen sich die stärkste Konsole egal was sie kostet. Denen die Grafik egal war kaufen sich die billigste. Ich kaufe ebenfalls die auf welcher neuer Battlefield am besten aussieht und am flüssigsten läuft.
Silentbob
2013-02-25, 00:08:31
Die "Freaks" möchten gerne bessere Grafik, die Spieler die sich einmal im Jahr ein neues FIFA kaufen sind voll und ganz zufrieden mit der aktuellen Gen.
Da müssen beide schon ein bisschen mehr bieten.
Gipsel
2013-02-25, 00:56:01
Wären das nicht auch die ACEs, welche auch die CUs für Computing reservieren können?
Zuallererst bieten die für Computeshader vom Grafik Command Processor unabhängigen Zugang zum Shader-Array. Aber die unterstützen z.B. über OpenCL 1.2 auch das sogenannte Device partitioning. Das heißt, daß man Subdevices definieren kann, die aus sich nicht überschneidenden Gruppen von CUs bestehen (man kann also z.B. auf einer HD7970 ein Subdevice aus 4 CUs definieren und ein anderes mit 28). D.h. aber noch nicht, daß damit auf den 4 CUs nichts anderes dort mehr laufen kann. Man kann außer der Nutzung der Subdevices immer noch Kernels auf dem Hauptdevice starten (was dann wieder alle CUs nutzt, zumindest wenn man den Specs glaubt) und die Grafik kann ebenfalls noch alle CUs nutzen. Um CUs wirklich für etwas zu reservieren, bräuchte man noch eine API, mit dem man den Grafik Command Prozessor irgendwie davon abhält, etwas an bestimmte CUs zu schicken. Die Hardware kann das bestimmt (das ist ja keine Magie, die Work-Distribution entsprechend einzuschränken), allerdings kenne ich keine API dafür und bezweifle auch, daß es momentan eine gibt.
Locuza
2013-02-25, 01:10:31
Genau das wäre doch ein Gebiet wo sich Sony mit LibGCM hinsetzen könnte?
Klingt halt ähnlich danach, was Sony in ihrem PDF schreibt:
The Graphics Processing Unit (GPU) has been enhanced in a number of ways, principally to allow for easier use of the GPU for general purpose computing (GPGPU) such as physics simulation. The GPU contains a unified array of 18 compute units, which collectively generate 1.84 Teraflops of processing power that can freely be applied to graphics, simulation tasks, or some mixture of the two.
http://www.scei.co.jp/corporate/release/pdf/130221a_e.pdf
Das ganze könnte man ja mit bisherigen APIs wie DX11 ja nicht umsetzen?
del_4901
2013-02-25, 01:30:41
Zuallererst bieten die für Computeshader vom Grafik Command Processor unabhängigen Zugang zum Shader-Array. Aber die unterstützen z.B. über OpenCL 1.2 auch das sogenannte Device partitioning. Das heißt, daß man Subdevices definieren kann, die aus sich nicht überschneidenden Gruppen von CUs bestehen (man kann also z.B. auf einer HD7970 ein Subdevice aus 4 CUs definieren und ein anderes mit 28). D.h. aber noch nicht, daß damit auf den 4 CUs nichts anderes dort mehr laufen kann. Man kann außer der Nutzung der Subdevices immer noch Kernels auf dem Hauptdevice starten (was dann wieder alle CUs nutzt, zumindest wenn man den Specs glaubt) und die Grafik kann ebenfalls noch alle CUs nutzen. Um CUs wirklich für etwas zu reservieren, bräuchte man noch eine API, mit dem man den Grafik Command Prozessor irgendwie davon abhält, etwas an bestimmte CUs zu schicken. Die Hardware kann das bestimmt (das ist ja keine Magie, die Work-Distribution entsprechend einzuschränken), allerdings kenne ich keine API dafür und bezweifle auch, daß es momentan eine gibt.
Man will ja das ganze auch irgendwie synchronisieren, geht das mit den Subdevices? Man will ja meisst nicht das die CPU das alles managen muss.
Das ganze könnte man ja mit bisherigen APIs wie DX11 ja nicht umsetzen?
Für die Xbox ist DirectX nicht genau das selbe wie für den PC. Da sind durchaus auch paar Erweiterungen möglich oder Features die nicht ganz ohne Seiteneffekte definierbar sind können angesprochen werden.
xyleph
2013-02-25, 11:53:15
Wie sieht die RAM Nutzung auf der 360 eigentlich aus, gibt es einen gemeinsamen Adressraum für CPU und GPU oder/und gibt es eine fixe Größe welche bsw der GPU zur Verfügung steht?
Und mit was kann man auf der PS4 rechnen? So wie es bisher bei beyond3D duchgesickert ist, gab es bei der bisherigen DevKits der PS4 eine fixe Größe des VRAM von 1,5GiB. Klingt nicht nach HSA.
TheCounter
2013-02-25, 12:35:56
So wie es bisher bei beyond3D duchgesickert ist, gab es bei der bisherigen DevKits der PS4 eine fixe Größe des VRAM von 1,5GiB. Klingt nicht nach HSA.
Das liegt wohl daran das die PS4 am anfang mit 2GB RAM geplant war und dementsprechend mussten sich die Entwickler erstmal daran halten.
Die 8GB der finalen PS4 lassen sich frei nutzen (bis auf die 512MB die für das System reserviert sind).
Bei der 360 gab es AFAIK keinen fixen Adressraum (also CPU/GPU getrennt), sondern die Entwickler konnten den Speicher nach belieben nutzen.
Matrix316
2013-02-25, 12:38:24
Was ich ja schade finde, dass bei den Launch Titeln noch keine richtig großen dabei sind. Wenn ich der PS4 Manager wäre, würde ich als erste Titel haben wollen: Gran Turismo 6, GTA V und Uncharted 4 und vielleicht noch Skyrim 2 (oder wie der nächste Elder Scrolls heißen soll).
TheCounter
2013-02-25, 12:41:39
Erstmal die E3 abwarten. Ich denke das Sony noch einiges in der Hinterhand hat.
Ich tippe ja sehr stark auf The Last Guardian als Launchtitel ;)
Karümel
2013-02-25, 13:09:49
Erstmal die E3 abwarten.
Wird interessant in welcher Reihenfolge die Pressekonferenzen von MS und Sony kommen. Der dessen PK als zweites kommt könnte evtl. wirklich noch was am Preis manchen. ZB. Sony ist zweiter und MS kündigt einen VK von z.B. 350 Euro an. Sony geht intern dann nochmal 50 Euro runter damit der Preisunterschied nicht zu groß ist.
Frozone
2013-02-25, 13:10:44
Das grösste Problem für die beiden neuen Konsolen ist, das fast alle Spiele auch für die aktuelle Generation erscheinen. Und da werden sich viele überlegen eine neue Konsole am Anfang zu kaufen wenn doch alle Spiele auch auf der alten laufen.
TheCounter
2013-02-25, 13:13:36
Wird interessant in welcher Reihenfolge die Pressekonferenzen von MS und Sony kommen.
Wie jedes Jahr, MS am Montag und Sony am Dienstag.
Preis für die PS4 soll (http://www.lensoftruth.com/playstation-4-release-date-and-pricing-confirmed/) bei 429EUR bzw. 529EUR liegen.
Sollten die bisherigen Xbox 3 Specs stimmen, könnte Microsoft für 349EUR launchen. Wobei ich eher von 399EUR wie damals bei der Xbox 360 ausgehe.
Lost Boy
2013-02-25, 13:17:13
Das liegt wohl daran das die PS4 am anfang mit 2GB RAM geplant war und dementsprechend mussten sich die Entwickler erstmal daran halten.
Die 8GB der finalen PS4 lassen sich frei nutzen (bis auf die 512MB die für das System reserviert sind).
Bei der 360 gab es AFAIK keinen fixen Adressraum (also CPU/GPU getrennt), sondern die Entwickler konnten den Speicher nach belieben nutzen.
Selbst wenn die PS4 am anfang mit 2Gb RAM geplant war, ist es doch eher unrealistisch dass sony devkits mit weniger RAM (in diesem fall also 1.5 GB) ausliefert. Die dinger hatten doch in der Vergangenheit immer mehr RAM. Selbst zu PS2 Zeiten. Ich halte dass für ein Gerücht mit den 1.5Gb RAM...
Lost Boy
2013-02-25, 13:20:30
Das grösste Problem für die beiden neuen Konsolen ist, das fast alle Spiele auch für die aktuelle Generation erscheinen. Und da werden sich viele überlegen eine neue Konsole am Anfang zu kaufen wenn doch alle Spiele auch auf der alten laufen.
Ich brauche da nicht lange überlegen. Kann die alten Dinger nicht mehr sehen.
Finch
2013-02-25, 13:24:28
Selbst wenn die PS4 am anfang mit 2Gb RAM geplant war, ist es doch eher unrealistisch dass sony devkits mit weniger RAM (in diesem fall also 1.5 GB) ausliefert. Die dinger hatten doch in der Vergangenheit immer mehr RAM. Selbst zu PS2 Zeiten. Ich halte dass für ein Gerücht mit den 1.5Gb RAM...
Folgende Vorstellung. Devkits kamen mit 4 GB. Die Entwickler haben sich auf ihre Erfahrung verlassen. Dass die Devkits immer mehr RAM als das Endprodukt haben. Also haben sie angefangen für 2 GB zu entwickeln.
Das sich der RAM verdoppelt, dürfte Imho nicht schon seit monatebekannt sein. Sonst hatten das die sonst so genauen Quellen auch gewusst.
Crazy_Bon
2013-02-25, 13:29:53
Wenn Spieleentwickler die Dev-Kits bekommen, dann auch samt festgelegten Spezifikationen wie feste RAM-Größen wofür entwickeln werden darf. Es ist auch durchaus denkbar, daß schon Dev-Kits mit 8GB RAM ausgeliegert wurden, da sieht man wie gut die Geheimhaltung der Specs klappt.
Folgende Vorstellung. Devkits kamen mit 4 GB. Die Entwickler haben sich auf ihre Erfahrung verlassen.
Eine seltsame Vorstellung. Entwickler raten einfach, wie die finale Hardware aussehen könnte. :freak:
Normalerweise findet man in der Dokumentation Informationen dazu...
TheCounter
2013-02-25, 13:37:15
Ich halte dass für ein Gerücht mit den 1.5Gb RAM...
Glaube ich nicht, da ja selbst das neue Killzone bisher nur 1.5GB nutzt.
Kommt einfach darauf an seit wann die Spiele entwickelt wurden und seit wann genau Sony auf 4GB gewechselt hat.
Auf 8GB wurde ja so spät/geheim gewechselt das nicht mal die 1st-Party Studios diese Information hatten.
Locuza
2013-02-25, 13:43:45
Für die Xbox ist DirectX nicht genau das selbe wie für den PC. Da sind durchaus auch paar Erweiterungen möglich oder Features die nicht ganz ohne Seiteneffekte definierbar sind können angesprochen werden.
Das war ja deine Frage, welche Features man bei GCN mit DX11.1 nicht ausnutzen könnte.
Und neben PRT habe ich eben noch die ACEs hineingeworfen, die am PC nicht nutzbar wären.
Mir ging es da nicht um die custom API von MS.
TheCounter
2013-02-25, 13:48:34
Hier gibts übrigens die Tech Analysis zum neuen Killzone von Eurogamer:
http://www.eurogamer.net/articles/digitalfoundry-killzone-shadow-fall-demo-tech-analysis
del_4901
2013-02-25, 15:10:29
Bei der 360 gab es AFAIK keinen fixen Adressraum (also CPU/GPU getrennt), sondern die Entwickler konnten den Speicher nach belieben nutzen.Vermischt mal bitte nicht logische Adressen mit physikalischen Pages.
LordDeath
2013-02-25, 18:38:21
Ein weiterer Grund dafür, dass der RAM der PS4 bisher kaum ausgenutzt wird, könnte auch sein, dass entsprechender Content, der die 8 GiB füllt, einfach zu teuer ist.
Es wäre sicherlich eine interessante Situation, wenn die Grafikqualität der (Konsolen)Spiele hauptsächlich nicht mehr durch technische, sondern durch wirtschaftliche Ressourcen begrenzt wird. :)
Karümel
2013-02-25, 18:39:35
Laienfrage meinerseits.
Wie groß wäre der ungefähr theotische Vorteil von 8 GIG GDDR RAm der PS4 gegenüber 8 GIG DDR3 RAM der Xbox 720 (oder wie dich auch immer heißen mag)
Oder anders gefragt wo wäre dann der Vorteil der PS4.
Falls man das überhaupt irgrendwie angeben kann.
Tesseract
2013-02-25, 18:44:33
Ein weiterer Grund dafür, dass der RAM der PS4 bisher kaum ausgenutzt wird, könnte auch sein, dass entsprechender Content, der die 8 GiB füllt, einfach zu teuer ist.
ich lese dauernd was von teurerem content...
teurer ist der content dann, wenn man die welt mit mehr objekten füllt, detailreicher gestaltet usw. aber wenn man z.B. wesentlich größere texturen verwendet bringt das enorm viel bildqualität und kostet quasi garnix weil die texturen meist sowieso in einer viel höheren auflösung generiert werden. ein grafiker setzt sich nicht hin und malt eine briefmarkentextur, die wird sowieso in sehr hoher auflösung gezeichnet und dann für das spiel runtergerechnet.
und texturen können noch mindestens 2-3 zweierpotenzen wachsen bis der detailgrad halbwegs zur auflösung des spiels passt, zumindest bei >=1080p.
Demirug
2013-02-25, 20:50:23
ich lese dauernd was von teurerem content...
teurer ist der content dann, wenn man die welt mit mehr objekten füllt, detailreicher gestaltet usw. aber wenn man z.B. wesentlich größere texturen verwendet bringt das enorm viel bildqualität und kostet quasi garnix weil die texturen meist sowieso in einer viel höheren auflösung generiert werden. ein grafiker setzt sich nicht hin und malt eine briefmarkentextur, die wird sowieso in sehr hoher auflösung gezeichnet und dann für das spiel runtergerechnet.
und texturen können noch mindestens 2-3 zweierpotenzen wachsen bis der detailgrad halbwegs zur auflösung des spiels passt, zumindest bei >=1080p.
Die Zeiten sind eigentlich vorbei. Wenn man seine Speicherbudgets kennt weiß man recht genau wie viel Auflösung eine Textur höchstens haben darf. Und die lässt man dann auch in genau dieser Auflösung anfertigen. Das Oversizen kommt eigentlich aus den Zeiten der PC Entwicklung wo man am Anfang des Projekts nicht wusste was die Hardware am Ende des Projekts leisten wird.
Niemand will die Grafiker dafür bezahlen Details in die Texturen zu zeichnen die am Ende dann doch niemand sieht.
Finch
2013-02-25, 21:02:09
Selbst wenn die PS4 am anfang mit 2Gb RAM geplant war, ist es doch eher unrealistisch dass sony devkits mit weniger RAM (in diesem fall also 1.5 GB) ausliefert. Die dinger hatten doch in der Vergangenheit immer mehr RAM. Selbst zu PS2 Zeiten. Ich halte dass für ein Gerücht mit den 1.5Gb RAM...
Laienfrage meinerseits.
Wie groß wäre der ungefähr theotische Vorteil von 8 GIG GDDR RAm der PS4 gegenüber 8 GIG DDR3 RAM der Xbox 720 (oder wie dich auch immer heißen mag)
Oder anders gefragt wo wäre dann der Vorteil der PS4.
Falls man das überhaupt irgrendwie angeben kann.
Evtl. Die Anbindung. Glaube was von 176 GB/s <> 60GB/s gelesen zu haben.
y33H@
2013-02-25, 21:08:51
Die PS4 hat 176 GB/s für CPU und GPU, die Xbox Next soll 68 GB/s für CPU und GPU haben, letzterer stehen aber noch angeblich 32M ES-RAM mit 102 GB/s zur Verfügung.
EDIT
Die GPU der Xbox ist den Gerüchten nach allerdings klar langsamer was die reine Rechenleistung anbelangt (1,22 statt 1,84 TFLOPS).
Hayab
2013-02-25, 21:15:54
Ein weiterer Grund dafür, dass der RAM der PS4 bisher kaum ausgenutzt wird, könnte auch sein, dass entsprechender Content, der die 8 GiB füllt, einfach zu teuer ist.
Es wäre sicherlich eine interessante Situation, wenn die Grafikqualität der (Konsolen)Spiele hauptsächlich nicht mehr durch technische, sondern durch wirtschaftliche Ressourcen begrenzt wird. :)
Sculptingmodele haben grosse Texturen die dann ensprechend herunterskaliert werden. Eine verdoppelung der Texturgroesse zb. 1024x1024 auf 2048x2048 braucht gleich 4 mal so viel RAM. Dazu noch die MipMaps die braucht man auch, macht am ende 5-6 groessere Files.
Wenn man mehr Speicher hat kann man auch bessere Kompressionsmethoden fuer die Texturen verwenden. Besser bedeutet in dem Sinne nicht kleiner, sonder Qualitativ besser mit mehr Farbtiefe, besonders bei transparenten Texturen, die sanfte Alphachanneluebergaenge brauchen.
3D Modelle koennen auch mit Subdivision verfeinert werden, somit haben die mehr Polygone und sehen besser aus. Das kostet auch viel RAM.
Es gibt noch Tessalation, Shader, partikeleffekte, u.s.w. Mehr RAM bessere quali moeglich.
Das ist alles nur eine 3D Software Exporteinstellung bzw. sehr wenig Aufwand noetig um das zeug zu implementieren.
Teuer hingegen ist RAM sparen, weil man von 3D Modellen viele LODs erstellen muss, damit ein Model in 20m Enfernung nicht so viel Speicher braucht wie bei 2m.
Eine verdoppelung der Texturgroesse zb. 1024x1024 auf 2048x2048 braucht gleich 4 mal so viel RAM. Dazu noch die MipMaps die braucht man auch, macht am ende 5-6 groessere Files.
4 mal größere Files.
Die MipMaps wachsen ja nicht überproportional mit.
Morale
2013-02-25, 21:49:11
Mal wegen dem Preis, bei einer Konsole die 3-4 Jahre (mindestens) in Betrieb ist kommt es doch auf 50-100 Euro mehr oder weniger gar nicht drauf an.
Da w+rde ich einfach nehmen was mich mehr anspricht.
Kann die Leute nicht verstehen die sich dann ein Produkt nur kaufen weil es 50 Euro weniger kostet ;)
Finch
2013-02-25, 22:05:29
Die PS4 hat 176 GB/s für CPU und GPU, die Xbox Next soll 68 GB/s für CPU und GPU haben, letzterer stehen aber noch angeblich 32M ES-RAM mit 102 GB/s zur Verfügung.
EDIT
Die GPU der Xbox ist den Gerüchten nach allerdings klar langsamer was die reine Rechenleistung anbelangt (1,22 statt 1,84 TFLOPS).
Wenn die Gerüchte war sind, und ich gehe davon aus das sie es sind(gleiche Quelle wie bei der PS4), dann dürfte die ps4 einen eklatantem Vorteil haben.
Tesseract
2013-02-25, 22:58:13
Die Zeiten sind eigentlich vorbei. Wenn man seine Speicherbudgets kennt weiß man recht genau wie viel Auflösung eine Textur höchstens haben darf. Und die lässt man dann auch in genau dieser Auflösung anfertigen. Das Oversizen kommt eigentlich aus den Zeiten der PC Entwicklung wo man am Anfang des Projekts nicht wusste was die Hardware am Ende des Projekts leisten wird.
Niemand will die Grafiker dafür bezahlen Details in die Texturen zu zeichnen die am Ende dann doch niemand sieht.
der punkt ist, dass der arbeitsaufwand für den grafiker nicht linear mit der pixelzahl steigt sondern in vielen fällen wahrscheinlich kaum bis garnicht da sowieso eine vergleichbare anzahl von arbeitsschritten nötig ist., nur eben mit größeren brushes die mehr pixel abdecken usw.
klar kann man deutlich mehr arbeit reinstecken wenn man will, das könnte man aber bei aktuellen texturgrößen auch schon.
außerdem kann ich mir nicht vorstellen, dass die texturen in der größe bearbeitet werden in der sie dann im spiel landen. die finale texturgröße auf die hin designt wird mag fix sein, aber auf dieser größe wird doch keiner damit arbeiten. das wär ja eine einzel-pixel-klickerei. wie soll man da ein gutes resultat erzielen?
Knuddelbearli
2013-02-25, 23:02:06
was ich mich schon länger Frage:
gibt es auf dem PC dank den neuen Konsolen endlich mal deutlich merh als SSE2?
gerade AAA Spiele laufen doch heute schon leitungsmäßig nur auf PCs die sowieso min sse4 haben trotzdem wird meistens nur sse2 genutzt, gerade SSE 4 DPPS DPPD sollte doch gut was bringen ( jedenfalls mehr als 2500K vs 2700K )
megachip800
2013-02-25, 23:53:40
Die Ps4 GPU ist ein Customchip die stark erweitert wurde:
http://www.vgleaks.com/orbis-gpu-compute-queues-and-pipelines/
http://www.vgleaks.com/wp-content/uploads/2013/02/gpu_queues.jpg
http://arstechnica.com/civis/viewtopic.php?f=22&t=1193497&start=440
So, a couple of random things I've learned:
-It's not stock x86; there are eight very wide vector engines and some other changes. It's not going to be completely trivial to retarget to it, but it should shut up the morons who were hyperventilating at "OMG! 1.6 JIGGAHURTZ!".
-The memory structure is unified, but weird; it's not like the GPU can just grab arbitrary memory like some people were thinking (rather, it can, but it's slow). They're incorporating another type of shader that can basically read from a ring buffer (supplied in a streaming fashion by the CPU) and write to an output buffer. I don't have all the details, but it seems interesting.
-As near as I'm aware, there's no OpenGL or GLES support on it at all; it's a lower-level library at present. I expect (no proof) this will change because I expect that they'll be trying to make a play for indie games, much as I'm pretty sure Microsoft will be, and trying to get indie developers to go turbo-nerd on low-level GPU programming does not strike me as a winner.
Locuza
2013-02-26, 00:02:12
Das wäre dann ja auch C.I.
Important differences between S.I. and C.I. GPUs
•Multi queue compute
Lets multiple user-level queues of compute workloads be bound to the device and processed simultaneous. Hardware supports up to eight compute pipelines with up to eight queues bound to each pipeline.
Wird eig. eine ACE als compute-pipeline bezeichnet?
Wären ja demnach 8 Stück davon.
Gipsel hat ja mal etwas dazu geschrieben:
Mit GCN kamen dann die ACEs dazu (die 2 aktive [gleichzeitig abgearbeitete] Queues für Compute [neben dem Command Processor für Grafik] mitbrachten), bei C.I. wird das offenbar kräftig ausgebaut (8x8=64 Queues, davon 8 gleichzeitg aktiv [senden also Wavefronts an das Shaderarray], GK110 kann 32 Queues, davon offenbar maximal 16 aktiv). Dabei können über eine Queue bei GCN durchaus auch parallel ablaufende Kernel abgesetzt werden, sie dürfen dann nur keine Abhängigkeiten voneinander aufweisen (der Grafik-Command Processor kann das auch bei Abhängigkeiten machen, da die verschiedenen Pipelinestages genau definierte Abhängigkeiten haben).
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9658313&postcount=6315
Wäre damit eig. auch nicht bestätigt das die PS4 aller Vorraussicht nach Kaveri-Level bietet mit einem gemeinsamen Adressraum und coherent unified Memory?
C.I. bietet ja noch folgendes:
System unified addressing
Allows GPU access to process coherent address space.
•Device unified addressing
Lets a kernel view LDS and video memory as a single addressable memory. It also adds shader instructions, which provide access to “flat” memory space.
•Memory address watch
Lets a shader determine if a region of memory has been accessed.
•Conditional debug
Adds the ability to execute or skip a section of code based on state bits under control of debugger software. This feature adds two bits of state to each wavefront; these bits are initialized by the state register values set by the debugger, and they can be used in conditional branch instructions to skip or execute debug-only code in the kernel.
•Support for unaligned memory accesses
•Detection and reporting of violations in memory accesses
Gipsel
2013-02-26, 00:19:15
http://arstechnica.com/civis/viewtopic.php?f=22&t=1193497&start=440
So, a couple of random things I've learned:
-It's not stock x86; there are eight very wide vector engines and some other changes. It's not going to be completely trivial to retarget to it, but it should shut up the morons who were hyperventilating at "OMG! 1.6 JIGGAHURTZ!".Das sind vermutlich die 8 ACEs? :|
Locuza
2013-02-26, 00:47:39
Das sind vermutlich die 8 ACEs? :|
Wären damit nicht eher 256-Bit FP-Pipelines gemeint?
So könnte man doch auch AVX direkt ausführen.
Für gewöhnlich erweitern doch die Hersteller immer da etwas bei den CPUs.
Gipsel
2013-02-26, 00:57:48
Wären damit nicht eher 256-Bit FP-Pipelines gemeint?Welche? ;)
Außerdem qualifizieren sich 8 floats in meinen Augen noch nicht als "very wide vector", GPUs tun das schon eher (64 floats bei GCN).
Für gewöhnlich erweitern doch die Hersteller immer da etwas bei den CPUs.Hmm, wirklich? Nur weil damals Xenon für die XBox360 ein paar mehr Register und kleine Befehlssatzänderungen bekommen hat? Die Vektorbreite wurde gegenüber der Cell PPE nicht geändert. Das erfordert nämlich größere Umbauten am Kern. Dann wäre das kein Jaguar mehr.
Locuza
2013-02-26, 01:15:39
Die in den FPUs. :biggrin:
Da gäbe es ja kein Zusammenhang zwischen den ACEs, wen er von der CPU spricht.
Und bezüglich der SIMD-Engine.
Nintendo doch auch damals beim Gamecube Anpassungen vorgenommen, da hat IBM ja auch zusätzliche Befehle einem PPC 750CXe spendiert.
Gipsel
2013-02-26, 01:51:50
Die in den FPUs. :biggrin:Die sind 128 Bit. Es gibt gute Gründe dafür, das nicht zu ändern.
Da gäbe es ja kein Zusammenhang zwischen den ACEs, wen er von der CPU spricht.FWIW, der muß nicht mehr wissen, als wir alle hier. Der kann da auch einfach was in den falschen Hals bekommen habe, bei dem, was er eventuell aufgeschnappt hat. Der ganze Satz, daß es kein normaler x86er wäre und nicht ganz einfach wäre, dafür performant zu schreiben, schreit gerade danach, daß damit eigentlich Computeshader auf der GPU gemeint sind. Mit AVX hätte man dies nämlich nicht.
Und bezüglich der SIMD-Engine.
Nintendo doch auch damals beim Gamecube Anpassungen vorgenommen, da hat IBM ja auch zusätzliche Befehle einem PPC 750CXe spendiert.Ein paar zusätzliche Befehle sind ja auch kein größeres Problem. Die Verbreiterung der SIMD-Engines aber schon. Da muß man wirklich den kompletten Kern umkrempeln, mit verdoppelter Anbindung an den L1D und dem ganzen Rattenschwanz, der da noch dranhängt. Dann wäre das wie gesagt kein Jaguar mehr.
Locuza
2013-02-26, 02:05:32
Mhh, den Argumenten nach könnten die Jaguar-Cores ja auch kaum verändert sein, im Vergleich zu den Produkten die AMD bald auf den PC-Markt loslässt.
2 Compute-Units, 1.6Ghz und wenn es Sinn machen würde den L2-Cache @Clockspeed laufen zu lassen und sonst?
Man hört ja öfters die Gerüchte von "advanced Jaguar Processor".
Da sollte sich doch mit etwas Glück mehr dahinter verbergen, als zwei Compute-Units zusammengeschaltet.
Jules
2013-02-26, 02:29:49
von was soll ich denn sonst ausgehen? einem flugzeughangar? die wohnzimmer in europa gehören zu den größten, vor allem im vergleich zu asien. die alterantive wär eine VR-brille und eine art aufhängung in die man sich reinschnallt. das ist halt klassische virtual reality aber die hat mit kinect genau garnix zu tun.
brille und rumturnen ist eine ganz schlechte kombination. dazu müsste die halbdurchsichtig sein und augmented reality bieten und damit sind wir schon wieder ganz weit von kinect und dem wohnzimmer weg. anonsten kannst du dich auf viele verletzte inkl. klagen und einen ganzen haufen andere probleme einstellen.
außerdem geht es darum was man mit kinect machen kann, nicht was man mit kinect + 10 anderen geräten aus anderen forschungsbereichen machen kann. head mounted displays sind sicher geil, aber darum geht es ja garade garnicht.
http://www.youtube.com/watch?v=rnbUsgJpKqs
^^
Screemer
2013-02-26, 03:34:10
auf b3d gibts mal wieder die diskussion ob durango nicht doch ibm-cores hat:
http://beyond3d.com/showthread.php?p=1713042#post1713042
Karümel
2013-02-26, 10:18:17
Die PS4 hat 176 GB/s für CPU und GPU, die Xbox Next soll 68 GB/s für CPU und GPU haben, letzterer stehen aber noch angeblich 32M ES-RAM mit 102 GB/s zur Verfügung.
EDIT
Die GPU der Xbox ist den Gerüchten nach allerdings klar langsamer was die reine Rechenleistung anbelangt (1,22 statt 1,84 TFLOPS).
Aber ist dieser Unterschied in der Praxis wirklich relevant oder nur theoretischer Natur?
Gouvernator
2013-02-26, 10:38:52
Aber ist dieser Unterschied in der Praxis wirklich relevant oder nur theoretischer Natur?
Im späteren Verlauf am Ende der Zyklus sicher relevant. Die PS3 ist schon vor einigen Jahren BQ mäßig komplett "eingefroren", dagegen bekommt man auf Xbox noch verbesserte Games z.b. Forza Horizon mit rockstable 30FPS in 4xAA.
Deinorius
2013-02-26, 15:22:49
Ich tippe ja sehr stark auf The Last Guardian als Launchtitel ;)
THIS!
Darauf hoffe ich auch sehr! :D
Silentbob
2013-02-26, 15:30:41
Im späteren Verlauf am Ende der Zyklus sicher relevant. Die PS3 ist schon vor einigen Jahren BQ mäßig komplett "eingefroren", dagegen bekommt man auf Xbox noch verbesserte Games z.b. Forza Horizon mit rockstable 30FPS in 4xAA.
Das ist ja jetzt echt mal quatsch.
Nightspider
2013-02-26, 16:18:53
Gibts Facts in Bezug auf die verwendeten Audioprozessoren in PS4/XboxNext?
StefanV
2013-02-26, 17:17:29
auf b3d gibts mal wieder die diskussion ob durango nicht doch ibm-cores hat:
http://beyond3d.com/showthread.php?p=1713042#post1713042
Wohl wunschdenken von einigen Leuten...
Warum sollte man X86 mit anderen Cores kombinieren wollen??
Crazy_Bon
2013-02-26, 17:26:15
Gibts Facts in Bezug auf die verwendeten Audioprozessoren in PS4/XboxNext?
Soviel ich weiss, wurde bei der Xbox360 auf einen Soundchip verzichtet :eek:, das könnte auch die mehr oder weniger kleine Soundprobleme bei einigen Spielen erklären.
Die 720 soll, laut Gerüchten, hingegen einen sehr leistungsvollen DSP für u.a. 3D-Sound spendiert bekommen.
Gipsel
2013-02-26, 19:35:58
Warum sollte man X86 mit anderen Cores kombinieren wollen??Kompatibilität mit XBox360-Spielen?
Mr.Magic
2013-02-26, 19:52:28
Das der 360-Nachfolger abwärtskompatibel wird, kannst du vergessen. Als Sony die PS2-Kompatibilität aus der PS3 entfernte, hörte man sofort auf den Xbox-Emulator der 360 zu aktualisieren.
Watson007
2013-02-26, 20:03:44
Das der 360-Nachfolger abwärtskompatibel wird, kannst du vergessen. Als Sony die PS2-Kompatibilität aus der PS3 entfernte, hörte man sofort auf den Xbox-Emulator der 360 zu aktualisieren.
echt? wusste ich noch gar nicht. Kann man mal sehen was Konkurrenz bewirkt.....
LadyWhirlwind
2013-02-26, 20:24:08
Das der 360-Nachfolger abwärtskompatibel wird, kannst du vergessen. Als Sony die PS2-Kompatibilität aus der PS3 entfernte, hörte man sofort auf den Xbox-Emulator der 360 zu aktualisieren.
Gaikai schon vergessen? Müsste doch möglich sein das die PS4 eine eingelegte PS3 Disc erkennt, sie auf echtheit prüft und dann das PS3 spiel einfach streamt?
][immy
2013-02-26, 20:28:08
Das der 360-Nachfolger abwärtskompatibel wird, kannst du vergessen. Als Sony die PS2-Kompatibilität aus der PS3 entfernte, hörte man sofort auf den Xbox-Emulator der 360 zu aktualisieren.
das stimmt nicht ganz. es kamen noch einige kompatibilitäts-title, da man diese auch im Marktplatz ganz gut verkaufen konnte.
Dann kamen die Games On Demand für die 360 und schon kamen nur noch HD-Remakes.
Ich glaube schon sehr an die Abwärtskompatibilität, eventuell halt nur von wichtigen Titeln (die kein jährliches Refresh erfahren) aber grundsätzlich schon. Besonders die Arcade Sachen sollten kompatibel bleiben.
Nakai
2013-02-26, 20:33:53
Mhh, das IBM-Gerücht wieder. ;)
Und ja, ich glaube, dass wir was von IBM bekommen werden. Jaguar hin oder her, 4 x Power7 wäre schon ein heftiger Overkill.
mironicus
2013-02-26, 20:35:12
Vielleicht hat ja die neue Xbox sogar die alte 360-CPU als Co-Prozessor in verkleinerter Form mit integriert und jedes alte Spiel kann dann mittels der neuen GPU in 1080P nativ gerendert werden.
Das ist zwar nur ein "Traum" aber ich frage mich wie aufwändig oder wie teuer das wäre wenn man das alles in eine Konsole packen würde. Die IBM-CPU selbst im neuesten Fertigungsprozess dürfte ja ziemlich klein sein und wenig Strom fressen. Und die AMD-CPU/GPU ist ja auch nur ein einzelner Chip.
dildo4u
2013-02-26, 20:37:22
Die packen schon Kinect 2 mit rein,das würde alles zu teuer werden.Denke nicht das sie über 400€ gehen wollen.
mironicus
2013-02-26, 20:38:15
Wäre ein "Power7" abwärtskompatibel mit der alten 360-CPU?
Windi
2013-02-26, 21:02:47
Für die Abwärtskompatibilität braucht man ja nicht nur eine passende CPU sondern auch GPU.
Beim Grafikchip hat man auch den Hersteller und die Architektur gewechselt. Wenn da einige Entwickler sehr hardwarenah programmiert haben, dann sollte eine Emulation auch sehr schwer fallen. So unglaublich viel Leistung werden die neuen Konsolen ja nicht haben. Wenn MS jetzt bei jeder Konsole noch Kinect2.0, den alten Prozessor und den alten Grafikchip beilegt, dann würde das wohl alles viel zu teuer.
Das die Abwärtskompatibilität mit Hilfe von Gaikai eine gute Alternative ist bezweifle ich hingegen auch. Damit das funktioniert müsste Sony weltweit dutzende Serverfarmen mit alter PS3-Hardware + Encoder aufbauen. Das wäre eine gigantische Investitionssumme, die man irgendwie wieder rein holen müsste. Ohne eine hohe monatliche Gebühr oder eine Bezahlung pro Spielstunde wäre das kaum möglich.
Nakai
2013-02-26, 21:12:09
Huch, wo ist den der Hersteller gewechselt worden?
Ansonsten sollten alle Befehle von Xenos von GCN in irgendeiner Form supportet sein, oder irre ich mich da? :confused:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.