Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?
tobor
2013-01-20, 00:13:23
So unsinnig wäre es nicht, schließlich verfügt MS per Xbox Live über ein großes
HD (Film) Medien Angebot und das will auch online vertrieben werden.
Man sehe sich Apple Tv an.Wenn der Ausschluss von physischen Datentraegern und der Konkurrenzangebote nicht
mal Apple gelingt,dann Microsoft wohl ebensowenig.Ein Mediacenter,neben dem man dennoch einen Blu ray-player benoetigt,braucht niemand.
Exxtreme
2013-01-20, 00:20:18
Ich blicke da aber ehrlich gesagt immer noch nicht durch. Nehmen wir mal an es ist Faktor 2 bei den Konsolen. Auf welche Ausgangsbasis bezieht sich das dann? Ich meine, es passiert nicht gerade selten, dass die IHVs hier und da X% mehr Performance aus den Treibern herauskitzeln. Bezieht sich also dieser Faktor 2 auf den Zustand vor oder nach den "Optimierungen" der Treiber? Ich weiß... das Thema ist wohl komplizierter als ich denke. :usad:
PS: das mit den möglichen Drawcalls pro Frame bringt mich auch nicht wirklich weiter. Mir wäre lieber ein Vergleich fps vs. fps. :D
Man sollte den API-Overhead jetzt nicht überbewerten. Denn um das Spiel zu berechnen sind noch viel mehr Dinge nötig. Sprich, selbst wenn der Overhead auf dem PC sehr viel größer ist, macht das am Ende vielleicht 5% aus oder so. Und Micros~1 optimiert da auch weiterhin recht fleissig.
HarryHirsch
2013-01-20, 00:30:45
dumme frage und so:
was wird denn auf der ps4 als bs genutzt?
linux? wäre ja ogl und nicht vergleichbar.
del_4901
2013-01-20, 00:42:14
dumme frage und so:
was wird denn auf der ps4 als bs genutzt?
linux? wäre ja ogl und nicht vergleichbar.
Das wird dir wohl noch Niemand sagen koennen. Aber Linux werden wir wohl mit an Sicherheit grenzender Wahrscheinlichkeit ausschliessen koennen.
dargo
2013-01-20, 00:43:32
Man sollte den API-Overhead jetzt nicht überbewerten. Denn um das Spiel zu berechnen sind noch viel mehr Dinge nötig. Sprich, selbst wenn der Overhead auf dem PC sehr viel größer ist, macht das am Ende vielleicht 5% aus oder so. Und Micros~1 optimiert da auch weiterhin recht fleissig.
What? Jetzt sind es nur noch 5%? :confused:
Nicht, dass wir aneinander vorbeireden. Mich interessiert wie stark sich dieser Overhead am Ende in den fps wiederspiegelt. Es nützt mir nichts, wenn in irgendwelchen Bereichen die Konsole deutlich im Vorteil ist, am Ende aber nur bsw. 10% mehr fps bei rumkommen. Das ist ja so als ob ich jetzt den schnellsten Arbeitsspeicher in den Himmel loben würde, am Ende der aber in Spielen mit CPU X eben nur 5% (fiktive Zahl) mehr fps auf die Straße bringt.
dildo4u
2013-01-20, 00:45:05
dumme frage und so:
was wird denn auf der ps4 als bs genutzt?
linux? wäre ja ogl und nicht vergleichbar.
Open GL Specs sind auf ca auf einem Level mit DX11 gibt auch praktischen Einsatz,siehe z.b der Heaven Bench.
HarryHirsch
2013-01-20, 00:47:11
Das wird dir wohl noch Niemand sagen koennen. Aber Linux werden wir wohl mit an Sicherheit grenzender Wahrscheinlichkeit ausschliessen koennen.
was bleibt denn dann noch? eine hauseigene api?
damit wäre ms ja klar im vorteil.
dildo4u
2013-01-20, 00:48:33
AMD wird OpenGL Treiber für sony's OS bauen,das musste Nvidia auch bei der PS3 machen.
del_4901
2013-01-20, 00:49:39
PS: das mit den möglichen Drawcalls pro Frame bringt mich auch nicht wirklich weiter. Mir wäre lieber ein Vergleich fps vs. fps. :D
Nicht, dass wir aneinander vorbeireden. Mich interessiert wie stark sich dieser Overhead am Ende in den fps wiederspiegelt. Fps ist einfach eine ganz schlechte Metrik, weil da einfach zu viele Faktoren mit reinspielen. Von daher wird dir in Bezug auf die urspruengliche Frage zum Overhead da Keiner genaue Angaben machen koennen. Drawcalls ist die wesentlich bessere und genauere Metrik.
schreiber
2013-01-20, 00:52:16
Beim Sprung von DX9 auf DX10 sollten sich doch auch die Drawcalls massiv reduzieren. Gebracht hats in der Realität eher wenig, weil man offenbar auch schon bei DX9 sehr gut tricksen konnte, um diese Drawcalls zu minimieren.
Exxtreme
2013-01-20, 00:52:31
What? Jetzt sind es nur noch 5%? :confused:
Nicht, dass wir aneinander vorbeireden. Mich interessiert wie stark sich dieser Overhead am Ende in den fps wiederspiegelt. Es nützt mir nichts, wenn in irgendwelchen Bereichen die Konsole deutlich im Vorteil ist, am Ende aber nur bsw. 10% mehr fps bei rumkommen. Das ist ja so als ob ich jetzt den schnellsten Arbeitsspeicher in den Himmel loben würde, am Ende der aber in Spielen mit CPU X eben nur 5% (fiktive Zahl) mehr fps auf die Straße bringt.
Bei sowas gibt es keine festen Zahlen. Kann 2 - 3% sein, kann aber auch 1000% und mehr sein. Je nach dem ob das nah an der Hardware ist oder man ein bestimmtes Verhalten "in Software" nachbauen muss etc. Hängt vom Treiber, vom Spiel, von der Hardware, vom Verhältnis CPU/GPU und vom OS ab.
dargo
2013-01-20, 00:53:18
Fps ist einfach eine ganz schlechte Metrik, weil da einfach zu viele Faktoren mit reinspielen. Von daher wird dir in Bezug auf die urspruengliche Frage zum Overhead da Keiner genaue Angaben machen koennen. Drawcalls ist die wesentlich bessere und genauere Metrik.
Aber nicht für den Laien wie mich. ;( Für mich als Spieler zählen halt nur fps die hinten rauskommen. Also wird dieser Overhead doch ziemlich überbewertet?
del_4901
2013-01-20, 00:58:29
Aber nicht für den Laien wie mich. ;( Für mich als Spieler zählen halt nur fps die hinten rauskommen. Also wird dieser Overhead doch ziemlich überbewertet?
Naja ob man nun 1.000 oder 10.000 Objekte auf den Bildschirm gemalt bekommt macht fuer dich als Spieler schon einen Unterschied, oder nicht?
Der Vergleich in Bezug auf die fps bei 1.000 oder 10.000 ist weitaus schwerer zu beantworten, wenn ueberhaupt sinvoll oder gar moeglich. Deswegen waehre es wuenschenswert wenn die Spieler im allgemeinen weniger auf die fps oder eye-candy schauen wuerden und mehr auf das Gesamtpaket was Sie bekommen.
dargo
2013-01-20, 01:05:28
Naja ob man nun 1.000 oder 10.000 Objekte auf den Bildschirm gemalt bekommt macht fuer dich als Spieler schon einen Unterschied, oder nicht?
Der Vergleich in Bezug auf die fps bei 1.000 oder 10.000 ist weitaus schwerer zu beantworten, wenn ueberhaupt sinvoll oder gar moeglich. Deswegen waehre es wuenschenswert wenn die Spieler im allgemeinen weniger auf die fps oder eye-candy schauen wuerden und mehr auf das Gesamtpaket was Sie bekommen.
Aber gerade das macht mich so stutzig. Wenn die Konsole so viel im Vorteil ist warum sehen die Spiele darauf so detailarm aus im Vergleich zum PC? Irgendwo müsste man doch die deutliche Überlegenheit sehen können.
schreiber
2013-01-20, 01:12:01
Details wollen auch hübsch mit Texturen überzogen werden. Und am Speicher für dieses mangelt es doch den Konsolen.
del_4901
2013-01-20, 01:12:13
Aber gerade das macht mich so stutzig. Wenn die Konsole so viel im Vorteil ist warum sehen die Spiele darauf so detailarm aus im Vergleich zum PC? Irgendwo müsste man doch die deutliche Überlegenheit sehen können.
Die Current Gen Konsolen sind jetzt 7 Jahre alt, vergleich doch einfach mal Multiplatform Titel auf der PC-Hardware von damals.
dargo
2013-01-20, 01:24:44
Die Current Gen Konsolen sind jetzt 7 Jahre alt, vergleich doch einfach mal Multiplatform Titel auf der PC-Hardware von damals.
Das tue ich. Ich habe Crysis 1 mit einer Geforce 8800GTS (640MB) damals in 1280x960 ohne Probleme mit High Details (zwei Sachen waren afaik auf Medium) gespielt. Schau dir mal Crysis 1 auf Konsole an. Vorallem die Objektdichte, Schattendetails etc. Die Konsolenversion ist mit der CE3 sogar im Vorteil was Engine-Effizienz angeht. Und soo weit ist die Grafikkarte nun auch nicht vom Xenos entfernt.
Details wollen auch hübsch mit Texturen überzogen werden. Und am Speicher für dieses mangelt es doch den Konsolen.
Da ist natürlich auch was dran. In irgendeinem Teilbereich deutliche Überlegenheit nützt nichts wenn die "Tapeten" im gesamten Bild matschig rüberkommen. Da wirkt jedenfalls für mich das Gesamtbild schon deutlich schlechter.
del_4901
2013-01-20, 01:33:29
Das tue ich. Ich habe Crysis 1 mit einer Geforce 8800GTS (640MB) damals in 1280x960 ohne Probleme mit High Details (zwei Sachen waren afaik auf Medium) gespielt. Schau dir mal Crysis 1 auf Konsole an. Vorallem die Objektdichte, Schattendetails etc. Die Konsolenversion ist mit der CE3 sogar im Vorteil was Engine-Effizienz angeht. Und soo weit ist die Grafikkarte nun auch nicht vom Xenos entfernt.
Ich glaube da spielt dir deine Wahrnehmung (Erinnerungsvermoegen) einen einen Streich. Kram die alte Hardware einfach nochmal raus. Crysis 1 waehre jetzt auch nicht meine erste Wahl gewesen. Der Port ist lieblos, der (Game) Code noch ziehmlich ineffizient und die Engine Versionen einfach viel zuweit auseinander um halbwegs (verlaessliche) Aussagen ueber die den Overhead machen zu koennen, mit denen wir zu kaempfen haben.
dargo
2013-01-20, 01:44:13
Ich glaube da spielt dir deine Wahrnehmung (Erinnerungsvermoegen) einen einen Streich.
Ich kann dir garantieren, dass C1 damit damals problemlos lief. Natürlich nur mit max. 2xMSAA. Es gab Stellen wo ich sogar auf 1xAA runterging damit die Framerate noch bei ~30fps blieb. Die Schatten waren auf jeden Fall auf Medium und noch was. Weiß aber nicht mehr was.
Kram die alte Hardware einfach nochmal raus.
Das wird jetzt nicht drin sein. ;)
Crysis 1 waehre jetzt auch nicht meine erste Wahl gewesen. Der Port ist lieblos der (Game) Code noch ziehmlich ineffizient und die Engine Versionen einfach zuweit auseinander um (halbwegs) verlaessliche Aussagen ueber die den Overhead machen zu koennen, mit denen wir zu kaempfen haben.
Naja... man kann aber auch schlecht irgendeinen anderen Port von damals nehmen. Ich erinnere mich noch allzu gut daran wie miserabel die ersten Ports am PC performt haben. Das hat sich erst 2007 (wenn mich meine Erinnerung nicht täuscht) deutlich gebessert. Ich meine schau dir nur mal bsw. das hier an. :freak:
http://www.computerbase.de/artikel/grafikkarten/2007/test-ati-radeon-hd-2400-xt-und-hd-2600-xt/12/
http://www.computerbase.de/artikel/grafikkarten/2007/test-ati-radeon-hd-2400-xt-und-hd-2600-xt/18/
http://www.computerbase.de/artikel/grafikkarten/2007/test-ati-radeon-hd-2400-xt-und-hd-2600-xt/20/
del_4901
2013-01-20, 01:55:21
Naja... man kann aber auch schlecht irgendeinen anderen Port von damals nehmen. Ich erinnere mich noch allzu gut daran wie miserabel die ersten Ports am PC performt haben. Das hat sich erst 2007 (wenn mich meine Erinnerung nicht täuscht) deutlich gebessert.
Naja du musst schon irgendwas nehmen wo der Code vom PC noch ziemlich nah dran ist an der Konsole. Du kannst ja nur so den APi Overhead und die Optimierungen durch die geschlossene Plattform mithilfe der fps Metrik messen wenn die Detaileinstellungen vergleichbar sind. Was dann immernoch ziehmlich ungenau ist. Wenn du jetzt ein Crisis 1 ranziehst, dann misst du doch die Verbesserungen/Aenderungen/Optimierungen die sich ueber Jahre in der Engine angesammelt haben mit. Es ist so schon schwer genug damit Rueckschluesse auf den Overhead zu ziehen, da muss man nicht noch "kuenstlich die Statistik tuerken". Ich wuerde von daher eher ein CoD, Battlefield oder Mass Effekt zum Vergleich ran ziehen die zur gleichen Zeit erschienen sind.
Blediator16
2013-01-20, 01:57:25
http://www.reddit.com/r/Games/comments/16tttt/orbis_unmasked_what_to_expect_from_the_nextgen/c7zfgtg
Hier schreibt jemand seinen "Wissenstand" auf Reddit nieder. Natürlich mit einer Salzladung genießen.
dargo
2013-01-20, 02:01:20
@AlphaTier
Ich verstehe worauf du hinauswillst. So ein Vergleich wird aber nahezu unmöglich. Kein Entwickler verrät mir ob die PC-Version exakt die gleichen Details @max. hat wie die Konsolenversion. Zudem gabs wie gesagt damals sehr viele Ports die katastrophal umgesetzt wurden. Ich weiß nicht inwieweit wir hier mit CoD2 kommen.
http://www.computerbase.de/artikel/grafikkarten/2007/test-ati-radeon-hd-2400-xt-und-hd-2600-xt/11/
Leider ist da keine Konsolenauflösung bei. Und wenn mich nicht alles täuscht lief CoD2 auf Konsolen sogar unter 720p.
AMD wird OpenGL Treiber für sony's OS bauen,das musste Nvidia auch bei der PS3 machen.
PS3 ist LibGCM. Kein AAA Spiel verwendet OpenGL - Und vielleicht überhaupt keins. Ich wäre jedenfalls überrascht.
del_4901
2013-01-20, 02:12:42
Ich verstehe worauf du hinauswillst. So ein Vergleich wird aber nahezu unmöglich. Kein Entwickler verrät mir ob die PC-Version exakt die gleichen Details @max. hat wie die Konsolenversion.Ja das ist ein bisschen Gluecksspiel. Die Pixel lassen sich noch auszaehlen. Und im Windowed modus vllt. sogar flexibel einstellen. Bei den Detail Settings muss man versuchen die so gleich wie moeglich einzustellen, was keine Frage viel Arbeit waehre.
Zudem gabs wie gesagt damals sehr viele Ports die katastrophal umgesetzt wurden. Ich weiß nicht inwieweit wir hier mit CoD2 kommen.Wiso denn so nen alten Titel? Nimm doch ruhig was aktuelles (Black Ops 1/2), die Hardware der Konsolen hat sich doch auch nicht ueber die Jahre veraendert, solange es also auf einem PC von vor 7 Jahren mit aktueller Software laeuft.
Ich kann dir meine Messungen nicht geben, was ich aber machen kann: Ich kann dir sagen wie ich mit deinen Mitteln an die Sache rangehen wuerde, wenn du fps messen moechtest. Um (wenn auch immernoch ungenaue) Daten zu messen, um wenigstens ein Gefuehl dafuer zu bekommen, um welche Groessenordnung es geht.
dildo4u
2013-01-20, 02:38:43
PS3 ist LibGCM. Kein AAA Spiel verwendet OpenGL - Und vielleicht überhaupt keins. Ich wäre jedenfalls überrascht.
Ah ok basiert auf Open GL ES und Nvidia CG.http://en.wikipedia.org/wiki/PlayStation_3_system_software
Fragt sich nur wie sie alle Funktionen der AMD GPU bei der PS4 nutzen werden.
Ah ok basiert auf Open GL
Tut es nicht, die API ist viel direkter auf der Hardware als OpenGL und sieht auch völlig anders aus. CG wird aber als Shader-Compiler eingesetzt.
basti333
2013-01-20, 02:55:53
Ja AMD liefert CPU's und GPUs.
Ist das nicht eine kleine revolution, wenn die Konsolen und der PC so künftig so eng aneinander rücken werden?! Die 720 soll ja angeblich sogar mit einer Win 8 abwandlung kommen.
del_4901
2013-01-20, 03:00:20
Ist das nicht eine kleine revolution, wenn die Konsolen und der PC so künftig so eng aneinander rücken werden?! Die 720 soll ja angeblich sogar mit einer Win 8 abwandlung kommen.
Ja und nein. Der PC ist immernoch offen, zersplittert und hat keinen Unified Memory. Es waehre ein Schritt in die Richtung aber fuer die Entwickler wuerde sich nicht viel aendern.
dildo4u
2013-01-20, 03:05:54
Man könnte auf Konsole z.b AVX/FMA3 nutzen auf PC wohl noch lange nicht.
Demogod
2013-01-20, 03:25:28
Du meinst spezielle CPU Features wo die PC Spiele vllt nur SSE3 vorraussetzen?
dildo4u
2013-01-20, 03:32:04
Du meinst spezielle CPU Features wo die PC Spiele vllt nur SSE3 vorraussetzen?
Ja SSE3 könnte man Heute voraussetzen ist aber auch schon uralt(2004) gab's seit Pentium 4 Prescott.AVX ist von 2011 und FMA3 wird bei Intel erst mit Haswell möglich,beides würde den Markt für das jeweilige Game extrem beschränken.(Kaum wirtschaftlich)
basti333
2013-01-20, 03:47:23
Also ist kaum eine einfachere und kostengünstigere Portierung zwischen den drei Plattformen erwartbar...?
Ist das nicht eine kleine revolution, wenn die Konsolen und der PC so künftig so eng aneinander rücken werden?! Die 720 soll ja angeblich sogar mit einer Win 8 abwandlung kommen.
War bei der Xbox 360 doch nicht anders. Ist auch nur ein abgewandelter Windows-NT-Kernel und man hat auch gegen die üblichen Windows-APIs programmiert.
Die PS4 wird voraussichtlich immer noch am meisten Kopfschmerzen bereiten, aber lange nicht so sehr wie die PS3.
del_4901
2013-01-20, 04:42:46
Die PS4 wird voraussichtlich immer noch am meisten Kopfschmerzen bereiten, aber lange nicht so sehr wie die PS3.
Niemals, Sony hat aus den vergangenen Fehlern gelernt! :uroll:
=Floi=
2013-01-20, 07:21:22
wie sind denn eigentlich die alten (PS2 PS1 XB1) und ganz alten (NES SNES N64) konsolen in der komplexizität der programmierung einzustufen? wurde es da mit der ps3 dann simpler oder durch die optimirungen eher komplizierter? aktuelle konsolen haben ja eine eigene API und angepasste tools. Die alten gurken dürften aber da doch hartwarenäher zu programmieren gewesen sein?!
][immy
2013-01-20, 10:12:33
wie sind denn eigentlich die alten (PS2 PS1 XB1) und ganz alten (NES SNES N64) konsolen in der komplexizität der programmierung einzustufen? wurde es da mit der ps3 dann simpler oder durch die optimirungen eher komplizierter? aktuelle konsolen haben ja eine eigene API und angepasste tools. Die alten gurken dürften aber da doch hartwarenäher zu programmieren gewesen sein?!
Weniger Features = weniger Komplexität. Nicht das es damals einfacher gewesen wäre, aber da heute einfach mehr möglich ist, ist alles auch weniger berechenbar.
Man könnte auf Konsole z.b AVX/FMA3 nutzen auf PC wohl noch lange nicht.
Kommt darauf an, ob M$ Jaguar oder BD-Architektur wählt. Bei BD würde die Software auf dem PC durchaus profitieren von FMA4 (nicht 3) und AVX. Die Portierung von XBox zu PC ist entweder extrem simpel oder garnicht nötig.
Auf jeden fall aber sollte klar sein, dass bei bei diesen Spielen mit einem 32Bit OS aus dem Rennen ist.
Deinorius
2013-01-20, 10:56:52
Bei BD würde die Software auf dem PC durchaus profitieren von FMA4 (nicht 3) und AVX.
Jaguar verfügt auch über AVX!
www.planet3dnow.de/photoplog/file.php?n=21296&w=l
Auf jeden fall aber sollte klar sein, dass bei bei diesen Spielen mit einem 32Bit OS aus dem Rennen ist.
Ziemlich sicher sogar. Egal, ob es jetzt 4 GB oder gar 8 werden. Bei letzterem erst recht.
tobor
2013-01-20, 11:28:13
http://www.reddit.com/r/Games/comments/16tttt/orbis_unmasked_what_to_expect_from_the_nextgen/c7zfgtg
Hier schreibt jemand seinen "Wissenstand" auf Reddit nieder. Natürlich mit einer Salzladung genießen.
Eine Spielkonsole,die nicht subventioniert wird,werde ich mir ganz sicher nicht kaufen. Denn da stellt sich mir unweigerlich die Frage,wodurch dann der hoehere Preis fuer Konsolenspiele gerechtfertigt ist. Die Qualitaetskontrolle war jedenfalls ein Witz angesichts der Flut von Patches fuer Konsolenspiele diese Gen...
Demirug
2013-01-20, 11:48:31
Ziemlich sicher sogar. Egal, ob es jetzt 4 GB oder gar 8 werden. Bei letzterem erst recht.
Es könnte auch durchaus beides unterstützt werden.
Wenn es nur 4 GB sind und es keinen virtuellen Speicher (Swap, File Mapping) gibt sind 64 bit eigentlich Verschwendung. Wenn die Dev Version aber den 32 Bit Adressraum sprengt würden die meisten Entwickler wohl den zusätzlichen Speicherverbrauch bei 64 Bit aber in Kauf nehmen um keine zwei Versionen pflegen zu müssen.
del_4901
2013-01-20, 12:11:29
Wenn es nur 4 GB sind und es keinen virtuellen Speicher (Swap, File Mapping) gibt sind 64 bit eigentlich Verschwendung. Wenn die Dev Version aber den 32 Bit Adressraum sprengt würden die meisten Entwickler wohl den zusätzlichen Speicherverbrauch bei 64 Bit aber in Kauf nehmen um keine zwei Versionen pflegen zu müssen.
Moep, Einspruch! Der virtuelle Adressraum kann dir auch fragmentieren. Beispiel man hat eine grosse Allokation und auch noch genuegend physikalische Seiten uebrig, aber im virtuellen Adressraum ist einfach kein Platz mehr um die am Stueck unterzubringen. Das kann einem schon bei der PS360 passieren. Ich habe da schon wahnwitzige Konstruktionen gesehen, wo man 2 Prozesse (jeder seinen eigenen virtuellen Adressraum) gestartet hat, die dann irgendwie ueber shared Memory und Pipes kommuniziert haben, um mehr virtuelle Adressen zu bekommen. Bei einem 64bit Adressraum findet sich sicher noch ein Plaetzchen.
Jaguar verfügt auch über AVX!
www.planet3dnow.de/photoplog/file.php?n=21296&w=l
Aber nicht über FMA.
AnarchX
2013-01-20, 12:44:59
Wäre das bei einem Custom-Jaguar nicht nachrüstbar?
Machbar ist alles. Du kannst ausgehend von Jaguar jeden erdenklichen Prozessor der Welt entwickeln. Müsste man die FPU schon ziemlich stark ändern dafür.
Wäre das bei einem Custom-Jaguar nicht nachrüstbar?Ginge sicherlich, wäre aber ein ziemlicher Aufwand. Glaube kaum, dass man sich bei MS oder Sony leisten würde. Es gilt doch "Hauptsache billig", deswegen gabs bei der letzten Xbox auch (ur)alte PPC-Kerne, das war keine Sonderanfertigung, sondern gut abgehangene Lagerware. Das Geld für ein Kern-Redesign stecken sie ganz sicher eher in EDRAM oder sonstige Verbesserungen an der GPU/Speicherinterface
Es gilt doch "Hauptsache billig", deswegen gabs bei der letzten Xbox auch (ur)alte PPC-Kerne, das war keine Sonderanfertigung, sondern gut abgehangene Lagerware.
Das stimmt so nicht. Die Xbox-Kerne wurden parallel zur Cell-PPE entwickelt. Beide sind weitgehend identisch, aber es gibt Microsoft spezifische Anpassungen.
AnarchX
2013-01-20, 13:14:59
Da ist wohl die Frage ob die FMA4-FPU schon auf Bulk synthetisierbar ist und wie groß der Platzbedarf wäre.
Oder sind bei einer HSA entsprechende Berechnungen besser auf der GPU aufgehoben?
FMA4 gibts mMn nur mit SR-Kernen. Der Verschiebung von Kaveri müssen keine technischen Gründe erwirkt haben, es könnte auch schlicht Platzmangel bei GloFo gewesen sein, weil die 28nm APUs für die Konsolen einfach Vorrang hatten und in recht großen Mengen zum Jahresende verfügbar sein müssen. Ich glaube ehrlichgesagt weder an Jaguar noch ein Piledriver. Jaguar ist einfach zu schlapp und über 2,5GHz bei 28nm LP zu unrentabel, und bei Piledriver wird man sich nicht die Mühe machen den auf 28nm zu schrumpfen und in 32nm SHP kommen keine Konsolen APUs, das wär viel zu teuer. Hinzu kommt, dass nirgendwo die Rede von Problemen bei SR war, über 2GHz Takt soll schon gerüchtehalber in 2012 beim Tapeout möglich gewesen sein. Bei SR würde auch maximal 2,5GHz Takt reichen, also den Rahmen von 28nm Bulk LP nicht sprengen, was eine echt wichtige Sache ist, weil die TDP sehr limitierend sein dürfte - bei 35W dürfte bei der APU schluss sein.
Damit würde Richland plötzlich auch in einem völlig anderen Licht darstehen, denn die 32nm SHP müssen ja weiter genutzt werden, bis genügend auf 28nm umgerüstet ist bei GloFo. AMD erstzt ja A4 und A6 durch 28nm Kabinis, was mehr Kapazitätsverbrauch bei TSMC bedeutet. Es ist also unwahrscheinlich, dass AMD die Konsolen APUs ebenfalls bei TSMC fertigen lässt, ich bezweifle, dass AMD soviele 28nm-Kontingente bei TSMC erwerben konnte. Die 28nm Zusatz-GPUs für die Konsolen müssen ja auch noch bei TSMC untergebracht werden.
Es wird klar, was diese Konsolen für ein Riesenprojekt für AMD sind.
Locuza
2013-01-20, 13:51:47
Ginge sicherlich, wäre aber ein ziemlicher Aufwand. Glaube kaum, dass man sich bei MS oder Sony leisten würde. Es gilt doch "Hauptsache billig", deswegen gabs bei der letzten Xbox auch (ur)alte PPC-Kerne, das war keine Sonderanfertigung, sondern gut abgehangene Lagerware. Das Geld für ein Kern-Redesign stecken sie ganz sicher eher in EDRAM oder sonstige Verbesserungen an der GPU/Speicherinterface
Einen Tricore mit 3.2 Ghz und VMX128 hättest du damals in keinem IBM Lager gefunden.
Die ATI GPU auch nicht.
Cell war auch keine billige Sache, das ganze Flex-Interface auch nicht + XDR.
Hauptsache billig, war bei den ganzen Tweaks irgendwie nicht so zutreffend.
Das könnte dieses mal vielleicht gelten, nachdem man keine Lust auf weitere Mrd. Miese hat. :redface:
@ AlphaTier
Danke für die Ausführungen.
Das stimmt so nicht. Die Xbox-Kerne wurden parallel zur Cell-PPE entwickelt. Beide sind weitgehend identisch, aber es gibt Microsoft spezifische Anpassungen.Naja, aber eher Kleinigkeiten, oder? (Habe davon noch nicht gehört) Für FMA müsste man schon ziemlich viel umstricken, sieht man ja auch bei Intel, dass das nicht so Hoppla-Hopp geht.
Einen Tricore mit 3.2 Ghz und VMX128 hättest du damals in keinem IBM Lager gefunden.
Die ATI GPU auch nicht.
Cell war auch keine billige Sache, das ganze Flex-Interface auch nicht + XDR.
Hauptsache billig, war bei den ganzen Tweaks irgendwie nicht so zutreffend.
Aufpassen, dass man beim Interconnect oder Speicherinterface investiert hab ich explizit angesprochen. Aber direkt an der Kernarchitektur macht man weniger, wobei ich jetzt gespannt bin, was das genau war, was Coda meinte, mal googeln.
Knuddelbearli
2013-01-20, 14:20:07
FMA4 gibts mMn nur mit SR-Kernen. Der Verschiebung von Kaveri müssen keine technischen Gründe erwirkt haben, es könnte auch schlicht Platzmangel bei GloFo gewesen sein, weil die 28nm APUs für die Konsolen einfach Vorrang hatten und in recht großen Mengen zum Jahresende verfügbar sein müssen. Ich glaube ehrlichgesagt weder an Jaguar noch ein Piledriver. Jaguar ist einfach zu schlapp und über 2,5GHz bei 28nm LP zu unrentabel, und bei Piledriver wird man sich nicht die Mühe machen den auf 28nm zu schrumpfen und in 32nm SHP kommen keine Konsolen APUs, das wär viel zu teuer. Hinzu kommt, dass nirgendwo die Rede von Problemen bei SR war, über 2GHz Takt soll schon gerüchtehalber in 2012 beim Tapeout möglich gewesen sein. Bei SR würde auch maximal 2,5GHz Takt reichen, also den Rahmen von 28nm Bulk LP nicht sprengen, was eine echt wichtige Sache ist, weil die TDP sehr limitierend sein dürfte - bei 35W dürfte bei der APU schluss sein.
Damit würde Richland plötzlich auch in einem völlig anderen Licht darstehen, denn die 32nm SHP müssen ja weiter genutzt werden, bis genügend auf 28nm umgerüstet ist bei GloFo. AMD erstzt ja A4 und A6 durch 28nm Kabinis, was mehr Kapazitätsverbrauch bei TSMC bedeutet. Es ist also unwahrscheinlich, dass AMD die Konsolen APUs ebenfalls bei TSMC fertigen lässt, ich bezweifle, dass AMD soviele 28nm-Kontingente bei TSMC erwerben konnte. Die 28nm Zusatz-GPUs für die Konsolen müssen ja auch noch bei TSMC untergebracht werden.
Es wird klar, was diese Konsolen für ein Riesenprojekt für AMD sind.
MS und Sony werden die Chips wie auch in der aktuellen Generation sicher selber Fertigen da hat AMD also nix mit am Hut
@HOT:
Ne, FMA4 gibts doch seit dem ersten Bulldozer, FMA3 gibts seit Piledriver. Das ist also kein SR-Merkmal.
Da ist wohl die Frage ob die FMA4-FPU schon auf Bulk synthetisierbar ist und wie groß der Platzbedarf wäre.
Oder sind bei einer HSA entsprechende Berechnungen besser auf der GPU aufgehoben?Die könnte man sicherlich nicht 1:1 übernehmen, die Pipelinestages sind - wenn ich mich recht erinnere - auf nen hohen Takt ausgelegt, realtiv primitive Sachen brauchen 2 statt 1 Takt, auch Multiplikationen sind relativ langsam, wenn ich Dredenboys Analyse recht im Kopf habe.
Das wäre bei ~2 GHz Takt also ziemlich schlecht. Auf die schnelle könnten sie FMA wohl über ne "Bridge" zwischen der Mul und ADD Pipe nachrüsten, da gabs mal Patente dafür. Möglich wärs, und nächstes Jahr soll ja laut Fuad "Beema" mit Jaguar+ Cores kommen. Wenn man spekuliert, dass Beema ein Jaguar@GF ist (ähnlich wie die gestrichenen Wichita ein Bobcat@GF waren) und die Konsolenchips vielleicht auch bei GF hergestellt werden, könnte man darüber spekulieren, dass bei den Konsolen auch schon Jaguar+ Kerne eingesetzt werden. Aber halt ziemlich substanzlos, pures Nebelgestocher.
Da müsste man das Pferd mal von hinten aufzäumen:
Brächte FMA für Spielecode überhaupt was?
Paradedisziplin von FMA sind Matrizenrechnungen, gibts sowas überhaupt bei Spielen? Bei KIs vielleicht? Hab leider 0-Ahnung.
Käsetoast
2013-01-20, 14:38:55
Paradedisziplin von FMA sind Matrizenrechnungen, gibts sowas überhaupt bei Spielen? Bei KIs vielleicht? Hab leider 0-Ahnung.
Sowas gibt's immer. Schon beim Pathfinding gibt's reichlich Vektor- und Matrizenrechnungen...
Sowas gibt's immer. Schon beim Pathfinding gibt's reichlich Vektor- und Matrizenrechnungen...
So ein A* wirft mit Matrizenrechnungen nur so um sich.
:facepalm:
So ein A* wirft mit Matrizenrechnungen nur so um sich.
:facepalm:
:D
Locuza
2013-01-20, 15:17:10
Naja, aber eher Kleinigkeiten, oder? (Habe davon noch nicht gehört) Für FMA müsste man schon ziemlich viel umstricken, sieht man ja auch bei Intel, dass das nicht so Hoppla-Hopp geht.
Aufpassen, dass man beim Interconnect oder Speicherinterface investiert hab ich explizit angesprochen. Aber direkt an der Kernarchitektur macht man weniger, wobei ich jetzt gespannt bin, was das genau war, was Coda meinte, mal googeln.
Hauptsache billig klang irgendwie so allgemein.
Und ich glaube schon das da bei der CPU eine Menge getan wurde oder siehst du die Cell PPE als Lagerware?
Hier zwei interessante Sachen dazu.
http://forum.beyond3d.com/showthread.php?t=23419
http://www.realworldtech.com/cell-update/4/
Meinem Verständnis nach waren das immer praktisch 3 PPEs zusammengeklebt mit zusätzlichen Registern und paar Befehlen.
Aber irgendwo beim SA hat auch ein User felsenfest immer behauptet, man hat noch etwas am SMT-Sheduling gedreht und das auch die Xenon "PPE" mehr Integer-Pipes hat, wobei ich kein Diagramm gefunden habe, welches schön alles aufzeigt.
Tesseract
2013-01-20, 15:23:03
Paradedisziplin von FMA sind Matrizenrechnungen, gibts sowas überhaupt bei Spielen? Bei KIs vielleicht? Hab leider 0-Ahnung.
nahezu jede berechnung im 3D-raum findet mit matrizen statt. die sind quasi eine erweiterung der vektoren und können objekte nicht nur verschieben (vektoraddition) sondern auch drehen, verzerren (perspektive) usw.
das meiste davon findet aber klarerweise direkt auf der GPU statt.
Danke Euch beide für die Infos.
Da war die PPE zwar doch ziemlich getunt, aber auf realworldtech vermuten sie eher, dass Apple der Grund war. Ist ja recht komplex das Ganze und dann damals sicherlich auch noch per Hand entworfen, nur für MS hätten sies wohl nicht gemacht. Aber genau werden wirs wohl nie wissen.
Locuza
2013-01-20, 16:26:01
Danke Euch beide für die Infos.
Da war die PPE zwar doch ziemlich getunt, aber auf realworldtech vermuten sie eher, dass Apple der Grund war. Ist ja recht komplex das Ganze und dann damals sicherlich auch noch per Hand entworfen, nur für MS hätten sies wohl nicht gemacht. Aber genau werden wirs wohl nie wissen.
Ich glaube eher Sony hat den Auftrag gegeben, IBM angefangen mit Toshiba und Sony was zu machen und da jeder Zugang zur Technologie hatte und daran modifizieren und vermarkten durfte was er wollte, haben sie sicher auch versucht die entwickelte Technologie auf so viele Felder wie möglich umzusetzen.
Die Xbox 360 war so ein Kandidat und scheinbar wollte man es Apple im Zuge der angehenden Entwicklungen auch aufdrehen, um den Wechseln aufzuhalten.
Käsetoast
2013-01-20, 16:35:43
So ein A* wirft mit Matrizenrechnungen nur so um sich.
:facepalm:
Weil ein simpler A* wie man ihn in jedem Furz-Tutorial findet ja auch die Crème de la Crème für alle Einsatzzwecke ist...
http://gabrielchapman.com/wp-content/uploads/2012/12/double-facepalm.jpg
:tongue:
Knuddelbearli
2013-01-20, 16:50:54
da hier davor das Problem Parallelisierung aufkam
wäre ein biglittle Konzept für Konsolen nicht irgendwann sinnvoll ? so 3 Kerne für Sachen die sich schlecht parallelisieren lassen und weitere 6 für bessere Parallelisierbaren Code ( und für perfekt parallelisierbaren Code dann die GPU )
del_4901
2013-01-20, 17:25:33
wäre ein biglittle Konzept für Konsolen nicht irgendwann sinnvoll ? so 3 Kerne für Sachen die sich schlecht parallelisieren lassen und weitere 6 für bessere Parallelisierbaren Code ( und für perfekt parallelisierbaren Code dann die GPU )
Das hatten wir bei der PS3, nein danke! Gibt nur Probleme wenn alle nur die fetten Kerne haben wollen.
Weil ein simpler A* wie man ihn in jedem Furz-Tutorial findet ja auch die Crème de la Crème für alle Einsatzzwecke ist...Du hast doch Pathfinding vorgeschlagen, und hier ist A* immernoch das Rückgrat fuer viele moderne Algorithmen.
http://h16free.com/wp-content/uploads/2013/01/another-triple-facepalm.jpg
][immy
2013-01-20, 17:36:20
da hier davor das Problem Parallelisierung aufkam
wäre ein biglittle Konzept für Konsolen nicht irgendwann sinnvoll ? so 3 Kerne für Sachen die sich schlecht parallelisieren lassen und weitere 6 für bessere Parallelisierbaren Code ( und für perfekt parallelisierbaren Code dann die GPU )
Einfach mal abwarten, eventuell wird es ja ne Art turbo-Technik geben. Höherer Takt, aber weniger kerne.inzwischen sind wir eh bei PC Prozessoren wo das ja schon fast normal ist.
Knuddelbearli
2013-01-20, 18:23:23
][immy
Turbo ist ein entweder oder da Kerne komplett schlafen gelegt werden müssen
Weder Intel noch AMD noch ARM ( oder soweit ich weiß IBM ) unterstützen bisher eine dynamische taktung
Weil ein simpler A* wie man ihn in jedem Furz-Tutorial findet ja auch die Crème de la Crème für alle Einsatzzwecke ist...
Bei der üblichen Pfadlänge in den meisten Spielen ja.
In der Pfadnachbearbeitung hat man oft ein paar mehr geometrische Operationen drin. Aber die spielt, wenn sie sauber implementiert ist, vom Rechenzeitverbrauch her normalerweise keine Rolle.
Käsetoast
2013-01-20, 19:31:40
Du hast doch Pathfinding vorgeschlagen, und hier ist A* immernoch das Rueckrad fuer viele moderne Algorithmen.
http://h16free.com/wp-content/uploads/2013/01/another-triple-facepalm.jpg
Natürlich ist A* ein oftmals benutztes Rückgrad, weil ja ein cleverer wie auch effizienter Algorithmus. Oftmals musst du da aber noch einige Anbauten dransetzen wie Heatmaps oder spezielle Crowd-Systeme. Gibt ja schließlich auch noch Spiele abseits der Shooter, wo wenn's hochkommt vielleicht ein Dutzend Gegner gleichzeitig zu besiegen sind...
In der Pfadnachbearbeitung hat man oft ein paar mehr geometrische Operationen drin. Aber die spielt, wenn sie sauber implementiert ist, vom Rechenzeitverbrauch her normalerweise keine Rolle.
Wie in der vorigen Antwort schonmal erwähnt kann der Rechenaufwand auch schnell durch die Decke gehen - gerade wenn man auch mal größere Menschenmassen umsetzen will (was aus meiner Sicht garantiert "trendy" werden wird - schon im neuen Hitman mit dem relativ simplen Crowd-System kam das anscheinend ja schon sehr gut bei den Spielern an). Ich hätte mir schon bei Supreme Commander I eine schnellere Berechnung des Pathfindings gewünscht, wo die Einheiten wenn die Gefechte mal größer werden merkbar "der Reihe" nach ihre neuen Befehle bekommen weil die Berechnungen sehr aufwendig (oder sagen wir mal "umfangreich") sind. Bei Supreme Commander 2 wurde das Pathfinding dann ja auf die GPU ausgelagert, weshalb man spätestens jetzt zum Thema Pathfinding und Matrizenrechnung & Co nicht mehr viel sagen muss, denn wenn GPUs eins gut können, dann doch wohl das... :wink:
Gipsel
2013-01-20, 19:52:21
[RS-Troll]
Es heißt Rückgrat! Du meine Güte. Es meint die Wirbelsaeule oder englisch fast woertlich "backbone", falls das irgendwem gelaeufiger ist. :rolleyes:
[/RS-Troll]
Turbo ist ein entweder oder da Kerne komplett schlafen gelegt werden müssen
Weder Intel noch AMD noch ARM ( oder soweit ich weiß IBM ) unterstützen bisher eine dynamische taktung
Wie soll ich denn das verstehen? Natuerlich koennen die Kerne dynamisch ihren Takt an die Lastsituation anpassen. Das geht nicht nur statisch wie bei den allerersten Versuchen wie damals SpeedStep.
Sven77
2013-01-20, 20:13:28
[RS-Troll]
Es heißt Rückgrat! Du meine Güte. Es meint die Wirbelsaeule oder englisch fast woertlich "backbone", falls das irgendwem gelaeufiger ist. :rolleyes:
[/RS-Troll]
Danke, das ist noch schlimmer als Packet.
...
Du vermischst Pathfinding und Movement, was ziemlich verschiedene Sachen sind. Einen Weg auf der Karte raussuchen hat auch relativ wenig mit Autofahren zu tun.
Crowdmovement zeichnet sich normalerweise unter anderem dadurch aus, dass nicht mehr jede Einheit getrennt eine Pfadsuche startet. Flowfields erledigen die Pfadsuche schon implizit für alle Entities auf einmal.
Die Pfadsuche lässt sich in der Praxis auch nicht besonders gut parallelisieren, weil jede Suchinstanz einen eigenen Suchraum (einige MB) braucht. Auf den neuen Konsolen ist das weniger ein Problem, weil man da einfacher ein paar MB dafür opfern kann.
Das Movement lässt sich dagegen sehr gut parallelisieren und ist auch Geometrielastig bei der Berechnung.
dargo
2013-01-20, 20:51:25
Ich kann dir meine Messungen nicht geben, was ich aber machen kann: Ich kann dir sagen wie ich mit deinen Mitteln an die Sache rangehen wuerde, wenn du fps messen moechtest. Um (wenn auch immernoch ungenaue) Daten zu messen, um wenigstens ein Gefuehl dafuer zu bekommen, um welche Groessenordnung es geht.
Jetzt machst du mich neugierig. Details dazu über PN werden gerne angenommen. :)
Ziemlich sicher sogar. Egal, ob es jetzt 4 GB oder gar 8 werden. Bei letzterem erst recht.
Ist doch super. Ich finde das 32Bit OS sollte schon länger sterben. Und dennoch gibts immer wieder 32Bit Windowsversionen. :freak:
Locuza
2013-01-20, 21:25:06
Jetzt machst du mich neugierig. Details dazu über PN werden gerne angenommen. :)
Ist doch super. Ich finde das 32Bit OS sollte schon länger sterben. Und dennoch gibts immer wieder 32Bit Windowsversionen. :freak:
1. Und die Ergebnisse ebenfalls. :D
2. Mit W8 hätte man es echt beenden können und nur bei WRT anbieten sollen.
Käsetoast
2013-01-20, 21:54:37
Crowdmovement zeichnet sich normalerweise unter anderem dadurch aus, dass nicht mehr jede Einheit getrennt eine Pfadsuche startet. Flowfields erledigen die Pfadsuche schon implizit für alle Entities auf einmal.
Wie gesagt: Soweit ich weiß hat Chris Taylor in einem Interview mal erzählt, dass ihr Pathfinding auf die GPU ausgelagert wurde (ob ganz oder teilweise weiß ich nicht mehr genau). War dann auch in der Tat ein A* mit einem Flowfield. So gesehen denke ich schon, dass Pathfinding ein Beispiel ist, wo FMA was bringen könnte...
del_4901
2013-01-20, 23:39:45
Jetzt machst du mich neugierig. Details dazu über PN werden gerne angenommen. :)1. Und die Ergebnisse ebenfalls. :D
Aehm, ich dachte ich haette mich klar genug ausgedrueckt! Nein bedeutet nein, hier ueber PN oder sonst noch wo!
HarryHirsch
2013-01-20, 23:57:58
Wie gesagt: Soweit ich weiß hat Chris Taylor in einem Interview mal erzählt, dass ihr Pathfinding auf die GPU ausgelagert wurde (ob ganz oder teilweise weiß ich nicht mehr genau). War dann auch in der Tat ein A* mit einem Flowfield. So gesehen denke ich schon, dass Pathfinding ein Beispiel ist, wo FMA was bringen könnte...
ich hab nicht so den plan davon aber die ati-demo froblins hat doch gezeigt das aktuelle gpus kein problem damit haben grafik und diese "wegfindungen" zu berechnen.
Käsetoast
2013-01-21, 00:49:45
ich hab nicht so den plan davon aber die ati-demo froblins hat doch gezeigt das aktuelle gpus kein problem damit haben grafik und diese "wegfindungen" zu berechnen.
Die Diskussion startete ja als ich behauptet habe, dass Pathfinding ein Aspekt ist wo Matrizenrechnungen & Co vorkommen. Daran störten sich einige. Das Beispiel von Supreme Commander 2 mit den Berechnungen auf den GPUs sollte dann als Argument dafür dienen, dass Pathfinding sowas beinhaltet - sonst wäre es nicht auf die GPUs ausgelagert worden, die ja gerade ihren Schwerpunkt auf solchen Rechnungen haben...
Gipsel
2013-01-21, 01:05:56
Rechnungen auf GPUs muessen erstmal nur (daten-)parallel sein, damit sie gut laufen. Ob FMA zum Einsatz kommt oder nicht, spielt zunaechst keine Violine.
FMA-Unterstuetzung ist ganz allgemein hilfreich, wenn man (fliesskomma-)arithmetisch halbwegs dichten Code hat, bei dem mit einiger Haeufigkeit von Multiplikationen abhaengige Additionen auftreten, die dann eben vom Compiler (oder vom Entwickler mit Intrinsics) zu FMAs zusammengefasst werden. Der Vorteil von FMAs kann dabei zwischen 0% (bzw. sogar negativ, falls durch den Einbau von FMA-Support in die CPU die Latenzen steigen) und +100% liegen. Genau festmachen kann man das nur am Einzelfall. Fuer typischen (edit: fuer untypischen natuerlich auch ;)) Integercode bringt es natuerlich genau 0.
Gipsel, das ist so nicht richtig, weil CPUs nie MADD-Befehle haben. Eine FMA-Instruction hat gegenüber einer Addition und einer Multiplikation immer eine geringere Latenz.
Gipsel
2013-01-21, 03:03:12
Eine FMA-Instruction hat gegenüber einer Addition und einer Multiplikation immer eine geringere Latenz.
Das war anders gemeint.
Angenommen, eine CPU ohne FMA-Support macht ADDs in 3 Takten und MULs in 4 Takten. Jetzt werden die separaten ADD- und MUL- Pipes durch zwei FMA-Pipes ersetzt, die allerdings 5 Takte Latenz haben. Da gibt es dann durchaus Faelle, in denen das durch die hoehere Latenz langsamer ist als vorher (naemlich wenn gerade keine FMAs eingesetzt werden koennen und man auch nicht von der Moeglichkeit zweier paralleler ADDs bzw. MULs profitiert). Die ADDs und MULs bekommen dann naemlich ebenfalls die hoehere FMA-Latenz ab. Bei Intel werden ja wohl nur die MULs ueber die FMA-Pipes geschleust, die ADDs behalten ihre eigene Einheit mit niedrigerer Latenz, um genau diese Faelle zu minimieren.
@HOT:
Ne, FMA4 gibts doch seit dem ersten Bulldozer, FMA3 gibts seit Piledriver. Das ist also kein SR-Merkmal.
So war das nicht gemeint ;). War zugegeben etwas blöd formuliert. Sollten die Spiele mit FMA4 auch auf den PC-Markt kommen, profitieren sogar die B2-Bullys noch mit :D. Klar aber sollte sein, dass FMA3 keine Option weder für die Spielehersteller noch für AMD ist.
MS und Sony werden die Chips wie auch in der aktuellen Generation sicher selber Fertigen da hat AMD also nix mit am Hut
Glaube nicht, dass es diesmal so sein wird, weil es annähernd Standardkomponenten sind. Da kommt noch was sehr Essenzielles bei der x86-Lizenz hinzu: Nur AMD (und VIA) darf x86er abseits von Intel fertigen. Der einzige Punkt der gelockert wurde, ist, dass AMD jetzt 100% Fremdfertiger verwenden darf (was sie mit GloFo und TSMC ja auch tun, die haben keine Fabs und keine Anteile an GloFo mehr). Also müssen sowohl Sony als auch M$ die Prozessoren bei AMD fertigen lassen, wollen sie x86er haben. Beide Hersteller können die Geräte komplett Build by AMD bekommen, mit Patriot RAM und Sapphire Platinen.
][immy
Turbo ist ein entweder oder da Kerne komplett schlafen gelegt werden müssen
Weder Intel noch AMD noch ARM ( oder soweit ich weiß IBM ) unterstützen bisher eine dynamische taktung
Stimmt nicht, AMD unterstützt dynamisches Takten seit dem K10, mit BD kam der Turbo hinzu. Der Thuban-aushilfs-Turbo basierte genau auf dieser dynamischen Taktung übrigens, da es kein C3-C6 gab. C&Q-Modus für ein Modul reicht aus für Turbotakt AFAIK. Nur Intel unterstützt keine dynamische Taktung.
Das war anders gemeint.
Angenommen, eine CPU ohne FMA-Support macht ADDs in 3 Takten und MULs in 4 Takten. Jetzt werden die separaten ADD- und MUL- Pipes durch zwei FMA-Pipes ersetzt, die allerdings 5 Takte Latenz haben.
Theoretisch, ja. Klar. Das ist aber nicht der Fall in praktischen Implementierungen.
Stimmt nicht, AMD unterstützt dynamisches Takten seit dem K10
K8
YfOrU
2013-01-21, 11:31:18
Glaube nicht, dass es diesmal so sein wird, weil es annähernd Standardkomponenten sind. Da kommt noch was sehr Essenzielles bei der x86-Lizenz hinzu: Nur AMD (und VIA) darf x86er abseits von Intel fertigen. Der einzige Punkt der gelockert wurde, ist, dass AMD jetzt 100% Fremdfertiger verwenden darf (was sie mit GloFo und TSMC ja auch tun, die haben keine Fabs und keine Anteile an GloFo mehr). Also müssen sowohl Sony als auch M$ die Prozessoren bei AMD fertigen lassen, wollen sie x86er haben...
Das ist ein interessanter Punkt welcher in der Diskussion bisher ziemlich untergegangen ist. Sehe ich aufgrund beider Argumente genauso.
dargo
2013-01-21, 11:32:12
Aehm, ich dachte ich haette mich klar genug ausgedrueckt! Nein bedeutet nein, hier ueber PN oder sonst noch wo!
Ops... dann habe ich dich wohl falsch verstanden. Ich dachte du wolltest mir genauer erklären wie ich da am besten einen Vergleich anstelle. Da dafür aber eh alte Hardware nötig wäre (welche ich nicht habe) erübrigt sich das ganze. Zudem müsste man auch vom Spiel X eine genaue Frameanalyse bei der Konsolenversion haben, was nicht immer gegeben ist. Denn mit 30fps bin ich keinesfalls einverstanden wenn ich sehe, dass bei einigen Frameanalysen es Einbrüche bis zu 18fps gibt.
[...]
K8
Wenn man den K10 als K8-Generation sieht, dann ja. Rev.E und F aber konnten nicht die Kerne unabhängig voneinander takten. Das war bei Agena Premiere.
Demirug
2013-01-21, 12:16:37
Glaube nicht, dass es diesmal so sein wird, weil es annähernd Standardkomponenten sind. Da kommt noch was sehr Essenzielles bei der x86-Lizenz hinzu: Nur AMD (und VIA) darf x86er abseits von Intel fertigen. Der einzige Punkt der gelockert wurde, ist, dass AMD jetzt 100% Fremdfertiger verwenden darf (was sie mit GloFo und TSMC ja auch tun, die haben keine Fabs und keine Anteile an GloFo mehr). Also müssen sowohl Sony als auch M$ die Prozessoren bei AMD fertigen lassen, wollen sie x86er haben. Beide Hersteller können die Geräte komplett Build by AMD bekommen, mit Patriot RAM und Sapphire Platinen.
Nur wird es in den Verträgen dann sicherlich eine Klausel geben das AMD geänderte Produktionskosten weitergeben muss. Microsoft wird nicht zweimal auf den gleichen Trick reinfallen.
ich hab nicht so den plan davon aber die ati-demo froblins hat doch gezeigt das aktuelle gpus kein problem damit haben grafik und diese "wegfindungen" zu berechnen.
Die verwenden halt auch ein 2D Flowfield. Die Möglichkeiten das Einzusetzen sind arg beschränkt. Eigentlich eignet es sich nur für eine Crowd Simulation auf einer 2 dimensionalen Ebene.
Man kann teilweise etwas tricksen, indem man mehrere Ebenen gekonnt verbindet, wie beispielsweise in der Kaufhausszene in Heavy Rain.
Eine generische Pfadsuche endet eigentlich immer in einer Graphsuche, die sich auf OoO Architekturen am wohlsten fühlen, aber auch auf (http://www.jeremykemp.co.uk/wp-content/uploads/2011/02/projectpaper.pdf) GPU (http://ldc.usb.ve/~vtheok/cursos/ci6323/pdf/lecturas/Accelerating%20Large%20Graph%20Algorithms%20on%20the%20GPU%20Using%20CUDA.pdf) laufen (http://ppl.stanford.edu/papers/pact11-hong.pdf).
GPU Support lohnt sich aber erst für richtig lange Pfade in sehr großen Suchräumen, welche man nur in bestimmten "Genres" wie Strategiespielen oder im Simulationsbereich/Serious Games findet.
Undertaker
2013-01-21, 15:10:03
Wenn man den K10 als K8-Generation sieht, dann ja. Rev.E und F aber konnten nicht die Kerne unabhängig voneinander takten. Das war bei Agena Premiere.
Griffin konnte das zuvor afair auch schon, obwohl noch kein richtiger K10.
Avalox
2013-01-21, 15:11:00
Wohl neues Controllerkonzept bei Sony.
http://derstandard.at/1358304032065/Insider-PlayStation-4-kommt-bald-und-mit-neuem-Controller
Locuza
2013-01-21, 15:13:13
Aehm, ich dachte ich haette mich klar genug ausgedrueckt! Nein bedeutet nein, hier ueber PN oder sonst noch wo!
Sorry, ich habe mich missverständlich ausgedrückt.
Du meintest du kannst deine Ergebnisse nicht hergeben, aber dargo paar Tipps geben wie er an die Sache herangehen könne, um so ein Gefühl für den Overhead zu bekommen.
Und ich meinte, diese Ergebnisse würde ich wie die Tipps auch sehr gern annehmen.
Nicht das ich deine Ergebnisse haben will.
TheCounter
2013-01-21, 15:54:09
Durango:
http://www.vgleaks.com/wp-content/uploads/2013/01/durango_arq1.jpg
http://www.vgleaks.com/world-exclusive-durango-unveiled/
Ist der Jaguar nicht eine X86 CPU? Hier steht allerdings X64.. hm.
Bösewicht
2013-01-21, 16:23:02
Wohl neues Controllerkonzept bei Sony.
http://derstandard.at/1358304032065/Insider-PlayStation-4-kommt-bald-und-mit-neuem-Controller
LCD Pad Inklusive Wii Vitality Funktion?
Klingt nach Satire ^^
Locuza
2013-01-21, 16:33:57
Durango:
http://www.vgleaks.com/wp-content/uploads/2013/01/durango_arq1.jpg
http://www.vgleaks.com/world-exclusive-durango-unveiled/
Ist der Jaguar nicht eine X86 CPU? Hier steht allerdings X64.. hm.
Jaguar ist x86-64, genauso wie Bobcat.
Eher verwundert mich die geringe Bandbreite vom esram.
50% mehr Bandbreite als der Hauptspeicher und nur 32mb groß.
Hätte man sich doch glatt sparen können.
Ich glaube in Stein gemeißelt ist davon noch nichts.
TheCounter
2013-01-21, 16:37:11
Jaguar ist x86-64, genauso wie Bobcat.
Danke
Eher verwundert mich die geringe Bandbreite vom esram.
Angegeben ist nur die Bandbreite GPU <-> eSRAM. *denkfehler*
Bei der Xbox 360 waren es 256GB/sec, also stimmt hier wohl etwas nicht.
mboeller
2013-01-21, 16:51:22
nur 768 Shader @ 800MHz???
das wären ja weniger GFlops als eine HD7770 GHz Edition
Steffko
2013-01-21, 16:53:16
Die Kombination ist doch sehr merkwürdig. Der Hauptspeicher hat ja mit 68GB/s eine ziemlich hohe Bandbreite, gleichzeitig der esram so ne verhältnismäßig geringe :confused:
Beim Hauptspeicher müsste es sich für die 68GB/s doch um DDR3-2133 mit 128bit Anbindung handeln? Das klingt doch eher ungewöhnlich. Bzw. 1066 mit 256er, aber das würde man doch sicher eher vermeiden wollen?
Karümel
2013-01-21, 16:55:07
Durango:
http://www.vgleaks.com/wp-content/uploads/2013/01/durango_arq1.jpg
http://www.vgleaks.com/world-exclusive-durango-unveiled/
Ist der Jaguar nicht eine X86 CPU? Hier steht allerdings X64.. hm.
HDMI IN?
TheCounter
2013-01-21, 17:01:58
HDMI IN?
Dort wird man seinen Sat-Receiver etc. anschließen können.
Sven77
2013-01-21, 17:05:37
Dort wird man seinen Sat-Receiver etc. anschließen können.
why? :confused:
Karümel
2013-01-21, 17:06:29
why? :confused:
Multimedia-Gedönskram-Xbox720?
Silentbob
2013-01-21, 17:11:41
Das Ding schaut aus wie von nem Hauptschüler gebastelt.
Sven77
2013-01-21, 17:12:16
Multimedia-Gedönskram-Xbox720?
Aber mit Pass-thru? Macht imho keinen Sinn...
][immy
2013-01-21, 17:17:34
Jaguar ist x86-64, genauso wie Bobcat.
Eher verwundert mich die geringe Bandbreite vom esram.
50% mehr Bandbreite als der Hauptspeicher und nur 32mb groß.
Hätte man sich doch glatt sparen können.
Ich glaube in Stein gemeißelt ist davon noch nichts.
Naja wenn das z.b. nur der framebuffer ist würde das enorm Bandbreite sparen.
trotzdem würde es mich sehr wundern wenn das die wirklichen specs sind
FelixPaul
2013-01-21, 17:34:31
Wie schätzt ihr es denn die Möglichkeiten ein mit einem optionalen Display bzw. Tablet die XBox bzw. PS4 zu erweitern?
Microsoft hat mir Smartglass ja schon so etwas gezeigt, aber noch nicht überzeugt: http://video.golem.de/games/9643/microsoft-smartglass-test.html
Locuza
2013-01-21, 17:54:26
Bei der Xbox 360 waren es 256GB/sec, also stimmt hier wohl etwas nicht.
Effektiv waren das glaube ich ~ 190 GB/s.
nur 768 Shader @ 800MHz???
das wären ja weniger GFlops als eine HD7770 GHz Edition
1258 GFLOPs vs. 1280 GFLOPs (CV XT)
Die Kombi mutet echt seltsam an.
Könnte ja sogar sein, dass es dann wie CV nur eine Raster/Geometrie-Engine hat.
Oder eher ein Aufbau wie Pitcairn stark gerupft.
Oder man hat intern am Front-End etwas aufgebohrt, sodass ein höherer Durchsatz garantiert ist, ohne die Einheiten an sich verdoppeln zu müssen.
Also etwas schwach die Kombination. Hatte man doch vermuten können, dass MS eine große APU haben will, ein aufgepumpter Kaveri sozusagen und deswegen auch Yield-Probleme bestehen, da die Lösung etwas groß geraten ist.
Aber ausgehend vom Blockdiagramm kann ich nur klassische Verbindungen erkennen.
Die Kombination ist doch sehr merkwürdig. Der Hauptspeicher hat ja mit 68GB/s eine ziemlich hohe Bandbreite, gleichzeitig der esram so ne verhältnismäßig geringe :confused:
Beim Hauptspeicher müsste es sich für die 68GB/s doch um DDR3-2133 mit 128bit Anbindung handeln? Das klingt doch eher ungewöhnlich. Bzw. 1066 mit 256er, aber das würde man doch sicher eher vermeiden wollen?
DDR3 2133 ist doch aktuell die höchste offizielle Spezifikation von DDR3 von Seiten der JDEC oder?
Mutet deshalb nicht seltsam an.
Aber wie kommt man genau auf die Bandbreite?
Wenn ich 128-Bit mit DDR3 2133Mhz führe, dann kommen da dort doch nur 34 GB/s heraus, also fehlt die Hälfte?
Müsste ja dann doch ein 256-Bit Interface sein oder was übersehe ich gerade?
[immy;9625056']Naja wenn das z.b. nur der framebuffer ist würde das enorm Bandbreite sparen.
trotzdem würde es mich sehr wundern wenn das die wirklichen specs sind
Wenn ich es mal so betrachte:
7770: 72 GB/s
Xbox 3 hat 68 GB/s für beides und den "eSRAM" als Buffer, dann scheint es schon balanced zu sein.
Aber an die Specs und an das Blockdiagramm glaube ich auch nicht.
Aber das spekulieren macht Spaß. :freak:
Käsetoast
2013-01-21, 18:00:36
Eher verwundert mich die geringe Bandbreite vom esram.
50% mehr Bandbreite als der Hauptspeicher und nur 32mb groß.
Hätte man sich doch glatt sparen können.
Wäre eine Kompatibilität mit XBox360-Spielen hier vielleicht ein Argument?
y33H@
2013-01-21, 18:03:21
Zwei Jaguar-Quads, jeder davon mit Dualchannel DDR3-2133 (JEDEC-konform) und man hat seine 68 GB/s. Die GB/s des ED-RAM liegen genau zwischen HD 77x0 und HD 78x0 ... hmmm.
Locuza
2013-01-21, 18:07:13
Wäre eine Kompatibilität mit XBox360-Spielen hier vielleicht ein Argument?
In wie fern sollte das genau zutreffen?
Das meiste hängt ja an der ISA der CPU, welche in dem Fall x86 vs. PowerISA wäre.
Der angebliche eSRAM wird hier mit 102 Gb/s angegeben, bei der Xbox 360 kommt beim 10mb eDRAM der doppelte Output heraus, also für Bandbreiten kritische Programmteile der Xbox 360 wäre das auch zu langsam, falls man da perfekte Synchronität haben will.
@ y33H@
Danke :)
Steffko
2013-01-21, 18:08:16
Effektiv waren das glaube ich ~ 190 GB/s.
1258 GFLOPs vs. 1280 GFLOPs (CV XT)
Die Kombi mutet echt seltsam an.
Könnte ja sogar sein, dass es dann wie CV nur eine Raster/Geometrie-Engine hat.
Oder eher ein Aufbau wie Pitcairn stark gerupft.
Oder man hat intern am Front-End etwas aufgebohrt, sodass ein höherer Durchsatz garantiert ist, ohne die Einheiten an sich verdoppeln zu müssen.
Also etwas schwach die Kombination. Hatte man doch vermuten können, dass MS eine große APU haben will, ein aufgepumpter Kaveri sozusagen und deswegen auch Yield-Probleme bestehen, da die Lösung etwas groß geraten ist.
Aber ausgehend vom Blockdiagramm kann ich nur klassische Verbindungen erkennen.
DDR3 2133 ist doch aktuell die höchste offizielle Spezifikation von DDR3 von Seiten der JDEC oder?
Mutet deshalb nicht seltsam an.
Aber wie kommt man genau auf die Bandbreite?
Wenn ich 128-Bit mit DDR3 2133Mhz führe, dann kommen da dort doch nur 34 GB/s heraus, also fehlt die Hälfte?
Müsste ja dann doch ein 256-Bit Interface sein oder was übersehe ich gerade?
Wenn ich es mal so betrachte:
7770: 72 GB/s
Xbox 3 hat 68 GB/s für beides und den "eSRAM" als Buffer, dann scheint es schon balanced zu sein.
Aber an die Specs und an das Blockdiagramm glaube ich auch nicht.
Aber das spekulieren macht Spaß. :freak:
Sorry Quatsch, hatte mich verschrieben, müsste natürlich ein 256bit Interface sein bei DDR3-2133.
Locuza
2013-01-21, 18:13:26
Okay jetzt als kleine Zusammenfassung:
2 x Jaguar Compute-Units (8 Cores) mit 2 x Dual-Channel (4 Channel)
= 64-Bit DDR3 2133Mhz an jedem Channel angeschlossen
= 256 Bit mit 68 Gb/s
?
y33H@
2013-01-21, 18:16:12
Jupp, wobei für Kabini ging man bisher von SC aus - vll ist's doch DC oder eben ein 8C-Chip mit QC als Special-Design für MS. Klingt nicht abwegig, aber die Parallelisierung für 8C bereitet mir etwas Kopfzerbrechen ...
Finch
2013-01-21, 18:25:37
wirklich nur 768SP? Das klingt nach einer weiteren 720p Maschine. : /
Locuza
2013-01-21, 18:26:56
Jupp, wobei für Kabini ging man bisher von SC aus - vll ist's doch DC oder eben ein 8C-Chip mit QC als Special-Design für MS. Klingt nicht abwegig, aber die Parallelisierung für 8C bereitet mir etwas Kopfzerbrechen ...
Bei der Xbox muss man ja auch bis zu 6 Threads managen und bei der PS3 nicht weniger.
Wären jetzt eben 8.
Wobei für serielle/schlecht parallelisierbare Programmabläufe die ST-Performance echt jämmerlich erscheint.
Ich habe mit ~2Ghz gerechnet und den L2-Cache auf Coreclock.
Und vielleicht noch eine "special sauce".
256-Bit wären aber irgendwie total blöd. Schlecht für das shrinken, ist teuer beim layouten usw.
Weiß eig. jemand was so 2Gb GDDR5 ungefähr für einen Großabnehmer kosten würden?
y33H@
2013-01-21, 18:28:57
@ Finch
SP-GFLOPS etwas unterhalb einer HD 7770, das reicht mit Optimierung sicherlich für 1080p mit FXAA ;-)
Eine HD 7770 macht im BF3 MP auf nem vollen 64er Server knapp über 30 Avg-Fps mit High-Details (im Prinzip Ultra ohne 4x MSAA).
Finch
2013-01-21, 18:32:10
ja sicher, aber da ist mir einfach zu Wenig luft. die 1024 oder 1280er Varianten hätte ich wesentlich interessanter gefunden.
Mir ist auch klar, dass man aus der 7770 in einer Konsole wesentlich mehr herausholen kann, aber ich hätte einfach ein wenig mehr erwartet.
Immerhin besser als die Wii U.
TheCounter
2013-01-21, 18:36:44
Effektiv waren das glaube ich ~ 190 GB/s.
Im Beyond3D meinte jemand das die Xenos ROPS nicht mit komprimierten Daten umgehen konnten und die Bandbreite deswegen so hoch sein musste. In der neuen Xbox soll das eben nicht der Fall sein.
Vielleicht liegts also daran?
Demirug
2013-01-21, 19:02:44
Mir ist auch klar, dass man aus der 7770 in einer Konsole wesentlich mehr herausholen kann, aber ich hätte einfach ein wenig mehr erwartet.
Genau da bin ich mir nicht so sicher. Die GPU an den Anschlag zu fahren ist auch beim PC eigentlich kein Problem. Das Problem ist eher wenn man etwas macht was der Treiber nicht mag bzw Shader hat mit dennen er nicht klar kommt. An diesen Stellen entstehen dann auch häufig die Performances Updates durch Treiber updates. Bei einer Konsole Muss man das halt im ersten Anlauf gleich im Programm richtig machen da man es nicht mit einem anderen Treiber ausgleichen kann. Dafür gibt es dann in der Regel aber auch besserer Werkzeuge. Was bei einer Konsole weniger belastet wird ist die CPU da sie keinen zusätzlichen Treibercode sondern nur einen dünnen Abstraktionslayer ausführen muss.
Im Beyond3D meinte jemand das die Xenos ROPS nicht mit komprimierten Daten umgehen konnten und die Bandbreite deswegen so hoch sein musste. In der neuen Xbox soll das eben nicht der Fall sein.
Vielleicht liegts also daran?
Wenn ich mich recht entsinne war bei dieser Xenos Bandbreite irgendein Rechentrick im Spiel.
Locuza
2013-01-21, 19:07:07
Immerhin besser als die Wii U.
Da hat MS ganze Arbeit dafür geleistet. ;D
Im Beyond3D meinte jemand das die Xenos ROPS nicht mit komprimierten Daten umgehen konnten und die Bandbreite deswegen so hoch sein musste. In der neuen Xbox soll das eben nicht der Fall sein.
Vielleicht liegts also daran?
Uhm, ja stimmt die neuen GPUs unterstützen ja auch neue Formate, aber hohe Bandbreiten braucht man ja immer.
Ich finde leider die Quelle nicht mehr dazu, aber irgendwo habe ich gelesen das der eDRAM zwar 256Gb/s theoretisch liefert, praktisch aber da gute 50-70 gb/s an Output fehlen.
Es war glaube ich so wie Demirug gesagt hat, man hat sich das bisschen schön gerechnet, bzw. gewisse Limitierungen nicht genau angegeben.
Genauso wie die PS3 und Xbox 360 doch anfangs mit TFLOPs um sich hergeschmissen haben.
Felixxz2
2013-01-21, 19:11:37
Wieso sollte man ein 256 Bit SI mit DDR3 kombinieren?
128 Bit mit GDDR5 wäre schneller und vor allem auf lange Sicht kostengünstiger, da der Speicher ja billiger wird mit der Zeit.
Schaut für mich iwie unglaubwürdig aus, auch vom Rest her.
TheCounter
2013-01-21, 19:34:29
Wenn ich mich recht entsinne war bei dieser Xenos Bandbreite irgendein Rechentrick im Spiel.
Ja, daran kann ich mich noch vage erinnern.
In wie weit ist es denn von Vorteil das man jetzt eSRAM (der ja teuer ist und mehr Platz benötigt) statt eDRAM verwendet? Deswegen vielleicht die geringere Bandbreite?
Und hat jemand eine Vermutung was mit den "Data Move Engines" auf sich hat? Sollen laut NeoGAF (http://www.neogaf.com/forum/showpost.php?p=46710115&postcount=1247) 4 sein, die die GPU/CPU unterstützen.
Looking at that VGleaks diagram again, I think they fucked up some f the custom hardware stuff. Specifically, there's a hardware block that they don't describe, pertaining to... well. I don't want to get anybody in trouble.
Die Specs entsprechen also doch nicht dem aktuellen/vollständigen Stand der Dinge.
tobor
2013-01-21, 20:31:30
nur 768 Shader @ 800MHz???
das wären ja weniger GFlops als eine HD7770 GHz Edition
Hardwaremuell von Rudis Resterampe...
Sieht aus,als wuerde die Wii U doch Ports von Next Gen Spielen bekommen...
TheCounter
2013-01-21, 22:13:18
Bezüglich des eSRAM vs. eDRAM in der Xbox 360 hab ich das hier noch gefunden:
Let me see if this helps. For Durango:
Rendering into ESRAM: Yes.
Rendering into DRAM: Yes.
Texturing from ESRAM: Yes.
Texturing from DRAM: Yes.
Resolving into ESRAM: Yes.
Resolving into DRAM: Yes.
For the 360, that would be yes, no, no, yes, no, yes.
ROPS are not in esram this time around.
dargo
2013-01-21, 22:34:09
Wieso sollte man ein 256 Bit SI mit DDR3 kombinieren?
128 Bit mit GDDR5 wäre schneller und vor allem auf lange Sicht kostengünstiger, da der Speicher ja billiger wird mit der Zeit.
Kleine Gegenüberstellung:
8GB GDDR5 mit 1250Mhz an einem 128Bit SI = 80GB/s
8GB DDR3-2133 an einem 256Bit SI = 68GB/s
GDDR5 ist deutlich teurer als DDR3. Und da MS scheinbar unbedingt 8GB haben möchte hat man die zweite Variante wohl gewählt. Die paar fehlenden GB/s kann man sicherlich mit dem eSRAM ausgleichen.
Zudem scheint eine SI-Anbindung bei DDR3 wohl günstiger zu sein als bei GDDR5.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9622688&postcount=5230
Zumindest beim gleichen SI.
Locuza
2013-01-21, 22:36:51
In wie weit ist es denn von Vorteil das man jetzt eSRAM (der ja teuer ist und mehr Platz benötigt) statt eDRAM verwendet? Deswegen vielleicht die geringere Bandbreite?
Und hat jemand eine Vermutung was mit den "Data Move Engines" auf sich hat? Sollen laut NeoGAF (http://www.neogaf.com/forum/showpost.php?p=46710115&postcount=1247) 4 sein, die die GPU/CPU unterstützen.
Die Specs entsprechen also doch nicht dem aktuellen/vollständigen Stand der Dinge.
ESRAM ist wohl viel leichter einzubetten als eDRAM.
DME keine Ahnung, hört sich erst einmal ulkig an.
Bezüglich des eSRAM vs. eDRAM in der Xbox 360 hab ich das hier noch gefunden:
Hier würde ja der eSRAM praktisch als Cache für alles herhalten.
Finde 32mb aber ganz schön klein dafür.
aegis meinte auch, dass im Blockdiagramm noch etwas fehlt, wohl ein weiterer "accelerator" :tongue:
TheCounter
2013-01-21, 22:40:21
Laut Eurogamer könnten diese Specs bereits 9 Monate alt sein:
Based on our communications with the leaker, the data appears genuine - the only real question is how recent it is. The proof presented by the source suggests that the data is at most nine months old
http://www.eurogamer.net/articles/df-hardware-next-gen-xbox-specs-leak
Laut dem Diagramm hat auch die CPU zugriff auf den eSRAM, was bei der 360 ja nicht der Fall war.
Alles noch sehr undurchsichtig irgendwie.
aegis meinte auch, dass im Blockdiagramm noch etwas fehlt, wohl ein weiterer "accelerator" :tongue:
http://www.abload.de/img/saucebxuc5.jpg
:ugly:
dargo
2013-01-21, 22:46:00
nur 768 Shader @ 800MHz???
das wären ja weniger GFlops als eine HD7770 GHz Edition
Und dennoch sollte ein Pitcairn mit nur 768SPs @800Mhz etwas schneller (und womöglich auch sparsamer) als voll ausgefahrener Cape Verde sein. Pitcairn hat die doppelte Anzahl an ROPs und mindestens 60% mehr TMUs/TAUs. Wobei ich jetzt nicht weiß ob ein geringer Teil dabei weg fällt durch die angeblich 2 weniger CUs im Vergleich @Pitcairn PC.
Locuza
2013-01-21, 22:49:32
Laut Eurogamer könnten diese Specs bereits 9 Monate alt sein:
http://www.eurogamer.net/articles/df-hardware-next-gen-xbox-specs-leak
Laut dem Diagramm hat auch die CPU zugriff auf den eSRAM, was bei der 360 ja nicht der Fall war.
Über die Northbridge, die GPU hat direkten Zugang, womit das ganze Zeug neben der GPU im die zu finden sein könnte?
http://www.abload.de/img/saucebxuc5.jpg
:ugly:
http://1.bp.blogspot.com/-dbglHDgo3YQ/T22xERq04iI/AAAAAAAACN4/GV7qS9CP9ww/s1600/ketchup-bottle-explosion.gif
:freak:
Gipsel
2013-01-21, 23:17:51
Und dennoch sollte ein Pitcairn mit nur 768SPs @800Mhz etwas schneller (und womöglich auch sparsamer) als voll ausgefahrener Cape Verde sein. Pitcairn hat die doppelte Anzahl an ROPs und mindestens 60% mehr TMUs/TAUs. Wobei ich jetzt nicht weiß ob ein geringer Teil dabei weg fällt durch die angeblich 2 weniger CUs im Vergleich @Pitcairn PC.
768 SPs bedeutet 12 CUs und damit auch nur 48 TMUs. Sowohl die Rechen- als auch die Texturleistung waere damit bei 800MHz etwas geringer als bei einem ausgefahrenen CapeVerde. Wie der Setup/Raster-Teil gestaltet wird und wieviele ROPs verbaut werden, erschliesst sich daraus nicht, das ist unabhaengig.
dargo
2013-01-21, 23:21:45
Aja... Merci. :)
TheCounter
2013-01-21, 23:39:31
http://1.bp.blogspot.com/-dbglHDgo3YQ/T22xERq04iI/AAAAAAAACN4/GV7qS9CP9ww/s1600/ketchup-bottle-explosion.gif
:freak:
Deanos, I've already received word from special sources that the special sauces will not only make up the gap, but overshoot it like jizz launched from a wizard's penis.
http://www.neogaf.com/forum/showpost.php?p=46716253&postcount=1891
:eek: :uponder:
Konami
2013-01-22, 00:36:43
http://www.neogaf.com/forum/showpost.php?p=46716253&postcount=1891
:eek: :uponder:
Seh ich das richtig... Er behauptet, die special sauce Data Move Engines machen Durango schneller als Orbis?
Locuza
2013-01-22, 00:41:26
http://www.neogaf.com/forum/showpost.php?p=46716253&postcount=1891
:eek: :uponder:
If magic is not enough. ;D
Seh ich das richtig... Er behauptet, die special sauce Data Move Engines machen Durango schneller als Orbis?
Ja, er behauptet das dank "wizard jizz", die Lücke bei der Rohperformance zu Orbis geschlossen werden kann bzw. sogar überfüllt.
Kleine Gegenüberstellung:
8GB GDDR5 mit 1250Mhz an einem 128Bit SI = 80GB/s
8GB DDR3-2133 an einem 256Bit SI = 68GB/s
GDDR5 ist deutlich teurer als DDR3. Und da MS scheinbar unbedingt 8GB haben möchte hat man die zweite Variante wohl gewählt. Die paar fehlenden GB/s kann man sicherlich mit dem eSRAM ausgleichen.
Aber DDR3-2133 verbraucht doch noch relativ viel Strom/Energie, oder nicht? Ob man sich das bei dem knappen Verbrauchsbudget leisten kann/will?
Wie wahrscheinlich wäre eigentlich DDR4? Zwar nagelneu, aber weniger Energiebedarf, v.a. @2133. Die letzten Playstations hatten auch immer aktuelle Rambus-Versionen. Apropos, wie wärs mit Rambus XDR2? :freak: Das gäbs auch noch.
mboeller
2013-01-22, 08:18:14
Aber DDR3-2133 verbraucht doch noch relativ viel Strom/Energie, oder nicht? Ob man sich das bei dem knappen Verbrauchsbudget leisten kann/will?
Wie wahrscheinlich wäre eigentlich DDR4? Zwar nagelneu, aber weniger Energiebedarf, v.a. @2133. Die letzten Playstations hatten auch immer aktuelle Rambus-Versionen. Apropos, wie wärs mit Rambus XDR2? :freak: Das gäbs auch noch.
Vielleicht waren sie gezwungen auf 256bit / DDR3-2133 zu gehen, weil die ursprünglichen Annahmen nicht funktioniert haben.
gegen die Durango-Specs, wenn sie wahr sind, schaut mein Vorschlag von vor 16 Seiten aus wie eine Next-Nextgen Konsole. Durango = :P
Finch
2013-01-22, 08:49:10
Ich bin auch ein wenig enttäuscht, aber ich hoffe, das die ersten gezeigten Spiele überraschen können.
Eidolon
2013-01-22, 09:08:45
Vielleicht bewahrheiten sich die Kommentare ja doch, dass dieses die letzte wirkliche Konsolengeneration wird, bei der eher mauen Hardware. ;)
Bin mir nicht so sicher, ob das wirklich Jaguar ist. Der wär bei 1,6GHz meiner Meinung nach erheblich zu schlapp. MMn ist das SR. Kann durchaus sein, dass SR auch 2 L1I$ pro Modul hat, also der unified L1I mit 64kB in 2x 32Bit L1I aufgespalten wurde, da der unified L1I ein echtes Problem bei den bisherigen BDs war. SR bekommt ja auch neue Decoder. Und 32kB L1D versteht sich bei SR von selbst, 16kB waren einfach viel zu wenig bei BD.
fondness
2013-01-22, 09:20:51
Bin mir nicht so sicher, ob das wirklich Jaguar ist. Der wär bei 1,6GHz meiner Meinung nach erheblich zu schlapp. MMn ist das SR.
Es sind 2MB L2 pro Quad, das passt perfekt zu Jaguar. Dazu die geringen Taktraten, ein SR würde deutlich höher takten. Im übrigen schriebt er klar: "each core has one fully independent hardware thread with no shared execution resources" - das ist eindeutig kein Bulldozer-Design.
Crazy_Bon
2013-01-22, 11:22:41
Ich habe schon mindestens von 2 Quellen gelesen, daß die nächste Xbox mehrere bzw. eine zweite und kleineren GPU im CPU-Kern besitzt, die nur für Physikberechnungen zuständig ist.
Denkbar oder Unfug?
Finch
2013-01-22, 11:40:12
Das würde ich erstmal ausklammern.
Bin mir nicht so sicher, ob das wirklich Jaguar ist. Der wär bei 1,6GHz meiner Meinung nach erheblich zu schlapp. MMn ist das SR. Kann durchaus sein, dass SR auch 2 L1I$ pro Modul hat, also der unified L1I mit 64kB in 2x 32Bit L1I aufgespalten wurde,
Ne das kann man ausschließen, auf den SR-Folien gibt es ja weiterhin eine gemeinsame Fetch-Unit (im Gegensatz zu den 2 eigenständigen Decodern), d.h. es gibt weiterhin nur einen Instruktionscache, der halt größer wird.
Edit:
@mboeller (http://www.forum-3dcenter.org/vbulletin/member.php?u=9099): Ja kann natürlich auch sein, irgendwie sollte man schon ne gute Speicherbandbreite herbekommen... wenn man kein GDDR5 benutzen will, muss man sich zwangsweise andere (exotische) Lösungen einfallen lassen.
StefanV
2013-01-22, 12:03:34
K8
Ich will auch, ich will auch:
K7 (mobile) :)Durango:
http://www.vgleaks.com/wp-content/uploads/2013/01/durango_arq1.jpg
http://www.vgleaks.com/world-exclusive-durango-unveiled/
Wenn es stimmt, finde ich den HDMI IN besonders interessant.
Der Rest ist mehr oder minder Standardkost...
Naitsabes
2013-01-22, 12:12:28
K7 gibt es nur als singlecore... ;-)
megachip800
2013-01-22, 13:07:23
Die neue Xbox ist nichts weiter als eine gepimte X360 bei der primär Kinect, Casual und Multimediaanwendungen im Vordergrund steht for Core-Spiele bietet die Konsole nicht gegügend Leistung. Das
reicht gerade mal aus um aktuelle Konsolenspiele in 1080p zu spielen, mehr sollte man aber nicht erwarten.
Eine Grafikqualität wie die Samaritan Demo oder Agnes Philos. könnt ihr euch ganz abschminken dazu fehlt der Konsole einfach die technischen Vorrausetzungen. Die lahme Busanbindung zum Hauptspeicher, 3 gbyte fürs Os und Apps das wird der Cpu ne Menge Tasks kosten, die Cpu ist selbst recht langsam und bietet nicht die
Peakperformance einer I7 Quadcore Cpu, der 32 mb esram Videopuffer ist ein schlechter Witz , das reicht hinten und vorne nicht aus um FullHd Spiele mit allen nötigen wie wichtigen Effekten darzustellen zudem wird dieser Puffer auch von der Cpu mitverwendet wodurch der Framebuffer noch kleiner wird. Die Spiele werden wieder keine gute Kantenglättung und anisotropische Filterung haben, überwiegend nur 30 Frames/s ,
überkomprimiierte und farblich ausgebleichte Texturen sind dann die Folgen. Laut den insider hat die Gpu auch weniger Rops und Tmus als aktuelle Pc-Gpus .Zum Vergleich eine Amd 7970 Grafikkarte hat ein Busbandbreite von 384 Bit und einem Speed von 264 Gbyte/s und kann auf satte 3 Gbyte
Vram zugreifen. Diese Grafikkarte wird 2014 schon längst den Mainstream erreicht haben und ist kein teures
High EndProdukt mehr und die neuen Konsolen hinken dem deutlich hinterher. Der Core Markt wird wohl in
den nächsten Jahren zum Pc gehen die neuen Konsolen fungieren dann als Altlagerstelle für billige Ports und Fuchtelspiele. Ich bin von Ms Maßlos enttäuscht was haben die in den 8 Jahren gemacht!! Auf eine Amd Restmüllverwertung kann ich getrost verzichten. Mal sehen ob Sony bei der Ps4 nochmal nachlegt...
Das reicht gerade mal aus um aktuelle Konsolenspiele in 1080p zu spielen, mehr sollte man aber nicht erwarten.
Nehmen wir mal an die 5x Roh-Leistung der GPU würde stimmen (der reelle Speedup liegt wohl eher darüber). Dann meinst du also, dass man damit nur doppelt so viele Pixel bei gleicher Qualität rendern kann, obwohl vieles auch konstant und unabhängig von der Auflösung ist.
Interessante These.
Frozone
2013-01-22, 13:14:35
Der Core Markt wird wohl in
den nächsten Jahren zum Pc gehen die neuen Konsolen fungieren dann als Altlagerstelle für billige Ports und Fuchtelspiele. Ich bin von Ms Maßlos enttäuscht was haben die in den 8 Jahren gemacht!! Auf eine Amd Restmüllverwertung kann ich getrost verzichten. Mal sehen ob Sony bei der Ps4 nochmal nachlegt...
Und diesen Spruch hört man von den PC Spielern seit 10Jahren. Aber Fakt ist das Spiele immer mehr für die Konsole gemacht werden und dann zum PC portiert werden.
Die Entwicklung ist natürlich schade, aber wir müssen uns damit abfinden.
dargo
2013-01-22, 13:15:22
Aber DDR3-2133 verbraucht doch noch relativ viel Strom/Energie, oder nicht?
Wieso? Sind doch 1,50V, GDDR5 liegt afaik auch bei 1,50-1,60V.
Dafür, dass die meisten Leute hier ihr Wissen nur aus Gerüchte haben, sind die Kritiken recht hart. :crazy:
tobor
2013-01-22, 13:18:01
Vielleicht bewahrheiten sich die Kommentare ja doch, dass dieses die letzte wirkliche Konsolengeneration wird, bei der eher mauen Hardware. ;)
Solchen Hardwareschrott braucht auch niemand. Selbst ein Aldi-Pc, der 2014-15 erscheint,wird deutlich besser sein ein als das. Ein echter Witz.
tobor
2013-01-22, 13:24:26
Und diesen Spruch hört man von den PC Spielern seit 10Jahren. Aber Fakt ist das Spiele immer mehr für die Konsole gemacht werden und dann zum PC portiert werden.
Zum ersten Mal koennen Konsolen bei Erscheinen lediglich mit Ach und Krach mit Medium-Pcs mithalten. Und Konsolenspiele kosten 10-20 Euro mehr als Pc-Spiele. Diese Kisten sind schlicht und ergreifend ein richtig schlechter Deal im Vergleich zur Vergangenheit und ihr Geld nicht wert. Es sei denn, bei dem Gerücht handelt es sich um die geplante Set-Top-Box.
Sven77
2013-01-22, 13:46:04
Solchen Hardwareschrott braucht auch niemand. Selbst ein Aldi-Pc, der 2014-15 erscheint,wird deutlich besser sein ein als das. Ein echter Witz.
Zum ersten Mal koennen Konsolen bei Erscheinen lediglich mit Ach und Krach mit Medium-Pcs mithalten. Und Konsolenspiele kosten 10-20 Euro mehr als Pc-Spiele. Diese Kisten sind schlicht und ergreifend ein richtig schlechter Deal im Vergleich zur Vergangenheit und ihr Geld nicht wert. Es sei denn, bei dem Gerücht handelt es sich um die geplante Set-Top-Box.
uh, da klammert sich einer aber an einen Strohhalm ;)
mboeller
2013-01-22, 13:50:53
Nehmen wir mal an die 5x Roh-Leistung der GPU würde stimmen (der reelle Speedup liegt wohl eher darüber). Dann meinst du also, dass man damit nur doppelt so viele Pixel bei gleicher Qualität rendern kann, obwohl vieles auch konstant und unabhängig von der Auflösung ist.
Interessante These.
Ohne Megachip jetzt zuzustimmen: Wird man die ca. 2,5 bis 3-fache Leistung pro Pixel überhaupt im Spiel sehen können?
Exxtreme
2013-01-22, 13:51:59
Zum ersten Mal koennen Konsolen bei Erscheinen lediglich mit Ach und Krach mit Medium-Pcs mithalten.
Na und? Für die angepeilte Zielgruppe ist das ausreichend. Da reichen auch 25 fps @ 720p.
N0Thing
2013-01-22, 14:12:50
bietet nicht die
Peakperformance einer I7 Quadcore Cpu,
[...]
Zum Vergleich eine Amd 7970 Grafikkarte hat ein Busbandbreite von 384 Bit und einem Speed von 264 Gbyte/s und kann auf satte 3 Gbyte
Vram zugreifen.
Ist vermutlich eh nur ein reiner Trollversuch deinerseits, aber falls nicht: Erwartest du wirklich in einer Konsole Hardware, die heute noch mindestens 550€ im Einzelhandel kostet und bis zum nächsten Jahr wohl kaum um mehr als 150€ im Preis fallen wird? Warum greifen wohl so viele zu einer Konsole und nicht zum Gaming-PC? Weil eine Konsole in der Anschaffung deutlich günstiger ist.
Und abgesehen vom Preis würde eine Hardware, wie sie dir vorschwebt, locker den doppelten Stromverbrauch der aktuellen Konsolen aufweisen.
Knuddelbearli
2013-01-22, 14:18:14
naja sobald man 5 Spiele gekauft hat zahlt man bei einer Konsole meistens drauf. dafür muss man sich halt nicht um die Hardware kümmern woraus aber viele gerade hier im Forum den Reiz aus dem PC ziehen
EL_Mariachi
2013-01-22, 14:18:18
Leute Leute... Grafik ist doch nicht alles! :D
Ich verstehe gar nicht wieso hier so geschimpft wird!
Der einzige Kritikpunkt an den Neuen Konsolen für mich wäre, wenn Gebrauchte Games nicht laufen würden...
Falls dieses Gerücht stimmen sollte, dann können Sich die Herren Microsoft und Sony Ihre Konsolen gerne Hochkant (von mir aus auch quer) in den Allerwertesten stopfen!
Sagte ich schon, dass Grafik nicht alles ist (gerade bei Konsolen)... ;)
.
Deinorius
2013-01-22, 14:37:32
naja sobald man 5 Spiele gekauft hat zahlt man bei einer Konsole meistens drauf. dafür muss man sich halt nicht um die Hardware kümmern woraus aber viele gerade hier im Forum den Reiz aus dem PC ziehen
Man muss ja nicht bei Release kaufen. Solange man nicht PC-Spiele für ein paar € zum Vergleich her zieht, geht das ja noch... :rolleyes:
Der einzige Kritikpunkt an den Neuen Konsolen für mich wäre, wenn Gebrauchte Games nicht laufen würden...
:uhammer::uconf3::ubash::ubash2:
Ganon
2013-01-22, 14:57:53
Ich verstehe gar nicht wieso hier so geschimpft wird!
Bei der immer wieder kommenden Erwartungshaltung an neue Geräte, die in sich in etwa wie "8 Kerne auf 4Ghz mit 16GB RAM und 2 HighEnd GPUs und 1080p mit 16xFSAA für 299 EUR" liest, wundert mich eigentlich überhaupt nichts mehr.
... ist halt ein Technik-Forum.
Knuddelbearli
2013-01-22, 15:15:36
Man muss ja nicht bei Release kaufen. Solange man nicht PC-Spiele für ein paar € zum Vergleich her zieht, geht das ja noch... :rolleyes:
Leider ist der Unterschied beim Neuerscheinen meist am geringsten
während auf dem PC die Spiele meist recht schnell Richtung 20€ fallen bleiben Konsolen spiele meist ewig im Bereich 40-50€
Kommt vor allem dadurch das es beim PC viele Vertriebsplattformen gibt bei Konsolen nur Retail und der eigene Store, und natürlich ziehe ich da dann auch Steam als Vergleich her!
Sven77
2013-01-22, 15:17:34
naja sobald man 5 Spiele gekauft hat zahlt man bei einer Konsole meistens drauf.
Das ist ne Milchmaedchenrechnung, immerhin kann ich Konsolentitel immer noch verkaufen/gebraucht kaufen. Ist natuerlich fraglich ob das bei der naechsten Generation auch so sein wird...
Iruwen
2013-01-22, 15:18:28
Leute Leute... Grafik ist doch nicht alles! :D
Bei dem Niveau das die letzten erschienenen Spiele bereits haben kann man sich eigentlich wirklich nicht beschweren. Ist nicht so dass ich wenn meine Freundin spielt reinkomm und denke "uuuh Augenkrebs", wenn dann nur aufgrund geringer Auflösung und fehlenden AAs.
dildo4u
2013-01-22, 15:22:06
Ich denke sie werden gebrauchte Spiele eliminieren am PC haben das die Meisten doch schon lange geschluckt.(siehe Steam,Origin und co)
Sven77
2013-01-22, 15:26:57
Ich denke sie werden gebrauchte Spiele eliminieren am PC haben das die Meisten doch schon lange geschluckt.(siehe Steam,Origin und co)
Fraglich.. wie soll das dann aussehen. Man kauft trotzdem den Datentraeger und der Key wird dann an den Account gebunden a la Steam? Haetten sie schon laengst machen koennen. Aber sie verkneifen es sich.. beim PC sind die Vorraussetzungen ganz andere da man mit piratebay und co in Konkurrenz steht. Und jetzt bitte nicht mit dem Argument kommen das auch auf Konsolen raubkopiert wird, der Aufwand und die daraus resultierenden Einschraenkungen sind ganz andere
Es geht doch nicht um die Raubkopien, es geht um gebrauchte Spiele, die verkauft werden.
Sowas geht ja mal gar nicht, immerhin leben wir hier im Kapitalismus ;)
Skysnake
2013-01-22, 15:44:37
/sign ;D
mboeller
2013-01-22, 16:37:45
Bei der immer wieder kommenden Erwartungshaltung an neue Geräte, die in sich in etwa wie "8 Kerne auf 4Ghz mit 16GB RAM und 2 HighEnd GPUs und 1080p mit 16xFSAA für 299 EUR" liest, wundert mich eigentlich überhaupt nichts mehr.
... ist halt ein Technik-Forum.
Die XBox360 hat zusammen in der ersten Generation ca. 438mm² für die CPU, GPU und eDRAM genutzt (laut der Liste auf Beyond3D im Forum).
Viele haben IMHO einfach erwartet, das die DIE-Area für die neue Konsole wieder in der gleichen Größenordnung liegen wird.
edit: die PS3 war sogar noch "größer". Zusammen 493mm²
Link: http://forum.beyond3d.com/showthread.php?t=62651
Locuza
2013-01-22, 16:49:40
Ich bin von Ms Maßlos enttäuscht was haben die in den 8 Jahren gemacht!! Auf eine Amd Restmüllverwertung kann ich getrost verzichten. Mal sehen ob Sony bei der Ps4 nochmal nachlegt...
16 Kerne, 16 Gb und eine HD 7970 fand MS wohl nicht so cool in einer Konsole wie du. ;D
Halt mal die Hosen stramm, die Welt geht nicht unter weil die Konsole zwei mal weniger TFLOPs hat, als du dir gewünscht hast.
@ Topic
Das mit dem Konsole vs. PC-Zeug:
Nachdem AlphaTier schon um die 100% an Overhead genannt hat.
https://twitter.com/ID_AA_Carmack/statuses/50277106856370176
Also könnte ich das grob als Fakt ansehen, dass ein PC bei der GPU ungefähr die doppelte Rohleistung braucht, um grob ein gleiches Endergebnis zu zeichnen.
Es klammern sich bei Durango noch viele an die "special sauce".
Laut den angeblichen Insider-Infos setzt MS stark auf die ganzen zusätzlichen Beschleuniger, die ein besseren Trade-Off darstellen sollen, als mehr Silizium in die GPU oder CPU zu pumpen.
Fragman
2013-01-22, 16:57:14
https://twitter.com/ID_AA_Carmack/statuses/50277106856370176
Also könnte ich das grob als Fakt ansehen, dass ein PC bei der GPU ungefähr die doppelte Rohleistung braucht, um grob ein gleiches Endergebnis zu zeichnen.
fuer welche aufloesung soll das denn gelten?
pc spieler reden in der regel immer von 1080p, konsole wenns hoch kommt 720p, eher drunter. sollte die aussage so stimmen und auf 1080p bezogen sein koennen wir ja ein system erwarten welches heutigen high end pc's ebenbuertig ist. kann das nicht so recht glauben.
Locuza
2013-01-22, 17:05:41
Das sollte allgemein gelten.
Aufgrund von einem sehr dünnen API-Layer und der angepassten Programmierung soll die Nutzleistung doppelt so hoch liegen, wie mit vergleichbarer Hardware auf dem PC, wo der DX Overhead und der sub-optimale Code im Weg stehen.
Stormscud
2013-01-22, 17:20:48
Ich denke auch, dass vor allem Ram & Grafikpart doch recht ansprechend sind für eine Konsole, von der ich ausgehe, dass die Spiele wieder in 720p @25/30fps geliefert werden. Das sollte für ordentlich Details % Texturen passen. Am PC erfreue ich mich dann der höheren Auflösung und hoffentlich auch ordentlichem AA, sowie mehr fps.
Nur der Jaguar mit 1,6 GHz erscheint mir doch etwas schwachbrüstig zu sein pro Kern.
Tesseract
2013-01-22, 17:30:18
Leute Leute... Grafik ist doch nicht alles! :D
eh nicht, da gibt es dann noch so dinge wie steuerung (lol@konsole), gameplay (lol@konsole), innovation (lol@konsole), community-features (lol@konsole)... ach bleiben wir lieber nur bei der grafik. :freak:
Deinorius
2013-01-22, 17:41:10
Nur der Jaguar mit 1,6 GHz erscheint mir doch etwas schwachbrüstig zu sein pro Kern.
Wenn es denn so kommt, ist das hinsichtlich IPC vielleicht 25 % besser als Xenon und dafür gibt es immerhin 8 "echte" Kerne, während es in der Xbox 360 "nur" 6 "Threads" waren.
Wieso? Sind doch 1,50V, GDDR5 liegt afaik auch bei 1,50-1,60V.Ja, aber DDR4 hätte 1,2V.
Wenn es denn so kommt, ist das hinsichtlich IPC vielleicht 25 % besser als Xenon und dafür gibt es immerhin 8 "echte" Kerne, während es in der Xbox 360 "nur" 6 "Threads" waren.Außerdem wirds ja wohl nen Turbo-Mode geben, wenn man nur 1-2-4 Kerne braucht.
dildo4u
2013-01-22, 18:02:48
1.6Ghz könnte das Devkit sein,ich erwarte eigentlich was um 2Ghz sonst hätte man ja keine Taktsteigerung gegenüber Bobcat,obwohl die Fertigung von 40 auf 28nm geändert wurde.
Es geistern imo bisher nur so niedrige Taktraten für Jaguar rum,weil diese SOC hauptsächlich für Tablets gedacht sind,in den Konsolen gibt's aber ein viel höheres TDP Limit vermutlich bis 50 Watt für die CPU.
Ganon
2013-01-22, 18:06:26
Die XBox360 hat zusammen in der ersten Generation ca. 438mm² für die CPU, GPU und eDRAM genutzt (laut der Liste auf Beyond3D im Forum).
Und was hat MS oder Sony davon solche Hardwaremonster zu bauen, in die sie unmengen an Geld pulvern müssen, damit den Kram überhaupt jemand kauft und vllt. noch überhitzt und kaputt geht? Für weitaus bessere Grafik fehlt es eh an Kohle seitens der Spielehersteller. Die ganzen Texturen und Models samt Animationen fallen ja nicht einfach vom Himmel.
Entsprechend reicht auch ein eher gemächlicheres Hardwareniveau. Was sie denn im Endeffekt machen werden wir dann ja sehen, aber das sie keine Hardware verbauen, die mal eben pro Chip 200 Watt verschlingt dürfte ja wohl klar sein.
tobor
2013-01-22, 18:10:57
naja sobald man 5 Spiele gekauft hat zahlt man bei einer Konsole meistens drauf. dafür muss man sich halt nicht um die Hardware kümmern woraus aber viele gerade hier im Forum den Reiz aus dem PC ziehen
Mit den neuen Boxen wuerde man von Beginn an draufzahlen ohne irgendeinen
erkennbaren Mehrwert,der den Aufpres rechtfertigen koennte.
Knuddelbearli
2013-01-22, 18:11:52
spricht also noch weniger für Konsolen ^^
dildo4u
2013-01-22, 18:15:48
Und was hat MS oder Sony davon solche Hardwaremonster zu bauen, in die sie unmengen an Geld pulvern müssen, damit den Kram überhaupt jemand kauft und vllt. noch überhitzt und kaputt geht? Für weitaus bessere Grafik fehlt es eh an Kohle seitens der Spielehersteller. Die ganzen Texturen und Models samt Animationen fallen ja nicht einfach vom Himmel.
Entsprechend reicht auch ein eher gemächlicheres Hardwareniveau. Was sie denn im Endeffekt machen werden wir dann ja sehen, aber das sie keine Hardware verbauen, die mal eben pro Chip 200 Watt verschlingt dürfte ja wohl klar sein.
So lange sie PC Ports basteln können,ist die Basis selbst zum Anfang relativ groß.Dank PC wird der Übergang relativ leicht,gibt schon einige Devs die sich extra Arbeit machen.(siehe FC3,Crysis3,BF3,Bioshock Infinite)Diese Games müssen sich nicht zwangsweise 20 Mio mal verkaufen um sich zu rechnen.
schoppi
2013-01-22, 18:19:29
spricht also noch weniger für Konsolen ^^Wobei ja alles Spekulatius ist...ich kann die auf dem Papier schlechten Daten nicht so ganz glauben. Gerade das Datenblatt sieht doch sowas von unprofessionell aus, dass es sehr gut ein Fake sein kann.
Demirug
2013-01-22, 18:32:30
Das sollte allgemein gelten.
Aufgrund von einem sehr dünnen API-Layer und der angepassten Programmierung soll die Nutzleistung doppelt so hoch liegen, wie mit vergleichbarer Hardware auf dem PC, wo der DX Overhead und der sub-optimale Code im Weg stehen.
Der DX Overhead schlägt auf die CPU nicht auf die GPU. Und selbst da dürften die 100% nicht mehr stimmen weil bei den Konsolen die Abstraktion eher steigt und beim PC die Pfade optimiert wurden.
Zudem neigt man bei Konsolen ja dazu das was man beim Overhead spart mittelfristig wieder in mehr Anweisungen an die GPU zu investieren. Man verpackt das ganze in kleinere Häbchen. Damit lassen sich dann die technologischen Nachteile de GPUs ausgleichen die sich im Gegenzug der PC Seite ja nicht weiterentwickeln. Am Anfang braucht man das mehr an CPU Leistung häufig noch um die noch fehlenden Erfahrung mit der neuen Plattform auszugleichen. Deswegen braucht man ja auch etwas 3 Generationen von Spielen um ans Limit der Hardware zu kommen.
Das war auch mit ein Grund warum der Zyklus dieses mal länger wurde. Mit einter durchschnittlichen Entwicklungszeit von etwas 2 Jahren dauerte es länger bis man bei der 3, Generation war.
Tesseract
2013-01-22, 18:45:43
Deswegen braucht man ja auch etwas 3 Generationen von Spielen um ans Limit der Hardware zu kommen.
genau das vergessen die meisten immer. die "200%" hat man vielleicht dann wenn der PC ohnehin schon wieder 4 generationen weiter ist.
del_4901
2013-01-22, 19:06:59
Der DX Overhead schlägt auf die CPU nicht auf die GPU. Und selbst da dürften die 100% nicht mehr stimmen weil bei den Konsolen die Abstraktion eher steigt und beim PC die Pfade optimiert wurden.
Der Overhead auf der CPU ist viel groesser. Auf die GPU schlagen vor allem Resource-Updates, wo der Treiber dir erstmal alle deine Pipelines/Caches flushed. Yeah Party!
1.6Ghz könnte das Devkit sein,ich erwarte eigentlich was um 2Ghz sonst hätte man ja keine Taktsteigerung gegenüber Bobcat,obwohl die Fertigung von 40 auf 28nm geändert wurde.
Naja, sind dafür angeblich ja auch 8 statt 2 Kerne ... für 8 Kerne unter Vollast könnte es schon hinkommen.
Locuza
2013-01-22, 19:12:13
Der DX Overhead schlägt auf die CPU nicht auf die GPU. Und selbst da dürften die 100% nicht mehr stimmen weil bei den Konsolen die Abstraktion eher steigt und beim PC die Pfade optimiert wurden.
Wo schlägt jetzt was auf was und wie viel? :freak:
Bei DX10 war doch eines der Ziele den CPU-Overhead zu verkleinern, wurde das mit DX11 noch weiter optimiert oder ist das grob auf dem gleichem Level?
Der Overhead auf der CPU ist viel groesser. Auf die GPU schlagen vor allem Resource-Updates, wo der Treiber dir erstmal alle deine Pipelines/Caches flushed. Yeah Party!
Kannst du das für einen Laien etwas ausführen?
Sind die Resource-Updates "nur" auf dem PC nötig, was man auf einer Konsole sich sparen kann?
Wenn es denn so kommt, ist das hinsichtlich IPC vielleicht 25 % besser als Xenon und dafür gibt es immerhin 8 "echte" Kerne, während es in der Xbox 360 "nur" 6 "Threads" waren.
Wat? Jaguar ist eine ordentliche Out-Of-Order-CPU. Das wäre wesentlich mehr als 25% ggü. Xenon.
Konami
2013-01-22, 19:32:49
Mit den neuen Boxen wuerde man von Beginn an draufzahlen ohne irgendeinen
erkennbaren Mehrwert,der den Aufpres rechtfertigen koennte.
Vielleicht werden die Spiele dafür mal billiger. Wenn (falls) Steam erfolgreich im Wohnzimmer einschlägt und mit den Konsolen konkurriert, bleibt den Publishern vielleicht keine andere Wahl.
dargo
2013-01-22, 19:33:53
Ja, aber DDR4 hätte 1,2V.
Und mit DDR5 wahrscheinlich 0,9V. :freak:
Wenn das Ding Ende des Jahres erscheinen soll dürfte die Produktion irgendwo um den März anfangen. Afaik gibt es bis dahin keinen DDR4 Speicher.
Wenn das Ding Ende des Jahres erscheinen soll dürfte die Produktion irgendwo um den März anfangen. Afaik gibt es bis dahin keinen DDR4 Speicher.
DDR4 ist fertig, Samsung hat laut diversen Internetberichten sogar versucht Intel zu drängen ihre DDR4-Serverplattform vorzuverlegen (weil mit DDR3 kein Gewinn mehr zu machen wäre) und Micron ist schon seit Ende 2012 in der Massenproduktion.
Micron is positioned to quickly become fully compliant with its 30nm 4Gb DDR4 part. Full sampling to key partners began earlier this year and volume production is planned for 4Q12.
(...)
The company has begun sampling and has received feedback from major customers to support quick implementation for applications in 2013.
http://investors.micron.com/releasedetail.cfm?releaseid=670776
Hört sich nicht nach Seemansgarn an ...
Deinorius
2013-01-22, 19:51:09
Außerdem wirds ja wohl nen Turbo-Mode geben, wenn man nur 1-2-4 Kerne braucht.
Das bezweifle ich doch sehr. Vor allem wegen der Frage, wie weit Jaguar dazu fähig ist. Ich hätte natürlich absolut nichts dagegen.
1.6Ghz könnte das Devkit sein,ich erwarte eigentlich was um 2Ghz sonst hätte man ja keine Taktsteigerung gegenüber Bobcat,obwohl die Fertigung von 40 auf 28nm geändert wurde.
Hoffentlich. 1,9 GHz müssten auf alle Fälle drin sein. In diese Richtung deutet zumindest die 10 %ige Taktsteigerung für Kabini.
Wat? Jaguar ist eine ordentliche Out-Of-Order-CPU. Das wäre wesentlich mehr als 25% ggü. Xenon.
Entschuldige. Das war jetzt Blödsinn, was ich geschrieben habe. Ich meinte nicht die richtige IPC, sondern die absolute Leistung bei den 3,2 GHz, mit denen der Xenon getaktet ist.
Wenn ich das richtig verstanden habe (steht hier ein paar Seiten vorher), entspricht Xenon ungefähr einem A64 1,4 GHz, was einigermaßen einem Bobcat mit 1,5 GHz entspricht. Wenn nun die Jaguar Kerne 1,9 GHz erreichen (von Kabini aus folgend) sind das rund 25 % Taktsteigerung, mit der 15 %igen IPC-Steigerung gegenüber Bobcat, sind das zusammen rund 44 % absolute Leistungssteigerung pro Core.
Gibt es vielleicht Informationen, wieviel der 2. SMT-Thread in einem Xenon-Core bringt?
Demirug
2013-01-22, 19:54:38
Der Overhead auf der CPU ist viel groesser. Auf die GPU schlagen vor allem Resource-Updates, wo der Treiber dir erstmal alle deine Pipelines/Caches flushed. Yeah Party!
Nicht unbedingt. Ich hatte mal das Glück mit einem der Hardware Designer und einem Treiberentwickler an einem Tisch zu sitzen. Solange man den Treiber nicht "überrascht" kann er die flusches bei den Resourcen Updates recht gut verhindern. Das Problem ist das DX verdammt tolerant ist und das von vielen Entwicklern entsprechend nicht besonders aufgepasst wird was sie eigentlich tuen. Da kommen dann die vielen spielespezifischen Hacks in den Treibern zum Zug. Bei DX9 war das aber noch viel schlimmer.
Wo schlägt jetzt was auf was und wie viel? :freak:
DX Overhead ist CPU. Es ist die Leistung die benötigt wird um die Kommandos für die definierte DX GPU auf die tatsächliche Hardware abzubilden.
Bei DX10 war doch eines der Ziele den CPU-Overhead zu verkleinern, wurde das mit DX11 noch weiter optimiert oder ist das grob auf dem gleichem Level?
Bei DX11 hat sich was den Overhead angeht primär nichts geändert. Man hat neue Möglichkeiten geschaffen um den Overhead auf anderer CPU Kerne zu verteilen. Es hat aber recht lange gedauert bis das mal einigermaßen in den Treibern umgesetzt wurden.
Deinorius
2013-01-22, 19:59:26
DDR4 ist fertig, Samsung hat laut diversen Internetberichten sogar versucht Intel zu drängen ihre DDR4-Serverplattform vorzuverlegen (weil mit DDR3 kein Gewinn mehr zu machen wäre) und Micron ist schon seit Ende 2012 in der Massenproduktion.
http://investors.micron.com/releasedetail.cfm?releaseid=670776
Man kann zwar DDR4 schon fertigen, aber glaubst du, die Konsolen-Hersteller interessieren sich für die hohen Anfangspreise einer neuen Technologie?
Das bezweifle ich doch sehr. Vor allem wegen der Frage, wie weit Jaguar dazu fähig ist. Ich hätte natürlich absolut nichts dagegen.Kann doch sogar schon Bocat, wo sollte da das problem sein?
Als low-cost Design muss Bobcat auf moderne Befehlssatzerweiterungen wie AVX oder AES-NI verzichten. Ein Turbo-Modus für den Prozessorteil wird von der Architektur prinzipiell unterstützt, ist derzeit aber lediglich in einem Modell (C-60 (http://www.notebookcheck.com/AMD-C-60-Notebook-Prozessor.51805.0.html)) verfügbar.http://www.notebookcheck.com/AMD-E-Series.55641.0.html
Man kann zwar DDR4 schon fertigen, aber glaubst du, die Konsolen-Hersteller interessieren sich für die hohen Anfangspreise einer neuen Technologie?Die Kosten hat Sony bei der PS2 und PS3 auf alle Fälle nicht interessiert, sonst hätten sie damals kein Rambus bzw. XDR verbaut.
EL_Mariachi
2013-01-22, 20:06:58
Bei der immer wieder kommenden Erwartungshaltung an neue Geräte, die in sich in etwa wie "8 Kerne auf 4Ghz mit 16GB RAM und 2 HighEnd GPUs und 1080p mit 16xFSAA für 299 EUR" liest, wundert mich eigentlich überhaupt nichts mehr.
... ist halt ein Technik-Forum.
Ja, genau das wirds wohl sein... :freak:
.
Ja, aber DDR4 hätte 1,2V.
Außerdem wirds ja wohl nen Turbo-Mode geben, wenn man nur 1-2-4 Kerne braucht.
Turbo kannst du auf Konsolen knicken. Man braucht ein fixes Target wegen zukünftigen Shrinks etc.
Turbo kannst du auf Konsolen knicken. Man braucht ein fixes Target wegen zukünftigen Shrinks etc.
Ach ok, dann natürlich schade :(
Ich nehme an, dass es auch nicht helfen würde, wenn man die Turbo-Modi bei späteren Shrinks auf den alten Stand ließe?
Deinorius
2013-01-22, 20:20:13
Kann doch sogar schon Bocat, wo sollte da das problem sein?
Was Bobcat oder Kabini kann, ist irrelevant. Relevant ist, was für eine Konsole Sinn macht. Wenn man für eine geschlossene Plattform programmiert, könnten schwankende Taktraten nicht unbedingt förderlich sein (nehme ich mal an). Und dann noch was Coda schon geschrieben hat.
Die Kosten hat Sony bei der PS2 und PS3 auf alle Fälle nicht interessiert, sonst hätten sie damals kein Rambus bzw. XDR verbaut.
War das nicht eher wegen dem Cell begründet?
Locuza
2013-01-22, 20:25:06
Bei DX11 hat sich was den Overhead angeht primär nichts geändert. Man hat neue Möglichkeiten geschaffen um den Overhead auf anderer CPU Kerne zu verteilen. Es hat aber recht lange gedauert bis das mal einigermaßen in den Treibern umgesetzt wurden.
DX11 Multithreading wurde das bis heute überhaupt umgesetzt?
Ich kann mich nur erinnern das AMD und Nvidia keine Treiber dafür herausgebracht haben.
Außer Nvidia neulich bei FarCry 3 was dann wieder entfernt wurde.
PS: Danke für die Erklärungen. :)
Was Bobcat oder Kabini kann, ist irrelevant. Relevant ist, was für eine Konsole Sinn macht. Wenn man für eine geschlossene Plattform programmiert, könnten schwankende Taktraten nicht unbedingt förderlich sein (nehme ich mal an). Und dann noch was Coda schon geschrieben hat.Ja einigermaßen kapiert und akzeptiert.
War das nicht eher wegen dem Cell begründet?
Bei der PS3 klar, aber bei der PS2? Billig wars im jeden Fall nicht und wenn man fürs eingesparte TDP-Budget noch ein paar MHz mehr auf die CPU/GPU geben kann, könnte es sich rentieren.
Aber wir reden über ungelegte Eier, erstmal sollten sich die Gerüchte bewahrheiten.
del_4901
2013-01-22, 20:29:30
Nicht unbedingt. Ich hatte mal das Glück mit einem der Hardware Designer und einem Treiberentwickler an einem Tisch zu sitzen. Solange man den Treiber nicht "überrascht" kann er die flusches bei den Resourcen Updates recht gut verhindern. Das Problem ist das DX verdammt tolerant ist und das von vielen Entwicklern entsprechend nicht besonders aufgepasst wird was sie eigentlich tuen. Da kommen dann die vielen spielespezifischen Hacks in den Treibern zum Zug. Bei DX9 war das aber noch viel schlimmer.
In der Theorie ja, und es gibt auch viele Game-spezifische Optimierungen die dabei helfen. In der Praxis ist jeder Texturstreamer jedoch eine grosse Ueberraschung fuer den Treiber. Bei einer Konsole interessiert mich das gar nicht (erst recht nicht bei UMA), da wird einfach geschrieben und man muss sich um seine Synchronisierung selber kuemmern. Das gibt natuerlich auch haessliche Bugs in der Entwicklung, aber die kann man dann wenigstens selber fixen. Jeh hoeher die Abstraktionsebene umso mehr muss "oversynchronized" werden, das ist leider ein Fakt.
Demirug
2013-01-22, 20:50:26
In der Theorie ja, und es gibt auch viele Game-spezifische Optimierungen die dabei helfen. In der Praxis ist jeder Texturstreamer jedoch eine grosse Ueberraschung fuer den Treiber. Bei einer Konsole interessiert mich das gar nicht (erst recht nicht bei UMA), da wird einfach geschrieben und man muss sich um seine Synchronisierung selber kuemmern. Das gibt natuerlich auch haessliche Bugs in der Entwicklung, aber die kann man dann wenigstens selber fixen. Jeh hoeher die Abstraktionsebene umso mehr muss "oversynchronized" werden, das ist leider ein Fakt.
Im Prinzip bin ich da bei dir. Abstraktion muss bezahlt werden. Wie teuer das dann jeweils ist hängt aber stark von der Situation und den Tricks ab. vWir werden aber etwas off Topic hier.
Deinorius
2013-01-22, 20:55:35
Aber wir reden über ungelegte Eier, erstmal sollten sich die Gerüchte bewahrheiten.
Gerade diese aktuellen finde ich besonders amüsant und interessant verteilt.
PS4 ist deutlich leistungsfähiger, dafür hat die Xbox doppelt soviel RAM, dafür nutzt die PS4 schnelleren RAM, dafür hat Xbox diese ominöse Special Sauce usw. :ugly:
Craftsman
2013-01-22, 23:41:03
Was spricht eigentlich gegen einen simplen doppelten Kaveri? 4 Module, 8 Threads, 768 SP und darum logischer weisse ein 256 SI, ohne ESRAM oder andre zu gaben, und das alles produziert bei GF in 28 nm, vielleicht kommt ja darum im Sommer Richland in 32 nm, weil GF schlicht keine freie Kapazitäten bis anfangs 2014 hat.
DX11 Multithreading wurde das bis heute überhaupt umgesetzt?
Ja, deshalb war NVIDIA ne Zeit lang so viel schneller in Civ V.
Ja, deshalb war NVIDIA ne Zeit lang so viel schneller in Civ V.
Schnell ja, aber laaaange Zeit total instabil. Das ist heute noch nicht astrein. Auf Radeons war CivV zwar lahm aber stets absturzfrei. Ich habe schon 600+ Stunden in CivV auf 7950 und Geforce460 und 260 verbracht, ich weiss wovon ich da rede ;).
Was spricht eigentlich gegen einen simplen doppelten Kaveri? 4 Module, 8 Threads, 768 SP und darum logischer weisse ein 256 SI, ohne ESRAM oder andre zu gaben, und das alles produziert bei GF in 28 nm, vielleicht kommt ja darum im Sommer Richland in 32 nm, weil GF schlicht keine freie Kapazitäten bis anfangs 2014 hat.
Hab ich ja auch gesagt. Bei 1,6GHz wär SR erheblich leistungsfähiger als Jaguar. Aber lt. dem Gerücht wären es eindeutig Jaguars. Wenn man ganz wild spekuliert wär da höchstens ein Custom-Design Jaguar mit fetterer FPU und vollen Cache-Takten denkbar.
Schnell ja, aber laaaange Zeit total instabil. Das ist heute noch nicht astrein. Auf Radeons war CivV zwar lahm aber stets absturzfrei. Ich habe schon 600+ Stunden in CivV auf 7950 und Geforce460 und 260 verbracht, ich weiss wovon ich da rede ;).
Tja. Niemand hat behauptet Multithreading wäre einfach.
w0mbat
2013-01-23, 03:41:03
http://ir.amd.com/mobile.view?c=74093&p=quarterlyearnings#/mobile.view?c=74093&v=200&d=2&id=4880149
Hört mal so ab ~11min rein.
"strong design win for embedded and semi custom APUs"
"embedded semi custom APUs in roll out, should account for more than 20% of our revenue by Q4 2013"
PS_next & XBOX_next anyone?
john carmack
2013-01-23, 09:02:38
XBOX720
AMD Radeon HD 8700 Grafiklösung mit 1,23 TFlops
8 GB (3GB für OS, 5 GB für Spiele)
Ist zwr nur spekulatius - ABER welches OS frisst denn bitte 3GB RAM?
tobor
2013-01-23, 09:11:14
Gerade diese aktuellen finde ich besonders amüsant und interessant verteilt.
PS4 ist deutlich leistungsfähiger, dafür hat die Xbox doppelt soviel RAM, dafür nutzt die PS4 schnelleren RAM, dafür hat Xbox diese ominöse Special Sauce usw. :ugly:
Die Ps4 soll die auch haben. Dezidierte Hardware für Tesselation und Physik(so die Gerüchte).
Ganon
2013-01-23, 09:49:54
Ist zwr nur spekulatius - ABER welches OS frisst denn bitte 3GB RAM?
Das wird eine einfache Reservierung sein, damit der Spieleentwickler weiß was er nutzen "darf". Weil wenn man es dynamisch macht, dann verbaut man sich ggf. die Möglichkeit für Updates des OS, etc.
Insgesamt glaube ich aber auch nicht, dass man sich 3GB RAM reserviert. Wüsste jetzt nämlich auch keinen Fall, wo man neben dem Spielen noch irgendwas so RAM intensives macht.
Crazy_Bon
2013-01-23, 09:59:38
Vielleicht nutzt man auch eine Ramdisk und Multitasking, sollte schneller gehen als Daten auf der HDD auszulagern, genügend Ram wäre ja da..
Vielleicht nutzt man auch eine Ramdisk und Multitasking, sollte schneller gehen als Daten auf der HDD auszulagern, genügend Ram wäre ja da..
Wenn Microsoft eine Lösung anbieten will, um gewissen Daten schnell zwischenzuspeichern, finden sie bestimmt eine andere Methode. ;)
TheCounter
2013-01-23, 12:24:12
Microsoft is working with AMD on the central and graphics processors. The CPU will be 8-core, as previously rumoured, although each core will be running at 1.9GHz instead of the 1.6GHz reported. The rumours on the graphics trip were true, being an 800MHz GPU. "One benchmark used internally has been a custom build Watch Dogs E3 demo which runs at 55-60fps with only five cores at 100 per cent," we were told.
http://www.neogaf.com/forum/showthread.php?t=509565
Also doch 1.9GHz? Und Watch Dogs @ 60fps? Auflösung und IQ wäre noch interessant zu wissen. Wenn es 1080p sind wäre das schon sehr kewl :)
john carmack
2013-01-23, 12:28:15
Denkt ihr das Spiele wie in der "Samaritan Demo" aussehen werden?
könnte die HW Leistung dazu reichen?
Skysnake
2013-01-23, 12:29:49
Oder es ist wirklich so, das der Programmierer einzelner Kerne gezielt lahm legen kann, und dafür die anderen Cores etwas höher takten.
In ner Konsole wäre das durchaus ziemlich cool, da man so die unterschiedlichen Anforderungsprofile der Games gut abdecken könnte.
TheCounter
2013-01-23, 12:34:28
Denkt ihr das Spiele wie in der "Samaritan Demo" aussehen werden?
könnte die HW Leistung dazu reichen?
Vielleicht nicht mit der IQ eines PCs, aber prinzipiell sollte sowas schon laufen, wenn sich ein Entwickler gut mit der jeweiligen Konsole auskennt.
Die UE4 soll ja auch auf den neuen Konsolen laufen.
john carmack
2013-01-23, 13:14:07
wäre ja echt cool - denn Samaritan sieht schon unheimlich gut aus :)
BaggiBox
2013-01-23, 13:19:39
wäre ja echt cool - denn Samaritan sieht schon unheimlich gut aus :)
samaritan ist aber nicht die unrealengine4. es geht noch besser ;-)
Schau dir mal nur StarWars1313 an. das läuft auf der 3er.
SentinelBorg
2013-01-23, 15:45:24
Wenn ich mir das alle so durchlese hier, hätten MS und Sony doch auch gleich über ihre Schatten springen und beide exakt den gleichen Chip verbauen können. ^^
Exxtreme
2013-01-23, 15:46:31
Wenn ich mir das alle so durchlese hier, hätten MS und Sony doch auch gleich über ihre Schatten springen und beide exakt den gleichen Chip verbauen können. ^^
Dann wäre das Ding softwarekompatibel. Und das geht nun wirklich nicht. ^^
Ganon
2013-01-23, 16:29:38
Dann wäre das Ding softwarekompatibel. Und das geht nun wirklich nicht. ^^
Glaube nicht, dass Sony einen DirectX Layer reinbekommt :D
Ich finde es nur schade, dass die Konsolen dann wohl nicht abwärtskompatibel werden. Ich hätte nix gegen eine PowerPC-basierte XBOX720 gehabt, welche auch XBOX360 Titel abspielt. Weil so muss ich die XBOX360 ja nun quasi ewig aufheben. Einen Emulator wird es dafür ja wahrscheinlich nicht geben (im Gegensatz zu N64, GameCube, DS und Wii).
john carmack
2013-01-23, 17:16:24
samaritan ist aber nicht die unrealengine4. es geht noch besser ;-)
Schau dir mal nur StarWars1313 an. das läuft auf der 3er.
naja... finde das samaritan besser aussieht.
Dann wäre das Ding softwarekompatibel. Und das geht nun wirklich nicht. ^^Na man hätte ja noch jeder Partei ihren eigenen DRM-Chip spendieren können, damit solche bösen Sachen wie Kompatibilität nicht funktionieren ^^
drexsack
2013-01-23, 17:44:08
Ich finde es nur schade, dass die Konsolen dann wohl nicht abwärtskompatibel werden. Ich hätte nix gegen eine PowerPC-basierte XBOX720 gehabt, welche auch XBOX360 Titel abspielt. Weil so muss ich die XBOX360 ja nun quasi ewig aufheben. Einen Emulator wird es dafür ja wahrscheinlich nicht geben (im Gegensatz zu N64, GameCube, DS und Wii).
Stimmt an sich schon. Aber wenn ich ehrlich bin, hab ich mit dem Erscheinen der 360 nie wieder eins der alten xbox Spiele angerührt. Ich hab einmal KotoR getestet, dachte "Hui sieht das schlecht aus" und hab weiter 360 Spiele gespielt. Ich könnte mir gut vorstellen, dass es in der nächsten Generation wieder genauso wird. Besonders, wenn sie irgendwie xbox live und die Gamertag/Gamerscore Geschichte noch ändern, was ich allerdings nicht hoffe. Ich bin sowieso gespannt, wie die die bestehenden xbox und PS Account und die Erfolge/Trophäen übernehmen. Einfach alles auf null setzen wäre ja auch nicht das wahre.
Ganon
2013-01-23, 17:52:58
Stimmt an sich schon. Aber wenn ich ehrlich bin, hab ich mit dem Erscheinen der 360 nie wieder eins der alten xbox Spiele angerührt. Ich hab einmal KotoR getestet, dachte "Hui sieht das schlecht aus" und hab weiter 360 Spiele gespielt.
Naja, ich hab nicht so die Probleme mit alter Grafik ;) Und wenn ich mir die Verkaufszahlen von Minecraft so anschaue... haben das zig Millionen andere Menschen auch nicht.
Naja, aber wird man wohl nicht drum rum kommen, wenn man das alles behalten will. Ich hänge zwar viel mehr an meinen GC/Wii-Spielen, aber dort gibt es ja schon einen Emulator, der auch recht gut läuft.
Aber die XBOX360 hatte auch so den einen oder anderen Titel den ich eigentlich nicht missen will. Na mal gucken, ob mir der Platz nicht irgendwann mehr Wert ist :D
Matrix316
2013-01-23, 17:56:25
Glaube nicht, dass Sony einen DirectX Layer reinbekommt :D
Ich finde es nur schade, dass die Konsolen dann wohl nicht abwärtskompatibel werden. Ich hätte nix gegen eine PowerPC-basierte XBOX720 gehabt, welche auch XBOX360 Titel abspielt. Weil so muss ich die XBOX360 ja nun quasi ewig aufheben. Einen Emulator wird es dafür ja wahrscheinlich nicht geben (im Gegensatz zu N64, GameCube, DS und Wii).
Man könnte doch eine Emulation reinbauen. Wenn die neue Hardware so stark ist, wie sie sein sollte, wäre das doch kein Problem, oder?
Ich finde es nur schade, dass die Konsolen dann wohl nicht abwärtskompatibel werden. Ich hätte nix gegen eine PowerPC-basierte XBOX720 gehabt, welche auch XBOX360 Titel abspielt. Weil so muss ich die XBOX360 ja nun quasi ewig aufheben. Einen Emulator wird es dafür ja wahrscheinlich nicht geben (im Gegensatz zu N64, GameCube, DS und Wii).
Apropos abwärtskompatibel ... nachdem es wieder x86 wird könnten sie vielleicht nen Emulator für die Ur-xbox anbieten. Nen 733er Pentium und ne Geforce3 sollte man doch emuliert bekommen ^^
Ganon
2013-01-23, 18:02:10
Man könnte doch eine Emulation reinbauen. Wenn die neue Hardware so stark ist, wie sie sein sollte, wäre das doch kein Problem, oder?
Glaube nicht, dass dazu die Leistung reicht. Und das mit der Emulation hat MS ja mit der XBOX1 bei der 360 auch probiert. Waren dann ja auch nur eine handvoll Spiele die liefen. Sicher kriegen sie es professioneller hin, aber z.B. braucht man für Dolphin (Wii Emulation) am besten einen i7 mit 4-5Ghz um viele Spiele mit 100% Performance zu spielen.
Und ein Mehrkernsystem sauber zu emulieren dürfte auch so ein Problem werden. Ansonsten schätze ich mal, dass MS auch nicht wirklich Interesse daran hat überhaupt 360 Spiele auszuführen (egal wie).
Pennywise
2013-01-23, 18:21:09
Könnte man nicht so was wie eine Fat-Binary machen? Also neu kompiliert über Xbox-Live updaten?
Ganon
2013-01-23, 18:23:57
Könnte man sicherlich machen, aber warum sollte ein Entwickler/Publisher daran Interesse haben? ;) Wenn dann packen sie das maximal auf eine DVD und verkaufen die neu.
Nightspider
2013-01-23, 18:24:40
Gibt es Infos zum 3D Support der neuen Konsolen?
Eigentlich kann man doch 3D in jedem Spiel erwarten oder?
Schließlich hat jeder neue Fernseher 3D. Alles Andere fände ich irgendwie traurig.
Ganon
2013-01-23, 18:39:32
Gibt es Infos zum 3D Support der neuen Konsolen
Afaik kann jede Konsole mit HDMI 3D ausgeben. Muss der Entwickler des Spiel halt nur machen, sofern Leistung da ist.
Da aber der ganze 3D-Hype aber eher am abklingen ist, wird es eher darauf hinauslaufen, dass es nicht wirklich genutzt wird.
TheCounter
2013-01-23, 18:43:04
Eigentlich kann man doch 3D in jedem Spiel erwarten oder?
Macht nur Sinn bei spielen ab 60FPS, ansonsten flimmert das ganze extrem.
60FPS werden aber wohl nur die Aussnahme werden.
Nightspider
2013-01-23, 18:43:29
Der 3D Medien-und Herstellerhype ist vorbei aber die Leute, die in 3D zocken und in 3D zocken wollen steigt und steigt.
Ich kenne immer mehr Leute die Games mit 3D Support wollen.
Macht nur Sinn bei spielen ab 60FPS, ansonsten flimmert das ganze extrem.
60FPS werden aber wohl nur die Aussnahme werden.
Bei Polarisations-3D flimmert gar nix. ;)
Ganon
2013-01-23, 18:44:51
Ich kenne immer mehr Leute die Games mit 3D Support wollen.
Und ich kenne nur Leute die das 3D beim 3DS abschalten, in 2D-Vorstellungen wollen und denen es zu viel ist mit 3D-Brille zu Hause zu hocken ;-)
-Miles_Prower-
2013-01-23, 18:55:04
Ich bin sowieso gespannt, wie die die bestehenden xbox und PS Account und die Erfolge/Trophäen übernehmen. Einfach alles auf null setzen wäre ja auch nicht das wahre.Die Erfolge/Throphäen werden einfach weiterlaufen, da wird nichts zurückgesetzt. Kannst du doch bereits an der PSVita erkennen.
Iruwen
2013-01-23, 19:29:24
Bei Polarisations-3D flimmert gar nix. ;)
Dafür halbiert sich die Auflösung.
TheCounter
2013-01-23, 19:34:25
Bei Polarisations-3D flimmert gar nix. ;)
Ich besitze einen LG Pol-3D Fernseher und habe bereits diverse Xbox 360 Spiele mit 3D-Unterstütztung getestet.
Absolut unspielbar. Sobald sich das Bild bewegt flimmert alles und man sieht gar nichts mehr.
Akkarin
2013-01-23, 20:48:50
http://x-surface.tumblr.com/
Die 1.9 GHz und 60fps waren frei erfunden.
Blediator16
2013-01-23, 20:56:17
Ich besitze einen LG Pol-3D Fernseher und habe bereits diverse Xbox 360 Spiele mit 3D-Unterstütztung getestet.
Absolut unspielbar. Sobald sich das Bild bewegt flimmert alles und man sieht gar nichts mehr.
Ich wusste garnicht, dass die Xbox360 3D unterstützt? Oder ist das der 2d->3d Modus vom TV? Zumindest weiss ich von der PS3 und 3D Unterstützung.
Sven77
2013-01-23, 20:57:55
Tut sie. Ist ja auch keine Kunst.
Nightspider
2013-01-23, 21:00:47
Dafür halbiert sich die Auflösung.
Ich dachte man könne bei richtiger 3D-Optimierung einiges an Leistung Sparen, so dass das 2. Bild für deutlich unter 50% gerendert werden könne.
Gab es nicht mal vor 1-2 Jahren eine Meldung das ein Team es geschafft hat Stereoskopie mit nur 5% Leistungseinbußen zu realisieren?
Ich besitze einen LG Pol-3D Fernseher und habe bereits diverse Xbox 360 Spiele mit 3D-Unterstütztung getestet.
Absolut unspielbar. Sobald sich das Bild bewegt flimmert alles und man sieht gar nichts mehr.
Und was flimmert da? Das liegt doch dann sicherlich an der niedrigen Auflösung oder?
pittiplatsch
2013-01-23, 21:20:25
Ich schätze, die "Specs" von vgleaks und eurogamer sind naja Fake.
https://twitter.com/majornelson/status/294156996205240320 ;D
dildo4u
2013-01-23, 21:24:52
Klar stimmen die Specs für die Konsolen nicht zu 100%,weil es wenn dann Infos zu den Dev Kits sind.Selbst wenn das letzte Fake war ging die Spekulationen schon vorher in die Richtung.
Tesseract
2013-01-23, 21:28:13
Ich dachte man könne bei richtiger 3D-Optimierung einiges an Leistung Sparen, so dass das 2. Bild für deutlich unter 50% gerendert werden könne.
es geht wohl nicht um die rechenlast sondern um die datenrate zum monitor. irgendwo muss man da einsparen, entweder an der framerate, den zeilen oder sonstwas.
Gab es nicht mal vor 1-2 Jahren eine Meldung das ein Team es geschafft hat Stereoskopie mit nur 5% Leistungseinbußen zu realisieren?
Crytek. Das Ergebnis der Screenspace Methoden ist imo aber eher "naja".
Und was flimmert da? Das liegt doch dann sicherlich an der niedrigen Auflösung oder?
Die Spiele halbieren auf Konsolen meist die vertikale Auflösung und der passive 3D Fernseher auch. Mit etwas Pech überschneidet sich das dann noch....
Ich schätze, die "Specs" von vgleaks und eurogamer sind naja Fake.
Welche Fakten soll die Presse denn kontrollieren?
Entweder jemand weiß was drin ist oder nicht. Da die Presse es nicht weiß, können sie nichts anderes machen als jedes Gerücht zu veröffentlichen.
Nightspider
2013-01-23, 21:51:06
es geht wohl nicht um die rechenlast sondern um die datenrate zum monitor. irgendwo muss man da einsparen, entweder an der framerate, den zeilen oder sonstwas.
Hö? HDMI hat doch locker genug Bandbreite für max. 1080p mit 3D oder?
Akkarin
2013-01-23, 21:56:15
Welche Fakten soll die Presse denn kontrollieren?
Entweder jemand weiß was drin ist oder nicht. Da die Presse es nicht weiß, können sie nichts anderes machen als jedes Gerücht zu veröffentlichen.
Ich hab den link zum blog des autors der gerüchte weiter obern veröffentlicht. Da hat jemand ein paar seiten angeschrieben "hey, ich bin ein Microsoft Mitarbeiter, hier sind ein paar paar specs die ungefähr den Gerüchten entsprechen" und der shit wurde veröffentlicht ohne das sie irgendein Gespräch mit ihm hatten. Da wurde nicht einmal ein Gedanke daran verschwendet irgendwie herauszufinden ob was wahres dran ist.
edit: http://x-surface.tumblr.com/
TheCounter
2013-01-23, 22:04:06
Die Spiele halbieren auf Konsolen meist die vertikale Auflösung und der passive 3D Fernseher auch. Mit etwas Pech überschneidet sich das dann noch....
Das könnte es wohl sein. Das komplette Bild flimmert und wackelt so stark das man nichts mehr erkennen kann.
Getestet habe ich Avatar, Gears of War 3, Batman Arkham City & Halo: CEA. Überall das gleiche Bild.
pixelguy
2013-01-23, 22:09:56
Erinnert sich noch jemand an dieses Bild? Wurde von Sony als Grafik-Preview für die PS3 genannt:
http://cache.deadspin.com/archives/madden2006open.jpg
Her ein interessanter Vergleich: http://www.1up.com/do/blogEntry?bId=9017339
Was meint ihr, bekommen wir wieder so einen Blödsinn gezeigt? Womit ist zum Start zu rechnen? Wenn Samaritan schon zum Launch möglich wäre, ist ja deutlich mehr zu erwarten, oder? Man beachte die Sprünge in der aktuellen Gen.
dargo
2013-01-23, 22:33:01
Ich weiß nicht was ihr immer mit eurer Samaritan Demo habt? Nachtsetting wo man eh vieles kaschieren kann und im Hintergrund eine Bitmap. Grandiose Leistung. :uclap: Zudem dürfte die UE4 eher für die neuen Konsolen interessant sein als die UE3.x. Und ja... natürlich werden die Marketingfuzzis bei Sony und MS wieder alles geben. ;)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.