PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 [33] 34 35 36 37 38 39

Locuza
2013-05-14, 15:39:43
Weil der Maßstab nunmal x86er-CPUs mit OoOE, allgemein sehr guter Sprungvorhersage
Beim Cell/Xenon ist das eine primitive Branch-Unit mit nur simplen Vorhersagen?
Du hast mal gemeint die OoO-Fähigkeiten sind von einem 750CL (Wii/Wiiu) auch sehr simpel gehalten, ähnlich primitiv oder gibt es dort doch einige Vorteile gegenüber einem alten Xenon, wobei beide Designs ja aus den letztem 10 Jahren stammen.

robbitop
2013-05-14, 15:45:51
@Gipsel
Weitere Laienfrage: der Zusatzaufwand ist doch aber bezogen auf den Gesamtaufwand eines AAA-Spieles noch relativ gering oder?
Ich habe irgendwo mal gelesen, dass 90...95 % des Zeitaufwandes in den Content eines Spiels fließen und nur 5...10 % in die Engine. Gehört das Optimieren des CPU Codes nicht in letzteres Ressour?

Letztenendes muss man bei den Konsolen schon verdammt gut optimiert haben (gefühlt gesehn), wenn man sich anschaut, was auf der PS2 (auch in Order Kern), PS3 und der X360 möglich war.
Auf dem PC sah man sowas jedenfalls nicht mit einem Athlon mit 1300 MHz. :) (ich weiß: Äpfel - Birnen)

][immy
2013-05-14, 17:01:00
@Gipsel
Weitere Laienfrage: der Zusatzaufwand ist doch aber bezogen auf den Gesamtaufwand eines AAA-Spieles noch relativ gering oder?
Ich habe irgendwo mal gelesen, dass 90...95 % des Zeitaufwandes in den Content eines Spiels fließen und nur 5...10 % in die Engine. Gehört das Optimieren des CPU Codes nicht in letzteres Ressour?

Letztenendes muss man bei den Konsolen schon verdammt gut optimiert haben (gefühlt gesehn), wenn man sich anschaut, was auf der PS2 (auch in Order Kern), PS3 und der X360 möglich war.
Auf dem PC sah man sowas jedenfalls nicht mit einem Athlon mit 1300 MHz. :) (ich weiß: Äpfel - Birnen)
wirfst du grad Grafikchip und die CPU durcheinander?

zudem, klar kann man das nicht wirklich vergleichen mit einem x86er Prozessor in einem normalen PC. Auf nem PC wirst du immer so viel overhead und so wenig optimierungen haben, das der Xenon auch mit nem Core i* noch ganz gut mithalten kann. Aber ein x86er Chip in einer Konsole, für den dann auch hochoptimierter-Code zur Verfügung steht ist dann schon eine ganz andere Liga.
Da kommen ja auch noch die ganzen schönen kleinen Erweiterungen der Letzten jahre hinzu (SSE3,4, AVX, ...).
Aber schau dir einfach mal das Beispiel "Browser" an. die PS3 und die xbox 360 warden sogar von kleinen Handy-Chips mühelos abgehängt. Gut Sony und MS warden dort nicht so wahnsinnig viel Zeit reingesteckt haben, aber daran kann man schon merken das extrem viele optimierungen notwendig sind um dies überhaupt auf den Chips gut zum laufen zu bringen.

Zudem kommen zu den ganzen variable dann noch Themen wie Caches und Speicher hinzu. Zum einen fallen diese größer aus und zum anderen sollten auch diese wieder schneller sein.

Alles im allem, es wird bestimmt nicht weniger CPU-Leistung. Aber wohl auch nicht so ein großer schritt wie von der xbox zur xbox360 oder von der PS2 zur PS3.

Coda
2013-05-14, 21:01:09
Aber auch das hat man mit harter Optimierung doch halbwegs im Griff, dass man die CPU einer Konsole immer mit schmackhaftem Code beliefert und möglichst nah am Optimum fährt oder?
Das Problem ist, dass bei einem Out-Of-Order-Kern Cache-Misses versteckt werden können, indem die CPU so lange andere Instructions ausführt.

Bei In-Order-CPUs kann man zwar versuchen vom Compiler aus Speicherzugriffe so weit wie möglich nach hinten zu verschieben und Prefetching zu verwenden, perfekt funktionieren tut das aber nie.

Außerdem gab's bei den Last-Gen-PowerPCs übel böse Load-Hit-Store-Stalls weil es kein Store-Forwarding zwischen ALU und FPU gibt.

Acid-Beatz
2013-05-14, 21:40:32
Außerdem gab's bei den Last-Gen-PowerPCs übel böse Load-Hit-Store-Stalls weil es kein Store-Forwarding zwischen ALU und FPU gibt.
Aber ist das letztlich nicht ziemlich egal? Bei den ganzen Konsolen waren die CPUs doch immer nur "Wasserbringer", die Arbeit haben dann spezielle Chips wie die Cell-SPE oder eben der Grafik-Chip gemacht?!
Die erste Xbox hatte meines Wissens nach einen kastrierten Celeron als Innenleben, eine PS3 einen PowerPC mit zweifach-SMT und eine Xbox-360 drei Kernchen mit SMT.
Gut, die letzten Beiden sind sicher auch nicht unbedingt langsam, trotzdem aber nichts im Vergleich zu einem Power5, der aus dieser Zeit kommt und sich die gleichen Gene teilt ...



Greez

dildo4u
2013-05-15, 00:30:38
Killzone Shadow Fall (PS4) Tech PDF

http://www.guerrilla-games.com/presentations/Valient_Killzone_Shadow_Fall_Demo_Postmortem.pdf

Video der Präsentation

http://youtu.be/tgZZ9ODW0rw

Im PDF gibt's viele Info z.b zur Ram Belegung,1.5GB + 3GB V-ram Polycount vs KZ3 etc.

http://abload.de/img/guerrillagames1bojl3.jpg

Felixxz2
2013-05-15, 00:58:50
Schaut ja schon sehr nett aus und zeigt auch gut, dass die da noch einiges an Potenzial mit zukünftigen Engines und Optmierungen sehen. Und es läuft jetzt schon in 1080p30!

Da wird man wohl optisch noch einiges feines sehen. RAM Verbrauch ist natürlich pervers, aber wschl auch unoptimiert. Von 512MB auf genutzte 4,5GB ist schon ne Hausnummer. Da passen einige Buffer schon nicht in den kompletten RAM der PS3 :freak:

Hayab
2013-05-15, 01:01:15
Naja irgendwie kann man das als pseudo Pro marketing betrachten.
7 LODs auf 30+ Meter, der letzte davon nur 150 Polygone. Wenn das kein Schwachsinn ist.

Gipsel
2013-05-15, 01:36:21
Killzone Shadow Fall (PS4) Tech PDF

http://www.guerrilla-games.com/presentations/Valient_Killzone_Shadow_Fall_Demo_Postmortem.pdf

Video der Präsentation

http://youtu.be/tgZZ9ODW0rw

Im PDF gibt's viele Info z.b zur Ram Belegung,1.5GB + 3GB V-ram Polycount vs KZ3 etc.

http://abload.de/img/guerrillagames1bojl3.jpg
Achja, und im Profiler kann man ablesen, daß der CPU-Takt im DevKit definitiv auf 1,6GHz stand. :)
Und vielleicht versehe ich mich auch gerade, aber das Spiel scheint erstmal nur 6 Threads zu nutzen.

Locuza
2013-05-15, 02:05:14
Achja, und im Profiler kann man ablesen, daß der CPU-Takt im DevKit definitiv auf 1,6GHz stand. :)

Steht das dort oder hast du im Kopf wieder einmal kurz die Latenzen und Rendertimes überschlagen und das dir im Kopf errechnet? ;D

Gipsel
2013-05-15, 02:14:16
Steht das dort oder hast du im Kopf wieder einmal kurz die Latenzen und Rendertimes überschlagen und das dir im Kopf errechnet? ;DDa stehen Zeitangaben sowohl in µs als auch in Taktzyklen. Und die Frequenz ist ja bekanntermaßen Takte pro Zeiteinheit. ;)

Locuza
2013-05-15, 02:21:56
Ah, dann könnte ich praktisch jeden Wert nehmen um ungefähr darauf zu kommen?

z.B.

Seite:

25 - StaticModelEntity: 47.865 Cycles / 30 µs = 1595.5
26 - AllocatorMutex: 68.233 Cycles / 42 µs = 1624.5

Gipsel
2013-05-15, 02:30:08
Ah, dann könnte ich praktisch jeden Wert nehmen um ungefähr darauf zu kommen?

z.B.

Seite:

25 - StaticModelEntity: 47.865 Cycles / 30 µs = 1595.5
26 - AllocatorMutex: 68.233 Cycles / 42 µs = 1624.5
Na klar. Du mußt nur berücksichtigen, dass die Zeit offenbar "nur" mit µs-Granularität gemessen wurde, weswegen das bei so kurzen Intervallen etwas Unsicherheit hat. Aber bei +-1µs liegen die 1600 MHz wohl immer drin. Oder Du suchst Dir Intervalle mit ein paar hundert µs raus. ;)
Z.B. gleich auf Seite 17, 487.710 Takte in 305µs ergeben 1,599 GHz (Unsicherheit ist hier nur +-0,3%).

Knuddelbearli
2013-05-15, 02:33:33
nur 1,6Ghz? Schade :-(

Nightspider
2013-05-15, 02:39:32
Ich bin echt sowas von gespannt auf die nächste Spiele-Generation.

Battlefield 5, GTA6, Unreal 3(?), Half Life 3, ein neues Batman usw. und das alles mit extrem² geiler Grafik, Spieleumgebung, Physik, Wettereffekten und einer Atmosphäre, wie man sie sich schon immer als kleines Kind erträumt hat. :O

Wie die Entwickler von KillZone geschrieben haben, man ist jetzt schon von der leichten programmierbarkeit der PS4 begeistert und man kratzt erst an der Oberfläche.

Das nächste Jahr wird toll. :)

Locuza
2013-05-15, 02:41:17
nur 1,6Ghz? Schade :-(
Marcan (Wiiu-Hacker/Failoverflow) hat letztes Jahr schon getwittert, dass Durango mit 1,6 Ghz laufen wird.

http://neogaf.com/forum/showthread.php?t=502294

Wenn das beide bis zum Ende halten, dann haben wir auf der CPU-Seite wahrscheinlich Klone.

Ich bin echt sowas von gespannt auf die nächste Spiele-Generation.

Battlefield 5, GTA6, Unreal 3(?), Half Life 3, ein neues Batman usw. und das alles mit extrem² geiler Grafik, Spieleumgebung, Physik, Wettereffekten und einer Atmosphäre, wie man sie sich schon immer als kleines Kind erträumt hat. :O

Pass auf, dass du dich nicht zu früh freust. :freak:

Also die 3 GB VRAM die KZ:SF belegt sind schon einmal eine Nummer.
Bin gespannt auf zukünftige MP-Titel und wie der PC sich im Vergleich schlagen wird.

dildo4u
2013-05-15, 02:42:46
nur 1,6Ghz? Schade :-(
Sind nicht die finalen Devkits,die finalen Devkit werden den fertigen 2TFlop SOC haben.Jetzt ist er vermutlich noch CPU + Desktop GPU alla 7850.

Gipsel
2013-05-15, 02:51:42
Sind nicht die finalen Devkits,die finalen Devkit werden den fertigen 2TFlop SOC haben.Jetzt ist er vermutlich noch CPU + Desktop GPU alla 7850.Ich denke schon, daß die dafür ein DevKit mit dem finalen Chip benutzt haben (die sollte es inzwischen schon eine Weile geben, ansonsten hätte Sony ein Problem). Das schließt aber nicht aus, das das Ding für die finale Konsole noch ein paar MHz anders getaktet wird, je nach Yield und Stromverbrauch.
Die 1,6 GHz geistern ja schon länger durch die Gegend (sowohl für Orbis als auch Durango). Das war offenbar schlicht das Target, welches AMD als realistisch und MS und Sony als Ziel angegeben haben. Das wurde vermutlich erreicht. Genau wissen wir es dann spätestens in ein paar Monaten.

Knuddelbearli
2013-05-15, 03:55:36
ja die 1,6Ghz geistern schon eine weile durch web trotzdem habe ich eher auf 2-2,2 Ghz gehofft

gerade da ja amd von der stange 2 Ghz anbietet

Iruwen
2013-05-15, 09:21:19
Naja irgendwie kann man das als pseudo Pro marketing betrachten.
7 LODs auf 30+ Meter, der letzte davon nur 150 Polygone. Wenn das kein Schwachsinn ist.

Plop... plop... plop... plopplop... plopplopplopplopplopplop :D

TheCounter
2013-05-15, 09:24:20
Plop... plop... plop... plopplop... plopplopplopplopplopplop :D

Daran musste ich auch denken als ich das gelesen hab :freak:

Aber scheint als hätten sie die Übergänge gut inbekommen, in der Demo hab ich jedenfalls nix bemerkt.

M4xw0lf
2013-05-15, 09:27:51
Logischerweise ploppt es umso weniger je mehr LOD-Stufen es gibt.

Iruwen
2013-05-15, 09:35:35
Frage was "Distance 2" genau bedeutet.

Finch
2013-05-15, 09:39:00
2 Distanzeinheiten :D cm, dm, m, km, AE, such dir was aus ;)

robbitop
2013-05-15, 09:51:58
Wie die Entwickler von KillZone geschrieben haben, man ist jetzt schon von der leichten programmierbarkeit der PS4 begeistert und man kratzt erst an der Oberfläche.

Marketingspeech. Von der PS3 hat man bis zum Schluss das gleiche erzählt. Von fast jeder Konsole. Dass man erst an der Oberfläche kratze und noch vieeel Leistungspotenzial da ist.
Da ist sicher auch noch einiges vorhanden. Aber diesmal ist die Optimierung einfacher, weil die Architektur einfacher ist. Da sind jetzt sicher keine Größenordnungen mehr drin.


--------------------------

1,6 GHz für das Devkit heißen nicht, dass die finale HW auch nur 1,6 GHz haben wird.

kiss
2013-05-15, 09:59:02
Wenn wir einfach mal an die ersten Games der PS360 denken und mit den heutigen vergleichen liegen dort Welten zwischen. Das ist wirklich richtig krass was die Entwickler aus der veralteten Hardware gezaubert haben.

Freue mich sehr auf die neuen Konsolen und habe das Gefühl das diesmal Sony einiges richtig macht. Letztendlich muss man mal schauen was final dabei rumkommt und welche Games am Start sind. :biggrin:

Coda
2013-05-15, 10:47:12
Aber ist das letztlich nicht ziemlich egal?
Nein, das kann sehr einfach passieren. Ein cast von int auf float irgendwo kann dir die Performance ruinieren.

DinosaurusRex
2013-05-15, 11:14:42
Hier gibts die komplette Präsentation als Video:

_29M8F-sRsU

Achja, und im Profiler kann man ablesen, daß der CPU-Takt im DevKit definitiv auf 1,6GHz stand. :)
Und vielleicht versehe ich mich auch gerade, aber das Spiel scheint erstmal nur 6 Threads zu nutzen.


Ich weiß ja nicht wie aktuell diese ganzen Demos und Präsentationen sind, aber laut einem EDGE Interview nutzen sie für die Demo vom PlayStation Event noch nicht alle Hardware Beschleunigungen:

"And this is a launch title, we’ve just got new hardware and we weren’t using some of the hardware acceleration for stuff like audio at the time we did the demo, which we have now done. So I think there’s a lot more left in the system.” Quelle (http://www.edge-online.com/features/killzone-shadow-fall-and-the-power-of-playstation-4/)


Auf NeoGAF findet kursiert noch folgendes:


Global Illumination prebaked and no mention of making it dynamic.

They are working with Sony ATG on new AA method - TMAA: "We're currently using FXAA for anti-aliasing, but we're working together with Sony ATG on a better solution more suitable for PS4. Watch out for TMAA"

City landscape is so low poly that is actually doable on current gen consoles, as i said quite a few times in past. The polycount is 500k for whole visible geometry, with lighting [so shadows] its 670k, only 100k more than God of War: Ascention for example.

only 1700 draw calls for GPU in city landscape scene

Bokeh DoF has currently almost same quality as in Crysis 2 on consoles. In C2 it was half-res of 720p and in KZ:SF its 1/4 of 1080p

G3cko
2013-05-15, 11:44:50
Im PDF gibt's viele Info z.b zur Ram Belegung,1.5GB + 3GB V-ram Polycount vs KZ3 etc.

Interessant. Mal sehen wieviel VRAM im Desktop erforderlich wird und wie zukunftssicher eine GTX680, oder gar die GTX690 mit nur 2GB wirklich ist.

Es wäre zumindest mal ein Weckruf an die Fanboys wenn 400€, bzw 900€ Karten gegen 250€ Karten abstinken.

S940
2013-05-15, 13:41:20
ja die 1,6Ghz geistern schon eine weile durch web trotzdem habe ich eher auf 2-2,2 Ghz gehofft

gerade da ja amd von der stange 2 Ghz anbietet
Na das sind nachwievor nur die (aktuellen) Dev-kisten, noch nicht das Endprodukt. 2 Ghz sind nachwievor drin.

Radeonfreak
2013-05-15, 14:03:27
Interessant. Mal sehen wieviel VRAM im Desktop erforderlich wird und wie zukunftssicher eine GTX680, oder gar die GTX690 mit nur 2GB wirklich ist..

Nicht besonders denk ich. Ein Grund warum ich mir die 4GB geholt habe. Habe ja jetzt schon einige Spiele die mehr als 2 GB füllen.

Hayab
2013-05-15, 14:29:41
In dem Vid wird fast nur alles wiedergekaut was jeder Grafikdesigner schon weis. Mit mehr VRAM kann man jedes 3D Objekt mit hochqualitativen Oberflaecheneigenschaftstexturen rendern, solange die GPU leistung das hergibt. Theoretisch kann man sogar Evironmentmaps in Echtzeit rendern, wenn man die Hardware dazu hat.

Irgendwie kehrt die PS4 Grafiktechnik endlich da wo der PC vor 10 Jahren schon war, weil man dieses mal mit dem VRAM nicht gegeizt hat.:D

robbitop
2013-05-15, 14:53:25
Irgendwie kehrt die PS4 Grafiktechnik endlich da wo der PC vor 10 Jahren schon war, weil man dieses mal mit dem VRAM nicht gegeizt hat.:D
Das war jetzt aber eine bewusste Übertreibung oder? :D

dildo4u
2013-05-15, 15:00:49
Die PS4 GPU wird vermutlich auf GCN 2.0 basieren das gibt noch nicht zu kaufen.

tobor
2013-05-15, 15:37:18
Marketingspeech. Von der PS3 hat man bis zum Schluss das gleiche erzählt. Von fast jeder Konsole. Dass man erst an der Oberfläche kratze und noch vieeel Leistungspotenzial da ist.
Da ist sicher auch noch einiges vorhanden. Aber diesmal ist die Optimierung einfacher, weil die Architektur einfacher ist. Da sind jetzt sicher keine Größenordnungen mehr drin.



Von Oblivion zu Skyrim sind Größenordnungen,auch auf der einfach(zumindest im Vergleich) zu programmierenden Xbox 360.

robbitop
2013-05-15, 15:43:46
Von Oblivion zu Skyrim sind Größenordnungen,auch auf der einfach(zumindest im Vergleich) zu programmierenden Xbox 360.
Für die Xbox360 ist es zwar etwas einfacher zu optimieren - aber von der PS4 ist es dennoch Meilen entfernt.
Damals schon 6 Threads, aber nur 512 MiB RAM, eDRAM, in Order Kerne, die nicht einfach bei Laune zu halten sind etc.
Das hatte man nach so vielen Jahren bei Skyrim ganz anders im Griff als zu einem Launchspiel.

Und dennoch sind es keine Größenordnungen. (1x Größenordnung = Faktor 10)

Nightspider
2013-05-15, 17:13:42
Naja man muss ja nicht von Größenordnungen sprechen aber die Unterschiede vor allem im Detail sind irgendwo zwischen gut sichtbar und riesig.

Man Vergleiche zB. auch Spiele der 1. Generation wie Call of Duty 2 und Battlefield 3.
Alleine die Schritte in Animation, Physik (Zerstörung) usw. Falls euch der CoD2 Vergleich nicht passt, nehmt halt Battlefield 2 Modern Combat heran.

Am Anfang ruckelten ja sogar Half Life 2 und Co. als Portierung auf PS3 trotz schlechterer Optik.
Und am Ende liefen Games wie Portal 2 reibungsfrei auf PS3 und 360.

Deswegen klappt meine Kinnlade schon automatisch herunter, wenn ich mir vorstelle, wie GTA6, Battlefield 5 und Co. in ein paar Jahren aussehen werden.

Wobei das erste Nextgen-GTA natürlich auch noch nicht die Leistung perfekt nutzen wird. GTA4 sieht gegen GTA5 ja auch nicht schön aus, was nicht nur am Setting liegt.

Finch
2013-05-15, 18:11:11
Die PS4 GPU wird vermutlich auf GCN 2.0 basieren das gibt noch nicht zu kaufen.

Woher hast du denn diese Information?

fondness
2013-05-15, 18:21:21
Die PS4 GPU wird vermutlich auf GCN 2.0 basieren das gibt noch nicht zu kaufen.

GCN1.1 aka C.I.
GCN2 wäre V.I.

Finch
2013-05-15, 18:23:36
GCN1.1 aka C.I.
GCN2 wäre V.I.

C.I. ... V.I. wat?

aufkrawall
2013-05-15, 18:30:26
Interessant. Mal sehen wieviel VRAM im Desktop erforderlich wird und wie zukunftssicher eine GTX680, oder gar die GTX690 mit nur 2GB wirklich ist.

Metro LL brauchte beim Benchmark bei mir in ~4k mit alles max und GPU-PhysX nicht einmal 1300 MB.
Mit 2 GB geht sicher einiges, wenn man nur will.

Nightspider
2013-05-15, 18:35:19
Metro mit kleinen Indoor-Levels ist sicherlich KEIN Maßstab. ;)

fondness
2013-05-15, 18:35:30
Metro LL brauchte beim Benchmark bei mir in ~4k mit alles max und GPU-PhysX nicht einmal 1300 MB.
Mit 2 GB geht sicher einiges, wenn man nur will.

Ja wenn man in Außenlevel spart damit der VRAM der Geforce-Karten reicht.

aufkrawall
2013-05-15, 18:39:11
Ja wenn man in Außenlevel spart damit der VRAM der Geforce-Karten reicht.
Schwachsinn, Crysis 3 läuft ohne MSAA auch ohne Probs in 2880x1620.
Die Radeons hätten bei der Auflösung mit MSAA natürlich einen Vorteil: Die 10fps würden kaum stocken...

Felixxz2
2013-05-16, 02:45:01
Über die relativ kleinen 2GB muss man sicher nicht diskutieren. Für die echten Next-Gen Spiele sind die 2GB zu wenig. Nur wird wschl sowieso auch die Rohleistung der 680 nicht reichen, insofern makulatur. Vielleicht wird man in 2 Jahren auf der 7970 bessere Texturen oder mehr Weitsicht haben, aber zu langsam über die ganze Gen gesehn sind beide.

Ob man ne Radeon 1900 mit 256 oder 512MB hatte oder ne 8800GTS mit 320 oder 640MB hat 2009 auch niemanden mehr gekümmert.

][immy
2013-05-16, 08:13:30
was mich mal interessieren würde. wie sieht es eigentlich mit den ladezeiten aus?
an der transferraten von dem br Laufwerk oder der Festplatte selbst wird sich wohl nicht all zu viel getan haben. denn all die tollen Texturen müssen a auch irgendwie mal in den speicher gelangen. und Streaming dürfte hier auch nicht besonders viel helfen. bei den kleinen Texturen von xbox 360 und PS3 ging das ja noch, aber jetzt. man wird sicherlich keine besonders schnelle Festplatte verbauen um das auszugleichen.

robbitop
2013-05-16, 08:42:13
Das hatte Coda ja mal angedeutet, dass I/O der Flaschenhals dafür werden könnte. Vieleicht erhöhen sich dann einfach die Ladezeiten.
Um das etwas zu unterstützen soll ja die PS4 im Hintergrund immer wenn möglich das Spiel auf die HDD installieren, was die Ladezeiten (je länger/öfter man das Spiel spielt) reduzieren soll. Das ist wohl auch HW beschleunigt.

G3cko
2013-05-16, 08:51:28
Über die relativ kleinen 2GB muss man sicher nicht diskutieren. Für die echten Next-Gen Spiele sind die 2GB zu wenig. Nur wird wschl sowieso auch die Rohleistung der 680 nicht reichen, insofern makulatur. Vielleicht wird man in 2 Jahren auf der 7970 bessere Texturen oder mehr Weitsicht haben, aber zu langsam über die ganze Gen gesehn sind beide.

Ob man ne Radeon 1900 mit 256 oder 512MB hatte oder ne 8800GTS mit 320 oder 640MB hat 2009 auch niemanden mehr gekümmert.


Das mag für damals mit deinem Beispiel gelten, da man dort die Leistung einfach in Form von höherer Leistungsaufnahme erkauft hat.

Wie man schön an den letzten Grafikkartengenerationen erkennen kann werden die Sprünge immer kleiner. Man muss sich nur mal vor Augen halten wo eine 5870 (350€) aus 2009 noch heute steht. Dagegen verschwindet eine 8800GTS 320MB bereits nach 3-4 Jahren in der Bedeutungslosigkeit.

Zudem sind die Konsolen viel PC-ähnlicher. Und eine 7970Ghz hat 80% mehr Leistung als eine 7850, welche etwa der Konsole entspricht. Und was auch wichtig ist, der mobile Bereich wird immer wichtiger.

Frozone
2013-05-16, 09:09:47
Das hatte Coda ja mal angedeutet, dass I/O der Flaschenhals dafür werden könnte. Vieleicht erhöhen sich dann einfach die Ladezeiten.
Um das etwas zu unterstützen soll ja die PS4 im Hintergrund immer wenn möglich das Spiel auf die HDD installieren, was die Ladezeiten (je länger/öfter man das Spiel spielt) reduzieren soll. Das ist wohl auch HW beschleunigt.
Bei der neuen Gen wird wohl ne SSD die Ladezeiten ordentlich verkürzen können (wenn Spiel auf Platte installiert), bei der PS3 war das ja noch nicht so wirklich viel schneller.

Deinorius
2013-05-16, 09:22:41
@G3cko
Die GPU ist schon etwas schneller als die 7850. Erstens hat die mehr Shader und der Speicher ist sogar deutlich (IIRC 176 vs. 110) schneller.


@Frozone
Ich hoffe mal, du gehst nicht davon aus, dass die Konsole mit einer SSD ausgeliefert werden wird.

robbitop
2013-05-16, 09:36:05
Bei der neuen Gen wird wohl ne SSD die Ladezeiten ordentlich verkürzen können (wenn Spiel auf Platte installiert), bei der PS3 war das ja noch nicht so wirklich viel schneller.
Du meinst, sofern man eine nachrüsten kann?

Wäre mir ehrlich gesagt das Geld nicht wert. Bei einer Spielkonsole ist mir das egal, ob das Spiel jetzt 1 Minute oder 40 sekunden läd. Wenn ich 2-3 h spiele, ist das Verhältnis zwischen Lade- und Spielzeit eh so groß, dass das nicht in's Gewicht schlägt.


@Frozone
Ich hoffe mal, du gehst nicht davon aus, dass die Konsole mit einer SSD ausgeliefert werden wird.
Naja bei der PS3 konnte man ja selbstständig 2,5" HDDs/SSDs einbauen. Vieleicht besteht bei der PS4 weiterhin die Möglichkeit. Ich vermute, er meint genau das.

Iruwen
2013-05-16, 09:39:01
Das hatte Coda ja mal angedeutet, dass I/O der Flaschenhals dafür werden könnte. Vieleicht erhöhen sich dann einfach die Ladezeiten.
Um das etwas zu unterstützen soll ja die PS4 im Hintergrund immer wenn möglich das Spiel auf die HDD installieren, was die Ladezeiten (je länger/öfter man das Spiel spielt) reduzieren soll. Das ist wohl auch HW beschleunigt.

Da Sony schon eine sehr große Festplatte (http://www.onlinewelten.com/games/playstation-4/news/playstation-4-launch-grosse-festplatte-verfuegen-120287/) angekündigt hat ist davon wohl auszugehen.
Da schwinden die Vorteile der Konsolen dann auch so langsam dahin... zukünftig mehr OS Updates (natürlich Pflicht, sonst kein Store und kein Onlinezocken), mehr Spielupdates, längere Installationsdauer.

Frozone
2013-05-16, 09:53:45
@Frozone
Ich hoffe mal, du gehst nicht davon aus, dass die Konsole mit einer SSD ausgeliefert werden wird.
Nein natürlich nicht. Ich hätte das sehr gern, aber das wäre zu teuer für den Markt. Aber kann man ja hoffentlich wieder selber tauschen. Und wenn es dann einen grossen Vorteil bringt werde ich das definitiv machen. Wenn der Vorteil aber nur so gering wie bei der PS3 ist, kann ich darauf auch Verzichten.

Am Computer kann ich darauf nicht mehr verzichten. Ladezeiten sind was furchtbares.

Sven77
2013-05-16, 09:59:01
Passt wohl hier am besten rein:

“Yes, we’re discontinuing Online Pass,”

http://venturebeat.com/2013/05/15/ea-kills-its-controversial-online-pass-program/

Finch
2013-05-16, 11:59:40
Passt wohl hier am besten rein:

“Yes, we’re discontinuing Online Pass,”

http://venturebeat.com/2013/05/15/ea-kills-its-controversial-online-pass-program/

Mal sehen was als Nachfolger kommt, EA und co werden doch nicht so einfach aufgeben...

DinosaurusRex
2013-05-16, 13:39:40
Mal sehen was als Nachfolger kommt

Ich tippe auf ein als Free2Play vermarktetes Pay2Win System. ;D

john carmack
2013-05-16, 13:50:36
Am wichtigsten ist mir das es hoffentlich keine MatschTexturen mehr geben wird.

Mal schauen wie weit die Dev´s mit 8GB kommen.

drexsack
2013-05-16, 13:53:13
Wundert mich ehrlich gesagt auch. Wahrscheinlich haben sie es gekippt, weil man "nur" die Gebrauchtkäufer extra abziehen konnte. Mal sehen, was nun kommt (und alle betrifft)^^

][immy
2013-05-16, 14:41:11
Wundert mich ehrlich gesagt auch. Wahrscheinlich haben sie es gekippt, weil man "nur" die Gebrauchtkäufer extra abziehen konnte. Mal sehen, was nun kommt (und alle betrifft)^^
vermutlich ein generell nachkaufbarer multiplayer-Modus oder gar ein monatliches abo auf Origin-Spiele, damit man online zocken kann.
Das sie den online-pass wirklich abschaffen werden, glaube ich nun wirklich nicht.

das mit der HDD gibt mir echt zu denken. aktuell haben die Konsolen schon Probleme mit Streaming selbst wenn alles von der platte kommt. klar es muss aktuell eher viel gestreamt werden weil der speicher so klein ist, aber die Festplatten (die normalen HDDs) haben sich in den letzten jahren nicht so wirklich weiterentwickelt. und da in Konsolen wohl maximal 2,5" Platten mit recht geringer Umdrehungszahl eingebaut werden ... naja so richtig viel Übertragungsrate kommt dabei nicht zusammen.
und was die Ladezeit gegenüber Spielzeit anbelangt. bei einem open-world spiel sehe ich da kein Problem. bei allem anderen das alle paar Minuten ein neues Level lädt dann schon eher.

Botcruscher
2013-05-16, 15:46:12
Da werden doch überwiegend nur große Datenblöcke geladen. Da ist auch die Festplatte mit 100MB/S dabei.

][immy
2013-05-16, 23:56:43
Da werden doch überwiegend nur große Datenblöcke geladen. Da ist auch die Festplatte mit 100MB/S dabei.
schonmal eine notebook festplatte gesehen die 100Mb/s schafft?
sitze grad am netbook und hier sind es ~10mb schreiben und max 30mb lesen.
du darfst nicht von 3,5" platten mit 7200 U/min ausgehen. wenn dann liefern die eine hdd mit max 5400 U/min, aber eher noch weniger (3600 U/min) mit aus. naja, da mögen in der theorie durchaus 100mb/s drin sein, aber in der praxis. nunja. aber sagen wir mal so, die zeiten wo man mal eben die cd/dvd/br einlegt und anfängt zu spielen sind wohl definitiv vorbei. es sei denn sie konnten die datenübertragungsrate auf magische weise weit erhöhen und das laufgeräusch gleichzeitig verringern.

Felixxz2
2013-05-17, 00:33:38
Das stimmt so eher garnicht.

In diesem Test zB. http://www.pcwelt.de/produkte/Test-Die-besten-2-5-Zoll-Festplatten-Update-134711.html?view=zoom&zoom=67142_bilder_mvp_bild%3A6%3A0

liegen die Platten zwischen 50 und 100 MB.

Wenn Sony Platten mit hoher Datendichte verbaut sind 80-100 absolut realistisch.

robbitop
2013-05-17, 08:57:13
In meinem alten Thinkpad X60 (Core Duo) mit 250 GB 2,5" HDD schaffe ich im LAN einen Datentransfer lesend auf den großen PC von ~70 MiB/s. Da wird heute sicher mehr gehen.

Telema
2013-05-19, 16:54:55
Final Specifications(as of March 2013):

CPU: 8-Core Custom AMD Architecture (enhanced Jaguar), 1,6GHz
GPU: GCN, 20 Shader Cores providing a total of 1280 threads, 0,8 GHz, at peak performance, the GPU can effectively issue 2 trillion floating-point operations per second
Memory: 12GB DDR3-2133, 384-Bit, Bandwidth: 102,4 GB/s
64 MB eSRAM, 2048-Bit ("on die"), Bandwidth: 204GB/s
Accelerator: 4 Data move engines, Image, video, and audio codecs, Kinect multichannel echo cancellation (MEC) ardware,Cryptography engines, SHAPE-Block
TDP: Max. 185 W

The Architecture Design is the same as the one from the Alpha Specifications (February 2012).
The Main Enhancements are the Memory Controller ( Custom "IP" 384-Bit) and the GPU-Part of the die ( 12 SCs to 20 SCs; 32 MB eSRAM to 64 MB eSRAM, double Bandwidth)
This results in both an increase in power consumption ( from 125 W to 185 W) and an increase of the size of the APU (300 mm2 to 450 mm2)
Yield Rates of the chip have been moderate at best (Improvements since September 2012)


Aus dem consolewars Forum geklaut

Gouvernator
2013-05-19, 17:00:08
12GB DDR3 ---> die wollen wohl wirklich ihr fettes Windows drauf knallen.

AnarchX
2013-05-19, 17:08:29
Eher wird man diesen Speicher nutzen, um on-the-fly in diverse Services wechseln zu können.

Das ganze klingt durchaus glaubwürdig, wenn auch der Preis wohl dann mindestens bei $500 liegt. Mit nur 384-Bit dürfte wohl auch der nächste Shrink leichter fallen.

Knuddelbearli
2013-05-19, 17:10:50
384Bit und 12Gb RAM? lagen die Leaks bisher wirklich so falsch oder ist die jetzt falsch? ^^

prinz_valium
2013-05-19, 17:25:40
wtf

wie vor einem jahr noch davon ausgegangen wurde, dass es 4gb shared ram gibt
und mache sogar dachten es würde reichen, weil es immernoch das zigfache der vorgänger version wäre

und jetzt sind wir schon beim 3 fachen :D
das ding wird keine spielekonsole, sondern eine multimedia/-tasking spielekonsole

Nightspider
2013-05-19, 17:45:03
Wieviel mm2 nehmen 64MB SRAM in 28nm ein?

Wieso nimmt Intel eDRAM und Microsoft SRAM?
Wenn ich mich nicht irre, nimmt SRAM mehr Area ein, ist dafür aber am schnellsten.

robbitop
2013-05-19, 17:47:38
Das Gerücht kann auch Hoax sein.

robbitop
2013-05-19, 17:49:09
Wieviel mm2 nehmen 64MB SRAM in 28nm ein?

Wieso nimmt Intel eDRAM und Microsoft SRAM?
Wenn ich mich nicht irre, nimmt SRAM mehr Area ein, ist dafür aber am schnellsten.
1T-SRAM ist praktisch das Gleiche wie eDRAM.

dildo4u
2013-05-19, 17:54:45
Das Gerücht kann auch Hoax sein.
Natürlich ist es Hoax.

Finch
2013-05-19, 17:55:36
384 Bit speicheranbindung? Das wage ich zu bezweifeln. GDDR5 Speicher wird irgendwann günstiger. 384bit speicheranbindung bleibt teuer.

prinz_valium
2013-05-19, 18:07:07
bei nem shink wird auch 384 bit günstiger
und bei ganzen 12 gb, kann sich das vllt schon rechnen.
aber wer kennt schon die genauen kalkulationen

die frage ist, ob die gerüchte stimmen, aber es ist ja kurz vor vorstellung. und da sind die specs dann doch meistens richtig. das lässt hoffen

Nightspider
2013-05-19, 18:23:53
Mich würde es auch wundern, wenn MS die Leistungskrone freiwillig an Sony übergeben würde.
Zudem sind 8-12 GB schon länger als Gerüchte in Umlauf.

Zuletzt hieß es ja 8GB DDR3 + 4GB GDDR5. 4GB wären auch echt zu wenig.

Aber defintiv glauben würde ich eh keinem Gerücht. Von daher abwarten und Tee trinken.
Ich zock eh primär am PC und freu mich über den Spung in der Grafik, welcher so oder so riesig wird.

dildo4u
2013-05-19, 18:36:13
MS hat bessere Tools als Sony daher wird man sich darauf verlassen,der Ansatz DDR3 Plus edram erfordert mehr Arbeit vom Entwickler.Dadurch kann MS Potenziell die Konsole billiger anbieten oder wenn nötig schneller billiger machen.

One thing we could have done is drop it down to 128-bit bus, which would drop the bandwidth to 88 gigabytes per second, and then have eDRAM on chip to bring the performance back up again," said Cerny. While that solution initially looked appealing to the team due to its ease of manufacturability, it was abandoned thanks to the complexity it would add for developers. "We did not want to create some kind of puzzle that the development community would have to solve in order to create their games. And so we stayed true to the philosophy of unified memory."

http://www.gamasutra.com/view/feature/191007/inside_the_playstation_4_with_mark_.php

Coda
2013-05-19, 18:39:47
MS hat bessere Tools als Sony daher wird man sich darauf verlassen,der Ansatz DDR3 Plus edram erfordert mehr Arbeit vom Entwickler.
Vernachlässigbar.

dildo4u
2013-05-19, 18:43:25
Dann hat MS die richtige Entscheidung getroffen.

Windi
2013-05-19, 18:53:02
Ist den jetzt DDR3@384bit + eDRAM immer noch billiger als GDDR5@256bit?
Wie sieht es kurzfristig und langfristig mit den Kosten aus?

unterschiedliche Speichermengen mal außen vor gelassen.

ndrs
2013-05-19, 18:56:00
bei nem shink wird auch 384 bit günstiger

Wohl kaum. Die Phy-Die Area shrinkt nur marginal. Den Pinout kannst du irgendwann nicht kleiner machen. Dazu kommt das Board-Layout, welches höchstwahrscheinlich mehr Lagen bräuchte.

Das einzige, was vielleicht gehen würde, wäre später auf DDR4-3200 zu wechseln und gleichzeitig auf 256bit zurückzugehen. Die Bandbreite bliebe ja dann identisch.

][immy
2013-05-19, 19:20:33
Ist den jetzt DDR3@384bit + eDRAM immer noch billiger als GDDR5@256bit?
Wie sieht es kurzfristig und langfristig mit den Kosten aus?

unterschiedliche Speichermengen mal außen vor gelassen.
Sollte schon günstiger sein. Gddr ist halt teuer und gddr5 wird noch teurer wenn gddr6 kommt. Dann gibt es nur noch Resteverwertung und dann steigen die preise. Bei ddr3 sollte das nicht so schnell passieren besonders weil 2133 nicht grad die höchste Ausbaustufe ist.
Was die shrinks angeht. Diese werden eh seltener werden, von daher sollte hier die Pin Anzahl auch nicht stören.
Aber ist ja wieder nur ein Gerücht.

Was mich trotzdem noch interessiert, was sind diese move engines?

Akkarin
2013-05-19, 19:51:32
Ist inzwischen bekannt was MS genau mit eSRAM meint ?

=Floi=
2013-05-19, 20:55:02
dachte die machen da verträge über 5-7 jahre beim ram?!

Crazy_Bon
2013-05-19, 21:24:29
Zumindenst bei der Xbox1 hat MS fröhlich die Hersteller des RAMs gewechselt, weiss nicht wie es sich bei der Xbox360 verhält.

][immy
2013-05-19, 23:24:28
dachte die machen da verträge über 5-7 jahre beim ram?!

welcher Hersteller würde sich darauf einlassen?
grad sind die speicherpreise noch extrem raufgegangen (naja sie waren eher zu niedrig) aber sowas unterschreibt keiner über 7 jahre.
sollte sich das mit den 12 GB allerdings bewahrheiten, dürfte wohl ein recht beachtlicher teil aufs OS + hintergrunddienst entfallen. MS will ja keine pure spiele-Konsole sondern eher ein hybrid einbieten. aber 12 gb wäre aus heutiger sich schon verdammt viel. der PC hat sich ja noch nicht mal wirklich von den 32-bit Begrenzungen abgehoben. nunja, am 21ten wissen wir mehr.

MS hat ja noch den "Vorteil" das man nicht all zu hardwarenah entwickelt. dadurch hätten sie zumindest auch die Möglichkeit im Hintergrund die speichertechnolgie zu wechseln ohne das dies großartig auffällt. naja zumindest in der Theorie. würde mich zumindest nicht wundern wenn es in ein paar jahren dann DDR4 Bausteine sind (weil diese dann eventuell günstiger sind). Bei der PS4 die man ja hardware-nah ansprechen kann dürfte dies mehr Probleme verursachen.

btw. falls noch jemand ne Erklärung zu den move-engines sucht http://www.vgleaks.com/world-exclusive-durangos-move-engines/

robbitop
2013-05-20, 09:21:38
Ist inzwischen bekannt was MS genau mit eSRAM meint ?
Das ist 1T-SRAM, was praktisch das Gleiche wie eDRAM ist.

Herr Doktor Klöbner
2013-05-20, 10:08:49
Da wette ich jetzt mal nen Kasten Bier das diese Meldung völliger Quark ist.

Die ursprünglich bekannten Daten waren aus der selben seriösen Quelle wie bei der PS4, wo selbst die zu diesem Zeitpunkt nicht glaubhaften 8 GB GDDR5 RAM im Vorfeld bekannt wurden.

Eine Konsole die Weihnachten 2013 in den Läden stehen soll, das heist Massenfertigung ab Frühherbst, die APUs müßen heute schon in die Fertigung damit das klappt. Eine derartige Designänderung ist zu diesem Zeitpunkt völlig undenkbar, da wäre Ende 2014 wohl kaum zu halten.

Und 450 mm² in 28nm. Wer bitte soll den das bezahlen ? Da hat sich jemand was zusammenfantasiert, nie und nimmer stimmt das.

prinz_valium
2013-05-20, 10:33:46
wurde bisher auch noch von keiner seriösen newsseite aufgegriffen.
gelesen habe ich es nur hier. es ist also schon recht wahrscheinlich, dass die ganze sache nur ein troll ist

aber schöner wäre, wenn es stimmt :D

Nightspider
2013-05-20, 11:01:01
Ja und? Der reine 450mm2 Chip dürfte maximal 150-200 Euro kosten.

00-Schneider
2013-05-20, 12:47:43
Ja und? Der reine 450mm2 Chip dürfte maximal 150-200 Euro kosten.


Wenn jede Konsole mit Kinect 2.0 kommen soll, müssen sie ja bei der Hardware im Gegensatz zu Sony sparen. Oder glaubst du, dass MS es wagt, eine teure Konsole als Sony zu releasen?

----------------------------------

Zusammenfassung der Gerüchte zur XBOX 3 von DF:

http://www.eurogamer.net/articles/2013-05-17-the-next-xbox-everything-we-know-so-far

dildo4u
2013-05-20, 12:51:23
Diese großen Chip's sind extrem teuer wenn man es z.b mit die im ipad vergleicht außerdem kann man nich einfach nur Komponenten rechnen,das muss auch noch zusammen gebaut werden.Die Teile müssen von verschiedenen Fabriken geliefert werden etc.

Herr Doktor Klöbner
2013-05-20, 13:00:10
Mal die Kostenseite außer Acht gelassen :

Da müßte Scotty von der Sternenflotte zu AMD gewechselt sein.

" Scotty, vergrößern sie das SI auf 384 Bit, verdoppeln sie den eSRAM in Größe und Speicherbandbreite und hauen noch 8 CU auf den Chip, sie haben 3 Wochen !"

Scotty: " Ich schaff das in einer Woche, wärmt schon mal die Replikatoren vor "

Knuddelbearli
2013-05-20, 13:07:04
du hast den teil vergessen wo er sagt dafür braucht er mindestens 2 jahre

prinz_valium
2013-05-20, 13:11:37
die alpha specs sind ja sehr alt, wenn auch erst vor kurzem an die öffentlichkeit geraten.
dann ist die frage, zu welchem zeitpunkt man sich für mehr entschieden hätten. glaube kaum, dass das mal eben so im märz war. dann glaubt wohl wirklich niemand an einen großen wahrheitsgehalt.

die neuen (finalen?) specs müssen halt genauso gut und lange genug geheim gehalten worden sein und wären jetzt erst raus gekommen.
oder man hat gleich mit 2 möglichen varianten geplant. mal gucken ob die 1. variante reicht und wie viel leistung man damit hinbekommt und die andere version mit mehr war schon lange in der nebenher auch in der pipeline.

eine xbox für 499 mit DEM chip UND eingebautem kinect wäre schon ein ansage
wie gesagt. mir würde es gefallen. aber so ganz dran glauben tue ich auch nicht. möglich ist es aber schon

][immy
2013-05-20, 13:28:27
Mal die Kostenseite außer Acht gelassen :

Da müßte Scotty von der Sternenflotte zu AMD gewechselt sein.

" Scotty, vergrößern sie das SI auf 384 Bit, verdoppeln sie den eSRAM in Größe und Speicherbandbreite und hauen noch 8 CU auf den Chip, sie haben 3 Wochen !"

Scotty: " Ich schaff das in einer Woche, wärmt schon mal die Replikatoren vor "
bitte nach wie vor nicht vergessen, bisher sind alle "specs" außer die von der PS4 nur gerüchte. es gibt hier keinerlei Bestätigungen oder gar einen Anhaltspunkt wie alt diese angeblichen specs waren.

was die 450mm² angeht, nunja es kommt eher immer drauf an was da alles mit drauf ist. wenn man dafür ein minimales Mainboard benötigt und an der kühlung sparen kann, kann sich das schon rechnen (eine größere die-fläche lässt sich einfacher kühlen als eine kleine, da sich die wärme besser verteilen kann (wenn nicht grad jedes mm² extreme Hitze produziert).

es kann durchaus auch sein das MS die Konsole wieder finanziert. Zumindest MS hat das Geld und so wie es bei sony aussieht werden die die Konsole mit dem massigen gddr5 speicher ebenfalls finanzieren müssen.
Zudem wird es garantiert so was wie einen app-store geben auf der neuen xbox wo man das eine oder andere auch kaufen kann (eventuell sogar der Windows store). das ding wird auf jeden fall nicht nur dafür ausgelegt sein nur mit spielen Geld zu verdienen sondern auch mit anderen diensten. da kann sich eine Investition seitens des Herstellers schon mal lohnen.

Akkarin
2013-05-20, 16:13:41
Das ist 1T-SRAM, was praktisch das Gleiche wie eDRAM ist.

Ist das 3DCenter spekulation oder gibt es leaks dazu ?

Warum nennt MS es überhaupt eSRAM wenn es 1T "eSRAM" ist? Vom marketing her dürfte es wohl kaum einen unterschied machen, das ist für die meisten einfach nur noch eine Abkürzung. Und leute die sich wirklich dafür interessieren werden wohl schnell herausfinden dass es 1T und nicht 6/8T ist.

Crazy_Bon
2013-05-20, 16:56:58
Soviel ich gelesen habe, ist eSRAM statischer RAM, bei dem die Informationen nicht verloren gehen und jahrelang gespeichert werden können, wenn kein Strom mehr anliegt. Eher für mobile Geräte oder gar Speicherkarten entwickelt, daher umso merkwürdiger, daß man es in einer Konsole verwendet. Was hat Microsoft vor, daß sie eSRAM vor eDRAM vorziehen?

Herr Doktor Klöbner
2013-05-20, 17:28:48
Jetzt die ganz große Überraschung:

Die PS4 wird rechteckig und schwarz: http://www.youtube.com/watch?v=QjXU1anoC5Y

MS wird wohl die XBox 720 morgen 19:00 Uhr vorstellen.

Lightning
2013-05-20, 17:38:28
Jetzt die ganz große Überraschung:

Die PS4 wird rechteckig und schwarz: http://www.youtube.com/watch?v=QjXU1anoC5Y

Nach den Rundungen der PS3 wäre das durchaus ein wenig überraschend. Positiv, wie ich finde.

Nightspider
2013-05-20, 17:41:19
Wenn jede Konsole mit Kinect 2.0 kommen soll, müssen sie ja bei der Hardware im Gegensatz zu Sony sparen. Oder glaubst du, dass MS es wagt, eine teure Konsole als Sony zu releasen?]

Ja, das wäre gut möglich, wenn die Hardware besser ist und Kinect 2 beI liegt.

Außerdem könnte MS mehr subventionierEn.

Akkarin
2013-05-20, 17:42:26
Kann sein dass ich mich irre, aber SRAM ist doch das ganz normale zeug was z.B. in caches verwendet wird ? Das static steht doch hier nur dafür das es keine refreshes wie DRAM braucht ?

Gipsel
2013-05-21, 00:07:53
Das ist 1T-SRAM, was praktisch das Gleiche wie eDRAM ist.
Das ist längst nicht sicher. Das war die naheliegende Schlußfolgerung unter Annahme einer Fehlinterpreation auf dem Übertragungsweg des Gerüchts. Aber inzwischen beharren doch Einige aus unterschiedlichen Ecken darauf, daß das tatsächlich 32MB SRAM sind.
Soviel ich gelesen habe, ist eSRAM statischer RAM, bei dem die Informationen nicht verloren gehen und jahrelang gespeichert werden können, wenn kein Strom mehr anliegt. Eher für mobile Geräte oder gar Speicherkarten entwickelt, daher umso merkwürdiger, daß man es in einer Konsole verwendet. Was hat Microsoft vor, daß sie eSRAM vor eDRAM vorziehen?
Kann sein dass ich mich irre, aber SRAM ist doch das ganz normale zeug was z.B. in caches verwendet wird ? Das static steht doch hier nur dafür das es keine refreshes wie DRAM braucht ?
Akkarin, Du irrst Dich nicht.

Ganz allgemein, 1T-SRAM ist tatsächlich eDRAM mit einem SRAM-Interface (es beinhaltet also den DRAM-Controller und kapselt den Prozessor von den Eigenarten des DRAMs, es sieht nach außen hin wie SRAM aus). Man erreicht eine höhere Dichte auf Kosten der Latenz. Bei sehr großen Speicherarrays rücken die aber näher zusammen (weil dann die Übertragungswege wesentlich zur Latenz beitragen).
Man spart mit eDRAM/1T-SRAM also Diefläche und damit prinzipiell Kosten. Allerdings sind für den eDRAM ein paar spezielle Prozeßschritte nötig, die den Preis wieder anheben. Man muß also schon sehr viel eDRAM auf's Die packen, bevor sich das lohnt (übrigens, bei jedem Shrink verdoppelt sich diese nötige Menge). Zudem macht eDRAM es schwieriger, auf neue Prozesse zu wechseln. Das dauert länger und die Auswahl an Fabs und Prozessen wird stark eingeschränkt (weil es nur wenige anbieten bzw. nur verspätet verfügbar ist).
Es gibt also durchaus Gründe, warum MS sich für "richtigen" SRAM entschieden haben könnte.

00-Schneider
2013-05-21, 00:51:10
VGLeaks: Durango Xbox Companion app for portable devices

http://www.vgleaks.com/use-your-mobile-or-tablet-with-durango-xbox-companion/

Zusammenfassung:

- Companion devices can reproduce not only HTML or Java, but also rendered graphics from Durango [up to 720p30].
- Internal hardware encoder of Durango is maxed at 1080p30. This processing power is shared with renderings of all additional devices [for example 720p for Durango game, 720p for one companion device]
- Recommended WiFi bandwith for companion device is 6mbits.
- If companion device network condition worsens, Durango will lower bitrate but it will not lower resolution of the video.
- Durango will automatically encode all video streams, but rendering of companion device game data will have impact on main game processing resources.
- Companion device can send back to Durango "touch, accelerometer, gyroscope, and text input".

Gouvernator
2013-05-21, 00:55:54
Per Wifi mit dem Galaxy Note in 720p Xbox720 Games zocken... nice.

StefanV
2013-05-21, 02:11:26
Gibts schon Infos über die Kompatibilität mit den Video Container Formaten?

MKV wird ja immer noch nicht von den Konsolen unterstützt (PS3 habe ich nicht, kann dazu nichts sagen), was ich irgendwie ziemlich erbärmlich finde. Ist da schon eine Änderung in Sicht?

Neosix
2013-05-21, 02:42:32
Dieser Punkt wird doch immer uninteressanter. Wer 400-500€ für ne Konsole hat, kann sich auch n SmartTV leisten und die fressen mittlerweile seit mehreren Generationen MKV ohne murren. Wozu soll ich ne 100Watt Konsole neben dem TV laufen lassen, wenn ich das auch per USB Stick direkt in den Fernseher auch erledigen kann. Oder noch bequemer per LAN Freigabe im Netzwerk.

DinosaurusRex
2013-05-21, 07:50:46
http://s20.postimg.org/mec178qa5/Screen_shot_2013_05_20_at_16_50_26.png

L233
2013-05-21, 09:14:06
Dieser Punkt wird doch immer uninteressanter. Wer 400-500€ für ne Konsole hat, kann sich auch n SmartTV leisten und die fressen mittlerweile seit mehreren Generationen MKV ohne murren. Wozu soll ich ne 100Watt Konsole neben dem TV laufen lassen, wenn ich das auch per USB Stick direkt in den Fernseher auch erledigen kann. Oder noch bequemer per LAN Freigabe im Netzwerk.
Das Thema hatten wir hier im Fred bereits und ich finde die ganze Entertainment-Funktionalität der Konsolen ebenfalls weitgehend überflüssig. Interessant ist das bestenfalls für Leute, die einen älteren TV oder einen Low-End-TV ohne entsprechende Funktionalität haben.

Wenn ich irgendwelche MKVs anschauen möchte, dann streame ich die vom PC per DNLA auf Knopfdruck direkt auf den TV oder schiebe einen USB-Stick in den TV.

Iruwen
2013-05-21, 09:51:07
Dieser Punkt wird doch immer uninteressanter. Wer 400-500€ für ne Konsole hat, kann sich auch n SmartTV leisten und die fressen mittlerweile seit mehreren Generationen MKV ohne murren. Wozu soll ich ne 100Watt Konsole neben dem TV laufen lassen, wenn ich das auch per USB Stick direkt in den Fernseher auch erledigen kann. Oder noch bequemer per LAN Freigabe im Netzwerk.
Mein Plasma ist nicht smart, wird aber garantiert nicht ersetzt. Für mich ist das sehr interessant, momentan läuft parallel zur Konsole nämlich auch noch der Rechner mit dem Media Server. Und richtig spulen geht damit trotzdem nicht.
Ich glaube nicht dass die Masse der Leute sowas über den Fernseher macht. Für viele wird die Konsole auch BD/DVD-Abspieler sein und entsprechend eh schon zum Multimedia Equipment gehören, speziell was die PS3 angeht.

AnarchX
2013-05-21, 10:00:41
Die Hersteller wollen VoD-Angebote vermarkten. Mehr als die Unterstützung von Endkunden-Kamera-Formaten sollte man wohl nicht unbedingt erwarten.
Auch bei Smart-TVs gibt es schon teilweise künstliche Beschränkungen bei der Bitrate, obwohl die SoCs höhere Bitraten decoden können.

G3cko
2013-05-21, 12:44:36
http://www.gamestar.de/hardware/konsolen/microsoft-xbox-720/enthuellung_der_neuen_xbox,483,3012368.html

Watson007
2013-05-21, 12:51:03
Die Hersteller wollen VoD-Angebote vermarkten. Mehr als die Unterstützung von Endkunden-Kamera-Formaten sollte man wohl nicht unbedingt erwarten.
Auch bei Smart-TVs gibt es schon teilweise künstliche Beschränkungen bei der Bitrate, obwohl die SoCs höhere Bitraten encoden können.

Echt? Das heisst das Bild wird künstlich verschlechtert? Wäre ja mies :(

Neosix
2013-05-21, 12:53:59
Nein da wird nichts verschlechtert, speist man den TV mit nem Video mit "zu hoher" Bitrate gibt es eben kein Bild oder wenn überhaupt Artefakte. Man muss sich künstliche an die Bitrate des TVs halten die "freigegeben" sind.
Ist mir aber noch nicht untergekommen. Bei den "üblichen" mkvs trifft das eh nicht auf. Wahrscheinlich nur ein Problemen für Bildfetischisten die mit absurden Bitraten ein "perfektes" Bild haben möchten während sie Blumen Filmen.

AnarchX
2013-05-21, 13:02:41
Im konkreten Fall war es das High Profile, was versehentlich von einem LG-TV decodiert werden konnte. Aber das Problem wurde mit einem Update "gelöst".

Im Endeffekt sollte man sich keine zu großen Hoffnungen machen bei der Format-Unterstützung.

robbitop
2013-05-21, 16:52:18
Das ist längst nicht sicher. Das war die naheliegende Schlußfolgerung unter Annahme einer Fehlinterpreation auf dem Übertragungsweg des Gerüchts. Aber inzwischen beharren doch Einige aus unterschiedlichen Ecken darauf, daß das tatsächlich 32MB SRAM sind.


6T/8T SRAM wäre verflucht groß. Wenn man das nur für die GPU also Framebuffer nehmen wollen würde, wären Latenzeinsparungen auch gar nicht so kritisch. Es wäre doch glatte Verschwendung von Kernfläche, die man besser für GPU/CPU hätte verwenden können.

TheCounter
2013-05-21, 17:12:49
Nunja, in weniger als 2 Stunden wissen wir endlich mehr ;)

Gipsel
2013-05-21, 18:33:59
6T/8T SRAM wäre verflucht groß.Dürfte definitiv <80mm² sein (wenn man mal SRAMs von TSMC als Grundlage nimmt, die 8MB ECC geschützten Registerfiles von Tahiti messen nur irgendwas bei 22mm² oder so, und die bestehen aus jeweils 4kB fassenden Makroblöcken). Je nachdem wie hoch sie die Dichte prügeln konnten (große Arrays mit größeren Blöcken sind meist etwas dichter, zudem darf die Latenz höher ausfallen als bei den Regfiles), eventuell auch unter 60mm². Besonders schnell ist der SRAM ja mit seinen 102GB/s angeblich auch nicht. Da kann es schnell passieren, daß z.B. ein 360mm² Die mit 32MB SRAM im Endeffekt billiger kommt als ein 325mm² Die mit 32MB 1T-SRAM. Und bei Shrinks hat man wie gesagt auch weniger Probleme.

AwesomeSauce
2013-05-21, 19:14:40
Xbox One ;D

y33H@
2013-05-21, 19:18:59
Ok, man kann damit fernsehen ... schön.

EDIT
45785

AnarchX
2013-05-21, 19:23:49
5 Mrd. Transistoren sprechen deutlich für viel On-Die-Speicher. Wohl möglich doch 6T-SRAM.

y33H@
2013-05-21, 19:24:42
8 GB RAM, 8C-CPU, 500 GB HDD, USB 3.0, BR-Laufwerk etc

00-Schneider
2013-05-21, 19:34:07
5 Mrd. Transistoren sprechen deutlich für viel On-Die-Speicher. Wohl möglich doch 6T-SRAM.


Wieviel Transistoren haben die PS4 und WiiU?

Windi
2013-05-21, 19:41:31
Wenn die Multimedia Sachen wirklich so funktionieren wie dort vorgeführt, dann bin ich beeindruckt.
Aber da hängt alles an der Sprachsteuerung: Wie gut kommt die Xbox mit unterschiedlichen Sprachen, Dialekten und schlechter Aussprache zurecht.
Wenn es da hängt kann man das ganze Feature vergessen.

Aber wenn sie es wirklich schaffen, das das in Deutschland genau so gut funktioniert, dann Respekt.

Gouvernator
2013-05-21, 19:46:40
Allein die Präsentation TV, Live, Billigtrailer deuten wohl eher auf schlechte 3D Leistung hin. Da lag Sony's Schwerpunkt besser auf der Grafik - was ja auch wichtiger ist.

xxxgamerxxx
2013-05-21, 20:01:08
Wie gut kommt die Xbox mit unterschiedlichen Sprachen, Dialekten und schlechter Aussprache zurecht.

Das funktioniert doch jetzt schon super. Glaube kaum, dass es da Probleme gibt.

AwesomeSauce
2013-05-21, 20:05:16
Keine einzige Minute Gameplay gezeigt;D

PrefoX
2013-05-21, 20:08:17
Keine einzige Minute Gameplay gezeigt;D
die haben auch gesagt das es um die konsole geht, die spiele kommen bei der E3 dran, also dann würd ich eher darüber meckern, das wir immernoch nix über die hardware wissen :D

L233
2013-05-21, 20:08:49
Minutenlang über Fantasy Football gelabert :crazy:

Gouvernator
2013-05-21, 20:09:13
Ersteindruck: was für ein Schrott...
PS4 wird wohl die geilste Konsole zum gamen. Die Grafik ist ja so billig. Ich hab noch gehofft bei COD er erwähnt AA und AF... nix da - nur 60 FPS.

dildo4u
2013-05-21, 20:09:52
COD Ghost Trailer

http://youtu.be/Zxnx3W-HA18

lol in 720p.

AwesomeSauce
2013-05-21, 20:10:46
Immerhin kein Always-On :rolleyes:

AnarchX
2013-05-21, 20:13:51
http://www.wired.com/images_blogs/gadgetlab/2013/05/20130514-XBOX-ONE-TEARDOWN-015-660x440.jpg
Full-Size: http://www.wired.com/images_blogs/gadgetlab/2013/05/20130514-XBOX-ONE-TEARDOWN-015.jpg

http://www.wired.com/gadgetlab/2013/05/xbox-one-development-photos/#slideid-138498

Tesseract
2013-05-21, 20:15:40
Ersteindruck: was für ein Schrott...
PS4 wird wohl die geilste Konsole zum gamen. Die Grafik ist ja so billig. Ich hab noch gehofft bei COD er erwähnt AA und AF... nix da - nur 60 FPS.
dafür hat die xbox amazing redefined social multi-experience TV deliverence of groundbreaking partnership home immersion. :rolleyes:

][immy
2013-05-21, 20:16:35
5 Mrd. Transistoren sprechen deutlich für viel On-Die-Speicher. Wohl möglich doch 6T-SRAM.
oder für eine größere GPU ... oder doch kein Jaguar?

nun, die haben es doch tatsächlich geschafft mit der Vorstellung ein wenig was zu zeigen, aber dennoch nichts zu verraten ^^
Also über den Daumen:
Vishera 1,2 mrd
Pitcain 2,8 mrd

da bleiben dann noch ein paar.

Gipsel
2013-05-21, 20:16:52
http://www.wired.com/images_blogs/gadgetlab/2013/05/20130514-XBOX-ONE-TEARDOWN-015-660x440.jpg
http://www.wired.com/gadgetlab/2013/05/xbox-one-development-photos/#slideid-138498
Das Die sieht ziemlich groß aus. Wenn das bessere Auflösung hätte (und unter einem besseren Winkel aufgenommen worden wäre), könnte man mal die Größe abschätzen.

Naitsabes
2013-05-21, 20:17:14
10 Speicherchips?

Habe die an der unteren Kante nicht gesehen. Sind 16, wie es auch zu erwarten gewesen ist

Windi
2013-05-21, 20:17:36
Das funktioniert doch jetzt schon super. Glaube kaum, dass es da Probleme gibt.
Ok, ich hatte das anders in Erinnerung.



Bei der ganzen Präsentation ging es nur um Multimedia und CGI Render Filmchen. Ein bischen Schwach.
Dann muss man bei der Hardware wohl davon ausgehen, das die Gerüchte gestimmt haben: "ähnlich wie die PS4, nur mit 30% weniger Grafikleistung"

L233
2013-05-21, 20:17:55
Ich hab noch gehofft bei COD er erwähnt AA und AF... nix da - nur 60 FPS.
Naja, dafür gibts Fisch-KI und Next-Generation-Emotionen. :smile:

Gipsel
2013-05-21, 20:17:55
[immy;9775615']oder für eine größere GPU ... oder doch kein Jaguar?

nun, die haben es doch tatsächlich geschafft mit der Vorstellung ein wenig was zu zeigen, aber dennoch nichts zu verraten ^^
Also über den Daumen:
Vishera 1,2 mrd
Pitcain 2,8 mrd

da bleiben dann noch ein paar.
Allein 32MB 6T SRAM haben inklusive Interface, Redundanz usw. schon knapp 2 Milliarden Transistoren. ;)

AnarchX
2013-05-21, 20:18:45
Micron DDR3-2133: http://www.micron.com/parts/dram/ddr3-sdram/mt41j256m16ha-093

Spasstiger
2013-05-21, 20:18:50
5 Mrd. Transistoren sprechen deutlich für viel On-Die-Speicher. Wohl möglich doch 6T-SRAM.
Die 5 Mrd. Transistoren können zumindest nicht die 8 GiB DDR3(?)-RAM enthalten, was erstmal zuversichtlich stimmt.
Aber da ich die APU alleine (ohne On-Die-Speicher) nicht bei viel mehr als 2 Mrd. Transistoren sehe, klingen die 5 Mrd. Transistoren erstmal nach einem Multi-Chip-Package. Ich glaube nicht, dass Microsoft 5 Mrd. Transistoren auf einem Die in 28 nm fertigen lässt, das wäre größer als AMDs Tahiti.

P.S.: Rund 3 Mrd. Transistoren für On-Die-Speicher würden für 512 MiB 6T-SRAM reichen, da passt mehr als nur der Framebuffer rein.
Bit vs. Byte :redface:

30@Frames
2013-05-21, 20:19:05
[immy;9775615']oder für eine größere GPU ... oder doch kein Jaguar?

nun, die haben es doch tatsächlich geschafft mit der Vorstellung ein wenig was zu zeigen, aber dennoch nichts zu verraten ^^
Also über den Daumen:
Vishera 1,2 mrd
Pitcain 2,8 mrd

da bleiben dann noch ein paar.
Die GPU hätte man sofort erwähnt, wenn sie über denn der PS4 liegen würde. Die VGleaks Specs sollte also stimmen.

AnarchX
2013-05-21, 20:21:23
Die GPU soll 8-mal so schnell wie Xenos sein:
Quantifying graphical performance is notoriously squishy. That being said, Microsoft touts the Xbox One as delivering 8 times the graphic performance of the 360.
http://www.wired.com/gadgetlab/2013/05/xbox-one/

Gipsel
2013-05-21, 20:21:28
10 Speicherchips?

Habe die an der unteren Kante nicht gesehen. Sind 16, wie es auch zu erwarten gewesen ist
Nee, 16 (oder 32, wenn Unterseite ebenfalls bestückt). Schau mal an den halb verdeckten Rand der Platine vorne/unten. ;)

M4xw0lf
2013-05-21, 20:21:45
Das Die sieht ziemlich groß aus. Wenn das bessere Auflösung hätte (und unter einem besseren Winkel aufgenommen worden wäre), könnte man mal die Größe abschätzen.

Das ist doch hier recht hoch aufgelöst, reicht das nicht? : http://www.wired.com/images_blogs/gadgetlab/2013/05/20130514-XBOX-ONE-TEARDOWN-015.jpg

Gipsel
2013-05-21, 20:25:32
Die 5 Mrd. Transistoren können zumindest nicht die 8 GiB DDR3(?)-RAM enthalten, was erstmal zuversichtlich stimmt.
Aber da ich die APU alleine (ohne On-Die-Speicher) nicht bei viel mehr als 2 Mrd. Transistoren sehe, klingen die 5 Mrd. Transistoren erstmal nach einem Multi-Chip-Package. Ich glaube nicht, dass Microsoft so einen 5 Mrd. Transistoren auf einem Die in 28 nm fertigen lässt, das wäre größer als AMDs Tahiti.CapeVerde alleine hat 1,5 Milliarden, Durango hat 2 CUs mehr und vermutlich ein breiteres Frontend, das sind also vermutlich schon knapp 2 Milliarden, dann noch mal das Gleiche für den 32MB SRAM und es bleibt nur noch gut 1 Milliarde für die 8 CPU-Kerne, 4 MB L2 und den ganzen Custom-Kram wie Move-Engines, Audio-Processor, Southbridge usw. Das paßt schon so.
P.S.: Rund 3 Mrd. Transistoren für On-Die-Speicher würden für 512 MiB 6T-SRAM reichen, da passt mehr als nur der Framebuffer rein.512MB SRAM wären >26 Milliarden Transistoren.
Die GPU soll 8-mal so schnell wie Xenos sein:

http://www.wired.com/gadgetlab/2013/05/xbox-one/
Das wired-Ding ist Schrott. Die behaupten, der SoC wird in 40nm hergestellt. :freak:

][immy
2013-05-21, 20:26:50
P.S.: Rund 3 Mrd. Transistoren für On-Die-Speicher würden für 512 MiB 6T-SRAM reichen, da passt mehr als nur der Framebuffer rein.

Allein 32MB 6T SRAM haben inklusive Interface, Redundanz usw. schon knapp 2 Milliarden Transistoren. ;)

welche grobe Richtung stimmt denn nun? edit: zu spät

wie viel macht eigentlich so nen speicherinterface und so aus, was man dann nicht mehr in doppelter Ausführung braucht?

nunja, noch bin ich guter Hoffnung was die GPU angeht. wollen sich wohl alles für die E3 aufbewahren.

ich würde ja aktuell auch vermuten das 2 CPUs für's OS sind.
Das man das ding hardware-nah ansprechen kann ist allerdings neu. Also pfeifen sie doch auf abwärtskompatiblität für die Zukunft ^^

Spasstiger
2013-05-21, 20:30:42
Das ist doch hier recht hoch aufgelöst, reicht das nicht? : http://www.wired.com/images_blogs/gadgetlab/2013/05/20130514-XBOX-ONE-TEARDOWN-015.jpg
Mich wundert, dass man ein Mold-Package für die APU gewählt hat, sonst ist doch blankes Silizium plus Heatspreader üblich. Das macht man nur, wenn man Bonddrähte schützen will und ich kann mir nicht vorstellen, dass man die APU mit Bonddrähten kontaktiert. Ich würde da nicht ausschließen, dass man zwei Dies gestapelt hat, wobei das obere Die mit Bonddrähten ankontaktiert ist.

welche grobe Richtung stimmt denn nun? [I]edit: zu spät
Gipsel hat recht, ich muss die 512 noch durch 8 teilen, was dann 64 MiB sind.

AnarchX
2013-05-21, 20:32:41
Nee, 16 (oder 32, wenn Unterseite ebenfalls bestückt). Schau mal an den halb verdeckten Rand der Platine vorne/unten. ;)
http://www.micron.com/parts/dram/ddr3-sdram/mt41j256m16ha-093

Da es nur 8GiB Gesamtspeicher sein sollen, sind es wohl nur diese 16 Chips (16*512MiB) und dementsprechend auch nur 256-Bit -> 67GB/s externe Bandbreite maximal.

dildo4u
2013-05-21, 20:36:53
http://ft.trillian.im/989f090fa7f24841d750ee5913a9c2e8f24edb59/6gMQmhwMm6R3pPW8W0EuoR02sQBTq.jpg

Nightspider
2013-05-21, 20:39:29
Zumindest sollte sie recht leise werden, wenn man sich den großen Lüfter anschaut.

L233
2013-05-21, 20:42:31
GOOD NEWS, EVERYONE!

http://www.computerandvideogames.com/407912/microsoft-confirms-pre-owned-fee-for-xbox-one/

Microsoft confirms 'pre-owned fee' for Xbox One
Mandatory game installation required for all games; second install on separate Live account sits behind paywall

Jetzt weiss ich auch, warum EA den Online-Pass abgeschafft hat... weil MS ihn zum Konsolen-Feature gemacht hat.

:facepalm:

Gipsel
2013-05-21, 20:44:01
Das ist doch hier recht hoch aufgelöst, reicht das nicht? : http://www.wired.com/images_blogs/gadgetlab/2013/05/20130514-XBOX-ONE-TEARDOWN-015.jpg
Okay, Schauen wir mal. Das sind 4GBit Micron-Chips DDR3-2133 (D9PZN), die messen 9x14mm. Damit komme ich so in einer ganz groben ersten Schätzung auf etwas über 400mm².


Mich wundert, dass man ein Mold-Package für die APU gewählt hat, sonst ist doch blankes Silizium plus Heatspreader üblich. Das macht man nur, wenn man Bonddrähte schützen will und ich kann mir nicht vorstellen, dass man die APU mit Bonddrähten kontaktiert. Ich würde da nicht ausschließen, dass man zwei Dies gestapelt hat, wobei das obere Die mit Bonddrähten ankontaktiert ist.Das ist das blanke Die. ;)

Gouvernator
2013-05-21, 20:45:16
Wer Lust hat NASDAQ in realtime
MS
https://www.google.com/finance?q=microsoft&ei=2b-bUYikAemFwAOXTw

Sony
https://www.google.com/finance?q=sony&ei=wcCbUYDPOcaFwAPZSQ
Im Direktvergleich
;D
Jemand ist heute RICHTIG reich geworden.

Botcruscher
2013-05-21, 20:45:47
Jetzt weiss ich auch, warum EA den Online-Pass abgeschafft hat... weil MS ihn zum Konsolen-Feature gemacht hat.
:facepalm:

Always on mini. :freak:

iFanatiker
2013-05-21, 20:48:40
Jetzt weiss ich auch, warum EA den Online-Pass abgeschafft hat... weil MS ihn zum Konsolen-Feature gemacht hat.


Nachdem die Mehrheit der Nutzer schon bei mobilen Apps, bei PC Spielen und auch bei sehr teurer Anwendungssoftware die Bindung an einen Account akzeptiert hat...war dies nur eine Frage der Zeit bis es auch für Konsolen gilt.

Always On können die Publisher auch forcieren wenn sie "Berechnungne in die Azure Cloud auslagern weile diese so Nancy Fancy" ist. :biggrin::biggrin:

Tesseract
2013-05-21, 20:51:23
Nachdem die Mehrheit der Nutzer schon bei mobilen Apps, bei PC Spielen und auch bei sehr teurer Anwendungssoftware die Bindung an einen Account akzeptiert hat...war dies nur eine Frage der Zeit bis es auch für Konsolen gilt.
das ist aber einer der wenigen punkte, die ich nicht unbedingt schlecht finde. ist zumindest sinnvoller als die neukäufer den gebrauchtmarkt "mitbezahlen" zu lassen und dann spiele für 70€ zu verkaufen.

prinz_valium
2013-05-21, 20:51:58
ohh man ist das angebehm hier zu lesen im gegensatz zu anderen foren :D

optisch find ich das teil richtig geil. aber das ist wohl vorallem mein geschmack
aber wenn es wirklich eine home entertainment spielkonsole werdern soll, dann muss das teil auch wie ein hifi baustein aussehen. hier wurde halt ein retro look gewählt, der mir persönlich gut gefällt.

noch besser ist der controler, der nur leicht veränder (verbesserst) wurde, optisch aber einen großen schritt in richtung hochwertigerer look gemacht hat. hoffen wir, dass er haptisch auch noch einer schüppe drauf legt und der rest gleich gut, wie bei den alten ist


und der riesen lüfter, sowie die schlitze, lassen auf eine gut gekühlte und leise "konsole" hoffen.
das allein und die tatsache, dass es KEIN facebook share button gibt, macht sie zu meinem favourit über die ps4
auch wenn sie wegen mit etwas schwächer unter der haube ist.
erste test und wirkliche AAA titel vergleiche werden das eh erst zeigen können

Wer Lust hat NASDAQ in realtime
MS
https://www.google.com/finance?q=microsoft&ei=2b-bUYikAemFwAOXTw

Sony
https://www.google.com/finance?q=sony&ei=wcCbUYDPOcaFwAPZSQ
Im Direktvergleich
;D
Jemand ist heute RICHTIG reich geworden.

der ms einbruch ist abolut harmlos
der sony ausbruch allerding schon etwas erstaunlich


wenn du aber heute hättest reich werden wollen, hättest du ivg immobilien kaufen müssen. 40% steigung intraday

L233
2013-05-21, 20:55:14
das allein und die tatsache, dass es KEIN facebook share button gibt, macht sie zu meinem favourit über die ps4
:confused: Warum sollte ein Feature, dessen Nutzung Dir komplett freisteht, denn ein Argument gegen die PS4 sein?

Seth
2013-05-21, 21:00:39
http://de.twitch.tv/xbox

novl
2013-05-21, 21:01:58
Ich hab das Gefühl die Amis rennen MS die Bude ein. Soviel Exklusivcontent der fast nur auf dem amerikansichem Markt brauchbar ist. (Football/Basketball/CoD etc)

In Amerika wirds IMHO ein Renner.

xL|Sonic
2013-05-21, 21:03:36
Ich hab das Gefühl die Amis rennen MS die Bude ein. Soviel Exklusivcontent der fast nur auf dem amerikansichem Markt brauchbar ist. (Football/Basketball/CoD etc)

In Amerika wirds IMHO ein Renner.

Ist ja auch der stärkste Markt für MS. Und klar versuchen sie sich stärker im Multimedia Bereich zu etablieren. Solange Apple kein Apple Fenster anbietet, haben sie so einen zeitlichen Vorsprung. Da ist mit Sicherheit eine Menge Kohle zu holen. Der Gegner für MS dort ist Apple. Sony who cares?

RLZ
2013-05-21, 21:03:51
http://www.blogcdn.com/www.engadget.com/media/2013/05/xbox-console2-600.jpg


Klassisches Atari Design vereinigt mit schwarzem Hochglanz Look.
Die Lüftungsschlitze fand ich schon vor 25 Jahren hässlich und werden wohl auch heute die ultimativen Staubfänger sein.

Tesseract
2013-05-21, 21:04:10
In Amerika wirds IMHO ein Renner.

ja, das befürchte ich auch. das ding schlägt voll in die 'murica-kerbe und alle anderen leiden darunter.

Gebrechlichkeit
2013-05-21, 21:05:54
:confused: Warum sollte ein Feature, dessen Nutzung Dir komplett freisteht, denn ein Argument gegen die PS4 sein?

Yep, for max performance on the PS4, do not hit the "Share" Button ;)

Spasstiger
2013-05-21, 21:06:49
Das ist das blanke Die. ;)
Silizium ist nicht schwarz.

TheCounter
2013-05-21, 21:09:01
512MB SRAM wären >26 Milliarden Transistoren.

Und einfacher eDRAM?

PatkIllA
2013-05-21, 21:10:52
Wofür ist denn der HDMI Eingang?

TheCounter
2013-05-21, 21:11:10
Wofür ist denn der HDMI Eingang?

Anschluss für den Sat-Receiver.

xL|Sonic
2013-05-21, 21:11:18
Sat/Kabel Receiver?

Gipsel
2013-05-21, 21:13:56
Silizium ist nicht schwarz.
Aber es reflektiert ganz gut. Wie es aussieht, hängt also vom Hintergrund ab (den man nicht sieht). Es kann auf so einem Foto durchaus schwarz erscheinen.

Edit:
Zum Vergleich mal ein Tahiti-Foto:
http://www.legitreviews.com/images/reviews/1805/tahiti-core-shot.jpg
Das sieht da auch schwarz aus. ;)

Windi
2013-05-21, 21:15:23
Man kann also sagen, das die Xbox one die perfekte Konsole, im Kampf ums Wohnzimmer, gegen Apple ist.

TheCounter
2013-05-21, 21:16:25
The system is designed for an SoC up to about 100W, but will vary on the scenario.

5 Milliarden Transistoren und dann nur 100W? Die GPU scheint wirklich sehr schwach zu sein...

00-Schneider
2013-05-21, 21:17:39
5 Milliarden Transistoren und dann nur 100W? Die GPU scheint wirklich sehr schwach zu sein...


Was wird bei der PS4 spekuliert? Afaik über 200W oder?

xL|Sonic
2013-05-21, 21:19:24
Man kann also sagen, das die Xbox one die perfekte Konsole, im Kampf ums Wohnzimmer, gegen Apple ist.

Zumindest dürfte MS das hoffen.

TheCounter
2013-05-21, 21:20:27
Was wird bei der PS4 spekuliert? Afaik über 200W oder?

Glaub es waren ~180W.

Gipsel
2013-05-21, 21:21:54
5 Milliarden Transistoren und dann nur 100W? Die GPU scheint wirklich sehr schwach zu sein...
Ein Pitcairn auf 800MHz verbraucht auch nicht viel (<100W). Und Durango hat noch eine kleinere GPU. Dazu die mäßige CPU-Taktrate von vermutlich ebenfalls stromsparenden 1,6GHz, das DDR3-Interface, was ebenfalls im Vergleich zu GDDR5 sparsamer ist und das könnte im Durchschnitt schon hinhauen.

00-Schneider
2013-05-21, 21:22:14
http://www.engadget.com/2013/05/21/xbox-one-hardware-and-specs/?utm_medium=feed&utm_source=Feed_Classic&utm_campaign=Engadget

"Processor and graphics: as rumored, a heavily customized AMD chip that combines an eight-core CPU, a GPU tailored for DirectX 11.1 graphics and 32MB of high bandwidth embedded ESRAM memory. The 28nm chip will consume around 100 watts, which is slightly higher than current Xbox Slim and PS3, but Microsoft promises noise from the cooling fans will be "four times quieter."

-------------------------

Leistungstechnisch schwächer als PS4 dürfte damit als gesichert gelten. Wenn die Xbox One(scheiß Name btw.) schneller als die PS4 wäre, hätte MS bei der Präsentation auch damit geprahlt. Haben sie aber nicht...

Duplex
2013-05-21, 21:23:44
Schade das die Konsolen auf langsame APUs setzen, 2x DIEs in einem Package z.b. Kaveri wäre viel interessanter gewesen, möglicherweise wären die Herstellungskosten in 28nm einfach zu hoch gewesen.

Gipsel
2013-05-21, 21:26:48
http://www.engadget.com/2013/05/21/xbox-one-hardware-and-specs/?utm_medium=feed&utm_source=Feed_Classic&utm_campaign=Engadget

"Processor and graphics: as rumored, a heavily customized AMD chip that combines an eight-core CPU, a GPU tailored for DirectX 11.1 graphics and 32MB of high bandwidth embedded ESRAM memory. The 28nm chip will consume around 100 watts, which is slightly higher than current Xbox Slim and PS3, but Microsoft promises noise from the cooling fans will be "four times quieter."Daß das leise sein kann, bezweifle ich nicht bei dem Lüfter.

http://www.wired.com/images_blogs/gadgetlab/2013/05/20130514-XBOX-ONE-TEARDOWN-014-660x440.jpg

AnarchX
2013-05-21, 21:27:03
The GPU can do 768 operations per cycle.
http://www.engadget.com/2013/05/21/xbox-one-architecture-panel-liveblog/

Gipsel
2013-05-21, 21:28:45
Also 12 CUs.

xL|Sonic
2013-05-21, 21:30:20
Also stimmten die Gerüchte. Mal schauen wie viel die PS4 dann wirklich in Spielen nach ein paar Jahre vorne sein wird.

00-Schneider
2013-05-21, 21:33:35
Also stimmten die Gerüchte. Mal schauen wie viel die PS4 dann wirklich in Spielen nach ein paar Jahre vorne sein wird.


Bei Multiplattformgames wie COD wird man es schon zu Release sehen. Selbst wenn die Mehrpower der PS4 nur die einer größeren Auflösung resultiert.

THEaaron
2013-05-21, 21:34:39
Wird vom Unterschied so sein wie die jetzige Generation denke ich. Nur das die Xbox jetzt das Nachsehen haben wird.

Unterschiede dürften marginal ausfallen.

dildo4u
2013-05-21, 21:35:00
Jup vermutlich 720 vs 1080p.COD war ja scheinbar schon 720p auf Xbox One zumindest der Ingame Trailer.

COD Ghost Trailer

http://youtu.be/Zxnx3W-HA18

busta.rhymes
2013-05-21, 21:35:13
So leute ich verfolge hier auch schon seit Monaten und probier zu verstehen was ihr Profis so erzählt.

Kann man also davon ausgehen das die 12 cus bedeuten das es auf das 1,5 bis 1,6 tflop design hinausläuft auf das von vgleaks spekuliert wurde?
In letzten tagen sind ja viele gerüchte aufgetaucht wonach die xbox sogar schneller gewessen wäre. Aber sieht es jetzt nach den specs von vgleaaks aus? Das die PS4 ungefähr 400 gflops schneller wäre?

xL|Sonic
2013-05-21, 21:36:15
Sicher das die Leistung so viel höher ist um mal eben 1080p gegenüber 720p bei gleichen Details und FPS laufen zu lassen?

Ist das realistisch mal an die Leute die das am ehesten einschätzen können wie Gipsel etc.?

busta.rhymes
2013-05-21, 21:37:48
Sicher das die Leistung so viel höher ist um mal eben 1080p gegenüber 720p bei gleichen Details und FPS laufen zu lassen?

das frag ich mich auch gerade... ich mein 300 bis 400 gflops von 1,6tflops zu 2tflops kann doch nicht so einen großen unterschied machen oder?

S940
2013-05-21, 21:38:02
CPU: 6 operations per cycle

GPU: 768 operations per cycleFrage mich, wie der auf 6 Operations kommt ... 3 Kerne?? Naja oder 2xFP, 2xINT, 2xLD/Str ...

Edit sehe gerade, AnarchX war schneller, sorry nicht gesehen, geht schnell hier ^^

Locuza
2013-05-21, 21:38:37
So leute ich verfolge hier auch schon seit Monaten und probier zu verstehen was ihr Profis so erzählt.
Kann man also davon ausgehen das die 12 cus bedeuten das es auf das 1,6 tflop design hinausläuft auf das spekuliert wurde?
In letzten tagen sind ja viele gerüchte aufgetaucht wonach die xbox sogar schneller gewessen wäre. Aber sieht es jetzt nach den specs von vgleaaks aus? Das die PS4 ungefähr 400 gflops schneller wäre?
Leaks:
Xbox One: 768 @ 800 Mhz = 1.2 TF
PS4: 1152 @ 800 Mhz = 1.8 TF

Vgleaks hatte Recht, die Taktfrequenzen sind wahrscheinlich auch geblieben.

Finch
2013-05-21, 21:40:42
So leute ich verfolge hier auch schon seit Monaten und probier zu verstehen was ihr Profis so erzählt.

Kann man also davon ausgehen das die 12 cus bedeuten das es auf das 1,5 bis 1,6 tflop design hinausläuft auf das von vgleaks spekuliert wurde?
In letzten tagen sind ja viele gerüchte aufgetaucht wonach die xbox sogar schneller gewessen wäre. Aber sieht es jetzt nach den specs von vgleaaks aus? Das die PS4 ungefähr 400 gflops schneller wäre?


1.2 TF vs 1.8 TF

dildo4u
2013-05-21, 21:41:03
Sicher das die Leistung so viel höher ist um mal eben 1080p gegenüber 720p bei gleichen Details und FPS laufen zu lassen?

Ist das realistisch mal an die Leute die das am ehesten einschätzen können wie Gipsel etc.?

Xbox ca 7770(1.3TF) PS4 zwischen 7850/7870.(PS4 1.8TF)


http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-650-ti-boost-im-test/25/

iFanatiker
2013-05-21, 21:41:40
Frage mich, wie der auf 6 Operations kommt ... 3 Kerne?? Naja oder 2xFP, 2xINT, 2xLD/Str ...


Naja...das Supervisior OS dürfte was exklusiv haben bei den CPUs wie auch die Virtualisierung Gast für die Apps. Vermutlich beziehen sie sich drauf was der Game OS Virtualisierung zur Verfügung steht.

AnarchX
2013-05-21, 21:42:26
Und daneben hat die PS4 8GiB mit 176GB/s, während es bei der Xbox One wohl nur 32MiB mit ~100GB/s sind und darüber nur 67GB/s zu Verfügung stehen.

xL|Sonic
2013-05-21, 21:44:00
Gleichen die Move Engines irgendwas aus?

Gipsel
2013-05-21, 21:44:55
Gleichen die Move Engines irgendwas aus?Eher lassen die den Nachteil durch den geteilten Speicherraum nicht zu groß werden. :rolleyes:

TheCounter
2013-05-21, 21:44:56
Schade das ich durch die Exklusivgames gezwungen sein werde, mir die Xbox One zu holen. Also wieder Xbox und PS, wie schon diese Gen.

Haben also doch alle VGLeaks Specs gestimmt :(

busta.rhymes
2013-05-21, 21:45:01
Wobei man doch bei der ps4 noch garnicht richtig weis ob es 1,8 oder sogar 2 tflops sind oder?
Man hat doch ne lange zeit von 2tflops geredet oder?

Nightspider
2013-05-21, 21:45:31
Ich kann mir aber kaum vorstellen, das der kleine SRAM die große Differenz in der Speicherbandbreite ausgleichen kann, selbst wenn die Xbox One immer eine Auflösung kleiner rendert.

OT: Eher glaube ich das PS4 Games teilweise in 1680er Auflösung gerendert werden und Xbox One Games in 1280er Auflösung, zumindest bei den richtig leistungsfressenden AAA Games.

Niedrigere Auflösung und AA ist immer noch billiger, wodurch mehr Leistung für mehr Effekte übrig bleibt.

Hoffentlich können PS4 und Xbox One auch MultiLayer BDs abspielen, damit diese vielleicht zukünftig 4K BluRays abspielen können.

THEaaron
2013-05-21, 21:46:22
Schade das ich durch die Exklusivgames gezwungen sein werde, mir die Xbox One zu holen. Also wieder Xbox und PS, wie schon diese Gen.

Haben also doch alle VGLeaks Specs gestimmt :(


Jo... same here.

Dafür kann ich warten bis die One günstiger zu haben ist. :freak:

dildo4u
2013-05-21, 21:47:10
Wobei man doch bei der ps4 noch garnicht richtig weis ob es 1,8 oder 2 tflops sind oder?
Man hat doch ne lange zeit von 2tflops geredet oder?
2TF wenn man GPU + CPU rechnet.

00-Schneider
2013-05-21, 21:47:18
Sicher das die Leistung so viel höher ist um mal eben 1080p gegenüber 720p bei gleichen Details und FPS laufen zu lassen?


K.a.

Jedenfalls gibt es zwischen 720p und 1080p noch genug Abstufungen! ;)

(z.b. 1600x900 etc.)

Locuza
2013-05-21, 21:47:40
Wobei man doch bei der ps4 noch garnicht richtig weis ob es 1,8 oder 2 tflops sind oder?
Man hat doch ne lange zeit von 2tflops geredet oder?
Doch, offiziell stehen 1.84 TF in einem Sony PDF zur PS4.
Halt eine ~ 2 TF APU, CPU + GPU.

dildo4u
2013-05-21, 21:48:51
K.a.

Jedenfalls gibt es zwischen 720p und 1080p noch genug Abstufungen! ;)

(z.b. 1600x900 etc.)
1080p sollte machbar sein so lange das meiste Cross Gen Ports sind was danach passiert wird man sehen.

xL|Sonic
2013-05-21, 21:49:39
Naja, wenn's primär über die Auflösung gemacht wird, wäre das jetzt nicht so tragisch. Wenn dafür FPS und Details gleich bleiben. Ansonsten heisst es in Zukunft mehr PS4 Spiele dann...leider. Ich mag das schrottige Playstation Pad nicht (ergonomisch für meine Hände einfach ein Graus, vor allem die Anordnung der Analogsticks).

S940
2013-05-21, 21:49:46
Und daneben hat die PS4 8GiB mit 176GB/s, während es bei der Xbox One wohl nur 32MiB mit ~100GB/s sind und darüber nur 67GB/s zu Verfügung stehen.
Der Technikchef erwähnte mal was von 200 GB/s, aber ich hab nicht genau gehört, was er damit meinte :(
Eher lassen die den Nachteil durch den geteilten Speicherraum nicht zu groß werden. :rolleyes:
Du meinst für die beiden VMs?
Der Technikchef sprach auch noch von Hardwarespeicherkohärenz für die GPU.

iFanatiker
2013-05-21, 21:50:36
Und daneben hat die PS4 8GiB mit 176GB/s, während es bei der Xbox One wohl nur 32MiB mit ~100GB/s sind und darüber nur 67GB/s zu Verfügung stehen.

Das ist doch IMHO der wesentlich größere Unterschied. Bei Multi Titeln dürfte eben die Box den kleinsten Nenner diesmal darstellen und die Mehrleistung und das Mehr an Bandbreite wird in höhere Auflösung oder AA gesteckt.

dildo4u
2013-05-21, 21:51:24
Naja, wenn's primär über die Auflösung gemacht wird, wäre das jetzt nicht so tragisch. Wenn dafür FPS und Details gleich bleiben. Ansonsten heisst es in Zukunft mehr PS4 Spiele dann...leider. Ich mag das schrottige Playstation Pad nicht (ergonomisch für meine Hände einfach ein Graus, vor allem die Anordnung der Analogsticks).
Das Pad wurde verändert würde erst mal warten bis du es in der Hand hast.

Seth
2013-05-21, 21:51:50
Naja...das Supervisior OS dürfte was exklusiv haben bei den CPUs wie auch die Virtualisierung Gast für die Apps. Vermutlich beziehen sie sich drauf was der Game OS Virtualisierung zur Verfügung steht.

Im Stream wurde gesagt 6 pro Kern, also 48 Operations pro Cycle.

Das ganze wird übrigens gerade nochmal wiederholt auf twitch.

http://de.twitch.tv/xbox

xL|Sonic
2013-05-21, 21:52:05
Die Analogsticks liegen aber immer noch gleich beschissen ;)

TheCounter
2013-05-21, 21:52:45
Das Pad wurde verändert würde erst mal warten bis du es in der Hand hast.

Aber nicht die grausame Anordnung der Sticks. Das ist wohl der größte Schwachpunkt des Playstation Pads...

AnarchX
2013-05-21, 21:54:16
Der Technikchef erwähnte mal was von 200 GB/s, aber ich hab nicht genau gehört, was er damit meinte :(

http://www.vgleaks.com/durango-gpu-2/
Der Leak scheint sich in vielen Details bestätigt zu haben.

Steffko
2013-05-21, 21:57:06
Kann mir mal einer erklären warum dieser ESRAM so unheimlich groß ist? Also 2 Mrd. Transistoren in 28nm sind was... 150mm²? Der eDRAM in der Wii U ist bei 32MB grad mal ~40mm² groß und das in 40nm.
Die Bandbreite des Xbox One ESRAM scheint jetzt auch nicht sonderlich überragend zu sein, von daher bin ich verwirrt :freak:

00-Schneider
2013-05-21, 21:57:12
Naja, wenn's primär über die Auflösung gemacht wird, wäre das jetzt nicht so tragisch. Wenn dafür FPS und Details gleich bleiben. Ansonsten heisst es in Zukunft mehr PS4 Spiele dann...leider. Ich mag das schrottige Playstation Pad nicht (ergonomisch für meine Hände einfach ein Graus, vor allem die Anordnung der Analogsticks).


War nur Spekulation meinerseits, da ist nichts spruchreif. Was die Entwickler mit ~50% Mehrleistung der PS4 machen, werden wir sehen.

Aber gerade an einem großen TV ist mehr Auflösung Gold wert. 720p sind da imho schon das absolute Minimum.

Gipsel
2013-05-21, 21:59:09
Du meinst für die beiden VMs?
Der Technikchef sprach auch noch von Hardwarespeicherkohärenz für die GPU.VMs? Die Kohärenz ist eine Eigenschaft der Generation von SoCs, das hat die PS4 auch.

Ich meine den Nachteil dadurch, daß Daten entweder in den 32MB SRAM oder dem langsameren Hauptspeicher liegen. Das Mapping mag ja für die GPU transparent sein (so daß ein Buffer auch zur Hälfte im SRAM und zur Hälfte im DRAM liegen könnte), aber trotzdem muß man ständig drauf achten, wo was liegt, und gegebenefalls was hin- und herschieben um optimale Performance zu erreichen. Das ist schlicht zusätzlicher Aufwand für den unsicheren Gewinn, daß man vielleicht über die niedrigeren Latenzen des SRAM etwas zusätzlich zur Bandbreite gewinnt.

AnarchX
2013-05-21, 22:01:08
Kann mir mal einer erklären warum dieser ESRAM so unheimlich groß ist? Also 2 Mrd. Transistoren in 28nm sind was... 150mm²? Der eDRAM in der Wii U ist bei 32MB grad mal ~40mm² groß und das in 40nm.
Die Bandbreite des Xbox One ESRAM scheint jetzt auch nicht sonderlich überragend zu sein, von daher bin ich verwirrt :freak:

eDRAM benötigt eben nur etwa einen Transistor pro Bit, bei ESRAM sind hier wohl 6 Transistoren.
Vorteil ist wohl ein einfacherer Shrink auf 20nm Anfang 2014.

Gipsel
2013-05-21, 22:01:10
Kann mir mal einer erklären warum dieser ESRAM so unheimlich groß ist? Also 2 Mrd. Transistoren in 28nm sind was... 150mm²? Der eDRAM in der Wii U ist bei 32MB grad mal ~40mm² groß und das in 40nm.
Die Bandbreite des Xbox One ESRAM scheint jetzt auch nicht sonderlich überragend zu sein, von daher bin ich verwirrt :freak:
32MB SRAM mit TSMCs 28nm HD-Zellen ist vermutlich nur ~60mm² groß. Was GF da könnte, keine Ahnung.

xL|Sonic
2013-05-21, 22:01:43
War nur Spekulation meinerseits, da ist nichts spruchreif. Was die Entwickler mit ~50% Mehrleistung der PS4 machen, werden wir sehen.

Aber gerade an einem großen TV ist mehr Auflösung Gold wert. 720p sind da imho schon das absolute Minimum.

Muss man mal sehen. Wenn man nah an einem PC Monitor sitzt fällt es auf jeden Fall stärker auf, als wenn man 3m vorm TV entfernt sitzt.

Die Zukunft wird zeigen, wie genau es sich auswirkt.

00-Schneider
2013-05-21, 22:06:34
Muss man mal sehen. Wenn man nah an einem PC Monitor sitzt fällt es auf jeden Fall stärker auf, als wenn man 3m vorm TV entfernt sitzt.


Kommt darauf an, wie groß der TV ist. Bei mir sind es 52" bei ~2m Abstand. Und ich sehe ohne Probleme den Unterschied zwischen 1080p, 720p und SubHD. (wie z.b. bei den Call of Duty Games)

Alles unter 720p empfinde ich als unscharf/blurry.

Wird schon seine Gründe haben, warum z.b. das neue Killzone mit sauberen 1080p auf PS4 läuft. Die Fernseher werden ja auch immer größer, bzw. kosten große Diagonalen nicht mehr so viel wie früher. Dieser Entwicklung scheint man mit höheren Auflösungen nun Rechnung tragen zu wollen.

S940
2013-05-21, 22:07:15
VMs? Die Kohärenz ist eine Eigenschaft der Generation von SoCs, das hat die PS4 auch.Hmm glaub ich eher nicht, das ist eher auf Trinity-Stand. Gemeinsamer DRAMs ja, gemeinsamer Adressbereich nein. Letzteres braucht man aber für die Kohärenz. Aber ich hör mal nochmal rein, die Wiederholung läuft gerade..
VM = die 2 Virtual Machines für das "Windows" (für Skype und Co.) und das Konsolen-OS mit vollem Hardwarezugriff.

Ich meine den Nachteil dadurch, daß Daten entweder in den 32MB SRAM oder dem langsameren Hauptspeicher liegen. Ok alles klar.

S940
2013-05-21, 22:19:56
http://www.vgleaks.com/durango-gpu-2/
Der Leak scheint sich in vielen Details bestätigt zu haben.
So nochmal genau hingehört, der MS-Chef sagte:
We get over 200 GB/s across the memory subsystemAlso wohl ESRAM plus RAM zusammen.
Nach den Leaks wären das aber nur so ~170GB/s, oder?
Hmm ... naja, hat er vielleicht noch etwas übertrieben, oder sie haben die Taktraten erhöht. Im Leak hies es 800 Mhz, vielleicht gibts jetzt 1 Ghz? Dann wärs vielleicht gerade so ~ 200 GB/s

Steffko
2013-05-21, 22:22:17
eDRAM benötigt eben nur etwa einen Transistor pro Bit, bei ESRAM sind hier wohl 6 Transistoren.
Vorteil ist wohl ein einfacherer Shrink auf 20nm Anfang 2014.

Kann ESRAM denn irgendwas "besser"? Weil ansonsten.. was nützt ein einfacherer Shrink, wenn man zwei (+ den einen, den man jetzt schon beim Start weiter ist) braucht, um mit eDRAM "gleichzuziehen"? :freak:


32MB SRAM mit TSMCs 28nm HD-Zellen ist vermutlich nur ~60mm² groß. Was GF da könnte, keine Ahnung.

Also verstehe ich das jetzt richtig, dass das Ding komplett bei GF gefertigt wird? Und warum ist da so ein riesen Unterschied (~60 vs. ~150mm²?)?

Geht ja immerhin um ne ganze Menge Kohle und ich kann irgendwie nicht ganz nachvollziehen, wie man grob die Menge an Transistoren, die ein kompletter Bonaire mit sich bringt, in diese dapperten 32MB ESRAM verballern kann.

Cúron
2013-05-21, 22:28:04
Auch wenn ich grad vom Technikaspekt abschweife, aber werde ich hier überhaupt den TV-Entertainment Aspekt zufriedenstellen nutzen können?
Wirds gleichwertige Angebote in Europa geben bzw. eine Einigung mit der Drosselcom für ihre Managed Services?

Falls nicht, dann bleibt eine ähnliche aber schwächere Hardware im Vergleich zur PS4, dazu Sprach- und Gestensteuerung. Für mich wirklich nicht sehr ansprechend gegenüber der japanischen Konkurrenz....

Nightspider
2013-05-21, 22:28:33
Der SRAM ist in der Xbox sicherlich schneller als bei der Wii-U.

xL|Sonic
2013-05-21, 22:32:03
Auch wenn ich grad vom Technikaspekt abschweife, aber werde ich hier überhaupt den TV-Entertainment Aspekt zufriedenstellen nutzen können?
Wirds gleichwertige Angebote in Europa geben bzw. eine Einigung mit der Drosselcom für ihre Managed Services?

Falls nicht, dann bleibt eine ähnliche aber schwächere Hardware im Vergleich zur PS4, dazu Sprach- und Gestensteuerung. Für mich wirklich nicht sehr ansprechend gegenüber der japanischen Konkurrenz....

Bleiben die Exklusivspiele ;)

iFanatiker
2013-05-21, 22:33:53
Für mich wirklich nicht sehr ansprechend gegenüber der japanischen Konkurrenz....

Habe mir die aktuelle Box nur wegen Halo gekauft und die nächste wir auch nur wegen Halo gekauft. :biggrin:

Silentbob
2013-05-21, 22:34:45
Habe mir die aktuelle Box nur wegen Halo gekauft und die nächste wir auch nur wegen Halo gekauft. :biggrin:


Auf das nächste HALO kannst Du noch lange warten. Wenigstens kommt ja bald ne Serie :ulol:

Cúron
2013-05-21, 22:40:17
Oh ja die Exklusivtitel ...äh nein :P

Gouvernator
2013-05-21, 22:41:24
"Japanische Konkurrenz" hat früher Gameplay gezeigt. Das heißt sie sind weiter entwickelt, das heißt im besten Fall können sie FirstGen Spiele zeigen die aussehen wie SecondGen auf XboxOne. :)

busta.rhymes
2013-05-21, 22:44:32
Wie gesagt ich verfolge hier schon seit wochen bzw monaten.

Nach den heutigen hinweisen auf die architektur der xbox wird mir allmählig klar was für ein Powerhouse die PS4 mit ihrer APU und den 8gb unified 176gb/s GDDR5 wohl wird.
Das muss wirklich der Traum schlechthin für einen Konsolen Programmiere sein. Ich will mir da garnicht ausmahlen was ein AAA Entwickler wie Naughty Dog in 2 bis 3 Jahren aus dem Teil raus holen kann.

][immy
2013-05-21, 22:54:13
nunja, eines sollte man nicht vergessen. ms hat wohl eher ein custom design, wohingegen sony schon eher etwas von der stange (mit kleineren anpassungen) hat. wer weiß was hier noch für sachen in hardware schlummern, die eventuell helfen bandbreite & co einzusparen. so gesehen, verkehrte welt. sony wird plötzlich "einfach" und ms "komplizierter". aber letztlich entscheiden die tools wie "einfach" sich mit der konsole am ende entwickeln lässt.
auf der anderen seite beschreitet ms jetzt wohl einfach den weg eine bezahlbare konsole anzubieten die nicht subventioniert werden muss.

aber die präsentation haben sie echt vergeigt. da hätten sie auch gleich einfach nur ein foto und ein paar daten ins netz stellen können, denn sie haben es wirklich geschafft in 60 minuten so gut wie nichts zu sagen. sie versuchen es wohl auf die apple-tour ^^ ... was bei ms bisher aber nicht funktioniert hat.

Rolsch
2013-05-21, 23:00:16
Die Xbox One setzt schon auf das richtige Pferd, die Kinect und Cloud Multimedia Sachen werden das Gaming neu definieren, da steckt unglaubliches Potential drin. Ob jetzt ~7850 oder ~7770 dürfte unterm Strich völlig Wurscht sein.

Gouvernator
2013-05-21, 23:00:44
[immy;9776028']nunja, eines sollte man nicht vergessen. ms hat wohl eher ein custom design, wohingegen sony schon eher etwas von der stange (mit kleineren anpassungen) hat. wer weiß was hier noch für sachen in hardware schlummern, die eventuell helfen bandbreite & co einzusparen.
Wenn man Gehäuse Design auf Hardware überträgt... dann würde ich nicht viel erwarten.
Ich meine das einzige was bei dieser Xbox auf eine "X-Box" deutet ist ein ÜBERDIMENSIONIERTER Einschaltknopf aus dem letzten Gamepad. ;D

Gouvernator
2013-05-21, 23:08:17
Die Xbox One setzt schon auf das richtige Pferd, die Kinect und Cloud Multimedia Sachen werden das Gaming neu definieren, da steckt unglaubliches Potential drin. Ob jetzt ~7850 oder ~7770 dürfte unterm Strich völlig Wurscht sein.
Nö. Wenn du dich mit LowEnd Hardware auskennen würdest wirst du ganz was anderes sagen.
Ein Sprung in der Zahl entscheidet ob du in 30 oder in 60 FPS spielen kannst, bzw. in 720p oder 1080p. Das kenne ich beim Office PC und diversen MMORPGs wo ich auf passive GPUs setze da ist jedes Mhz goldwert wenn du übertaktest. So vom Eindruck her über Specs musst du XboxOne heftigst übertakten um auf 3D Leistung der PS4 zu kommen. Was du übertragen auf PC sehr wohl merkst.

Deinorius
2013-05-21, 23:11:20
Nö. Wenn du dich mit LowEnd Hardware auskennen würdest wirst du ganz was anderes sagen.
Ein Sprung in der Zahl entscheidet ob du in 30 oder in 60 FPS spielen kannst, bzw. in 720p oder 1080p. Das kenne ich beim Office PC und diversen MMORPGs wo ich auf passive GPUs setze da ist jedes Mhz goldwert wenn du übertaktest. So vom Eindruck her über Specs musst du XboxOne heftigst übertakten um auf die 3D Leistung der PS4 zu kommen. Was du übertragen auf PC Erfahrung sehr wohl merkst.


Du hast nicht verstanden, worauf er hinaus wollte. Grafik ist von der Sicht von M$ relativ blunzen für das Gros der Käufer. Die sehen im Vergleich zur jetzigen Konsolen-Generation eine bessere Grafik, dazu haufenweise Features, welche ganz besonders ins Auge stechen und darauf setzt M$.

Warum erkläre ich das überhaupt? Diese Diskussion wurde schon öfters ausgeschlachtet. :P

dildo4u
2013-05-21, 23:14:17
5 von 8GB für Games

http://www.gameinformer.com/b/news/archive/2013/05/21/xbox-hardware-evolution-chart.aspx

Aber nach der Präsentation ist es klar warum sie 3GB reservieren,Games und Apps laufen gleichzeitig.

Rolsch
2013-05-21, 23:16:40
Nö. Wenn du dich mit LowEnd Hardware auskennen würdest wirst du ganz was anderes sagen.
Ein Sprung in der Zahl entscheidet ob du in 30 oder in 60 FPS spielen kannst, bzw. in 720p oder 1080p. Das kenne ich beim Office PC und diversen MMORPGs wo ich auf passive GPUs setze da ist jedes Mhz goldwert wenn du übertaktest. So vom Eindruck her über Specs musst du XboxOne heftigst übertakten um auf 3D Leistung der PS4 zu kommen. Was du übertragen auf PC sehr wohl merkst.
ist doch Wumpe, im Gegensatz zum PC wissen die Entwickler genau ob ihr Spiel mit 60fps oder weniger laufen wird. Dann wird halt noch etwas optimiert. Und selbst wenn die Vermutungen hier stimmen, ist der Vorsprung der PS4 kaum relevant oder gar eine andere Liga. Die Spiele werden größtenteils gleich aussehen.

00-Schneider
2013-05-21, 23:18:41
5 von 8GB für Games

http://www.gameinformer.com/b/news/archive/2013/05/21/xbox-hardware-evolution-chart.aspx

Aber nach der Präsentation ist es klar warum sie 3GB reservieren,Games und Apps laufen gleichzeitig.


Angeblich werden auch zwei CPU-Kerne vom System genutzt, also sechs CPU-Kerne für die Spiele. (Nur Gerüchte)

Dürfte aber bei PS4 ähnlich sein. Killzone 4 nutzt doch auch nur ~4,5GB RAM laut der letzten Präsentation. Hat vielleicht die selben Gründe wie bei Xbox One, dass das OS der PS4 RAM und CPUs für sich reserviert.

Gipsel
2013-05-21, 23:22:09
Hmm glaub ich eher nicht, das ist eher auf Trinity-Stand. Gemeinsamer DRAMs ja, gemeinsamer Adressbereich nein.
Bißchen mehr ist das vielleicht. Und es wird dann auch mal genutzt. ;)
Das wird auf dem gleichen Stand wie bei der PS4 mit GCN1.1/C.I. sein. Auch bei Durango gibt es eine kohärente Verbindung zwischen CPU und GPU-Teil (http://www.vgleaks.com/durango-memory-system-overview/) (bei PS4 nennen die das Onion+ zur Unterscheidung zum Onion und Garlic von Llano/Trinity, aber eigentlich ist Onion+ im Prinzip nur der Cachebypass mit dem GLC-Bit, siehe unten). Also wenn die GPU Daten aus dem Hauptspeicher liest, werden auch die Caches der CPU-Kerne gesnooped, ob da die aktuelle Variante der Daten drin stehen (das geht wohl im Prinzip auch bereits seit Llano). Umgekehrt liest die CPU aber nicht aus den GPU-Caches. Allerdings kann die GPU (das ist ein Standardfeature von GCN, auch wenn das bei der PS4 als Spezialfeature verkauft wurde) bei jedem Schreibzugriff auf den Speicher die Kohärenz sicherstellen, in dem sie die Caches lediglich als write-through-Caches benutzt (da wird ein entsprechendes Bit im Instruktionsfeld gesetzt, das GLC-Bit, GLC steht für "globally coherent"), ist eben keine Automatik (die Performance kosten würde). Da muß der Entwickler halt wissen, was er will und wann er die geringere Performance für globale Kohärenz tauschen will.

][immy
2013-05-21, 23:28:16
Du hast nicht verstanden, worauf er hinaus wollte. Grafik ist von der Sicht von M$ relativ blunzen für das Gros der Käufer. Die sehen im Vergleich zur jetzigen Konsolen-Generation eine bessere Grafik, dazu haufenweise Features, welche ganz besonders ins Auge stechen und darauf setzt M$.


das Problem ist nur, sie setzen halt auf jede menge Features die sich nur in den USA gut verkaufen/vermakten lassen. MS schließt irgendwie immer von den USA auf die gesamte Welt. Also in den USA wird die Konsole vermutlich der Renner, aber wohl nur weil MS einfach nicht auf Europa oder gar Japan achtet. Das ist aber nicht nur bei der xbox so, das ist bei MS irgendwie überall so. Erst kommen die USA, dann lange nichts und dann irgendwann der Rest der Welt.
Aber wenn der Konsolenzyklus wieder so lange andauert (oder gar länger) wäre die Strategie wirklich gut. Man spricht nicht-spieler an (über kabel-firmen) und ein jüngeres Publikum über Kinect. die jüngeren werden auch mal älter und so hat man den namen xbox schon mal eingeprägt. Bei einem Zyklus von 7 Jahren macht das schon einen Unterschied.

was mich grad aber richtig abschreckt ist der eingeschränkte weiterverkauf von spielen (http://www.golem.de/news/microsoft-xbox-one-mit-neuer-kinect-und-blu-ray-laufwerk-1305-99367.html)
Mir ist zwar klar das es eh immer mehr in Richtung von Downloads geht, aber bei einem medium finde ich das schon heftig. aber die PS4 wird hier wohl auch in die gleiche Richtung gehen, wenn MS das durchzieht.

Gipsel
2013-05-21, 23:30:03
Also verstehe ich das jetzt richtig, dass das Ding komplett bei GF gefertigt wird? Und warum ist da so ein riesen Unterschied (~60 vs. ~150mm²?)?Die 150mm² kamen von Dir. Ich sage Dir, daß das viel kleiner wird, da in SRAM die Transistoren extrem dicht gepackt werden können.
Geht ja immerhin um ne ganze Menge Kohle und ich kann irgendwie nicht ganz nachvollziehen, wie man grob die Menge an Transistoren, die ein kompletter Bonaire mit sich bringt, in diese dapperten 32MB ESRAM verballern kann.In SRAM nimmt die gleiche Anzahl an Transistoren weniger Platz ein als mit Logik. Und es ist sehr einfach das so hinzubekommen (mit ein klein wenig Redundanz in den SRAM-Arrays), daß das die Ausbeute an funktionsfähigen Chips dadurch nicht beeinträchtigt (und SRAM ist immer das allererste, was die Fabs in einem neuen Prozeß ausprobieren, weil es mit das Einfachste zu fertigen ist). Alles was man hat, ist ein etwas größeres Die (und das holt man im Vergleich zu eDRAM mit dem billigeren Prozeß wieder herein) und gegenüber komplett ohne die 32mB embedded RAM spart man an den billigeren DDR3 Speicherchips gegenüber dem sonst nötigen GDDR5. Es gibt also durchaus Gründe dafür.

Steffko
2013-05-21, 23:35:45
Die 150mm² kamen von Dir. Ich sage Dir, daß das viel kleiner wird, da in SRAM die Transistoren extrem dicht gepackt werden können.
In SRAM nimmt die gleiche Anzahl an Transistoren weniger Platz ein als mit Logik. Und es ist sehr einfach das so hinzubekommen (mit ein klein wenig Redundanz in den SRAM-Arrays), daß das die Ausbeute an funktionsfähigen Chips dadurch nicht beeinträchtigt (und SRAM ist immer das allererste, was die Fabs in einem neuen Prozeß ausprobieren, weil es mit das Einfachste zu fertigen ist). Alles was man hat, ist ein etwas größeres Die (und das holt man im Vergleich zu eDRAM mit dem billigeren Prozeß wieder herein) und gegenüber komplett ohne die 32mB embedded RAM spart man an den billigeren DDR3 Speicherchips gegenüber dem sonst nötigen GDDR5. Es gibt also durchaus Gründe dafür.


I see. War mir nicht klar, dass man bei SRAM (viel) mehr Transistoren pro Fläche unterbringt.

00-Schneider
2013-05-21, 23:36:56
http://images.gamersyde.com/image_forza_motorsport_5-22122-2721_0001.jpg


Ist AF denn wirklich noch so teuer heutzutage, oder warum wird das nicht benutzt? :(

(erbitte technische Erklärung!)

Deinorius
2013-05-21, 23:39:17
[immy;9776071']das Problem ist nur, sie setzen halt auf jede menge Features die sich nur in den USA gut verkaufen/vermakten lassen. MS schließt irgendwie immer von den USA auf die gesamte Welt. Also in den USA wird die Konsole vermutlich der Renner, aber wohl nur weil MS einfach nicht auf Europa oder gar Japan achtet. Das ist aber nicht nur bei der xbox so, das ist bei MS irgendwie überall so. Erst kommen die USA, dann lange nichts und dann irgendwann der Rest der Welt.


Du hast im Grunde recht. Nichtsdestotrotz sollte es jedem mittlerweile klar sein, wieso M$ diesen Weg geht und nicht schon wieder die elende Frage stellt, warum sie denn nicht mehr GPU-Shader nutzen! :P
Dennoch frage ich mich, ob sie sich deswegen nicht dennoch etwas ausdenken werden bzw. ausgedacht haben. Ich wüsste jetzt nicht, was sie in Japan aufhalten sollte, mit Ausnahme, dass sich die Konsole so oder so schlechter verkaufen wird, unabhängig von den Features, der Grafik und den Spielen.
Möglicherweise werden sie dennoch soweit werben, dass Kunden gelockt werden, auch wenn nicht der volle Funktionsumfang (für den Moment?!) gegeben ist.

dildo4u
2013-05-21, 23:39:46
AF ist nich besonderes teuer kann man nur hoffen das es ne frühe Version ist.

][immy
2013-05-21, 23:51:39
Du hast im Grunde recht. Nichtsdestotrotz sollte es jedem mittlerweile klar sein, wieso M$ diesen Weg geht und nicht schon wieder die elende Frage stellt, warum sie denn nicht mehr GPU-Shader nutzen! :P
Dennoch frage ich mich, ob sie sich deswegen nicht dennoch etwas ausdenken werden bzw. ausgedacht haben. Ich wüsste jetzt nicht, was sie in Japan aufhalten sollte, mit Ausnahme, dass sich die Konsole so oder so schlechter verkaufen wird, unabhängig von den Features, der Grafik und den Spielen.
Möglicherweise werden sie dennoch soweit werben, dass Kunden gelockt werden, auch wenn nicht der volle Funktionsumfang (für den Moment?!) gegeben ist.
nunja, ich wüsste schon mit was man in Japan einen konsolen-hit mit kinect-steuerung bringen könnte ^^ (dazu wurden hier im Forum schon mal beispielbilder gepostet :D) aber damit würde man die marke ein wenig beschmutzen.
Aber Sie haben es leider nie wirklich geschafft Sachen die in Japan ankommen (JRPGs, ...) wirklich gut umzusetzen.
Für Europa wäre wohl (so ungern ich es auch zugebe) ein komplett exklusives EA-Sports lineup der "hammer" gewesen (was ich zuerst dachte weil der stream unterbrochen war und dann kam "exklusive for xbox one" und im Hintergrund ein fifa bild zu sehen war ... aber naja das war es halt nicht). Aber soweit wird es wohl nicht kommen.
bin aber mal gespannt was es mit den 8 neuen marken auf sich hat (hoffentlich nicht 8 neue kinect-spiele). bleiben noch 7 exklusive titel bekannter marken im ersten jahr (Fable, Gears of War, Halo, Forza, ... kinectimals 2 (?))
nunja, es werden sicherlich nicht alles core-spiele sein.

xL|Sonic
2013-05-21, 23:54:09
Japan ist ein ziemlich geschlossener Markt. Klar das eine ausländische Marke nicht gut ankommt. Die Xbox 360 war in den ersten 3 Jahren DIE Konsole wenn es um JRPGs ging. Microsoft hat ziemlich viel investiert aber was willste machen. Hat nichts genutzt und deshalb lassen sie den Markt links liegen. Die paar die ne Xbox 360 dort gekauft haben, haben wahrscheinlich nicht ihre Wurzeln in Japan ;)

merfu
2013-05-21, 23:59:57
Ehrlich gesagt haut mich weder die PS um noch die Xbox. Das liegt vermutlich daran das ich eigentlich ein PC Gamer bin und die Konsolen nur hat wegen der paar Exclusives.

Was mich interessieren würde ob sich Sony da wirklich einen gefallen getan hat. Rein wirtschaftlich dürfte es vermutlich zu gut 70 % wie bisher bei den Multis laufen. Der kleinste Nenner wird genommen und der Rest halbherzig portiert.

Ein guter Teil, die 50 % Mehrleistung der PS, dürfte abseits der Exclusives wenn Sony pech ungenutzt bleiben. Mal ehrlich, die Multis die mir für den PC untergekommen sind, sind zum Großteil (Subjektiv) halbherzig bis gar nicht angepasst sondern nur portiert. Dazu kommt noch das viele die andere Seite gar nicht kennen und vermutlich nicht einmal einen Unterschied sehen bis auf den informierten Gamer.

Mein Frage also, nach dem Roman, ob Sony damit wirklich Wirtschaftlich erfolgreich sein wird.

merfu

Deinorius
2013-05-22, 00:01:56
[immy;9776109']nunja, ich wüsste schon mit was man in Japan einen konsolen-hit mit kinect-steuerung bringen könnte ^^ (dazu wurden hier im Forum schon mal beispielbilder gepostet :D) aber damit würde man die marke ein wenig beschmutzen.


:ugly:
Beispiel-Bilder? ;D