Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?
Ich sehe eDRAM nicht so sehr als geeignete Wahl, um die Bandbreite irgendwie zu steigern, an. Bei der ersten Xbox360 war der eDRAM auch extern gelagert, eben weil es rein her von der Fertigung nicht trivial ist(vor allem auch wegen den zusätzlichen Kosten). Ich sehe größere Caches eher als den richtigen Weg an, aber keine APU hatte bis jetzt relativ große Caches. Ka, ob Kaverie da was ändert.
Das ist schön, dass du das so siehst.
Gut, dass die Entscheidungen dann doch von Leuten getroffen wird, die sich mit dem Zeug auskennen.
robbitop
2012-04-06, 14:30:57
Err, dir ist aber schon klar, dass R580 dedizierte Vertex Shader und ROPs (inkl. Hier-Z etc.) hat und C1 nicht?
Jap.
R580 hat 384 Mio Transistoren und C1 nur 232 Mio Transistoren. 70 Mio kostet laut B3D die ROPs auf dem eDRAM Kern. Sind immernoch delta 80 Mio Transistoren weniger. Das wird wohl kaum durch ein paar VS aufgefressen. Und dazu kommt ein höherer Techlevel.
Du musst zugeben, dass Xenos sehr transistorefizient designt wurde. Transistoreffizienter als die ohnehin schon transistoreffiziente R580 (3x so viele ALUs wie die R520 bei nur ~84 Mio Mehrtransistoren).
Das ist schön, dass du das so siehst.
Hehe - subtiler kann man es nicht ausdrücken. Gratulation! :D
Gipsel
2012-04-06, 14:35:36
Du musst zugeben, dass Xenos sehr transistorefizient designt wurde. Transistoreffizienter als die ohnehin schon transistoreffiziente R580 (3x so viele ALUs wie die R520 bei nur ~84 Mio Mehrtransistoren).
Da sieht man nur immer wieder, daß die Shader nicht den Löwenanteil der GPUs ausmach(t)en. ;)
dargo
2012-04-06, 14:37:30
Mhh, ich erwarte zwischen 768 bis 1024SPs. Die HD7770 hat auch nur ein 128Bit SI, aber das teilt man sich nicht mit irgendwelchen CPU-Modulen.
Dann müsste man die GPU eventuell anpassen. Ich sehe beim Cape Verde max. 640SPs. Ein Pitcairn hätte die 1024, oder kommt da noch eine HD7780/90? Aber was macht dich so sicher, dass die PS4 sich den Speicher mit der CPU teilen muss? Ok... bei einem SoC wirds sicherlich so kommen.
Nakai
2012-04-06, 14:38:44
Das ist schön, dass du das so siehst.
Gut, dass die Entscheidungen dann doch von Leuten getroffen wird, die sich mit dem Zeug auskennen.
Stimmt, denn EDRAM direkt auf einem SOC unterzubringen hat bis jetzt noch keiner versucht. ;D
€: Oh stimmt ich hab die Wii und GC vergessen.
Botcruscher
2012-04-06, 15:02:45
EDRAM haengt dafuer wieder extrem an der geringen Menge. Zum SoC passt er aber.
del_4901
2012-04-06, 15:39:22
Inwiefern? Die Speicheranbindung bzw. die daraus resultierende Bandbreite ist in erster Linie von der geplanten Rohleistung abhängig. Was willst du mit sehr hoher Speicheranbindung bei mickriger Rohleistung?
Man kann algorithmisch fast immer rohleistung gegen Speicher tauschen. Und genau darauf spekulieren sie Konsolen. Daher sollten sie eine ueberdurchschnittlich hohe Speicheranbindung haben um dabei nicht an eine Grenze zu stossen.
Ailuros
2012-04-06, 19:06:38
Jap.
R580 hat 384 Mio Transistoren und C1 nur 232 Mio Transistoren. 70 Mio kostet laut B3D die ROPs auf dem eDRAM Kern. Sind immernoch delta 80 Mio Transistoren weniger. Das wird wohl kaum durch ein paar VS aufgefressen. Und dazu kommt ein höherer Techlevel.
Du musst zugeben, dass Xenos sehr transistorefizient designt wurde. Transistoreffizienter als die ohnehin schon transistoreffiziente R580 (3x so viele ALUs wie die R520 bei nur ~84 Mio Mehrtransistoren).
Unter Umstaenden stehen Transistoren auch fuer Rohleistung. Ein Xenos-alike design im desktop waere im Vergleich zu R5x0 eine ziemliche Enttaeschung gewesen. Es gibt eben schon einen gewaltigen Unterschied zwischen einem high end desktop design der in sehr hohen Aufloesungen mit hoeheren details mit AA/AF laufen muss und einem Konsolen design fuer 720p, wobei AA eine Seltenheit und Matschtexturen eher das uebliche sind.
Unter solch einer Perspektive weigere ich mich einen "transistor-effizienteren" design hier zu sehen. Wir sahen ja wie "transistor-effizient" R600 war und es gibt hier keine "aber" da es der direkteste Verwandte von Xenos eigentlich ist.
sloth9
2012-04-06, 20:07:30
http://ie.ign.com/articles/2012/04/04/sources-detail-the-playstation-4s-processing-specs
Neue Gerüchte. Das wäre nicht einmal Mittelklasse aus heutige Sicht.
Nichtmal Trinity! Das übertrifft meine schlimmsten Befürchtungen. Autsch!
Alles andere als GCN wäre absurd.
Deinorius
2012-04-06, 20:19:40
Nichtmal Trinity! Das übertrifft meine schlimmsten Befürchtungen. Autsch!
Jetzt mal ernsthaft, entweder ist das ein armseliger Trollversuch, oder man muss zum x-sten Mal darauf hinweisen, dass das verflucht nochmal nur vermaledeite Gerüchte sind und man nicht zuviel darauf geben sollte! :facepalm:
Darüber hinaus ist dieses Gerücht schon längst bekannt, wurde hier schon gepostet und wird darüber hinaus schon längst diskutiert.
megachip800
2012-04-06, 22:34:41
Nichtmal Trinity! Das übertrifft meine schlimmsten Befürchtungen. Autsch!
Das bezieht sich vielleicht auf die ersten Devkits . Es gibt auch noch andere Gerüchte:
http://pastebin.com/5giPQP2r
"A lot of rumors are flying around about next gen consoles. Most of the rumors have some truth to them, based on what I have seen, worked with, or heard. However I am extremely annoyed by all the bitching and moaning that is going around the Internet atm about how pathetic rumored spec's are. So much that I have to reveal SOME of the things that are really going on behind closed doors.
Spec numbers that IGN posted are from first/early dev kits that have been replaced in mid January. Now I repeat what I know is based on second dev kits that DO NOT represent the final product. Kits will mosT definitely change. Before I reveal SOME of the specs let me tell you that based on what we have heaRd in our studio from our publisher is that Sony was undecided if they should go for a high end machine and take On MS or go for 1.5 leap.
According to rumors a couple of Sonys first party studios are asking for high end machine to make games that are going to have noticeable generation leap. While Hirai and other heads over in Japan think it's time to think about profitability. For now "fight" is some where in between, edging more towards higher end. RAM has been raised from 2GB to 4GB when most of bigger publishers and first party studios that have saying went mental.CPU yes it is true Sony is moving away from the CELL. Will there be BC? Our publisher doesn't care and we haven't heard a word about it. Again since these are dev kits we can't know more than that 99% ceLL is done and dusted. Second dev kit uses APU design AMD A8-3870k redesigned to have HD 6850 on board. And yes SI rumors are true. APU is paired with the HD Radeon HD 7900. No HDD rumors are untrue since it has aLready been confirmed that just like PS3, every "Orbis" SKU will have large HDD since Sony is very eager to make Orbis the media hub. O and one more thing Orbis will support 4 layer BR discs from day 1."
Ist natürlich kein Beweis für sonst etwas, aber es klingt plausibel man tastet sich jetzt langsam vor und
erhöht von Devkit zu Devkit die Performance der einzelnen Komponenten um Grenzen auszuloten. Zielrichtung Amd 7900 , vielleicht nicht ganz eine 7970 , aber so ein Zwischending mit niedriger
Taktfrequenz und ein für die Konsole optimierten Featureset. Und es wird möglich sein , die Cpu wird wohl nicht soviel kosten wie damals der Cell ebenso sind Bluraylaufwerke in 2013 für ein Schnäppchen zu haben
, gute Ausgangsposition also um diesmal ein leistungsstarkes Grafiksystem zu implementieren. Da ist also noch nicht das letzte Wort gesprochen.
Bezüglich Xbox720:
http://sillegamer.com/2012/04/06/xbox-720-devkit-specs-detailed-includes-16-core-processor/
"The publication states that current devkits will not mirror the final hardware in appearance, however, initial specifications are representative of the console set to ship in late 2013. Sources close to Xbox World magazine have revealed that Durango’s devkit features a “monster” 16-core IBM PowerPC CPU, a GPU comparable to AMD’s Radeon HD 7000-series graphics cards, and a Blu-Ray optical drive."
http://pastebin.com/0cGdu4gP
"You may have heard of the two GPU rumor already. Think its a load of crap? Think again. That's the road that MS is going down. But I should say, its not your conventional dual GPU set up that you may find in some PC's. MS and AMD have been working on something for quite a while, and if everything works out, expect this thing to blow you away when you first see it. Similar to Xenos from the beginning of this gen, its a pretty innovative chip."
"..RAM:
Short and sweet:
MS were going for 2GB.
Devs complained.
MS listened.
MS bumped up RAM to 4GB.
Most devs were very happy, however 1 or 2 tried complaining again.
MS told them to piss off."
30@Frames
2012-04-06, 23:46:32
Short and sweet:
MS were going for 2GB.
Devs complained.
MS listened.
MS bumped up RAM to 4GB.
Most devs were very happy, however 1 or 2 tried complaining again.
MS told them to piss off. X-D
über den Rest.. für mich hört sich es doch sehr utopisch an. Ein SI 7950 ist immerhin ein Riesen-DIE von schlag mich tot ~ %50 mehr als ein RSX seiner Zeit + APU und gekühlt muss es auch noch in einer 5Liter Gehäuse( Wenn Sony/MS sich nach der Slim richten)
Vielleicht verstehe ich jetzt was AMD mit meinte " Next Gens to have avatar level graphics" ;D
Trotzdem das oben ist Träumerei. Ich bin aber auch nur Laie, also nur meine Bescheidene Meinung dazu.
megachip800
2012-04-06, 23:54:31
X-D
Ein SI 7950 ist immerhin ein Riesen-DIE von schlag mich tot ~ %50 mehr als ein RSX seiner Zeit + APU und gekühlt muss es auch noch in einer 5Liter Gehäuse( Wenn Sony/MS sich nach der Slim richten)
Wenn Sony und AMD die stacked Chip Technologie verwenden dann sind die DIE Flächen nicht mehr so groß, vielleicht nur noch 250 mm2 mal 2 macht 500 mm2. Ein ursprünglich großer Chip wird dann auf 2 Layers
gesplittet u. übereinander gestapelt und so wie ich das gehört habe sollen sich bei der Methode auch thermische Vorteile ergeben.
Genau, denn eine Hitzequelle unter einer anderen Hitzequelle lässt sich viel besser kühlen als ein Die mit vollständigem, direktem Kontakt zum Kühlkörper.
Völlig logisch!
megachip800
2012-04-07, 00:04:45
Genau, denn eine Hitzequelle unter einer anderen Hitzequelle lässt sich viel besser kühlen als ein Die mit vollständigem, direktem Kontakt zum Kühlkörper.
Völlig logisch!
Denke mal du bist nicht auf dem laufenden:
http://www.neogaf.com/forum/showthread.php?t=458527:
"Tsuruta-san picked out emerging ‘through silicon via’ designs. These stack chips with interconnects running vertically through them to reduce length, raise performance and reduce power consumption.'"
Wenn der Stromverbrauch sinkt dann wird logischerweise auch weniger Abwärme erzeugt.
Geldmann3
2012-04-07, 00:14:24
PS4...Hmmmm
Wird wahrscheinlich eine CPU mit 8 Kernen und eine GPU etwas schneller als die Radeon HD 7770. Dazu noch 4Gigabyte VRam, die aber auch als Ram dienen.
Ich hoffe natürlich, dass soviel Grafikpower reingesteckt wird wie möglich, damit auch der PC Grafik mal wieder ein Tritt in den Hintern verpasst wird. Einige Techdemos versprechen ja schon viel, leider müssten die Konsolen dann am besten noch leicht über dem Niveu der Radeon HD 7970 liegen. Wär natürlich geil.
Denke mal du bist nicht auf dem laufenden:
http://www.neogaf.com/forum/showthread.php?t=458527:
"Tsuruta-san picked out emerging ‘through silicon via’ designs. These stack chips with interconnects running vertically through them to reduce length, raise performance and reduce power consumption.'"
Wenn der Stromverbrauch sinkt dann wird logischerweise auch weniger Abwärme erzeugt.
Ich halt's wie immer: Ihr habt alle recht und ich meine Ruhe :D
:popcorn:
Deinorius
2012-04-07, 00:22:57
Ich halt's wie immer: Ihr habt alle recht und ich meine Ruhe :D
Ach verdammt, jetzt hab ich mich schon so auf deine Antwort gefreut. :mad:
Spielverderber. :freak:
Iruwen
2012-04-07, 00:23:23
Denke mal du bist nicht auf dem laufenden:
http://www.neogaf.com/forum/showthread.php?t=458527:
"Tsuruta-san picked out emerging ‘through silicon via’ designs. These stack chips with interconnects running vertically through them to reduce length, raise performance and reduce power consumption.'"
Wenn der Stromverbrauch sinkt dann wird logischerweise auch weniger Abwärme erzeugt.
Da steht aber nicht wie stark die Leistungsaufnahme sinkt, die müsste m.E. ganz erheblich reduziert werden. Die Hitzeentwicklung findet ja nicht gleichmäßig auf dem Die statt, wenn es auf dem unteren Layer einen Hot Spot gibt wird der nicht ordentlich gekühlt und das ganze Ding fackelt ab. Ich glaub das ist eher bei kleineren Chips mit geringerer Leistungsaufnahme realistisch.
/e: verdammt.
Käsetoast
2012-04-07, 00:25:19
Irgendwo auf 7900er Niveau heisst für mich übersetzt irgendwas im Bereich eines Pitcairns, der einer 7950 ja gefährlich nahe kommt. Auch sollte man im Kopf behalten, dass man den ganzen GPGPU "Quatsch" den die 7900er Serie hat nicht braucht, was Verbrauch & Chipgröße deutlich senken wird. Wenn man nächstes Jahr auf den Markt will denke ich aber nicht, dass wir CPU und GPU am Anfang auf einem Chip sehen werden - das wäre zuviel Abwärme. Das wird dann wohl wie derzeit in einem Refresh erfolgen, bei dem auch bessere Fertigungsprozesse zur Verfügung stehen. Vielleicht auch dahingehend ganz "gesund", indem man was die Fertigung angeht keine "Experimente" anfängt, was ja auch gerne mal für Probleme und Verzögerungen sorgt und erneut will Sony sicherlich nicht deutlich später als Microsoft an den Markt...
Was die genaue Leistung angeht wird es wohl von Sonys Management abhängen. Die werden nicht vergessen haben wie sehr man bei der PS3 und deren Kostengestaltung danebengelegen hat (finanziell gesehen). Könnte mir also durchaus vorstellen, dass man da auf eine Leistung irgendwo zwischen 7770 und 7850 abzielt und sich damit immer noch deutlich von der alten Generation absetzen kann und gleichzeitig preislich gemäßigt bleibt...
Felixxz2
2012-04-07, 07:04:27
Es wird sicher keine 7000er Radeon reinkommen, sondern eine 8000er oder 9000er Custom GPU. In aktuellen Devkits verwendet man halt als Annhäherung eine 7000er.
4GB System RAM hören sich schon mal sehr gut an, da kann man einiges PUffern für GTA 6 :D
VRAM muss halt noch bei 2GB oder größer liegen.
Ich denke man wird eben letztendlich bei einer Custom 8780/9870 liegen, bei der CPU bin ich mir nicht sicher. Eine Llano APU ist unsinn, da total veraltet. Wenn APU, dann eine aus dem Jahr 2013/2014, vielleicht auch von Intel. Im Raum steht aber wie immer noch der PowerPC, der sicher auch eine sehr gute Chance hat.
PatkIllA
2012-04-07, 08:56:57
Warum gehen die Konsolenhersteller eigentlich nicht den Weg regelmäßig (2-3 Jahre) aktualisierte Versionen rauszubringen, die weitesgehend kompatibel sind.
Dann laufen direkt auch alle alten Spiele zum Launch und die Spielehersteller könnten mit sehr geringem Aufwand Versioen bringen, die auf alter als auch neuer Version laufen. Beim Launch der neuen Version hätten die Spielehersteller auch nicht das Problem, dass die installierte Basis fehlt.
Die Abstraktion durch die API wäre immer noch deutlich geringer als am PC und sowas wie früher, wo es auf jeden Takt und jedes Byte ankommt hat ist es doch heute bei den Konsolen eh nicht mehr.
Wenn man sich da z.B. auf zwei Generationen beschränkt ist das immer noch um Größenordnungen einfacher als am PC bzw. zwischen verschiedenen Herstellern.
Das würde die Leute auch viel mehr an die Plattform binden, da man beim Neukauf nicht bei Null anfängt. Bei den Smartphones scheint es für viele auch kein Problem zu sein sich alle zwei Jahre eine neues Gerät für mehere hundert Dollar zu kaufen und man kann die alte Generation ja parallel zum Schnäppchenpreis anbieten. Wichtig ist ja eh dass die Software verkauft wird.
Flyinglosi
2012-04-07, 10:06:13
Warum gehen die Konsolenhersteller eigentlich nicht den Weg regelmäßig (2-3 Jahre) aktualisierte Versionen rauszubringen, die weitesgehend kompatibel sind.
Da kann man nur spekulieren, aber ich würde hier auf zwei wichtige Gründe tippen:
-Der psychologische Effekt ala "Ich kaufe mir jetzt eine Konsole und muss bis für viele Jahre nicht mehr übers Aufrüsten nachdenken" fällt weg. Auch glauben wirklich viele reine Konsolenuser noch immer, sie würden High-End-Hardware einsetzen. Wenn man dann aber sieht, das die neue "XYZ-Box" doch schneller ist, geht das aufs Ego.
-Konsolen bringen ja erst nach einigen Jahren wirkliche Gewinne ein. Und das vorallem, weil sich "langsame" veraltete Hardware eben günstiger produzieren lässt. Shrinks und Optimierungen können hier vollständig zur Kostenreduktion genutzt werden, anstatt damit wieder neue Leistung herauszukitzeln. Auch hatte die aktuelle Generation (speziell die Xbox360) gezeigt, dass man auch hier nicht vor Kinderkrankheiten (ROD) sicher ist. Ständige (wenn auch langsame) Leistungsteigerung steigert auch das Risiko bzgl. solcher Fehler.
mfg Stephan
PatkIllA
2012-04-07, 10:10:32
Aber wenn man öfters neue Dinge rausbringt kann man am Anfang ja auch direkt etwas tiefer stapeln. Eine Weiternentwicklung sollte auch nicht so teuer sein, wie komplett von vorne anzufangen.
Und wenn man die alte Generation noch weiter unterstützt muss man ja auch nicht aufrüsten.
mironicus
2012-04-07, 10:38:05
Fragt sich nur wie hoch dann die Anforderungen an den PC sein müssen, wenn es dann wieder die üblichen Konsolenports gibt. PCs müssen im Vergleich zu Konsolen ja immer deutlich leistungsfähiger sein, damit sie die gleiche Geschwindigkeit bei Spielen erreichen.
aylano
2012-04-07, 11:58:55
Warum gehen die Konsolenhersteller eigentlich nicht den Weg regelmäßig (2-3 Jahre) aktualisierte Versionen rauszubringen, die weitesgehend kompatibel sind.
Das halte ich nicht für Sinnvoll, da dies IMO zu viele veränderungen für die Spiele-Hersteller & Kunden bedeutet.
Eher hat es Sinn, eine Konsole für die aktuelle Massen-Technik für die nächsten Paar Jahre bzw bis zum nächsten Technischen Sprung in der Massen-Technik zu entwickeln.
Kurz gesagt:
Momentan technischer Stand von mainstream Massefernseher ist 1080p-LED @ 40" und aktive 3D-Brille.
(Deshalb setzt Wii 2 & X-Box 720 & Playstation 4 jetzt hauptsätzlichauf 1080p)
Ich schätze, in 4-6 Jahren ist 2160p-OLED @ 50-80" und non-Brille-3D ein mainstream Massefernseher, was die nächste Konsolen-Generation rechtfertigt.
Als die Playstation 3 & X-Box 360 & Wii kamen, sind gerade die 720p-LCD @ 26-32" (als Massenware) aufgekommen.
Davor waren die Playstation 1 & 2 nicht so mit der Fernsehtechnik verbunden. Ich finde, eine Konsolen muss die heutige sowie zukünftige Fernsehtechnik-Entwicklung berücksichtigen und entsprechend besten Zeitpunkt die Konsolen rausbringen.
Diese Betrachtungsweise könnte verdeutlichen, warum die Playstation 3 mit der 1080p & Blue-Ray (zuerst einige Jahre keine Massenware) Überdimensionierung so einen schweren (Wirtschaftlichen) Start bzw. Fehlstart hatte.
Zu berücksichtigen ist auch die Haltbarkeit von solchen Geräten.
Also nicht nur die Konsole, sondern auch die Haltbarkeit der Fernseher.
Da macht es wahrscheinlich auch sinn, die Konsolen-Generationen an der Haltbarkeit der Fernseher oder den Nutzungs-Zyklen von Fernsehern des Massen-Markt zu orientieren.
Und den würde ich mal so auch etwas 4-6 Jahren einschätzen.
PatkIllA
2012-04-07, 12:03:53
@aylano
ich sehe da überhaupt keinen Widerspruch.
der mit der alten Generation spielt halt in 720p wieder und der mit der neuen kriegt halt 1080p und in ein paar Jahren kann man dann halt in 4K spielen.
Mal abgesehen davon, dass bei Spielen die Zielauflösung nur einen (IMO nicht mal den größten) Teil von der Qualität ausmacht.
Sony hätte ja auch einen einfacheren Prozessor nehmen können und ein BD Laufwerk mussten sie bringen, da sie sonst gegen HDDVD verloren hätten. Die Spieleeignung von BD war da ziemlich nebensächlich.
dargo
2012-04-07, 12:03:55
(Deshalb setzt Wii 2 & X-Box 720 & Playstation 4 jetzt hauptsätzlichauf 1080p)
Wo steht das?
War es nicht so, dass gerade Sony früher bei dem PS3-Marketing von 1080p geblubbert hat? Wo wir gelandet sind wissen wir. Teilweise 640p und sogar manchmal drunter. :ugly:
Ich schätze, in 4-6 Jahren ist 2160p-OLED @ 50-80" und non-Brille-3D ein mainstream Massefernseher, was die nächste Konsolen-Generation rechtfertigt.
Träum weiter. :tongue:
y33H@
2012-04-07, 12:25:17
1080p mit LED und 3D-Brille sollen bereits Mainstream-Standard sein? Vielleicht hinsichtlich dessen, was die Hersteller anbieten - aber da gibt's erstens noch genug LCDs und zweitens hat sicherlich nicht jeder 1,x-te bereits 1080p mit LED und 3D-Brille daheim. Oder gibt's Zahlen die das belegen? Würde mich ehrlich gesagt wundern, aber vll bin ich als non-Konsolero und wenig TV-Schauer da iwie rückständig :usad:
aylano
2012-04-07, 12:40:35
Wo steht das?
Öhm, dachte ich zumindestens.
1080p mit LED und 3D-Brille sollen bereits Mainstream-Standard sein? Vielleicht hinsichtlich dessen, was die Hersteller anbieten - aber da gibt's erstens noch genug LCDs und zweitens hat sicherlich nicht jeder 1,x-te bereits 1080p mit LED und 3D-Brille daheim.
Wenn man die jetzt schon um 600 Euro kriegt, dann würde ich ja sagen.
http://geizhals.at/eu/621033
Im Jahr davor bekam man 3D AFAIK so ab 1000 Euro und im einführungsJahr AFAIK so ab 1500 Euro.
Dabei kommen in diesen Wochen gerade die neuen Fersehmodellen.
Mal sehen, ob bei Samsung dann schon im E5000er-Modell schon 3D dabei ist. Wenn ja, dann ist es schon längst Massenkäuflich. Zu berücksichtigen ist, dass die Playstation 4 erst nächstes Jahr kommt.
Träum weiter. :tongue:
Ich halte es schon für möglich, wenn es bald schon 55"-OLED-Fernsehr geben soll.
Man konnte die LED-Massefertigung in den letzten jahren schön mitverfolgen.
2012 ... LED Massewaren beim Fernseher
2011 ... LED Massenware bei Desktop-Monitoren
2010 ... LED Massenware bei Notebooks
2009 ... LED Massewaren bei Kleingeräten (z.B. Netbook)
davor setztes sich LED bei Handys in der Masse durch.
AMOLED sind zwar in Massenhandys keine Massenware, aber zumindestens in High-End-Smartphones.
Dazu ist der Trend (siehe iPad und iPhone davor) der Trend zu höheren Auflösungen, was einen Zukünftigen Sprung auf 2080p erleichtert.
Dazu passt mit BDXL (100/128GB) mit 4 facher Speicherkapazität in die Entwicklung von zukünftiger 4 facher Auflösung @ 4K oder 2080p.
Nicht umsonst versucht Sony mit BDXL und 4K-Kompatiblität den zukünftigen Übergang zu erleichtern, so wie sie es mit der PS3 machte, die Technisch heute auch noch gut mithalten kann.
OLED mag zwar jetzt noch eine große technische herausforderung wirken, aber das war LED früher auch, wo AFAIK die weiße LED erst Mitte der 90er Jahre entwickelt und Ende der 90er Jahre produziert wurde.
Es muss nicht gleich die Fernseh-Technik auch parallel mitziehen, aber zukünftige Umstellungen werden in er Fernseh-Technik IMO ebenfalls schneller gehen.
So wie nach dem schweren Start von UMTS, dann HSDPA und LTE schon viel fließender kamen.
Denn in den 00er-Jahren mussten die Fernsehstationen komplett auf digital umsteigen und parallen HDTV einführen.
Wenn man sich jetzt schon zu den olympischen Spielen ein 3D-Fernsehen überlegt, dann halte ich 2080p oder äquivalentens in 4 bzw. 6 Jahren im guten Bereich des Möglichen. Natürlich könnte ein harter Formatkampf zu großen Verzögerungen kommen.
Traum: Ja, aber das heißt nicht, dass es nicht so kommen.
Genauso wie vor 4 Jahren ein 3D-Massefernser und 6 Jahren ein Masse-Smartphone auch noch wie ein Traum wirkte.
dargo
2012-04-07, 12:45:54
Ich halte es schon für möglich, wenn es bald schon 55"-OLED-Fernsehr geben soll.
Du weißt aber schon, dass dieser OLED 6000€ kosten soll und "nur" 1080p bietet? Zudem... die Masse wechselt den Fernseher nicht jedes oder jede zweite Jahr. So ein Ding bleibt in der Regel 8-10 Jahre bestehen oder halt so lange bis er den Geist aufgibt.
Man konnte die LED-Massefertigung in den letzten jahren schön mitverfolgen.
2012 ... LED Massewaren beim Fernseher
2011 ... LED Massenware bei Desktop-Monitoren
2010 ... LED Massenware bei Notebooks
2009 ... LED Massewaren bei Kleingeräten (z.B. Netbook)
davor setztes sich LED bei Handys in der Masse durch.
LED war eher ein Rückschritt was Bildqualität angeht. Fortschritt war das für den Konsumenten nur beim Stromverbrauch.
aylano
2012-04-07, 13:09:35
Du weißt aber schon, dass dieser OLED 6000€ kosten soll und "nur" 1080p bietet?
Natürlich.
Immerhin gibt es jetzt schon sowas.
Wichtiger ist es vielleicht, dass es im Smartphonebereich schon eine Massenfertigung gibt, die jetzt jedes Jahr ausgebaut wird und mit größeren Bildgrößen neue Bereiche (Tablet/Netbook --> Notebook --> Desktop --> Display --> Fernseher) in Masse erobert, wodurch die OLED-Fernseher von Jahr zu jahr immer billiger werden und hoffentlich in 4-6 Jahren dann 500-100 Euro kosten.
Zudem... die Masse wechselt den Fernseher nicht jedes oder jede zweite Jahr. So ein Ding bleibt in der Regel 8-10 Jahre bestehen oder halt so lange bis er den Geist aufgibt.
Wie oft man ein Produkt wechselt, kommt auch auf den Nutzungsmehrwert an.
Es gibt genug Leute, die sich momentan ein 1000 Euro Apple alle 2 Jahre kaufen. Da sehe ich nicht so ein Problem, nach 5 Jahren wieder einmal einen Fernseher zu kaufen.
Die 8-10 Jahren stammen vielleicht zu einer Zeit, wo die Entwicklungsgeschwindigkeit bei Bildröhren erheblich geringer waren.
Und Leute, die überhaupt nicht an Technik bzw. Spiele/Fernseh-Technik interessiert sind, werden auch keine Konsole kaufen.
LED war eher ein Rückschritt was Bildqualität angeht. Fortschritt war das für den Konsumenten nur beim Stromverbrauch.
Ich weiß nicht, was du genau meinst, aber ich würde das nicht so sagen.
Im vergleich zu den ersten LCDs, war die Fernsehqualität bei Fernsehübertragungen im vergleich zur Bildröhre extrem schlecht und trotzdem waren sie in der Masse beliebt.
Wenn LED ein Rückschritt sein mag, der Vorteil des OLED liegt doch in der besseren Farb bzw. Bildqualität.
Da LED-Hintergrundbeleuchtung im Jahr 2012 genausoviel Kosten wie die alten Hintergrundbeleuchtungen !!!!!!!!!!!!!!!!! sowie die Produktion in diesem Jahr fast komplett auf LED-Fernseher umstellen kann, dürften IMO die Zeichen in LED in den nächsten Jahren verstärkt in höhere Bildqualität liegen.
Und wenn der Trend zu immer größeren Fernsehern geht, ist ein 2080p/4K-Umstieg schon fast vorgegeben, auch wenn es zuerst mit Blu-Ray stattfinden wird.
dargo
2012-04-07, 13:20:17
Wichtiger ist es vielleicht, dass es im Smartphonebereich schon eine Massenfertigung gibt, die jetzt jedes Jahr ausgebaut wird und mit größeren Bildgrößen neue Bereiche (Tablet/Netbook --> Notebook --> Desktop --> Display --> Fernseher) in Masse erobert, wodurch die OLED-Fernseher von Jahr zu jahr immer billiger werden und hoffentlich in 4-6 Jahren dann 500-100 Euro kosten.
100-500€? :|
Es gibt noch nicht mal heute vernünftige LED-Fernseher im Bereich von 55" für 500€ und du willst einen OLED in 4-6 Jahren dafür haben der was taugt? :ulol:
Naja... träumen darf man. :tongue:
Wie oft man ein Produkt wechselt, kommt auch auf den Nutzungsmehrwert an.
Und eben diesen wird es die nächsten Jahre für die Masse nicht geben. Ich wäre schon froh wenn wir im deutschen Fernsehen in 4-6 Jahren durchgängig 720p hätten und selbst das wird nicht passieren.
Es gibt genug Leute, die sich momentan ein 1000 Euro Apple alle 2 Jahre kaufen.
Das ist aber nicht die Masse. Es gibt auch genug Leute die sich jedes 1-2 Jahre einen Neuwagen kaufen.
PatkIllA
2012-04-07, 13:21:13
OLED für TVs wurde uns schon versprochen bevor die in Handies zur Massenware wurden.
Und der LG OLED ist ein LCD mit OLED Hintergrundbeleuchtung, was für mich schon dem Eingeständnis gleich kommt, dass man "echte" OLED auch zum Premiumpreis nicht hinbekommt.
Und um zu den Konsolen zurückzukommen sollten die Konsolenhersteller sich schon an dem ausrichten, was als Mainstream neu verkauft wird und nicht was am meisten verbreitet ist. Das wären wahrscheinlich immer noch die Röhrenfernseher.
Deathcrush
2012-04-07, 13:35:35
So ein Ding bleibt in der Regel 8-10 Jahre bestehen oder halt so lange bis er den Geist aufgibt.
Früher, zur Zeiten der Röhre sicherlich, aber nicht mehr heute. Vor allem sind die Preise heute sehr viel niedriger bei den TV Geräten, was ein wechsel viel einfacher macht. Ich selbst würde mich nicht als HiFi und Video Junkie sehen, habe aber in den letzten 5-6 Jahren 3 neue TV´s für das Wohnzimmer gekauft und ich kenne viele die es ähnlich gemacht haben.
dargo
2012-04-07, 13:47:38
Vor allem sind die Preise heute sehr viel niedriger bei den TV Geräten, was ein wechsel viel einfacher macht.
Bei den Billigteilen die kaum was taugen vielleicht. Wenn ich mir aber heute ein vernünftiges 55" Gerät holen möchte muss ich immer noch über 2000€ auf den Tisch legen (beim aktuellen Modell). Das wäre sowas hier:
http://geizhals.at/de/744040
Ich selbst würde mich nicht als HiFi und Video Junkie sehen....
Ich mich auch nicht...
...habe aber in den letzten 5-6 Jahren 3 neue TV´s für das Wohnzimmer gekauft und ich kenne viele die es ähnlich gemacht haben.
und mein GW20 bleibt noch locker 6-8 Jahre stehen oder halt so lange bis er nicht mehr will. Und ich habe genug Bekannte die das genauso machen. Sollte ich den TV früher wechseln liegts nicht daran weil die neuen um Welten besser sind sondern nur an der Größe. Der nächste sollte schon min. 55" haben.
Deathcrush
2012-04-07, 13:55:54
Bei den Billigteilen die kaum was taugen vielleicht. Wenn ich mir aber heute ein vernünftiges 55" Gerät holen möchte muss ich immer noch über 2000€ auf den Tisch legen (beim aktuellen Modell).
Ich denke das die gängige Praxis bei 42" liegen wird. 55" halte ich für übertrieben im Mainstreambereich. Wie gesagt, ich glaube das der Wechsel heute viel schneller von statten geht als früher. Wir leben nun mal in einer Gesellschaft wo man immer das neueste haben "muss" ;) Und annehmbare LCD TV´s bekommt man heute schon regelrecht aufgezwungen und gute Plasmageräte für 1000€ http://www.amazon.de/Panasonic-TX-P42VT30E-3D-NeoPlasma-Fernseher-klavierlack-3D-Brille/dp/B004RDWUUE/ref=sr_1_2?ie=UTF8&qid=1333799680&sr=8-2 Und das mit 3D!
EDIT mein GW20 wird sicher nicht noch 5 Jahre halten ;)
Watson007
2012-04-07, 14:02:38
Ich denke das die gängige Praxis bei 42" liegen wird. 55" halte ich für übertrieben im Mainstreambereich. Wie gesagt, ich glaube das der Wechsel heute viel schneller von statten geht als früher.
bei den Enthusiasten sicherlich, aber die Mehrheit der Bevölkerung gehört nicht dazu ;) Die ganzen Rentner z. B., die eine große Bevölkerungsschicht stellen - bei denen kann ich mir nicht vorstellen dass die schnell ihre Fernseher wechseln.
Abgesehen davon ist auch die Frage wer es sich leisten KANN, sicher sind sie nicht mehr so teuer aber es gibt auch etliche Niedriglöhner/Arbeitslose in Deutschland, und der Fernseher ist ja nicht das einzige ;)
mein 40-Zöller muss jetzt auch noch ein paar Jahre halten, wegen ein paar cm mehr wechsle ich ihn nicht so schnell ^^
dargo
2012-04-07, 14:03:28
Ich denke das die gängige Praxis bei 42" liegen wird.
Das mag schon sein. Ich hab jetzt nur 55" als Beispiel genommen weil der OLED auch als 55" genannt wurde. Zudem sinds bei mir 4,2m Abstand. Da wären 42" mir persönlich viel zu wenig.
55" halte ich für übertrieben im Mainstreambereich. Wie gesagt, ich glaube das der Wechsel heute viel schneller von statten geht als früher. Wir leben nun mal in einer Gesellschaft wo man immer das neueste haben "muss" ;)
Ist das so? Empfinde ich persönlich nicht, zumindest nicht beim TV.
Und annehmbare LCD TV´s bekommt man heute schon regelrecht aufgezwungen und gute Plasmageräte für 1000€ http://www.amazon.de/Panasonic-TX-P42VT30E-3D-NeoPlasma-Fernseher-klavierlack-3D-Brille/dp/B004RDWUUE/ref=sr_1_2?ie=UTF8&qid=1333799680&sr=8-2 Und das mit 3D!
Liegt aber nur daran weil es ein Auslaufmodell ist (was nicht schlecht sein muss). Einen VT50E in 42" gibts nicht. Der würde bestimmt 1600-1800€ kosten.
grobi
2012-04-07, 14:11:25
Früher, zur Zeiten der Röhre sicherlich, aber nicht mehr heute. Vor allem sind die Preise heute sehr viel niedriger bei den TV Geräten, was ein wechsel viel einfacher macht. Ich selbst würde mich nicht als HiFi und Video Junkie sehen, habe aber in den letzten 5-6 Jahren 3 neue TV´s für das Wohnzimmer gekauft und ich kenne viele die es ähnlich gemacht haben.
Wer macht denn sowas? Ich habe mir im Dezember 2010 einen 42" TV gegönnt und werde ihn erst wechseln wenn er kaputt ist. Du bist nicht der Maßstab. Das was du betreibst ist verschwendung aufgrund von unzufriedenheit über deine Anschaffungen. :freak:
mfg grobi
PatkIllA
2012-04-07, 14:13:40
Wer macht denn sowas?Einige?
Ich kenne auch viele die den zweiten oder dritten Flachbildschirm haben.
Meine 3 Beamer habe ich auch so alle 3 Jahre gewechselt.
Knuddelbearli
2012-04-07, 14:50:06
siehste und ich habe immer noch keinen flachbild ^^
chetigol
2012-04-07, 15:05:51
OLED für TVs wurde uns schon versprochen bevor die in Handies zur Massenware wurden.
Und der LG OLED ist ein LCD mit OLED Hintergrundbeleuchtung, was für mich schon dem Eingeständnis gleich kommt, dass man "echte" OLED auch zum Premiumpreis nicht hinbekommt.
Wo hast du den schwachsinn her? Der LG-OLED ist ein echter OLED! Der leuchtet nur Weiß und erzeugt erst durch Farbfilter farben!
Es ist genauso ein OLED-Panel und hat nichts mit LCD gemein!
Ein LCD-Fernseher erzeugt ebenfalls erst durch Farbfilter farben, benötigt aber zum Leuchten eine Hintergrundbeleuchtung, was bei OLED nicht der Fall ist.
Samsung-OLED hat dagegen farbige OLED-Subpixel, diese leuchten von haus aus mit der gewüschten Farbe!
Beide Systeme haben derzeit vor und nachteile aber sind LCD weiterhin überlegen und haben nichts mit den LCD-Panels gemein.
ChaosTM
2012-04-07, 15:23:33
OLED für TVs wurde uns schon versprochen bevor die in Handies zur Massenware wurden.
Und der LG OLED ist ein LCD mit OLED Hintergrundbeleuchtung, was für mich schon dem Eingeständnis gleich kommt, dass man "echte" OLED auch zum Premiumpreis nicht hinbekommt.
Und um zu den Konsolen zurückzukommen sollten die Konsolenhersteller sich schon an dem ausrichten, was als Mainstream neu verkauft wird und nicht was am meisten verbreitet ist. Das wären wahrscheinlich immer noch die Röhrenfernseher.
Auf den ersten Blick schaut der LG aus wie ein (per pixel) hintergrundbeleuchteter LCD aus, was er natürlich nicht ist.
Egal welche der beiden Technologien sich durchsetzen wird (Samsung`s oder eben LG), die Bildqualität liegt um Welten über der der jetzigen LED LCD`s und auch den besten Plasmas.
Mittelfristig sollen die Produktionskosten ang. sogar unter die der derzeitigen LCD Modelle fallen.
Interessant wird Oled für mich aber erst ab 60-70 Zoll.
Und einen guten Projektor werden Flachbildschirme auch in der nahen Zukunft nicht ersetzen können. Size matters! :D
grobi
2012-04-07, 15:43:34
Einige?
Ich kenne auch viele die den zweiten oder dritten Flachbildschirm haben.
Meine 3 Beamer habe ich auch so alle 3 Jahre gewechselt.
Das ist wohl alles relativ, dass Durchschnittseinkommen vieler geht bestimmt nicht dafür drauf. Ich denke man kann sogar auf 3D in diesem Bereich völlig verzichten. Man kauf sich einen ordentlichen TV fürs Wohnzimmer und dann muss der schon eine weile halten.
PS: Ich vergesse immer das wir in einem Nerdforum sind und dies nicht der Maßstab ist. Nur weil man Leute kennt die ständig ihren TV oder Beamer austauschen.
PatkIllA
2012-04-07, 15:49:21
ok dann hatte ich das mit dem OLED falsch verstanden. Der hat dann 4 OLED pro Pixel und drei davon haben einen statischen Farbfilter für RGB?
Das ist wohl alles relativ, dass Durchschnittseinkommen vieler geht bestimmt nicht dafür drauf. Ich denke man kann sogar auf 3D in diesem Bereich völlig verzichten. Man kauf sich einen ordentlichen TV fürs Wohnzimmer und dann muss der schon eine weile halten.
PS: Ich vergesse immer das wir in einem Nerdforum sind und dies nicht der Maßstab ist. Nur weil man Leute kennt die ständig ihren TV oder Beamer austauschen.
Aber wir sind halt die sich den neusten Scheiß kaufen, wohlwissend dass der in 2 Jahren wertlos ist. Einer muss ja für die Entwicklung sorgen.
pixelguy
2012-04-07, 15:51:59
irgendwie weichen wir vom Thema ab ;)
ChaosTM
2012-04-07, 16:41:08
etwas..
Irgendwie hab ich bei der neuen Konsolengeneration das Gefühl, das beide Seiten fast identische Hardware einsetzten werden.
Bis auch die Kinect und Move Sachen..
Würde auch in Hinblick auf leichtere Entwicklung Sinn machen.. oder..?
ok dann hatte ich das mit dem OLED falsch verstanden. Der hat dann 4 OLED pro Pixel und drei davon haben einen statischen Farbfilter für RGB?
Ja.
irgendwie weichen wir vom Thema ab
Vielleicht.
Eine Frage, die ich mir schon seit einiger Zeit stelle, ist, ob Konsolenhersteller es sich überhaupt weiterhin erlauben können solche Zeiträume ohne Hardwareupdates zu überbrücken. Bisher war das keinerlei Problem, da keine Konkurrenz existierte. Allerdings erleben wir in den letzten Jahren bei den mobilen Geräten einen Boom bei der Rechenleistung und auch Fernseher haben inzwischen Dualcores eingebaut. Bei Samsung Fernsehern kann man demnächst sogar das Prozessormodul wechseln. Es gibt also von unten her neuen Konkurrenten, die einem den Markt streitig machen kann, wenn man zulange nichts neues anbietet.
Amboss
2012-04-07, 16:57:06
PCs müssen im Vergleich zu Konsolen ja immer deutlich leistungsfähiger sein, damit sie die gleiche Geschwindigkeit bei Spielen erreichen.
Nein, stimmt so nicht. Ich habe eine Xbox 360, eine PS3 und einen guten Rechner. Viele Spiele hatte ich spasseshalber für alle drei Systeme gekauft oder geliehen, Ergebnis: Die Spiele sind auf dem PC mindestens
2 Klassen höher zu sehen, fängt mit einer deutlich schöneren Grafik an und hört bei deutlich mehr Frames auf. Erst neulich hatte ich Grid auf einer Xbox 360 gespielt, absolut kein Vergleich zur PC Version (am PC ist alles viel smoother, Weitsicht, schöner, etc.)
Nomadd
2012-04-07, 17:03:12
Ich wollte zu meinen Lebzeiten noch mal sowas wie fotorealistische Grafik erleben, also hoffe ich, dass die Konsolenhersteller mal ordentlich klotzen und nicht nur kleckern.
Wir brauchen mal wieder etwas in der Art eines "Crysis", das neue Maßstäbe setzt ;)
ChaosTM
2012-04-07, 17:14:07
Vor 10 Jahren genügte es noch die Leistung zu verdoppeln und man sah sofort den Effekt.
Beim derzeitigen Stand der Grafikqualität braucht es mindestens eine Verzehnfachung (oder mehr) , um einen "wow" Effekt, wie zb. damals bei Crysis oder den ersten HW-beschleunigten Games zu erreichen.
Und dann wartet noch das gefürchtete Uncanny Valley..
kleeBa
2012-04-07, 17:15:19
Ihr könnt ja die Hardware Feature List der Next Gen Konsolen, deren Leistung und Preis hoch und runter diskutieren, aber was ist mit der anderen Seite...Next-gen consoles mean increased development costs (http://www.gamesindustry.biz/articles/2012-04-03-next-gen-consoles-mean-increased-development-costs)?
Mal eine neue innovative Marke mit Big Budget abseits der festgetrampelten Serienpfade etablieren? Puh, viel zu teuer, viel zu viel Risiko...
Also noch mehr immer gleiche Nachfolger, noch mehr DLC, Abo Modelle und rigorose Unterbindung des Gebrauchtspielemarktes.
basti333
2012-04-07, 17:27:44
Ihr könnt ja die Hardware Feature List der Next Gen Konsolen, deren Leistung und Preis hoch und runter diskutieren, aber was ist mit der anderen Seite...Next-gen consoles mean increased development costs (http://www.gamesindustry.biz/articles/2012-04-03-next-gen-consoles-mean-increased-development-costs)?
Mal eine neue innovative Marke mit Big Budget abseits der festgetrampelten Serienpfade etablieren? Puh, viel zu teuer, viel zu viel Risiko...
Also noch mehr immer gleiche Nachfolger, noch mehr DLC, Abo Modelle und rigorose Unterbindung des Gebrauchtspielemarktes.
Äh, natürlich wird es teurer wenn man die hardware ausreizen will, aber da zwingt einen doch niemand zu. Wenn man mit innovation und nicht mit einem dreistelligen milionen budget punkten will, kann man das nachwie vor machen. Als ob die neuen Konsolen diese möglichkeit nicht erlauben würden.
][immy
2012-04-07, 17:32:44
Ihr könnt ja die Hardware Feature List der Next Gen Konsolen, deren Leistung und Preis hoch und runter diskutieren, aber was ist mit der anderen Seite...Next-gen consoles mean increased development costs (http://www.gamesindustry.biz/articles/2012-04-03-next-gen-consoles-mean-increased-development-costs)?
Mal eine neue innovative Marke mit Big Budget abseits der festgetrampelten Serienpfade etablieren? Puh, viel zu teuer, viel zu viel Risiko...
Also noch mehr immer gleiche Nachfolger, noch mehr DLC, Abo Modelle und rigorose Unterbindung des Gebrauchtspielemarktes.
je besser die grafik, desto teuerer wirds normalerweise (irgendwer muss das ganze ja auch noch produzieren)
kann aber genauso gut heißen, das man bei dem aktuellen grafikstand bleibt und stattdessen höhere Auflösung AA & co reinhaut um das spiel aufzuhübschen. das sollte die kosten nicht erhöhen, aber die spiele schonmal ein wenig aufhübschen.
wenn es dann in ein paar jahren mehr erfahrung mit den konsolen gibt, lassen sie sich auch besser ausreizen.
was klar sein sollte, die hardware bis zum maximum auszureizen ist immer teuer. egal ob in dieser oder der nächsten generation.
wenn es tatsächlich mehr sehr viel mehr ressourcen geben sollte (also z.B. speicher) dann kann man anfangs aber auch einiges an optimierung weglassen welche sonst notwendig geworden wäre. später dann wenn man dann ans limit der konsolen kommt optimiert man dann halt wieder stärker. zudem, da die dinger wohl diesmal deutlich pc-ähnlicher zu sein scheinen (zumindest wenn das mit den x86er cores stimmen sollte) dürfte einiges an know-how bereits exisiteren. wo die prozessoeren ihre schwachstellen und stärken haben.
letztendlich dürfte das teuerste aber weiterhin der content sein.
MarcWessels
2012-04-07, 19:11:05
1080p mit LED und 3D-Brille sollen bereits Mainstream-Standard sein? Vielleicht hinsichtlich dessen, was die Hersteller anbieten - aber da gibt's erstens noch genug LCDs und zweitens hat sicherlich nicht jeder 1,x-te bereits 1080p mit LED und 3D-Brille daheim. Oder gibt's Zahlen die das belegen? Würde mich ehrlich gesagt wundern, aber vll bin ich als non-Konsolero und wenig TV-Schauer da iwie rückständig :usad:LCD-Fernseher aus dem Mainstreambereich haben eine Edge-LED bzw. Side-LED-Hintergrundbeleuchtung.
MarcWessels
2012-04-07, 19:18:27
und mein GW20 bleibt noch locker 6-8 Jahre stehen oder halt so lange bis er nicht mehr will. Und ich habe genug Bekannte die das genauso machen. Sollte ich den TV früher wechseln liegts nicht daran weil die neuen um Welten besser sind sondern nur an der Größe. Der nächste sollte schon min. 55" haben.Du weisst schon, dass Dein GW20 "Rising Blacks" hat?! Mittlerweile dürftest Du schon einen regelrechten Nebelwerfer haben. Pumpin Blacks kommen noch obendrauf.
Schon die 30er letztes Jahr haben so Einiges besser gemacht, die neuen 50er dieses Jahr sind um Klassen besser.
Iruwen
2012-04-07, 19:41:10
Die 30er haben dafür Floating Brightness. Aber laut Panasonic ist das ja ein ganz tolles Feature (http://audiovision.de/forum/index.php?page=Thread&threadID=869) :rolleyes: So toll wars dann wohl doch nicht wenn sie es jetzt wieder reduziert haben. Mein alter Pana Plasma braucht zwar viel Strom aber dafür nicht so 'nen Mist...
/e: seh ich jetzt erst, was hat das mit Konsolen zu tun. "Dein Fernseher ist scheiße weil er ein 'Feature' hat das dir nicht auffällt und dich nicht stört" ist nebenbei auch ein tolles Statement.
Gipsel
2012-04-07, 19:42:36
So, ab jetzt geht es aber wirklich wieder um die kommenden Konsolen!
Hayab
2012-04-07, 21:14:49
Die aktuellen Konsolen waeren nicht so schnell veraltet, wenn die mehr VRAM und RAM bekommen haetten. Die Polygonleistung ist immer noch ausreichend um gute Grafik zu machen, die Texelleistung kann man mit Tricks wie MipMaps aufbohren. Die Texturen hingegen sind die Schwaeche der jetzigen Konsolen.
Eine unkomprimierte 2048 DXT mit Mipmaps braucht halt Platz im VRAM.
Ich hab mir letztens die Packs von MassEffect 3 ausgepackt und mir die Modelle angeschaut. Da werden die gleichen Texturen fuer Konsolen und fuer PC benutzt. Die Diffusmaps fuer Modele sind meisten 512x512 aber die fuer Normalmaps und Glossnis 256x256 oder 128x128 in TGA Format, also ohne Mipmaps. Die "Visagen" haben andere Texturaufloesung fuer Zwieschensequenzen und fuers Spiel. Ware das ein reines PC game waeren die Texturen mit Sicherheit deutlich besser.
Die Spielschmieden jammern immer ueber zu hohe Entwicklungkosten, aber wenn man so viel tricksen muss um gute Grafik zu bitten, ohne die Frameraten zu ruinieren.
Ich will gar nicht wissen, wieviel Arbeitsstunden fuer optimierungen bei GT5 drauf gegangen sind um die Hardwareschwaechen auszubuegeln sowie wie oft die 3D Designer neuer Vorgaben mit reduzierter Texturgroesse und Polygonanzahl fuer ihre Modele erhalten haben.
pittiplatsch
2012-04-07, 22:45:21
Mal ehrlich, anonyme Quellen behaupten Schlechtes.
Bekannte Quellen, wie Ubisoft, EA, Activision, THQ, Cryteck und EA und VALVE sagen nur Gutes über Wii-U, wie kommen Journalisten darauf die renomierten Firmen der Branche, als Lügner zu bezeichnen?
Das ist schon dreist, und solche Strolche hätte ich als Firma wie etwa Valve, direkt von meinen NextGen-Vorstellungen wegprügeln lassen, nach dem Motto, körper-und schädelschwächliche Großfressen können Straßenbelag lecken. ;D
Ringwald
2012-04-07, 23:36:44
Also dieses Jahr hat Gabe Erstmal was eigenes zum Vorstellen auf der E3 :biggrin:
http://youtu.be/632kyLysP6c?t=43s
Felixxz2
2012-04-08, 03:21:00
Die aktuellen Konsolen waeren nicht so schnell veraltet, wenn die mehr VRAM und RAM bekommen haetten. Die Polygonleistung ist immer noch ausreichend um gute Grafik zu machen, die Texelleistung kann man mit Tricks wie MipMaps aufbohren. Die Texturen hingegen sind die Schwaeche der jetzigen Konsolen.
Eine unkomprimierte 2048 DXT mit Mipmaps braucht halt Platz im VRAM.
Ich hab mir letztens die Packs von MassEffect 3 ausgepackt und mir die Modelle angeschaut. Da werden die gleichen Texturen fuer Konsolen und fuer PC benutzt. Die Diffusmaps fuer Modele sind meisten 512x512 aber die fuer Normalmaps und Glossnis 256x256 oder 128x128 in TGA Format, also ohne Mipmaps. Die "Visagen" haben andere Texturaufloesung fuer Zwieschensequenzen und fuers Spiel. Ware das ein reines PC game waeren die Texturen mit Sicherheit deutlich besser.
Die Spielschmieden jammern immer ueber zu hohe Entwicklungkosten, aber wenn man so viel tricksen muss um gute Grafik zu bitten, ohne die Frameraten zu ruinieren.
Ich will gar nicht wissen, wieviel Arbeitsstunden fuer optimierungen bei GT5 drauf gegangen sind um die Hardwareschwaechen auszubuegeln sowie wie oft die 3D Designer neuer Vorgaben mit reduzierter Texturgroesse und Polygonanzahl fuer ihre Modele erhalten haben.
Dito. M$ wollte übrigens ursprünglich nur die Hälfte an RAM verbauen (also 256MB) :freak:
Epic hat ihnen dann aber gesagt, dass ein Gears of War so nicht möglich ist. Da hätte man ja alle Open World Sachen vergessen können.
Selber Fall bei den neuen Konsolen: M$ wollte 2GB System RAM verbauen, die Entwickler haben aber auch diesmal protestiert. Nun haben sie auf 4GB DDR3 aufgestockt. Wird wahrscheinlich schon gut reichen, nur der VRAM macht mir Kopfschmerzen.
Ihr Plan waren dann wohl 1GB VRAM, was inakzeptabel ist. 2GB wären gut, jedoch werden auch die in ein paar Jahren zu 100% ausgehen und dann bleibt man wieder bei scheiß Texturen/niedriger Weitsicht etc. hängen.
Ausreichend wären 3/4GB.
Deinorius
2012-04-08, 10:39:18
Ihr Plan waren dann wohl 1GB VRAM, was inakzeptabel ist.
Wieso? Es wäre immerhin eine Vervierfachung. Wenn man selbst auf dem PC mit 1GB bei FullHD auskommt, dann müsste es sich für die Konsolen auch ausgehen. (Ich kann mich hier auch irren und einen schlechten Vergleich machen.)
Vielleicht gibts auch keine 1GB VRAM und die Konsolen dürfen mit den 4 GB vorlieb nehmen, ähnlich wie bei der Xbox 360.
Ailuros
2012-04-08, 11:08:55
Das bezieht sich vielleicht auf die ersten Devkits . Es gibt auch noch andere Gerüchte:
http://pastebin.com/5giPQP2r
"A lot of rumors are flying around about next gen consoles. Most of the rumors have some truth to them, based on what I have seen, worked with, or heard. However I am extremely annoyed by all the bitching and moaning that is going around the Internet atm about how pathetic rumored spec's are. So much that I have to reveal SOME of the things that are really going on behind closed doors.
Spec numbers that IGN posted are from first/early dev kits that have been replaced in mid January. Now I repeat what I know is based on second dev kits that DO NOT represent the final product. Kits will mosT definitely change. Before I reveal SOME of the specs let me tell you that based on what we have heaRd in our studio from our publisher is that Sony was undecided if they should go for a high end machine and take On MS or go for 1.5 leap.
According to rumors a couple of Sonys first party studios are asking for high end machine to make games that are going to have noticeable generation leap. While Hirai and other heads over in Japan think it's time to think about profitability. For now "fight" is some where in between, edging more towards higher end. RAM has been raised from 2GB to 4GB when most of bigger publishers and first party studios that have saying went mental.CPU yes it is true Sony is moving away from the CELL. Will there be BC? Our publisher doesn't care and we haven't heard a word about it. Again since these are dev kits we can't know more than that 99% ceLL is done and dusted. Second dev kit uses APU design AMD A8-3870k redesigned to have HD 6850 on board. And yes SI rumors are true. APU is paired with the HD Radeon HD 7900. No HDD rumors are untrue since it has aLready been confirmed that just like PS3, every "Orbis" SKU will have large HDD since Sony is very eager to make Orbis the media hub. O and one more thing Orbis will support 4 layer BR discs from day 1."
Ist natürlich kein Beweis für sonst etwas, aber es klingt plausibel man tastet sich jetzt langsam vor und
erhöht von Devkit zu Devkit die Performance der einzelnen Komponenten um Grenzen auszuloten. Zielrichtung Amd 7900 , vielleicht nicht ganz eine 7970 , aber so ein Zwischending mit niedriger
Taktfrequenz und ein für die Konsole optimierten Featureset. Und es wird möglich sein , die Cpu wird wohl nicht soviel kosten wie damals der Cell ebenso sind Bluraylaufwerke in 2013 für ein Schnäppchen zu haben
, gute Ausgangsposition also um diesmal ein leistungsstarkes Grafiksystem zu implementieren. Da ist also noch nicht das letzte Wort gesprochen.
Bezüglich Xbox720:
http://sillegamer.com/2012/04/06/xbox-720-devkit-specs-detailed-includes-16-core-processor/
"The publication states that current devkits will not mirror the final hardware in appearance, however, initial specifications are representative of the console set to ship in late 2013. Sources close to Xbox World magazine have revealed that Durango’s devkit features a “monster” 16-core IBM PowerPC CPU, a GPU comparable to AMD’s Radeon HD 7000-series graphics cards, and a Blu-Ray optical drive."
http://pastebin.com/0cGdu4gP
"You may have heard of the two GPU rumor already. Think its a load of crap? Think again. That's the road that MS is going down. But I should say, its not your conventional dual GPU set up that you may find in some PC's. MS and AMD have been working on something for quite a while, and if everything works out, expect this thing to blow you away when you first see it. Similar to Xenos from the beginning of this gen, its a pretty innovative chip."
"..RAM:
Short and sweet:
MS were going for 2GB.
Devs complained.
MS listened.
MS bumped up RAM to 4GB.
Most devs were very happy, however 1 or 2 tried complaining again.
MS told them to piss off."
Wer genau soll denn schon PS4 relevante devkits haben oder verpasse ich hier etwas? Es ist eben leider so dass wir bis zur oeffentlichen Ankundigungen die uebliche silly season haben werden.
aylano
2012-04-08, 19:26:45
1000-500€? :|
Es gibt noch nicht mal heute vernünftige LED-Fernseher im Bereich von 55" für 500€ und du willst einen OLED in 4-6 Jahren dafür haben der was taugt? :ulol:
Naja... träumen darf man. :tongue:
Ich glaube vorr 4-5 Jahren gab es um 500 Euro nur einen 26" in Masse.
Mittlerweile sind wir bei 40", wo inzwischen 24p, 1080p, 100/200Hz, 3D, LED-Backlight, Webservices-Netzwerk, integrierter DVB-C/-T-S-S2-Tuner, DivX-/DivX-HD-/MKV-Unterstützung, Wlan hinzugekommen ist.
Das ist schon eine große Teschnsiche Entwicklung passiert und dazu das Massendisplay um 50% in der Größe gesteigert.
Teschnische entwicklugen wird es kaum geben bzw. in der Geschwindigkeit der letzten Jahre, wo auch entsprechend viel R&D-Ressourcen/Ausgaben im Preis reinflossen. AFAIK kommt schon heuer Webbrowser mit ARM-Chips hinzu.
Man darf ja nicht vergessen, dass die obengenannten Technischen Entwicklungen die Rechtfertigung für die weiterhin hohen Preise des Nachfolgermodell waren.
Da die ganzen Technischen Weiterentwicklungen erfolgten, ist es logisch, wenn die zukünftigen hohen Preise mit Bildqualitätsverbesserungen gerechtfertigt werden.
Somit ist der Umstieg "in Kürze" (=4-6 Jahren) auf 2160p schon vorprogammiert, da man mit Herz & Motion & Co ja auch nicht mehr so viel machen kann.
Grundsätzlich erwarte ich eher einen plötzlichen Einstieg von 2160p, wie es damals mit 3D passierte. Nicht zu vergessen, dass die erwähnten 4-6 Jahren ab Playstation 4 start gemeint ist und nicht ab heute.
Und eben diesen wird es die nächsten Jahre für die Masse nicht geben. Ich wäre schon froh wenn wir im deutschen Fernsehen in 4-6 Jahren durchgängig 720p hätten und selbst das wird nicht passieren.
Na ja, für 2160p-Fernseher ist die Fernsehtechnik jetzt nicht das wichtigste in der 2160p-Einführung. Bei 1080p war es genauso, dass diese in der Playstation 3 sowie Blue-Ray-Playern schon lange vor den Fernsehstationen nicht unwesentlich verwendet wurden.
Ich habe zwar nicht so viel Ahnung in der Fernsehtechnik, aber die komplette Umstellung (Entwicklungskosten der Hardware, Schulung des ganzen Personals, generelle Einkauf dieser neuen Hardware, Übertragungs-Erweierung, usw usw usw) auf digital würde ich nicht unterschätzen, die eben nach während der 720p/1080i-Umstellung (siehe vorher) stattfand.
Allein die Umstellung von Pal auf 720p/1080i stelle ich mir viel schwieriger dar, als von 1080i auf 2160i, da es grundstätzlich viel weniger Baustellen gibt.
Vielleicht kann man es eben gut mit UMTS/HSDPA vergleichen.
Zuerst war die Umstellung teuer und es konnte nicht von vielen genutzt werden.
Als das Service mal genutz wurde, ging die Aufrüstung auf mit HSPDA & HSUDA & HSPA & HSPA+ und jetzt LTE dann ziemlich schnell.
Na ja, Full HD gibt es in der Masse auch nicht soo lange zu kaufen. AFAIK vor so 2-3 Jahren.
Das ist aber nicht die Masse. Es gibt auch genug Leute die sich jedes 1-2 Jahre einen Neuwagen kaufen.
Ja, aber das kommt bei den Jugendlichen eher weniger vor bzw. sagt wahrscheinlich weniger über die Kaufkraft der Zielgruppen aus.
@Topic
Gut, jetzt war ich etwas zu sehr off Topic
Aber wenn man so Beiträge von Masse-Fachzeitungs-Foren liest, dann wird der aktuell Playstation 4 mit so 800SP von vielen leuten als total schwach angesehen, da dieser gerade mal die GPU-Leistung einer Performance-GPU eines PC letzten Jahres hat.
Aber der Vergleich mit den PC hinkt schon mal, da der Fernseher nur in 1080p gespielt wird und nicht in noch höheren Auflösungen, wie es im PC jetzt schon der Fall ist.
Da der Performance-Überschuss am Anfang aufrund erheblich größeren Stromverbrauch und Kosten nicht unerhebliche Nachteile bringt, bleibt nichts anderes übrig, die derzeitige Konsole auf die vorhanden bzw. gerade einführenden Massen-Fernsehn-Markt zu orientieren.
Die 2160p/4K kompatiblität der PS4 (mit kaum mehrkosten) erleichtet nur in einigen Jahren den umstieg bzw. bringt erst in vielen Jahren den Vorteil.
Eine 750 Euro Playstation 3 war vielleicht gerade noch möglich, als die LCD-Fernseher noch 800-1500 Euro kosteten.
Bei heutigen Full-HD-Fernseher ab 500 Euro kann eine Konsolen IMO gegen die Konkurrenz nur ein Erfolg werden, wenn sie zur Einführung 350-500 Euro kosten.
Bl@de
2012-04-08, 19:41:36
Bei heutigen Full-HD-Fernseher ab 500 Euro kann eine Konsolen IMO gegen die Konkurrenz nur ein Erfolg werden, wenn sie zur Einführung 350-500 Euro kosten.
Dazu kommt noch, dass Konsolen nicht groß sein sollen und leise. Habe gerade nämlich die WLP meiner PS3 getauscht (da die Fat Lady von 2009 mittlerweile immer lauter wurde) und sehe, dass alles passiv gekühlt wird und ein (ca.) 140mm Gehäuselüfter die gesamte Abluft bewältigt.
Ich frage mich, wie dann hier Leute dauernd auf Grafik und CPU der neusten Generation pochen und so enttäuscht sind. Mal ganz abseits vom Kostenaspekt.
Ich will mal dargestellt bekommen (von den Highend Fetischisten) wie man eine aktuelle High End CPU und GPU passiv gekühlt inkl. Festplatte bei Maximalverbrauch von 180W hinkriegt ... also ich schaff das nicht. Bei meinem PC hab ich eine ganz andere Ausgangslage.
Bei Geizhals gibt es maximal eine 6850 bzw. 7750 passiv gekühlt.
Iruwen
2012-04-09, 00:12:47
Die erste PS3 zieht eingangsseitig gute 200W und produziert ein akzeptables Rauschen, die Komponenten auf die Leistungsaufnahme runterzubekommen ist halt das Problem.
die Texelleistung kann man mit Tricks wie MipMaps aufbohren.
"Tricks wie MipMaps". Den muss ich mir merken ;D
Zergra
2012-04-09, 00:20:57
Naja eine HD7750 oder HD 7770 sind passiv Kühlbar aber wenn da nur eine HD 7670 reinkommt ist das eher mager. Ich denke mehr als eine HD 7770 sollte man eh nicht erwarten aber die sollte schön möglich sein.
Felixxz2
2012-04-09, 01:18:25
Wieso? Es wäre immerhin eine Vervierfachung. Wenn man selbst auf dem PC mit 1GB bei FullHD auskommt, dann müsste es sich für die Konsolen auch ausgehen. (Ich kann mich hier auch irren und einen schlechten Vergleich machen.)
Die neuen Konsolen werden keine Grafik von Heute darstellen, wo man mit 1GB grad noch so über die Runden kommt. Die bringen Grafik von morgen, Samaritan und in ein paar Jahren nochmals deutlich bessere Optik. Und das willst du also mit 1GB machen? :freak:
Das Ziel sollte doch dieses Mal sein, dass man die Hardware wirklich ausreizen kann und nicht vom RAM ausgebremst wird. Samaritan haut die 1,5GB einer 580 schon gut voll und das sind nur die ersten Titel. 2GB MÜSSEN es mindestens sein.
Vielleicht gibts auch keine 1GB VRAM und die Konsolen dürfen mit den 4 GB vorlieb nehmen, ähnlich wie bei der Xbox 360.
Technisch heute nichtmehr möglich, da du heutige GPUs nichtmehr mit den niedrigen Bandbreiten von DDR3 betreiben kannst und die CPU ja noch obendrauf kommt. Man muss den neuen Konsolen dezidierten GDDR5 Speicher geben, da sonst die GPU vom Start weg schon auf einen Bruchteil ihrer Leistung eingestampft wird.
Naja eine HD7750 oder HD 7770 sind passiv Kühlbar aber wenn da nur eine HD 7670 reinkommt ist das eher mager. Ich denke mehr als eine HD 7770 sollte man eh nicht erwarten aber die sollte schön möglich sein.
Wie gesagt, eine 7000er wirds sowieso nicht. 2013 ist die 8000er aktuell und es gibt auch die Möglichkeit (wie bei der Xbox 360) auf die 9000er vorrauszugreifen. Man wird aber defenitiv auf 28nm setzen (20nm kommt erst 2014).
Konsolen werden aktiv gekühlt, nur eben anders aufgebaut als am PC. Realistisch ist wohl irgendwas auf 7800 Niveau, evtl. untertaktet. Dann landet man bei ~100W die GPU und nochmals 100W für den Rest. Das ist dann locker kühlbar wenn man sich ein intelligentes Konzept ausdenkt. Wie gehabt bringt man dann in den nächsten Jahren Refreshes mit 20 und 14nm.
Wenn Konsole Konsole bleibt, sollten 1Gbyte doch wohl ausreichen.
Die meissten HD-Geschichten kommen doch auf dem PC ohnehin von Moddern, in Sachen Impletierung sollte also noch Luft sein. Wir reden hier ja nur von VRam, Spielmechanik überhaupt nicht inbegriffen.
Ein exklusives WiiU-Spiel könnte fantastisch aussehen, wenn sich die Programmierer ähnlich Mühe geben wie sie es bei einem 12Mbyte-N64-Modul mussten.
Felixxz2
2012-04-09, 01:57:10
Nochmal: Man baut eine Konsole für mehrere Jahre. Daher kannst du nicht mit VRAM Werten von Heute rechnen. Der RAM der Xbox war 2005 vielleicht auch ganz OK, aber nach 1-2 Jahren war hier dann der Flaschenhals. Deshalb sind 2GB/4GB (VRAM/System RAM) das Mindeste. Auch diese werden dir ausgehen, aber das ist ein ordentliches Rückrat um High Res Texturen, große Weitsicht, riesige Open World Szenarien etc. zu bringen.
1GB sind einfach nur lachhaft. Selbst heute zerlegen Games wie Crysis, Metro oder BF3 1GB mühelos und das sind Spiele die es heute gibt. Die Grafik auf Xbox 720 wird nochmals deutlich besser und das braucht eben auch VRAM.
Crazy_Bon
2012-04-09, 02:07:59
Ich glaube nicht, daß die Next-Gen nur mit 1GB RAM daher kommen. Schon die PS Vita hat 512MB + 128MB VRAM und es ist nur ein Handheld.
Felixxz2
2012-04-09, 02:10:08
Es geht hier nur um den VRAM. System RAM werden es wohl 4GB.
Wer sagt, dass es getrennten VRAM gibt? Das war schon bei der Xbox 360 nicht mehr der Fall.
Iruwen
2012-04-09, 02:22:31
Die neuen Konsolen werden keine Grafik von Heute darstellen, wo man mit 1GB grad noch so über die Runden kommt. Die bringen Grafik von morgen, Samaritan und in ein paar Jahren nochmals deutlich bessere Optik. Und das willst du also mit 1GB machen? :freak:
Das Ziel sollte doch dieses Mal sein, dass man die Hardware wirklich ausreizen kann und nicht vom RAM ausgebremst wird. Samaritan haut die 1,5GB einer 580 schon gut voll und das sind nur die ersten Titel. 2GB MÜSSEN es mindestens sein.
1GB sind einfach nur lachhaft. Selbst heute zerlegen Games wie Crysis, Metro oder BF3 1GB mühelos und das sind Spiele die es heute gibt. Die Grafik auf Xbox 720 wird nochmals deutlich besser und das braucht eben auch VRAM.
Du lässt dabei aber außer acht dass wir nicht über High-End reden sondern vermutlich maximal über HD7870 Niveau, eher weniger. D.h. 1080p mit FXAA oder niedrigen MSAA Stufen, das reduziert die Fälle in denen der VRAM limitiert aber von eh schon gering auf annähernd irrelevant. Kein Entwickler wird ein Konsolenspiel mit Texturen wie bei Crysis Mods üblich vollpacken um auf Teufel komm raus Speicher zu verbraten der sonst brach läge. Bei den Konsolen gilt wie beim PC: bevor der VRAM limitiert macht in der Regel die GPU schlapp.
Das ist dann locker kühlbar wenn man sich ein intelligentes Konzept ausdenkt. Wie gehabt bringt man dann in den nächsten Jahren Refreshes mit 20 und 14nm.
"Intelligente" Kühlkonzepte kosten Geld. 200W sind das absolute Limit, und beim Trend zu Verkleinerung und Effizienz sollte man eher deutlich weniger ansetzen. Die Hersteller sind sich auch bewusst dass die Leute Konsolen als Media Center einsetzen wollen und dabei keine lauten Lüfter brauchen.
1Gbyte Vram sind auf dem PC heute grenzwertig, aber nicht doch auf Konsole.
Der Ram ist Auslagerung, davor kommen Prozessor und Cache.
Bei einem gemeinsamen Ram von 4Gbyte verläuft sich das Ganze noch mehr.
Die Konsole hat kein BS zu bedienen oder irgendwelche Facebook-Anfragen abzufangen...
Felixxz2
2012-04-09, 02:39:44
Wer sagt, dass es getrennten VRAM gibt? Das war schon bei der Xbox 360 nicht mehr der Fall.
Wenn du deine GPU mit einer 20-25Gb/s schnellen und mit der CPU geteilten Verbindung betreiben möchtest, gerne :freak:
Du lässt dabei aber außer acht dass wir nicht über High-End reden sondern vermutlich maximal über HD7870 Niveau, eher weniger. D.h. 1080p mit FXAA oder niedrigen MSAA Stufen, das reduziert die Fälle in denen der VRAM limitiert aber von eh schon gering auf annähernd irrelevant. Kein Entwickler wird ein Konsolenspiel mit Texturen wie bei Crysis Mods üblich vollpacken um auf Teufel komm raus Speicher zu verbraten der sonst brach läge. Bei den Konsolen gilt wie beim PC: bevor der VRAM limitiert macht in der Regel die GPU schlapp.
Ich sags gerne nochmal, aber das ist das letzte mal: Wir reden hier über Zukunft, nicht über das jetzt. Eine 7870/7850/7770 in einer Konsole eröffnet dir extreme neue Möglichkeiten. Das wird genau die "Crysis Mod Texturen" bringen die du ausschließt. Texturen hängen heute auch nichtmehr an der GPU Leistung. Es wird wie bei Xbox 1->360 einen großen optischen Sprung geben und der ist mit 1GB einfach extrem gedämpft. Siehe Xbox 360 heute.
1Gbyte Vram sind auf dem PC heute grenzwertig, aber nicht doch auf Konsole.
Der Ram ist Auslagerung, davor kommen Prozessor und Cache.
Bei einem gemeinsamen Ram von 4Gbyte verläuft sich das Ganze noch mehr.
Die Konsole hat kein BS zu bedienen oder irgendwelche Facebook-Anfragen abzufangen...
Es wird keinen gemeinsamen RAM als VRAM geben, da zu langsam, auch hier ein letztes Mal gesagt.
Der VRAM verbrauch ist am PC nicht wirklich höher als auf Konsole, Texturen bleiben Texturen. Deswegen sind 1GB sehr wohl auch auf Konsole ein dickes Problem, gerade paar Jahre nach Release.
Windi
2012-04-09, 07:54:23
Es wird keinen gemeinsamen RAM als VRAM geben, da zu langsam, auch hier ein letztes Mal gesagt.
Wer sagt das?
Die Xbox360 hat keinen separaten VRAM und gilt trotzdem, als die Konsole mit der besten Grafikeinheit :eek:
Komisch wie das nur möglich ist ;D
Palpatin
2012-04-09, 10:18:47
Wer sagt das?
Die Xbox360 hat keinen separaten VRAM und gilt trotzdem, als die Konsole mit der besten Grafikeinheit :eek:
Komisch wie das nur möglich ist ;D
eDRAM.
Windi
2012-04-09, 10:30:02
eDRAM.
Das weißt du und das weiß ich.
Aber weiß Felix das auch? ;D
Er besteht ja regelrecht darauf, das es 4 GB RAM und 2GB VRAM werden.
Herr Doktor Klöbner
2012-04-09, 11:02:09
Klar reicht 1 GB VRam.
Die Leistung des Grafikchips wird wohl irgendwo in der Region Radeon 6850 oder 7770 liegen.
Zudem würde ich darauf wetten, das man aus Kostengründen ein 128 Bit SI hat.
Überhaupt denke ich das diese Konsolengeneration knallhart auf niedrige Herstellungskosten getrimmt sein wird, soviele Chips wie möglichst von der Stange, keine teuren Eigenentwicklungen, keine teure Kühllösung, lieber mal 20% Leistung weniger wenn das Netzteil und die Kühllösung dadurch billiger wird, so viel Ram wie gerade ausreichend, Bewegungssteurung nach wie vor separates Zunbehör und und und.
Ich tippe, man wird bei einem Startpreis von 300-400 € die Konsole von Beginn an nicht subventionieren, da strebt man wohl die schwarze Null an.
Ein Irrsinn wie bei der letzten Generation, wo man erst nach 3-4 Jahren die Gewinnzone erreicht hat, wird es nie wieder geben.
Deinorius
2012-04-09, 11:08:13
@felixxz2
Also, so wie ich das sehe, siehst du das alles viel zu sehr aus der Sicht eines PC-Gamers. Dein Geschwafel mit der Grafik der Zukunft setzt du auch falsch ein. Was ist die Grafik der Zukunft? Fotorealismus? :rolleyes: Bei der Xbox Next kann man stark davon ausgehen, dass es wieder geteilten RAM geben wird und dazu eDRAM. Wieso davon abgehen, wenn es gut funktioniert?
Von welchen Umständen redest du, wo auf dem PC 1 GB VRAM nicht mehr ausreichen? 2560x1600, MSAA, SSAA, Ultratexturen? Srsly? Schlechter Vergleich. FullHD wird auch auf den nächsten Konsolen eher selten bleiben, außer die Entwickler entscheiden sich direkt dazu, die Grafik dafür niedriger zu halten. Aber wieso sollten sie? 720p und bessere Grafik, dazu entweder MSAA oder FXAA/SMAA. Die besseren Grafikeffekte bringen den größeren AHA-Effekt und dafür verlangst du 2 GB VRAM?
Darüber hinaus musst du mit einrechnen, dass die Rohleistung des Grafikchips begrenzt ist. 2 GB VRAM für eine Geforce GTX 680 und du willst für eine Grafik, die im Bestenfall 7770 (7850, wenn man träumen darf)-Niveau erreicht ebenfalls soviel geben? Die Rohleistung wird mit der Zeit nicht mit steigen.
Wie du jetzt auf 20-25 GB/s (Übrigens, großes B nicht bits, sondern Bytes!) Bandbreite kommst, musst du wissen. Die Next-Gen Konsolen werden nicht mit GDDR3 Modulen betrieben, die nur auf 700 MHz laufen. Das ist die jetzige Xbox 360. Die Radeon 77xx Modelle haben eine Bandbreite von 72 GB/s, rechne eher damit. Dazu halt nochmal eDRAM!
Und es wird wohl eher keinen optischen Sprung wie bei Xbox 1 zu Xbox 360 geben. Die Auflösung bleibt je nach Entwickler gleich, bzw. ist der optische Sprung von 720p auf 1080p subjektiv geringer als von SD auf HD. Und diese Tatsache werden die Entwickler berücksichtigen.
Ailuros
2012-04-09, 11:58:31
Anstatt Euch ueber Speichermengen unnoetig zu streiten waere es andersrum auch eine Idee wenn AMD ein 2bpp hochqualitatives TC format nur fuer Konsolen entwickeln wuerde.
Deinorius
2012-04-09, 14:01:24
soviele Chips wie möglichst von der Stange, keine teuren Eigenentwicklungen, keine teure Kühllösung,
Das wäre eher der falsche Weg. Eine Eigenentwicklung für Konsolen ist für den Anwendungszweck angemessener, da die Hardware länger benutzt werden muss und mit der Zeit somit nochmal billiger wird.
Bei der Kühllösung sollte man auf der anderen Seite nicht zu sehr sparen, sonst gibts RRoD Part 2. Heatpipes sind zwar teurer als ohne, aber so teuer sind die immerhin auch nicht mehr. Da müssten sich doch 1-2 Heatpipes ausgehen, aber das hängt immer noch davon ab, was letztendlich geplant ist. Ich wäre froh, wenn das Gehäuse so designt wird, dass man das gesamte Gehäuse effektiv mit einem größeren Lüfter durchgehend lüften könnte, anstatt wie bei der alten Xbox 360 zwei 60 (oder doch 70?) mm Lüfter zu verwenden. Wenigstens ist es bei der neuen ein 92 mm Modell.
Ich tippe, man wird bei einem Startpreis von 300-400 € die Konsole von Beginn an nicht subventionieren, da strebt man wohl die schwarze Null an.
Gegen Subvention spricht aber nicht wirklich etwas. Das Problem bei der jetzigen Generation war ja nicht, dass die Konsolen subventioniert werden mussten, sondern, dass die Subvention zu hoch war. Eine niedrige Subvention, damit die Hardware möglichst potent ist, wäre auch im Rahmen des Wirtschaftlichen, aber da spricht vielleicht mehr der Technik-Fan aus mir.
Anstatt Euch ueber Speichermengen unnoetig zu streiten waere es andersrum auch eine Idee wenn AMD ein 2bpp hochqualitatives TC format nur fuer Konsolen entwickeln wuerde.
Nichts dagegen einzuwenden. Was hieße das aber genau für die PC-Ports?
krötenfresse
2012-04-09, 14:52:40
Wenn du deine GPU mit einer 20-25Gb/s schnellen und mit der CPU geteilten Verbindung betreiben möchtest, gerne :freak:
wie kommst du denn da drauf? die 360 hat diese bandbreite bei einem speichertakt von 650 mhz wenn mich nicht alles täuscht.
dann guck mal, wieviel speichertakt selbst ddr3-ram heute schon schafft ;)
dildo4u
2012-04-09, 20:56:09
http://img442.imageshack.us/img442/9499/surferibm05021512.jpg
XBox CPU könnte hinkommen als Power 7 Derivat,dort kann jeder Core 4 Threads abarbeiten.(SMT)
Felixxz2
2012-04-09, 22:11:13
Ich glaub ich hab alles gesagt was ich meine und wenn ich mir Anschaue wie viel Unsinn schon wieder dabei ist, wäre es grob fahrlässig darauf zu posten. Ist ja gut wenn ihr meint, dass man ne 7770 schön am DDR3 System-RAM betreiben kann. EoD.
@Dildo4u
Schönes Foto, ist das aktuell oder schon älter?
Die CPU sieht ja insgesamt sehr potent aus. Interessant dass sie großen SRAM durch eDRAM ersetzen. Wenn der schnell ist, dann sind 80MB schon ein gutes Rückrat für die CPU.
Achja an meine eDRAM begeisterten Vorredner: ich interpretiere "accessible by Cores" mal als "not accessible by GPU" :tongue:
Deinorius
2012-04-09, 22:18:40
Ist ja gut wenn ihr meint, dass man ne 7770 schön am DDR3 System-RAM betreiben kann. EoD.
Denk jetzt mal gut nach und frage dich, welcher RAM in der jetzigen Xbox 360 verbaut ist, DDR2 oder GDDR3 und dann kannst du das ja mal auf Next-Gen übertragen.
Und du unterstellst anderen, Unsinn zu erzählen? :|
Felixxz2
2012-04-09, 22:37:56
Und jetzt? Laut dem Zitat von vor paar Seiten verbaut M$ 4GB RAM. GDDR5 schließ ich jetzt mal aus, da zu teuer. Also bleibt noch DDR3/GDDR3. Speichertakt so um die 1GHz (Maximum von GDDR3 warn glaub ich 1,2). Dass mit nem 256er SI ergeben so um die 60-70GB/s, die du dann auch noch mit der CPU teilen musst. Dass bremst eine 7770 schon aus und eine 7800er sehr.
Also entweder ne GPU die dazu passt (<7700) oder dezidierter GDDR5 VRAM.
dargo
2012-04-09, 22:41:07
Bei der nächsten Konsole wird doch keiner GDDR3 verbauen. Das wäre totaler Unsinn. GDDR5 ist gar nicht mal mehr so teuer und hat einen entscheidenden Vorteil, SI muss gar nicht so fett ausfallen.
Deinorius
2012-04-09, 22:50:08
@Felixxz2
Du hast da einige Denkfehler. Der schlimmste: GDDR5 ist nicht einfach teuer, das hängt primär immer noch von der Taktfrequenz ab. Zumal die Konsolen erst Ende 2013 rauskommen, wird der Preis für GDDR5 weiter sinken.
GDDR3 wird keiner mehr verbauen. Wird das überhaupt noch verbaut/produziert? GDDR3 basiert auf DDR2 und nicht auf DDR3.
Nakai
2012-04-09, 22:50:19
http://img442.imageshack.us/img442/9499/surferibm05021512.jpg
XBox CPU könnte hinkommen als Power 7 Derivat,dort kann jeder Core 4 Threads abarbeiten.(SMT)
Fake!
http://blogs.gartner.com/andrew_white/files/2010/10/IBM-IOD-Information-Supply-Chain.JPG
80MB EDRAM wäre ganz nett, aber irgendwie abstrus.
Felixxz2
2012-04-09, 22:52:32
Bei der nächsten Konsole wird doch keiner GDDR3 verbauen. Das wäre totaler Unsinn. GDDR5 ist gar nicht mal mehr so teuer und hat einen entscheidenden Vorteil, SI muss gar nicht so fett ausfallen.
Ich schrieb DDR3/GDDR3 weil die die selben Taktraten erreichen. Natürlich wird DDR3 verbaut.
@Felixxz2
Du hast da einige Denkfehler. Der schlimmste: GDDR5 ist nicht einfach teuer, das hängt primär immer noch von der Taktfrequenz ab. Zumal die Konsolen erst Ende 2013 rauskommen, wird der Preis für GDDR5 weiter sinken.
GDDR3 wird keiner mehr verbauen. Wird das überhaupt noch verbaut/produziert? GDDR3 basiert auf DDR2 und nicht auf DDR3.
Das selbe wie oben.
Ja wo ist denn dann dein Problem?
Ich sagte, es wird eine Mischlösung aus DDR3 für CPU und GDDR5 für GPU geben.
Deinorius
2012-04-09, 22:59:17
Es ist aber wahrscheinlicher, dass zumindest die Xbox Next dasselbe System mit dem einheitlichen RAM weiterverwenden wird. Warum sollten sie das ändern, wenn es mit der Xbox 360 gut funktioniert hat? Im Klartext: GDDR5
Über die PS4 würde ich nur soviel sagen, dass, wenn es sich da auch um einen SoC handelt, dass es dann vielleicht ähnlich gehandhabt werden könnte.
Im Endeffekt ist mir egal, wie sie es machen, hauptsache sie verwenden überhaupt mind. 4 GB.
Felixxz2
2012-04-09, 23:00:24
Aber 4GB GDDR5 sind teurer als 4GB DDR3 + 2GB GDDR5, zumindest bei aktuellen Preisen.
Deinorius
2012-04-09, 23:01:56
Du darfst natürlich entsprechende Quellen vorlegen, wo ersichtlich ist, wieviel DDR3 und GDDR5 kostet UND ZWAR die einzelnen Module für die Hersteller und nicht für die Endkunden!
Und gib bitte auch die entsprechenden Taktfrequenzen an. Höchstgetakteten brauchst erst gar nicht hinzufügen.
Gipsel
2012-04-09, 23:05:26
Ich sagte, es wird eine Mischlösung aus DDR3 für CPU und GDDR5 für GPU geben.
Zwei Speichercontroller? Zweimal die vielen Leitungen von den zwei Speicherinterfaces zum RAM layouten, also doppelt so viele (mindestens +50%) auf ein kleines Board quetschen, so daß man bestimmt mehr Layer benötigt? Doppelt so viele Speichermodule verbauen? Das soll billiger sein als gleich nur ein einziges, vernünftig schnelles Speicherinterface zu integrieren, was zudem noch Vorteile besitzt, da man z.B. nicht zwangsläufig Sachen zwischen System-RAM und VRAM umkopieren muß?
Ich denke nicht!
Nakai
2012-04-09, 23:09:36
Aber 4GB GDDR5 sind teurer als 4GB DDR3 + 2GB GDDR5, zumindest bei aktuellen Preisen.
Da bin ich mir nicht sicher. Du musst auch berücksichtigen, dass für zusätzlichen RAM zusätzliche andere Hardwarekosten entstehen. Zusätzliche Verbindungen auf dem PCB und zusätzlicher Aufwand für die Chips(zusätzliche Interfaces). Außerdem in welchen Größen werden DDR3-Bausteine und GDDR5-Bausteine gefertigt?
Das ist auf jeden Fall keine offensichtliche leichte Entscheidung.
€: Ach Gipsel war zu schnell... €2: ...oder ich zu langsam...
Felixxz2
2012-04-09, 23:15:10
Gut erkannt, dass es sich nur um eine Spekulation meinerseits handelt. :rolleyes:
Wahrscheinlich hast du sogar Recht, wenn man Preise vom Release der Konsolen nimmt.
4GB GDDR5 Shared wären auf jeden Fall ne tolle Lösung, mit ausreichend Platz um das System auszureizen.
AwesomeSauce
2012-04-09, 23:34:27
Der Shared-Ansatz hat sich doch bewährt?! Jedenfalls wurde das in vielen GDC-Folien immer wieder als Vorteil der X360 gegenüber der PS3 gewertet. Ich glaube kaum, dass man davon Abstand nimmt.
Felixxz2
2012-04-10, 00:20:26
Ja der Shared Ansatz ist besser. WENN es 4GB GDDR5 RAM gibt ist das wie gesagt ne tolle Sache. Man spart sich Redundanz (wie Gipsel schon sagte) und kann alles so aufteilen wie man möchte.
EDIT: PS3 ist auch Shared, da der RSX in den XDR Speicher vom Cell schreiben kann. Nur teurer ist es.
aylano
2012-04-10, 12:12:57
Du weißt aber schon, dass dieser OLED 6000€ kosten soll und "nur" 1080p bietet?
...
Und eben diesen wird es die nächsten Jahre für die Masse nicht geben. Ich wäre schon froh wenn wir im deutschen Fernsehen in 4-6 Jahren durchgängig 720p hätten und selbst das wird nicht passieren.
Display mit 4.096 x 2.160 Pixeln - Bearbeitung von hochauflösenden Videos angekündigt
http://www.golem.de/news/eizo-display-mit-4-096-x-2-160-pixeln-1204-91032.html
Es werden immer mehr 2160p-Geräte angekündigt.
Es ist zwar kein (noch) kein Fernserher, aber die Fernsehtechnik (Video-Bearbietung & Co) benötigt ja auch zuerst 2160p-Fähiges Material.
Es ist schon etwas interessant, dass ein 2160p auf nur 36-Zoll möglich ist.
Zwar nur mit Mega Preisen, aber immerhin schon technisch möglich.
Nicht umonst will Sony AFAIK bei der PS4 die 2160p berücksichtigen.
Offtopic Ende
robbitop
2012-04-10, 12:30:31
Sie werden alle hohe Auflösung insofern berücksichtigen, dass die Konsolen die Ausgabeauflösung hochskalieren.
Analog zu 1080p (wenn nicht sogar auch nur wieder 720p hochskaliert werden)...
dargo
2012-04-10, 12:45:02
Zwei Speichercontroller? Zweimal die vielen Leitungen von den zwei Speicherinterfaces zum RAM layouten, also doppelt so viele (mindestens +50%) auf ein kleines Board quetschen, so daß man bestimmt mehr Layer benötigt? Doppelt so viele Speichermodule verbauen? Das soll billiger sein als gleich nur ein einziges, vernünftig schnelles Speicherinterface zu integrieren, was zudem noch Vorteile besitzt, da man z.B. nicht zwangsläufig Sachen zwischen System-RAM und VRAM umkopieren muß?
Ich denke nicht!
Naja... einheitlicher Speicher in Form von GDDR hat aber afaik nicht nur Vorteile. Ich denke da an die hohen Latenzen.
Display mit 4.096 x 2.160 Pixeln - Bearbeitung von hochauflösenden Videos angekündigt
http://www.golem.de/news/eizo-display-mit-4-096-x-2-160-pixeln-1204-91032.html
Es werden immer mehr 2160p-Geräte angekündigt.
Es ist zwar kein (noch) kein Fernserher, aber die Fernsehtechnik (Video-Bearbietung & Co) benötigt ja auch zuerst 2160p-Fähiges Material.
Es ist schon etwas interessant, dass ein 2160p auf nur 36-Zoll möglich ist.
Zwar nur mit Mega Preisen, aber immerhin schon technisch möglich.
Nicht umonst will Sony AFAIK bei der PS4 die 2160p berücksichtigen.
Offtopic Ende
Oh ja... jetzt stellen sich die Konsolenspieler ein 25.000€ Display hin. :crazy: Du wirst eh kein Spiel in dieser Auflösung gerendert sehen. Höchstens irgendwas wenig anschpruchsvolles was die GPU angeht zu Marketingzwecken.
Wuzel
2012-04-10, 12:58:12
Nuja, Sandy Bitch hat auch einen ringbus - der allem Anschein nach famos funktioniert.
Nur diese Art von Arbitrierung (über diesen System Agent?), die sie intus hat, habe ich nie ganz verstanden. Soll ja das Ring System extrem aufwerten und einige Nachteile aus dem Weg räumen.
Per se hätte das nur Vorteile, gerade bei einer heutigen, hoch gezüchteten 'GPU'. Jedenfalls fällt die Speicher-schaufelei weg - auch der overhead durch Parallelhaltung von Daten (Geo Daten, Vertex getütel) ist de facto nicht vorhanden, kein deadlock.
Vereinfacht wohl vieles, auch wäre der Bus an sich nicht so komplex - solange es sich um einen Soc handelt ;)
Gipsel
2012-04-10, 13:50:11
Naja... einheitlicher Speicher in Form von GDDR hat aber afaik nicht nur Vorteile. Ich denke da an die hohen Latenzen.Höher in Takten vielleicht, absolut hat DRAM über alle Interface-Varianten eigentlich eine relativ konstante Latenz. GDDR5 ist übrigens oft sogar billiger zu layouten als (G)DDR3, da die Tracelängen nicht identisch sein müssen (sondern Laufzeitunterschiede während des "Trainings", also bei der Initialisierung des Interfaces erkannt und nachfolgend kompensiert werden).
krötenfresse
2012-04-10, 14:19:51
an dieser stelle hab ich mal eine frage zum thema neue kosolen und (neuer) speicher:
wenn die neuen konsolen erst frühestens ende 2013 kommen, wäre es dann nicht sinnvoll, einfach noch ein wenig länger auf ddr4 oder gddr6 zu warten?
N0Thing
2012-04-10, 15:14:40
Wäre dann immer noch zu teuer und vermutlich bringen die ersten Lösungen noch nicht einmal einen Vorteil bei der Performance, sondern nur beim Stromverbrauch.
dargo
2012-04-10, 19:02:46
an dieser stelle hab ich mal eine frage zum thema neue kosolen und (neuer) speicher:
wenn die neuen konsolen erst frühestens ende 2013 kommen, wäre es dann nicht sinnvoll, einfach noch ein wenig länger auf ddr4 oder gddr6 zu warten?
Warten kann man immer. Es gibt aber keinen nennenswerten Grund dafür. GDDR5 bietet bereits am 128-192Bit SI recht hohe Bandbreiten (bis zu 96-144GB/s, bald ~17% mehr) für Konsolenverhältnisse. Reicht das immer noch nicht kann man es sich mit kleinem eDRAM behelfen. Oder alternativ Richtung 256Bit SI gehen. Je nach dem was die Konsole am Ende tatsächlich leisten soll. Wenn da aber wirklich "nur" eine mehr oder weniger HD7770 landen soll frage ich mich wofür man extrem hohe Bandbreiten braucht?
Ailuros
2012-04-10, 19:09:29
Nichts dagegen einzuwenden. Was hieße das aber genau für die PC-Ports?
Ich lass mich gerne eines besseren belehren aber ich kann mir schwer vorstellen dass es zu besonderen Komplikationen fuehren wuerde.
DXT1 ist bereits 0.5 bytes/pixel, ich sehe keine Notwendigkeit für irgendetwas anderes.
robbitop
2012-04-11, 13:12:15
http://www.fudzilla.com/home/item/26730-durango-to-pack-16-core-cpu
Jetzt heißt es schon 16x Kerne. Es ist wirklich lustig, wie unwissend man sein muss, um soetwas unreflektiert in die Öffentlichkeit zu verbreiten.
Es könnten allerdings 4x Kerne mit 4x SMT sein. Da eine IBM Architektur nicht unwahrscheinlich ist und die Power 7 Architektur recht gut passen könnte und man 4x Kerne erwarten kann und 4x SMT in IBMs Portfolio ist, passt das IMO recht gut.
Was noch nicht so recht zusammenpasst, ist dieser Kram mit den 2x GPUs....
AnarchX
2012-04-11, 13:15:05
Zwei AMD GPUs hätten potentiell mehr Front-End-Leistung und vielleicht hat man hier weitere Vorteile, wenn man massives GPGPU nutzen will.
robbitop
2012-04-11, 13:39:02
GPGPU für Spiele? :| Mit einer kleinen Grafikeinheit?
Mehr Front-End Leistung hätte man wohl aber wieder aufgefressen durch Ineffizienz. Wenn irgendwas in Richtung 7700er oder 7800er Serie drin sein sollte, kann man froh sein. Und da limitiert das Front End offenbar nicht.
Deinorius
2012-04-11, 13:42:44
Bei einem Power7 Derivat könnte man das mit den 16 Kernen glauben, aber würde IBM das nicht für die Konsole anpassen?
dargo
2012-04-11, 13:46:31
http://www.fudzilla.com/home/item/26730-durango-to-pack-16-core-cpu
Jetzt heißt es schon 16x Kerne. Es ist wirklich lustig, wie unwissend man sein muss, um soetwas unreflektiert in die Öffentlichkeit zu verbreiten.
Es könnten allerdings 4x Kerne mit 4x SMT sein. Da eine IBM Architektur nicht unwahrscheinlich ist und die Power 7 Architektur recht gut passen könnte und man 4x Kerne erwarten kann und 4x SMT in IBMs Portfolio ist, passt das IMO recht gut.
Was noch nicht so recht zusammenpasst, ist dieser Kram mit den 2x GPUs....
Hmm... wenn das Gerücht mit 4C/16T stimmt könnten die kommenden Spiele viel eher bei einer 4C/4T CPU (zb. i5-2500) threadlimitiert sein als ich dachte. Wobei das noch etwas dauert und fraglich ist auch wie lange die Spieleentwickler brauchen bis sie erstmal mit 8 Threads perfekt skalieren können.
Botcruscher
2012-04-11, 13:52:22
"Viel eher" beschreibt einen Zeitraum für den die Limitierung eines 2500K nun wirklich keine Rolle spielt.
robbitop
2012-04-11, 14:08:39
Naja ganz einfach. 16x OoO Kerne passen einfach nicht rein. Weder von der Fläche noch vom Preis noch vom TDP. Es macht auch wenig Sinn. 16x mini In Order Kerne machen noch weniger Sinn. 4x passt eher und 4x SMT nimmt man halt mit. Vieleicht kann man damit ja noch das letzte bisschen IPC rausquetschen. Ganz umsonst wird IBM das 4x SMT nicht eingeführt haben. Die Power 7 Architektur ist sicher nicht so perfekt ausgeklügelt was das ausnutzen des letzten Quäntchens an serieller IPC angeht. Umso besser, wenn man SMT dabei hat. Bei einem Core i würde 4x SMT wohl kaum was bringen.
Die Konsole ist ja wieder für eine Lebensdauer von 5-7 Jahren. Zum Schluss der Lebensdauer kann man die 16 Threads ggf. gut nutzen. Oder vieleicht besser ausnutzen mit Physik - welche ja sehr gut parallelisierbar ist.
Palpatin
2012-04-11, 14:25:55
Ist es schon fix das es eine CPU auf Power 7 Basis wird? Wär nicht ein von IBM gefertigter 16 Kern Cortex A15 auch denkbar? Würd von der TDP vermutlich sogar recht gut hinkommen.
robbitop
2012-04-11, 14:27:53
Fest steht gar nichts ohne eine offizielle Bestätigung. Die Rumors sagen bisher aber IBM + AMD. In dem Falle wäre Power 7 notwendig und sinnvoll, um eine signifikante Beschleunigung ggü. der 360 zu erzielen.
ARM Kerne und gar erst 16x davon wären sinnfrei. Zu geringe IPC, zu geringe Taktbarkeit.
del_4901
2012-04-11, 14:34:07
Ein auf PowerPC A2 basierender Chip a la BlueGene Q wuerde auch noch Sinn machen. Damit waehre man bei 16 Cores und 64 Threads bei ~65Watt.
robbitop
2012-04-11, 14:51:03
Ein auf PowerPC A2 basierender Chip a la BlueGene Q wuerde auch noch Sinn machen. Damit waehre man bei 16 Cores und 64 Threads bei ~65Watt.
The A2 CORE is a multithreaded, in-*‐order design
https://www.power.org/home/Blue_Gene_Q_Super_Efficient_Linley.pdf
Fail. Welcher Spieleprogrammierer soll so viele Threads sinnvoll auslasten? Die meisten haben Probleme bei einfacher Parallelisierung.
Um wirklich einen Vorteil ggü. der X360 herausschlagen zu können, braucht es Kerne, die ziemlich viel Leistung pro Kern bringen. Durch hohen Takt und hohe netto-IPC. Und dafür braucht es IMO einen modernen OoO Kern.
del_4901
2012-04-11, 14:57:59
https://www.power.org/home/Blue_Gene_Q_Super_Efficient_Linley.pdf
Fail. Welcher Spieleprogrammierer soll so viele Threads sinnvoll auslasten? Die meisten haben Probleme bei einfacher Parallelisierung.
Unterschaetz/Beleidige mal bitte unsere lieben Entwickler nicht!
Wenn eine Konsole mit soviel CPUs kommt, wird sich schon ein Weg finden. Ausserdem skalieren die modernen Engines mittlerweile sehr gut.
Um wirklich einen Vorteil ggü. der X360 herausschlagen zu können, braucht es Kerne, die ziemlich viel Leistung pro Kern bringen. Durch hohen Takt und hohe netto-IPC. Und dafür braucht es IMO einen modernen OoO Kern.
Das ist doch nur reine Spekulation deinerseits.
robbitop
2012-04-11, 15:03:18
Unterschaetz/Beleidige mal bitte unsere lieben Entwickler nicht!
Wenn eine Konsole mit soviel CPUs kommt, wird sich schon ein Weg finden. Ausserdem skalieren die modernen Engines mittlerweile sehr gut.
Das sagen Leute wie Coda und Demirug, die beide in dem Business sind.
Das ist doch nur reine Spekulation deinerseits.
Das ist eine Schlussfolgerung aus dem Offensichtlichen und den Aussagen von Coda und Demirug
Beispiel für die These: Das Verhalten von PC Spielen mit Prozessoren aus den letzten Jahren - in jedem Spiel macht ein Core i3 mit nur 2 Kernen jeden AMD Prozessor bei gleichem Takt fertig. Selbst wenn er 6 oder 8 Kerne hat. Also ist es offensichtlich nicht so einfach endlos zu parallelisieren und Single Thread IPC noch zu einem gewissen Maß wichtig
Ich gehe jede Wette mit dir ein, dass ich bei beiden Konsolen Recht haben werde und beide OoO Kerne haben. Und wenn es wirklich so kommen wird, dann ist OoO und viel IPC pro Kern ganz offensichtlich die bessere Wahl gewesen.
Crazy_Bon
2012-04-11, 15:08:02
Könnte es auch sein, daß Microsoft einen ähnlichen weg einschlägt wie Sony mit der PS3 und ein Teil der Grafikberechnung auf die CPU schieben möchte um die vermeintlich schwache GPU unter die Armen zu greifen?
robbitop
2012-04-11, 15:10:03
Könnte es auch sein, daß Microsoft einen ähnlichen weg einschlägt wie Sony mit der PS3 und ein Teil der Grafikberechnung auf die CPU schieben möchte um die vermeintlich schwache GPU unter die Armen zu greifen?
Das war eine Notlösung. RSX war rechenschwach und die SPEs waren kaum/schwer für CPU-Tasks auszunutzen - für gewisse Dinge wie die Lichtberechnungen bei Defered Shading und oder Backfaceculling aber brauchbar.
Bei einer sinnvollen Architekturauslegung hast du eine rechenstarke GPU und eine gute CPU. The right tool for the right job.
Tesseract
2012-04-11, 15:14:14
Hmm... wenn das Gerücht mit 4C/16T stimmt könnten die kommenden Spiele viel eher bei einer 4C/4T CPU (zb. i5-2500) threadlimitiert sein als ich dachte. Wobei das noch etwas dauert und fraglich ist auch wie lange die Spieleentwickler brauchen bis sie erstmal mit 8 Threads perfekt skalieren können.
was ist eine "threadlimitierung"? wenn 4 cores in summe immer noch mehr power haben als eine 16-thread-IPC-gurke laufen auch 16 oder 100+ threads darauf besser - unter der annahme, dass die spiele überhaupt 16 threads sinnvoll auslasten können, wovon ich nicht ausgehe.
robbitop
2012-04-11, 15:17:41
was ist eine "threadlimitierung"? wenn 4 cores in summe immer noch mehr power haben als eine 16-thread-IPC-gurke laufen auch 16 oder 100+ threads darauf besser - unter der annahme, dass die spiele überhaupt 16 threads sinnvoll auslasten können, wovon ich nicht ausgehe.
Und mit hoher physiklast? Das ist doch toll parallelisierbar.
Iruwen
2012-04-11, 15:18:15
Ist übertriebenes Context Switching nicht relativ zeitintensiv?
robbitop
2012-04-11, 15:20:22
Wenn es keinen Sinn ergeben würde, würde IBM kein 4x SMT bieten. ;)
Natürlich muss der Nutzen größer sein als die Kosten. Die Wartepausen (Cache Miss, etc) pro Thread müssen groß genug sein, damit sich das lohnt.
del_4901
2012-04-11, 15:23:48
Das sagen Leute wie Coda und Demirug, die beide in dem Business sind. Das ist eine Schlussfolgerung aus dem Offensichtlichen und den Aussagen von Coda und Demirug. Naja wenn das deine alleinige Begruendung ist, dann muesstest du auch meiner Spekulation Glauben schenken. Und ich bin schon laenger im Business als Coda.
Ist übertriebenes Context Switching nicht relativ zeitintensiv?
Nicht bei leichtgewichten wie z.B. Backgroundworkern.
Tesseract
2012-04-11, 15:28:43
Ist übertriebenes Context Switching nicht relativ zeitintensiv?
dass was bei einer minimalen thread-asymmetrie dazu kommt ist eher zu vernachlässigen. damit das kritisch wird müssen schon sehr sehr viel mehr threads laufen als die CPU auf einmal bearbeiten kann.
gut, bei 100+ threads kommen wir vielleicht schon in den bereich, aber 16 schnupft eine 4-core-CPU weg wie nix. da sind andere architekturunterschiede wesentlich wichtiger.
und wenn man nicht von 100% ausbalancierten threads ausgeht wo wirklich jeder dauerbeschäftigt ist sondern davon, dass man 16 threads garnicht sinnvoll auslasten kann sieht es gleich ganz anders aus. wenn vielleicht nur 1-3 thread wirkliche knochenbarbeit leisten und der rest am schlafen/warten ist, ist es sowieso gelaufen - dann gewinnt die CPU mit der maximalen performance pro thread.
Nightspider
2012-04-11, 15:32:14
Vor 6 Jahren hätte man für 2013 sogar weit mehr als 16 CPU Kerne projiziert.
Wenn du dir überlegst, wie winzig die CPU Kerne der 360 in 28nm wären, wäre ein Sprung zu 16 Kernen gar nichts besonderes.
Intels Ivy Bridge CPU verschleudet schon fast die Hälfte der Fläche alleine für die IGP.
Etwas weniger Cache und kein unnötigen IGP Quatsch und schon passen 16 kerne auf ein Die.
Intel hat schon in 32nm 10 große Kerne der Westmere Architektur auf ein Die geklatscht.
Auch wenn ich selbst nicht an 16 Kerne glaube, erwarte ich 8-12 Kerne. Was willst du denn mit 4 CPU Kernen? Hast du ne Ahnung wie lang die Konsole damit leben soll? Was soll denn das für ein Sprung sein, von 3 auf 4 Kernen+SMT?
Selbst 8 Kerne wären ein Witz nach 7 Jahren. Microsoft wird versuchen wieder die Leistungskrone zu ergattern.
Oder glaubst du die Entwicklung findet nur im Grafikbereich statt? Die Entwickler wollen auch mehr Power für KI, Physik, Wegfindung usw. usw.
AnarchX
2012-04-11, 15:34:49
Zwischen 3 lahmen In-Order-Kernen und 4 Out-of-Order Kernen liegt schon ein recht großer Unterschied.
Nightspider
2012-04-11, 15:36:29
Selbst mit OoO Architektur sollten mindestens 8 Kerne für 2013 drin sein.
16 Kerne sehe ich selbst ja als unwahrscheinlich an aber glaubt hier wirklich einer das die nächste Generation nur mit 4 Kernen daherkommt?
Ich tippe weiterhin auf 8-12 Cores.
dargo
2012-04-11, 15:37:36
was ist eine "threadlimitierung"?
Das... (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8943051&postcount=32)
Wobei hier Nvidia eine große Schuld mit ihren Grafiktreibern mitträgt.
AnarchX
2012-04-11, 15:39:20
Selbst mit OoO Architektur sollten mindestens 8 Kerne für 2013 drin sein.
16 Kerne sehe ich selbst ja als unwahrscheinlich an aber glaubt hier wirklich einer das die nächste Generation nur mit 4 Kernen daherkommt?
Ich tippe weiterhin auf 8-12 Cores.
Für massives Multi-Threading hat man die gut programmierbaren GPUs, da braucht man für den nicht so gut parallelisierbaren Code vernünftige Kerne mit hoher Single-Thread-Leistung.
Nightspider
2012-04-11, 15:41:10
Okay, Physik kann man auf die GPUs auslagern aber das fällt für den Rest flach.
Und gerade bei der Anzahl der KIs und deren Qualität sowie Wegfindung wird es wieder einen großen Sprung geben mit der kommenden Generation.
dargo
2012-04-11, 15:41:14
Beispiel für die These: Das Verhalten von PC Spielen mit Prozessoren aus den letzten Jahren - in jedem Spiel macht ein Core i3 mit nur 2 Kernen jeden AMD Prozessor bei gleichem Takt fertig. Selbst wenn er 6 oder 8 Kerne hat. Also ist es offensichtlich nicht so einfach endlos zu parallelisieren und Single Thread IPC noch zu einem gewissen Maß wichtig
Das ist ein gutes Beispiel. Der i3 ist aber nur so gut weil er HT hat. Hätte er nur 2C/2T wären wir wieder bei diesem Problem.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8943051&postcount=32
Die bessere Pro/Mhz Leistung vom Sandy Bridge würde bei weitem nicht reichen um an einen Phenom II @4Cores zu kommen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8933026&postcount=1
Phenom II @4 Cores ist nämlich in dieser Szene beim gleichen Takt stolze 80% schneller als ein simulierter Sandy Bridge @2Cores.
robbitop
2012-04-11, 15:46:54
Naja wenn das deine alleinige Begruendung ist, dann muesstest du auch meiner Spekulation Glauben schenken. Und ich bin schon laenger im Business als Coda.
Aber nicht als Demirug. Und wenn ich Recht haben sollte und Sony und MS es so umsetzen, dann ist es damit offensichtlich der bessere Weg. Ich werde dich dann daran erinnern. ;)
Das ist ein gutes Beispiel. Der i3 ist aber nur so gut weil er HT hat. Hätte er nur 2C/2T wären wir wieder bei diesem Problem.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8943051&postcount=32
Im Prinzip werden die CPUs durch zu viele Threads sabotiert. Demirug hat mal vor Jahren dargestellt, dass sich oftmals nicht die Mühe gemacht wird, auch für CPUs mit weniger Kernen zu optimieren. Das ständige Switching killt dann die Leistung. SMT und das schnelle Cache System vom i3 scheinen das gut abzufangen. Wenn es wirklich >4 richtig anspruchsvolle Threads wären, würden die 4-8 Kern AMDs wohl vorbeiziehen, oder?
Selbst mit OoO Architektur sollten mindestens 8 Kerne für 2013 drin sein.
16 Kerne sehe ich selbst ja als unwahrscheinlich an aber glaubt hier wirklich einer das die nächste Generation nur mit 4 Kernen daherkommt?
Ich tippe weiterhin auf 8-12 Cores.
Es ist eben nicht alles beliebig parallelisierbar. 4x OoO Kerne mit SMT sind schon ein sehr deutlicher Anstieg der Leistung. Viel mehr Kerne werden immer schwieriger zu nutzen und die Effizienz und somit der Ertrag sinkt.
Außerdem muss in den Kern ggf. noch die GPU mit hinein. Der Preis darf auch nicht exorbitant hoch werden.
Tesseract
2012-04-11, 15:48:15
Das... (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8943051&postcount=32)
Wobei hier Nvidia eine große Schuld mit ihren Grafiktreibern mitträgt.
das sieht nach einem harten designfehler in der engine aus. danach sollte man eigentlich keine konsole designen. würde mich nicht wundern wenn die programmierer da vom ahnunglosen management gesagt bekommen haben, dass das spiel aus marketinggründen mit X kernen skalieren "muss" und dann am ende sowas dabei rausgekommen ist.
Auch wenn ich selbst nicht an 16 Kerne glaube, erwarte ich 8-12 Kerne. Was willst du denn mit 4 CPU Kernen? Hast du ne Ahnung wie lang die Konsole damit leben soll? Was soll denn das für ein Sprung sein, von 3 auf 4 Kernen+SMT?
die performance definiert sich nicht allein durch die anzahl der kerne. :rolleyes:
entscheidend ist was am ende rauskommt und wieviel das ganze kostet und verbraucht und da ist eben nicht automatisch die CPU am schnellsten mit den meisten threads.
del_4901
2012-04-11, 15:51:52
Aber nicht als Demirug. Und wenn ich Recht haben sollte (und es damit offensichtlich der bessere Weg ist), werde ich dich daran erinnern. ;) Ich weis nicht wie lange Demi schon im Business ist. Aber du musst dir keine Sorge machen das ich dir das auf die Nase binden werde, wenn du kein Recht behalten solltest.
Nightspider
2012-04-11, 15:53:56
die performance definiert sich nicht allein durch die anzahl der kerne. :rolleyes:
entscheidend ist was am ende rauskommt und wieviel das ganze kostet und verbraucht und da ist eben nicht automatisch die CPU am schnellsten mit den meisten threads.
Sag bloß!
Dennoch wird man wohl mindestens 6Kerne sehen. Bei 4 Kernen wäre das gerade mal eine Steigerung von Faktor ~~2,5.
Selbst mit Intels aktuell schnellster Sandy Bridge Architektur würde man mit 4 Kernen kaum Faktor 3 zu den 3 Kernen+SMT der 360 erreichen.
Und neben aktueller Architektur lässt sich die CPU Leistung eben nur über die Anzahl der Kerne erhöhen. Zumal mal in 28nm genug Platz hat. Wieso sollte man an den paar mm² sparen?
Die 360 wurde auch am Limit gebaut und war von der Hardware ein Erfolg.
Das MS Anfangs große Probleme mit Kaputten Konsolen lag zum Teil an der Software als auch an der schlecht dimensionierten Kühlung.
Und das die Ingenieure mist bauen passiert auch bei Intel, siehe Cougar Chipsatz Fehler.
MS wird mit Sicherheit keine LowEnd Hardware verbauen wie Nintendo.
dargo
2012-04-11, 15:55:56
das sieht nach einem harten designfehler in der engine aus. danach sollte man eigentlich keine konsole designen. würde mich nicht wundern wenn die programmierer da vom ahnunglosen management gesagt bekommen haben, dass das spiel aus marketinggründen mit X kernen skalieren "muss" und dann am ende sowas dabei rausgekommen ist.
Das ist kein DesignFehler der Engine. Siehe Skalierung mit einer AMD-GPU.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8933026&postcount=1
Ich sag ja nicht umsonst NV hat mit ihren Treibern Mist gebaut.
Tesseract
2012-04-11, 16:04:37
Das ist kein DesignFehler der Engine. Siehe Skalierung mit einer AMD-GPU.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8933026&postcount=1
Ich sag ja nicht umsonst NV hat mit ihren Treibern Mist gebaut.
ich glaub du fehlinterpretierst das etwas. vermutlich wird in der engine vieles gethreaded, was eigentlich kaum last erzeugt bzw. voneinander abhängig ist oder aufeinander wartet und da wird wahrscheinlich auch der ein oder andere API-call dabei sein was die unterschiede bei amd und nvidia erklärt.
hätte die engine 4 ausgelastete workerthreads wären 3 kerne @ 3 threads nicht fast 1/3 langsamer als 2 kerne @ 4 threads. nie im leben.
robbitop
2012-04-11, 16:05:44
Sag bloß!
Dennoch wird man wohl mindestens 6Kerne sehen. Bei 4 Kernen wäre das gerade mal eine Steigerung von Faktor ~~2,5.
Selbst mit Intels aktuell schnellster Sandy Bridge Architektur würde man mit 4 Kernen kaum Faktor 3 zu den 3 Kernen+SMT der 360 erreichen.
Ein X360 Kern hat in etwa die IPC eines Intel Atoms. Eine moderne OoO CPU hat in Spielen bei gleichem Takt eine 2...3x Leistung. Hinzu kommt 4 statt 3 der CPU Kerne. Faktor 4 an CPU Leistung ist machbar. Mehr wird dann wirklich schwierig, da sich Spiele nicht beliebig parallelisieren lassen. Amdahls Law.
Die X360 war eine absolute High End Konsole zu ihrer Zeit. Eine aktuelle Midrange / Low Levelkonsole wird nicht mehr den üblichen Sprung von 1...1,5 Größenordnungen packen. Dazu müsste man wieder eine High End Konsole bauen und damit auch wieder hohe Produktionskosten zulassen. Aber wie gesagt: das hat nur sehr schlecht funktioniert. Deshalb ist der Sprung diesmal sehr wahrscheinlich deutlich geringer als sonst.
Nintendo wird nichteinmal annähernd eine so starke CPU verbauen. Nicht in dem Gehäuse nicht für den Preis...
del_4901
2012-04-11, 16:18:45
Mehr wird dann wirklich schwierig, da sich Spiele nicht beliebig parallelisieren lassen. Amdahls Law.
Es ich zwar wichtig zu wissen was Amdahl da rausgefunden hat, aber Einschuechtern lassen muss man davon keineswegs. Wenn ich den nicht parallelisierbaren Teil gegen 0 schiebe dann bekommt man wieder eine lineare Skalierung. Das kann man auch erreichen indem man die Problemstellung einfach komplexer macht, das hat der gute Amdahl naemlich in seiner Gleichung vergessen. Unter der Praemisse wurde dann Gustafsons Gesetz hergeleitet. Und wir wollen doch immer schoenere, komplexere, detailliertere Spiele haben? Damit ist die Praemisse bereits erfuellt.
Single Threaded Performace ist eigentlich nur noch fuer die Gamelogic relevant und da tuts auch ein ARM oder Atom.
Nightspider
2012-04-11, 16:28:44
Das die 360 CPU IPC auf dem Niveau des Intel Atoms liegt halte ich für sehr gewagt, auch wenn es in diese Richtung tendiert.
Aber selbst wenn dies der Fall ist, wie du sagt und 4 Kerne eine Leistungssteigerung vom Faktor 4 bedeuten würden, wäre dies viel zu schwach.
Mit einer humanen Anzahl von 8 Kernen würde man mit ~Faktor 8 dann schon in den Regionen einer Größenordnung sprechen können. Das wäre kein viel geringerer Sprung als Xbox1->360.
Faktor 4 an CPU Leistung ist machbar. Mehr wird dann wirklich schwierig, da sich Spiele nicht beliebig parallelisieren lassen. Amdahls Law.
Wie schon oft gesagt wurde, ist diese Behauptung, wenn man sie so ohne Bedingungen stehen lässt total falsch und Schwachsinn².
Und bei 8 Kernen bist du so weit von einer Codelimitierung entfernt, wie Steve Jobs vom Reich der Lebenden.
robbitop
2012-04-11, 16:33:10
Das sagen alle ernsthaften Entwickler und das belegen auch PC Spiele, bei denen man das mal skalieren lassen kann. Wenn es so einfach wäre, endlos zu parallelisieren, dann würden 6 und 8 Kern CPUs deutliche Vorteile in Spielen bringen. Tun sie aber nicht.
Klar mit Dingen wie massiv Physik kann man das schon nutzen - dafür wäre dann aber eine CPU ziemliche Verschwendung, weil das sicher auf einem spezialisierten Kern mit viel Ausführungslogik und wenig Kontrolllogik (pro Ausführungseinheit) sicher transistoreffizienter laufen würde.
Nightspider
2012-04-11, 16:35:25
Wenn es so einfach wäre, endlos zu parallelisieren, dann würden 6 und 8 Kern CPUs deutliche Vorteile in Spielen bringen. Tun sie aber nicht.
Was vielleicht daran liegt, das...
[Obvious-Mode]...die Spiele noch nicht an 8 Kerne angepasst sind?...[/Obvious-Mode]
Ob es sinnvoll ist, bestimmte Dinge von der CPU berechnen zu lassen, anstatt sie auf die GPU auszulagern sei mal dahingestellt.
Dennoch sollte es gerade bei 8 Kernen keine Probleme geben, diese effizient auszulasten.
Das diese bei ~32 Kernen schwierig ist, ist mir klar. Aber 8 ist noch keine (große) Menge.
robbitop
2012-04-11, 16:40:58
Was vielleicht daran liegt, das...
[Obvious-Mode]...die Spiele noch nicht an 8 Kerne angepasst sind?...[/Obvious-Mode]
Wenn es so einfach wäre, wären sie es. Zumindest für 6 Threads (wegen X360). Oder auch für 8 (PS3). Klar sind SPEs schwieriger zu nutzen. Umso mehr Aufwand würde man in Parallelisierung stecken.
Sie sind es aber nicht. Ergo ist das nicht so einfach. Und selbst die Parallelisierung die wir heute in Spielen haben ist oft Augenwischerei wegen den ganzen Minithreads, die ständiges Switching erfordern und somit CPUs mit weniger Kernen sabotieren.
Das gleiche erwähnte Tesseract eben auch. Demirug schon vor Jahren.
Nur weil AlphaTier als einziger das Gegenteil von dem Offensichtlichen erwähnt, heißt es noch lange nicht, dass es so stimmt. Es wird auch in genügend Videointerviews mit Konsolenentwicklern immer wieder erwähnt, wie schwierig eine sinnvolle Ausnutzung von so vielen Kernen ist.
Wenn Multithread so einfach wäre, wäre es überall durchgesetzt. Und ein IPC Monster wie ein Core i wäre überhaupt nicht mehr notwendig. Was Intel an Ressourcen investiert, um aus jedem Core das letzte Bisschen IPC zu quetschen...das kostet so unglaublich viel R&D und auch Transistoren. Die sind vermutlich bereits in den Gefilden des Grenzertrages, was das angeht... Es wäre offensichtlich Unsinn, wenn man dann doch einfach mehr Kerne draufklatschen könnte.
Mit einer humanen Anzahl von 8 Kernen würde man mit ~Faktor 8 dann schon in den Regionen einer Größenordnung sprechen können. Das wäre kein viel geringerer Sprung als Xbox1->360.
Und wie soll das bezahlbar sein? 8x OoO Kerne wären ziemlich groß. Das wäre nur mit Subventionen und/oder teuren UVPs machbar. Gleiches Spielchen wie letzte Generation. Das funktionierte finanziell nicht.
del_4901
2012-04-11, 16:45:20
Das sagen alle ernsthaften Entwickler und das belegen auch PC Spiele, bei denen man das mal skalieren lassen kann. Wenn es so einfach wäre, endlos zu parallelisieren, dann würden 6 und 8 Kern CPUs deutliche Vorteile in Spielen bringen. Tun sie aber nicht.
Klar mit Dingen wie massiv Physik kann man das schon nutzen - dafür wäre dann aber eine CPU ziemliche Verschwendung, weil das sicher auf einem spezialisierten Kern mit viel Ausführungslogik und wenig Kontrolllogik (pro Ausführungseinheit) sicher transistoreffizienter laufen würde.
Du vergleichst die Situation auf dem PC(Aepfel) mit den Konsolen(Birnen) und 'ernsthafte' Konsolenentwickler werden sich hueten ueberhaupt irgendwas zu 'behaupten'. Bestes Beispiel ist die PS3, sie ist schrecklichst zu programmieren, und trotzdem setzt man sich ran und tut was man kann/muss.
Und ich muss ehrlich sagen, wenn ich eine CPU haben kann die Branch Prediction, nen vernuenftiges Caching und evtl. HTM bei mehr Rohleistung/Watt hat, dann ziehe ich die einer OOO Architektur vor, selbst wenn ich dafuer mehr arbeiten muss.
Wenn Multithread so einfach wäre, wäre es überall durchgesetzt. Und ein IPC Monster wie ein Core i wäre überhaupt nicht mehr notwendig. Was Intel an Ressourcen investiert, um aus jedem Core das letzte Bisschen IPC zu quetschen...das kostet so unglaublich viel R&D und auch Transistoren. Die sind vermutlich bereits in den Gefilden des Grenzertrages, was das angeht... Es wäre offensichtlich Unsinn, wenn man dann doch einfach mehr Kerne draufklatschen könnte. Der PC ist keine geschlossene Platform wie eine Konsole.
robbitop
2012-04-11, 16:48:15
Du vergleichst die Situation auf dem PC(Aepfel) mit den Konsolen(Birnen) und 'ernsthafte' Konsolenentwickler werden sich hueten ueberhaupt irgendwas zu 'behaupten'. Bestes Beispiel ist die PS3, sie ist schrecklichst zu programmieren, und trotzdem setzt man sich ran und tut was man kann/muss.
Und ich muss ehrlich sagen, wenn ich eine CPU haben kann die Branch Prediction, nen vernuenftiges Caching und evtl. HTM bei mehr Rohleistung/Watt hat, dann ziehe ich die einer OOO Architektur vor, selbst wenn ich dafuer mehr arbeiten muss.
PC Spiele sind mittlerweile 90 % Konsolenports. Das muss ziemlich stark abfärben. Warum sollte es nicht?
Die SPEs wurden doch zum Großteil für GPU Zwecke genutzt am Ende. Natürlich auch für CPU Zwecke. Das zeigt aber auch, wie weit es mit der Parallelisierung war...
Der PC ist keine geschlossene Platform wie eine Konsole.
Das ist ein Vorteil zur Optimierung. Aber wie gesagt: Konsolenports. Wäre die hohe Parallelisierbarkeit so da, wäre sie beim Port in einer Vielzahl von Fällen noch vorhanden. Es würde schnell abfärben und Singlethreadleistung wäre wohl Geschichte. (Und Bulldozer würde etwas besser darstehen :D)
Und wenn die Engine und die Compiler so gut wären wie du sagtest, würde das Argument mit geschlossene Plattform ziemlich stark verblassen.
del_4901
2012-04-11, 16:50:11
Die SPEs wurden doch zum Großteil für GPU Zwecke genutzt am Ende. Natürlich auch für CPU Zwecke. Das zeigt aber auch, wie weit es mit der Parallelisierung war...
Das lag aber auch NUR daran weil Sony mit RSX keinen Gluecksgriff gelandet hat UND bei den SPUs das Caching und die Branch Prediction wegrationalisiert wurden.
Das ist ein Vorteil zur Optimierung. Aber wie gesagt: Konsolenports. Wäre die hohe Parallelisierbarkeit so da, wäre sie beim Port in einer Vielzahl von Fällen noch vorhanden. Es würde schnell abfärben und Singlethreadleistung wäre wohl Geschichte. (Und Bulldozer würde etwas besser darstehen :D) Wenn die SPEs nicht so kastriert worden waehren das man dafuer custom code dafuer schreiben muesste, dann wahre das genau der Fall und wir waehren schon bei ~8 Threads. Mit den 6 Threads der Xbox kommen die Entwickler auch ziemlich gut zurecht, und das hat dem PC sicherlich auch geholfen.
robbitop
2012-04-11, 16:52:46
Das lag aber auch NUR daran weil Sony mit RSX keinen Gluecksgriff gelandet hat UND bei den SPUs das Caching und die Branch Prediction wegrationalisiert wurden.
Was ist mit der X360? Die hatte 6 Threads verfügbar. Kein X360 Port nutzt das auch nur annähernd richtig aus. :)
Mit den 6 Threads der Xbox kommen die Entwickler auch ziemlich gut zurecht, und das hat dem PC sicherlich auch geholfen.
Eben nicht. Bisher macht der i3 mit 2C/4T selbst AMDs 6C und 8C platt. Bei gleichem Takt. Bei jedem Spiel (also auch den Konsolenports).
Einige davon waren zeitexklusiv für X360 und kamen Jahre später nachträglich für PC (nicht für PS3). Auch da hätte man mehr Parallelisierbarkeit erwartet. (Mass Effect, Alan Wake...)
Tesseract
2012-04-11, 16:56:31
Dennoch sollte es gerade bei 8 Kernen keine Probleme geben, diese effizient auszulasten.
effizienz ist beim threaden aber keine frage von ja/nein sondern wie effizient das ganze sein soll, gerade bei einer konsole wo man einen strengen rahmen hat was energieverbrauch und herstellungskosten angeht.
wenn man die ganze engine threadmäßig aufbläst und am ende auf einer 8-core z.B. 20% mehr effektive leistung gegenüber einem quad hat weil der rest vom overhead aufgefressen wird kann man das ganze gleich sein lassen, den quad 20% höher takten und zusätzlich eine dickere GPU verbauen und hat am ende die bessere konsole.
del_4901
2012-04-11, 16:57:52
Was ist mit der X360? Die hatte 6 Threads verfügbar. Kein X360 Port nutzt das auch nur annähernd richtig aus. :)
Na aber sicher wird das ausgenutzt mein Liebster, in welcher Welt lebst du denn, das wir da was brach liegen lassen koennten?
Eben nicht. Bisher macht der i3 mit 2C/4T selbst AMDs 6C und 8C platt. Bei gleichem Takt. Bei jedem Spiel (also auch den Konsolenports). Das ist ein ziemlich ungleicher Vergleich, vergleiche lieber mal die gleiche Architektur bei unterschiedlicher Thread Anzahl. Alles Andere ist Augenwischerei und Manipulation der Statistik.
robbitop
2012-04-11, 17:09:22
Na aber sicher wird das ausgenutzt mein Liebster, in welcher Welt lebst du denn, das wir da was brach liegen lassen koennten?
Die Frage ist, ob es nicht nur genutzt wird, sondern ob es mit linearem Zugewinn genutzt wird.
Nochmal: bisher zeigt kein Port einen signifikanten Gewinn mit > 4 Kerne im PC.
Das ist ein ziemlich ungleicher Vergleich, vergleiche lieber mal die gleiche Architektur bei unterschiedlicher Thread Anzahl. Alles Andere ist Augenwischerei und Manipulation der Statistik.
Es ist aber eine Analogie. 2 starke Kerne gegen beliebig viele "schwache". Die wenigen starken gewinnen. Und zwar deutlich. :)
del_4901
2012-04-11, 17:12:23
Die Frage ist, ob es nicht nur genutzt wird, sondern ob es mit linearem Zugewinn genutzt wird. Nochmal: bisher zeigt kein Port einen signifikanten Gewinn mit > 4 Kerne im PC.
Es ist aber eine Analogie. 2 starke Kerne gegen beliebig viele "schwache". Die wenigen starken gewinnen. Und zwar deutlich. :)
Daraus kannst du aber noch keine Rueckschluesse ziehen wie gut die Parallisierung ist.
Und wie oft soll ich noch wiederholen, der PC ist keine Konsole.
robbitop
2012-04-11, 17:14:48
Daraus kannst du aber noch keine Rueckschluesse ziehen wie gut die Parallisierung ist.
Und wie oft soll ich noch wiederholen, der PC ist keine Konsole.
Warum sollte die Parallelisierbarkeit der X360 Titel nicht auf Ports übertragen lassen? Es sind 3 gleiche konventionelle Kerne mit 2x SMT. Keine Spezialtüfteleien wie mit Cell. Das sollte doch 1:1 auf den PC portierbar sein.
Falls nein - warum nicht?
Es gibt so viele Ports mittlerweile. Auch von sehr sehr professionellen Firmen/Studios. Nicht ein einziger hat das geschafft....
Nightspider
2012-04-11, 17:16:11
Es wird auch in genügend Videointerviews mit Konsolenentwicklern immer wieder erwähnt, wie schwierig eine sinnvolle Ausnutzung von so vielen Kernen ist.
Gejammert wird doch jedes mal. Erst waren es DualCores du schwer auszunutzen sind. Dann waren es QuadCores. Als nächstes wird eben bei 8 Kernen gejammert.
Es ist ja nicht so, als ob die Erfarung der Programmierer nicht zunehmen würde und die Engines verbessern sich auch.
Man schaue sich mal an, wie Half Life 2 auf der PS3 aussieht und vergleicht diese HL2 Version mit der zukünftigen CS:GO Grafik.
Am Anfang jammern alle rum aber das ist der Lauf der Entwicklung. Würde man nur jammern wären wir noch bei SingleCores.
Ich sage ja nicht das es einfach ist aber so unmöglich wie du es manchmal darstellst ist es bei weitem nicht. Zumal 8 Kerne gerade mal eine Verdopplung darstellen. Einige Programmierer werden schon sabbern und sich freuen diese Leistung investieren zu können.
Wenn Multithread so einfach wäre, wäre es überall durchgesetzt.
So wie in Smartphones? :ugly:
Genau genommen gibt es schon Smartphones mit 5 Kernen. ;)
del_4901
2012-04-11, 17:29:55
Warum sollte die Parallelisierbarkeit der X360 Titel nicht auf Ports übertragen lassen? Es sind 3 gleiche konventionelle Kerne mit 2x SMT. Keine Spezialtüfteleien wie mit Cell. Das sollte doch 1:1 auf den PC portierbar sein.
Falls nein - warum nicht?
Weil das Timing ein anders ist wenn eine andere CPU verwendet wird? Und damit die Arbeit ueber den Frame anders verteilt ist. Sich natuerlich auch selbst blockiert, da wir alle noch ausschiesslich mit Locks arbeiten. Das sind aber Dinge die sind fuer eine Konsole irrelevant. Aber trotzdem muss man sagen das der PC viel von der Xbox profitiert hat. Und genauso werden auch zukuenftige PCs von einer Konsole mit vielen HW-Threads profitieren.
Tesseract
2012-04-11, 17:35:18
Und genauso werden auch zukuenftige PCs von einer Konsole mit vielen HW-Threads profitieren.
besser als garnix ist das auf jedenfall, die selben resourcen wären aber z.B. in mehr ram (und da vor allem mehr vram) sicher besser angelegt.
Deinorius
2012-04-11, 17:49:13
Genau genommen gibt es schon Smartphones mit 5 Kernen. ;)
4 Kerne! Die 5 Kerne werden nie zur selben Zeit genutzt.
Edit: Ich hoffe mal, dieses Gerücht mit den 4C/16T basiert nicht auf Grundlage dieses Bildes (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9244817#post9244817), da es immerhin ein Fake ist. X-D
dargo
2012-04-12, 07:14:37
ich glaub du fehlinterpretierst das etwas. vermutlich wird in der engine vieles gethreaded, was eigentlich kaum last erzeugt bzw. voneinander abhängig ist oder aufeinander wartet und da wird wahrscheinlich auch der ein oder andere API-call dabei sein was die unterschiede bei amd und nvidia erklärt.
Ich verstehe immer noch nicht warum AMD das bei ihren Grafiktreibern besser im Griff hat. Falls du da mehr wissen tust nur zu... gerne auch über PN.
robbitop
2012-04-12, 08:00:13
Gejammert wird doch jedes mal. Erst waren es DualCores du schwer auszunutzen sind. Dann waren es QuadCores. Als nächstes wird eben bei 8 Kernen gejammert.
Es ist ja nicht so, als ob die Erfarung der Programmierer nicht zunehmen würde und die Engines verbessern sich auch.
Man schaue sich mal an, wie Half Life 2 auf der PS3 aussieht und vergleicht diese HL2 Version mit der zukünftigen CS:GO Grafik.
Am Anfang jammern alle rum aber das ist der Lauf der Entwicklung. Würde man nur jammern wären wir noch bei SingleCores.
Es ist sicher nicht alles Single Threaded. Aber der wirkliche Gewinn durch die ganzen Threads erschließt sich uns nicht. Wir sehen nur, dass CPUs mit weniger Cores als Threads untergehen wegen des Context Switchings.
Ich glaube, du stellst dir das zu einfach vor.
Ich sage ja nicht das es einfach ist aber so unmöglich wie du es manchmal darstellst ist es bei weitem nicht. Zumal 8 Kerne gerade mal eine Verdopplung darstellen. Einige Programmierer werden schon sabbern und sich freuen diese Leistung investieren zu können.
So wie in Smartphones? :ugly:
Genau genommen gibt es schon Smartphones mit 5 Kernen. ;)
:rolleyes: In Anwendungen. Nicht die Hardware.
Edit: Ich hoffe mal, dieses Gerücht mit den 4C/16T basiert nicht auf Grundlage dieses Bildes (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9244817#post9244817), da es immerhin ein Fake ist. X-D
Nein nein. Das war einfach nur eine Spekulation. Weil es gut reinpassen würde.
Weil das Timing ein anders ist wenn eine andere CPU verwendet wird? Und damit die Arbeit ueber den Frame anders verteilt ist. Sich natuerlich auch selbst blockiert, da wir alle noch ausschiesslich mit Locks arbeiten. Das sind aber Dinge die sind fuer eine Konsole irrelevant. Aber trotzdem muss man sagen das der PC viel von der Xbox profitiert hat. Und genauso werden auch zukuenftige PCs von einer Konsole mit vielen HW-Threads profitieren.
An welchen Spielen hast du eigentlich welche Sachen programmiert?
Mancko
2012-04-12, 09:17:49
Ganz ehrlich - AMD hat hier einfach ein Luftschloss mit Bulldozer gebaut. Völlig am Markt vorbeientwickelt. Für Serveranwendungen brauchbar, für den Rest leider der Konkurenz deutlich unterlegen. Ich verstehe nicht wie die so naiv sein konnten. Da haben da m.E. völlig auf das falsche Pferd gesetzt und das lässt sich jetzt nicht mehr so schnell korrigieren.
robbitop
2012-04-12, 11:21:27
Ganz ehrlich - AMD hat hier einfach ein Luftschloss mit Bulldozer gebaut. Völlig am Markt vorbeientwickelt. Für Serveranwendungen brauchbar, für den Rest leider der Konkurenz deutlich unterlegen. Ich verstehe nicht wie die so naiv sein konnten. Da haben da m.E. völlig auf das falsche Pferd gesetzt und das lässt sich jetzt nicht mehr so schnell korrigieren.
Das ist kein Bulldozerthread...
Für Konsolen hat man anderes Optimierungspotenzial. Da steht BD sicher auch nicht schlecht da. Ich vermute (weiß es aber nicht genau), dass Intel, was Single Thread Performance sowieso eine eigene Liga ist. Da kommt auch kein Power 7 oder sonstwas mit. Insofern wird der Bulldozer, wenn man Intel jetzt mal ausklammert, und auch andere CPUs und Architekturen in den Topf tut, sicher schon eine relativ gute CPU sein, was Singlethread Spiele IPC angeht.
Iterator
2012-04-12, 20:10:49
Ich vermute (weiß es aber nicht genau), dass Intel, was Single Thread Performance sowieso eine eigene Liga ist. Da kommt auch kein Power 7 oder sonstwas mit. Insofern wird der Bulldozer, wenn man Intel jetzt mal ausklammert, und auch andere CPUs und Architekturen in den Topf tut, sicher schon eine relativ gute CPU sein, was Singlethread Spiele IPC angeht.
Was die Single Thread Performance angeht, ist in der Tat Intel (Xeon E5(2690) auf
dem obersten Podest, gefolgt von anderen Intel CPU`s.Der IBM Power 7
kann da halbwegs mithalten(obwohl auch nicht das Hauptanwendungsgebiet)
und steht in der Disziplin auch noch weit besser da als der Konkurrent aus dem
Hause AMD.
Was die ganze Diskussion um die kommende CPU für die nächste Xbox Generation angeht, gehe ich mal davon aus, das wieder kleine Power
PC Kerne genommen und um starke Vector Einheiten ergänzt werden, die die eigentliche Rechenleistung bringen.Power 7 Kerne währen zwar
auch nice, aber schleppen eine Menge Ballast mit sich rum(4 double-Precision Floating-Point Units,12 Execution Units usw)die im HPC Bereich
toll sind, aber in der Spiele Programmierung bestimmt nicht benötigen wird(bitte mich verbessern, komme nicht aus der Spiele Programmierung)
,in dem Fall werden wohl die Kerne auf das notwendigste reduziert.
Was die endgültige Performance angeht, wird die Qualität und
Leistung der Entwicklungsumgebung wohl den entscheidenen Punkt aus machen,
gerade in Anbetracht von immer mehr Kernen, da kann sonst die CPU, bzw das
System sonst noch so performant sein, wenn ich es nicht schaffe die Ressourcen
performance orientiert ein zu setzen.
dildo4u
2012-04-12, 20:27:55
BD's IPC wird in der dritten Rev schon deutlich besser sein,ich vermute sogar das man ein Modell ohne L3 Cache nutzen wird um Kosten zu sparen.Jede 2013 Mainstream Option ist was IPC angeht ein massiver Sprung vom In-order Xenon.
y33H@
2012-04-12, 20:33:10
Ein E5-2690? Nope, der geht "nur" bis 3,8 GHz - Singlethread ist ein E3-1290 das Maß aller Dinge, weil der mit glatten 4,0 GHz rennt. Der L3 und die Bandbreite sind hier nicht entscheidend idR.
Deinorius
2012-04-12, 20:34:19
,in dem Fall werden wohl auf die Kerne auf das notwendigste reduziert.
Na das hoff ich doch. Das wird von einigen hier eh schon propagandiert und zwar zurecht. Gerade bei den GPUs sind sich viele einig. Ein GTX 580 würde im Vergleich zu einem 560 keinen Sinn machen, da zuviel GPGPU Ballast drin ist. (Das ist nur ein Vergleich, sonst nix, ich glaube nicht, dass diese Leistung kommen wird.)
Was die endgültige Performance angeht, wird die Qualität und
Leistung der Entwicklungsumgebung wohl den entscheidenen Punkt aus machen,
gerade in Anbetracht von immer mehr Kernen, da kann sonst die CPU, bzw das
System sonst noch so performant sein, wenn ich es nicht schaffe die Ressourcen
performance orientiert ein zu setzen.
Full Ack! Allein schon die Tatsache, dass das Ausreizen der Ressourcen immer kostspieliger wird, hoffe ich doch, dass die Hersteller damit den Entwicklern entgegen kommen.
Da kommt auch kein Power 7 oder sonstwas mit.
Da täuscht du dich. Power7 ist in der gleichen Liga, schon allein durch den riesigen DRAM-L3.
Trinity scheint bei gleicher BD TDP deutlich stärker zu werden.
Ich würde da mal abwarten...
robbitop
2012-04-13, 09:28:46
Da täuscht du dich. Power7 ist in der gleichen Liga, schon allein durch den riesigen DRAM-L3.
Der würde in Spielen gleichschnell sein wie ein Core i7 (gleicher Takt und gleiche Kernzanzahl)? Das ist für mich nur sehr schwer vorstellbar.
dargo
2012-04-13, 10:43:12
BD's IPC wird in der dritten Rev schon deutlich besser sein,ich vermute sogar das man ein Modell ohne L3 Cache nutzen wird um Kosten zu sparen.
Das wird man aus Platzgründen sicherlich tun. Nur... die höhere IPC der neuen Revision wird durch den Wegfall vom L3 wieder völlig aufgefressen.
Der würde in Spielen gleichschnell sein wie ein Core i7 (gleicher Takt und gleiche Kernzanzahl)? Das ist für mich nur sehr schwer vorstellbar.
Bin mir relativ sicher, ja.
Das Ding ist ja auch ein Monster was die Ausführungs-Resourcen angeht.
AnarchX
2012-04-13, 11:00:51
Aber ist das wirklich eine gute Basis zur Beurteilung? Bulldozer sah auf dem Papier auch nicht so schlecht aus.
robbitop
2012-04-13, 11:22:40
Bin mir relativ sicher, ja.
Das Ding ist ja auch ein Monster was die Ausführungs-Resourcen angeht.
Interessant. Also deutlich fixer pro Takt als ein K10 Kern? Ist sein Front End und sein Cachesystem ähnlich fix, wie das von Intel?
Locuza
2012-04-13, 12:48:49
Interessant. Also deutlich fixer pro Takt als ein K10 Kern? Ist sein Front End und sein Cachesystem ähnlich fix, wie das von Intel?
Ein Fingerzeig was man von einem Power7 erwarten kann, bietet folgender Artikel.
http://www.tecchannel.de/server/prozessoren/2016541/test_die_schnellsten_cpus_im_benchmark_vergleich/
dargo
2012-04-13, 12:49:32
Apropo GDDR5 Preise:
http://geizhals.at/de/759777
http://geizhals.at/de/761763
2GB GDDR5 1500Mhz kosten also 70€ mehr, Endkundenpreis wohl gemerkt. Ist natürlich nicht perfekt vergleichbar da unterschiedliche Shops. Dennoch... im Einkauf dürften das wohl eher ~35-40€ sein. Zudem muss man hier auch beachten, dass Nvidia den schnellsten, verfügbaren GDDR5 verbaut. Die Dinger mit 1000Mhz dürften noch einiges weniger kosten.
Gipsel
2012-04-13, 13:42:00
Ein Fingerzeig was man von einem Power7 erwarten kann, bietet folgender Artikel.
http://www.tecchannel.de/server/prozessoren/2016541/test_die_schnellsten_cpus_im_benchmark_vergleich/
Also liegt das Topmodell von Power7 ziemlich in der Mitte zwischen Intel und AMD in der Single-Thread-Leistung.
Die Frage wäre, was bleibt davon übrig, wenn man das auf ein konsolengeeignetes Format zusammenschrumpft? Man sollte nicht vergessen, daß die Power7 recht groß sind (GT200-Größe, 576 mm²) und auch entsprechenden Stromverbrauch aufweisen (zwar nicht mehr ganz so hoch wie Power6, aber 200W+ sind trotzdem nicht zu verachten). Sicher wird man mit dem Shrink auf 32nm (Power7+) und mit nur 4 Kernen was rausholen können, aber ob man in einer Konsolenvariante das Ding auf deutlich über 4GHz taktet, wage ich noch ein wenig zu bezweifeln. Ich würde erstmal nur mit maximal ~4GHz rechnen, damit der Stromverbrauch im Rahmen bleibt (weniger würde mich aber auch nicht wundern, man will ja wahrscheinlich CPU+GPU auf unter 200W bekommen).
Der Tecchannel-Vergleich in SpecInt2006 sieht einen Power7 mit 4,14GHz ~30% vor einem BD mit 3,0/3,3GHz (Opteron 4284), der hat also pro Takt nur ~4% mehr Performance als BD (ich nehme mal an, der BD lief im Turbotakt von 3,3GHz, ansonsten wäre BD schon schneller pro Takt als Power7 bei Singlethread-Last). Das könnte Piledriver schon gutmachen. Dann stellt sich die Frage, wie hoch bekommt man die jeweils getaktet in einem Power-Budget von vielleicht 70W für die CPU alleine? Und wieviel hilft dem Power7 das SMT bei >8 Threads (4 Kerne mit 4fach SMT = 16 Threads, 4 PD-Module hätten ja nur 8 Threads)? Und wie gut könnte man einen wahrscheinlichen Vorteil von Power7 mit >8Threads noch ausnutzen? Überwiegt das einen eventuellen Vorteil von PD bei <=8 Threads?
robbitop
2012-04-13, 13:58:54
Ein Fingerzeig was man von einem Power7 erwarten kann, bietet folgender Artikel.
http://www.tecchannel.de/server/prozessoren/2016541/test_die_schnellsten_cpus_im_benchmark_vergleich/
Im Integertest Singlecore (vieleicht ein geeigneter Indikator für Spiele)
braucht der Power 7 4,14 GHz, um mit einem Core i5 mit 3,3 GHz mithalten zu können. Das wären taktnormiert 25 % mehr IPC für Intel - was mich nicht überrascht! Setze ich den Opteron taktnormiert dagegen scheint der Power 7 in diesem Test in etwa auf K10 Höhe zu sein.
http://www.tecchannel.de/_misc/galleries/detail.cfm?pk=30888&fk=2157057
Floating Point, was in Spielen nicht limitiert, ist der Power 7 offenbar ziemlich stark. Liegt aber auch an seinen großen Ausführungsressourcen. In Spielen lastet man die kaum aus. Außerdem dürfte AVX und später breitere Formen das ganze dann ausgleichen.
dildo4u
2012-04-13, 14:01:10
Was wollt ihr mit dem Takt normiert?Power 7 erreicht den im alten 45nm verfahren wird also eher besser sein in 32nm bzw man wird ihn halten und den Verbrauch verringern.
robbitop
2012-04-13, 14:06:04
Man sollte nicht vergessen, daß die Power7 recht groß sind (GT200-Größe, 576 mm²) und auch entsprechenden Stromverbrauch aufweisen (zwar nicht mehr ganz so hoch wie Power6, aber 200W+ sind trotzdem nicht zu verachten).
Das Ding hat 8x Kerne bei 576 sqmm? Bei 4x Kernen sähe Abwärme und Fläche schon gleich viel freundlicher aus. Dazu 32 nm oder gar 28 nm und den ganzen unnützen I/O Kram raus und die µ-Arch so abwandeln, dass die FPU etwas anwendungsgemäßer / kleiner ausfällt und schon sieht das ganze nicht mehr so schlimm aus. Dann bekäme man das sicher auf gute < 200 sqmm hin.
Wirklich viele Optionen hat man IMO nicht, wenn man es wirklich ernst meint:
Intel, IBM, AMD. Intel fällt IMO raus, da zu teuer und keine Fremdfertigung.
Natürlich gibt es noch ARM und ARM-ISA-Lizenznehmer wie Qualcomm und NV. Aber Qualcomm hat nichts hochperformantes in der Pipe - Krait und A15 wären für eine schnelle Konsole IMO zu lahm. NV hätte Denver, der ja nicht explizit für den mobilen Betrieb ausgelegt ist. Aber der kommt zu spät (20 nm IIRC).
Bleiben also realistischerweise nur noch IBM und AMD.
Was wollt ihr mit dem Takt normiert?Power 7 erreicht den im alten 45nm verfahren wird also eher besser sein in 32nm bzw man wird ihn halten und den Verbrauch verringern.
Es ging eben um Single Threaded IPC. Deshalb taktnormiert.
Power ist ein Serverprozessor und da kann er sich auch Abwärme erlauben. Aber in einer Konsole sehen die Bedingungen eben anders aus. Auf dem Markt verfügbare Hochtaktdesigns zeigen alle, dass hoher Takt idR mit hoher Abwärme verbunden ist. Siehe P4, siehe Bulldozer, siehe Power 6 und 7.
dildo4u
2012-04-13, 14:11:39
Also die Konsolen lagen was den Takt angeht lange vorne gegen Core 2 und K10.
http://de.wikipedia.org/wiki/AMD_Phenom
http://en.wikipedia.org/wiki/List_of_Intel_Core_2_microprocessors
Bis Ende 2008
del_4901
2012-04-13, 14:16:31
Im Integertest Singlecore (vieleicht ein geeigneter Indikator für Spiele)
Floating Point, was in Spielen nicht limitiert, ist der Power 7 offenbar ziemlich stark. Liegt aber auch an seinen großen Ausführungsressourcen. In Spielen lastet man die kaum aus.
Falsch, Floatingpoint Leistung ist in Spielen viel wichtiger als die Integer Leistung. Zumal die Singlethreaded Leistung ziehmlich egal sein wird, weil der Power7 nicht dafuer entwickelt wurde und eine Konsolenprogrammierer letztenendes alles nutzen muss was ihm gegeben wurde. Und beim naechsten mal kannst du etwas unaufaelliger die Statistik raussuchen, welche am besten in deine vorherige Argumentation passen koennte.
Locuza
2012-04-13, 14:21:24
Das Ding hat 8x Kerne bei 576 sqmm? Bei 4x Kernen sähe Abwärme und Fläche schon gleich viel freundlicher aus. Dazu 32 nm oder gar 28 nm und den ganzen unnützen I/O Kram raus und die µ-Arch so abwandeln, dass die FPU etwas anwendungsgemäßer / kleiner ausfällt und schon sieht das ganze nicht mehr so schlimm aus. Dann bekäme man das sicher auf gute < 200 sqmm hin.
Laut Roadmap hat IBM Power 7+ als 32nm Port vorgesehen.
http://regmedia.co.uk/2011/08/28/ibm_power_processor_roadmap.jpg
Einen ersten Vorgeschmack bekommen wir ja sowieso " bald " von der Wiiu geliefert, wenn diese einen Custom Power 7 haben wird.
robbitop
2012-04-13, 14:28:27
Falsch, Floatingpoint Leistung ist in Spielen viel wichtiger als die Integer Leistung. Zumal die Singlethreaded Leistung ziehmlich egal sein wird, weil der Power7 nicht dafuer entwickelt wurde und eine Konsolenprogrammierer letztenendes alles nutzen muss was ihm gegeben wurde. Und beim naechsten mal kannst du etwas unaufaelliger die Statistik raussuchen, welche am besten in deine vorherige Argumentation passen koennte.
Du lastest jeden Takt die volle AVX Leistung jedes Kernes einer aktuellen CPU bei Spielecodes aus? :eek:
Seltsam, dass du genau das Gegenteil behauptest von allen anderen Entwicklern und CPU-Gurus hier im Forum (bspw. BBSR).
Nach deren Aussagen ist unsortierter integerlastiger Code sehr ähnlich dem Code bei Spielen.
Für welche Plattform hast du denn welchen Teile welcher Spiele programmiert?
Analogie: AMDs CPUs waren sehr sehr gut bei parallelem und FP lastigem Code. Intels besser bei Integercode. Je weiter es Singlethreaded war, desto mehr wuchs der Abstand zwischen AMDs und Intels. Und wo haben seit Core 2 die Intels die AMDs ganz böse verhauen? Bei Spielen.
Wenn wirklich alles so super parallel und FP lastig wäre, wie du sagst, wäre die Situation ausgeglichener...
Also die Konsolen lagen was den Takt angeht lange vorne gegen Core 2 und K10.
http://de.wikipedia.org/wiki/AMD_Phenom
http://en.wikipedia.org/wiki/List_of_Intel_Core_2_microprocessors
Bis Ende 2008
Das waren auch die letzten in Order Designs mit sehr schwacher IPC. Der Pentium 4 hatte schon 2002 3 GHz. So what. Apples & Oranges. Ich meine natürlich OoO CPUs mit anständiger IPC.
del_4901
2012-04-13, 16:12:01
Du lastest jeden Takt die volle AVX Leistung jedes Kernes einer aktuellen CPU bei Spielecodes aus? :eek:
Jaja, leg dir das nur so zurecht wie du es brauchst. SPECfp testet nicht nur reinen (AVX) vector durchsatz. Tendenziell wird eben nur mehr mit floats als mit integern 'hantiert' und gerechnet. Leider ist 2006 der mesa test rausgeflogen. Dafuer duerfte povray aber nahe an dem sein was zumindest der Renderer einer Engine macht (Octree traversal etc.)
Der SPECint ist sehr KI(gobmk, sjeng, astar) dominierend was tendenziell fuer Games natuerlich nicht irrelevant ist. Was ueber die KI hinaus die Gamelogic und Management angeht sicherlich auch sehr aussagekraeftig. Aber das ist kein Performance relevanter und Zeitkritischer Teil einer Gameengine, und auch genau der Teil der sich sehr schlecht Multithreaden laesst.
Seltsam, dass du genau das Gegenteil behauptest von allen anderen Entwicklern und CPU-Gurus hier im Forum (bspw. BBSR).
Nach deren Aussagen ist unsortierter integerlastiger Code sehr ähnlich dem Code bei Spielen. Bist du hier nur das Sprachrohr fuer Andere, oder faellt es dir nur schwer Dir eine eigene Meinung zu bilden?
robbitop
2012-04-13, 16:55:18
Jaja, leg dir das nur so zurecht wie du es brauchst. SPECfp testet nicht nur reinen (AVX) vector durchsatz. Tendenziell wird eben nur mehr mit floats als mit integern 'hantiert' und gerechnet. Leider ist 2006 der mesa test rausgeflogen. Dafuer duerfte povray aber nahe an dem sein was zumindest der Renderer einer Engine macht (Octree traversal etc.)
Der SPECint ist sehr KI(gobmk, sjeng, astar) dominierend was tendenziell fuer Games natuerlich nicht irrelevant ist. Was ueber die KI hinaus die Gamelogic und Management angeht sicherlich auch sehr aussagekraeftig. Aber das ist kein Performance relevanter und Zeitkritischer Teil einer Gameengine, und auch genau der Teil der sich sehr schlecht Multithreaden laesst.
Die Frage, die sich mir stellt, ist, was welchen Anteil hat und was am Ende den Flaschenhals darstellt.
Wäre FP der Flaschenhals würden die AMDs doch sicher wesentlich besser dastehen in Spielen, oder nicht? Der K10 und der Bulldozer sind was Multithread und FP angeht doch relativ gut ausgestattete CPUs.
http://www.tecchannel.de/_misc/galleries/detail.cfm?pk=30888&fk=2157052&resize=true
Hier liegen sie taktnormiert relativ gleich auf.
Warum stehen die so schlecht da gegenüber den Core i?
Bist du hier nur das Sprachrohr fuer Andere, oder faellt es dir nur schwer Dir eine eigene Meinung zu bilden?
Was hast du denn nun programmiert im Spielebereich?
del_4901
2012-04-13, 17:09:27
Die Frage, die sich mir stellt, ist, was welchen Anteil hat und was am Ende den Flaschenhals darstellt.
Wäre FP der Flaschenhals würden die AMDs doch sicher wesentlich besser dastehen in Spielen, oder nicht? Der K10 und der Bulldozer sind was Multithread und FP angeht doch relativ gut ausgestattete CPUs.
http://www.tecchannel.de/_misc/galleries/detail.cfm?pk=30888&fk=2157052&resize=true
Hier liegen sie taktnormiert relativ gleich auf.
Dir ist schon aufgefallen, das der eine Bulldozer in dem Graphen ein 16 Kerner ist. Nun normalisiere das nochmal nach Kernen und dann kannst du deine Schlussfolgerungen nochmal neu formulieren.
robbitop
2012-04-13, 17:12:25
Nein ich meinte den Opteron 4184 Quadcore @2,8 GHz gegen den Core i5 mit 3,3 GHz (auch Quadcore). Taktnormiert sind die ziemlich ähnlich schnell.
Was hast du denn nun programmiert im Spielebereich?
Da du auf wiederholte Nachfrage nicht antwortest, gehe ich davon aus, dass du an keiner modernen komerziellen Spieleengine mitentwickelt hast?
Gipsel
2012-04-13, 17:18:00
Der SPECint ist sehr KI(gobmk, sjeng, astar) dominierend was tendenziell fuer Games natuerlich nicht irrelevant ist. Was ueber die KI hinaus die Gamelogic und Management angeht sicherlich auch sehr aussagekraeftig. Aber das ist kein Performance relevanter und Zeitkritischer Teil einer Gameengine, und auch genau der Teil der sich sehr schlecht Multithreaden laesst.
Durch den blauen Teil Deiner Aussage ergibt sich automatisch, daß der rote Teil irgendwann falsch wird, insbesondere bei Architekturen, die auf viele Threads setzen. ;)
del_4901
2012-04-13, 17:21:20
Nein ich meinte den Opteron 4184 Quadcore @2,8 GHz gegen den Core i5 mit 3,3 GHz (auch Quadcore). Taktnormiert sind die ziemlich ähnlich schnell.
Druckfehler der 4184 ist ein 6 Kerner.
Durch den blauen Teil Deiner Aussage ergibt sich automatisch, daß der rote Teil irgendwann falsch wird, insbesondere bei Architekturen, die auf viele Threads setzen. ;)
Warum? Ich gehe davon aus, das wir im Bereich Gamelogic und Management nich mehr soviel Code dazu bekommen, welcher zudem noch keinen Signifikanten Anteil darstellt. Und damit steh ich nicht alleine da:
http://www.st.cs.uni-saarland.de/edu/seminare/2005/advanced-fp/docs/sweeny.pdf
http://graphics.cs.williams.edu/archive/SweeneyHPG2009/TimHPG2009.pdf
robbitop
2012-04-13, 17:23:09
Druckfehler der 4184 ist ein 6 Kerner.
http://www.tecchannel.de/_misc/galleries/detail.cfm?pk=30888&fk=2157055&resize=true
Hier ist der AMD 6140 Octacore ziemlich ähnlich schnell wie der Intel X7560 Octa Core.
Multithread + FP ist so schlecht nicht für AMD. Dominieren tun sie das Feld aber auch nicht mehr. Aber sie verlieren nicht mehr so stark wie in Int + Single Thread.
Mr.Magic
2012-04-13, 17:26:01
Also die Konsolen lagen was den Takt angeht lange vorne gegen Core 2 und K10.
http://de.wikipedia.org/wiki/AMD_Phenom
http://en.wikipedia.org/wiki/List_of_Intel_Core_2_microprocessors
Bis Ende 2008
Ahem. Selbst meine E4300 Krücke lies sich auf 3,3Ghz takten.
Abgesehen davon ist Takt sowieso irrelevant. Architektur ist viel wichtiger.
del_4901
2012-04-13, 17:34:14
http://www.tecchannel.de/_misc/galleries/detail.cfm?pk=30888&fk=2157055&resize=true
Hier ist der AMD 6140 Octacore ziemlich ähnlich schnell wie der Intel X7560 Octa Core.
Multithread + FP ist so schlecht nicht für AMD. Dominieren tun sie das Feld aber auch nicht mehr. Aber sie verlieren nicht mehr so stark wie in Int + Single Thread.
Aehnlich bei hoeherem Takt fuer den AMD der immernoch weniger Punkte bekommt? Schau das naechste mal bitte genau hin, bevor du irgendwelche Spekulationen 'belegen' moechtest.
Stebs
2012-04-13, 18:15:31
Also entweder schreibt die PC Games Hardware Blödsinn, oder ich hab bisher alles falsch verstanden: Playstation 4: Gerüchteküche vermutet native OpenGL-Unterstützung (http://www.pcgameshardware.de/aid,877764/Playstation-4-mit-OpenGL-Geruecht/Konsolen/News/):
..."Wer heute für die Playstation 3 programmiert, muss erzwungenermaßen den Umweg über die Playstation 3-Schnittstelle LibGCM gehen." ...(bei der PS 4) "Wird OpenGL nativ vom System genutzt, braucht es keine Umschweife mehr für die Entwickler."
Ist es nicht eher so, dass die PS3 auch nativ OpenGL ES (nicht ganz konformes/abgewandeltes 2.0) unterstützt, wer aber alles aus der Kiste holen will, muss eh immer LibGCM benutzen, quasi CloseToMetal.
Und dass die PS 4 dann auch nativ OpenGL unterstützt, ist jetzt nicht so der Brüller, wer da alles rausholen will, muss wohl früher oder später auch weiter CloseToMetal gehen?
Und bei der Unreal-Engine 3 reden sie von notwendigem Emulator für die PS3, hat die Engine tatsächlich kein Libgcm Backend?
Niemand verwendet OpenGL auf der PS3
Aber was PCGH da schreibt ist trotzdem großflächig ahnungslos.
Stebs
2012-04-13, 18:25:02
Niemand verwendet OpenGL auf der PS3Das ist ja bekannt, jedoch schrieben sie: "Einer der größten Ärgernisse für Playstation 3-Entwickler ist die fehlende Unterstützung von OpenGL." - Ich dachte bisher aber, dass OpenGL (ES) sicher nice-to-have ist, aber man meist eh näher ran an die Hardware muss. Insofern würde man bei der PS 4 (zumindest später) dann auch näher an die Hardware ran. Der Artikel dreht das ganze aber etwas um.
Edit:
Ok, die Original Quelle ist etwas klarer: "with the PS3, OpenGL" (eher OpenGL ES 2.0 aber ohne standard GLSL) "is emulated on top of LibGCM."
Erstaunt mich dass die PS3 keine "nativen" OpenGL ES (2.0) Treiber haben soll und sowas wie Angle macht.
Jedenfalls sollte mit richtigen OpenGL 4+ Treibern auf der PS4 tatsächlich schon einiges gehen, aber um wirklich alles herauszuholen, wird man wohl früher oder später auch da noch "tiefer" runtergehen?
Iterator
2012-04-13, 19:31:33
Wenn Du wirklich bis ins letzte Quäntchen optimieren willst, wirst Du
direkt auf die Register, bzw Low Level runter gehen müssen, wird
ja im Konsolen Bereich bei fortgeschrittener Lebensdauer wieso
praktiziert, passieren kann ja direkt nichts, die Hardware ist ja
immer die gleiche.
Gipsel
2012-04-13, 19:42:55
Warum? Ich gehe davon aus, das wir im Bereich Gamelogic und Management nich mehr soviel Code dazu bekommen, welcher zudem noch keinen Signifikanten Anteil darstellt. Und damit steh ich nicht alleine da:
http://www.st.cs.uni-saarland.de/edu/seminare/2005/advanced-fp/docs/sweeny.pdf
http://graphics.cs.williams.edu/archive/SweeneyHPG2009/TimHPG2009.pdf
Okay, Du gehst also davon aus, daß Spiele in Zukunft nicht mehr komplexer werden. Gut, aber ich glaube das nicht.
Übrigens hat Tim Sweeney da ein paar lustige Abschätzungen drin. Nicht nur hat er im Jahre 2005 vorhergesagt, man hätte 2009 CPUs mit 80+ Threads. Auch in der Präsentation von 2009 muß man die vorhergesagten möglichen Performance-Steigerungen im Zeitraum 2012-2020 richtig interpretieren. Er spricht da für einen 8-Jahreszeitraum von einer Performancesteigerung um Faktor 1024 für das Shading. Das kommt maximal hin, wenn man mit reinem CPU-Rendering anfängt und auf eine GPU (bzw. eine entsprechende durchsatzoptimierte Architektur) umsteigt, also nicht so richtig zu vergleichen mit der heutigen Praxis. Aber egal, er propagiert ja die Rückkehr zum Softwarerendering (die dann halt auf GPU-ähnlichen durchsatzoptimierten Prozessoren läuft).
Auf diesen evolvierten Architekturen soll dann auch gleich der ganze Rest ausgeführt werden. So meint er, daß damit Faktor 64 für die Gameplay-Simulation (hey, wieso will er das eigentlich Faktor 64 beschleunigen, wenn das sowieso keinen merklichen Anteil der Last darstellt?) durch entsprechende Umsetzungen zu erzielen sind, genau wie bei Physik und KI. Achja, dafür (Gameplay + Physik/Wegfindung/KI) veranschlagt er übrigens 50% des kompletten Rechen(zeit)bedarfs, die anderen 50% gehen für das Shading drauf. Das stellt also sehr wohl einen recht kräftigen Anstieg zu heute dar. Ohne Multithreading (welches wie er beschreibt alles andere als straightforward bzw. mit heutigen Mitteln schwer möglich ist) hat man da besser eine ordentliche Single-Thread-Leistung.
y33H@
2012-04-13, 19:50:07
Aber was PCGH da schreibt ist trotzdem großflächig ahnungslos.Um den Kollege mal in Schutz zu nehmen: PCGH ist nicht die Quelle und da steht auch nicht, dass die PS3 auf OGL setzen würde.
del_4901
2012-04-13, 19:59:03
Okay, Du gehst also davon aus, daß Spiele in Zukunft nicht mehr komplexer werden. Gut, aber ich glaube das nicht. Der naechste der versucht spritzfindig zu werden? Ich hab geschrieben das im Logic und Management Bereich nicht mehr merklich viel dazu kommen wird. Das sind so simple Dinge wie die Menuefuehrung, Input, Scripting sowie zum gewissen Teil auch der (durch die HDD beschraenkte) Ladecode (Setup und Decompression ist wieder gut parallelisierbar) etc.
Auf diesen evolvierten Architekturen soll dann auch gleich der ganze Rest ausgeführt werden. So meint er, daß damit Faktor 64 für die Gameplay-Simulation (hey, wieso will er das eigentlich Faktor 64 beschleunigen, wenn das sowieso keinen merklichen Anteil der Last darstellt?) durch entsprechende Umsetzungen zu erzielen sind, genau wie bei Physik und KI. Achja, dafür (Gameplay + Physik/Wegfindung/KI) veranschlagt er übrigens 50% des kompletten Rechen(zeit)bedarfs, die anderen 50% gehen für das Shading drauf. Das stellt also sehr wohl einen recht kräftigen Anstieg zu heute dar. Ohne Multithreading (welches wie er beschreibt alles andere als straightforward bzw. mit heutigen Mitteln schwer möglich ist) hat man da besser eine ordentliche Single-Thread-Leistung. Update, Simulation, Physik, Collision, AI, Path finding, Picking, Rendering fallen nicht unter "Gamelogic und Management" und sind parallelisierbar. Hier wiederspricht sich also Niemand.
Übrigens hat Tim Sweeney da ein paar lustige Abschätzungen drin. Nicht nur hat er im Jahre 2005 vorhergesagt, man hätte 2009 CPUs mit 80+ Threads. Auch in der Präsentation von 2009 muß man die vorhergesagten möglichen Performance-Steigerungen im Zeitraum 2012-2020 richtig interpretieren. Er spricht da für einen 8-Jahreszeitraum von einer Performancesteigerung um Faktor 1024 für das Shading. Das kommt maximal hin, wenn man mit reinem CPU-Rendering anfängt und auf eine GPU (bzw. eine entsprechende durchsatzoptimierte Architektur) umsteigt, also nicht so richtig zu vergleichen mit der heutigen Praxis. Aber egal, er propagiert ja die Rückkehr zum Softwarerendering (die dann halt auf GPU-ähnlichen durchsatzoptimierten Prozessoren läuft).
Das der gute Mann in seinen feuchten Wuenschen was die Art und Leistung der Hardware anbelangt etwas uebereifrig war, kann man Ihm nicht nachtragen. Ich buch das als gesunden Aktionismus ab, fuer Jemanden der in der R&D taetig ist. Immerhin ist er auch Jemand der darauf noch grossen Einfluss ausueben kann.
Gipsel
2012-04-13, 20:48:13
Update, Simulation, Physik, Collision, AI, Path finding, Picking, Rendering fallen nicht unter "Gamelogic und Management" und sind parallelisierbar. Hier wiederspricht sich also Niemand.Und die Gameplay Simulation ist genau das Problem, auf das ich hinaus wollte. Das Fette ist laut Sweeney schon etwas problematischer zu parallelisieren (das läuft bei ihm bis heute single-threaded, für die Parallelisierung will Sweeney transactional memory haben, was bisher nicht existiert, womit man dann seiner Meinung bis 2020 einen Speedup von 64 rausholen könnte) und würde für mich zur "game logic" mit dazu zählen. Immerhin wird da der grundlegende Ablauf in der Spielwelt festgelegt.
Darstellung der Situation:
http://www.abload.de/img/sweeney_2005tvaph.png
Seine Vorstellung für die Zukunft:
http://www.abload.de/img/sweeney_2009liz1y.png
Iterator
2012-04-13, 20:55:41
Wie sind eigentlich die Chancen das wir im Grafikbereich, mit Einführung der nächsten Xbox eine
neue Innovation erleben dürfen, sprich einen gestackten Grafikchip, damit meine ich jetzt nicht
zusätzlichen angebundenen gestackten Speicher, sondern direktes Dice Stacking !
Es wäre ja nicht das erste mal, das mit einer neuen Generation, eine neue Technik eingeführt
wird, oder ist die nächste Konsolen Generation für diese Technik zu früh dran ?
del_4901
2012-04-13, 21:16:49
Und die Gameplay Simulation ist genau das Problem, auf das ich hinaus wollte. Das Fette ist laut Sweeney schon etwas problematischer zu parallelisieren (das läuft bei ihm bis heute single-threaded, für die Parallelisierung will Sweeney transactional memory haben, was bisher nicht existiert, womit man dann seiner Meinung bis 2020 einen Speedup von 64 rausholen könnte) und würde für mich zur "game logic" mit dazu zählen. Immerhin wird da der grundlegende Ablauf in der Spielwelt festgelegt.
Darstellung der Situation:
http://www.abload.de/img/sweeney_2005tvaph.png
Seine Vorstellung für die Zukunft:
http://www.abload.de/img/sweeney_2009liz1y.png
Der von mir propagierte PowerPC A2 Kern hat eine HTM Implementierung. Allerdings muss man dazu sagen das TM zwar viele Probleme loesen kann, dafuer aber neue Arten von Problemen hervorbringt. Man kann dann zusaetzlich zum Speicher auch Rechenleistung 'leaken'. :ugly: Aber wenn man nicht auch mal was riskiert, dann wird man nie in der oberen Liga spielen.
Update laesst sich auch noch ohne TM mit "Data Oriented Design" Ansaetzen und immutable State loesen ohne das man gleich auf funktionale Sprachen ausweichen muss.
Bei Simulation wird man Grid basierte Ansaetze fahren wo die Granularitaet so gewaehlt wird, dass man wenig syncronisieren muss und HTM einem wirklich was bringt.
Knuddelbearli
2012-04-13, 21:51:08
Wie sind eigentlich die Chancen das wir im Grafikbereich, mit Einführung der nächsten Xbox eine
neue Innovation erleben dürfen, sprich einen gestackten Grafikchip, damit meine ich jetzt nicht
zusätzlichen angebundenen gestackten Speicher, sondern direktes Dice Stacking !
Es wäre ja nicht das erste mal, das mit einer neuen Generation, eine neue Technik eingeführt
wird, oder ist die nächste Konsolen Generation für diese Technik zu früh dran ?
bei quasi 0
3D Stacking außerhalb von Intel dürfte frühestens 2015 massemarktauglich sein. Selbes gilt für Interposer usw
Gipsel
2012-04-13, 22:41:58
3D Stacking außerhalb von Intel dürfte frühestens 2015 massemarktauglich sein. Selbes gilt für Interposer uswXilinx benutzt die schon bei ihren FPGAs. ;)
Xilinx benutzt die schon bei ihren FPGAs. ;)
Vermutlich meint er Active Interposers.
Was wurde eigentlich aus dem passiven Interposer, den es mal gerüchteweise für die PS4 geben sollte, geworden? Da liest man inzwischen nichts mehr drüber. AMD hatte das doch mit Amkor geprototypt und für Ende 2013 angekündigt?
Edit:
Inzwischen redet Amkor von Mitte 2014... Das ist wohl zu spät für PS4.
robbitop
2012-04-16, 09:55:01
Aehnlich bei hoeherem Takt fuer den AMD der immernoch weniger Punkte bekommt? Schau das naechste mal bitte genau hin, bevor du irgendwelche Spekulationen 'belegen' moechtest.
Es sind taktnormiert dennoch nur 20 %. Der Vorsprung von Intel ist dort nicht so hoch wie bei INT.
del_4901
2012-04-16, 11:06:57
Es sind taktnormiert dennoch nur 20 %. Der Vorsprung von Intel ist dort nicht so hoch wie bei INT.
Ja, und was moechtest du uns damit jetzt sagen? Das intel generell schneller ist?
robbitop
2012-04-16, 12:27:15
Dass der Intvorsprung deutlich höher ist. Der FP Vorsprung ist nur moderat. In Spielen zeigt sich ein Bild, was eher dem Intvorsprung entspricht.
Avalox
2012-04-16, 12:49:00
In Spielen zeigt sich ein Bild, was eher dem Intvorsprung entspricht.
Ich muss mir nur ansehen, was die aktuellen Konsolen so auf den Bildschirm zaubern und was ein PC mit 10 facher CPU und 20 facher GPU Leistung, plus 32 fache Speicherausstattung Leistung so auf dem Bildschirm ernüchtert.
Ich denke da spielten selbst völlig unrealistische 50% CPU Leistungsvorsprung gar keine Geige. Es ist schlicht eine Sache des in der Entwicklung hinein gesteckten Aufwands proportional dem erwarteten Ergebnis und der notwendigen Abstraktionsebenen.
del_4901
2012-04-16, 12:49:02
Dass der Intvorsprung deutlich höher ist. Der FP Vorsprung ist nur moderat. In Spielen zeigt sich ein Bild, was eher dem Intvorsprung entspricht.
Und das hast du jetzt alles aus einem SPEC Benchmark bei zwei sehr speziellen CPUs rausgelesen wo in den anderen SPEC Benchmarks und bei anderen CPUs der Unterschied groesser ausgefallen ist? Findest du nicht das es sich dabei um einen Ausreißer gehandelt haben koennte? Zumal sich bestimmt auch Spielebenchmarks konstruieren lassen wo der Unterschied dann genau 20% entspricht. :rolleyes:
robbitop
2012-04-16, 12:53:39
Und das hast du jetzt alles aus einem SPEC Benchmark bei zwei sehr speziellen CPUs rausgelesen wo in den anderen SPEC Benchmarks und bei anderen CPUs der Unterschied groesser ausgefallen ist? Findest du nicht das es sich dabei um einen Ausreißer gehandelt haben koennte? Zumal sich bestimmt auch Spielebenchmarks konstruieren lassen wo der Unterschied dann genau 20% entspricht. :rolleyes:
Stell dich nicht dümmer als du bist. :rolleyes: Es geht natürlich um den breiten Schnitt.
Welche Spiele hast du nochmal entwickelt...? ;)
Ich muss mir nur ansehen, was die aktuellen Konsolen so auf den Bildschirm zaubern und was ein PC mit 10 facher CPU und 20 facher GPU Leistung, plus 32 fache Speicherausstattung Leistung so auf dem Bildschirm ernüchtert.
Ich denke da spielten selbst völlig unrealistische 50% CPU Leistungsvorsprung gar keine Geige. Es ist schlicht eine Sache des in der Entwicklung hinein gesteckten Aufwands proportional dem erwarteten Ergebnis und der notwendigen Abstraktionsebenen.
Gesetz des abnehmenden Grenzertrags. Für eine deutliche optische Steigerung muss enorm viel mehr aufgewendet werden.
Wo viel Leistungsunterschied verschluckt wird: Details, LoD, Textur- und Geometriedetails, Auflösung, AA/AF und Framerate.
Konsolenspiele auf meiner X360 zuckelt mit z.T deutlich unter 30 fps in < 720p Auflösung mit niedrigen Details ohne AA/AF mit Matschtexturen über den Bildschirm.
Auf dem PC gibt es ja fast nur noch Ports. Also muss man die "überschüssige" Leistung mit all diesen Dingen einsetzen. Was PC exklusiv möglich ist, zeigt die Samarithan Demo und viele andere moderne Techdemos sehr gut.
Es gibt ein paar Crysis Mods (Partikel Mod, Texturen-, Shadermods), die aktuelle Rechner sehr gut auslasten, die ebenfalls zeigen, was möglich ist. Da sehen heutige Konsolen kein Land.
Aber natürlich werden die Sprünge von Generation zu Generation subjektiv immer kleiner. Eben wegen des Grenzertrags...
del_4901
2012-04-16, 12:56:35
Stell dich nicht dümmer als du bist. :rolleyes: Es geht natürlich um den breiten Schnitt.
Um den breiten Schnitt den du grad missacht hast, indem du krampfhaft nach einem Beispiel gesucht hast, was in deine Argumentation passen koennte?
robbitop
2012-04-16, 13:07:50
Um den breiten Schnitt den du grad missacht hast, indem du krampfhaft nach einem Beispiel gesucht hast, was in deine Argumentation passen koennte?
Es passt nunmal sehr, wenn man sich in Performanceratings die Spiele IPCs heraussucht.
Dagegen hält man die Ergebnisse aus verschiedenen synthetischen Tests und schaut, was am besten zusammenpasst. Das ist zumindest ein Indiz. Kein Beweis. Aber ein Indiz wo der Flaschenhals stecken könnte, der für diesen Vorsprung den größten Anteil hat ist.
Dieser untermauert die Aussagen, die andere Spieleentwickler gaben, die moderne Spiele für aktuelle Konsolen entwickeln.
del_4901
2012-04-16, 13:20:47
Es passt nunmal sehr, wenn man sich in Performanceratings die Spiele IPCs heraussucht.
Dagegen hält man die Ergebnisse aus verschiedenen synthetischen Tests und schaut, was am besten zusammenpasst. Das ist zumindest ein Indiz. Kein Beweis. Aber ein Indiz wo der Flaschenhals stecken könnte, der für diesen Vorsprung den größten Anteil hat ist.
Dieser untermauert die Aussagen, die andere Spieleentwickler gaben, die moderne Spiele für aktuelle Konsolen entwickeln.
Die Aussage hat nur einen Fehler in der Grundannahme die SPEC Benchmarks sind nicht synthetischer Natur, sondern sind aus Problemen und Programmen der praktischen Informatik zusammengestellt.
robbitop
2012-04-16, 13:31:38
Aber immerhin haben sie jeweils einen klaren Schwerpunkt oder nicht? Int, FP, Singlecore, Multicore. Es sind damit zwar keine Einzelsynthies mehr aber immerhin ein sehr themenlastiger Synthieschnitt.
del_4901
2012-04-16, 13:46:01
Aber immerhin haben sie jeweils einen klaren Schwerpunkt oder nicht? Int, FP, Singlecore, Multicore. Es sind damit zwar keine Einzelsynthies mehr aber immerhin ein sehr themenlastiger Synthieschnitt.
Natuerlich haben sie ein Schwerpunkt, genau wie Spiele den Schwerpunkt FP haben. Aber das heißt beides noch lange nicht das der Code nur aus floatingpoint Operationen besteht. Ein sehr großer Teil wird immernoch aus Memory- und Contolflow- etc. Operationen bestehen. Welche zum Teil auch auf der ALU ausgefuert werden. Was aber nicht bedeuten soll das deswegen FP kein Schwerpunkt mehr ist.
Deinorius
2012-04-19, 10:22:34
Eine neue Studie belegt (http://www.computerbase.de/news/2012-04/spielekonsolen-verbrauchen-70-prozent-ihres-stroms-im-idle-modus/), dass der meiste Strom im Idle-Zustand verbraucht. Durch die neuen Funktionen ist das keine große Überraschung, gerade wenn man schon lesen konnte, dass die Xbox 360 oder PS3 in den USA sehr oft für Videos und Musik verwendet wird.
Ich nehme schon länger an, dass die neuen Konsolen einen eigenen Idle-State spendiert bekommen werden. Naja, bei der Wii U bin ich mir nicht sicher, aber bei den beiden anderen kann man wohl davon ausgehen.
Deinorius
2012-04-19, 11:41:20
Noch etwas, das ich zufällig gefunden habe. Keine Ahnung, ob das schon jemand kennt, aber es gab ja schon einige Stimmen, die sich gut vorstellen konnten, dass es in Zukunft auch Konsolen mit SSDs geben könnte.
Nun ja, laut diesen Benchmarks (http://www.cnet.de/praxis/tv-gaming/41524893/page/3/sony_playstation_3_mit_ssd_laufwerk_aufruesten_lohnt_sich_das.htm) sieht es eher nicht danach aus. Selbst ohne Benchmarks braucht man sich nur PC-Benchmarks anzusehen, um festzustellen, dass es für Konsolen nur weniger bringen kann, wenn die Spiele für Disc-Betrieb optimiert sind.
Mr.Magic
2012-04-19, 11:52:35
dass es in Zukunft auch Konsolen mit SSDs geben könnte.
Du meinst damit sicherlich als Standardlaufwerk. Konsolen mit SSD gibt es jetzt schon. Hauptsächlich PS3 und Xbox (nix 360).
In meiner 360 steckt allerdings auch eine 128GB C300.
robbitop
2012-04-19, 14:17:46
Du meinst damit sicherlich als Standardlaufwerk. Konsolen mit SSD gibt es jetzt schon. Hauptsächlich PS3 und Xbox (nix 360).
Aber nicht als Standardauslieferung oder? Und genau darum geht es ja. Ansonsten profitiert man davon nicht.
In meiner 360 steckt allerdings auch eine 128GB C300.
Wie hast du das denn gemacht? Ich dachte die X360 akzeptiert nur ganz wenige HDD Modelle.
Bringt es denn was?
Screemer
2012-04-19, 14:30:31
Aber nicht als Standardauslieferung oder? Und genau darum geht es ja. Ansonsten profitiert man davon nicht.
die xbox360 arcade hat doch seit 2008 256mb flash. is auch nix anderes ;)
Deinorius
2012-04-19, 15:10:45
Du meinst damit sicherlich als Standardlaufwerk.
Natürlich, direkt vom Hersteller ohne Modifikation, alles andere ist bei diesen Spekulationen uninteressant. Es wäre natürlich interessant, ob die Next-Gen Konsolen mehr von SSDs profitieren könnten, aber ich erwarte selbst dann keinen allzu großen Vorsprung und schon mal gar keinen, der es Herstellern rechtfertigen würde, ein eigenes Modell mit SSD anzubieten.
Es gibt auch keine Platzersparnis, da man so oder so einen Raum für ein 2,5" Gehäuse lassen müsste. Ich könnte mir zwar vorstellen, dass eine der beiden Next-Gen Konsolen in einer Arcade-Variante sogar ohne Laufwerk daher kommen könnte (eher bei der Xbox als bei der PS4 - die PS4 müsste weiterhin Blu-Ray-Wiedergabe anbieten - andererseits könnte Sony allein schon wegen dem Wettbewerb mitmachen), um einerseits Kosten und Platz zu sparen, andererseits um den Online-Markt voranzutreiben, welcher mit der kommenden Generation mehr denn je beworben werden wird. Aber dieser Umstand verhindert den Einbau einer SSD vollständig, denn dafür ist die Kapazität um Potenzen wichtiger als die Schnelligkeit. Nonanet.
Bringt es denn was?
Du meinst sicher für User, die wert darauf legen. Denn aus der Preisvariante sicher nicht, was der Link ausreichend beweisen dürfte, obwohl mir auch Erfahrungswerte lieber wären als Balkendiagramme.
die xbox360 arcade hat doch seit 2008 256mb flash. is auch nix anderes ;)
Darum geht es nicht. M$ bietet nur eigene HDDs in einem eigenen Gehäuse für die Xbox an. Der gleiche Umstand gilt z.B. auch für diverse Receiver mit eingebauter HDD. Die akzeptieren nur bestimmte Modelle bzw. Hersteller.
robbitop
2012-04-19, 15:21:49
Sinnvoll wäre es eventuell als Streamingcache / RAM Erweiterung. Natürlich nicht über SATA angebunden sondern direkt. 4-8 GiB und zwar ordentlich schnell.
Wird vermutlich keiner machen, da das die BOM hochtreibt (ich denke mal, dass MS / Sony das für 3-4 Kröten bekäme).
Die PSP2000 nutzte ihre RAM-Erweiterung ebenfalls als Streaming Cache. Ladezeiten, Betriebsgeräusch und Energieverbrauch verbesserten sich dadurch.
Deinorius
2012-04-19, 16:16:37
Das wäre wirklich interessant. Schön wäre es, wenn sich die beiden erbarmen würden.
Crytek: Next-gen used games block 'would be absolutely awesome'
http://www.computerandvideogames.com/344972/crytek-next-gen-used-games-block-would-be-absolutely-awesome/?cid=OTC-RSS&attr=CVG-News-RSS
Awesome... jo :freak:
Iruwen
2012-04-26, 12:40:48
Für 'ne bessere Grafikdemo hätte ich auch ohne Raubkopien nichts bezahlt, das ist immer die gleiche bescheuerte Milchmädchenrechnung. Die Musikindustrie hats nicht begriffen, die Filmindustrie begreifts nicht und die Spieleindustrie zieht mit.
Für 'ne bessere Grafikdemo hätte ich auch ohne Raubkopien nichts bezahlt
Immer die gleiche Leier. Es wird langweilig.
nampad
2012-04-26, 15:58:36
Für 'ne bessere Grafikdemo hätte ich auch ohne Raubkopien nichts bezahlt, das ist immer die gleiche bescheuerte Milchmädchenrechnung. Die Musikindustrie hats nicht begriffen, die Filmindustrie begreifts nicht und die Spieleindustrie zieht mit.
Wie kommst du vom Thema Gebrauchtspiele plötzlich auf Raubkopien? Unnötige Verschiebung des Themas.
Felixxz2
2012-04-26, 18:42:48
Ich finds halt einfach abartig, dass Crytek Gebrauchtkäufer als quasi Diebe darstellt, die nicht für Spiele zahlen wollen.
Das ist so unglaublich krank....sie stellen legale Basisrechte unserer Gesetze als Straftat dar, sagen "das tut weh". Wie kann man nur so Tatsachen und Werte verdrehen, nur weil man Profitgeil ist? :mad:
Es ist ein Grundrecht in der EU, dass man Waren privat gebraucht weiterverkaufen darf und zwar ALLES.
Kann man eigentlich gegen Gebrauchtspielsperren klagen? Ich mein das ist doch klar gegen geltendes Recht und in anderen Branchen (Filme, Autos, alles andere) kommt auch niemand auf so ne völlig dumme Idee.
Ich glaube du solltest mal lieber nicht so viel reininterpretieren. Die Aussage war, dass es aus einer Business-Perspektive gut wäre, mehr nicht. Als Dieb wird hier überhaupt niemand bezeichnet.
Übrigens ist ein Grundrecht etwas, was in der Verfassung steht und das tut das Weiterverkaufsrecht von Software sicher nicht. Soweit ich weiß gibt es da gar nichts, was erfordert, dass man an DRM gebundene Software weiterverkaufen können muss (sonst wäre ja auch Steam illegal).
Ich halte übrigens auch nichts von Sperren von Gebraucht-Software-Verkäufen und finde, dass die EU da tatsächlich mal ein starkes Gesetz für die Verbraucher erlassen sollte. Mich ärgert es schon lange, dass man einzelne Titel aus der Steam-Library nicht weiterverkaufen darf.
MuLuNGuS
2012-04-27, 14:48:29
genau,
auch soft-ware ist eine ware die ich weiterverkaufen möchte ;)
Tesseract
2012-04-27, 23:19:58
Es ist ein Grundrecht in der EU, dass man Waren privat gebraucht weiterverkaufen darf und zwar ALLES.
wenn es denn eine ware wäre.
abgesehen davon, dass es früher mangels internet software nur auf datenträgern gab hat software mit ware außer dem namen eigentlich überhaupt nix zu tun sondern ist viel eher eine dienstleistung.
software weiterverkaufen macht rein logisch keinen sinn es sei denn sie ist bestandteil einer ware.
wenn dir spiele ohne weiterverkauf zu teuer sind reg dich lieber über den eigentlichen preis auf.
sHenker
2012-04-29, 14:36:34
wenn es denn eine ware wäre.
abgesehen davon, dass es früher mangels internet software nur auf datenträgern gab hat software mit ware außer dem namen eigentlich überhaupt nix zu tun sondern ist viel eher eine dienstleistung.
Dienstleistungen sind Tätigkeiten, Waren sind Gegenstände. Zu behaupten spiele wäre dienstleistungen ist damit vergleichbar zu behaupten, dass "putzen" ein Gegenstand wäre.
Felixxz2
2012-04-29, 14:44:34
Dienstleistungen sind Tätigkeiten, Waren sind Gegenstände. Zu behaupten spiele wäre dienstleistungen ist damit vergleichbar zu behaupten, dass "putzen" ein Gegenstand wäre.
Dito. Spiele sind Waren, da die Entwickler an einer Ware arbeiten und diese erstellen, wie auch beim Film oder beim Schreiner von nebenan. Bei einer Dienstleistung nimmt mir ein anderer Arbeit ab, das tun Spiele sicher nicht.
Bei anderer Software das selbe. Software nimmt mir vielleicht Arbeit ab und leistet mir Dienste, das aber erst in zweiter Instanz. Primär muss die Software vom Entwickler geschrieben, hergestellt werden. Das macht sie zu einer Ware.
Tesseract
2012-04-29, 15:00:34
Dienstleistungen sind Tätigkeiten, Waren sind Gegenstände. Zu behaupten spiele wäre dienstleistungen ist damit vergleichbar zu behaupten, dass "putzen" ein Gegenstand wäre.
nein ist es nicht. dieser vergleich ist vollkommen zusammenhangslos.
der wert der software liegt ausschließlich in der tätigkeit der entwicklung. die software selbst kannst du nahezu kostenfrei kopieren so oft du willst und die kopie ist nicht vom original unterscheidbar. die bitfolge die du kopierst hat selbst keinen wert und ist nicht materiell gebunden. software hat einfach nichts mit "ware" zu tun. ware ist höchstens der datenträger auf dem sie kommen kann.
der wert der software liegt allein in der nutzung und die kosten der schaffung liegen nahezu ausschließlich in der entwticklung (wenn man marketing usw. mal ausklammert).
software ist genau genommen weder ware noch dienstleistung, aber den eigenschaften nach ist sie wesentlich näher an einer dienstleistung als an einer ware.
looking glass
2012-04-29, 15:44:20
Da läuft doch gerade was in der Hinsicht, hatte nicht ein deutsches Gericht da was in Richtung EUGH "abgeschoben" was das Thema Verkauf von Gebrauchtsoftware anbelangt? Bin mir ziemlich sicher diese Woche was bei heise gelesen zu haben, mom ich suche mal...gefunden:
http://www.heise.de/newsticker/meldung/EU-Gutachten-staerkt-Software-Wiederverkaeufer-1546493.html
Screemer
2012-04-29, 19:58:48
na da bin ich mal gespannt was raus kommt. der bgh sagt nein zum weiterverkauf von digital erworbener software (download/preinstall) ohne datenträger, fragt aber beim eugh an. sollten die da anders entscheiden, dann dürfte steam trading richtig in mode kommen und ihre registrierungs voucher für onlineplay/etc. können sie sich dann auch in die haare schmieren.
Knuddelbearli
2012-04-29, 23:39:40
naja steam ist eine sache aber wie siehts es mit datenträger aus ?
Felixxz2
2012-04-30, 08:03:06
Das dürfte eng verbunden sein, da sehr viel an Spielen, auch wenn als DVD gekauft, bei Steam/Origin etc registriert werden muss.
Gerüchteküche:
http://www.ign.com/articles/2012/05/03/is-microsoft-already-manufacturing-the-next-xbox
The next Xbox console is apparently in the manufacturing stages. According to an IGN source, assembly of the next-generation Xbox hardware started recently at the Austin, Texas branch of Flextronics. This is the same electronics company currently assembling Xbox 360 hardware, and is the manufacturer of the original Xbox.
Silentbob
2012-05-04, 14:01:56
Gerüchteküche:
http://www.ign.com/articles/2012/05/03/is-microsoft-already-manufacturing-the-next-xbox
Schon in Produktion?
Wohl kaum, Vorstellung E3, Release im Winter? hmmm...
:wink:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.