Archiv verlassen und diese Seite im Standarddesign anzeigen : Current Generation-Konsolen: Playstation 5 & Xbox Series S/X (Lockhart/Anaconda)
N0Thing
2015-01-24, 10:52:16
Es wird in vier Jahren keine echte 10nm Fertigung geben, wie es auch heute keine echte 28nm oder 20nm Fertigung gibt. Vielleicht gibt es bis dahin von Intel ein Marketing 10nm und ebenso mit viel Glück von TSMC und GloFo.
Aber selbst wenn es wirklich schnell gehen sollte mit der Fertigung, liegen deine Spezifikationen im Bereich von High-End-PCs (doppelte bis dreifache Leistung eines GM200, 15% mehr Leistung als ein Core i7-5960X) was Leistung und Abwärme und Preis betrifft. Wäre sicher eine coole Konsole, aber die würde dann eben um die 1000€ kosten, 300W verbrauchen und so laut sein, dass sich niemand das Ding ins Wohnzimmer stellen würde.
Aber das haben ja eigentlich schon genug Leute versucht, zu vermitteln.
Slashman
2015-01-24, 11:00:44
Es wird in vier Jahren keine echte 10nm Fertigung geben, wie es auch heute keine echte 28nm oder 20nm Fertigung gibt. Vielleicht gibt es bis dahin von Intel ein Marketing 10nm und ebenso mit viel Glück von TSMC und GloFo.
Aber selbst wenn es wirklich schnell gehen sollte mit der Fertigung, liegen deine Spezifikationen im Bereich von High-End-PCs (doppelte bis dreifache Leistung eines GM200, 15% mehr Leistung als ein Core i7-5960X) was Leistung und Abwärme und Preis betrifft. Wäre sicher eine coole Konsole, aber die würde dann eben um die 1000€ kosten, 300W verbrauchen und so laut sein, dass sich niemand das Ding ins Wohnzimmer stellen würde.
Aber das haben ja eigentlich schon genug Leute versucht, zu vermitteln.
Also 28nm sind echte 28nm wie auch 20nm echte 20nm sind. Nur 16/14nm sind FinFet Techniken, aber bisher war alles echt. Und laut dem MIT ist bis 1nm alles möglich, den ein Atom ist 0,2nm groß. Klar wird es nicht leicht.
Nein meine Anforderungen sind sehr moderat.
Sollte es eine echte 10nm GPU geben (nicht FinFet Technik) wäre das locker bis dahin Mittelklasse. Wir reden ja nur von 8x Leistung zu Heute.
Frage wie viel schneller ist eine GTX 980 28nm gegenüber einer GTX 285 55nm?
Januar 2009 bis Januar 2015 hat sich die Leistung um Faktor 6-8 oder mehr erhöht und dabei ist die GTX 980 sparsamer, kleiner als die GTX 285 (die ja schon kleiner ist als eine GTX 280). Warum ist es von 55nm zu 28nm möglich, aber von 28nm zu 7-10nm soll es unmöglich sein? Immerhin reden wir hier von 2012 (28nm Erscheinen) zu 2019 (erscheinen des ersten PS5 Prototyps auf Basis einer ???? R9 570X)
Du kannst ja nicht wissen was in 4 Jahren für neue Wafer benutzt werden. GF, TSMC und Samsung werden die Silizium Wafer wohl dann kaum nutzen:
http://rockstarresearch.com/moores-law-has-foreseeable-path-to-2035/ Es werden neue arten von Wafer kommen aus anderem stabileren Material mit weniger Problemen bei kleinen Struckturen. Silicon-Germanium ist zum Beispiel eine Idee oder etwas auf Graphit basis wohl möglich auch ein anderes Mineral, aber bis 1nm ist alles möglich.
mboeller
2015-01-24, 12:51:22
...
Also ist nach 20nm schluss und AMD, Intel, nvidia werden keine echten neuen Grafikkarten bringen. 14/16nm Finfet oder gar 10nm FinFet werden alles 20nm Chips sein... die Technologie ist also am Limit... Das glaube ich nicht. Kann sein das es dann wohl möglich so wie stacked RAM auch Stacked GPUs geben wird oder was anderes, aber an ein Limit glaube ich nicht.
Wenn die Fertigung schon jetzt am Limit ist und es bis 2019 keine echten 10nm gibt ist TSMC, GF, Samsung und Intel am Arsch!
Ich probier es noch ein letztes Mal:
lies dir mal das hier durch... und such um Gotteswillen endlich mal nach weiterführenden Informationen über die Prozesstechnologie anstatt immer nur die guten alten Trends linear weiterzudenken.
http://ispd.cc/slides/2014/keynote_Aitken.pptx
Der Typ ist von ARM und hat die anstehenden Änderungen mal zusammengefasst. Mit einfach weiter so ist halt nicht. 20nm ist wirklich der letzte normale Process-Node... und 28nm, siehe den Nvidia-Slide für die nächsten Jahre der mit Abstand günstigste (pro Transistor). Ende Gelände für billige Consumer-Elektronik!
Nur weil 7nm technologisch machbar sind heißt das noch lange nicht das sie bezahlbar sind.
Sollte es eine echte 10nm GPU geben (nicht FinFet Technik) wäre das locker bis dahin Mittelklasse. Wir reden ja nur von 8x Leistung zu Heute.
wie oft den noch... NEIN! wenn du dir die Keynote durchliest eher 2,5x mehr Leistung!
Slashman
2015-01-24, 13:37:54
Ich probier es noch ein letztes Mal:
lies dir mal das hier durch... und such um Gotteswillen endlich mal nach weiterführenden Informationen über die Prozesstechnologie anstatt immer nur die guten alten Trends linear weiterzudenken.
http://ispd.cc/slides/2014/keynote_Aitken.pptx
Der Typ ist von ARM und hat die anstehenden Änderungen mal zusammengefasst. Mit einfach weiter so ist halt nicht. 20nm ist wirklich der letzte normale Process-Node... und 28nm, siehe den Nvidia-Slide für die nächsten Jahre der mit Abstand günstigste (pro Transistor). Ende Gelände für billige Consumer-Elektronik!
Nur weil 7nm technologisch machbar sind heißt das noch lange nicht das sie bezahlbar sind.
wie oft den noch... NEIN! wenn du dir die Keynote durchliest eher 2,5x mehr Leistung!
Einer von ARM sagt das... Ich halte gegen, Intel, TSMC, Samsung, das MIT, Global Foundries gehen davon aus, das echte 5nm noch drin sein werden innerhalb von 10 Jahren. Also du kommst mit ARM und ich mit dem ganzen Rest. IBM hat zuletzt glaube ich einen Transistor auf 2nm Basis zum laufen gebracht.
Aber am besten rufe bei den anderen an und sag ARM hat gesagt ihr könnt es nicht gebt auf... schaltet das Werk ab, die Forschung soll eingestellt werden und schickt alle nach Hause... 20nm ist das Limit.
Ich sagte auch nie es wird so billig wie jetzt 28nm, aber ob jetzt die APU 100€ oder später für die selbe größe 150€ kostet ist doch egal. Es ist nunmal nötig das man auf 7nm oder wenigstens echte 10nm kommt. Sonst wird 4K Gaming nie zum standard... Es kann sein das der Preis steigt am Anfang pro Wafer, aber der Prozess wird Optimiert, die Yieldrate verbessert und die Fertigung im laufe der Zeit einfacher. Auch das die Technik im laufe der Jahre teurer wird ist ja wohl klar. So wie jetzt wo man eine 250mm² GPU im Sonderangebot bekommt und es viel Angebot gibt wird es wohl 2019 nicht mehr geben. Auch werden Nvidia und AMD wohl von dem 500mm² Konzept bis dahin abschied nehmen, weil gewinn wird unterhalb von 400mm² GPUs gemacht.
Der Kunde (0815) hat keine Ahnung von nm, Chips und Technik. Er würde keine PS5 oder einen PC kaufen der nach 10 Jahren nur 2x so schnell ist. Er sieht wow die PS5 kann jetzt immer 1080p und 60 FPS bei gleicher Grafik zur PS4 mit 1080p und 30 FPS... Super und nun?
Er erwartet 4K Grafik mit 60 FPS und das setzt im idealfall nunmal 8x Leistung quasi vorraus (wenn auch der Detailgrad etwas steigen soll und die Bildrate oben bleiben soll).
Locuza
2015-01-24, 13:55:56
Slashman, definiere mal "echte" 28/20 nm.
Slashman
2015-01-24, 14:00:00
Slashman, definiere mal "echte" 28/20 nm.
Naja 16/14nm FinFet sind ja eigentlich abkömlinge von 20nm, da Teile des Chips dann noch immer in 20nm gefertigt werden. Bei 28nm hingegen wird so viel ich weiß alles vom Transistor bis zu den schaltwegen in 28nm gefertigt. Daher ist ein 28nm Chip auch wirklich maximal halb so groß wie ein 40nm Chip mit selber Transistormenge und ähnlichem Chip. Anders gesagt ist 14nm FinFet maximal 30% besser als 20nm, da es ja im Grunde noch 20nm ist.
Als Beispiel:
Ein 65nm Chip ist auch etwa 4x so groß wie ein 32nm Chip bei gleicher Komplexität. Bzw. Wenn man den i7 860 mit 45nm vs 22nm Ivy Bridge vergleicht kommt na auch auf 1/3 oder so? Da jedoch der Ivy Bridge eine Onboard GPU hat und jeder Kern größer/komplexer ist gleicht sich das wieder aus.
Locuza
2015-01-24, 14:41:30
Maximal halb so groß, also Faktor 0,5?
Oder könnte er ein wenig größer sein?
0,505 oder 0,53 oder 0,54?
Wenn das über einige Jahre nicht genau 0,5 beträgt, wie viele nm verliert man dann am Ende, obwohl man den zukünftigen Prozessen immer Full-Node Namen gibt? ;)
http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/Intel-Broadwell-Infos-Mobile-Desktop-1132054/
Bei 28nm hingegen wird so viel ich weiß alles vom Transistor bis zu den schaltwegen in 28nm gefertigt.
Nochmal langsam zum Mitschreiben.
Die nm Angaben habe seit langer langer Zeit nichts mehr mit realen Größen zu tun.
Slashman
2015-01-24, 16:04:48
Nochmal langsam zum Mitschreiben.
Die nm Angaben habe seit langer langer Zeit nichts mehr mit realen Größen zu tun.
Ok dann ist ja trotzdem 14nm FinFet viel besser als 28nm (was auch immer).
Wenn eine HD 5870 mehr als 2x so viele Transistoren hat in 40nm wie eine HD 4890 in 55nm und dabei sparsamer und schneller wird (1600 Shader vs 800 Shader bzw. 32 ROPs/80 TMUs vs 16 ROPs/40 TMUs) und der Chip wurde kaum größer (956 mio Transistoren, ca. 290mm² vs 2,1 mrd Transistoren bei 334mm²).
Naja also muss doch was kleiner geworden sein in den letzten Jahren. Auch bei 28nm vs 40nm wurden die Chips kleiner (um einiges) bei gleicher Transistormenge.
Da kann man ganz leicht Bonaire und Cypress vergleichen beide haben etwa 2,08 bzw 2,1 mrd Transistoren. Der Cypress ist in 40nm jedoch 334mm² und der Bonaire dank 28nm nur 160mm² groß?
Also bringen diese neuen Fertigungen doch Platzeinsparungen ohne Ende. Bei jeder neuen Stufe wurde bisher ein Chip immer halb so groß wie die Stufe davor außer bei 65nm zu 55nm (war ja nur ein kleiner Sprung).
Also wenn doch 28nm nicht kleiner oder kaum kleiner wie 40nm sein soll warum ist der Chip dann nahezu halb so groß bei gleicher Transistorzahl?
Naja könnte mich irren, aber auch wenn 28nm in echt 32nm und 40nm in echt 50nm sind ist doch egal... Die Chips werden kleiner von mir aus dürfen die 14nm FinFet auch 1nm Ultra Small nennen, wenn dabei Platz gewonnen wird wie bisher ist es doch wurst.
Gehen wir davon aus, das es halbwegs so weiter geht:
20nm = fast 1,8x mehr Transistoren als 28nm bei gleicher größe
16nm FinFet = 1,3x mehr Transistoren als 20nm bei gleicher größe
14nm FinFet = 1,2x mehr Transistoren als 16nm FinFet bei gleicher größe
10nm FinFet = 1,8x mehr Transistoren als 14nm FinFet bei gleicher größe
7 nm FinFet = 2,0x mehr Transistoren als 10nm FinFet bei gleicher größe
Wenn man also als basis die PS4 APU nimmt mit seinen 4,4 mrd Transistoren (oder mehr) bei 350mm² die es jetzt hat (also CPU und GPU zusammen).
kommt man so auf 40 mrd Transistoren später bei 7nm ohne große Probleme bei noch immer etwa 350mm² Falls jedoch nicht so wie früher Platz eingespart wird (was ich nicht glaube), dann nicht uner 20mrd Transistoren bei 300mm² in 6 Jahren.
drkohler
2015-01-24, 16:17:11
Naja 16/14nm FinFet sind ja eigentlich Abkömmlinge von 20nm, da Teile des Chips dann noch immer in 20nm gefertigt werden. Bei 28nm hingegen wird so viel ich weiß alles vom Transistor bis zu den Schaltwegen in 28nm gefertigt.
Als Beispiel:
Ein 65nm Chip ist auch etwa 4x so groß wie ein 32nm Chip bei gleicher Komplexität. Bzw. .Ich habe dir doch gesagt, der 32nm cell in der PS3 ist genau halb so gross (flächenmässig) als der frühere 65nm cell chip. Das sind keine Geheim-Zahlen, die kannst du ergooglen (der 45nm cell chip etwa wurzel2 mal).
Weiterhin habe ich die gesagt, dass in einem Intel 22nm nichts, aber auch überhaupt nichts 22nm gross ist (die minimale Strukturgrösse ist etwa 74nm). Auch das kannst du ergooglen (in einem kürzlichen Vortrag eines Intel-Chipdesigners).
Intel ist den anderen Foundries z.T. um Jahre voraus, was die Prozesstechnologie betrifft. Wenn Intel es (zur Zeit) nicht schafft, die Marketingstrukturen tatsächlich technisch zu erreichen, dann schaffen das die anderen Foundries mit Sicherheit auch nicht. Nichts in einem 28nm Chip ist tatsächlich 28nm gross (man geht von etwa Faktor 3 aus wie bei Intel, aber daas hat noch niemand wirklich bestätigt).
Du bist anscheinend einfach zu faul, dir die Tatsachen selber erarbeiten zu wollen (weil wir in deinen Augen ja alle "Aersche" sind laut deinen früheren Postings).
Deine Träume eines High-End PCs in einem Konsolengehäuse sind genau das: Träume. Grob geschätzt, wenn es bezahlbar bleiben soll, liegt ein Fakor 2 drin, wenn es wirklich teuer wird, vielleicht ein Faktor 3.
Slashman
2015-01-24, 16:23:07
Ich habe dir doch gesagt, der 32nm cell in der PS3 ist genau halb so gross (flächenmässig) als der frühere 65nm cell chip. Das sind keine Geheim-Zahlen, die kannst du ergooglen (der 45nm cell chip etwa wurzel2 mal).
Weiterhin habe ich die gesagt, dass in einem Intel 22nm nichts, aber auch überhaupt nichts 22nm gross ist (die minimale Strukturgrösse ist etwa 74nm). Auch das kannst du ergooglen in einer kürzlichen Vortrag eines Intel-Chipdesigners.
Intel ist den anderen Foundries z.T. um Jahre voraus, was die Prozesstechnologie betrifft. Wenn Intel es (zur Zeit) nicht schafft, die Marketingstrukturen tatsächlich technisch zu erreichen, dann schaffen daas die anderen Foundries mit Sicherheit auch nicht. Nichts in einem 28nm Chip ist tatsächlich 28nm gross (man geht von etwa Faktor 3 aus wie bei Intel, aber daas hat noch niemand wirklich bestätigt).
Du bist anscheinend einfach zu faul, dir die Tatsachen selber erarbeiten zu wollen (weil wir in deinen Augen ja alle "Aersche" sind laut deinen früheren Postings).
http://en.wikipedia.org/wiki/PlayStation_3_technical_specifications#Configurations
Du Unwissender der Cell wird nicht in 32nm gefertigt sondern in 45nm und das ist die kleinste Version... Also ist der Cell 45nm halb so groß wie ein 65nm. Ich rede natürlich vom Slim und Superslim... Es gibt keine 32nm bei der PS3... Oh man denkt was ihr wollt.
Also wenn doch 28nm nicht kleiner oder kaum kleiner wie 40nm sein soll warum ist der Chip dann nahezu halb so groß bei gleicher Transistorzahl? (Cypress 40nm/2,1mrd Transistoren 334mm² vs Boniare 28nm/2,08mrd Transistoren bei 160mm²) Nach deiner Logik dürfte das erst ein 20nm Chip erreichen? wieso dann bei 28nm... warum ist dann ein 40nm Chip bei etwa gleicher Transistorzahl halb so groß wie ein 55nm Chip?
Bisher war von 90nm zu 80nm zu 65nm zu 40/45nm zu 28nm immer etwa halbe größe erreicht worden... Du weißt nicht mal das der Cell nicht in 32nm gefertigt wird und willst das als beweis nehmen. Aber ja ich will mich nicht erkundigen... wer hat sich jetzt mal wieder geirrt? ist der Cell in 32nm oder nicht hmmm... schwer zugeben zu müssen das du dich irrst.
Ich habe dir Cypress (2,1mrd) vs Bonaire (2,08mrd) also 40nm vs 28nm gezeigt die Chips werden locker halb so groß. Und es ist dann egal ob 28nm eigentlich 65nm ist und 16nm im Grunde 40nm ist... willst du oder kannst du es nicht verstehen... Sie werden auch bei 14nm FinFet locker halb so große Chips sein wie in 28nm... locker! Finde erstmal einen gegenbeweis und nicht so eine leere Behauptung wie bei Cell = 32nm... Echte News dazu am besten von 3D Center, Computerbase und nicht deiner Fantasy. Das ein Server Cell Prozessor in 32nm existiert glaube ich dir, aber in der PS3 nicht... Nebenbei war das geplant... von Produktion war nie die Rede.
Ich habe dor doch oben Beispiele genannt... Der Cell wird nicht in 32nm gefertigt.
Also ist 45nm (wie ich sagte) nur halb so groß wie 65nm.... Ich hatte Recht... Man wenn ihr schon auf schlau/wissend macht dann bitte mit den richtigen Infos...
Weil ich ehrlich gesagt zu Faul bin das neu zu schreiben:
Ok dann ist ja trotzdem 14nm FinFet viel besser als 28nm (was auch immer).
Wenn eine HD 5870 mehr als 2x so viele Transistoren hat in 40nm wie eine HD 4890 in 55nm und dabei sparsamer und schneller wird (1600 Shader vs 800 Shader bzw. 32 ROPs/80 TMUs vs 16 ROPs/40 TMUs) und der Chip wurde kaum größer (956 mio Transistoren, ca. 290mm² vs 2,1 mrd Transistoren bei 334mm²).
Naja also muss doch was kleiner geworden sein in den letzten Jahren. Auch bei 28nm vs 40nm wurden die Chips kleiner (um einiges) bei gleicher Transistormenge.
Da kann man ganz leicht Bonaire und Cypress vergleichen beide haben etwa 2,08 bzw 2,1 mrd Transistoren. Der Cypress ist in 40nm jedoch 334mm² und der Bonaire dank 28nm nur 160mm² groß?
Also bringen diese neuen Fertigungen doch Platzeinsparungen ohne Ende. Bei jeder neuen Stufe wurde bisher ein Chip immer halb so groß wie die Stufe davor außer bei 65nm zu 55nm (war ja nur ein kleiner Sprung).
Also wenn doch 28nm nicht kleiner oder kaum kleiner wie 40nm sein soll warum ist der Chip dann nahezu halb so groß bei gleicher Transistorzahl? (Cypress 40nm/2,1mrd Transistoren 334mm² vs Boniare 28nm/2,08mrd Transistoren bei 160mm²)
Naja könnte mich irren, aber auch wenn 28nm in echt 32nm und 40nm in echt 50nm sind ist doch egal... Die Chips werden kleiner von mir aus dürfen die 14nm FinFet auch 1nm Ultra Small nennen, wenn dabei Platz gewonnen wird wie bisher ist es doch wurst.
Gehen wir davon aus, das es halbwegs so weiter geht:
20nm = fast 1,8x mehr Transistoren als 28nm bei gleicher größe
16nm FinFet = 1,3x mehr Transistoren als 20nm bei gleicher größe
14nm FinFet = 1,2x mehr Transistoren als 16nm FinFet bei gleicher größe
10nm FinFet = 1,8x mehr Transistoren als 14nm FinFet bei gleicher größe
7 nm FinFet = 2,0x mehr Transistoren als 10nm FinFet bei gleicher größe
Wenn man also als basis die PS4 APU nimmt mit seinen 4,4 mrd Transistoren (oder mehr) bei 350mm² die es jetzt hat (also CPU und GPU zusammen).
kommt man so auf 40 mrd Transistoren später bei 7nm ohne große Probleme bei noch immer etwa 350mm² Falls jedoch nicht so wie früher Platz eingespart wird (was ich nicht glaube), dann nicht uner 20mrd Transistoren bei 300mm² in 6 Jahren.
Locuza
2015-01-24, 17:10:03
Der Thread ist genial seit Slashman hier ist. ;D
Snafu
2015-01-24, 17:23:50
@ Topic:
Könnte einer was zu den Specs von mir sagen?
8 Kerne je Kern 1,5-2x mehr pro MHz Leistung als der AMD Jaguar (also quasi Hasswell/Sandy Bridge oder AMD Excavator Leistung)
je Kern 3,2-3,5 GHz (heute schon absolut normal)
macht 3-4x mehr CPU Leistung.
Der Takt wäre deutlich zu hoch. Für die CPU kann man vielleicht 20-40 Watt opfern.
Ein Broadwell Dualcore hat bei 3.1-3.4 Ghz eine TDP von 28 Watt (ohne iGPU vielleicht 20).
Ein 8 Kern Atom (deutlich schlechtere Leistung pro Takt als Jaguar oder das was du dir vorstellst) hat bei 2.4Ghz schon 20 Watt.
xyleph
2015-01-24, 17:23:55
Die ersten 28nm Chips kamen 2012, nach Einbezug jahrealter Roadmaps viel zu spät, waren anfangs auch schlecht verfügbar. Hier mal eine Roadmap von GF aus dem Jahre 2010, nach der hätte schon 2012 14nm stehen sollen. http://www.insideris.com/wp-content/uploads/2010/11/globalfoundriesroadmap.png
Jetzt haben wir 2015, drei Jahre später, 20nm gibt es noch immer nicht im High-End Bereich, auch nicht 16nm finfet. Nach Roadmaps hätten die schon letztes Jahr das Licht der Welt erblicken müssen. Wie hier auch schon erwähnt wurde, gehen jegliche Paper bisher davon aus, dass alles unter 20nm die Kosten pro Transistor erhöhnt.
Jetzt sollen bei weiter steigenden Problemen und weiterhin steigenden Kosten pro Transistor 2019 7nm DIEs für PS5 mit *10 Leistung bereit stehen?
Der 45nm Cell ist gegenüber dem 65nm übrigens bei weiten nicht die Hälfte ( 115mm² zu 174mm²)
Locuza
2015-01-24, 17:26:47
Hey, für 14nm stimmt die Roadmap ja fast :D
Slashman
2015-01-24, 17:31:09
Der Thread ist genial seit Slashman hier ist. ;D
Ich finde es nicht so witzig... Mich jedesmal Haltlos als dumm hinstellen zu lassen.
Ich meine würde er sich erkundigen hätte er gewusst das die PS3 nur in 40/45nm Gefertigt wird. IBM hatte mal geplant die PS3 in 32nm zu fertigen, aber das war für 2013 wo eh die PS4 erscheint... Also lohnte sich das für Sony kaum. Die Superslim war schon klein genug und war auch schon mehr als sparsam genug. Glaubt ihr Sony würde jetzt noch eine noch kleinere PS3 bringen (Ultra Slim) die dann in 32nm CPU und 28nm GPU gefertigt wird? ich denke nicht jetzt arbeiten die an einer PS4 Slim... Die PS3 bleibt bei 45nm CPU und 40nm GPU.
Dazu habe ich ihm beweise gelegt, dass bisher bei jeder neuen Fertigung stark Fläche gesparrt wurde (Boinare vs Cypress bzw. R600 der HD 2900XT zu RV670 zu HD 3870). Ich habe belegt das von 55nm zu 40nm ein Faktor 2 gewinn an Transistoren locker drin war, das auch von 40nm zu 28nm das selbe statt fand.
Ne du bisher höre ich nur ARM sagt es geht nicht und ich habe gezeigt (News/Links) das Intel, Samsung, IBM (bis vor kurzem) und TSMC/GF glauben das die Strukturen noch bis 5-7nm (2020) kleiner werden.
Dabei ist es unerheblich was hinter 28nm, 40nm, 55nm, 65nm, 80nm oder 90nm in wirklichkeit steckte. Bisher war es in etwa Faktor 2 Transistoren gewinn pro mm².
Dann ist 90nm halt in wirklichkeit 150nm
80nm dann eben 110nm
65nm dann eben 90nm
45nm dann eben 70nm
32nm dann eben 50nm
28nm also in wahrheit 40nm
20nm dann wohl 28nm
16nm dann eben 20nm
usw.
Ist doch egal wichtig ist nur das man jedes mal beim Sprung fast 2x so viel bekommt pro Chip.
Der Takt wäre deutlich zu hoch. Für die CPU kann man vielleicht 20-40 Watt opfern.
Ein Broadwell Dualcore hat bei 3.1-3.4 Ghz eine TDP von 28 Watt (ohne iGPU vielleicht 20).
Ein 8 Kern Atom (deutlich schlechtere Leistung pro Takt als Jaguar oder das was du dir vorstellst) hat bei 2.4Ghz schon 20 Watt.
Warum? Ich meine Steamroller ist ja schon mit bis zu 3 GHz verfügbar in 28nm... wenn AMD dann APUs mit 14nm FinFet oder 10nm FinFet liefert dürften 3,5 GHz bei solchen CPUs echt kein Ding sein. Den AMD Jaguar gibt es als Quad Core der 4x 2 GHz bietet und eine 128 Shader GPU hat... Zusammen kommen sie nur auf 25 Watt TDP. Also real wohl nur 20 Watt.
Ein Atom ist bei den pro MHz so schnell wie ein AMD Jaguar erst recht der 22nm Atom. Ich denke das was Hasswell jetzt verbraucht 65 Watt würde er in 14nm statt 22nm nie im leben verbrauchen, dann wären es nur 45 Watt oder so. Auch muss man so sehen, das früher auch kein Handy 2,5 GHz erreichte und jetzt gibt es Quad Cores in Handys mit 2,5 GHz und der Snapdragon 810 soll ja 8 Kerne je 2 GHz haben in 20nm. Stellt euch das in 14nm vor. Der Hersteller sagte dann wären auch 2,5 GHz drin bei weniger TDP.
Nakai
2015-01-24, 17:40:21
I
Ist doch egal wichtig ist nur das man jedes mal beim Sprung fast 2x so viel bekommt pro Chip.
Bekommt man nicht. Nochmal der Name ist scheiss egal, das ist einfach nur eine Bezeichnung, was vollkommen irrelevant ist. Um genau zu wissen, wie sich die Prozesse auswirken, muss man die genaue Dokumentation kennen, und auf die hat nahezu keiner hier Zugriff. Außerdem würden es die meisten eh nicht verstehen.
Locuza
2015-01-24, 17:42:49
Ich finde es nicht so witzig... Mich jedesmal Haltlos als dumm hinstellen zu lassen.
Du schreibst soviel und deine Mühe beeindruckt mich.
Aber das macht es auch schwer darauf zu antworten.
Ich z.B. habe nie behauptet, dass die-shrinks nichts bringen.
Mir ging es nur um das "echte xx/x" nm.
Ich sehe auch keinen Sinn darin, zu spekulieren.
Für mich persönlich ist es viel zu früh.
Man kann sich viele Szenarien ausdenken und dann mal in X Jahren schauen, was man als blindes Huhn getroffen hat, aber ich möchte deswegen nicht seitenlange Beiträge in einem Thread schreiben.
Slashman
2015-01-24, 17:43:14
Bekommt man nicht. Nochmal der Name ist scheiss egal, das ist einfach nur eine Bezeichnung, was vollkommen irrelevant ist. Um genau zu wissen, wie sich die Prozesse auswirken, muss man die genaue Dokumentation kennen, und auf die hat nahezu keiner hier Zugriff. Außerdem würden es die meisten eh nicht verstehen.
Eben, aber hier scheinen welche vergessen zu haben, das Intel, AMD, Samsung und co auf kleinere Strukturen angewiesen sind. Was bringt es dann Produkte zu bringen wenn der Vorgänger kaum schlechter ist.
Bisher war es doch auch so und warum sollte es nicht auch weiter so gehen. Experten gehen davon aus das erst 2030/2035 keine verkleinerung mehr drin ist, weil bei 1nm die Grenze ist (besteht aus 4 Atomen). Aber bis 10nm sehen die bisher nur ein kosten/nutzen Problem und auch das hält sich noch in Grenzen.
Du schreibst soviel und deine Mühe beeindruckt mich.
Aber das macht es auch schwer darauf zu antworten.
Ich z.B. habe nie behauptet, dass die-shrinks nichts bringen.
Mir ging es nur um das "echte xx/x" nm.
Ich sehe auch keinen Sinn darin, zu spekulieren.
Für mich persönlich ist es viel zu früh.
Man kann sich viele Szenarien ausdenken und dann mal in X Jahren schauen, was man als blindes Huhn getroffen hat, aber ich möchte deswegen nicht seitenlange Beiträge in einem Thread schreiben.
Ja stimmt keiner von uns kennt die Antwort, aber von einem User der keine Insider Infos zur PS5 hat lass ich mir nicht sagen das ich mich irre. Ich meine der prüft ja nicht mal sein halbwissen. Wirft mir aber vor unwissend zu sein. Wie gesagt wie der Shrink genannt wird ist mir egal. Wichtig ist nur, das seit 90nm (PS3) zu 28nm (PS4) ein Leistungsgewinn von Faktor 10+ vorhanden ist. Also ist von 28nm (PS4) zu 7nm auch Faktor 10 möglich... man muss bedenken, das die PS3 eine menge mehr mm² fläche hatte wegen 2 Chips Design. Also wäre die PS4 quasi so wie die PS3 aus 2x 300mm² Chip statt einen 350mm² Chip wäre die PS4 quasi min 16x so schnell jetzt.
Snafu
2015-01-24, 17:50:10
Slashman, die Leistungsaufnahme einer CPU steigt mit der Frequenz exponentiell.
Wie schon gesgat, ein 14nm Dual-Core Broadwell braucht bei 3.1-3.4 Ghz um die 20W.
Die Foundrys werden Intels 14nm Transistoren erst mit ihrer eigenen 10nm Fertigung einholen.
Wie sollen da 8 Kerne in das TDP Budget einer Konsole passen? >2,5 Ghz ist einfach nicht mehr effizient genug für eine Konsole oder eine Mobile Platform.
http://i272.photobucket.com/albums/jj163/idontcare_photo_bucket/Intel%20Core%20i7-2600K/i7-2600KPower-ConsumptionwithH100NT-H1.png
Nakai
2015-01-24, 18:00:54
Eben, aber hier scheinen welche vergessen zu haben, das Intel, AMD, Samsung und co auf kleinere Strukturen angewiesen sind. Was bringt es dann Produkte zu bringen wenn der Vorgänger kaum schlechter ist.
Bisher war es doch auch so und warum sollte es nicht auch weiter so gehen. Experten gehen davon aus das erst 2030/2035 keine verkleinerung mehr drin ist, weil bei 1nm die Grenze ist (besteht aus 4 Atomen). Aber bis 10nm sehen die bisher nur ein kosten/nutzen Problem und auch das hält sich noch in Grenzen.
Es gibt viele andere Kenngrößen, die einen Prozess definieren. Nicht nur die Packdichte, sondern auch Takt und Energieeinsparung. Prozesse können für unterschiedliche Geräte unterschiedlich ausgelegt sein, ebenso für unterschiedliche Schaltungen(Cache, Logik, etc.).
Ein neuerer Prozess sollte Vorteile bringen, Ja, die Kosten können auch ansteigen, siehe 28nm zu 20nm. Kein GPU-Vendor geht auf 20SOC(jap, der Prozess heißt so bei TSMC). Nur gewisse SOC-Hersteller gehen auf den Prozess, weil er für Chips im mobile Bereich ausgelegt ist. Für GPUs und andere High-Performance-Designs siehts hier schlecht aus.
Ansonsten guck dir die oberflächigen Dokus von den Foundries an. Es gibt soviele Unbekannte und Parameter, welche man berücksichtigen muss/sollte/könnte. Niemand hier wird deine Fragen so beantworten, wie du es gerne willst. Man kann einfach mit irgendwelchen Zahlen jonglieren und dann sagen, dass einChip-Design auf einem besseren Prozess Faktor 16 oder gar hundertdrölfzig besser ist.
mboeller
2015-01-24, 18:07:17
Jetzt sollen bei weiter steigenden Problemen und weiterhin steigenden Kosten pro Transistor 2019 7nm DIEs für PS5 mit *10 Leistung bereit stehen?
Wohl eher die 2,5-fache Leistung. Die ARM-Keynote, die ich vor ein paar Postings verlinkt hat zeigt das sehr schön. Der Cortex M3, den sie anscheinend für ihre Studie benutzt haben benötigt bei 400MHz in 28nm 25mW und in 10nm (incl. Finfet) 10mW...
Wenn die PS5 also genausoviel verbrauchen darf wie die PS4 kann sie deshalb vielleicht die 3-fache Leistung der PS4 erreichen. Trotz 10nm.
Aber selbst dann steigt der Preis bei der Einführung leicht auf 500,- Euro (Inflation etc.. außen vor) weil die APU selbst in 10nm leicht das 3-fache kosten wird (schließlich hat sie auch 2-3x an Transistoren an Board).
Solange die neuen "exotischen" Technologien, wie MoS2, GaN, reverse Logic und andere noch nicht in der Großserienfertigung angekommen sind schaut es ziemlich essig aus bei weiteren Leistungssteigerungen (Leistung/Watt ist gemeint). Und diese Technologien sind leider alle erst am Anfang der Entwicklung soweit ich weiß. GaN ist vielleicht noch am weitesten, aber ich habe noch nichts davon mitbekommen das irgendwelche CPUs damit gefertigt werden (Prototypen, Versuchsmuster etc.. sind gemeint, keine Serienfertigung).
Slashman
2015-01-24, 18:45:53
Der 45nm Cell ist gegenüber dem 65nm übrigens bei weiten nicht die Hälfte ( 115mm² zu 174mm²)
Ja und ich habe ja bei AMD GPUs beispiele genannt wo das sogar von 55nm zu 40nm so war wo man die hälfte erreichte. Ich sag ja von RV 790 (HD 4890) zu Cypress/RV870 (HD 5870) war die HD 5870 mehr als 2x so Transistorstark wie der in 55nm gefertigte RV790 und kaum größer (290mm² zu 334mm²) wir reden hier von 960 mio Transistoren vs 2100 mio Transistoren das ist mehr als das doppelte.
Nur weil beim Cell das nicht ganz geklappt hat muss das nicht für alle gelten. Kann sein das IBM bei 45nm probleme hatte die Packdichte zu verbessern oder was anderes, aber bei TSMC hat das bisher wunderbar geklappt.
@Nakai:
Ich sagte ja nicht Faktor 16x Leistung ich sagte eher 8-10x und das ist nicht so übertrieben. Ich sagte nur 16x wäre drin wenn man den Takt stark anhebt. Mal ehrlich früher haben GPUs einen Takt von 450-550 MHz MHz gehabt und jetzt laufen sie alle mit 0,9-1 GHz oder mehr. Ich sehe nicht warum man bei 2 GHz nicht GPUs betreiben kann in der Zukunft.
Es ist doch egal ob damals 40nm in wahrheit nur 65nm war nur 40nm genannt wurde. Wichtig ist nur und das sagte ich schon bei den GPUs war nach jedem neuen größeren Fertigungsprung (nicht 90nm zu 80nm sondern 90 zu 65 zu 55nm zu 40nm zu 28nm) das 2x drin. Beispiele gibt es bei AMD. Das tolle ist leicht zu erkennen.
Kann sein das ab jetzt nur noch 1,6-1,8 mehr kommt pro Sprung, aber so wie einige sagen das Limit ist erreicht halte ich für dumm ohne Ende.
@Snafu:
Ja das ab 3,5-4 GHz eine CPU weit mehr TDP zugewinnt als Takt ist normal, aber schau doch hin bis 3,5 GHz skaliert es recht ruhig. Das ist der Grund warum seit dem Pentium 4 noch immer kein 5 GHz Standard ist. Anders gesagt erhöht man lieber die pro Kern Leistung und anzahl der Kerne als den Takt. Daher wird Intel auch kaum was am Hasswell verbessern stattdessen werden bald 8 Kerner i7 die 4 Kerner ersetzen und das in jedem Preissegment. AMD ebenso man sah ja schon was so eine 5 GHz Bulldozer CPU frist, also lieber den Takt senken und dafür Kernzahl erhöhen bzw. die pro MHz leistung verbessern.
drkohler
2015-01-24, 18:47:05
http://en.wikipedia.org/wiki/PlayStation_3_technical_specifications#Configurations
Du Unwissender der Cell wird nicht in 32nm gefertigt sondern in 45nm und das ist die kleinste Version... Wo habe ich geschrieben, dass die PS3 mit einem 32nm Cell chip produziert wird? Hast du überhaupt eine kleine Vorstellung, wieviel % aller entwickelten Chips es letzten Endes aus den Entwicklungslabors in den Verkaufsladen schaffen?
Wir versuchen dir schon seitenlang schonend beizubringen, dass deine Phantasiedaten an der allerersten Hürde für Konsolendesigns scheitert. Diese Hürde ist der Preis (oder genauer gesagt, die Hürde war eine mm-Zahl. Aber das zu erläutern ist nicht Wichtig).
Slashman
2015-01-24, 18:54:32
Wohl eher die 2,5-fache Leistung. Die ARM-Keynote, die ich vor ein paar Postings verlinkt hat zeigt das sehr schön. Der Cortex M3, den sie anscheinend für ihre Studie benutzt haben benötigt bei 400MHz in 28nm 25mW und in 10nm (incl. Finfet) 10mW...
Ich halte dagegen. Als Beispiel nehme ich nicht Handy SoCs sondern schlicht PC GPUs die in Konsolen verwendet werden... Mein Beispiel trifft eher zu als dein Beispiel, das man nicht auf Konsolen/PCs übertragen kann.
HD 4890:
RV790 mit 960mio Transistoren
55nm Chip 280-290mm² Fläche
800 ALUs
16 ROPs
40 TMUs
256 Bit GDDR5
Die HD 5870:
Cypress mit 2,1 mrd Transistoren
40nm Chip 334mm² Fläche (etwas größer, aber auch 2,2x mehr Transistoren)
1600 ALUs
32 ROPs
80 TMUs
256 Bit GDDR5
Jetzt als Beispiel wie man neue Fertigungen nutzen kann um einen ähnlich komplexen Chip halb so groß zu machen.
HD 5770:
RV840 mit 1,04mrd Transistoren
40nm Chip 166mm² groß (nicht ganz halb so groß, aber auch mehr als das 2x an Transistoren)
800 ALUs (wie HD 4890)
16 ROPs (wie HD 4890)
40 TMUs ( " )
128 Bit GDDR5 (ok hier nicht so).
HD 7790:
Bonaire mit 2,08mrd Transistoren (fast wie Cypress)
28nm Chip bei 160mm² Fläche (wow unter der hälfte hmmm)
da die Architektur ganz anders ist kann man das ja eh nicht vergleichen.
Der Punkt ist ich kann das Spiel auch auf HD 2900XT (80nm 410mm²) zu HD 3870 (55nm bei nur 190mm²) übertragen. Beide haben 320 ALUs die HD 3870 ist ähnlich hat nur zusätzlich DX10.1.
Wo habe ich geschrieben, dass die PS3 mit einem 32nm Cell chip produziert wird? Hast du überhaupt eine kleine Vorstellung, wieviel % aller entwickelten Chips es letzten Endes aus den Entwicklungslabors in den Verkaufsladen schaffen?
Wir versuchen dir schon seitenlang schonend beizubringen, dass deine Phantasiedaten an der allerersten Hürde für Konsolendesigns scheitert. Diese Hürde ist der Preis (oder genauer gesagt, die Hürde war eine mm-Zahl. Aber das zu erläutern ist nicht Wichtig).
Es ist mir Kack egal was ein Cell in einem Theoretischen/Test/Muster/Szenario packt... Ich rede von real auf dem Markt erhältlichen Produkten. AMD hat bisher aus jedem neuen Prozess fast das 2 oder manchmal sogar mehr als das 2x rausgeholt. Oder einfach gleich komplexe Chips auf halbe größe gebracht. Du kannst doch keine Laborversuche bei IBM mit realen Beispielen von mir vergleichen. Ich könnte auch sagen... IBM hat im Labor einen 2nm Transistor zum laufen gebracht also kommt morgen 2nm raus.
Bevor du wieder auf 9x schlau machst, wiederlege doch meine Beispiele... Ich kann diese aus nahezu allen Gens vor 28nm finden. egal ob von 90nm zu 80nm zu 65nm zu 55nm zu 40nm zu 28nm.
Nakai
2015-01-24, 19:05:42
http://www.chip-architect.com/news/2010_09_04_AMDs_Bobcat_versus_Intels_Atom.html
http://www.techinsights.com/uploadedfiles/sample_dsa_logic.pdf
Wieso geht man nicht auf TSMCs 20SOC für GPUs? Ich meine, wenn es so simpel und eindeutig mit Beispielen darlegbar ist, wieso wird es nicht getan?
Ich meine, es ist ein neuerer Prozess, welcher garantiert besser als ein 28nm-Prozess ist.
Slashman
2015-01-24, 19:21:04
http://www.chip-architect.com/news/2010_09_04_AMDs_Bobcat_versus_Intels_Atom.html
http://www.techinsights.com/uploadedfiles/sample_dsa_logic.pdf
Wieso geht man nicht auf TSMCs 20SOC für GPUs? Ich meine, wenn es so simpel und eindeutig mit Beispielen darlegbar ist, wieso wird es nicht getan?
Ich meine, es ist ein neuerer Prozess, welcher garantiert besser als ein 28nm-Prozess ist.
Wie man schon sagte aus Kostengründen (habe ja nie gesagt es wird billiger) und aus dem simplen Grund das ist ein Low power Prozess kein High Power Prozess. So wie den Fertigungsprozess für RAM/SSD nicht nutzen kann für GPUs oder CPUs. Auch bei CPUs und GPUs kommen andere Verfahren zum einsatz. Beim RAM war man doch schon länger bei 20nm als man es bei Handys ist. Samsung ist da doch schon seit 1-2 Jahren oder etwa nicht?
20nm wird von Nvidia ja bald genutzt oder wenigstens 16nm FinFet (soll ja 20nm sein) auch GF verwendet bald 14nm FinFet für GPUs/APUs. Das man 20nm überspringt ist nichts neues. den 32nm Prozess hat man bei GPUs auch übersprungen um gleich auf 28nm zu kommen. Man hätte das auch bei 55nm machen können und gleich auf 40nm fallen können. Jedoch war ja 55nm recht gut und ausgereift.
Locuza
2015-01-24, 19:23:57
20nm wird bei Nvidia nur für Tegra verwendet und bei AMD für ihr Projekt Skybridge.
Der 32nm Prozess wurde nicht direkt übersprungen, er wurde gecancelt.
Er stand nicht einmal zur Verfügung und wenn ich es nicht falsch in Erinnerung habe, dann war Cayman schon für 32nm angesetzt, musste dann aber auf 40nm zurück designed werden.
Slashman
2015-01-24, 19:29:43
20nm wird bei Nvidia nur für Tegra verwendet und bei AMD für ihr Projekt Skybridge.
Der 32nm Prozess wurde nicht direkt übersprungen, er wurde gecancelt.
Er stand nicht einmal zur Verfügung und wenn ich es nicht falsch in Erinnerung habe, dann war Cayman schon für 32nm angesetzt, musste dann aber auf 40nm zurück designed werden.
Seht ihr also kommt das öfter vor das man etwas überspringt oder cancelt. Es werden halt dann gleich größere Sprünge folgen, aber dafür über mehr Jahre hinaus.
Also nicht so wie früher 90 zu 80 zu 65 zu 55 zu 40 zu 32/28 zu 22/20nm sondern ab jetzt eben nicht alle 2 Jahre sondern eher 3-4 Jahre, aber dann eben gleich was besseres:
28nm zu 14/16nm FinFet (wie als ob man von 90nm direkt zu 55nm fällt) dann zu 10/7nm. Jeden kleinen Sprung wird man halt unterlassen aus kostengründen oder Zeitgründen.
Aber an dem Punkt das eine PS5 2019 mit 7 oder 10nm in produktion geht und 2020 verkauft wird halte ich fest. Und mein Beispiel hat ja oben schon gezeigt falls AMD wieder die APU liefert ist dann 8x Leistung bei gleicher Fläche absolut kein Problem (falls man 7-10nm bis dahin erreicht).
Einige stellen es ja so hin als ob ich vom Sprung PS2 zu PS3 (also 30x Leistung) ausgehe. ich gehe eher von 8-10x wie von PS3 zu PS4 und das ist sehr real.
Mein Beispiel ist also nicht wiederlegt. Kann sein das es bei IBM, dem Cell oder bei CPUs sich anders verhält, aber bei GPUs werden bisher alle verfahren effizient ausgenutzt.
Mein Beispiel trifft eher zu als dein Beispiel, das man nicht auf Konsolen/PCs übertragen kann.
HD 4890:
RV790 mit 960mio Transistoren
55nm Chip 280-290mm² Fläche
800 ALUs
16 ROPs
40 TMUs
256 Bit GDDR5
Die HD 5870:
Cypress mit 2,1 mrd Transistoren
40nm Chip 334mm² Fläche (etwas größer, aber auch 2,2x mehr Transistoren)
1600 ALUs
32 ROPs
80 TMUs
256 Bit GDDR5
Jetzt als Beispiel wie man neue Fertigungen nutzen kann um einen ähnlich komplexen Chip halb so groß zu machen.
HD 5770:
RV840 mit 1,04mrd Transistoren
40nm Chip 166mm² groß (nicht ganz halb so groß, aber auch mehr als das 2x an Transistoren)
800 ALUs (wie HD 4890)
16 ROPs (wie HD 4890)
40 TMUs ( " )
128 Bit GDDR5 (ok hier nicht so).
HD 7790:
Bonaire mit 2,08mrd Transistoren (fast wie Cypress)
28nm Chip bei 160mm² Fläche (wow unter der hälfte hmmm)
da die Architektur ganz anders ist kann man das ja eh nicht vergleichen.
Der Punkt ist ich kann das Spiel auch auf HD 2900XT (80nm 410mm²) zu HD 3870 (55nm bei nur 190mm²) übertragen. Beide haben 320 ALUs die HD 3870 ist ähnlich hat nur zusätzlich DX10.1.
Wenn die PS5 also genausoviel verbrauchen darf wie die PS4 kann sie deshalb vielleicht die 3-fache Leistung der PS4 erreichen. Trotz 10nm.
Aber selbst dann steigt der Preis bei der Einführung leicht auf 500,- Euro (Inflation etc.. außen vor) weil die APU selbst in 10nm leicht das 3-fache kosten wird (schließlich hat sie auch 2-3x an Transistoren an Board).
Kostete eine HD 5870 zu Release mehr als eine HD 4870 zu Release? obwohl mehr als die 2x Transistormenge vorhanden war... kostet eine HD 7790 zu Release so viel wie eine HD 5870 zu Release (beide gleich viel Transistoren) kostet eine PS4 10x so viel wie eine PS3 (10x so viele Transistoren)... Nein also wie kommst du nur auf den Unsinn! Wo steht das man bei GPUs (PC/Konsole) pro Transistoren zahlt. wenn das der Fall wäre würde eine PS3 30x so viel kosten wie eine PS2 und eine PS4 100x so viel wie eine PS2... Ich meine 100x so viel wie eine PS2 2001 gekostet hat. Denk doch mal nach bevor du den kram von dir gibst.
zu deiner haltlosen Behauptung nur 2,5x Leistung einer PS5. Von 55nm zu 40nm gabs schon Faktor 2 und das ist nur ein kleiner Sprung im vergleich zu 28nm zu 7-10nm... merkst du es nicht... Ok Die PS4 ist kleiner, sparsamer (um einiges) und trotzdem 10x so schnell (minimum) als eine PS3. Also dein Beispiel mit ARM nehme ich so nicht hin. Man kann doch nicht Handy SoC die nicht vergleichbar sind mit Desktop CPUs oder Konsolen vergleichen. Vergleichst du einen MIPS R4000 Prozessor auch mit einem Intel Atom oder mit einem RAM Baustein bzw. einer GPU? Sag mal jetzt vergleichen wir schon Äpfel und Birnen.
Locuza
2015-01-24, 19:39:28
Mal AMDs "Pläne" bis 2020 (Falls sie so lange noch leben :ugly:):
Laut Mark Papermaster, Chief Technology Officer (CTO) von AMD, will der Prozessorhersteller die Energieeffizienz seiner APUs bis 2020 um das 25-fache steigern. Diese Verbesserung soll vor allem dank "Heterogeneous System Architecture" (HSA) gelingen. Aktuelle Prozessoren sind nach AMDs Einschätzung im Übrigen lediglich zehn Mal effizienter als noch vor sechs Jahren.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-moechte-die-APU-Effizienz-bis-2020-um-den-Faktor-25-verbessern-1125923/
Nakai
2015-01-24, 19:48:22
Seht ihr also kommt das öfter vor das man etwas überspringt oder cancelt. Es werden halt dann gleich größere Sprünge folgen, aber dafür über mehr Jahre hinaus.
Nein, das ist noch nie wirklich vorgekommen, dass ein gesamter Prozess für eine gesamte Sparte(dedizierte GPUs) nicht verwendet wurde, jedenfalls seit mehr als 10 Jahren.
Also nicht so wie früher 90 zu 80 zu 65 zu 55 zu 40 zu 32/28 zu 22/20nm sondern ab jetzt eben nicht alle 2 Jahre sondern eher 3-4 Jahre, aber dann eben gleich was besseres:
28nm zu 14/16nm FinFet (wie als ob man von 90nm direkt zu 55nm fällt) dann zu 10/7nm. Jeden kleinen Sprung wird man halt unterlassen aus kostengründen oder Zeitgründen.
Nein, es ist nicht so, als ob man von 90nm auf 55nm direkt fällt.
Mein Beispiel ist also nicht wiederlegt. Kann sein das es bei IBM, dem Cell oder bei CPUs sich anders verhält, aber bei GPUs werden bisher alle verfahren effizient ausgenutzt.
Dein Beispiel wird nicht widerlegt werden, weil alle deine Diskussionpartner ausgestiegen sind.
Slashman
2015-01-24, 19:49:29
Mal AMDs "Pläne" bis 2020 (Falls sie so lange noch leben :ugly:):
http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-moechte-die-APU-Effizienz-bis-2020-um-den-Faktor-25-verbessern-1125923/
Mach doch sowas nicht... Jetzt hast du sein Luftschloss mit Technologie am Limit zerstört. Aber ja wenn einer von ARM sagt es geht nicht darf Intel und AMD (Beweise von mir oben mehrfach belegt und es ist Fakt) und co garnicht dran denken 10-20x mehr Performance zu bieten. Manno jetzt hast du mboeller gezeigt das er doch nicht recht haben kann... Du böser Junge... der arme Junge freute sich das er auf Lebzeiten High End hat und niewieder was neues kommt.
Nein, das ist noch nie wirklich vorgekommen, dass ein gesamter Prozess für eine gesamte Sparte(dedizierte GPUs) nicht verwendet wurde, jedenfalls seit mehr als 10 Jahren.
Nein, es ist nicht so, als ob man von 90nm auf 55nm direkt fällt.
Dein Beispiel wird nicht widerlegt werden, weil alle deine Diskussionpartner ausgestiegen sind.
Ok aber ab jetzt wird das öfter passieren. Man wird die Forschung halt direkt auf viel kleinere Strukturen ansetzen und ihnen dafür mehr Zeit geben was ja aufs selbe hinaus läuft.
Kann sein das es nicht ganz das selbe ist wie von 90nm zu 55nm, aber real gesehen wie viel besser ist 14nm zu 28nm. Also anhand von 80nm GPUs zu 40nm GPUs müsste es wie bis jetzt auch Faktor 4 sein. 80nm GPUs ala HD 2900XT 40nm GPU wie die HD 5870 lassen sich leicht vergleichen. 80nm R600 hat 720mio Transistoren bei über 400mm² eine HD 5870 hat 2,1 mrd Transistoren (3x so viele) ist aber nur 334mm² groß (um einiges kleiner).
Habe ich etwa gelogen oder falsche Fakten genannt. Meine Beispiele findest du auf der AMD Produktseite, in Tests (zu den GPUs) in den DIE Shots/Messungen und zu guter letzt auf Wikipedia. bisher war der Sprung etwa Faktor 2 mal weniger mal mehr. Sie haben statt meine Beispiele zu wiederlegen (sagte ja es ging um den GPU Kern) haben sie aus ganz anderen Segmenten (Handy SoC) oder Laborvergleichen (Cell BE 32nm) genommen. Nichts davon kann man mit AMD GPUs für Desktops oder Konsolen vergleichen. Daher springen sie ab. Ich lange mir die ganze Zeit an den Kopf... So viel kindisches verhalten von Usern sehe ich selten.
Frage ist ein Boniare mit 2,08mrd Transistoren nun etwas weniger als halb so groß wie ein Cypress mit 2,1mrd Transistoren und das nur dank 28nm statt 40nm? Also hatte ich recht und mein Beispiel für GPUs gilt... was bei ARM CPUs oder im Labor passiert geht mir am Arsch vorbei.
20nm wird bei Nvidia nur für Tegra verwendet und bei AMD für ihr Projekt Skybridge.
Der 32nm Prozess wurde nicht direkt übersprungen, er wurde gecancelt.
Er stand nicht einmal zur Verfügung und wenn ich es nicht falsch in Erinnerung habe, dann war Cayman schon für 32nm angesetzt, musste dann aber auf 40nm zurück designed werden.
Seht ihr also kommt das öfter vor das man etwas überspringt oder cancelt. Es werden halt dann gleich größere Sprünge folgen, aber dafür über mehr Jahre hinaus.
Also nicht so wie früher 90 zu 80 zu 65 zu 55 zu 40 zu 32/28 zu 22/20nm sondern ab jetzt eben nicht alle 2 Jahre sondern eher 3-4 Jahre, aber dann eben gleich was besseres:
28nm zu 14/16nm FinFet (wie als ob man von 90nm direkt zu 55nm fällt) dann zu 10/7nm. Jeden kleinen Sprung wird man halt unterlassen aus kostengründen oder Zeitgründen.
Aber an dem Punkt das eine PS5 2019 mit 7 oder 10nm in produktion geht und 2020 verkauft wird halte ich fest. Und mein Beispiel hat ja oben schon gezeigt falls AMD wieder die APU liefert ist dann 8x Leistung bei gleicher Fläche absolut kein Problem (falls man 7-10nm bis dahin erreicht).
Einige stellen es ja so hin als ob ich vom Sprung PS2 zu PS3 (also 30x Leistung) ausgehe. ich gehe eher von 8-10x wie von PS3 zu PS4 und das ist sehr real.
Mein Beispiel ist also nicht wiederlegt. Kann sein das es bei IBM, dem Cell oder bei CPUs sich anders verhält, aber bei GPUs werden bisher alle verfahren effizient ausgenutzt.
Mein Beispiel trifft eher zu als dein Beispiel, das man nicht auf Konsolen/PCs übertragen kann.
HD 4890:
RV790 mit 960mio Transistoren
55nm Chip 280-290mm² Fläche
800 ALUs
16 ROPs
40 TMUs
256 Bit GDDR5
Die HD 5870:
Cypress mit 2,1 mrd Transistoren
40nm Chip 334mm² Fläche (etwas größer, aber auch 2,2x mehr Transistoren)
1600 ALUs
32 ROPs
80 TMUs
256 Bit GDDR5
Jetzt als Beispiel wie man neue Fertigungen nutzen kann um einen ähnlich komplexen Chip halb so groß zu machen.
HD 5770:
RV840 mit 1,04mrd Transistoren
40nm Chip 166mm² groß (nicht ganz halb so groß, aber auch mehr als das 2x an Transistoren)
800 ALUs (wie HD 4890)
16 ROPs (wie HD 4890)
40 TMUs ( " )
128 Bit GDDR5 (ok hier nicht so).
HD 7790:
Bonaire mit 2,08mrd Transistoren (fast wie Cypress)
28nm Chip bei 160mm² Fläche (wow unter der hälfte hmmm)
da die Architektur ganz anders ist kann man das ja eh nicht vergleichen.
Der Punkt ist ich kann das Spiel auch auf HD 2900XT (80nm 410mm²) zu HD 3870 (55nm bei nur 190mm²) übertragen. Beide haben 320 ALUs die HD 3870 ist ähnlich hat nur zusätzlich DX10.1.
Wenn die PS5 also genausoviel verbrauchen darf wie die PS4 kann sie deshalb vielleicht die 3-fache Leistung der PS4 erreichen. Trotz 10nm.
Aber selbst dann steigt der Preis bei der Einführung leicht auf 500,- Euro (Inflation etc.. außen vor) weil die APU selbst in 10nm leicht das 3-fache kosten wird (schließlich hat sie auch 2-3x an Transistoren an Board).
Kostete eine HD 5870 zu Release mehr als eine HD 4870 zu Release? obwohl mehr als die 2x Transistormenge vorhanden war... kostet eine HD 7790 zu Release so viel wie eine HD 5870 zu Release (beide gleich viel Transistoren) kostet eine PS4 10x so viel wie eine PS3 (10x so viele Transistoren)... Nein also wie kommst du nur auf den Unsinn! Wo steht das man bei GPUs (PC/Konsole) pro Transistoren zahlt. wenn das der Fall wäre würde eine PS3 30x so viel kosten wie eine PS2 und eine PS4 100x so viel wie eine PS2... Ich meine 100x so viel wie eine PS2 2001 gekostet hat. Denk doch mal nach bevor du den kram von dir gibst.
zu deiner haltlosen Behauptung nur 2,5x Leistung einer PS5. Von 55nm zu 40nm gabs schon Faktor 2 und das ist nur ein kleiner Sprung im vergleich zu 28nm zu 7-10nm... merkst du es nicht... Ok Die PS4 ist kleiner, sparsamer (um einiges) und trotzdem 10x so schnell (minimum) als eine PS3. Also dein Beispiel mit ARM nehme ich so nicht hin. Man kann doch nicht Handy SoC die nicht vergleichbar sind mit Desktop CPUs oder Konsolen vergleichen. Vergleichst du einen MIPS R4000 Prozessor auch mit einem Intel Atom oder mit einem RAM Baustein bzw. einer GPU? Sag mal jetzt vergleichen wir schon Äpfel und Birnen.
Machen wir es doch spannender^^.
Ich verwette meinen BMW M5 das eine PS5 (falls sie kommt) nicht nur 2-3x schneller ist sondern eher 8x Plus. Ich rede nur von der GPU Leistung. Und ich wette das eine 14nm FinFet GPU definitiv mehr als 2x so gut ist wie eine 28nm GPU wenn nicht sogar 3-4x so gut. Aber bleiben wir bei 2x (bei natürlich gleicher TDP und Chipfläche). Wer natürlich noch kein Auto hat oder nichts vergleichbares sollte jetzt austeigen... wegen einer Unterhose wette ich nicht^^.
Wenn ihr verliert bekomme ich eure Autos egal ob ihr nur einen Fiat, Golf oer Smart habt. Kommt schon bis 2020 könnt ihr eure Glaskugel Optimieren...
mboeller du hast natürlich schon verloren, da du ja sagst die Technologie ist am Limit... würdest du wetten wäre bei dir ab 14nm FinFet bzw. 10nm schluss. Bis 7nm kommst du Honk ja nicht^^.
DinosaurusRex
2015-01-24, 20:24:15
Kannst du nicht wenigstens mal einen Post verfassen, ohne dabei unhöflich zu werden?
mboeller
2015-01-24, 20:34:10
Ich verwette meinen BMW M5 das eine PS5 (falls sie kommt) nicht nur 2-3x schneller ist sondern eher 8x Plus. I
Darf man in deinem Alter den schon Auto fahren? Aus deinen Postings würde ich dein Alter mal auf 12-14 schätzen (du erinnerst mich an mich als ich Jung war und die Welt mit Taschenrechner und Geodreieck berechnen wollte). Dein Papi ist bestimmt böse wenn du einfach so sein Auto verschenkst. :)
Slashman
2015-01-24, 20:35:16
Kannst du nicht wenigstens mal einen Post verfassen, ohne dabei unhöflich zu werden?
Nö wollte ja Sachlich bleiben, aber wenn mich jemand als dumm hinstellt oder als Lügner hinstellt werde ich sauer.
ich meine meine Beispiele wurden nicht wiederlegt (das sind reale Beispiele, keine Theorie, keine Labortests sondern von realen Produkten die getestet wurden).
Nein diese wurden einfach Ignoriert wie der Punkt das eben bisher ein Faktor 2 Sprung da war bei GPUs. Das es bei CPUs nicht so sein kann oder muss ist mir klar, aber bei GPUs war oder ist es so.
War ich am Anfang so unhöfflich? Nein erst als man mir träumen, Fantasy oder spinnerein an den Kopf vorgeworfen hat reagierte ich so. Stellt euch vor einer nennt Fakten von bestehenden Produkten/getesteten Produkten, der andere Laborvergleiche oder vergleiche aus ganz anderen Segmenten (wie als ob man Auto und Motorad bzw. Bot/schiff/Rakete vergleicht).
DinosaurusRex
2015-01-24, 20:39:52
Du stellst Fragen, die niemand hier beantworten kann. Selbst die Videospielentwickler hier im Forum werden ihre Glaskugeln konsultieren müssen, um dir eine Antwort geben zu können. Was allerdings ziemlich offensichtlich ist: Du stehst mit deiner Prophezeiung ganz alleine da. Mittlerweile hat dir doch jeder in diesem Thread widersprochen und das ist der Punkt, an dem du vielleicht einfach mal dein Ego ein wenig zurück stellen und stattdessen deine Idee nochmal überdenken solltest.
Slashman
2015-01-24, 21:15:52
Du stellst Fragen, die niemand hier beantworten kann. Selbst die Videospielentwickler hier im Forum werden ihre Glaskugeln konsultieren müssen, um dir eine Antwort geben zu können. Was allerdings ziemlich offensichtlich ist: Du stehst mit deiner Prophezeiung ganz alleine da. Mittlerweile hat dir doch jeder in diesem Thread widersprochen und das ist der Punkt, an dem du vielleicht einfach mal dein Ego ein wenig zurück stellen und stattdessen deine Idee nochmal überdenken solltest.
Was die Zukunft angeht mag sein das ich mich oder ihr euch irrt, aber die andern Dinge die mit den Gens von 28nm bis 90nm Gens angeht ist nichts falsch bei mir.
Das ist der Punkt ihr sagt es gab keine verdopplung der Transistoren pro mm² bei neuen fertigungen ich habe das klar wiederlegt und das anhand leicht zu vergleichenden ähnlichen Grafikchips aus dem selben Markt vom selben Hersteller. Es waren eben die AMD GPUs für den Desktop. Also was wurde hier wiederlegt? das ich keine Glaskugel habe wie ihr auch nicht oder das mit der verdopplung?
Zu dem Punkt der Beleidigung schau doch mal auf die Post über dir von mboeller
@mboeller:
Willst du ein Photo mit mir und meinem BMW sehen. Wer mich kennt weiß wer ich bin und das Lügen nicht in mir steckt. Anders gesagt würden wir uns treffen hättest du das sich nicht gesagt. Aber ja^^ Im Netz treffe ich auf einen Umstand... es nennt sich Virtuelle Eier/Hoden... Das bedeutet die Leute trauen sich fremden Leuten Dinge an den Kopf zu werfen die sie real nie sagen würden weil eben Feiglinge. Bist net der erste... Keine Sorge bin 28 Jahre alt und durchaus ehrlich mit dem Punkt.
Aber da hier im Forum eh (laut Umfrage) fast 30% für Pegida sind und weitere 10% ihnen Pegida nicht Rassenfeindlich genug sind würde ich meine meine chancen auf play3.de waren höher.
Vielspaß noch und mboeller nicht vergessen die Technologie ist am Limit und es wird keine neuen Karten mehr kommen... Alles was du gehört hast zu AMDs R9 390X ist erlogen... Die Technologie ist am Limit (R9 290X wird bis 2300 n. Christus das Limit sein^^).
EvilTechno
2015-01-24, 21:29:47
Pssst, Slashy! Nicht so laut. Das hier können Menschen lesen. Dein Ego hat dir einen Bärendienst erwiesen. Hier lesen interessierte Techniklaien wie ich weil sie was dazulernen wollen.
Was ist dein Begehr?
Geldmann3
2015-01-25, 01:15:06
Ich vermute ja, dass Sony und Microsoft insbesondere wegen der X86 Architektur einen kürzeren Zyklus für ihre Konsolen festlegen werden. Da schaut man doch sicher neidisch auf Apple und Samsung, die jährlich eine weitere Smartphone Generation verkaufen können. Wobei das in letzter Zeit wohl auch nicht mehr so gut klappt, wie man es gerne hätte.
Setzt man beim nächsten mal einfach wieder auf die Architektur, sollte es doch sehr einfach gehen Abwärtskompatibilität zu gewährleisten, bzw. für die Publisher beim nächsten Mal gleich für 2 Generationen zu entwickeln. Ich rechne daher schon ende 2018 mit der nächsten Generation, einfach weil man es kann.
Von der Hardware her würde ich mit 16GB HBM rechnen, 16 CPU Kernen AMD's nächster Generation @3Ghz, (da die Zusammenarbeit mit AMD hoffentlich gut läuft wird man eventuell zu Beginn ein wenig subventionieren können) und von der Grafikleistung her etwas, was in etwa auf dem Level der 295X2 ist, natürlich in einer Single GPU.
Die nächste Playstation könnte PS4K heißen. Es wird die erste Generation, die wirklich einige Titel in 4K Auflösung rendert und die ordentliches VR dann wirklich massentauglich macht. Die meisten Titel werden wohl jedoch selbst 2018 noch intern in 2560x1440 oder 1920x1080 gerendert werden, denn die Anforderungen an die benötigte Leistung/Pixel steigt ständig. Doch vermutlich wird es die erste Generation, die in 50% aller Games wirklich stabile 60FPS anpeilt.
Monsta
2015-01-25, 10:46:28
Du stellst Fragen, die niemand hier beantworten kann. Selbst die Videospielentwickler hier im Forum werden ihre Glaskugeln konsultieren müssen, um dir eine Antwort geben zu können. Was allerdings ziemlich offensichtlich ist: Du stehst mit deiner Prophezeiung ganz alleine da. Mittlerweile hat dir doch jeder in diesem Thread widersprochen und das ist der Punkt, an dem du vielleicht einfach mal dein Ego ein wenig zurück stellen und stattdessen deine Idee nochmal überdenken solltest.
Naja es widersprechen nur die nicht seiner Meinung sind, ich geh 2020 auch von einer 8-10 fachen Gpu Leistung aus.Die PS4 hat ja nur ne midrange GPU bekommen. Wenn Microsoft bei der nächsten Konsole ernst macht, wovon ich ausgehe. So eine Farce tun die sich nicht nochmal an.
Muss Sony auch reinhalten. Es wäre deutlich mehr Leistung möglich gewesen.
Wenn die One ein 50% größeres Gehäuse und 200 Watt Verbrauch mit entsprechender GPU Leistung hätte, würde Sony durch die Röhre gucken.
Herr Doktor Klöbner
2015-01-25, 12:29:46
Ich denke die nächste Generation hat die exakt gleichen Vorgaben wie die PS4 bei ihrer Markteinführung: Preispunkt 400,- €, keine Subventionen sondern die schwarze Null, kompaktes Gehäuse mit einem TDP-Budget von max 150 Watt.
Und da brauch man keine Glaskugel, das die hier herbei halluzinierte Überhardware zu diesen Bedingungen nicht machbar ist.
Fertigungstechnisch kommt jetzt erstmal das was laut Marketing als 14 oder 16 nm verkauft wird, das dürfte real die doppelte Packungsdichte wie 28nm sein.
Damit werden wir wohl 3-4 Jahre leben, dann kommt der Nachfolger der wieder pompös als 10nm beworben wird, real wohl die 4 fache Packungsdichte wie 28nm. Beim optimistischen Szenario das z.B die PS5 die selbe Chipgröße hat wie die PS4 wäre das die vierfache Transistorzahl, da real die Kosten pro Fläche mit jeder Strukurverkleinerung steigen halte ich das für nicht wahrscheinlich. Taktsteigerungen und Effizienzsteigerungen sind auch schon so ausgereizt als das ich hier spektakuläres erwarten würde.
Wenn die Kiste CPU und GPU mäßig um den Faktor 3-4 zulegt wäre das wohl im Rahmen dessen was ich erwarten würde, dazu max 16 GB Speicher, schon aus TDP Gründen als HBM Speicher. Und natürlich werden hier alle PC-Spieler die sich eh nie eine Konsole kaufen werden jammern wie Scheisse diese Hardware ist und das dadurch die Spieleentwicklung um Jahrzehnte zurückgeworfen wird, das übliche also.
Monsta
2015-01-25, 13:00:47
Die Nvidia gtx 980 hat 4,61 TFlops, die ps4 1,84 und das mit der Cpu. Ist ja jetzt schon mehr als das doppelte bei ähnlicher TDP. Bis 2020 sollte noch deutlich Luft nach oben sein.
xyleph
2015-01-25, 13:05:55
Naja es widersprechen nur die nicht seiner Meinung sind, ich geh 2020 auch von einer 8-10 fachen Gpu Leistung aus.Die PS4 hat ja nur ne midrange GPU bekommen. Wenn Microsoft bei der nächsten Konsole ernst macht, wovon ich ausgehe. So eine Farce tun die sich nicht nochmal an.
Muss Sony auch reinhalten. Es wäre deutlich mehr Leistung möglich gewesen.
Wenn die One ein 50% größeres Gehäuse und 200 Watt Verbrauch mit entsprechender GPU Leistung hätte, würde Sony durch die Röhre gucken.
Und wenn die PS4 wiederum ein 50% größeres Gehäuse hätte und 250 Watt Verbrauch hätte MS wieder in die Röhre geschaut.
Hätte, hätte, Fahradkette. Was ist denn das bitte für eine Aussage.
Monsta
2015-01-25, 13:15:10
Und wenn die PS4 wiederum ein 50% größeres Gehäuse hätte und 250 Watt Verbrauch hätte MS wieder in die Röhre geschaut.
Hätte, hätte, Fahradkette. Was ist denn das bitte für eine Aussage.
Die Aussage ist das die Konsolen so schwach wie möglich gebaut wurden, das war zur Ps3/360 Zeit ganz anders. Da haben die max reingehauen was ging.Und die haben 150mio von den Biestern verkauft. War also nicht so schlecht.
Ich glaube Mircrosoft wird versuchen nicht nochmal die schwächere Hardware zu haben wenn sie zur selben Zeit releasen. Und da kann man auch mal ein paar Watt draufhauen. Der Coregamer will Power, größe und Verbrauch sind da eher zweitrangig.
Es ging ja hauptsächlich darum ob die Konsolen 2020 viel schneller als die Aktuellen sind. Und ich glaube ja, da die aktuellen eher schwach sind, für das was möglich gewesen wäre.
DinosaurusRex
2015-01-25, 13:27:59
Ich bin nach wie vor davon überzeugt, dass die neuen Systeme ganz viel fixed-function Hardware haben werden. Die Komplexität wird zunehmen und Exklusivspiele werden sich bei der Grafik noch weiter von Multiplats absetzen, als sie es jetzt schon tun. Da können die PC Gamer so viel rumplärren wie sie wollen.
Locuza
2015-01-25, 13:31:20
Sagen wir mal die PS3/360 hatten ein reales Power-Target von 180-200W, mit der PS4One sind wir da bei 120-150W ungefähr.
Was ist wahrscheinlicher, dass wir bei der nächsten Gen wieder eine Erhöhung des Verbrauchs sehen, er ungefähr gleich bleibt oder wieder 20-50W hinab geht?
Monsta
2015-01-25, 13:46:38
Ich denk bis 200Watt ist I.O, Ps1 und 2 hatten 8 und 24 Watt verbrauch, trotzdem kam die ps3 mit fast 200. Kommt halt auf die Konkurrenz an.
dargo
2015-01-25, 13:55:06
Die Nvidia gtx 980 hat 4,61 TFlops, die ps4 1,84 und das mit der Cpu.
Es war noch nie sinnvoll Alu-Power über verschiedene Architekturen zu vergleichen. Eine R9 290X hat 5,6 TFlops und dürfte im Schnitt was Spiele-Leistung angeht etwas hinter der GTX980 liegen. Zudem solltest du dich eher bei der Effizienz im AMD-Lager orientieren. Ich kann mir nicht wirklich vorstellen, dass Nvidia für die nächsten Konsolen einen entsprechenden SoC für Preis X liefern kann.
DinosaurusRex
2015-01-25, 13:55:52
Vielleicht wird die nächste PlayStation auch einfach nur eine Art Smartphone, das man dann an seinen Fernseher anschließen kann. Mit genau so viel (in der Praxis verfügbaren) Rechenleistung wie ein Desktop PC aus dem Jahr 2020. Das wäre doch mal cool, wenn die das hinkriegen würden.
Ich bin ohnehin davon überzeugt, dass die Tage von high-end Gaming Hardware ein für alle Mal gezählt sind.
dargo
2015-01-25, 13:59:40
Dann bist du wohl alleine mit der Meinung. Man hat mit 4k soeben den nächsten Grund für High-End geliefert.
DinosaurusRex
2015-01-25, 14:01:55
Denkst du. ;)
Und das Smartphone hat dann selbstverständlich noch nen coolen Holo-Screen und passend dazu einen leistungsstarken fixed-function Raytracer (der bei Holographie sicher hilfreich sein dürfte).
Ich hoffe die machen das. Wenn jemand sowas gescheit hinkriegt (für Gaming), dann Sony.
Monsta
2015-01-25, 14:07:13
Die Umsatzzahlen von Destiny oder GTA5 waren unglaublich. Mit der Hardware von einem Smartphone hätte das wohl nicht funktioniert.
DinosaurusRex
2015-01-25, 14:08:50
Wer weiß wie die real-world Performance von Smartphones 2020 aussieht?
xyleph
2015-01-25, 14:11:27
Die Aussage ist das die Konsolen so schwach wie möglich gebaut wurden, das war zur Ps3/360 Zeit ganz anders. Da haben die max reingehauen was ging.Und die haben 150mio von den Biestern verkauft. War also nicht so schlecht.
Ich glaube Mircrosoft wird versuchen nicht nochmal die schwächere Hardware zu haben wenn sie zur selben Zeit releasen. Und da kann man auch mal ein paar Watt draufhauen. Der Coregamer will Power, größe und Verbrauch sind da eher zweitrangig.
Es ging ja hauptsächlich darum ob die Konsolen 2020 viel schneller als die Aktuellen sind. Und ich glaube ja, da die aktuellen eher schwach sind, für das was möglich gewesen wäre.
MS will wie Sony rentabel sein, das ist das was zählt.
Die Leistung, aber absoluter Limitierung auf RAM Seite, von PS3 und 360 haben Sony und MS am Ende nur hohe Verluste eingebracht, durch den Fleischwolf wurden sie am Ende trotzdem von jedem ordentlichen PC gedreht.
xyleph
2015-01-25, 14:18:35
Wer weiß wie die real-world Performance von Smartphones 2020 aussieht?
Smartphones knabbern neu Jahre nach der 360 noch an deren Leistung....
Monsta
2015-01-25, 14:19:51
Fuck egal ob die von nem PC abgezogen werden. Da große Geld mit AAA Titeln oder exklusives wird mir den Konsolen gemacht.
Microsoft pisst es garantiert an, die haben wirklich gedacht mit dem Multimedia Kram kann man bei den Gamern punkten. Ich wette die versuchen die schnellere Hardware beim nächsten mal zu bauen.
xyleph
2015-01-25, 14:21:50
Fuck egal ob die von nem PC abgezogen werden. Da große Geld mit AAA Titeln oder exklusives wird mir den Konsolen gemacht.
Microsoft pisst es garantiert an, die haben wirklich gedacht mit dem Multimedia Kram kann man bei den Gamern punkten. Ich wette die versuchen die schnellere Hardware beim nächsten mal zu bauen.
Ihr SoC ist größer als der der PS4. Man hat also nur andere Entscheidungen getroffen, nicht unbedingt günstigere.
DinosaurusRex
2015-01-25, 14:40:58
Smartphones knabbern neu Jahre nach der 360 noch an deren Leistung....
Jo aber mit 3D Stacking und noch mehr Heterogenität und Foveated Rendering und Cloud Computing und neuer, fest verdrahteter Logik wird sich da bald sicher etwas tun. Ausserdem wurde jetzt auf zig Seiten immer wieder gesagt, warum high-end Hardware am Arsch ist und dabei wurde nicht mal das Problem des Dark Silicon berücksichtigt, das high-end Hardware mit riesig großem Abstand am härtesten treffen wird.
xyleph
2015-01-25, 15:00:03
Jo aber mit 3D Stacking und noch mehr Heterogenität und Foveated Rendering und Cloud Computing und neuer, fest verdrahteter Logik wird sich da bald sicher etwas tun. Ausserdem wurde jetzt auf zig Seiten immer wieder gesagt, warum high-end Hardware am Arsch ist und dabei wurde nicht mal das Problem des Dark Silicon berücksichtigt, das high-end Hardware mit riesig großem Abstand am härtesten treffen wird.
Ich bitte, man kann hier nicht damit argumentieren, dass es für eine PS5 2020 schwer wird die *10 Leistung einer PS4 zu erreichen und gleichzeitig es für möglich halten, dass Smartphones in der Zeit, mit einen Verbrauch von einstelligen Watt Zahlen, die Leistung eines Desktop Rechners erreicht.
Das ist absurd.
basti333
2015-01-25, 15:17:58
Vielleicht wird die nächste PlayStation auch einfach nur eine Art Smartphone, das man dann an seinen Fernseher anschließen kann. Mit genau so viel (in der Praxis verfügbaren) Rechenleistung wie ein Desktop PC aus dem Jahr 2020. Das wäre doch mal cool, wenn die das hinkriegen würden.
Ich bin ohnehin davon überzeugt, dass die Tage von high-end Gaming Hardware ein für alle Mal gezählt sind.
Ersteres wird wohl noch etwas dauern, bei letzteren hast du recht.
High-End gaming Hardware ist ja jetzt schon nur noch ein Nischenprodukt. Vergleicht man den Markt mit Konsolen, Handhelds, Tablet und Smartphone spielen sowie causal-PC spielern ist er verschwindet gering. Noch lange bevor die nächste Konsolengeneration kommt dürften wohl die meisten Notebooks die es zu kaufen gibt die Leistung der jetztigen Konsolengeneration überholt haben.
Ravenhearth
2015-01-25, 15:48:00
Noch lange bevor die nächste Konsolengeneration kommt dürften wohl die meisten Notebooks die es zu kaufen gibt die Leistung der jetztigen Konsolengeneration überholt haben.
Das möchte ich bezweifeln. Schon heute nutzen grob 60% aller neuen Notebooks CPUs mit höchstens 15W TDP, rund zwei Drittel davon haben keine dedizierte GPU - insgesamt also 40% aller Modelle. Bei den verkauften Stückzahlen dürften diese (oft günstigeren) Modelle die Mehrheit darstellen. Und ich prophezeie einfach mal, dass diese Notebooks in Zukunft noch häufiger werden.
Die häufigste GPU in dieser Gruppe ist momentan noch die Haswell GT2 (Hälfte aller gelisteten Modelle in der Gruppe), dicht gefolgt von der GT1 (ein Drittel). Die Rohleistung liegt hier bei 352 GFLOPs (HD4400). Broadwell wird hier 20% mehr bei gleicher Frequenz bringen. Ich spekuliere einfach mal darauf, dass Intel bis 2020 in der GT2 höchstens 64 CUs bringt, also 1 TFLOPs@ 1GHz (wenn sich die Architektur nicht grundlegend ändert) - die PS4 hat 1,84 TFLOPs.
Demnach wird die Mehrzahl der Notebooks um 2020 rum imho mit einer Intel-GPU kommen und höchstens 1 TFLOPs bieten, also weniger als die PS4. Und ungefähr zu diesem Zeitpunkt rechne ich auch mit den neuen Konsolen.
Alles natürlich sehr imho und heftig Speku und Milchmädchen usw.
Jupiter
2015-01-25, 16:04:49
Demnach wird die Mehrzahl der Notebooks um 2020 rum imho mit einer Intel-GPU kommen und höchstens 1 TFLOPs bieten, also weniger als die PS4. Und ungefähr zu diesem Zeitpunkt rechne ich auch mit den neuen Konsolen.
Ich habe mitte 2014 schon MSI-Gamingnotebooks für 600€ gesehen, die 786 Shader bzw. CUDA Cores hatten. Der Takt soll 850 MHz betragen haben. Das wär bereits mehr als ein Teraflop.
Monsta
2015-01-25, 16:35:38
Ich habe mitte 2014 schon MSI-Gamingnotebooks für 600€ gesehen, die 786 Shader bzw. CUDA Cores hatten. Der Takt soll 850 MHz betragen haben. Das wär bereits mehr als ein Teraflop.
Es ging aber darum das die meisten Notebooks mehr Power als ne Ps4 haben werden. Das bezweifle ich stark.
AnarchX
2015-01-25, 16:46:44
Es würde mich auch nicht wundern, wenn viele Geräte dann auch nur einen BayTrail/Beema-Nachfolger haben. Es gibt heute schon einige große Notebooks mit diesen LowEnd-SoCs.
Mit 4GiB RAM und SSD ist das meist genug Leistung für den Endanwender, 4/8K Videos werden von entsprechenden Zusatzschaltkreisen beschleunigt. Und da wird die GPU-Leistung wohl eher unter 1 TFLOP liegen.
Es sei den günstige und einfach zugängliche VR/AR-HW erzeugt Bedarf nach hoher 3D-Leistung in weiten Teilen der Bevölkerung.
basti333
2015-01-25, 16:53:04
Das möchte ich bezweifeln. Schon heute nutzen grob 60% aller neuen Notebooks CPUs mit höchstens 15W TDP, rund zwei Drittel davon haben keine dedizierte GPU - insgesamt also 40% aller Modelle. Bei den verkauften Stückzahlen dürften diese (oft günstigeren) Modelle die Mehrheit darstellen. Und ich prophezeie einfach mal, dass diese Notebooks in Zukunft noch häufiger werden.
Die häufigste GPU in dieser Gruppe ist momentan noch die Haswell GT2 (Hälfte aller gelisteten Modelle in der Gruppe), dicht gefolgt von der GT1 (ein Drittel). Die Rohleistung liegt hier bei 352 GFLOPs (HD4400). Broadwell wird hier 20% mehr bei gleicher Frequenz bringen. Ich spekuliere einfach mal darauf, dass Intel bis 2020 in der GT2 höchstens 64 CUs bringt, also 1 TFLOPs@ 1GHz (wenn sich die Architektur nicht grundlegend ändert) - die PS4 hat 1,84 TFLOPs.
Demnach wird die Mehrzahl der Notebooks um 2020 rum imho mit einer Intel-GPU kommen und höchstens 1 TFLOPs bieten, also weniger als die PS4. Und ungefähr zu diesem Zeitpunkt rechne ich auch mit den neuen Konsolen.
Alles natürlich sehr imho und heftig Speku und Milchmädchen usw.
Ok, da hast du recht. Hätte mich auch präziser ausdrücken sollen, ich hatte nicht jedes Notebook im Kopf, sondern dachte eher so an die, die nicht nur für Office Anwendungen gedacht sind. Also Intel GT3 oder eine dedizierte Grafik.
DinosaurusRex
2015-01-26, 09:52:14
Ich hab mal ne Frage. Und zwar hat The Order 1886 ja bekanntlich ein Seitenverältnis von 2,35:1. Dadurch spart man ja einige Ressourcen ein und Ready At Dawn reinvestiert die beispielsweise in hochwertiges Hardware Antialiasing. Ich bin ja grundsätzlich der Meinung, dass dieses Seitenverhältnis zum Zocken auf großen Fernsehern überhaupt kein Problem ist, Beyond Two Souls von Quantic Dream hatte auch schwarze Balken und das hat mich überhaupt nicht gestört.
ProSiebenSat1 macht Werbung für HD mit folgendem Spot:
https://netkompakt.koeln/wp-content/uploads/2014/12/Weihnachten_in_HD-Auge-Logos-inkl-Maxx.png
Da gehen die Wimpern oben über die schwarzen Balken hinaus und ich finde das ehrlich gesagt ziemlich cool. Kann man sowas auch in Videospielen machen? Zum Beispiel, in dem man einige Objekte für 16:9 markiert und andere für 2,35:1 und dann entsprechend darstellt? Mal angenommen der Char dreht sich dann herum und seine Kleidung, natürlich dann mit schicker Physik berechnet, weht über die Balken hinaus und sowas, oder Äste von Bäumen, Partikeleffekte und sowas alles. Also richtig durchgestylt natürlich. Für ein story-basiertes Singleplayer Game fände ich das interessant und man könnte ja unter Umständen auch ne ganze Menge Rechenleistung sparen (besser als Upscaling!).
---
Oops das wollte ich eigentlich in den X1/PS4 Thread posten.
Jupiter
2015-01-26, 11:36:51
ProSiebenSat1 macht Werbung für HD mit folgendem Spot:
https://netkompakt.koeln/wp-content/uploads/2014/12/Weihnachten_in_HD-Auge-Logos-inkl-Maxx.png
Da gehen die Wimpern oben über die schwarzen Balken hinaus und ich finde das ehrlich gesagt ziemlich cool. Kann man sowas auch in Videospielen machen?
Für Personen wie mich die auch mal auf einer Leinwand spielen, wäre dies sehr nervig.
Slashman
2015-01-26, 11:53:35
Mal so ne andere Frage zur PS5/Xbox 4?
Laut ersten Gerüchten soll schon die nächste Nintendo Konsole 4,6 TF GPU Leistung haben. die PS4 GPU alleine leistet ja nur 1,84 TF und die der Xbox One etwa 1,31 TF. Dann wäre die nächste Nintendo Konsole schon mehr als 2x so schnell wie eine PS4. Laut gerüchten soll keine APU genutzt werden sondern ein IBM Prozessor.
www.areagames.de/games/nintendo/news/geruecht-angebliche-specs-gen-nintendo-konsole-handheld-aufgetaucht-nennt-fusion-128593/
GPGPU: Custom Radeon HD RX 200 GPU CODENAME LADY (2816 shaders @ 960 MHz, 4.60 TFLOP/s, Fillrates: 60.6 Gpixel/s, 170 Gtexel/s)
CPU: IBM 64-Bit Custom POWER 8-Based IBM 8-Core Processor CODENAME JUMPMAN (2.2 GHz, Shared 6 MB L4 cache)
Co-CPU: IBM PowerPC 750-based 1.24 GHz Tri-Core Co-Processor CODENAME HAMMER
MEMORY: 4 Gigabytes of Unified DDR4 SDRAM CODENAME KONG, 2 GB DDR3 RAM @ 1600 MHz (12.8 GB/s) On Die CODENAMED BARREL
4 Custom Stream-Interface Nodes up to 4 Wii U GamePads or 4 DSc
Versions with Disk Drive play Wii U Optical Disk (4 Layers Maximum), FUSION Holographic Versatile Disc (HVD) and Nintendo 3DS Card Slot.
Sollte das stimmen wäre die neue Konsole um einiges schneller als eine PS4 nur beim RAM glaube ich nicht an 4 GB... Naja weil einfach die PS4/X1 schon 8 GB haben und selbst eine WiiU 2 GB davon hat. Ich denke auch hier werden es wohl 8 GB+ sein.
Problem für die Entwickler wäre mal wieder die Nutzung eines PowerPC Prozessors. Die Entwickler wollen ja am liebsten X86 CPUs nutzen. Kann ja sein das die das nur packen, weil es in 14nm FinFET Produziert wird. Soll ja auch erst 2016 kommen (falls das stimmt).
Dann müsste Sony/MS um das noch mal zu schlagen 3-4x mehr bieten nach 4 Jahren. Nebenbei Rechne ich das die nächsten Konsolen alle teurer werden, weil auch die Welt teurer wird. Früher kosteten Gaming Notebooks weit weniger als heute und weil eben vieles teurer wird kann die nächste PS Konsole wohl nicht noch mal 399€ kosten diesmal wohl 499-599€.
DinosaurusRex
2015-01-26, 12:13:19
http://replygif.net/i/1485.gif
Das ist doch totaler Schwachsinn. 4,6 TFLOPs "GPGPU" (alleine da hätte man aufhören sollen zu lesen) mit DDR4 RAM...
Iterator
2015-01-26, 12:28:39
Diese angeblichen Specs sind schon ein Jahr alt, bzw. geistern seid dieser Zeit durch das Netz. Es gibt hier im Forum auch einen entsprechenden Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=550102) für. Alleine schon die Specs erscheinen unglaubwürdig. Da ist das Gerücht, das in der nächsten Nintendo AMD Hardware werkelt deutlich glaubwürdiger.
Sunrise
2015-01-26, 12:48:32
Kurz und bündig:
Das Ding wäre anhand der Specs viel zu teuer, weil viel zu komplex aufgebaut, zudem auch totaler Quark (was sollen denn bitte 2GB DDR3 on die sein?) gemischt mit viel Phantasie, der mit der Realität wenig zu tun hat.
...Nebenbei Rechne ich das die nächsten Konsolen alle teurer werden, weil auch die Welt teurer wird. Früher kosteten Gaming Notebooks weit weniger als heute und weil eben vieles teurer wird kann die nächste PS Konsole wohl nicht noch mal 399€ kosten diesmal wohl 499-599€.
Und eben weil es teurer in der Herstellung wird, müssen die Konsolen eher billiger werden, da jeder daran etwas verdienen möchte und der Endpreis mit deinem Absatz zu tun hat. Gerade deshalb wird auch die Leistung begrenzt, die eigentlich theoretisch möglich wäre. Diese Rechnerei rein anhand von Prozessgrößen und theoretischen FLOPS kann man vergessen, der Druck bei Konsolen kommt von wo ganz anders.
Die PS3 war auch deutlich teuer, als die PS4, das hat mit "die Welt wird teurer" wenig zu tun. Sony wollte damals schlichtweg die Blu-Ray Basis vergrößern (vs. HD-DVD) und damals gab es noch nicht diese Möglichkeiten (APU und bald auch HBM) die es heute gibt. Das wird so schnell aber nichtmehr passieren, da auch die Ultra HD Blu-ray keine sonderlich großen Anpassungen erfordern wird.
xyleph
2015-01-26, 13:49:28
Diese Angaben verdienen nicht mal das Prädikat Gerücht, das ist reine Fanboyfiction, ähnlich schon zu Café zu lesen gewesen.
Wenn ich diesen Blödsinn mit "GPGPU" schon lese. Die WiiU soll nach einigen Fanboy Seiten im Gegensatz zu PS4One auch eine GPGPU haben :lol:
Bei den technischen Blödsinn weiß man gar nicht ob man lachen oder heulen soll......Ne, eigentlich doch, man kann nur lachen.
Die Entwickler wollen ja am liebsten X86 CPUs nutzen.
Also mir ist das eigentlich egal, wenn die Toolchain brauchbar ist.
Skysnake
2015-01-26, 14:15:01
Naja, für Multiplatform wäre es wohl schon schicker überall x86 zu haben. Dann könnte man z.B. den grundlegenden SSE Klumbatsch überall verwenden usw.
Aber ja, für die meisten sachen brauchts nur ne gescheite Toolchain. Vor allem eine gescheit eingerichtete ;)
DinosaurusRex
2015-01-26, 14:15:26
Die Sony 1st-Party Studios haben sich Gerüchten zufolge eine RISC CPU für die PS4 gewünscht. Aber die sind vertraglich ja schon gebunden und SCE hat dann bekanntermaßen die "PS4 loves Devs"-Kampagne gestartet. ;)
Slashman
2015-01-26, 15:46:04
Diese angeblichen Specs sind schon ein Jahr alt, bzw. geistern seid dieser Zeit durch das Netz. Es gibt hier im Forum auch einen entsprechenden Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=550102) für. Alleine schon die Specs erscheinen unglaubwürdig. Da ist das Gerücht, das in der nächsten Nintendo AMD Hardware werkelt deutlich glaubwürdiger.
Ok 4,6 TF GPU Leistung (das GPGPU kann ja ein Tippfehler sein oder ein irrtum), aber die 3,6 TF Marke sollte die nächste Nintendo Konsole packen können.
Ich meine eine GPU in 14nm FinFET Produziert müsste bei gleicher TDP doch das 2x packen wie eine 28nm PS4 GPU?
Ob jetzt noch mal eine IBM CPU genommen wird oder einfach eine AMD APU steht noch in den Sternen. Nintendo sollte besser auf eine komplette AMD APU setzen und nix eigenes Entwickeln, das spart Kosten und bringt mehr Ports (da nicht extra für IBM CPUs Programmiert werden muss).
Da es bis PS5 und Xbox 4 noch weit ist wird halt einfach die nächste Nintendo Konsole 2016 gekauft falls diese auch 2016 kommt.
Wenn AMD die APU macht wäre es wohl eine auf Excavator Basis mit wohl 4 Modulen/8 Kernen je 2,0-2,4 GHz, das ist dann zwar keine Revolution zur PS4, aber mehr als genug. Als RAM dann einfach nur 8 GB DDR4 RAM und 64MB ESRAM die GPU soll dann nur etwa so gut sein wie die der PS4 (1280 Shader bei 900 MHz). Das ist nur eine reale mehr Leistung von 30-50% und das langt doch. Keiner rechnet damit das der WiiU Nachfolger 4K Tvs nutzt eher 1080p/60 FPS. Natürlich wenn es in 14nm FinFet Hergestellt wird ist das locker machbar (bei gleicher TDP/Chipgröße) falls jedoch nur 20nm verwendet wird muss Nintendo bei der CPU sparen zugunsten der GPU und des ESRAMs.
Käsetoast
2015-01-26, 17:25:19
Wenn AMD die APU macht wäre es wohl eine auf Excavator Basis mit wohl 4 Modulen/8 Kernen je 2,0-2,4 GHz, das ist dann zwar keine Revolution zur PS4, aber mehr als genug.
Ich denke das werden wir auf keinen Fall sehen. Da wird man einfach den Nachfolger der Puma Architektur nehmen, also dasselbe in grün was auch PS4 und XBox haben. Durch mehr IPC und vielleicht auch 100-200 MHz mehr Takt ist der Vorsprung hier dann auch vollkommen ausreichend. Wenn man mit Modulen anfängt, wird nicht nur das Programmieren aufwendiger (genau das wollen die Entwickler ja nicht), sondern der Vorteil beim Portieren von Spielen wäre auch futsch. So kann man einfach den Nachfolger der Jaguars der derzeitigen Konsolen nehmen und was Takt zu der verbesserten IPC hinzugeben. Generell werden sich die Architekturen ja nicht immens unterscheiden, so dass das Portieren von 8 Jaguar auf 8 Nolan Kerne recht einfach sein dürfte. Zumindest kein Vergleich zu einem Port auf einen 4 Moduler, wo man mit den 8 Threads eines PS4 Spiels ins schwitzen kommt, weil eben 4 Kerne gar keine richtigen Kerne sind. Außerdem sind die ganzen Bulldozer & Co ja mehr hochtaktende Designs - ich glaube nicht, dass die bei niedrigen Takten zu überzeugen wissen - zumindest wenn man's verhältnismäßig sieht...
Außerdem ist der Bedarf an CPU Power ja nicht ganz so groß, so dass man mit dem IPC und Takt Upgrade auch in ein paar Jahren noch gut da stünde. Dann lieber mehr in die GPU stecken...
Die Fusion Idee fände ich aber insofern cool, also dass man dann eventuell 3DS Spiele auf der großen Konsole mit höherer Auflösung & Co spielen könnte. Gerade bei der Super Smash Bros Parallelentwicklung für Wii U und 3DS klang das ja immer so, als wolle man demnächst den Fokus mehr in diese Richtung bringen, wodurch man zukünftige Spiele dann vielleicht auch auf der großen Konsole abspielen kann um dann die Leistungsfähigkeit für mehr Eyecandy zu nutzen...
Slashman
2015-01-26, 17:56:14
Ich denke das werden wir auf keinen Fall sehen. Da wird man einfach den Nachfolger der Puma Architektur nehmen, also dasselbe in grün was auch PS4 und XBox haben. Durch mehr IPC und vielleicht auch 100-200 MHz mehr Takt ist der Vorsprung hier dann auch vollkommen ausreichend. Wenn man mit Modulen anfängt, wird nicht nur das Programmieren aufwendiger (genau das wollen die Entwickler ja nicht), sondern der Vorteil beim Portieren von Spielen wäre auch futsch. So kann man einfach den Nachfolger der Jaguars der derzeitigen Konsolen nehmen und was Takt zu der verbesserten IPC hinzugeben. Generell werden sich die Architekturen ja nicht immens unterscheiden, so dass das Portieren von 8 Jaguar auf 8 Nolan Kerne recht einfach sein dürfte. Zumindest kein Vergleich zu einem Port auf einen 4 Moduler, wo man mit den 8 Threads eines PS4 Spiels ins schwitzen kommt, weil eben 4 Kerne gar keine richtigen Kerne sind. Außerdem sind die ganzen Bulldozer & Co ja mehr hochtaktende Designs - ich glaube nicht, dass die bei niedrigen Takten zu überzeugen wissen - zumindest wenn man's verhältnismäßig sieht...
Unmöglich ist es ja nicht, da für mittelklasse Notebook schon AMD APUs auf basis des Excavator unterwegs sind in 28nm... das selbe in 14nm FinFet (laut PCGH.de eher mehr als doppelt so gut wie 28nm und ca. 15% besser als 20nm) könnte man so einen Qcta Core realisieren bei 2,0 GHz. Das wäre immer noch sparsam und zugleich schnell. Wirklich viel schneller ist es ja dann noch immer nicht.
Jaguar von AMD ist ja nichts anderes als eine Low Power/kleine Buldozer Version. Die PS4 hat auch nur 4 Module also 8 Kerne.
So unwahrscheinlich ist das jetzt nun wirklich nicht und Watch Dogs/AC Unity haben nur keine 1080p auf der PS4 erreicht (laut Entwickler) weil eben die CPU zu schwach war und wenn hier 40% mehr hilft dann bitte immer her damit.
Ich habe mich eh gefragt warum die PS4 nicht per Firmware Update einen 2 GHz Takt bekommt. Notebook APUs der A5200 von AMD Takten auch mit 2 GHz sind jedoch nur Quad Core mit einer TDP von 25 Watt (samt GPU).
Wie gesagt 8 Steamroller oder Excavator Kerne für den WiiU Nachfolger ist in 14nm FinFet so sparsam wie 8 AMD Jaguar Kerne in 28nm, aber dabei um einiges schneller.
xyleph
2015-01-26, 17:57:43
Ok 4,6 TF GPU Leistung (das GPGPU kann ja ein Tippfehler sein oder ein irrtum),
Nein, das entlarvt es als Fanboy-Gewäsch oder, was noch lustiger wäre, hier macht sich jemand über die "WiiU hat eine GPGPU"- Aussagen einiger Fanboys lustig.
Was den Rest angeht: Alles zu groß, zu teuer, zu warm. Alles alles etwas mit dem Nintendo noch nie etwas zu tun hatte. In diesen Jahrzehnt wird man so etwas von N nicht sehen.
.
Ich habe mich eh gefragt warum die PS4 nicht per Firmware Update einen 2 GHz Takt bekommt. Notebook APUs der A5200 von AMD Takten auch mit 2 GHz sind jedoch nur Quad Core mit einer TDP von 25 Watt (samt GPU).
Weil die Leistungsaufnahme quadratisch zum Takt steigt und die PS4 nunmal auf 1,6GHz CPU Takt designt ist. 1,6GHz ist auch der Sweet Spot von Jaguar, erst mit Puma wurden Leckströme soweit beseitig dass 2GHz problemlos möglich sind.
DinosaurusRex
2015-01-26, 19:07:14
Ich denke da werden sich die Leute vom Management mit den Ingenieuren und Programmierern zusammengesetzt haben und dann zu der Entscheidung gekommen sein, dass sich ein höherer Takt nicht lohnt. Mir würden da spontan ein paar Gründe einfallen: Einmal die Yields, denn Sony hat für $399 ein ziemlich straffes Paket geschnürt, während Microsoft für $100 mehr auf den Markt gegangen ist. Dann noch das Design einer Slim-Version, das zu diesem Zeitpunkt unter Umständen schon in der Pipeline war und mit einer günstigen Belüftung auskommen muss. Dann wären da noch die ganzen GPGPU Features der PS4, die den CPU-seitigen Taktvorteil der X1 in Zukunft vermutlich eh abfangen und gleichzeitig zu einer höheren Auslastung des Grafikprozessors und damit einhergehend zu einer höheren Abwärme führen werden. Und vielleicht hatten sie auch einfach nur Vertrauen in die eigenen Coder und haben sich gedacht "denen werden wirs schon zeigen".
Gipsel
2015-01-26, 19:13:42
Die Sony 1st-Party Studios haben sich Gerüchten zufolge eine RISC CPU für die PS4 gewünscht. Aber die sind vertraglich ja schon gebunden und SCE hat dann bekanntermaßen die "PS4 loves Devs"-Kampagne gestartet. ;)Als Entwickler ist dir RISC oder CISC als Solches eigentlich vollkommen Latte. Entscheidend ist, wie schnell Dein Code am Ende läuft und wie viel (und welche) Arbeit man ins Performance-Tuning stecken muß. Und da sehe ich nicht, daß ein RISC-Prozessor irgendwelche inhärenten Vorteile hätte. Das Allermeiste generiert doch sowieso der Compiler, kaum irgendwas wird doch noch in Assembler geschrieben (mal Intrinsics an kritischen Stellen und dann war's das). Entwickler haben also typischerweise gar keinen wirklichen Kontakt zum eigentlichen Maschinencode und somit auch nicht den Unterschieden zwischen CISC und RISC. Deswegen muß sie das im Normalfall auch gar nicht kümmern.
DinosaurusRex
2015-01-26, 19:14:49
Also ich meine der Cerny hatte mal argumentiert, dass x86 sehr wichtig für die Indies ist.
Laufen die Indie Games auf der PS4 nicht sogar auf einer virtuellen Maschine?
Gipsel
2015-01-26, 19:17:42
Also ich meine der Cerny hatte mal argumentiert, dass x86 sehr wichtig für die Indies ist.Da kannst Du halt Deinen Kram vom PC praktisch 1:1 übernehmen und viele kennen eben schon den ganzen SSE/AVX-Kram. Das macht es vielleicht etwas einfacher, hat aber nicht unbedingt was mit CISC vs. RISC zu tun, sondern daß man gerne bei etwas Bekanntem bleibt ;).
Hätte AMD eine Lizenz für PowerPC-CPUs und hätte einen kleinen, stromsparenden OoOE-PowerPC-Octocore mit einer GCN-GPU in einen SoC gebacken, hätten Sony und MS vielleicht auch den genommen. Denn das kennen die Konsolen-Entwickler auch (und vielleicht hätte MS dann sogar irgendwie eine passabel funktionierende Kompatibilität mit der XB360 hinbekommen).
DinosaurusRex
2015-01-26, 19:22:21
Achso, also wäre ein RISC in der next-gen wieder wahrscheinlich, auch bei Nintendo, weil den könnte AMD ja dann bald liefern.
Vermutlich wird der K12 extra für die semi-custom Sparte entwickelt.
Gipsel
2015-01-26, 19:24:45
Achso, also wäre ein CISC in der next-gen wieder wahrscheinlich, auch bei Nintendo, weil den könnte AMD ja dann bald liefern.Ich würde zu diesem Zeitpunkt ARM nicht ausschließen wollen, das können demnächst ja sowohl AMD und nV, da könnte man den Preis für den SoC vermutlich etwas drücken (und man hat potentiell sogar noch mehr Wahlmöglichkeiten als nur die beiden).
Aber wie gesagt ist CISC oder RISC eigentlich recht egal. Dass Gesamtpaket muß stimmen.
DinosaurusRex
2015-01-26, 19:26:10
Ich meinte RISC, war ein Vertipper.
Risc kann man bei gleicher TDP und Die-Fläche höher takten, oder hab ich das falsch in Erinnerung?
Gipsel
2015-01-26, 19:26:53
Ich meinte RISC, war ein Vertipper.So hatte ich das auch verstanden, ARM ist RISC.
Iterator
2015-01-26, 19:39:04
Jaguar von AMD ist ja nichts anderes als eine Low Power/kleine Buldozer Version. Die PS4 hat auch nur 4 Module also 8 Kerne.
Jaguar als eine Art Low Power Buldozer zu bezeichnen, ist schon weit hergeholt. Die Designs unterscheiden sich schon von der Architektur Grundlegend. Die PS 4 sowie die Xbox One, haben übrigens, was den CPU Teil angeht, nur zwei Module, mit je vier Kernen. Was eine neue kommende Nintendo Konsole angeht, also wenn man mal das letzte Jahrzehnt zurückblickt und davon ausgeht, das das jetzige Management von Nintendo, in nächster Zeit nicht komplett durch einen Terroranschlag ausgelöscht und ersetzt wird, halte ich es für ausgeschlossen, das wir von denen eine High Performance Konsole sehen werden. Für was sollten sie den die überhaupt brauchen ?
Wenn man sich mal so die Zielgruppe anschaut, ist das schlichtweg rausgeworfenes Geld. Eine moderate Leistungssteigerung von den Leistungswerten der PS 4, in Verbindung mit Einführung der x86 Architektur reicht doch vollkommen aus. Es können die üblichen Spiele für die Zielgruppe ansprechend präsentiert werden und die 3rd Party Devs haben ausreichend Leistung für Ihre Ports. Microsoft und Sony hätten auch in dieser Generation schon potentere Hardware verbauen können, aber sie wollten halt nicht "groß" Geld ausgeben, bzw. die Design Philosophie, was Leistung angeht, war eine ganz andere.
Käsetoast
2015-01-26, 20:12:21
Unmöglich ist es ja nicht, da für mittelklasse Notebook schon AMD APUs auf basis des Excavator unterwegs sind in 28nm... das selbe in 14nm FinFet (laut PCGH.de eher mehr als doppelt so gut wie 28nm und ca. 15% besser als 20nm) könnte man so einen Qcta Core realisieren bei 2,0 GHz. Das wäre immer noch sparsam und zugleich schnell. Wirklich viel schneller ist es ja dann noch immer nicht.
Jaguar von AMD ist ja nichts anderes als eine Low Power/kleine Buldozer Version. Die PS4 hat auch nur 4 Module also 8 Kerne.
Klar wäre es nicht unmöglich Excavator & Co zu nehmen, allerdings halte ich diese Option für eingeeignet. Hauptgrund ist sicherlich, dass man damit erneut vielen Ports einen Riegel vorschieben würde und 3rd Party Support wäre bei einer Nintendo Konsole die 2016 kommt und leicht besser ist als PS4 essentiell weil eine einmalige Möglichkeit den Konkurrenten ein wenig das Wasser abzugraben bzw. endlich mal mehr Ports auf die eigene Plattform zu bekommen (für die Wii U war das ja geplant, was aufgrund extrem schlechter Hardware aber ja scheiterte). Weiterhin sind langsame Excavators für die Architektur nicht unbedingt optimal - die wurden mit Takten von 3-4 GHz ausgelegt. Natürlich kann man einfach weniger Takt geben, um zu versuchen des Verbrauchs Herr zu werden (bei Notebooks & Co ja essentiell), aber sinnvoller ist es da wohl schon eine CPU zu nehmen, die für geringen Verbrauch ausgelegt ist, anstatt eine CPU mit hohem Verbrauch so lange zu kastrieren bis es ins TDP Budget passt...
Wie von Iterator ja auch schon erwähnt hat Jaguar mit der Modul-Architektur á la Bulldozer eher weniger zu tun. Das sind viel mehr Athlon64 light. Ansonsten kann man auch sagen, dass Nintendo halt nicht viel gewinnen würde die CPU großartig aufzubohren. In Fällen wie AC Unity wird die CPU auch nur deswegen zum Flaschenhals, weil man meinte ca. 50% der Power mit Rendering-Unterstützungsmaßnahmen vollzuknallen, weil man eben gute Grafik um jeden Preis haben wollte und das möglich zu Release ohne großartige Optimierung (laut Dev Aussage lief das Spiel ja 9 Monate vor Release mit ca. 9 fps). Ansonsten ist ein Spiel wie AC Unity aber auch der Ausnahmefall mit extrem vielen KIs und so weiter. Aber selbst da wäre es für Nintendo doch ausreichend, eine modernere Architektur mit ca. 200 MHz mehr Takt zu wählen - da Konkurrenz wäre somit mit einfachen Mitteln ausgestochen. Warum da mehr Aufwand betreiben / Geld in die Hand nehmen um die CPU noch stärker zu machen? Ein ordentlicher Vorsprung lässt sich hier ja relativ einfach erreichen und von dem Mehr an Leistung profitieren nur sehr wenige Spiele bei gleichzeitig enormer Erhöhung des Portierungsaufwandes bzw. deutlich steigender Entwicklunsaufwand (weil's eben nur 4 echte Kerne sind und die 4 Modul-Anhänge müsste man dann gezielt mit Aufgaben versorgen, die diese "Kerne" auch verarbeiten können - alles halt deutlicher Mehraufwand gegenüber 8 echter Kerne durch die Bank)...
Ich habe mich eh gefragt warum die PS4 nicht per Firmware Update einen 2 GHz Takt bekommt.
Das wird eine Garantiefrage sein (mehr Hitzeentwicklung als vorgesehen = Problem ; nicht alle Konsolen werden das stabil betreiben können = Problem) bzw. die Spezialentwicklung lässt sich vielleicht gar nicht so vernünftig takten wie das was es für Desktop / Notebook gibt. Wenn die Prozessoren mit Leichtigkeit mehr Takt hätten bieten können ohne echte Nachteile, dann hätten die das Potential sicherlich ausgenutzt. Das wird denke ich auch bei der XBox One klar, die ja auf den recht krummen Wert von 1,75 GHz hochgetaktet wurde. Anscheinend ist da also schon bei den "runderen" 1,8 GHz Schicht im Schacht mit akzeptablen Yields von Chips die das packen. Da dürften 2 GHz dann völlig unrealistisch sein...
Nakai
2015-01-26, 20:15:48
Jaguar ist eher eine K8-Architektur(3->2; neu organisierte Execution-Ports; Gleitkommaeinheit-Änderungen).
Ravenhearth
2015-01-26, 21:02:06
Jaguar als K8 zu bezeichnen, ist auch weit hergeholt. Der ist in vielen Details näher an Bulldozer als an K8 & Co.
Nakai
2015-01-26, 21:35:25
Jaguar als K8 zu bezeichnen, ist auch weit hergeholt. Der ist in vielen Details näher an Bulldozer als an K8 & Co.
Generell sind Bulldozer und Jaguar eh schonmal deutlich moderner als K8/K10, sie teilen sich definitiv eine technologische Basis. Der Ansatz von Bulldozer ist dennoch ein vollkommen Anderer. Diese Diskussion gab es schon vor Jahren und ich war damals schon der Ansicht, dass Jaguar eher K8 ist, als Bulldozer.
Ansonsten finde ich das ganz nett:
http://www.agner.org/optimize/microarchitecture.pdf
Und weil ich es gerade sehe, wurde das Dokument auch irgendwie überarbeitet.
Hat zwar nix mit dem Thema zu tun, aber:
The AMD Bulldozer has a new branch prediction design which has no connection to the code cache, unlike previous models. The prediction mechanism is described as a hybrid with a local predictor and a global predictor. Most probably, the branch predictor is based on perceptrons. A perceptron is similar to a neuron, and it learns by tracking correlations in the branch history. Unlike the adaptive two-level predictor, the perceptron predictor can learn very long branch patterns.
Extrem interessant. Die haben ein neuronales Netzwerk für Branch Prediction bei Bulldozer eingebaut. :freak:
Das ist nichts besonderes. Perceptron Branch Prediction ist üblich. Macht Intel mit großer Sicherheit auch - nur besser.
Slashman
2015-01-28, 18:04:28
Jaguar als K8 zu bezeichnen, ist auch weit hergeholt. Der ist in vielen Details näher an Bulldozer als an K8 & Co.
Ok dann ist der Jaguar halt eine K10/Bulldozer Kombi... Ist doch relativ egal, aber ein K8 ist es nicht und K10 ebenso wenig, da die letzte K10 APU der Liano war und den gibt es nicht mehr Aktuell. Also ist Jaguar was neueres wenn auch nicht was schnelleres.
@Topic:
Da AMD für 2016 angeblich die neue Zen Architektur plant (Release Jahr) wird dann wohl 2019/2020 davon die Low Power Version für PS5 genutzt. Warum nicht als 2013 der AMD Jaguar für PS4 kam war er selbst im Notebook noch absolut neu. Jaguar kam im Notebook ja auch erst 2013 raus... also wäre es nicht ungewöhnlich das Sony zwar wieder eine Low Power CPU nimmt, aber eine die pro MHz wenigstens was leistet. Und dann halt auf 2,4 GHz oder so geht. Ich meine selbst Handy Octa Core CPUs laufen mit 2 GHz.
Dazu noch eine GPU mit mehr als 4096 Shadern und 4K Grafik ist absolut drin wenn auch der Detailgrad kaum höher ist wie auf PS4. Wenigstens ist in 4K AA nicht so nötig und kann ja sein das bis dahin Engines kommen die in 4K nicht 4x so viel benötigen wie in 1080p, also besser skalieren als Aktuell.
tobor
2015-01-29, 12:49:39
Warum immer Amd? Bis 2020 könnte Nvidia einen konkurrenzfähigen ArmSoc anbieten.
Slashman
2015-01-29, 13:26:49
Warum immer Amd? Bis 2020 könnte Nvidia einen konkurrenzfähigen ArmSoc anbieten.
Damit Sony eine Abwärtskompatible Konsole haben kann. Ich denke was auf GCN 1.1/AMD Jaguar läuft sollte auch ohne weiteres auf einem AMD Zen bzw. GCN 2.0/3.0 laufen können.
AMD ist billiger und bietet APUs, das bedeutet das man bei Nvidia als Kunden auf 2 Chips setzen muss. Mir wäre ein Maxwell 3.0 als PS5 auch lieber, aber die bieten eben keine APU. So ein ARM Nvidia SoC ist wohl kaum die Lösung. Man fand in Tests schon heraus, das ein AMD Jaguar schon schneller ist als ein Cortex A15 in der Leistung (pro Kern/MHz) und ein Intel Atom rennt regelrecht davon (22nm Aktuelle Version). Warum also auf ARM Chips setzen? Denk mal nach die PS5 wäre mit AMD als APU Lieferanten diesmal sogar in der lage PS4 Spiele nativ abspielen zu können. Das wäre doch mal genial.
Dazu kommt noch das Nvidia in dieser Gen zu sehr AMD, Sony und MS angegriffen hat wegen den Konsolen und weil PCs doch so 1000x besser sind und Konsolen so kacke... Alles nur weil man den Deal nicht bekommen hat.
Nvidia hat sich wie eine Pussy benommen dem man den schnuller weggenommen hat. Also wäre ich Sony würde ich der PS5 auch wieder komplette AMD Hardware geben.
Knuddelbearli
2015-01-30, 21:16:31
Naja eventuell ja ein massiv hoch gezüchteter Tegra XD
Slashman
2015-01-30, 21:24:28
Naja eventuell ja ein massiv hoch gezüchteter Tegra XD
Wie soll das aussehen?
32 ARM CPU Kerne um den 8 AMD Zen Kernen die Stirn zu bieten?
Das einzige was ich mir vorstellen kann wäre das es wieder AMD wird. Einfach aus dem Grund, das sie billig CPU und GPU liefern können (APUs/SoCs) und dann eben dann in der Lage wären PS4 Spiele nativ auf der PS5 zu nutzen.
Dazu müsste man einfach wieder auf eine X86 AMD CPU greifen jedoch einfach mehr Dampf haben (um nicht kompatible Teile zu emulieren).
Wieder eine AMD GCN GPU verwenden.
Also meine Vorstellung klingt nicht übertrieben und sehr machbar ist es auch:
8 oder 16 AMD Low Power Zen (K12) Kerne mit 2,0-2,4 GHz Takt (machbar)
32 GB Shared RAM DDR4 3200 (für CPU und GPU Texturdaten).
8 GB HBM2 Vram (nur für die GPU und Bandbreitehungrige 4K Grafik)
AMD GCN 2.0/3.0 GPU
4096 Shader 64 ROPs, 128 TMUs DX12+ (native DX12 bzw. DX12.1 GPU).
Ravenhearth
2015-01-31, 00:19:11
Was für ein Buzzword-Bingo. Es bringt nichts "GCN 2.0/3.0" zu schreiben, weil niemand weiß, wie diese Architekturen aussehen werden und du auch nicht schreibst, was du dir darunter vorstellst.
Slashman
2015-01-31, 00:43:27
Was für ein Buzzword-Bingo. Es bringt nichts "GCN 2.0/3.0" zu schreiben, weil niemand weiß, wie diese Architekturen aussehen werden und du auch nicht schreibst, was du dir darunter vorstellst.
Es steht ja wohl ausser Frage das was nach GCN 1.1 kommen wird oder? Nvidia wird nach Maxwell eben Pascal bringen und AMD was neues ob es jetzt GCN oder sonst wie genannt wird ist doch Wurst.
Wenn es jedoch wieder dem heutigen GCN GPU Kern ähnlich ist könnte es doch PS4 Spiele wenigstens abspielen. Ich meine die HD 2000, HD 3000, HD 4000 teilen sich grob die selbe Basis und auch die HD 5000 Serie ist da kaum anders. Warum sollte also AMD was ganz neues entwickeln und GCN fallen lassen?
Skysnake
2015-01-31, 08:08:04
Gibt keinen Grund an sich. Wenn müssen Sie noch preemption einbauen, bischen an den Cachecohärenz feilen und hier und da noch den Cache vergrößern.
Die GCN Architektur an sich lässt eigentlich keine Wünsche offen. Zumindest ich seh da absolut keinen Pferdefuß dran. Bei der Graphicspipeline müssen Sie eventuell was am Tesselation, ROPs usw freilen, aber das ist jetzt nichts, was nach außen hin sichtbar wäre.
MadManniMan
2015-03-10, 11:35:16
Um die News der Hauptseite aufzugreifen:
4K halte ich für die folgenden Konsolen für völlig illusorisch, aber in Anbetracht von VR kann ich mir eine gleichzeitig bessere Unterstützung von 3D allgemein sehr gut vorstellen.
Die nächste Generation wird sicherlich FullHD zum Standard haben. Ob VR da ne Rolle spielt wird sich zeigen. Ich denke, das wird sowieso wieder in der Niesche verschwinden, wenn die nächste Konsolengeneration kommt ist Hype passé.
Die Chance, dass es wieder AMD wird, ist weiterhin sehr hoch. Die Konkurrenz hat bisher nix besseres als GCN, AMD ist mit Interposern vorne, AMD bietet x86er günstig an, AMD bietet die größte Expertise bei Konsolenhardware, AMD bietet alles aus einer Hand, das rundum-sorglos-Paket - es gibt nen Haufen Gründe.
THEaaron
2015-03-10, 12:17:55
Um die News der Hauptseite aufzugreifen:
4K halte ich für die folgenden Konsolen für völlig illusorisch, aber in Anbetracht von VR kann ich mir eine gleichzeitig bessere Unterstützung von 3D allgemein sehr gut vorstellen.
Immerhin Trine würde schon in 4K auf der PS4 laufen laut den Entwicklern. Aber das lebt ja auch nicht gerade von großen Welten.
Die nächste Generation wird sicherlich FullHD zum Standard haben. Ob VR da ne Rolle spielt wird sich zeigen. Ich denke, das wird sowieso wieder in der Niesche verschwinden, wenn die nächste Konsolengeneration kommt ist Hype passé.
Die Chance, dass es wieder AMD wird, ist weiterhin sehr hoch. Die Konkurrenz hat bisher nix besseres als GCN, AMD ist mit Interposern vorne, AMD bietet x86er günstig an, AMD bietet die größte Expertise bei Konsolenhardware, AMD bietet alles aus einer Hand, das rundum-sorglos-Paket - es gibt nen Haufen Gründe.
Nichts besseres als GCN? Maxwell ist um einiges effizienter, was gerade bei Konsolen mit dem begrenzten Power-Budget ein großes Problem ist.
Das Interposer-Problem ist vor allem eins was die Fab lösen muss und das ist in beiden Fällen TSMC.
Ich sage nicht, dass es NVIDIA wird, aber das es "nichts besseres" als GCN gibt halte ich für eine extrem gewagte Aussage.
MadManniMan
2015-03-10, 12:34:17
Wo Du grad mal hier bist, Coda: wie ist Deine persönliche Einschätzung VR betreffend? Ich bin ein bisschen gehypt und verstehe, dass meine Hoffnung wahrscheinlich enttäuscht wird, aber würdest Du andererseits so weit gehen wie HOT und vermuten, dass VR wieder verschwindet?
Mir wird sofort schlecht davon wenn die Kamera schwenkt ohne das man den Kopf bewegt. Geht extrem vielen so.
Guest83
2015-03-10, 13:02:28
Mir wird sofort schlecht davon wenn die Kamera schwenkt ohne das man den Kopf bewegt. Geht extrem vielen so.
Bei der neuesten Generation wird niemanden mehr schlecht, Motion Sickness ist gelöst.
Nichts besseres als GCN? Maxwell ist um einiges effizienter, was gerade bei Konsolen mit dem begrenzten Power-Budget ein großes Problem ist.
Mag ja sein, aber das war so ja nicht gemeint. GCN ist eine gute Architektur für den Zweck, ich glaube nicht, dass ein Wechsel jetzt viel brächte. Das mag in Zukunft anders sein, das hab ich aber auch nicht behauptet, ich schrieb bis jetzt.
Das Interposer-Problem ist vor allem eins was die Fab lösen muss und das ist in beiden Fällen TSMC.
AMD setzte nur deshalb auf TSMC weil GloFo den 28nm Prozess nicht hinbekam. In Zukunft läuft eh alles über GloFo. Mag ja sein, dass die Foundy da viel Einfluss hat. Dennoch braucht man die Kombination der Unternehmen, damit da auch hinten was bei rauskommt.
Ich sage nicht, dass es NVIDIA wird, aber das es "nichts besseres" als GCN gibt halte ich für eine extrem gewagte Aussage.
Du hängst dich viel zu sehr daran auf. Da standen noch ein paar mehr Punkte, die gewichtiger sind als der.
Dass es einem bei VR schlecht werden kann, ist ja nicht das einzige Problem. Es ist eher ein ähnliches Problem wie mit 3D-Brille fernsehen oder mit Hampelei Wii spielen, da hat man auf Dauer einfach keinen Bock zu, weil es schlicht und ergreifend unbequem ist. Ich für meinen Teil nutze nicht mal Kopfhörer, weil mich das nervt. Wie soll das erst sein, wenn man nicht mal eben zwischendurch was Trinken kann oder man auch die Außenwelt gern mitbekommen möchte (z.B. wenn die Frau ruft...). An so simplen Dingen scheitert das, nicht am Kotzen... Das ist einfach ein weitere Hype, der in irgendeiner Nische endet.
MadManniMan
2015-03-10, 13:31:39
Bei der neuesten Generation wird niemanden mehr schlecht, Motion Sickness ist gelöst.
Er meint eher das Designproblem, dass es Kamerafahrten gibt, auf die der User keinen Einfluss hat.
Ganon
2015-03-10, 13:44:55
Bei der neuesten Generation wird niemanden mehr schlecht, Motion Sickness ist gelöst.
Hmmm,
also selbst mit der neusten Occulus Rift wurde den Leuten reihenweise übel. Einer hatte sogar noch einige Stunden danach zu kämpfen. Und nein, das ist kein "hörensagen", sondern ich saß daneben.
"gelöst" würde ich das nicht nennen. Und ich weiß auch nicht wie du ein Problem, welches auch ohne VR auftreten kann, überhaupt lösen willst. Stichwort "Reisekrankheit".
Guest83
2015-03-10, 13:56:42
Er meint eher das Designproblem, dass es Kamerafahrten gibt, auf die der User keinen Einfluss hat.
Die darf es nicht geben.
Hmmm,
also selbst mit der neusten Occulus Rift wurde den Leuten reihenweise übel. Einer hatte sogar noch einige Stunden danach zu kämpfen. Und nein, das ist kein "hörensagen", sondern ich saß daneben.
"gelöst" würde ich das nicht nennen. Und ich weiß auch nicht wie du ein Problem, welches auch ohne VR auftreten kann, überhaupt lösen willst. Stichwort "Reisekrankheit".
Rift DK2 ist nicht die neueste Generation. SteamVR ist die neueste Generation und dort gibt es 0% die Motion Sickness bekommen. Die Angabe ist von Valve und deckt sich mit allen Reviews von der GDC.
Und natürlich kann man immer jemanden in VR motion sick machen, nichts ist einfacher als das. Aber für die normale Anwendung unter Einhaltung der Best Pracitices ist Motion Sickness in VR nun gelöst. Entscheidend ist das präzise Tracking und die niedrige Latenz, beides ist nun Consumer-ready.
Ganon
2015-03-10, 13:56:45
Das ist einfach ein weitere Hype, der in irgendeiner Nische endet.
Sehe ich auch so. Mal so als nette Demo wird das meist positiv aufgenommen, aber dort wurde das ganze Grundsetup auch schon erledigt.
Alleine schon den jetzigen Stand der Occulus Rift überhaupt am PC einzurichten ist schon eine recht aufwändige Angelegenheit. Witzig ist dann auch, dass Leute ziemlich viele Probleme haben mit aufgesetzter Brille die Tastatur und/oder die Tasten darauf zu finden. Ganz zu schweigen vom Kabelsalat und das dicke Kabel zum Kopf hin.
Für Fans von solchen Spielereien sicherlich kein Hindernis, aber für den Massenmarkt fehlt noch verdammt viel.
Ganon
2015-03-10, 14:00:27
Aber für die normale Anwendung unter Einhaltung der Best Pracitices ist Motion Sickness in VR nun gelöst.
Ja gut, man kann natürlich auch einfach alle Problemfälle wegdiskutieren und sagen "Darf man halt nicht machen". ;)
Damit brechen einem nur verdammt viele Anwendungen weg.
edit:
Vllt. mal ein Beispiel:
- Mir wird in einem echten Auto schlecht
- wenn ich ein Autorennspiel spiele wird mir nicht schlecht
- wenn ich ein Autorennspiel mit VR spiele wird mir schlecht (nur deutlich schneller!)
VR holt damit einfach nur ein "natürliches" Problem mit rein, was ich ohne VR nicht habe. Da kann man nichts "lösen". Man hat vllt. technische Ursachen von Motion Sickness gelöst, aber man hat bestimmt kein Heilmittel für Motion Sickness gefunden.
Und eine "Lösung" wie "Man macht es einfach nicht" ist keine Lösung. Und ein "unbeweglicher Stein" in der Landschaft zu sein (man darf die Kamera als Spieldesigner ja nicht bewegen) ist auch kein guter Grundsatz für "intensivere" Spiele. Man kriegt im Spiel "was auf die Fresse" und nichts passiert... irgendwie doof.
Guest83
2015-03-10, 14:20:25
Sehe ich auch so. Mal so als nette Demo wird das meist positiv aufgenommen, aber dort wurde das ganze Grundsetup auch schon erledigt.
Alleine schon den jetzigen Stand der Occulus Rift überhaupt am PC einzurichten ist schon eine recht aufwändige Angelegenheit. Witzig ist dann auch, dass Leute ziemlich viele Probleme haben mit aufgesetzter Brille die Tastatur und/oder die Tasten darauf zu finden. Ganz zu schweigen vom Kabelsalat und das dicke Kabel zum Kopf hin.
Für Fans von solchen Spielereien sicherlich kein Hindernis, aber für den Massenmarkt fehlt noch verdammt viel.
Input ist ebenfalls gelöst. Außerdem gibt es die Möglichkeit einer Passthrough-Kamera, um das Headset nicht immer abnehmen zu müssen, um etwa die Tastatur zu finden. (Oder man stellt die Tastatur einfach in VR dar, da gibt es viele Möglichkeiten.)
Ja gut, man kann natürlich auch einfach alle Problemfälle wegdiskutieren und sagen "Darf man halt nicht machen". ;)
Damit brechen einem nur verdammt viele Anwendungen weg.
VR ist ein eigenes Medium, das muss man auch so betrachten. Auf Smartphones sind ja auch nicht Ego-Shooter der große Hit, sondern Spiele die speziell dafür konzipiert wurden. So wird es auch bei VR sein. Ja, es fallen Anwendungsmöglichkeiten weg, gleichzeitig kommen noch viel mehr neue dazu, die es am Bildschirm nie geben würde.
Und man könnte eigentlich auch argumentieren, dass Dinge wie Kamerafahrten auch in konventionellen Spielen nichts verloren haben. Das ist eher ein Resultat aus der Obession der Spieleindustrie mit Hollywood und dem Versuch "cineastische Erlebnisse" zu bieten, statt sich auf die Stärken des Mediums zu konzentrieren. In der Realität gibt es auch keine Kamerafahrten. So lange man sich daran hält ein Spiel so zu präsentieren, wie es auch in der Realität ist, dann funktioniert es auch in VR, ohne dass einem schlecht wird. Und auf der Oberfläche des Mars zu gehen (was in VR möglich ist), ist beeindruckend genug, da braucht es keine cineastische Kamerafahrt.
Ganon
2015-03-10, 14:25:22
VR ist ein eigenes Medium, das muss man auch so betrachten.
Schon richtig, aber hier geht es ja auch um Konsolen. Und die Spielen ja hauptsächlich Spiele ab. Und keiner wird sich für 300 EUR ein VR Set kaufen, nur um damit anschließend ein bisschen auf dem Mars zu laufen.
Du hast nunmal das Problem, dass du in der Spielwelt ein unbeweglicher Stein sein musst, außer du veranlasst die Bewegung selbst.
Das ist das gleiche Problem wie mit der Wii-Mote. Alle wollten Schwertkämpfe haben und beschwerten sich über ungenaue und ständige falsche Positionen. Aber wie soll bitte die Wiimote deinen Arm aufhalten, wenn im Spiel dein Schwert ein Hindernis trifft?
Genauso das Problem bei VR. Wer bewegt deinen echten Kopf, wenn du im Spiel gegen ein Hindernis rennst?
Slashman
2015-03-10, 14:25:32
@3D Center News Abteilung:
Man könnte ja erwähnen, das 10x mehr Spiele kommen die 1080p bieten und Battlefield Hardlines gerade mal das 4. Spiel ist das nur 900p auf der PS4 bietet. über 100 andere Spiele bieten 1080p ohne Probleme und viele davon auch mit 60 FPS.
The Witcher 3, Final Fantasy XV, Bloodborne, Uncharted 4, MGS5 Phantom Pain und die anderen kommenden PS4 Spiele sollen alle 1080p bieten oder bieten es schon längst. Project Cars/MGS5 PP. sollen dabei sogar mit 60 FPS rennen.
Frage:
Wieviele kommende Spiele laufen in 1080p und wie viele der bisher erschienen PS4 Spiele laufen in 1080p.
Und welche Spiele laufen nicht in 1080p und ist das wohlmöglich die Schuld des Entwicklers. Es ist gerade mal Watch Dogs, Battlefield 4, Assassins Creed Unity und eben Hardlines das nicht in 1080p läuft...
Zu Watch Dogs:
GTA5 hat doch gezeigt, das die PS4 sogar bessere Grafik in 1080p packte. Das Spiel hatte schon auf dem PC starke Performance/Bug Probleme... also ist Watch Dogs kein beweis für die nicht vorhandene 1080p Leistung der Konsolen.
Assassins Creed Unity:
Ich meine ein Spiel das selbst auf dem PC minimum eine GT 680/GTX 770 erfordert ist ja wohl kein Beweis für ein Optimiertes Game... Assassins Creed Unity wurde ja auch im Alpha Status auf die Kunden entlassen... Es war extrem verbuggt, hatte starke Performance Probleme und war offensichtlich nicht Optimiert.
Battlefield 4 hatte zu Release die selben Probleme wie Assassins Creed Unity... Da man jedoch auf 60 FPS nicht verzichten wollte hat man eben auf 900p gedrosselt. Mit dem Aktuellen Patch läuft das Spiel stabiler und flüssiger, aber noch immer ist es nicht Fehlerfrei... Also auch keine Referenz.
Zu Hardlines kann ich nichts sagen, da es noch nicht auf dem Markt ist, aber die Engine ist durchaus in der Lage auf der PS4 mit besserer Grafik in 1080p zu laufen... Siehe Dragon Age I.
Edit:
Was soll die News sagen... das es vorkommen kann, das faule Entwickler die Spiele gerne im Beta/Alpha Status bringen dann keine 1080p packen... Ok das hätte ich euch auch sagen können... Diente die News um mal wieder gegen Konsolen zu wettern... Andere Frage bekommt ein PC für 300-400€ das besser hin... OK 1080p mit Ultra Low Details schon, aber bekommt ein komplett so im Laden gekaufter PC für 300-400€ 1080p und hohe/sehr hohe Details hin...
Weitere Frage... kann es sein das ihr das jedes mal vergisst zu erwähnen, das es gerade mal 4 Spiele sind und diese bekannt sind das diese nicht stabil laufen, das diese quasi im total unfertigen Zustand auf den Markt kamen. Ihr könntet ja erwähnen wieviele andere Spiele kommen und 1080p bieten und welche es bisher gibt. Nein das würde ja bedeuten, das ihr Konsolennews unvoreingenommen presentiert.
Jupiter
2015-03-10, 15:50:47
The Order 1886 rendert das Bild in 1920x800p. Das entspräche etwa 900p. Shadow Fall hat im Mehrspieler in 1080i. Das wäre in Bewegung mit 720p vergleichbar. Dazu existiert eine Vielzahl von Spiele auf der One, die kein 1080p bieten können. Da stellt sich die Frage wie gerade einmal auf die vier Titel gekommen wird.
Seit wann wird eine GTX 770 als Minimum für Unity gebraucht? Bei mir und in vielen anderen Benchmarks läuft es mit einer Performance-Karte (GTX 970) ohne Probleme in 1440p mit mehr als 35ps in den höchstmöglichen nVidia Einstellungen. Eine GTX 770 als Minimum zu nennen ist da arg übertrieben.
Finch
2015-03-10, 16:06:23
The Order 1886 rendert das Bild in 1920x800p. Das entspräche etwa 900p. Shadow Fall hat im Mehrspieler in 1080i. Das wäre in Bewegung mit 720p vergleichbar. Dazu existiert eine Vielzahl von Spiele auf der One, die kein 1080p bieten können. Da stellt sich die Frage wie gerade einmal auf die vier Titel gekommen wird.
Seit wann wird eine GTX 770 als Minimum für Unity gebraucht? Bei mir und in vielen anderen Benchmarks läuft es mit einer Performance-Karte (GTX 970) ohne Probleme in 1440p mit mehr als 35ps in den höchstmöglichen nVidia Einstellungen. Eine GTX 770 als Minimum zu nennen ist da arg übertrieben.
Shadow fall hat 1080p. Die horizontals Auflösung ist dynamisch reduziert und das Bild ist besser als 720p
Slashman
2015-03-10, 16:27:53
The Order 1886 rendert das Bild in 1920x800p. Das entspräche etwa 900p. Shadow Fall hat im Mehrspieler in 1080i. Das wäre in Bewegung mit 720p vergleichbar. Dazu existiert eine Vielzahl von Spiele auf der One, die kein 1080p bieten können. Da stellt sich die Frage wie gerade einmal auf die vier Titel gekommen wird.
Seit wann wird eine GTX 770 als Minimum für Unity gebraucht? Bei mir und in vielen anderen Benchmarks läuft es mit einer Performance-Karte (GTX 970) ohne Probleme in 1440p mit mehr als 35ps in den höchstmöglichen nVidia Einstellungen. Eine GTX 770 als Minimum zu nennen ist da arg übertrieben.
The Order 1886 sollte in 21:9 sein und daher auch 1920 x 800p... dafür in einer bombast Grafik.
Killzone SF bietet ja 1080p mit 30-60 FPS im Singleplayer, aber im Multiplayer wird um 60 FPS zu halten eben ein Trick benutzt...
Wirklich 900p bieten bisher nur 4 Spiele... die von mir genannten oben (Battlefield 4/Hardlines, Assassins Creed Unity und Watch Dogs).
Es gibt 20-40x mehr Spiele in 1080p auf der PS4 und die One könnte wenn das Problem des Esrams überwunden ist auch öfter 1080p erreichen.
Erste Benchmarks zum Spiel zeigen eindeutlich, das ein PC mit PS4 Leistung (HD 7850+, 6 GB RAM, Core i5 bzw. AMD Quad Core bei 3,2 GHz) echte Probleme hat bei Assasins Creed Unity.
http://www.pcgameshardware.de/Assassins-Creed-Unity-PC-258436/Specials/Test-Technik-Benchmarks-1142550/
http://www.pcgameshardware.de/screenshots/original/2014/11/Assassins_Creed_Unity_GPU_Benchmark_1080p-pcgh.png
http://www.computerbase.de/2014-11/assassins-creed-unity-benchmarks-grafikkarten-vergleich/
Also wenn eine schnellere R9 270X (schneller als die PS4 GPU) nur 20-21 FPS packt in 1080p mit FXAA... OK auf Maxdetails, dann kann man der PS4 nicht vorwerfen in hohen Details keine 900p zu packen... Zumal Unity CPU Leistung frisst ohne Ende... von Low Level API merkt man in der Konsolenversion nichts.
http://www.notebookcheck.com/Assassin-s-Creed-Unity-Benchmarks.130204.0.html
In Notebookcheck gibt es einen Test mit einer R9 M290X (quasi R9 270X) und dort erreicht ein Notebook mit mehr Power als eine PS4 in hohen Details bei 1080p (hohe Details = PS4 Details... Ultra Details = höhere Details) nur 24 FPS... Also würde ich sagen liegt es weniger an den Konsolen als an der bekannten Art von Ubisoft Spiele schlecht zu programmieren. Denk dran eine R9 M290X liegt bei etwa 2,3 TF Leistung... die PS4 GPU nur bei 1,84. Also ist die GPU im Testnotebook minimum 25% schneller, hat mehr RAM zur Verfügung (4 Gb Vram alleine) und einen i7 im Nacken und packt was... genauso wenig 1080p und müsste eigentlich auch 900p mit 30 FPS bieten... trotz mehr Power.
Input ist ebenfalls gelöst.
Gelöst != es gibt eine rudimentär brauchbare Lösung.
DinosaurusRex
2015-03-10, 16:53:20
Bei der neuesten Generation wird niemanden mehr schlecht, Motion Sickness ist gelöst.
Das ist prinzipbedingt unmöglich. Du kannst höchstens die Symptome lindern. Geometrische Optik (in diesem Fall VR) trickst den menschlichen Wahrnehmungsapparat aus, es basiert auf grundlegend verschiedenen Prinzipien als die natürliche Wahrnehmung. Um Motion Sickness vollständig zu eliminieren, müsstest du schon ein auf Wellenoptik basierendes Display in das VR HMD integrieren. Das ist aber Stand heute technisch unmöglich und wird es vermutlich auch eine weitere Dekade bleiben.
Ich sehe VR ebenfalls nur als einen vorübergehend Hype an.
Die technische Ursache für Sickness kann man sicherlich weitestgehend einschränken, die biologischen bleiben, das kann man nicht ändern. Man kann sicherlich das Input ändern, dass es weniger störend ist.
Nichts davon ändert etwas daran, dass es eine Fette Brille ist, die man sich auf den Kopf setzt, aber genau das ist das Problem. Im Heimkinobereich hat sich deshalb nicht mal die Shutterbrille durchgesetzt, wie soll das bei VR klappen? Hinzu kommen die rein praktischen Probleme. Wie gesagt, die Sinne nehmen nicht die Umgebung wahr, das ist störend und unangenehm auf Dauer. Das Problem kann man nicht mit VR lösen, vielleicht mit Holographie.
Das ist ne Totgeburt, eine milliardenschwere Totgeburt meiner Ansicht nach. VR und AR sind toll gedacht aber man hat leider den Menschen als biologisches Wesen dabei vergessen... schade.
Guest83
2015-03-10, 17:13:36
Gelöst != es gibt eine rudimentär brauchbare Lösung.
Es ist gelöst. Das heißt nicht, dass es nicht irgendwann noch bessere Lösungen geben kann, mit mehr haptischen Feedback und allem, aber das grundsätzliche Problem ist gelöst.
Das ist prinzipbedingt unmöglich. Du kannst höchstens die Symptome lindern. Geometrische Optik (in diesem Fall VR) trickst den menschlichen Wahrnehmungsapparat aus, es basiert auf grundlegend verschiedenen Prinzipien als die natürliche Wahrnehmung. Um Motion Sickness vollständig zu eliminieren, müsstest du schon ein auf Wellenoptik basierendes Display in das VR HMD integrieren. Das ist aber Stand heute technisch unmöglich und wird es vermutlich auch eine weitere Dekade bleiben.
0% werden Motion Sick = Gelöst. Ich weiß nicht was mehr als "niemanden der es nutzt wird schlecht" du dir erwartest.
Ich sehe VR ebenfalls nur als einen vorübergehend Hype an.
Auf der Playstation vielleicht.
Die technische Ursache für Sickness kann man sicherlich weitestgehend einschränken, die biologischen bleiben, das kann man nicht ändern. Man kann sicherlich das Input ändern, dass es weniger störend ist.
Nichts davon ändert etwas daran, dass es eine Fette Brille ist, die man sich auf den Kopf setzt, aber genau das ist das Problem. Im Heimkinobereich hat sich deshalb nicht mal die Shutterbrille durchgesetzt, wie soll das bei VR klappen? Das ist ne Totgeburt, eine milliardenschwere Totgeburt.
Stell dir mal vor, es gibt Leute die setzen sich einen riesigen Helm auf der die Bewegungsfreiheit komplett einschränkt, schwer ist und den sie selbst nicht einmal ohne fremde Hilfe abnehmen können. Warum tun sie das? Weil die Belohnung dafür ist, dass sie in den Weltraum fliegen können. Einfach zu sagen "Shutterbrillen haben sich nicht durchgesetzt, deshalb scheitert VR" hat keinen Bezug zur Realität. Was bringt mir eine Shutterbrille? Dass im drei Meter entfernt stehenden Kasten der eine Charakter ein bisschen vor dem anderen schwebt? Das ist keine große Belohnung. VR hingegen ermöglicht es, dass ich selbst in eine komplett andere Welt teleportiert werde.
DinosaurusRex
2015-03-10, 17:18:13
0% werden Motion Sick = Gelöst. Ich weiß nicht was mehr als "niemanden der es nutzt wird schlecht" du dir erwartest.
Das ist eine physikalische Unmöglichkeit und alle Unternehmen, die diese Geräte herstellen, wissen das auch. Solange du ein auf geometrischer Optik basierendes Display für die Erzeugung eines 3D-Effektes verwendest, wirst du Motion Sickness nicht loswerden. Punkt.
Du musst innerhalb des HMDs ein Hologramm erzeugen, um Motion Sickness ausschließen zu können. Dieses Hologramm könnte dann visuell fixiert werden. Du kannst auf geometrischer Optik basierende Bilder nicht visuell fixieren. Du kannst immer nur die Linse oder das Display fokussieren und das erzeugt Motion Sickness und Kopfschmerzen, weil die räumliche Datstellung nicht übereinstimmt mit der räumlichen Eigenschaft der Linse oder des Displays.
Guest83
2015-03-10, 17:21:25
Das ist eine physikalische Unmöglichkeit und alle Unternehmen, die diese Geräte herstellen, wissen das auch. Solange du ein auf geometrischer Optik basierendes Display für die Erzeugung eines 3D-Effektes verwendest, wirst du Motion Sickness nicht loswerden. Punkt.
Du solltest weniger mit Schlagwörtern um dich werfen und noch einmal meine Aussage lesen: Niemanden wird schlecht. Leute setzen das Headset auf, machen Demos, nehmen sie wieder ab und ihnen ist nicht schlecht. Viele Leute tun das. Die gesamte Menge an Leuten die es getan haben, ist 100%. Die Menge an Leuten denen danach schlecht war, ist 0%. Ich weiß nicht wie sonst ich es noch besser erklären könnte. Motion Sickness ist gelöst.
Terrarist
2015-03-10, 17:31:25
Im Heimkinobereich hat sich deshalb nicht mal die Shutterbrille durchgesetzt, wie soll das bei VR klappen?
Der Mehrwert ist beim Heimkino verglichen mit 2D einfach zu gering. VR hingegen ist eine neue Plattform und macht neue Spiele und Arten des Entertainments möglich, es ist halt was ganz anderes wie vor nem Bildschirm zu sitzen, du bist halt wirklich mittendrinn.
Wie ist das jetzt mit LiquidVR also GPU unterstütztes, wegen den Latenzen etc... ist das mit Timewarp zu vergleichen, oder setzt diese Methode noch ne Schippe oben drauf?
Oder hat da jemand für mich nen Link, wo ich mir mehr Input reinpfeifen kann?
y33H@
2015-03-10, 20:24:31
Liquid VR kann ATW, so wie NVs Direct VR auch.
MadManniMan
2015-03-10, 21:03:52
Mir wird sofort schlecht davon wenn die Kamera schwenkt ohne das man den Kopf bewegt. Geht extrem vielen so.
Abseits dessen: reizt die Technologie denn den Coder in Dir? ;)
Dass es einem bei VR schlecht werden kann, ist ja nicht das einzige Problem. Es ist eher ein ähnliches Problem wie mit 3D-Brille fernsehen oder mit Hampelei Wii spielen, da hat man auf Dauer einfach keinen Bock zu, weil es schlicht und ergreifend unbequem ist.
Stell Dir vor: es gibt Leute, die spielen lieber mit abgestreckten Gliedmaßen mit Maus und Tastatur, statt liegend per Gamepad zu zocken ;)
Komfort ist relativ, der Mehrwert durch unterschiedliche Peripherie ebenso.
Ich für meinen Teil nutze nicht mal Kopfhörer, weil mich das nervt.
Du ahnst vielleicht, dass Du nicht unbedingt den Standarduser darstellst? :D
Wie soll das erst sein, wenn man nicht mal eben zwischendurch was Trinken kann oder man auch die Außenwelt gern mitbekommen möchte (z.B. wenn die Frau ruft...). An so simplen Dingen scheitert das, nicht am Kotzen... Das ist einfach ein weitere Hype, der in irgendeiner Nische endet.
1) Siehe Pass-Through-Kameras.
2) Klar nervt es, Zeugs auf dem Kopf zu haben, aber wenn ich mit Kopfhörern und 3D-Brille (passiv ;) ) gezockt habe und meine Freundin wollte was von mir, dann habe ich die Kopfhörer runter und die Brille hoch gezogen. Danach habe ich das Zeug wieder aufgesetzt und bin in die Spielwelt eingetaucht, das hatte einen gewissen Mehrwert gegenüber dem bisschen Gebamsel.
3) Wieviel würdest Du wetten?
Hmmm,
also selbst mit der neusten Occulus Rift wurde den Leuten reihenweise übel. Einer hatte sogar noch einige Stunden danach zu kämpfen. Und nein, das ist kein "hörensagen", sondern ich saß daneben.
DK2 oder CB? Welche Applikationen?
"gelöst" würde ich das nicht nennen. Und ich weiß auch nicht wie du ein Problem, welches auch ohne VR auftreten kann, überhaupt lösen willst. Stichwort "Reisekrankheit".
Man kann einen Designstandard entwickeln, um die problembehafteten Szenarien zumindest zu vermeiden.
Ganz zu schweigen vom Kabelsalat und das dicke Kabel zum Kopf hin.
Kabellos fetzt schon, habe selber Funkkopfhörer, aber wie viele Leute spielen denn mit kabelgebundenen Kopfhörern?
edit:
Vllt. mal ein Beispiel:
- Mir wird in einem echten Auto schlecht
- wenn ich ein Autorennspiel spiele wird mir nicht schlecht
- wenn ich ein Autorennspiel mit VR spiele wird mir schlecht (nur deutlich schneller!)
Ich kenne viele Leute, denen in Autos schlecht wird, aber die stellen die deutliche Minderheit in meinem Bekanntenkreis dar. Hast Du Zahlen zu Kinetose?
Und eine "Lösung" wie "Man macht es einfach nicht" ist keine Lösung. Und ein "unbeweglicher Stein" in der Landschaft zu sein (man darf die Kamera als Spieldesigner ja nicht bewegen) ist auch kein guter Grundsatz für "intensivere" Spiele. Man kriegt im Spiel "was auf die Fresse" und nichts passiert... irgendwie doof.
Klar sind die Einschränkungen erstmal ganz schön krass und wir werden eine Menge Dinge entdecken, die unterbleiben müssen, obwohl man sie schon immer so gemacht hat. Habe ich beim normalen Stereo-3D erlebt, als nur wenige Entwickler die einigen wenigen Dinge beachteten, die man für vernünftiges PC-3D berücksichtigen muss, aber da gab es ob des geringen Mehrwerts und des vergleichsweise großen Aufwands einfach keine kritische Menge.
Genauso das Problem bei VR. Wer bewegt deinen echten Kopf, wenn du im Spiel gegen ein Hindernis rennst?
Da bedarf es Ersatzreizen. Siehe Alien Isolation: will man den Kopf durch eine Wand stecken, blendet das Spiel ins Schwarze aus. Wie gut das jeweils funktionieren wird, werden wir sehen.
Das ist ne Totgeburt, eine milliardenschwere Totgeburt meiner Ansicht nach. VR und AR sind toll gedacht aber man hat leider den Menschen als biologisches Wesen dabei vergessen... schade.
Kann es sein, dass Du aufgrund Deiner persönlichen Abneigung gegen bspw. Peripherie auf Deinem Kopf das ganze doch arg subjektiv betrachtest? ;)
Nur zum Verständnis: vor allem in diesem Posting tu ich das auch, aber eher, um die Gegenpositionen vertreten zu wissen. Ansonsten sehe ich diverse Dinge auch extrem kritisch, bin aber sehr aufgeschlossen.
Ganon
2015-03-10, 21:32:33
DK2 oder CB? Welche Applikationen?
Puh, letzten Monat kam das Teil an (ist nicht meines, in der Uni)... es ist die Variante wo der Kopf per Kamera erfasst wird.
Zum einen die Demo-Applikationen als auch das Spiel Euro Truck Simulator.
Die stillen Demos kamen noch ganz gut an, wobei hier bei einigen wenigen es auch schon "vorbei" war. Hier mag SteamVR besser sein.
Bei Euro Truck Simulator hat es mehr ausgenockt. Ich denke es liegt hauptsächlich daran, dass man ja nicht sich bewegt, sondern hier ein anderes Objekt bewegt, worin du sitzt. Oft kam es auch zu Fehlerkennung der Kopfposition, wo man dann künstlich seinen Kopf "vorbewegen" musste, weil man sonst "im" Sitz saß.
Stark verwirrend ist auch, dass man im Spiel zwangsweise seinen Körper nicht sieht. Hier müsste man das ganze eher mit etwas kinectartigen kombinieren, damit man "seinen" Körper hat.
Man kann einen Designstandard entwickeln, um die problembehafteten Szenarien zumindest zu vermeiden.
Ja, aber du darfst halt in keiner Szene den Spieler bewegen. Sowohl im Gefecht also auch in anderen Situationen. Das schränkt schon extrem ein. Das heißt selbst sowas wie "krieche in den Schacht" könnte für diverse Leute schon zuviel sein.
Kabellos fetzt schon, habe selber Funkkopfhörer, aber wie viele Leute spielen denn mit kabelgebundenen Kopfhörern?
Am PC vllt. viele. Aber an einer Konsole? Kabel quer durch den Raum zur Konsole hin? Und dann ist das ja auch kein Köpfhörerkabel, sondern schon etwas dickeres.
Ich kenne viele Leute, denen in Autos schlecht wird, aber die stellen die deutliche Minderheit in meinem Bekanntenkreis dar. Hast Du Zahlen zu Kinetose?
Zahlen nicht, aber Kotztüten auf Schiffen und in Flugzeugen zeigen schon, dass es nicht wenig sind. Sicherlich schon die Minderheit, aber es reicht oft schon, wenn sich durch die Medien zieht, dass man davon kotzen könnte. Da überlegt sich der Normalnutzer schon, ob er dafür 300 EUR ausgibt.
Da bedarf es Ersatzreizen. Siehe Alien Isolation: will man den Kopf durch eine Wand stecken, blendet das Spiel ins Schwarze aus. Wie gut das jeweils funktionieren wird, werden wir sehen.
Ja, das mag in Einzelfällen gehen. Aber ich denke nicht, dass wir hier viele VR-Spiele sehen, die Motion Sickness vermeiden. Da wird einfach das Spiel so umgesetzt wie es in 2D auch wäre und dann sollen es die Leute sehen, die es abkönnen. Wenn du dir Spiele wie The Order als Extrembeispiel anguckst, dann besteht das doch fast nur aus Cutszenes. Und die Cutszenelastigkeit ist in den letzten Jahren schon eher wieder gestiegen.
Und jetzt verlangt man, dass es GAR KEINE Cutszenes mehr gibt.
Das wird dann im Endeffekt nur den VR-Hersteller schaden, wenn die Leute es nicht mehr kaufen.
MadManniMan
2015-03-10, 21:55:52
Bei Euro Truck Simulator hat es mehr ausgenockt. Ich denke es liegt hauptsächlich daran, dass man ja nicht sich bewegt, sondern hier ein anderes Objekt bewegt, worin du sitzt. Oft kam es auch zu Fehlerkennung der Kopfposition, wo man dann künstlich seinen Kopf "vorbewegen" musste, weil man sonst "im" Sitz saß.
Stark verwirrend ist auch, dass man im Spiel zwangsweise seinen Körper nicht sieht. Hier müsste man das ganze eher mit etwas kinectartigen kombinieren, damit man "seinen" Körper hat.
Hm, das hier? https://www.youtube.com/watch?v=v7H38HWeeKk
Ja, aber du darfst halt in keiner Szene den Spieler bewegen. Sowohl im Gefecht also auch in anderen Situationen. Das schränkt schon extrem ein. Das heißt selbst sowas wie "krieche in den Schacht" könnte für diverse Leute schon zuviel sein.
Ist bei mir auch nur Hörensagen. Ich bin auch skeptisch, kann halt nicht jedes Spiel HL2 sein - vielleicht können Cutscenes in einem separaten "Overlay" eingeblendet werden?
Am PC vllt. viele. Aber an einer Konsole? Kabel quer durch den Raum zur Konsole hin? Und dann ist das ja auch kein Köpfhörerkabel, sondern schon etwas dickeres.
[x] PC Gaming Master Race :D
Zahlen nicht, aber Kotztüten auf Schiffen und in Flugzeugen zeigen schon, dass es nicht wenig sind. Sicherlich schon die Minderheit, aber es reicht oft schon, wenn sich durch die Medien zieht, dass man davon kotzen könnte. Da überlegt sich der Normalnutzer schon, ob er dafür 300 EUR ausgibt.
Ist halt die Frage, wie groß die Menge tatsächlich ist, davon dürfte das dann abhängen.
Wenn erst die örtlichen Elektromärkte bspw. ein Vive ausstellen, können sich die Leute ja vor Ort überzeugen.
Ja, das mag in Einzelfällen gehen. Aber ich denke nicht, dass wir hier viele VR-Spiele sehen, die Motion Sickness vermeiden. Da wird einfach das Spiel so umgesetzt wie es in 2D auch wäre und dann sollen es die Leute sehen, die es abkönnen. Wenn du dir Spiele wie The Order als Extrembeispiel anguckst, dann besteht das doch fast nur aus Cutszenes. Und die Cutszenelastigkeit ist in den letzten Jahren schon eher wieder gestiegen.
Und jetzt verlangt man, dass es GAR KEINE Cutszenes mehr gibt.
Das wird dann im Endeffekt nur den VR-Hersteller schaden, wenn die Leute es nicht mehr kaufen.
Wie weiter oben schon gesagt: ich bin mir nicht sicher, ob es nötig sein wird, komplett auf Zwischensequenzen zu verzichten. Vielleicht war es auch einfach nur der Verzicht auf die Blickrichtungsführung des Spielers, wenn man in der Egoperspektive bleibt.
Jemand mit DK-Erfahrung diesbezüglich anwesend?
Ganon
2015-03-10, 22:04:58
Hm, das hier? https://www.youtube.com/watch?v=v7H38HWeeKk
Scheint so. Ich kenne jetzt auch nur die erste Variante (ohne Kamera *grusel* die war echt schlimm!) und das hier mit Kamera.
Hier war auch das Problem, wenn man seinen Kopf zu weit nach hinten dreht, dass die Kamera den "Griff" verliert und die Kopfbewegungen auch nicht immer passen. Aber "umdrehen" ist bei der Occulus wohl nicht so vorgesehen.
MadManniMan
2015-03-10, 22:07:05
Da habe ich jetzt keine Ahnung ... aber war es nicht so, dass das DK2 recht schnell "driftet"?
Geldmann3
2015-03-10, 23:48:07
Ich stehe dem Cloud Gaming in den nächsten 5 Jahren sehr kritisch gegenüber. In meinen Augen ist es erst ernst zu nehmen, wenn die Latenz auf unter 30ms gesenkt werden kann. Dafür müsste in nahezu jeder Großstadt ein Rechenzentrum des Konsolenherstellers mit epochaler Rechenleistung und Anbindung bereit stehen. Klar, in kleineren Angeboten ist es gerade noch zu stemmen, doch wenn wirklich etwas wie die PS4 durch die Cloud ersetzt werden soll, gute Nacht!
Bei der neuesten Generation wird niemanden mehr schlecht, Motion Sickness ist gelöst.
Du hast nicht verstanden was ich gesagt habe.
Sobald das Spiel die Kamera rotiert während ich den Kopf NICHT bewege wird mir schlecht. Da ist gar nichts gelöst, das lässt sich auch nicht lösen, außer die Software beachtet es in allen Fällen. Alle Fälle wo dem Spieler die direkte Kontrolle entzogen wird. Alle Third-Person-Sachen fallen weg.
Was machst du in Cutscenes? Einsteigen in ein Fahrzeug etc? Im Moment ist die beste Lösung ein Cut mit schwarzem Bild.
Was ist wenn man sich komplett umdrehen muss? Komplett rotieren im Stuhl?
Und nein, das Problem hab nicht nur ich. Das sind alle mit Anfälligkeit für Sehkrankheit, denn das ist genau das gleiche Problem: Das Gehirn bekommt ein widersprüchliches Signal von Auge und Gleichgewichtssinn.
Für Sachen wie Flugsimulatoren ist es wohl ziemlich cool, aber die Benutzbarkeit ist für mich zu eingeschränkt.
Neosix
2015-03-11, 10:05:31
Ich bin da ganz bei Coda, ich bin auch einer solchen Fälle.
Ich kann im Auto (als Beifahrer) nicht mal ne kurze Whatsapp Nachricht schreiben, geschweige denn ein Buch lesen. Wenn ich länger als 30-60 Sekunden nicht auf die Straße achte, beginnt mir das Essen wieder hoch zu kommen.
Ich hoffe ich werde mal ne Gelegenheit kriegen, eins dieser "Motion Sickness ist gelöst" Geräte mal Live zu testen, ich muss nur daran denken vorher nichts zu essen. Sonst werden die Leute, hinter mir, den Teppich reinigen müssen.
MadManniMan
2015-03-11, 11:17:03
Hm, kann man Kinetose "abtrainieren"?
Bei mir ist das noch nicht mal besonders stark ausgeprägt und ich hab Probleme. Auf dem Boot komm ich in der Regel klar, außer es ist wirklich starker Wellengang. Bei Non-VR-Spiele hab ich auch noch nie Probleme gehabt.
Was ich ausprobiert habe war Alien Isolation mit dem neusten Occulus: Ich nenn den Xbox-360-Stick der die Kamera dreht Kotzstick. Ich will gar nich wissen wie das mit Maus wäre wenn man wirklich schnell drehen kann.
Es gibt übrigens Pillen die Seekrankheit bei mir zu 100% unterdrücken (zumindest in Thailand auch ohne Rezept :D). Keine Ahnung wie gesund die sind.
Guest83
2015-03-11, 12:18:30
Du hast nicht verstanden was ich gesagt habe.
Sobald das Spiel die Kamera rotiert während ich den Kopf NICHT bewege wird mir schlecht. Da ist gar nichts gelöst, das lässt sich auch nicht lösen, außer die Software beachtet es in allen Fällen. Alle Fälle wo dem Spieler die direkte Kontrolle entzogen wird.
Das ist doch sowieso logisch, ich rede vom Motion Sickness das man bekommt wenn man VR ganz normal benutzt, ohne irgendwelche Kamerafahrten und dergleichen. Und das ist gelöst.
Alle Third-Person-Sachen fallen weg.
Nicht unbedingt.
Was machst du in Cutscenes?
Wie in Half-Life 2, der Spieler behält immer die Kontrolle. Das sollte sowieso der Standard sein in Spielen, leider glauben viel zu viele Entwickler man müsse ein Spiel inszenieren wie einen Film, obwohl es ein kompeltt anderes Medium ist.
Und nein, das Problem hab nicht nur ich. Das sind alle mit Anfälligkeit für Sehkrankheit, denn das ist genau das gleiche Problem: Das Gehirn bekommt ein widersprüchliches Signal von Auge und Gleichgewichtssinn.
Das ist dasselbe wie oben, das ist eine reine Designfrage für die Software. Bisher war es ein Soft- und Hardwareproblem. Dass selbst wenn du dich an die Best Practices hältst, vielen Leuten zumindest unwohl oder schwindlig wurde. Das ist nun nicht mehr der Fall. Entsprechend ist Motion Sickness gelöst. Das heißt nicht, dass man es nicht trotzdem erzeugen kann wenn man möchte, aber welcher Designer der ein gutes Erlebnis erschaffen will, sollte das denn wollen? Das ist ja eine rein akademische Diskussion.
Es ist keine akademische Diskussion wenn du nicht mal frei jemanden in nem Level rumlaufen lassen kannst ohne das zu verletzen. Wie willst du dich denn beliebig drehen?
Alles wo man nicht fest in nem Sitz sitzt ist praktisch unmöglich.
Was geht ist die Kamera ruckartig in zum Beispiel 30°-Schritten zu drehen. Das ist auf Dauer aber auch extrem gewöhnungsbedürftig und zum Beispiel für nen Shooter absolut nicht handhabbar.
Guest83
2015-03-11, 12:53:34
Du denkst noch viel zu sehr in den Kategorien eines klassischen Videospiels, VR-Erlebnisse müssen ganz anders konzipiert werden um gut zu sein.
Rente
2015-03-11, 13:02:58
Du denkst noch viel zu sehr in den Kategorien eines klassischen Videospiels, VR-Erlebnisse müssen ganz anders konzipiert werden um gut zu sein.
Das ist keine Argumentation, das ist eine Nebelkerze.
Mir wird btw. genauso im Auto schlecht (als Mitfahrer) sobald ich auch nur 10-15s anfange etwas zu lesen, die Übelkeit lässt sich zwar unterdrücken, irgendwann werden die Kopfschmerzen aber einfach zu stark - mal sehen wie das bei VR wird.
Du denkst noch viel zu sehr in den Kategorien eines klassischen Videospiels, VR-Erlebnisse müssen ganz anders konzipiert werden um gut zu sein.
Was es untauglich für den Massenmarkt macht. Q.e.d.
Du denkst noch viel zu sehr in den Kategorien eines klassischen Videospiels, VR-Erlebnisse müssen ganz anders konzipiert werden um gut zu sein.
Die Anzahl der interessanten Erlebnisse, die man in einer 2mx3m Fläche realisieren kann, sind begrenzt und imo zu wenig, um VR zu einem breiten Durchbruch zu verhelfen.
Ob man eine zusätzliche praxistaugliche Steuerung findet, die keine Motionsickness verursacht, muss man abwarten.
Leonidas
2015-03-11, 15:36:37
4K halte ich für die folgenden Konsolen für völlig illusorisch
Für 2019? Sehe ich unverbissen. Dann werden Konsolen-Chips auch schon HBM haben können.
Und FullHD nochmals als Feature zu bringen, wird nicht funktionieren.
N0Thing
2015-03-11, 16:11:05
Schon für diese Generation wurde von einigen angenommen, dass FullHD immer der Standard sein würde, eventuell sogar mit 60fps.
Nachdem jetzt schon nach kurzer Zeit einige Spiele auf beiden Konsolen nicht über 30fps und 900p hinaus kommen, frage ich mich, warum das bei der nächsten Generation anders ablaufen soll. Die Entwickler werden auch dann den für sie besten Kompromiss aus Auflösung, Framerate und Details anstreben.
Für 2019? Sehe ich unverbissen. Dann werden Konsolen-Chips auch schon HBM haben können.
Und FullHD nochmals als Feature zu bringen, wird nicht funktionieren.
4K braucht 4x Rechenleistung. Um dazu überhaupt visuell einen großen Unterschied zu sehen noch mal mindestens Faktor 5. 20x so schnelle Hardware 2019? Wohl eher nicht.
DinosaurusRex
2015-03-11, 17:21:02
Das ist doch sowieso logisch, ich rede vom Motion Sickness das man bekommt wenn man VR ganz normal benutzt, ohne irgendwelche Kamerafahrten und dergleichen. Und das ist gelöst.
Es ist nicht gelöst. Du kannst es nicht lösen, weil es ein Problem ist, das prinzipbedingt bei jeder Art von Stereoskopie auftritt. Würden diese VR HMDs ohne 3D-Effekt arbeiten, dann hättest du das Problem nicht. Grundsätzlich kannst du mit Stereoskopie niemals ein echtes 3D-Bild erzeugen. Der 3D-Effekt entsteht bei Stereoskopie immer erst in deinem Gehirn, nach dem dein Wahrnehmungsapparat ausgetrickst wurde. Deswegen kannst du stereoskopische 3D-Effekte auch nicht visuell fokussieren. Dieses Austricksen sorgt für die Nebeneffekte, die Coda beispielsweise basierend auf seinen eigenen Erfahrungen geschildert hat. Bei einem VR HMD ohne 3D-Effekt, hätte er diese Nebeneffekte nicht. Dein Gehirn muss die visuellen Reize bei Stereoskopie immer erst wie ein Puzzle zusammensetzen und das ist anstrengend und tritt immer wieder in Widerspruch zu deiner natürlichen Wahrnehmung, die du seit deiner Geburt gewöhnt bist. Würde innerhalb des VR HMDs ein echtes 3D-Bild erzeugt werden (Stereoskopie ist IMMMER Fake-3D, ein Hologramm ist bspw physikalisch korrektes 3D), dann würde deinem Gehirn automatisch diese ganze Arbeit abgenommen werden. Ein Hologramm zu betrachten ist genauso als würdest du einen stinknormalen Monitor betrachten, nur mit dem Unterschied, dass du eine schicke dreidimensionale Darstellung hast.
Alle Third-Person-Sachen fallen weg.
Das denke ich nicht. 3rd-Person Spiele könnten realisiert werden über eine erweiterte 1st-Person Kamera, also in dem der Spieler das Spielgeschehen wie ein flaches Diorama oder ein Theaterstück betrachtet. Der Spieler wäre sozusagen der Regisseur der Szene. Grundsätzlich denke ich, dass sich VR hervorragend für virtuelles Theater eignet! Du könntest beispielsweise Theaterstücke nach den Ideen des Spielers aufführen lassen, also in dem man Schauplatz, Musik und sogar Plot dynamisch verändern kann. Diese Theaterstücke ließen sich sogar wunderbar streamen. Dafür braucht es prinzipiell kein VR, es ginge auch jetzt schon, aber beim VR geht es primär um Aura (-> Walter Benjamin), da die Handlungen des Spielers durch Gründe, die du zuvor genannt hast, nicht wirklich vorhersehbar und reproduzierbar sind. Jeder Spieler wird anders reagieren, je nach dem ob er zum ersten Mal so ein VR-Teil nutzt oder was auch immer und du musst die ganze Darstellung von den "cineastischen" Schienen nehmen. Je lahmarschiger die Idee, desto besser ist sie mit VR umsetzbar, denn bei VR geht es um den VR-Effekt und sonst gar nichts. Genau deswegen hab ich auch keinen Bock auf den Mist.
4K braucht 4x Rechenleistung. Um dazu überhaupt visuell einen großen Unterschied zu sehen noch mal mindestens Faktor 5. 20x so schnelle Hardware 2019? Wohl eher nicht.
Und wie sieht's aus, wenn man Foveated Rendering bis dahin marktreif kriegt?
Du kannst es nicht lösen, weil es ein Problem ist, das prinzipbedingt bei jeder Art von Stereoskopie auftritt. Würden diese VR HMDs ohne 3D-Effekt arbeiten, dann hättest du das Problem nicht.
Ich denke nicht, dass Stereo da einen großen Einfluss darauf hat.
Der 3D Effekt beim Menschen entsteht hauptsächlich durch:
- Änderung der Augenposition
- Beleuchtung
- Geometrische Interpretation durch das Gehirn
- Stereo
- Fokus
Selbst ohne Stereo hat man in einem aktuellen HMD eine recht gute 3D Wahrnehmung.
Guest83
2015-03-11, 19:43:05
@DinosaurusRex
Ich weiß nicht wer dir diesen Floh ins Ohr gesetzt hat (wobei es ein bisschen nach dem Zeugs klingt was die Project Leap Typen verzapfen), aber das ist ein Faktor von vielen und sogar ein eher unbedeutender. Und er ist ganz sicher nicht für Motion Sickness verantwortlich, das hat mit Latenz, Positional Tracking und natürlich Locomotion zu tun.
DinosaurusRex
2015-03-12, 15:59:58
Ich weiß nicht wer dir diesen Floh ins Ohr gesetzt hat (wobei es ein bisschen nach dem Zeugs klingt was die Project Leap Typen verzapfen), aber das ist ein Faktor von vielen und sogar ein eher unbedeutender. Und er ist ganz sicher nicht für Motion Sickness verantwortlich, das hat mit Latenz, Positional Tracking und natürlich Locomotion zu tun.
Das ist kein Floh. Das ist Physik. Geh zur nächsten Uni, frag den nächstbesten Physik Prof und der wird dir das ganze erklären.
Hier wird das ganze auch halbwegs gut erklärt: InTech Holographic 3D Displays (http://www.intechopen.com/books/advances-in-lasers-and-electro-optics/holographic-3-d-displays-electro-holography-within-the-grasp-of-commercialization#SEC3)
In human vision, three-dimensional perception is triggered by a large number of cues. Among them monocular cues such as shading, occlusion, relative size, fogging, perspective distortion, and texture gradient as well as binocular ones such as vergence (angular disparity) and stereopsis (horizontal disparity). In natural viewing situations, depth information is an ever-present cue in the visual perception. Generally, and in addition to parallax, the physiological depth cues of accommodation and vergence are considered to be the most important ones for depth perception. Accommodation is the mechanism by which the human eye alters its optical power to hold objects at different distances into sharp focus on the retina. The power change is induced by the ciliary muscles, which steepen the crystalline lens’ curvature for objects at closer distances. Vergence, by contrast, is the simultaneous movement of both eyes toward the point of interest. The optical axes of both eyes converge on this point to image the object onto the respective fovea regions. When the eyes are not properly aligned with each other, strabismus occurs that may adversely impair any 3-D perception. But most importantly, vergence movements and accommodation are closely linked with each other – automatically and subconsciously. That’s why the image of an object is sharp and the two perspectives are fused. Together with other monocular and binocular cues, the focus depth cues – accommodation and blur in the retinal image – contributes to our visual ability to perceive the environment in three dimensions.
Over the last decade, various technologies for visualizing three-dimensional (3-D) scenes on displays have been technologically demonstrated and refined, among them such of stereoscopic, multi-view, integral-imaging, volumetric, or holographic type. It is generally believed that the next big thing in the display industry is imminent, namely the transition from 2-D to 3-D visualization. It is seen as nothing less than the third epoch-making change in film industry, after the change from silent to sound movie in the 1920’s and from black-and-white to color in the 1950’s.
Most of the current approaches utilize the conventional stereoscopic principle, first described by Wheatstone(Wheatstone, 1838). But except of super-multiview displays, they all lack of their inherent conflict between vergence and accommodation since scene depth cannot be physically realized but only feigned by displaying two views of different perspective on a flat screen and delivering them to the corresponding left and right eye. This mismatch requires the viewer to override the physiologically coupled oculomotor processes of vergence and eye focus, which may cause visual discomfort and fatigue.
The difference between normal viewing and stereoscopic viewing with conventional 3-D displays is illustrated in Figure 1. Natural viewing provides real stimuli; the viewer is both fixated and focused on the object, i.e. accommodation distance and vergence distance are exactly matched. But the situation changes for stereoscopic 3-D displays. Though the viewer is still fixated to the object with the same vergence as in natural viewing, his eye focus is now at the display and not where the object seems to be. That is because the viewer’s eyes always focus on the brightest point or highest contrast. With stereoscopic 3-D displays, depth is only an optical illusion. Hence with stereoscopic displays, the normal physiological correlation between vergence and accommodation is disrupted (Hoffman et al., 2008). When looking at a stereoscopic display for a while, this so-called depth cue mismatch between convergence and focus leads to eye strain and fatigue. This fundamental problem to stereoscopic 3-D is a physiologically one that cannot be solved by technological means. The only workaround for stereoscopic displays is either to limit scene depth to very short sequences (short time viewing) or to artificially reduce the depth of a scene (squeezed, non-proportional depth). The so-called comfort depth range of stereoscopic displays, which can be used for depth illusion without getting eye strain and fatigue is limited to a region close to the display that corresponds approximately 20...30% of the distance between viewer and display. Only within this region the human eye can tolerate a certain amount of mismatch. According to optometrists, this tolerance is in the range of 1/4 diopter. Although stereo 3-D can work well for some applications, for example cinema with far observing distance or cell phones with short viewing time, it causes significant human factor risks for mainstream products as PC monitors and TV. Looking at current stereoscopic 3-D displays and prototypes it can also be observed that even the 1/4 diopter is scarcely utilized, limiting usable depth range even further.
Figure 1. Comparison between natural viewing or holographic 3-D display (left) and stereoscopic viewing with a 3-D stereo display (right):
http://www.intechopen.com/source/html/9867/media/image1.jpeg
Guest83
2015-03-13, 18:39:33
Das ist kein Floh. Das ist Physik. Geh zur nächsten Uni, frag den nächstbesten Physik Prof und der wird dir das ganze erklären.
Nochmal: Das ist ein Faktor von vielen für die 3D-Wahrnehmung und insgesamt gesehen einer der weniger relevanten. Und es hat nichts mit Motion Sickness zu tun.
Hier übrigens ein VR-Entwickler der heute SteamVR ausprobiert hat:
I'm at EGX all day demoing Crystal Rift so struggling for time but want to share: sickness solved, screen is great, I got 100% presence all the time I was playing, controllers are amazing, haptic feedback is great, squeeze grip is cool.
Looking forward to VR, it's amazing times
http://www.reddit.com/r/oculus/comments/2yxf5v/vive_vr_is_awesome_im_very_impressed/
Schnell, erklärt ihm dass er sich eigentlich schlecht fühlen muss, da Motion Sickness nicht gelöst werden kann!
DinosaurusRex
2015-03-14, 15:37:31
Die haben eine Lösung für ein Problem gefunden, das im Speziellen bei VR auftritt. Aber da diese VR-Geräte auf Stereoskopie basieren, können sie keine Lösung für ein Problem finden, das im Allgemeinen und prinzipbedingt bei jeder Form von Stereoskopie auftritt. Über diese Probleme wird aber nicht geredet, weil die Geld verdienen wollen.
Stereoskopie ist Mist. Schon immer. Es ist 'ne nette Spielerei, aber mehr auch nicht. Es hat sich noch niemals zuvor durchgesetzt und wird sich auch niemals durchsetzen, davon bin ich felsenfest überzeugt, weil die Nachteile einfach überwiegen. Du erkaufst dir die 3D-Darstellung mit Kopf- und Augenschmerzen, den Menschen wird schlecht davon. Im besten Fall fühlt es sich einfach unangenehm an. "Jo Chef, ich komm heute nicht zur Arbeit.", "Warum nicht?", "Hab den ganzen Morgen Videospiele gespielt und jetzt geht es mir nicht gut...". Ganz toll. Warte mal, bis die Leute reihenweise loskotzen, weil sie betrunken auf 'ner Party mit dem VR-HMD rumgespielt haben.
VR ist für Videospiele, was 3D fürs Kino ist. Durch die ganzen Entwicklungen am Display-Markt, ausgelöst durch Smartphones (sehr kleine Displays mit enorm hoher Auflösung) ist VR technisch möglich geworden und deswegen springen jetzt alle auf den Zug auf und wollen ein Stück vom Hype-Kuchen. Immer wenn man neues Wachstum braucht, kommt irgendwer mit Stereoskopie um die Ecke und lobpreist es als den heiligen Gral der Medienrezeption, dann hast du nen kurzen Hype und nach ein, zweimal testen hat kein Schwein mehr Bock auf den Mist. Geh mal ins Kino und schau dich um: Da setzen die Leute häufig schon nach 'ner Stunde ihre Brillen ab. Und bei VR hast du das ganze noch viel stärker ausgeprägt, weil das Teil fest auf deiner Rübe sitzt und du, ganz gleich wo du hinschaust, dich dem Effekt nicht entziehen kannst.
3D Displays werden sich erst dann durchsetzen, wenn Holografie für den Endkunden erschwinglich ist. Dann hast du eine physikalisch korrekte räumliche Darstellung und die ganzen Nachteile, die Stereoskopie mit sich bringt, gehören ein für allemal der Vergangenheit an.
Guest83
2015-03-14, 18:32:29
Du erkaufst dir die 3D-Darstellung mit Kopf- und Augenschmerzen, den Menschen wird schlecht davon.
0% der Leute die SteamVR verwendet haben wurde schlecht. Wieso wiederholst du immer und immer wieder diese falsche Behauptung? Die Fakten liegen auf dem Tisch, der Auslöser von Motion Sickness ist nicht Stereoskopie, sonst wäre es nicht möglich, dass die Leute SteamVR verwenden und es ihnen danach gut geht, oder?
Der naive Gedanke, dass man einfach bisherige Videospiele in VR übertragen kann und man die Spieler darin mit 40 km/h durch die Gegend laufen und strafen lässt, während rund um ihnen alles explodiert und das Ganze auch noch mit einer falschen Position des Kopfes (weil sitzend) und über ein Gamepad gesteuert. Davon (und zu hoher Latenz und nicht akkurates Tracking) wurde den Leuten schlecht, nicht von der Stereoskopie.
DinosaurusRex
2015-03-14, 19:00:01
0% der Leute die SteamVR verwendet haben wurde schlecht.
Das glaubst du ja wohl selbst nicht. Hör auf zu schwätzen und leg diese Statistik endlich vor. Für wie blöd hältst du die Leute eigentlich?
Selbst Shu Yoshida von SCE war ehrlich genug um zuzugeben, dass ihm beim Morpheus schlecht wurde und das er grundsätzlich der Meinung ist, dass VR ungeeignet für Core Gaming sei.
][immy
2015-03-14, 20:57:54
4K braucht 4x Rechenleistung. Um dazu überhaupt visuell einen großen Unterschied zu sehen noch mal mindestens Faktor 5. 20x so schnelle Hardware 2019? Wohl eher nicht.
Aus der ganzen 1080p Debatte der letzten 2 Jahren dürften wir doch gelernt haben, das nur die Auflösung zählt ... alles andere kann ja heruntergeschraubt werden bis es läuft ;)
ne, mal im ernst
Ich denke schon das mit der nächsten Gen irgendwas mit 4k kommen wir (einfach weil es dann mehr 4k Fernseher gibt). Das werden sicherlich nicht alle Titel nutzen. Es gibt halt immer die Wahl zwischen Eye-Candy und Auflösung.
Aber mit einer weiteren Steigerung der Auflösung ist der optikgewinn noch kleiner als zwischen 720p und 1080p. Die Diagonalen der Fernseher können ja nicht endlos erhöht werden. Diese sind aktuell schon zu groß für die meisten Wohnzimmer. Und mit einem gesunden Sitzabstand (nein 1m ist nicht gesund) fällt es schon heute kaum jemanden wirklich auf.
VR wird genau wie Kinect und Eye-Toy nur ein zusätzliches Spielzeug werden. VR Brillen sind einfach nicht Massentauglich und das nicht nur wegen Motion-Sickness.
Guest83
2015-03-14, 21:48:17
Das glaubst du ja wohl selbst nicht. Hör auf zu schwätzen und leg diese Statistik endlich vor. Für wie blöd hältst du die Leute eigentlich?
Ist nicht meine Statistik, das hat Gabe Newell gesagt. Du kannst aber auch gerne alle Hands-On-Berichte von der GDC durchlesen, kein einziger Journalist hat darüber berichtet, dass ihm schlecht wurde. Nicht einer, von dutzenden. Das wäre schon ein großer Zufall, wenn die alle "immun" wären, oder?
Es ist ganz simpel: Mit SteamVR wurde nicht nur die Motion-to-Photon-Latency und die Bildwiederholrate gelöst, sondern auch durch das Lighthouse-Tracking auch Locomotion gelöst. Und das ist der Hauptfaktor für Motion Sickness in VR. Löst man das, löst man Motion Sickness. Stereoskopie hat damit nichts zu tun, egal wie oft du noch das Gegenteil behaupten wirst.
Selbst Shu Yoshida von SCE war ehrlich genug um zuzugeben, dass ihm beim Morpheus schlecht wurde und das er grundsätzlich der Meinung ist, dass VR ungeeignet für Core Gaming sei.
Das glaube ich gerne, dass er das bei Morpheus gesagt hat. Er hat es aber nicht gesagt, nachdem er SteamVR getestet hat. (Ich weiß schon, du wirst jetzt gleich wieder sagen, dass er das aus Höflichkeit getan hat, in Wirklichkeit hat er sich bestimmt gleich hinterher übergeben...)
[immy;10553448']VR wird genau wie Kinect und Eye-Toy nur ein zusätzliches Spielzeug werden. VR Brillen sind einfach nicht Massentauglich und das nicht nur wegen Motion-Sickness.
Lass mich raten: Du hast es noch nicht ausprobiert, ja?
tobor
2015-03-16, 13:53:07
Bezüglich 4k meinte AlphaTier folgendes:
"Ich denke dass Next Gen Sampling Frequenz und Rasterization voneinander trennt. Es bringt einfach nur Vorteile wie beispielsweise importance Sampled Edges. Damit sind 4K dann auch keine Kunst mehr."
Bräuchte man in diesem Fall einen geringeren Anstieg an Rechenleistung?
Der Begriff Motion-Sickness in VR ist nicht wirklich definiert. Üblicherweise meint man damit, dass sich die virtuelle Kamera bewegt oder dreht, das Gleichgewichtsorgan (und andere Sinne) diese Bewegung/Rotation aber nicht erfahren. "Gelöst" hat Valve dieses Problem dadurch, dass bei den Demos keine solche Bewegungen passiert sind, der Spieler bewegt sich nur in seinem vorgegebenen Raum. Mit der Oculus ist das auch möglich, hier ist der Platz allerdings auf den Erfassungsbereich der Kamera begrenzt.
Motion Sickness durch die reine stereoskopische Darstellung würde ich aber auch nicht für unmöglich halten. Mich betrifft das glücklicherweise nicht, ich kann stundenlang in Stereo auf meiner Leinwand daddeln. Bei der DK2 wird mir allerdings sofort schlecht, wenn sich die Kamera bewegt, oder noch schlimmer, rotiert.
00-Schneider
2015-03-17, 12:28:24
Nintendos nächste Konsole "NX" wird 2016 vorgestellt. Ob Handheld, Heimkonsole oder Hybrid ist dabei noch nicht klar.
http://www.neogaf.com/forum/showthread.php?t=1011949
-----------
Ich hoffe auf den geistigen Nachfolger vom Gamecube, wird aber wohl eher nicht so kommen.
Iterator
2015-03-19, 15:20:21
Ich hoffe das man auf der Managementebene endlich mal zur Einsicht gekommen ist, das in der heutigen Zeit die Leistung einer Konsole wichtiger ist, als irgendwelche Gimmicks und die Marschrichtung komplett wechselt. Obwohl bei Iwata & Co, muss man wohl wieder mit dem schlimmsten rechnen. ;D
Knuddelbearli
2015-03-19, 19:58:18
Das wichtigste ist und bleibt der Preis und dem wird sich alles andere unterordnen.
Alles über 400€ ist nicht / kaum Massenmarktfähig
Iterator
2015-03-19, 20:27:40
Das mit dem Budget dürfte wohl jedem klar sein. Es müsste wohl eher lauten, was Nintendo bereit ist für eine kommende Konsole, für die Hardware auszugeben. Mann hätte wohl bei der WII U schon etwas potentere Hardware verbauen können, aber man hatte ja die Schwerpunkte bekanntlich anders gesetzt. In dem Fall hätte mich mal die Preiskalkulation interessiert. Wenn man mal davon ausgeht, das sie vermutlich bei AMD aus dem (Hardware) Regal bedient werden, werden wohl größere Überraschungen aus bleiben.
Disco_STFU
2015-03-19, 21:46:26
@Guest83
Das den Leuten bei den Steam VR Demos nicht schlecht wurde liegt aber wohl vorallem an der Art der Demos. In einem Video Interview zweier Entwickler die für die Vive Ideen entwickeln und testen wurde ganz klar gesagt, dass es vor allem am Movement liegt ob einem schlecht wird.
Bloßes "geradeaus gehen" verursacht keine Probleme. Sobald ich mich aber Ingame drehe, diese Bewegung in Echt aber nicht mitmache bekommt das Gehirn Probleme.
Nakai
2015-03-19, 23:55:58
Aha, dann kommt der nächste AMD-Designwin.
Gleich eine Prognose:
4xJaguar/Puma-Derivat
~512SPs/8 CUs GCN
+Nintendo SecretSauce X
Ich kann mir wirklich keine Nintendo-Konsole mit irgendwelchen sonderbaren Hardware-Schnickschnack vorstellen.
Ravenhearth
2015-03-20, 00:50:52
Aha, dann kommt der nächste AMD-Designwin.
Gleich eine Prognose:
4xJaguar/Puma-Derivat
~512SPs/8 CUs GCN
+Nintendo SecretSauce X
Ich kann mir wirklich keine Nintendo-Konsole mit irgendwelchen sonderbaren Hardware-Schnickschnack vorstellen.
Ende 2016 kann man schon mit 14/16nm rechnen, dann ist das nicht mehr so neu wie 28nm in 2012. Der Chip wäre doch winzig, sehr wahrscheinlich unter 100mm². Ich könnte mir vorstellen, dass selbst ein flotter ARM-SoC (Nvidia Parker, Apple A10) dann solche Leistung erreicht. Nee. Da muss mehr kommen, XBox One/PS4-Level ist Pflicht.
tobor
2015-03-20, 09:18:54
Eine Konsole mit weniger als der doppelten Ps4-Leistung ergibt wenig Sinn. Mit was genau wenn nicht Leistung soll man sich von den jetzt bereits etablierten Konsolen absetzen? Exklusive Spiele kriegt auch die Wiiu. Ports jetziger Konsolenmultititel mit garantierten 1080p und 60 fps wären durchaus ein Anreiz,sich die neue Nintendokonsole zu kaufen.
Rente
2015-03-20, 11:11:08
Eine Konsole mit weniger als der doppelten Ps4-Leistung ergibt wenig Sinn. Mit was genau wenn nicht Leistung soll man sich von den jetzt bereits etablierten Konsolen absetzen? Exklusive Spiele kriegt auch die Wiiu. Ports jetziger Konsolenmultititel mit garantierten 1080p und 60 fps wären durchaus ein Anreiz,sich die neue Nintendokonsole zu kaufen.
Das haben sich auch bei der WiiU alle gedacht und es kam anders.
tobor
2015-03-20, 11:16:46
Das haben sich auch bei der WiiU alle gedacht und es kam anders.
Ja,aber wird Nintendo so dumm sein, den gleichen Fehler zweimal zu machen?
Affinator
2015-03-20, 12:25:27
Ich behaupte einfach mal, dass die "schlechten" Verkaufszahlen der WiiU nichts mit der Hardware zu tun haben. Bei den Konsolen zählt nur Image und Software.
Das Image von Nintendo war in dem Markt in denen aktuell Konsolen verkauft werden (Mainstream <- über Casual, unter Enthusiast) seit der Wii sehr schlecht. Zusätzlich gab es zu Beginn nur wenig gute First-Party-Software und deswegen hat sich die WiiU auch so schleppend verkauft.
Eine bessere Grafik würde der Nintendo-Konsole nur etwas bringen, wenn sie WIRKLICH viel stärker wäre als die PsOne; einfach um die Leute wirklich mitzureißen und aufzurütteln. Doppelt schätze ich da als zu wenig ein. Und viel mehr wird es so oder so nicht geben.
Ich persönlich habe übrigens zwei PCs und eine WiiU und spiele weiterhin sehr gerne an/mit Ihr und erst recht wenn Freunde da sind. Grafik ist wirklich nicht alles. Nintendospiele machen einfach Spaß.
Edit: Es fehlt noch ein Fazit: Nintendo wird sehr wahrscheinlich keine UltraHax0r-1337-Konsole raushauen, sondern den bekannten Pfad weitergehen. Wenn die Software stimmt, haben sie IMHO auch noch immer eine Nische zu besetzen (Leute wie mich).
mboeller
2015-03-20, 12:29:10
Ja,aber wird Nintendo so dumm sein, den gleichen Fehler zweimal zu machen?
Ja, es ist Nintendo. Bei den Handhelds funktioniert das ja auch, warum also nicht auch bei den Home-Konsolen. Zumindest tickt Nintendo (bisher) so. Alles natürlich IMHO
Ravenhearth
2015-03-20, 12:41:36
Ich behaupte einfach mal, dass die "schlechten" Verkaufszahlen der WiiU nichts mit der Hardware zu tun haben. Bei den Konsolen zählt nur Image und Software.
Software. Das ist der Punkt. Die Hardware hat sicher auch dazu beigetragen, dass es kaum große Titel von anderen Publishern für die Wii U gibt.
Lightning
2015-03-20, 12:48:08
Das Image von Nintendo war in dem Markt in denen aktuell Konsolen verkauft werden (Mainstream <- über Casual, unter Enthusiast) seit der Wii sehr schlecht.
Wobei das schon beim Gamecube nicht besser war und die Probleme schon beim N64 deutlich wurden. Der Gamecube hat sich dann trotzdem noch besser verkauft als momentan die Wii U, aber das lag imo vor allem am niedrigeren Preis.
Für ganz wichtig für den Misserfolg halte ich auch das miese Marketing. Nintendo hat absolut die Mittel, um eine große Werbekampagne zu starten und die Konsole ins Gespräch zu bringen. Stattdessen hat der Mainstream den Launch der Wii U kaum mitbekommen, und die, die es mitbekamen, haben sie zur Hälfte für einen neuen Wii-Controller gehalten (weil es eben missverständlich präsentiert wurde).
Dazu kommt dann eben das unvorteilhafte Image und die schlechten 3rd-Party-Beziehungen.
Dass die Leistungsfähigkeit der Hardware wenig mit Situation zu tun hat, sehe ich auch so, aber so ganz egal ist es dann vielleicht doch nicht. Es hätte zumindest die Schwelle für Multiplattformportierungen ein wenig gesenkt, wenn die Hardware sehr billige Ports erlaubt hätte; ein echtes Heilmittel wäre es dafür aber sicher auch nicht gewesen.
edit: Das ganze natürlich nur zusätzlich zu der Tatsache, dass der Tablet-Controller nicht annähernd so zieht wie die Wii Remote damals (ha hat man sich einfach verspekuliert).
DinosaurusRex
2015-03-20, 15:17:38
Nintendo hat genug Knete, um alle anderen Konkurrenten dreimal platt zu machen. Die sind als Unternehmen fast ausschließlich auf Videospiele fokussiert, die haben die besten und bekanntesten IPs und darüber hinaus ein zum Bersten gefülltes Bankkonto und trotzdem kriegen die nix auf die Reihe.
Das Problem ist die Führungsetage und solange sich da nichts ändert, erwarte ich von denen auch nichts mehr. Die werden so lange immer und immer wieder vor die Wand fahren, bis die Bosse irgendwann einmal zurücktreten und dann wird das Unternehmen "amerikanisiert" werden, so wie es bei SCE passiert ist, und frühestens dann erwarte ich von denen auch wieder einen Verkaufserfolg.
Es ist ja wohl ein Witz, dass die Partei mit den geringsten finanziellen Mitteln (SCE), diese Gen nach Belieben dominiert und darüber hinaus auch sämtliche Verkaufsrekorde für Konsolen-Gaming zu brechen scheint. Das zeigt eines ganz deutlich: Du brauchst vor allen Dingen fähiges Personal und das hat Nintendo nicht.
IC3M@N FX
2015-03-20, 19:44:14
Was ich generell seid 3-4 Jahren nicht verstehe warum bringt Apple nicht eine Stationäre Konsole auf dem Markt? Die könnten doch problemlos einen starken ARM Apple A9X mit 8 Kernen mit 2-2,5 Ghz basierenden SoC mit einer Starken GPU von PowerVR auf dem Markt werfen. AMD Lösung wäre auch sicher denkbar.....
Die kennen sich mit Betriebsystemen aus haben schon die Infrastruktur des AppStore´s, iTunes usw. sie könnten ihre Dienste problemlos viel einfacher in den Wohnzimmern der Menschen unterbringen als ein AppleTV es je machen könnte. Es ist mir ein Rätsel warum die das nie in Erwägung gezogen haben....
Ganon
2015-03-20, 20:24:21
Was ich generell seid 3-4 Jahren nicht verstehe warum bringt Apple nicht eine Stationäre Konsole auf dem Markt?
Wenn du dir mal anguckst wie viele Milliarden Microsoft verbrannt hat, um einen Fuß in den Markt zu bekommen, dann findest du schnell die Antwort ;)
Apples Kundschaft sind keine Zocker und Apples Hardware war auch noch nie vom Preis her auf Massenniveau. Langanhaltende Produktpflege ist ebenso ein Fremdwort. ;)
][immy
2015-03-20, 21:24:39
Wenn du dir mal anguckst wie viele Milliarden Microsoft verbrannt hat, um einen Fuß in den Markt zu bekommen, dann findest du schnell die Antwort ;)
Apples Kundschaft sind keine Zocker und Apples Hardware war auch noch nie vom Preis her auf Massenniveau. Langanhaltende Produktpflege ist ebenso ein Fremdwort. ;)
Verbrannt? Bis zur one war man im Plus. natürlich muss man erst mal investieren, aber wenn man es nicht grad macht wie sega hat man am Ende eines konsolenzykluses ein gutes Plus.
Ganon
2015-03-20, 23:59:02
[immy;10561130']Verbrannt? Bis zur one war man im Plus.
Die XBOX 1 war an sich ein totaler finanzieller Flop für MS (man hat sich damit auf GameCube Niveau bewegt und das war für Nintendo schon eine halbe Katastrophe). Damit hat man nur Verluste eingefahren und bis die 360 in den schwarzen Bereich kam, verging eine halbe Ewigkeit (man musste ja erst mal aus dem XBOX 1 Tal). Das Geld muss bis dahin ja auch erst mal irgendwo herkommen.
Das könnte sich Apple zwar vllt. leisten, aber warum? Hätte Sony die PS3 nicht so kompliziert gestaltet, hätte es für MS auch ganz anders ausgehen können, mit der 360 (siehe One vs PS4).
Spiele wachsen nicht auf Bäumen und eine Plattform ohne Exklusiv-Titel ist nicht wirklich sinnvoll ;)
IC3M@N FX
2015-03-21, 03:50:59
Die XBOX 1 war an sich ein totaler finanzieller Flop für MS (man hat sich damit auf GameCube Niveau bewegt und das war für Nintendo schon eine halbe Katastrophe). Damit hat man nur Verluste eingefahren und bis die 360 in den schwarzen Bereich kam, verging eine halbe Ewigkeit (man musste ja erst mal aus dem XBOX 1 Tal). Das Geld muss bis dahin ja auch erst mal irgendwo herkommen.
Das könnte sich Apple zwar vllt. leisten, aber warum? Hätte Sony die PS3 nicht so kompliziert gestaltet, hätte es für MS auch ganz anders ausgehen können, mit der 360 (siehe One vs PS4).
Spiele wachsen nicht auf Bäumen und eine Plattform ohne Exklusiv-Titel ist nicht wirklich sinnvoll ;)
Die Xbox Classic hatte aber auch einen relativ kurzen Konsolen leben das war schon vornherein klar das die am Anfang ein Verlustgeschäft machen....
Knuddelbearli
2015-03-21, 12:20:35
Abgesehen davon das viele der Verluste auch NVs ( Und vermutlich auch Intel da hat man aber nie viel davon gehört hat ) "Schuld" waren. Wobei am ende natürlich trotzdem MS schuld ist das sie so einen vertrag zugestimmt haben ^^
tobor
2015-03-31, 09:44:19
Mal eine kleine Abschätzung: Was für eine Konsole wäre für 350 Euro möglich,Ende 2016/2017?(kein Verlust,aber auch kein Gewinn/Schwerpunkt auf Performance)
disap.ed
2015-03-31, 10:45:38
Die Frage ist nicht nur was möglich wäre, sondern vielmehr was sinnvoll ist.
Mehr als 8 CPU-Cores wird es so schnell nicht geben, bin gespannt wie AMDs K12 sich darstellt nächstes Jahr, die sehe ich als guten Kandidaten z.B. für Nintendo, könnten z.B. für einen Handheld A57(bzw. Nachfolger)-Cores verwenden und für die Heimkonsole K12-Cores. Von der GPU her würde ich etwas mit Tonga-Performance als machbar sehen für den Preis, bei Nintendo erwarte ich aber etwas (wesentlich) schwächeres wenn wirklich nächstes Jahr etwas kommen sollte (eher in der Nähe der PS4 also ~2TFLOPS). Beim Handheld 256 GCN-Shader Units max. mit entsprechend niedriger Taktung. 2GB RAM beim Handheld und 8GB bei der Konsole.
drkohler
2015-03-31, 15:07:19
Mal eine kleine Abschätzung: Was für eine Konsole wäre für 350 Euro möglich,Ende 2016/2017?(kein Verlust,aber auch kein Gewinn/Schwerpunkt auf Performance)Wenn man bei 28nm bleibt und einfach die bis dahin wahrscheinlich ausgereiftesten Chipdesigntools dafür benutzt, kann ich mir problemlos z.B. einen PS4 SoC vorstellen mit 12GB 384bit gddr5, 33% mehr gpu (18->24) und 5-10% mehr Takt (evtl den cpu Takt noch lösen vom gpu-Takt). Das wäre im Prinzip schon jetzt machbar aber eine neue Konsole nach 2 Jahren würde einfach zu viele User vergraulen.
Wenn man den Zeitrahmen auf 2018 setzt, muss man dann einfach gegen den EinsteigerPC mit Titan XIII-Karte ankämpfen...
y33H@
2015-03-31, 15:10:45
CPU-Takt von GPU-Frequenz lösen? Die sind doch eh entkoppelt.
Ravenhearth
2015-03-31, 19:34:51
Und da Jaguar bald mit bis zu 2,5 GHz kommt (Carrizo-L), wären vlt. 2,4GHz auch denkbar. Eventuell könnte man dann Spielen ganze 7 Kerne verfügbar machen.
xyleph
2015-03-31, 23:02:28
Wenn man bei 28nm bleibt und einfach die bis dahin wahrscheinlich ausgereiftesten Chipdesigntools dafür benutzt, kann ich mir problemlos z.B. einen PS4 SoC vorstellen mit 12GB 384bit gddr5, 33% mehr gpu (18->24) und 5-10% mehr Takt (evtl den cpu Takt noch lösen vom gpu-Takt). Das wäre im Prinzip schon jetzt machbar aber eine neue Konsole nach 2 Jahren würde einfach zu viele User vergraulen.
Wenn man den Zeitrahmen auf 2018 setzt, muss man dann einfach gegen den EinsteigerPC mit Titan XIII-Karte ankämpfen...
Die WiiU kam 2012, nächstes Jahr wären es schon vier Jahre.
prinz_valium
2015-03-31, 23:37:42
Wenn man bei 28nm bleibt und einfach die bis dahin wahrscheinlich ausgereiftesten Chipdesigntools dafür benutzt, kann ich mir problemlos z.B. einen PS4 SoC vorstellen mit 12GB 384bit gddr5, 33% mehr gpu (18->24) und 5-10% mehr Takt (evtl den cpu Takt noch lösen vom gpu-Takt). Das wäre im Prinzip schon jetzt machbar aber eine neue Konsole nach 2 Jahren würde einfach zu viele User vergraulen.
Wenn man den Zeitrahmen auf 2018 setzt, muss man dann einfach gegen den EinsteigerPC mit Titan XIII-Karte ankämpfen...
warum auf gddr5 setzen? das ist eine aussterbende speichertechnologie, die bald nurnoch in der ps4 zum einsatz kommt.
wenn ein wiiu nachfolger in 2016 kommt, sollte man auf ddr4 ram setzen
das würde im hinblick auf den hinteren teil des produktlebenszyklus eine deutliche kosteneinsparung mit sich bringen. gddr5 könnte im jahr 2018/2019 sehr kostenintensiv sein, weil die produktion deutlich zurück gefahren sein wird.
da ist selbst ddr3 zukunftssicherer, weil dies in den budget mobile device als low power variante wohl noch sehr lange zu finden sein wird.
grafikkarten werden auf hmb oder sonstige stacked speichertechnologien gehen. amd schon dieses jahr mit ihrer highend klasse. nvidia ab nächstem mit pascal. und dann wird es auch nicht mehr soooo lange dauern, bis auch die mainstreamkarten wechseln und höchstens noch das entry lvl mit den restbeständen von gddr5 betrieben wird
high end mobile und desktop wird zu ddr4 gehen.
gddr halte ich aus jetziger sicht nur dann für eine neu entwickelte konsole sinvoll, wenn diese, wie andere nintendo konsolen auch, nur eine maximale lebenszeit von 5 jahren hat. bei 8 oder gar 9 jahren, wie wir es bei der ps3/xb360 gesehen haben, wäre gddr5 imho nicht die beste wahl aus kosten sicht.
deshalb bin ich auch nicht so sicher, wie gut die entscheidung von sony war, diese speichertechnologie zu nutzen. aus damaliger sicht, natürlich eine extrem gute und auch für das erste drittel lebenzeit der ps4. aber mal sehen, wie es mit dem letzen aussehen wird.
DDR4 ist kein guter Ersatz fuer GDDR5. Per Pin schafft GDDR5 7 GBit/s, DDR4 gerade mal 2,4 GBit/s.
DDR4 hat gegenueber DDR3 auch nur minimale Aenderungen. Primaer wurde die Spannung gesenkt.
prinz_valium
2015-04-01, 01:33:07
die frage ist halt, was nintendo möchte
wieder eine low power und low cost console?
dann ist ddr4 perfekt
high end?
dann vllt gleich auf hmb gehen?
und wenn sonst nichts über bleibt, muss man wohl doch auf gddr5 setzen, auch wenn das vllt nicht die beste wahl wäre bezüglich zukünftiger kostenreduzierungen bei den konsolenbauteilen.
Gebrechlichkeit
2015-04-01, 01:56:18
Weiss nicht vohin damit, ist kein eigener Thread wert ....ergo
Microsoft floated the idea of giving away the Xbox
http://www.gamesindustry.biz/articles/2015-03-30-microsoft-floated-the-idea-of-giving-away-xbox
"At the time, Xbox thought that the core market was going to be casual. They were going to be the casual gamers' machine. Now, that's why they approached us because they said 'we think you've got something that competes in that Mario space and we think Mario's the thing to kill ... We see that space. We want that audience. We love Oddworld so why don't you get on this bandwagon? And we might give the box away'," Lanning explained to GamesIndustry.biz.
drkohler
2015-04-01, 02:14:54
warum auf gddr5 setzen? das ist eine aussterbende speichertechnologie, die bald nurnoch in der ps4 zum einsatz kommt.Mein PS4-Beispiel war nur eine Antwort auf die Frage, was man für 300 Euro in 1-2 Jahren in etwa bekommen könnte. Erstmal bekommst du im Grosseinkauf die 12 GDDR5 Chips für $30. Für den Preis bekommst du wahrscheinlich nicht mal eine HBM Einheit, und um die GDDR5-Bandbreite zu schlagen brauchst du mindestens zwei davon, und der Interposer ist auch nicht gratis. Und wenn es hart auf hart kommt, dann kommt vielleicht Einer mal auf die Idee, die GDDR5 Chips umzubauen. Alle die genialen Sachen, die wahrscheinlich niemand je braucht raus, dafür die Addressierung voll ausdekodieren - man(n) kann ja träumen. Dann stinkst du auch mit HBM in den Zugriffszeiten voll ab und dein veralteter GDDR5-Speicher ist voll dabei im Rennen.
Wenn du 12-15 mio Konsolen pro Jahr verkaufen kannst, dann kannst du eine Linie in einer Fab voll laufen lassen und es braucht dich nicht zu kümmern, ob die Welt denkt dass der GDDR5-Speichertechnologie "out" ist.
Alles eine Kostenfrage, und die Kosten sind immer das Hauptargument im Konsolendesign, der biliigste Anbieter gewinnt.
Sunrise
2015-04-01, 09:28:13
die frage ist halt, was nintendo möchte
Eine kommende AMD-APU mit HBM. Und das gilt nicht nur für Nintendo.
robbitop
2015-04-01, 09:41:00
Würde wohl am Meisten Sinn ergeben (wenn crazy Nintendo nicht Nintendo wäre). Eine APU @14 nm mit 4...8 Zen Cores zwischen 2 und 3 GHz und einer R4xx GPU + 8 GiB HBM würden schon Sinn ergeben und 2016/17 auch sehr bezahlbar sein.
prinz_valium
2015-04-01, 13:19:37
Eine kommende AMD-APU mit HBM. Und das gilt nicht nur für Nintendo.
das ist wohl eher dein wunsch (und bestimmt auch der vieler anderer gamer) :D
falls die von nintendo aber wirklich schon in entwickelung ist und 2016 kommt, glaube ich da nicht so ganz dran
drkohler
2015-04-01, 18:16:45
und einer R4xx GPU + 8 GiB HBM würden schon Sinn ergeben und 2016/17 auch sehr bezahlbar sein.Woher kommt eigentlich die komische Idee, dass HBM billig ist? Hat Einer mal eine Preisliste die er posten könnte, ich habe bisher ausser von "schweineteuer" (im Konsolengebrauch) nichts gelesen? Und wer träumt von auch nur von halbwegs bezahlbaren 14nm Chips schon im nächsten Jahr?
Die "schweineteuer"-Aussagen sind auch nur Mutmaßungen. Genaue Preise kennt momentan noch keiner. Ich habe vor kurzem nur mal die Präsentation von TSMC gefunden (allerdings von 2013!), dort sind die Speichertechnologien grob in ein Diagramm eingezeichnet (Seite 20): http://www.memcon.com/pdfs/proceedings2013/track1/soc_memory_interfaces_today_and_tomorrow_at_tsmc.pdf
Wie gesagt ist das nur eine grobe Einordnung, man hat keinerlei Zahlen oder genaues Verhältnis, HBM scheint aber noch sehr deutlich teurer als LPDDR4.
Ohne weitere Infos ist es natürlich sehr schwer einzuschätzen. Es gibt momentan mit Hynix nur einen Anbieter, der HBM liefern kann, niedrige Stückzahlen und der ganze Kram mit TSV, Interposer usw. Auf der anderen Seite stehen einfacheres PCB und SI, was auch ein bisschen was einspart
prinz_valium
2015-04-01, 19:24:02
naja wir wissen aber, dass bei konsolen 5 dollar mehr leicht den unterschied zwischen realisiertbar und scheine teuer machen kann.
Sunrise
2015-04-01, 20:01:22
Für 2016 wirds evtl. doch etwas knapp (es gibt nicht genug Produktionskapazität, um die sich alle schlagen werden) aber 2017/2018 sollte das kein Problem (8GB) preislich mehr darstellen. GV104 noch mit GDDR5 ist auch nichtmehr realistisch.
prinz_valium
2015-04-01, 21:34:06
Für 2016 wirds evtl. doch etwas knapp (es gibt nicht genug Produktionskapazität, um die sich alle schlagen werden) aber 2017/2018 sollte das kein Problem (8GB) preislich mehr darstellen. GV104 noch mit GDDR5 ist auch nichtmehr realistisch.
natürlich nicht. vorallem nciht, wenn der gv104 erst mal wieder als highend grafikkarte verkauft wird ;D
aber auch so, wird die gen nach pascal auch schon im mainstream segment auf hbm setzen
und bei amd wird es möglicherweise sogar schon die gen nach der 390x, also das amd equivalent zu pascal
Karümel
2015-04-12, 16:48:00
http://www.pcgameshardware.de/PlayStation-4-Konsolen-220102/News/Playstation-4-Xbox-One-und-die-E3-1156071/
Keighley rechne damit, dass in Zukunft auch Konsolen in unterschiedlichen Versionen und mit stetig verbesserter Hardware veröffentlicht werden. Spiele könnten dann zwar auf allen Versionen gespielt werden, allerdings würde sich die Performance und Grafik dementsprechend anpassen.
Lightning
2015-04-12, 17:15:31
http://www.pcgameshardware.de/PlayStation-4-Konsolen-220102/News/Playstation-4-Xbox-One-und-die-E3-1156071/
Keighley rechne damit, dass in Zukunft auch Konsolen in unterschiedlichen Versionen und mit stetig verbesserter Hardware veröffentlicht werden. Spiele könnten dann zwar auf allen Versionen gespielt werden, allerdings würde sich die Performance und Grafik dementsprechend anpassen.
Gaming-Experte Geoff "Dorito Pope" Keighley. Naja. ;)
Kann schon so kommen, klar. Aber nur, wenn die erste Version der Konsole samt APIs und co. schon im Hinterkopf damit entwickelt wurde, dass es Upgrades geben wird. Darf ja keine Kompatibilitätsprobleme der neueren Hardware mit den alten Spielen geben. Bei Microsoft könnte ich mir das noch eher vorstellen als bei Sony.
Skysnake
2015-04-12, 17:34:40
Warum? Eher sollte doch Sony weniger PRobleme haben, da Sie einfach einen Speicher haben und gut ist. Also muss sich auch niemand über den eDRAM und dessen Belegung gedanken machen.
Die PS4 ist da schon ein relatives fire and forget System im Vergleich zur XBOne
das_Apo
2015-04-12, 18:52:20
Würde das die Spieleentwicklung für die Entwickler nicht enorm erschweren, da nicht es nicht mehr nur PS4, Xbox One und PC gäbe, sondern bspw. ...
- PS4, PS4.3, PS4.7
- Xbox One, XO.2, XO.6
- PCs in ihren unterschiedlichsten Variationen
Wem wäre damit geholfen bzw. wem würde das etwas bringen? Damit gäbe es nur sehr viel mehr Plattformen, für die optimiert werden muss und wenn die finanziellen, personellen und/oder zeitlichen Ressourcen dafür nicht ausreichen, dann sind die Erstkäufer die Deppen, weil es bescheiden läuft, und/oder die Käufer der späteren (teureren) Iterationen, weil ihre Mehrleistung nicht in deutlich besserer Grafik resultiert.
Aber vielleicht bin ich dem gegenüber mangels Ahnung auch viel zu negativ eingestellt.
Lightning
2015-04-12, 19:45:30
Warum? Eher sollte doch Sony weniger PRobleme haben, da Sie einfach einen Speicher haben und gut ist. Also muss sich auch niemand über den eDRAM und dessen Belegung gedanken machen.
Die PS4 ist da schon ein relatives fire and forget System im Vergleich zur XBOne
Ich dachte da eher daran, dass sich jemand bewusst oder unbewusst auf irgendwelche, möglicherweise obskuren, Feinheiten der Hardware oder gar Laufzeiten verlässt. Musste beispielsweise nicht selbst beim Shrink der 360 darauf geachtet werden, dass irgendwelche Signallaufzeiten eingehalten werden (ich erinnere mich da dunkel an einen Artikel)?
Man korrigiere mich, wenn ich damit falsch liege.
Dass ich das Microsoft eher zutrauen würde als Sony meinte ich eher im Bezug auf die Firmenpolitik und die Software (dass man da eben schon in diese Richtung denkt und entsprechend vorsorgt).
Skysnake
2015-04-12, 19:53:49
Würde das die Spieleentwicklung für die Entwickler nicht enorm erschweren, da nicht es nicht mehr nur PS4, Xbox One und PC gäbe, sondern bspw. ...
- PS4, PS4.3, PS4.7
- Xbox One, XO.2, XO.6
- PCs in ihren unterschiedlichsten Variationen
Wem wäre damit geholfen bzw. wem würde das etwas bringen? Damit gäbe es nur sehr viel mehr Plattformen, für die optimiert werden muss und wenn die finanziellen, personellen und/oder zeitlichen Ressourcen dafür nicht ausreichen, dann sind die Erstkäufer die Deppen, weil es bescheiden läuft, und/oder die Käufer der späteren (teureren) Iterationen, weil ihre Mehrleistung nicht in deutlich besserer Grafik resultiert.
Aber vielleicht bin ich dem gegenüber mangels Ahnung auch viel zu negativ eingestellt.
Gibt doch heutzutage mehr als genug Möglichkeiten das ziemlich einfach zu realisieren. LOD, AA, Auflösung, FPS usw. usf. Da kann man ziemlich viel machen, ohne grundsätzlich am Spiel und dessen Mechanik zu ändern. Es sind halt reine Effekt-Unterschiede, und das würde wohl ziemlich vielen Leuten durchaus schmecken, da mit der größte Kritikpunkt an den Konsolen wegfallen würde. Sie veralten praktisch nicht mehr.
Durch x86 und GPGPU fähigen iGPUs ist man auch an nem Punkt, wo es an sich auch egal ist, wenn die Hardware leistungsfähiger ist. Heutzutage koppelt doch niemand mehr die Spielgeschwindigkeit direkt an die verwendete Hardware, wie es früher gang ung gebe war.
Martin K.
2015-04-12, 19:57:28
Gaming-Experte Geoff "Dorito Pope" Keighley. Naja. ;)
Dachte ich mir auch! ;)
Der nervt ja auch in jedem Gametrailers Review mit seinem Gefasel. :(
Windi
2015-04-12, 20:14:49
Beim Game Boy funktioniert es ja auch.
Ich gehe mal davon aus, das man für jede Konsolenversion extra programmieren muss, aber dadurch das die meisten Spiele eh Multi-Titel sind, ist das vielleicht gar nichts so besonderes mehr.
Wenn man bedenkt, das die größten Posten bei einem Spiel heutzutage Marketing, Vertrieb und Content-Erstellung sind, dann sind die Anpassungen an der Spiele-Engine vielleicht verschmerzbar.
Der große Vorteil ist halt, das man immer eine große Hardwarebasis hat und nicht nach einem Launch nur ein paar Millionen potenzielle Kunden hat.
DinosaurusRex
2015-04-13, 07:38:40
Gaming-Experte Geoff "Dorito Pope" Keighley. Naja. ;)
Du hättest auch 'Gaming Experte Geoff "zählt unter anderem Hideo Kojima zu seinen persönlichen Freunden" Keighley' schreiben können.
tobor
2015-04-14, 16:01:39
Ziemlicher Mumpitz. Dann haben die Versionen keinerlei Vorteil mehr gegenüber einem ähnlich ausgestatteten Pc,weil es sich nicht mehr lohnt,für sie zu optimieren.
tobor
2015-08-25, 13:36:23
http://www.pcgameshardware.de/Nintendo-NX-Hardware-260784/News/Neue-Spielekonsole-ohne-optisches-Laufwerk-1168961/
Könnten neue Konsolen statt auf Blu Rays auf Speicherkarten(etwa Sd) setzen?
Novum
2015-08-25, 13:57:41
http://www.pcgameshardware.de/PlayStation-4-Konsolen-220102/News/Playstation-4-Xbox-One-und-die-E3-1156071/
Keighley rechne damit, dass in Zukunft auch Konsolen in unterschiedlichen Versionen und mit stetig verbesserter Hardware veröffentlicht werden. Spiele könnten dann zwar auf allen Versionen gespielt werden, allerdings würde sich die Performance und Grafik dementsprechend anpassen.
Nervige Clickbait-Scheiße. Nein. Jede Generation der gleiche Schwachsinn.
Gebrechlichkeit
2015-08-25, 14:40:34
http://www.pcgameshardware.de/Nintendo-NX-Hardware-260784/News/Neue-Spielekonsole-ohne-optisches-Laufwerk-1168961/
Könnten neue Konsolen statt auf Blu Rays auf Speicherkarten(etwa Sd) setzen?
https://duckduckgo.com/?q=TurboGrafx-16+Cartridge+&t=ffcm&ia=images
https://en.wikipedia.org/wiki/TurboGrafx-16
Ich habe mir erst vor ein paar Tagen eine MicroSD 32GB fuer´n Zehner gekauft und war verbluefft wie KLEIN das Teil in Wirklichkeit ist (so gross wie die Oberflaeche der F1 Taste ...).
AnnoDADDY
2015-08-25, 14:45:16
wäre sogar sinnvoll, sdkarten haben ja doch ne recht ordentliche Speichermenge und viel Platz nehmen die auch nicht weg, ist halt die Frage, wie viel teurer die im vergleich zu nem optischen Medium sind und sich das lohnt.
aufkrawall
2015-08-25, 14:47:27
Bei den riesigen Stückzahlen scheint mir das machbar.
JannickJagon
2015-08-25, 14:50:31
Ich denke das mit den SD Karten wird sich nicht durchsetzen
THEaaron
2015-08-25, 14:53:38
Optische Medien müssen sterben. Windows 10 bekommt man auch schon auf einem USB Stick wenn man es im Handel kauft afaik.
Wäre auf jeden Fall ein geiler Schachzug komplett ohne optisches Medium. Die Frage ist für mich: wird man mit Nintendos NX auch Wii U Spielen abspielen können? Sonst hol ich mir vorher keine Wii U mehr..
Gebrechlichkeit
2015-08-25, 15:06:21
Ob die Masse (OttoNormal) das akzeptiert ist eine andere Frage. Mir sind die per. zu klein geraten die Dinger, die meisten wollen auch weiterhin ihre 4/8K Filme auf Disc kaufen, ausleihen bzw. Sammeln. Die 50GB Speicherplatz einer BD bekommen wir heute schon voll, wie das ganze wohl mit der PS5 aussehen wird.. oh boy! 100GB Downloads, 20Gb Patch, 10GB DLC ... jetzt verstehe ich auch, warum die EU momentan "Optical Fiber" so voranpuscht ...
AnnoDADDY
2015-08-25, 15:10:42
dann nimmt man halt ne normale sd-karte, die ist nicht zu klein und die verschwindet auch nicht so schnell und schneller als jedes optische Medium sind die auch, wenn man nicht die billigsten nimmt...
robbitop
2015-08-25, 16:30:50
Das frisst zu viel Marge weg. Einen optischen Datenträger presst man für wenige cents. Die nächsten Speichermedien sollten mit 100 GB ausgelegt werden. Aktuell liegt man bei rund 17 cent pro Gigabyte. Wären also 17 EUR. Um auf vergleichbare Kosten wie ein optisches Medium zu kommen, muss man gut 2x Größenordnungen runter. Das ist unwahrscheinlich. Auch nicht für die Generation darauffolgend - da der Platzbedarf ja auch steigt.
Ich könnte mir aber vorstellen, dass man zur reinen Onlinedistribution umschwenkt.
Aber eh man Flash als Medium nimmt, nimmt man eher optische Medien. Denn bei einem Spiel sind die Gewinne eh schon extrem schmal, sofern man nicht einen zweistelligen Millionenbetrag umsetzt.
Da kann das Speichermedium nicht auf einmal zu einem signifikanten Kostenträger werden.
Never gonna happen ;)
fondness
2015-08-25, 16:33:40
Naja eine Speicherkarte müsste jeweils nur so groß sein wie nötig, die wenigstens Spiele benötigen da 100Gb. Eine SD-Card mit 16GB bekommt hat heute um unter 5 EUR - und das sind Endkundenpreise inkl. MWSt und Gewinn für Händler, etc.
del_4901
2015-08-25, 16:39:45
Flash ist im Vergleich zu Optischen Medien viel zu teuer.
robbitop
2015-08-25, 16:54:57
Naja eine Speicherkarte müsste jeweils nur so groß sein wie nötig, die wenigstens Spiele benötigen da 100Gb. Eine SD-Card mit 16GB bekommt hat heute um unter 5 EUR - und das sind Endkundenpreise inkl. MWSt und Gewinn für Händler, etc.
Schon heute haben Spiele oft 50 GB und mehr auf einer Disc. Nextgen Spiele werden sicher nicht kleiner. Und selbst wenn es nur 5 € sind (was nicht der Fall sein wird, da man mehr Speicher brauchen wird!), ist das noch 10x zu teuer.
Never gonna happen.
Käsetoast
2015-08-25, 17:02:53
Das frisst zu viel Marge weg.
Was ist denn mit einer Mischkalkulation? Kein optisches Laufwerk mehr spart Geld. Letzten Trends zufolge wurden doch rund 80% der Steam Spiele digital verkauft und nur noch 20% wanderten über die Ladentheke. Wenn der Trend sich weiter ausbaut kann man sich doch ausrechnen wie viele Digitalkäufer dann eine SD Karte querfinanzieren. Die Rechnung könnte durchaus aufgehen...
disap.ed
2015-08-25, 18:24:52
Was ist denn mit einer Mischkalkulation? Kein optisches Laufwerk mehr spart Geld. Letzten Trends zufolge wurden doch rund 80% der Steam Spiele digital verkauft und nur noch 20% wanderten über die Ladentheke. Wenn der Trend sich weiter ausbaut kann man sich doch ausrechnen wie viele Digitalkäufer dann eine SD Karte querfinanzieren. Die Rechnung könnte durchaus aufgehen...
This. Der Trend wird definitiv so weitergehen und das Speichermedium wird wie beim PC an Relevanz verlieren, dafür sorgen schon die heranwachsenden Digital Natives für die optische Laufwerke nur noch eine Randerscheinung sind in Zeiten von Appstores und Netflix.
Wir liegen heute bei SD-Karten bei Endkunden(!)preisen von 0,25-0,30€/GB, das wären bei DVD-Größe, auf welche immernoch ein Großteil der Spiele passen (vor allem bei Nintendos Zielgruppe), ca. 2,50€, Nintendo kauft das sicher billiger ein wenn sie die Module millionenfach ordern.
Man könnte mal mit 4/8/16/32GB-Modulen starten und bei Bedarf dann noch 64GB oder gar 128GB-Varianten nachschießen (womöglich auch dann erst bei der nachfolgenden Generation).
Beim 3DS (hat glaube ich maximum 8GB-Module, hauptsächlich werden aber 4GB-Module verwendet IIRC) geht sich das auch aus, und da kosten die Spiele 30€ weniger.
Dafür sparen sie bei jeder Konsole geschätze 25€, das sind gleich mal ein paar Millionen die man von Beginn weg spart, egal wie viele Spiele sich jeder Käufer zulegt.
DinosaurusRex
2015-08-25, 18:35:24
Letzten Trends zufolge wurden doch rund 80% der Steam Spiele digital verkauft und nur noch 20% wanderten über die Ladentheke. Wenn der Trend sich weiter ausbaut kann man sich doch ausrechnen wie viele Digitalkäufer dann eine SD Karte querfinanzieren. Die Rechnung könnte durchaus aufgehen...
Bei Konsolen ist es genau umgekehrt: 80 Prozent Disc, 20 Prozent Download. Stand Mai 2015. Quelle (http://www.mcvuk.com/news/read/physical-still-dominant-despite-digital-shift/0150185)
Das ist nachvollziehbar, denn für Konsoleros haben optische Datenträger aufgrund der fairen DRM-Politik (Gebrauchthandel, Tausch) eben riesengroße Vorteile.
Tesseract
2015-08-25, 19:42:45
Das ist nachvollziehbar, denn für Konsoleros haben optische Datenträger aufgrund der fairen DRM-Politik (Gebrauchthandel, Tausch) eben riesengroße Vorteile.
als ob das eine eintscheidung der user wäre. die firmen haben die kisten, den vertrieb und die infrastrukturen primär für physische datenträger designt und deswegen laufen sie auch seit generationen darauf. es gibt doch da überhaupt keinen ernsthaften wettbewerb.
DinosaurusRex
2015-08-25, 22:11:41
als ob das eine eintscheidung der user wäre.
Ja von wem denn sonst? Denkst du die Konsolenhersteller zwingen die eigene Kundschaft, Discs zu kaufen? Ich denke die Käufer von physikalischen Kopien von Konsolenspielen wissen sehr genau um die Vorteile. Diese Vorteile für die Kunden sind nicht von der Hand zu weisen (siehe alleine die Gamestop-Umsätze). Sollte irgendwann mal eine DRM-Situation eintreten, wie sie auf dem PC bereits eingetreten ist, ich bin mir sicher, kaum jemand würde sich noch Discs kaufen.
Tesseract
2015-08-25, 22:23:03
Ja von wem denn sonst? Denkst du die Konsolenhersteller zwingen die eigene Kundschaft, Discs zu kaufen?
zwingen müssen sie niemanden, die unterschiede in der qualität zwischen den plattformen, die hardwarebeschränkungen und die unehrliche preisgestaltung reichen da schon vollkommen.
DinosaurusRex
2015-08-25, 22:26:43
Jaja, Konsoleros sind alles Deppen, weil sie immer noch nicht ausschließlich auf dem PC spielen. Immer der gleiche Bullshit von dir...
robbitop
2015-08-26, 15:32:12
Was ist denn mit einer Mischkalkulation? Kein optisches Laufwerk mehr spart Geld. Letzten Trends zufolge wurden doch rund 80% der Steam Spiele digital verkauft und nur noch 20% wanderten über die Ladentheke. Wenn der Trend sich weiter ausbaut kann man sich doch ausrechnen wie viele Digitalkäufer dann eine SD Karte querfinanzieren. Die Rechnung könnte durchaus aufgehen...
Und wo bleibt der Vorteil? Ein optisches Laufwerk ist, sofern es nicht bleeding edge ist (wie beim BD LW der PS3) ziemlich günstig.
100 GiB halte ich für Next Gen für realistisch. Da reichen 1-2x Spiele locker, damit der Vorteil weg ist.
Der Vorteil eines optischen Laufwerks ist (noch!) dass man gleich einen Punkt mehr auf der Liste der Medienzentrale hat. Immerhin kämpfen die Konsolenhersteller im Kampf um das "Wohnzimmer" mit. Solange optische Medien noch relevant dafür sind und die Internetanbindung der meisten Käufer nicht schnell genug ist, wird es wohl bei optischen Medien bleiben.
Irgendwann kommt dann der Schritt zur rein digitaler Distribution. Das könnte ggf. schon bei der nächsten Gen anstehen. Ansonsten bei der übernächsten.
Auch wird das Gamestreamingmodell ggf. immer attraktiver, was Datenträger jeglicher Art für Konsolen unnötig macht.
Flash wird und wurde seit den letzten 2 Gens immer wieder spekuliert - kam aber nie und kommt auch nicht wieder. Zumindest nicht bei AAA-Standkonsolen.
DinosaurusRex
2015-08-26, 17:12:09
Sollte Nintendo tatsächlich so einen Mischmasch aus Handy/Handheld und Spielkonsole versuchen, wie es jetzt häufiger spekuliert wurde, dann macht ein optisches Laufwerk eigentlich keinen Sinn.
Installieren musst du bei der stationären Konsole ja so oder so. Eventuell haben die dann eine Lösung, die pro Datenträger eine Installation für die Heimkonsole erlaubt, das Spiel für den mobilen Gebrauch in beschnittener Form aber auch direkt vom Datenträger wiedergibt.
tobor
2015-08-27, 08:42:36
Und wo bleibt der Vorteil?
Zumindest für den Kunden: Schnelle Ladezeiten der Spiele ohne Ssd.
disap.ed
2015-08-27, 11:02:33
Der Vorteil eines optischen Laufwerks ist (noch!) dass man gleich einen Punkt mehr auf der Liste der Medienzentrale hat. Immerhin kämpfen die Konsolenhersteller im Kampf um das "Wohnzimmer" mit. Solange optische Medien noch relevant dafür sind und die Internetanbindung der meisten Käufer nicht schnell genug ist, wird es wohl bei optischen Medien bleiben.
Komplett irrelevant, vor allem für Nintendo.
Habe seit es Netflix/Amazon Instant Video gibt meinen Bluray-Player nicht 1x auch nur angesehen.
Irgendwann kommt dann der Schritt zur rein digitaler Distribution. Das könnte ggf. schon bei der nächsten Gen anstehen. Ansonsten bei der übernächsten.
Auch wird das Gamestreamingmodell ggf. immer attraktiver, was Datenträger jeglicher Art für Konsolen unnötig macht.
Eben, hat also keinen Sinn für ein halbes Jahrzehnt ein optisches Laufwerk mitzuziehen
Windi
2015-08-28, 22:19:38
Also, auf das Laufwerk würde ich lieber nicht verzichten.
Das würde einen Shitstorm auslösen und die Marke beschädigen.
Auch gibt es anfangs immer ein paar Probleme und das bleibt dann die ganze Generation kleben.
Eher Evolution statt Revolution.
Lieber mit Laufwerk starten und dann langsam immer weiter in die Richtung des digitalen Vertriebes umschwenken. Die Gefahr sich das Image zu versauen ist einfach viel zu groß. Digital erworbene Spiele (die sehr wahrscheinlich an den Spieleraccount gebunden sind) haben einige "Besonderheiten", an die man die Spieler erst gewöhnen muss.
An Spiele, die auf eigenen Speicherkarten erscheinen, glaube ich hingegen nicht, das ist noch viel zu teuer.
Möglich ist allerdings das man sich Spiele, die man digital erworben hat, woanders herunterlädt und dann mit USB-Stick oder SD-Karte zur eigenen Konsole trägt.
Beispiel:
-Das Internet ist zu Hause zu langsam, dann gehe ich in die Stadt und kaufe mir an einer "Spielestation" das Spiel und lade es mir auf einem von mir mitgebrachten USB-Stick.
-Oder, ich kaufe das Spiel über eine App auf dem Smartphone, und lade es mir dann über die Konsole eines Freundes herunter.
Knuddelbearli
2015-08-28, 23:11:09
Wieso nicht einfach USB nutzen und Laufwerk optional anbieten?
zappenduster
2015-08-29, 07:39:22
Wieso nicht einfach USB nutzen und Laufwerk optional anbieten?
das müsste sich dann preislich aber deutlich niederschlagen und ich glaube da hat keiner der anbieter echtes interesse daran so ein geteiltes modell zu fahren
ilibilly
2015-08-29, 08:33:21
Das Laufwerk kostet vielleicht 10€ im Einkauf ,wenn überhaupt.
Ob jetzt eine. Konsole 399 oder ohne Laufwerk 389€ kostet macht den Kohl nicht fett :)
Da wird man nicht auf eine doch erhebliche Kundenzahl verzichten ,nicht jeder hat Breitband ,und für 100gb eine Woche mit dsl 1-3 MBit saugen ist nicht so pralle :)
Guest83
2015-08-29, 10:26:21
Die Einsparungen erfolgen doch nicht beim Laufwerk selbst, sondern dass man sich die gesamte Infrastruktur der physischen Produktion und Verteilung von Discs erspart. Dafür braucht man quasi überall auf der Welt Niederlassungen um den Vertrieb vor Ort regeln zu können. Man braucht Fabriken bzw. muss diese mieten/bezahlen, man muss sich um dem Transport kümmern, usw. Da hängt ein ganzer Rattenschwanz an Aufwand und damit zusätzlichen Kosten dran, was man sich ersparen könnte.
Siehe zum Vergleich Valve, die haben einen weltweiten Distributionskanal und genau zwei Niederlassungen, eine in den USA und eine in Europa.
Deathcrush
2015-08-29, 11:42:05
Habe seit es Netflix/Amazon Instant Video gibt meinen Bluray-Player nicht 1x auch nur angesehen.
Wenn man auf Bildqualität keinen Wert legt :D ist das vielleicht in Ordnung.
Crazy_Bon
2015-08-29, 12:41:15
Wenn man auf Bildqualität keinen Wert legt :D ist das vielleicht in Ordnung.
Ich habe mir schon einige HD-Filme über Amazon Instant Video angeschaut und wüsste nicht was an der Qualität zu bemängeln gebe und trotz Vor- und Zurückspulen dennoch flüssig und keine Absenkung der Bitrate. Dabei ist das, was alle TV-Sender uns als HD verkaufen wollen, eine reine Augenwischerei.
Rente
2015-08-29, 13:03:23
Ich habe mir schon einige HD-Filme über Amazon Instant Video angeschaut und wüsste nicht was an der Qualität zu bemängeln gebe und trotz Vor- und Zurückspulen dennoch flüssig und keine Absenkung der Bitrate. Dabei ist das, was alle TV-Sender uns als HD verkaufen wollen, eine reine Augenwischerei.
Wenn dir der Unterschied zur BD nicht auffällt ist das schön für dich, er ist aber definitiv da und für viele eben noch ein Mehrwert.
Mehrkanalton in verschiedenen Sprachen ist z.B. bei Amazon und Maxdome nach wie vor ein ziemliches Problem das man mit BDs nicht hat.
Ich fände es btw. schön wenn man bei der nächsten Generation die Möglichkeit hätte seine BDs zu registrieren oder ähnliches (allerdings nicht als Zwangsverknüpfung), so dass man dann auch ohne Disc im Laufwerk spielen kann.
DinosaurusRex
2015-08-29, 16:17:54
Dafür braucht man quasi überall auf der Welt Niederlassungen um den Vertrieb vor Ort regeln zu können.
Och ich glaube Amazon und Co kümmern sich gerne um den Vertrieb. Ist ja nicht so, als würde der Einzelhandel nichts daran verdienen. Ein System, bei dem mitverdient werden kann, wird vom Einzelhandel ohnehin viel lieber ins Sortiment aufgenommen und dann auch gezielt beworben.
Knuddelbearli
2015-08-29, 22:38:46
Die Einsparungen erfolgen doch nicht beim Laufwerk selbst, sondern dass man sich die gesamte Infrastruktur der physischen Produktion und Verteilung von Discs erspart. Dafür braucht man quasi überall auf der Welt Niederlassungen um den Vertrieb vor Ort regeln zu können. Man braucht Fabriken bzw. muss diese mieten/bezahlen, man muss sich um dem Transport kümmern, usw. Da hängt ein ganzer Rattenschwanz an Aufwand und damit zusätzlichen Kosten dran, was man sich ersparen könnte.
Siehe zum Vergleich Valve, die haben einen weltweiten Distributionskanal und genau zwei Niederlassungen, eine in den USA und eine in Europa.
Wenn es Sony und MS darum ginge wieso kosten DL Titel gleichviel wie als BR die man dann auch noch weiterverkaufen kann? Wenn Disc titel jetzt 10€ mehr kosten würden als jetzt und dafür DL Titel 5€ weniger würde sich das alleine erledigen ohne Druck.
Cubitus
2015-08-29, 22:52:16
Denke der Smartphone Markt wird noch besser erschlossen werden.
Ich kann mir Sony und MS auch durchaus als Streaming Anbieter vorstellen, welche auf aktuelle Smartphones setzen. D.h ein eigenes Portables Gerät wie die Vita wird es wohl nicht mehr geben.
Oder Spiele für Smartphones allg anpassen. Die Hardware dieser Dinger, ist ja zum Teil schon richtig mächtig. Wozu was eigenes entwickeln.. !?
Die Stand-Konsolen bekommen noch mehr Cloud, noch mehr Share und Multimedia Stellung verpaßt.
Problem ist auch das die Spiele immer noch aufwendiger werden solange muss man die Leute ja bei Laune halten, also geht man her und macht sich den Indy-Markt noch mehr zu nutze.
Vorteil viele Spieler sind solche Games vom Smartphone her gewöhnt..
4K wird der angepeilte Maßstab werden, wird aber wieder mit Kompromissen behaftet sein..Hohe Auflösung und spektakuläre Grafik kosten halt.. Strom oder Hitze darf es aber nicht kosten..
AMD wird es bis dahin nicht mehr geben..Also muß sich vermutlich Nvidia darum kümmen..
Ravenhearth
2015-08-30, 00:26:08
Wenn Arctic Islands und Zen gut werden, dann wird AMD bis dahin auch überleben. Und ich gehe davon aus, dass die gut werden, denn AMD ist sich der Notwendigkeit absolut bewusst. Dann denke ich auch, dass AMD wieder in die Konsolen kommt, weil sie ihre Chips so billig anbieten wie sonst keiner.
DinosaurusRex
2015-10-16, 15:35:06
Nintendo Begins Distributing Software Kit for New NX Platform (http://www.wsj.com/articles/nintendo-begins-distributing-software-kit-for-new-nx-platform-1444996588)
Nintendo Co. has begun distributing a software development kit for its new NX videogame platform, people familiar with the matter said, suggesting the company is on track to introduce the product as early as next year.
The kit is used by third-party software developers to modify existing games for the platform or create new ones. Videogame console makers such as Nintendo like to have popular game titles ready when they start selling new devices.
Nintendo’s current flagship products are the Wii U, a console typically used in the living room, and the portable 3DS device. Both have been out for several years, leading analysts to predict that the Kyoto-based entertainment powerhouse will move fairly swiftly to bring out the NX.
“We are increasingly of the idea that Nintendo might launch the NX in 2016 because of the softness of 3DS and Wii U,” said David Gibson, an analyst at Macquarie Capital Securities.
A Nintendo spokeswoman said the company plans to disclose details of NX next year.
Square Enix Co. said in July that it planned to make the latest version of its blockbuster role-playing game Dragon Quest for the NX. That version, called Dragon Quest XI, is also planned for the 3DS and Sony Corp.’s PlayStation 4.
The exact shape of the NX hardware isn’t yet clear. People familiar with the development plans said Nintendo would likely include both a console and at least one mobile unit that could either be used in conjunction with the console or taken on the road for separate use. They also said Nintendo would aim to put industry-leading chips in the NX devices, after criticism that the Wii U’s capabilities didn’t match those of competitors.
Nintendo’s former president, Satoru Iwata, said in March that NX “is a platform dedicated for videogames.” Mr. Iwata died in July, and his post was assumed in September by Tatsumi Kimishima, a former banker who served as one of Mr. Iwata’s top lieutenants at Nintendo.
Mr. Kimishima is expected to carry forward the strategy of Mr. Iwata, a legendary figure for many videogame fans. In the months before his death, Mr. Iwata laid out plans to put Nintendo characters in games for mobile devices under a partnership with DeNA Co. and made a deal with amusement park operator Universal Parks & Resorts, which is part of Comcast Corp.
“Nintendo is no longer just a traditional videogame company,” said industry veteran Hirokazu Hamamura, a director at Kadokawa Dwango Corp., which publishes magazines about videogames.
Nakai
2015-10-16, 16:29:14
Jedenfalls AMD-Designwin. Alles andere wäre Kontraproduktiv.^^
sulak
2015-10-17, 13:07:02
https://twitter.com/mochi_wsj/status/654989741977239552
Nintendo's new NX likely to 1) have more than two devices 2) come with powerful chips 3) be launched by end of 2016
Wieder ein Tablet, oder gar separat, welches das WiiU Tablet und den n3DS ersetzt? Beim Preis der aktuellen WiiU musste ich kurz lachen.
Eine Wohnzimmer Konsole, separat/losgelöst vom Tablet?
Spiele die am TV dann in 1080p laufen und "mitnehmen" auf dem Tablet für unterwegs? Halte ich für 3rd Partys zu kompliziert, die nichtmal AF auf der PS4 aktivieren können. Wie sollen die dann 2 Spielmodi, stationär und mobil einbauen?
Da wird viel spekuliert, und man kann sich glücklich schätzen, wenn das Tablet die Power der WiiU haben könnte. Oder SmallN endlich gescheite Mainstream Hardware verbaut die günstig ist und nicht irgend ein Scheiss von der Resterampe (die Hardware des n3DS ist so lachhaft und das Display erst... aber er kostet ca. 100$ in der Produktion).
Ein 7-9 Zoll 1280*800 Tablet mit 1GB RAM kostet unter 200€ im VK... HEUTE.
K-putt
2015-10-17, 14:15:23
Ein 7-9 Zoll 1280*800 Tablet mit 1GB RAM kostet unter 200€ im VK... HEUTE.
Nur ~50€* (http://www.amazon.com/Fire-Display-Wi-Fi-GB-Includes/dp/B00TSUGXKE)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.